Die Antidiskriminierungsbeauftragte des Bundes, Ferda Ataman, warnt vor einer neuen Form von Diskriminierung, wenn öffentliche und private Stellen zunehmend Entscheidungen durch automatisierte Systeme und sogenannte „Künstliche Intelligenz“ (KI) treffen lassen. Angesichts von Regelungslücken müsse die Bundesregierung die anstehende Reform des Allgemeinen Gleichbehandlungsgesetzes nutzen, um vor digitaler Diskriminierung zu schützen, sagte sie den Zeitungen der Funke-Mediengruppe (Mittwochausgaben).
„Digitalisierung, künstliche Intelligenz und Algorithmen machen vieles leichter – leider auch Diskriminierung. Wir dürfen die Gefahren digitaler Diskriminierung auf keinen Fall unterschätzen“, sagte Ataman. Immer öfter würden automatisierte Systeme oder Künstliche Intelligenz über Fragen entscheiden, die für Menschen im Alltag wichtig seien, etwa bei Bewerbungsverfahren, Bankkrediten, Versicherungen oder staatlichen Leistungen. „Menschen müssen darauf vertrauen können, dass sie durch KI nicht benachteiligt werden – und sich wehren können, wenn es doch passiert“, sagte die Antidiskriminierungsbeauftragte.
„Deshalb brauchen wir klare und nachvollziehbare Regeln.“ Für Aufsehen hatte unter anderem ein Fall in den USA gesorgt, bei dem fehlerhaft programmierte Algorithmen bei Apple-Kreditkarten Frauen systematisch benachteiligt hatten. In den Niederlanden wurden Menschen vor allem mit doppelter Staatsbürgerschaft durch einen Algorithmus in einer Behörden-Software diskriminiert – das war wesentlicher Auslöser für ungerechtfertigte Rückforderungen von Kindergeld bei mehr als 20.000 Menschen, was als „Kindergeld-Affäre“ 2021 zum Rücktritt der Regierung führte. Ataman verwies auf ein von ihr in Auftrag gegebenes Rechtsgutachten, das große Lücken im deutschen Recht aufzeige.
Das Gutachten mit dem Titel „Automatisch benachteiligt“, über das die Funke-Zeitungen berichten, warnt vor der Fehleranfälligkeit algorithmischer Entscheidungssysteme und spricht von einem „unumstrittenen Diskriminierungspotenzial.“ Bislang sei das Allgemeine Gleichbehandlungsgesetz den Herausforderungen „nur bedingt gewachsen“ – obwohl der Einsatz solcher Systeme nahezu alle Bereiche des privaten und öffentlichen Lebens umfasse. Problematisch seien etwa die Zuschreibung von Gruppenmerkmalen, die Wahrscheinlichkeitsaussagen über Personen ermögliche und zu „Diskriminierung durch Statistik“ führen könne. Bei mangelnder Datenqualität sei das Diskriminierungspotenzial bereits im System selbst angelegt, ohne dass Nutzer und Betroffene dies nachvollziehen könnten.
Der technologische Fortschritt mache diskriminierende Datensätze unkontrollierbar in der Weitergabe und Verwendung. Für Betroffene sei es aber mangels Ressourcen unmöglich, den Ursachen einer Benachteiligung auf die Spur zu kommen. Das Gutachten empfiehlt unter anderem, den Anwendungsbereich des Antidiskriminierungsgesetzes zu erweitern, umfassende Auskunfts- und Untersuchungsrechte zu automatisierten Entscheidungssystemen zu verankern und eine Schlichtungsstelle einzurichten.
Foto: Frau mit Kopftuch und Frau ohne Kopftuch (Archiv) [dts]