Nach intensiven Marathon-Verhandlungen haben sich Europäisches Parlament, der Rat der Europäischen Union und die Europäische Kommission auf einen politischen Kompromiss zum sogenannten EU-AI-Act geeinigt, mit dem der Umgang mit „Künstlicher Intelligenz“ geregelt werden soll. Der endgültige formale Beschluss folgt im kommenden Jahr.
Konkret werden KI-Anwendungen künftig in verschiedene Risikoklassen unterteilt. KI-gestützte Empfehlungssysteme oder Spamfilter sollen dabei nicht reguliert werden, weil sie nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellten, wie es von der EU hieß. Als risikoreich eingestufte KI-Systeme müssen dagegen strenge Anforderungen erfüllen, darunter Risikominderungssysteme, eine gesicherte hohe Qualität der Datensätze, Protokollierung von Aktivitäten, detaillierte Dokumentation, klare Benutzerinformationen, eine menschliche Aufsicht und ein hohes Niveau von Robustheit, Genauigkeit und Cybersicherheit. Beispiele für solche KI-Systeme mit hohem Risiko sind bestimmte kritische Infrastrukturen, beispielsweise in den Bereichen Wasser, Gas und Elektrizität, aber auch medizinische Geräte, Systeme zur Feststellung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen, oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten auch biometrische Identifikations-, Kategorisierungs- und Emotionserkennungssysteme als risikoreich. Schließlich will die EU auch KI-Systeme mit „inakzeptablem Risiko“ definieren und verbieten, die eine klare Bedrohung für die Grundrechte der Menschen darstellen. Dazu gehören Spielzeuge mit Sprachunterstützung, die gefährliches Verhalten von Minderjährigen fördern, oder Systeme, die „Social Scoring“ durch Regierungen oder Unternehmen ermöglichen, sowie bestimmte Anwendungen in der Polizeiarbeit. Darüber hinaus sollen einige Anwendungen biometrischer Systeme verboten werden, beispielsweise Systeme zur Emotionserkennung am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder biometrische Echtzeit-Fernidentifizierung für Strafverfolgungszwecke in öffentlich zugänglichen Räumen, wenngleich mit wenigen Ausnahmen. Beim Einsatz von KI-Systemen wie Chatbots müssen sich Nutzer darüber im Klaren sein, dass sie mit einer Maschine interagieren. Sogenannte „Deep Fakes“ und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden und Nutzer müssen darüber informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen Anbieter Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet werden und als künstlich erzeugt oder manipuliert erkennbar sind. „Die Einigung zum AI Act ist ein politischer Schaufenster-Erfolg zu Lasten von Wirtschaft und Gesellschaft“, kritisierte Bitkom-Chef Bernhard Rohleder am Samstagmorgen die Pläne. Der gestern Nacht erzielte Kompromiss schieße insbesondere bei der Regulierung generativer KI über das Ziel hinaus und greife tief in die Technologie ein. Das Risiko sei groß, dass europäische Unternehmen „durch nicht praxistaugliche Vorhaben der rasanten technologischen Entwicklung künftig nicht folgen können“.
Foto: Computer-Nutzer (Archiv) [dts]