Das EU-Gesetz über Künstliche Intelligenz (KI-Gesetz), das am 1. August 2024 in Kraft trat, stellt einen bedeutenden Schritt in der Regulierung von KI-Systemen dar. Es zielt darauf ab, Transparenz, Risikominderung und Aufsicht bei der Entwicklung und Nutzung von KI sowohl im öffentlichen als auch im privaten Sektor zu gewährleisten. Die Europäische Kommission ist für die wirksame Umsetzung des KI-Gesetzes verantwortlich, was auch die Erstellung von Leitlinien umfasst, insbesondere in Bezug auf verbotene KI-Praktiken und die Definition von KI-Systemen. Diese Leitlinien sollen helfen, die Bestimmungen des Gesetzes präziser zu interpretieren. Im Dezember 2024 startete die Kommission eine Konsultation mit Stakeholdern zu diesen Leitlinien, wobei die Zivilgesellschaft betonte, dass Grundrechte und Gerechtigkeit im Vordergrund stehen müssen. Es besteht die Sorge, dass die Definition von KI-Systemen und die Einstufung von Hochrisiko-KI-Systemen möglicherweise missbraucht werden könnten, um die Verpflichtungen des KI-Gesetzes zu umgehen. Eine zentrale Forderung ist daher, dass die Regulierung sich auf potenziellen Schaden konzentrieren muss, nicht nur auf die verwendeten technischen Methoden.
Definition von KI-Systemen
Die Definition eines KI-Systems ist entscheidend für die Anwendbarkeit des KI-Gesetzes. Auch vergleichsweise “einfache” Systeme, die weniger komplexe Algorithmen verwenden, müssen in den Anwendungsbereich fallen. Es darf nicht möglich sein, die Regulierung des KI-Gesetzes zu umgehen, indem ein KI-System beispielsweise in ein regelbasiertes System transformiert wird, welches aber die gleiche Funktionalität und das gleiche Schadenspotenzial aufweist. Das niederländische SyRI-System ist ein Beispiel dafür, wie ein scheinbar einfaches und erklärbares System verheerende Folgen für die Rechte und das Leben der Menschen, insbesondere für Angehörige von Minderheiten und Menschen mit Migrationshintergrund, haben kann. Daher muss der Fokus auf dem potenziellen Harmpotenzial liegen, nicht auf der technischen Komplexität. Die Leitlinien müssen klarstellen, dass alle Systeme, die potenziell diskriminieren oder Grundrechte verletzen, unter das Gesetz fallen, unabhängig davon, wie ihre Algorithmen aufgebaut sind.
Verbote von Hochrisiko-KI-Systemen
Das KI-Gesetz verbietet KI-Systeme, die ein “inakzeptables” Risiko für die Grundrechte darstellen. Dies betrifft insbesondere Systeme, die eine soziale Bewertung vornehmen oder zur Verhaltensbewertung eingesetzt werden. Die Leitlinien müssen hierbei klarstellen, dass „soziales Verhalten“ breit interpretiert wird und alle Elemente umfasst, die als Risikoindikatoren dienen können, etwa „ungewöhnliche Wohnverhältnisse“. Auch persönliche Merkmale umfassen Proxy-Daten, die auf Rasse, Ethnizität, Behinderung oder sozioökonomischen Status schließen lassen. Der Kontext, in dem eine soziale Bewertung stattfindet, muss ebenfalls berücksichtigt werden, da solche Praktiken in verschiedenen Bereichen wie Beschäftigung, Bildung, Sozialhilfe, Polizeiarbeit und Migration weit verbreitet sind. Es ist wichtig zu betonen, dass alle Systeme verboten sein sollten, die in diesen Kontexten diskriminierend wirken. Auch Predictive Policing und ähnliche Vorhersagesysteme müssen in den Geltungsbereich fallen, da diese Systeme dazu genutzt werden können, das Risiko einzuschätzen, ob jemand in einem Polizeisystem erfasst wird, wie es beim niederländischen Prokid-System der Fall war. Das Gleiche gilt für Systeme, die in der Migrationskontrolle eingesetzt werden, wenn ein irregulärer Status oder die Einstufung als Sicherheitsrisiko als kriminelle Aktivität gilt. Systeme wie die Risikobewertung in ETIAS müssen ebenfalls verboten werden. Des Weiteren soll die massenhafte Erfassung von Gesichtsbildern nicht erlaubt sein, und die Ausnahmen müssen sich nach der Rechtsprechung des EuGH richten. Die Leitlinien müssen verhindern, dass Systeme wie Clearview AI oder PimEyes, die behaupten, nur biografische Informationen oder URLs zu speichern und nicht die eigentlichen Gesichtsbilder, diese Verbote umgehen.
Emotionen und Biometrie
Die sogenannte “Emotionserkennung” durch KI-Systeme ist äußerst problematisch und wird von vielen kritisiert. Die wissenschaftlichen Grundlagen dieser Systeme sind fragwürdig und können zu gefährlichen Konsequenzen führen. Die Leitlinien müssen hier die klare Unterscheidung zwischen legitimen medizinischen Geräten und Systemen, die Emotionen ableiten oder erkennen sollen, deutlich machen. Die biometrische Kategorisierung muss ebenfalls umfassend geregelt werden. Es muss deutlich gemacht werden, dass das Verbot auch dann gilt, wenn Rückschlüsse auf Ethnizität und Geschlechtsidentität gezogen werden, da dies Rückschlüsse auf Rasse oder sexuelle Orientierung zulässt. Die Richtlinien müssen klarstellen, dass die Ausnahme für Strafverfolgungszwecke nicht für die Kennzeichnung oder Filterung von Daten gilt. Auch die Nutzung der Remote Biometric Identification (RBI) muss klarer geregelt werden. Die Leitlinien müssen spezifizieren, dass die Entwicklung von Echtzeit-RBI-Systemen für den Export ebenfalls unter das Verbot fallen soll. Die Klausel “ohne ihre aktive Beteiligung” soll so ausgelegt werden, dass es nicht erlaubt ist, Poster oder Flyer aufzustellen und zu behaupten, dass die Menschen sich aktiv beteiligt hätten. Zudem wird gefordert, dass ein “erheblicher Verzug” bei der rückwirkenden RBI mindestens 24 Stunden betragen soll.
Menschenrechte und das EU-Recht
Die Leitlinien müssen sicherstellen, dass Menschenrechte, insbesondere die EU-Grundrechtecharta, die zentrale Grundlage für die Umsetzung des KI-Gesetzes bilden. Alle KI-Systeme müssen im Zusammenhang mit Diskriminierung, Rassismus und Vorurteilen betrachtet werden. Das Ziel der Verbote muss es sein, präventiv zu wirken und die Schäden so weit wie möglich zu verhindern. Die Leitlinien müssen betonen, dass die Verbote eine breite Auslegung im Sinne der Schadensprävention erfordern.
Kritik am Konsultationsprozess
Der Konsultationsprozess der Europäischen Kommission wird von der Zivilgesellschaft kritisiert. Es gab einen Mangel an frühzeitiger Ankündigung, eine kurze Frist für die Einreichung von Beiträgen, keine Veröffentlichung der Entwürfe der Leitlinien und keine barrierefreien Formate. Zudem gab es strikte Zeichenbeschränkungen und zum Teil irreführende Fragen. Die Zivilgesellschaft fordert, dass künftige Konsultationen eine aussagekräftige Beteiligung ermöglichen und die Positionen der Zivilgesellschaft bei der Entwicklung und Umsetzung des KI-Gesetzes berücksichtigt werden. Es wird erwartet, dass das KI-Büro eine grundrechtsbasierte Durchsetzung der Gesetzgebung gewährleistet und Menschenrechte über die Interessen der KI-Industrie stellt.
Fazit
Das EU KI-Gesetz ist ein wichtiger Schritt zur Regulierung von KI-Systemen. Eine erfolgreiche Umsetzung erfordert jedoch klare Leitlinien, die Grundrechte und Gerechtigkeit in den Mittelpunkt stellen. Die Zivilgesellschaft muss eine bedeutende Rolle spielen und sicherstellen, dass die Interessen der Menschen über die der KI-Industrie gestellt werden. Das KI-Gesetz muss effektiv durchgesetzt und durch klare Prioritäten untermauert werden.