EU KI-Gesetz: Verbotene Praktiken, Strafen und Schlupflöcher

Ab Febru­ar 2025 tritt ein bahn­bre­chen­des Gesetz in der Euro­päi­schen Uni­on in Kraft: Der AI Act, das ers­te umfas­sen­de Regel­werk zur Künst­li­chen Intel­li­genz (KI), das bestimm­te KI-Prak­ti­ken ver­bie­tet, die als unan­nehm­bar hohes Risi­ko für die Sicher­heit, Gesund­heit und Grund­rech­te der Men­schen ein­ge­stuft wer­den. Die­ses Gesetz soll ver­hin­dern, dass KI-Sys­te­me zu feh­ler­haf­ten, irre­füh­ren­den oder sogar vor­ein­ge­nom­me­nen Ergeb­nis­sen füh­ren, die die Grund­rech­te der Bür­ger ver­let­zen. Der AI Act zielt dar­auf ab, Dis­kri­mi­nie­rung, Über­wa­chung und ande­re schäd­li­che Anwen­dun­gen von KI ein­zu­däm­men. Es geht dar­um, einen Rah­men zu schaf­fen, der Inno­va­ti­on und tech­no­lo­gi­schen Fort­schritt mit dem Schutz von Men­schen­rech­ten und ethi­schen Stan­dards in Ein­klang bringt. Dabei ist zu beach­ten, dass die Ver­bo­te auch dann gel­ten, wenn das KI-Sys­tem außer­halb der EU betrie­ben wird, aber Aus­wir­kun­gen inner­halb der EU hat.

Welche KI-Praktiken sind nun (teilweise) verboten?

Der AI Act ver­bie­tet eine Rei­he von KI-Sys­te­men und ‑Prak­ti­ken, die als beson­ders risi­ko­reich ein­ge­stuft wur­den. Dazu gehö­ren: KI-Sys­te­me, die zur Mani­pu­la­ti­on oder Täu­schung des mensch­li­chen Ver­hal­tens ein­ge­setzt wer­den, wie zum Bei­spiel sprach­ge­steu­er­te Spiel­zeu­ge, die Kin­der zu gefähr­li­chem Ver­hal­ten anstif­ten. Eben­so unter­sagt sind KI-Sys­te­me, die die Schwä­chen von Men­schen oder Grup­pen aus­nut­zen. Bestimm­te For­men des Social Scoring, die nicht im Kon­text der Daten­er­he­bung ste­hen, sind eben­falls ver­bo­ten. Des­wei­te­ren sind KI-Sys­te­me zur Erstel­lung oder Erwei­te­rung von Gesichts­er­ken­nungs­da­ten­ban­ken durch unge­zielt das Sam­meln von Gesichts­bil­dern aus dem Inter­net oder Über­wa­chungs­ka­me­ras unter­sagt. Auch die Live-Gesichts­er­ken­nung im öffent­li­chen Raum durch die Poli­zei ist grund­sätz­lich ver­bo­ten, aller­dings gibt es hier Aus­nah­men.

Teilweise Verbote im Detail

Neben den voll­stän­di­gen Ver­bo­ten gibt es auch Prak­ti­ken, die unter bestimm­ten Umstän­den ein­ge­schränkt sind. Dazu gehört Pre­dic­ti­ve Poli­cing, also der Ein­satz von KI-Sys­te­men, die auf Basis von Per­sön­lich­keits­merk­ma­len das Risi­ko von Straf­ta­ten bewer­ten. Ein­ge­schränkt ist die Nut­zung von KI für Pre­dic­ti­ve Poli­cing, wenn sie das Ergeb­nis einer Risi­ko­be­wer­tung auf­grund von Per­sön­lich­keits­merk­ma­len ist. Hin­ge­gen ist die Nut­zung von Sys­te­men, die auf objek­ti­ven und nach­weis­ba­ren Fak­ten im direk­ten Zusam­men­hang mit einer kri­mi­nel­len Hand­lung basie­ren, nicht unter­sagt. Eben­falls ein­ge­schränkt sind Kate­go­ri­sie­rungs­sys­te­me, die ver­su­chen, Ras­se, poli­ti­sche Mei­nun­gen, Gewerk­schafts­zu­ge­hö­rig­keit, reli­giö­se oder welt­an­schau­li­che Über­zeu­gun­gen, Sexu­al­le­ben oder sexu­el­le Ori­en­tie­rung auf­grund von bio­me­tri­schen Daten her­zu­lei­ten. Die­se Ein­schrän­kung gilt jedoch nicht für Straf­ver­fol­gungs­be­hör­den. Zudem sind Emo­ti­ons­er­ken­nungs­sys­te­me im Bil­dungs- und Arbeits­kon­text ver­bo­ten, die ver­su­chen, den emo­tio­na­len Zustand oder cha­rak­te­ris­ti­sche Merk­ma­le durch bio­me­tri­sche Daten wie Gesichts­aus­drü­cke zu ermit­teln. Hier gibt es Aus­nah­men für medi­zi­ni­sche und Sicher­heits­grün­de.

Schlupflöcher und Ausnahmen

Trotz der weit­rei­chen­den Ver­bo­te gibt es Schlupf­lö­cher und Aus­nah­men. Die “natio­na­le Sicher­heit” wur­de als Aus­nah­me im AI Act mit auf­ge­nom­men. Dies bedeu­tet, dass die Schutz­maß­nah­men des Geset­zes nicht für KI-Sys­te­me gel­ten, die aus­schließ­lich zum Zweck der natio­na­len Sicher­heit ent­wi­ckelt oder ein­ge­setzt wer­den, unab­hän­gig davon, ob dies von einer Behör­de oder einem Pri­vat­un­ter­neh­men geschieht. Die­se Aus­nah­me ist jedoch nicht als pau­scha­le Frei­stel­lung zu ver­ste­hen und muss im Ein­klang mit der EU-Grund­rech­te­char­ta ste­hen. Des Wei­te­ren gilt das KI-Gesetz nur für Sys­te­me, die auf dem EU-Markt plat­ziert oder in der EU ver­wen­det wer­den. Dies bedeu­tet, dass ver­bo­te­ne Sys­te­me in Dritt­län­der expor­tiert wer­den kön­nen.

Was tun bei Rechtsverletzungen?

Soll­te jemand glau­ben, dass sei­ne Rech­te durch die Ver­wen­dung eines ver­bo­te­nen KI-Sys­tems ver­letzt wur­den, kön­nen Beschwer­den bei der zustän­di­gen Markt­über­wa­chungs­be­hör­de ein­ge­reicht wer­den. In Deutsch­land ist dies die Bun­des­netz­agen­tur. Es bleibt abzu­war­ten, wie effek­tiv die­se Behör­den die Ein­hal­tung der Vor­schrif­ten durch­set­zen und Ver­stö­ße ahn­den wer­den. Die Nicht­ein­hal­tung der Ver­bo­te kann mit Ver­wal­tungs­stra­fen von bis zu 35.000.000 Euro oder für Unter­neh­men mit bis zu 7% ihres Gesamt­jah­res­um­sat­zes geahn­det wer­den.

Weiterführende Informationen

Für wei­te­re Infor­ma­tio­nen zum AI Act und damit ver­bun­de­nen The­men ste­hen ver­schie­de­ne Res­sour­cen zur Ver­fü­gung. Dazu gehö­ren poli­ti­sche Doku­men­te, Stel­lung­nah­men von Inter­es­sen­ver­tre­tun­gen, der Geset­zes­text selbst sowie wei­te­re Erklä­run­gen und Leit­li­ni­en.

Fazit

Das EU-KI-Gesetz ist ein wich­ti­ger Schritt zum Schutz vor den Gefah­ren von miss­bräuch­li­cher KI. Es gibt jedoch Her­aus­for­de­run­gen bei der Durch­set­zung und es gibt Schlupf­lö­cher, die aus­ge­nutzt wer­den könn­ten. Es wird ent­schei­dend sein, wie die EU und die Mit­glieds­staa­ten die Vor­ga­ben des Geset­zes umset­zen und wie gut der Schutz der Grund­rech­te durch­ge­setzt wird. Es wird sich zei­gen, ob der AI Act in der Lage ist, die Zukunft der KI in der EU im Sin­ne der Men­schen­rech­te zu gestal­ten.

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert