EU KI-Gesetz: Leitlinien zu Verboten und Definitionen

Das EU-Gesetz über Künst­li­che Intel­li­genz (KI-Gesetz), das am 1. August 2024 in Kraft trat, stellt einen bedeu­ten­den Schritt in der Regu­lie­rung von KI-Sys­te­men dar. Es zielt dar­auf ab, Trans­pa­renz, Risi­ko­min­de­rung und Auf­sicht bei der Ent­wick­lung und Nut­zung von KI sowohl im öffent­li­chen als auch im pri­va­ten Sek­tor zu gewähr­leis­ten. Die Euro­päi­sche Kom­mis­si­on ist für die wirk­sa­me Umset­zung des KI-Geset­zes ver­ant­wort­lich, was auch die Erstel­lung von Leit­li­ni­en umfasst, ins­be­son­de­re in Bezug auf ver­bo­te­ne KI-Prak­ti­ken und die Defi­ni­ti­on von KI-Sys­te­men. Die­se Leit­li­ni­en sol­len hel­fen, die Bestim­mun­gen des Geset­zes prä­zi­ser zu inter­pre­tie­ren. Im Dezem­ber 2024 star­te­te die Kom­mis­si­on eine Kon­sul­ta­ti­on mit Stake­hol­dern zu die­sen Leit­li­ni­en, wobei die Zivil­ge­sell­schaft beton­te, dass Grund­rech­te und Gerech­tig­keit im Vor­der­grund ste­hen müs­sen. Es besteht die Sor­ge, dass die Defi­ni­ti­on von KI-Sys­te­men und die Ein­stu­fung von Hoch­ri­si­ko-KI-Sys­te­men mög­li­cher­wei­se miss­braucht wer­den könn­ten, um die Ver­pflich­tun­gen des KI-Geset­zes zu umge­hen. Eine zen­tra­le For­de­rung ist daher, dass die Regu­lie­rung sich auf poten­zi­el­len Scha­den kon­zen­trie­ren muss, nicht nur auf die ver­wen­de­ten tech­ni­schen Metho­den.

Definition von KI-Systemen

Die Defi­ni­ti­on eines KI-Sys­tems ist ent­schei­dend für die Anwend­bar­keit des KI-Geset­zes. Auch ver­gleichs­wei­se “ein­fa­che” Sys­te­me, die weni­ger kom­ple­xe Algo­rith­men ver­wen­den, müs­sen in den Anwen­dungs­be­reich fal­len. Es darf nicht mög­lich sein, die Regu­lie­rung des KI-Geset­zes zu umge­hen, indem ein KI-Sys­tem bei­spiels­wei­se in ein regel­ba­sier­tes Sys­tem trans­for­miert wird, wel­ches aber die glei­che Funk­tio­na­li­tät und das glei­che Scha­dens­po­ten­zi­al auf­weist. Das nie­der­län­di­sche SyRI-Sys­tem ist ein Bei­spiel dafür, wie ein schein­bar ein­fa­ches und erklär­ba­res Sys­tem ver­hee­ren­de Fol­gen für die Rech­te und das Leben der Men­schen, ins­be­son­de­re für Ange­hö­ri­ge von Min­der­hei­ten und Men­schen mit Migra­ti­ons­hin­ter­grund, haben kann. Daher muss der Fokus auf dem poten­zi­el­len Harm­po­ten­zi­al lie­gen, nicht auf der tech­ni­schen Kom­ple­xi­tät. Die Leit­li­ni­en müs­sen klar­stel­len, dass alle Sys­te­me, die poten­zi­ell dis­kri­mi­nie­ren oder Grund­rech­te ver­let­zen, unter das Gesetz fal­len, unab­hän­gig davon, wie ihre Algo­rith­men auf­ge­baut sind.

Verbote von Hochrisiko-KI-Systemen

Das KI-Gesetz ver­bie­tet KI-Sys­te­me, die ein “inak­zep­ta­bles” Risi­ko für die Grund­rech­te dar­stel­len. Dies betrifft ins­be­son­de­re Sys­te­me, die eine sozia­le Bewer­tung vor­neh­men oder zur Ver­hal­tens­be­wer­tung ein­ge­setzt wer­den. Die Leit­li­ni­en müs­sen hier­bei klar­stel­len, dass „sozia­les Ver­hal­ten“ breit inter­pre­tiert wird und alle Ele­men­te umfasst, die als Risi­ko­in­di­ka­to­ren die­nen kön­nen, etwa „unge­wöhn­li­che Wohn­ver­hält­nis­se“. Auch per­sön­li­che Merk­ma­le umfas­sen Pro­xy-Daten, die auf Ras­se, Eth­ni­zi­tät, Behin­de­rung oder sozio­öko­no­mi­schen Sta­tus schlie­ßen las­sen. Der Kon­text, in dem eine sozia­le Bewer­tung statt­fin­det, muss eben­falls berück­sich­tigt wer­den, da sol­che Prak­ti­ken in ver­schie­de­nen Berei­chen wie Beschäf­ti­gung, Bil­dung, Sozi­al­hil­fe, Poli­zei­ar­beit und Migra­ti­on weit ver­brei­tet sind. Es ist wich­tig zu beto­nen, dass alle Sys­te­me ver­bo­ten sein soll­ten, die in die­sen Kon­tex­ten dis­kri­mi­nie­rend wir­ken. Auch Pre­dic­ti­ve Poli­cing und ähn­li­che Vor­her­sa­ge­sys­te­me müs­sen in den Gel­tungs­be­reich fal­len, da die­se Sys­te­me dazu genutzt wer­den kön­nen, das Risi­ko ein­zu­schät­zen, ob jemand in einem Poli­zei­sys­tem erfasst wird, wie es beim nie­der­län­di­schen Pro­kid-Sys­tem der Fall war. Das Glei­che gilt für Sys­te­me, die in der Migra­ti­ons­kon­trol­le ein­ge­setzt wer­den, wenn ein irre­gu­lä­rer Sta­tus oder die Ein­stu­fung als Sicher­heits­ri­si­ko als kri­mi­nel­le Akti­vi­tät gilt. Sys­te­me wie die Risi­ko­be­wer­tung in ETIAS müs­sen eben­falls ver­bo­ten wer­den. Des Wei­te­ren soll die mas­sen­haf­te Erfas­sung von Gesichts­bil­dern nicht erlaubt sein, und die Aus­nah­men müs­sen sich nach der Recht­spre­chung des EuGH rich­ten. Die Leit­li­ni­en müs­sen ver­hin­dern, dass Sys­te­me wie Cle­ar­view AI oder PimEyes, die behaup­ten, nur bio­gra­fi­sche Infor­ma­tio­nen oder URLs zu spei­chern und nicht die eigent­li­chen Gesichts­bil­der, die­se Ver­bo­te umge­hen.

Emotionen und Biometrie

Die soge­nann­te “Emo­ti­ons­er­ken­nung” durch KI-Sys­te­me ist äußerst pro­ble­ma­tisch und wird von vie­len kri­ti­siert. Die wis­sen­schaft­li­chen Grund­la­gen die­ser Sys­te­me sind frag­wür­dig und kön­nen zu gefähr­li­chen Kon­se­quen­zen füh­ren. Die Leit­li­ni­en müs­sen hier die kla­re Unter­schei­dung zwi­schen legi­ti­men medi­zi­ni­schen Gerä­ten und Sys­te­men, die Emo­tio­nen ablei­ten oder erken­nen sol­len, deut­lich machen. Die bio­me­tri­sche Kate­go­ri­sie­rung muss eben­falls umfas­send gere­gelt wer­den. Es muss deut­lich gemacht wer­den, dass das Ver­bot auch dann gilt, wenn Rück­schlüs­se auf Eth­ni­zi­tät und Geschlechts­iden­ti­tät gezo­gen wer­den, da dies Rück­schlüs­se auf Ras­se oder sexu­el­le Ori­en­tie­rung zulässt. Die Richt­li­ni­en müs­sen klar­stel­len, dass die Aus­nah­me für Straf­ver­fol­gungs­zwe­cke nicht für die Kenn­zeich­nung oder Fil­te­rung von Daten gilt. Auch die Nut­zung der Remo­te Bio­me­tric Iden­ti­fi­ca­ti­on (RBI) muss kla­rer gere­gelt wer­den. Die Leit­li­ni­en müs­sen spe­zi­fi­zie­ren, dass die Ent­wick­lung von Echt­zeit-RBI-Sys­te­men für den Export eben­falls unter das Ver­bot fal­len soll. Die Klau­sel “ohne ihre akti­ve Betei­li­gung” soll so aus­ge­legt wer­den, dass es nicht erlaubt ist, Pos­ter oder Fly­er auf­zu­stel­len und zu behaup­ten, dass die Men­schen sich aktiv betei­ligt hät­ten. Zudem wird gefor­dert, dass ein “erheb­li­cher Ver­zug” bei der rück­wir­ken­den RBI min­des­tens 24 Stun­den betra­gen soll.

Menschenrechte und das EU-Recht

Die Leit­li­ni­en müs­sen sicher­stel­len, dass Men­schen­rech­te, ins­be­son­de­re die EU-Grund­rech­te­char­ta, die zen­tra­le Grund­la­ge für die Umset­zung des KI-Geset­zes bil­den. Alle KI-Sys­te­me müs­sen im Zusam­men­hang mit Dis­kri­mi­nie­rung, Ras­sis­mus und Vor­ur­tei­len betrach­tet wer­den. Das Ziel der Ver­bo­te muss es sein, prä­ven­tiv zu wir­ken und die Schä­den so weit wie mög­lich zu ver­hin­dern. Die Leit­li­ni­en müs­sen beto­nen, dass die Ver­bo­te eine brei­te Aus­le­gung im Sin­ne der Scha­dens­prä­ven­ti­on erfor­dern.

Kritik am Konsultationsprozess

Der Kon­sul­ta­ti­ons­pro­zess der Euro­päi­schen Kom­mis­si­on wird von der Zivil­ge­sell­schaft kri­ti­siert. Es gab einen Man­gel an früh­zei­ti­ger Ankün­di­gung, eine kur­ze Frist für die Ein­rei­chung von Bei­trä­gen, kei­ne Ver­öf­fent­li­chung der Ent­wür­fe der Leit­li­ni­en und kei­ne bar­rie­re­frei­en For­ma­te. Zudem gab es strik­te Zei­chen­be­schrän­kun­gen und zum Teil irre­füh­ren­de Fra­gen. Die Zivil­ge­sell­schaft for­dert, dass künf­ti­ge Kon­sul­ta­tio­nen eine aus­sa­ge­kräf­ti­ge Betei­li­gung ermög­li­chen und die Posi­tio­nen der Zivil­ge­sell­schaft bei der Ent­wick­lung und Umset­zung des KI-Geset­zes berück­sich­tigt wer­den. Es wird erwar­tet, dass das KI-Büro eine grund­rechts­ba­sier­te Durch­set­zung der Gesetz­ge­bung gewähr­leis­tet und Men­schen­rech­te über die Inter­es­sen der KI-Indus­trie stellt.

Fazit

Das EU KI-Gesetz ist ein wich­ti­ger Schritt zur Regu­lie­rung von KI-Sys­te­men. Eine erfolg­rei­che Umset­zung erfor­dert jedoch kla­re Leit­li­ni­en, die Grund­rech­te und Gerech­tig­keit in den Mit­tel­punkt stel­len. Die Zivil­ge­sell­schaft muss eine bedeu­ten­de Rol­le spie­len und sicher­stel­len, dass die Inter­es­sen der Men­schen über die der KI-Indus­trie gestellt wer­den. Das KI-Gesetz muss effek­tiv durch­ge­setzt und durch kla­re Prio­ri­tä­ten unter­mau­ert wer­den.

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert