Bei der Vorbereitung auf ein Interview die Künstliche Intelligenz (KI) konsultieren, welche Fragen sie stellen würde? Oder sich bei der Hausaufgabe für Geschichte ein bisschen helfen lassen? Künstliche Intelligenz kommt inzwischen in vielen Bereichen zum Einsatz, gleichzeitig ist sie die wohl meistdiskutierte Technologie unserer Zeit – weil sie etliche Gefahren birgt. Wenn Arbeitgeber beispielsweise eine KI mitentscheiden lassen, welcher Kandidat oder welche Kandidatin für einen Job infrage kommt – sie dabei jedoch Vorurteilen folgt. Weil die Daten, mit denen sie gefüttert wurde, zeigen, dass eher Männer für Führungsjobs infrage kommen.

Genau solche Gefahren will die Europäische Union nun durch ein neues Gesetz in den Griff bekommen. Es nennt sich Artificial Intelligence Act (AI Act), und das EU-Parlament gab im März endgültig grünes Licht dafür. Der AI Act soll regeln, welche KI-Anwendungen in Europa erlaubt sind und welche nicht. Dadurch soll ein Missbrauch der Technologie verhindert werden. Gleichzeitig ist das neue Gesetz dazu gedacht, Innovationen zu fördern.

Die EU-Kommission legte ihren Entwurf bereits 2021 vor, im Dezember des Vorjahres einigten sich die Gremien auf einen Gesetzestext. Mitte März stimmte das EU-Parlament zu. Nun muss es noch vom Rat angenommen werden, das ist jedoch ein formeller Prozess. Wirksam werden soll das Gesetz voraussichtlich 2025. Aber wie ist es zu beurteilen? Clara Rauchegger, Expertin für Europarecht und Recht der Digitalisierung an der Universität Innsbruck, gibt Antworten auf die wichtigsten Fragen.

STANDARD: Was genau sieht das neue Gesetz vor?

Rauchegger: Es regelt die Entwicklung und Anwendung von Künstlicher Intelligenz. Der Ansatz ist ein risikobasierter: Je größer das Risiko einer KI-Anwendung für die Menschenrechte ist, desto strenger sind die Verpflichtungen. Im Grunde hat man die KI-Systeme in vier Kategorien eingeteilt. Ein Teil wird als unbedenklich für die Menschenrechte eingestuft. Bei einem anderen gibt es Verpflichtungen zur Transparenz. Das betrifft zum Beispiel Bilder oder Videos, die mittels Künstlicher Intelligenz erstellt wurden. Sie müssen in Zukunft als solche gekennzeichnet werden. Dann gibt es noch Anwendungen, die als "hochriskant" gelten. Das sind zum Beispiel Programme, die in Bewerbungsverfahren verwendet werden, um Kandidatinnen und Kandidaten vorzuselektieren. Sie werden streng reguliert. Die vierte Gruppe bilden die risikoreichsten Anwendungen. Sie werden durch das Gesetz komplett verboten. Ein Beispiel dafür wäre Social Scoring, das man aus China kennt.

STANDARD: Was bedeutet Social Scoring?

Rauchegger: Wenn Künstliche Intelligenz dazu eingesetzt wird, im großen Stil Daten über Menschen zu erheben und sie aufgrund dessen zu bewerten. Das könnte etwa bedeuten, dass ein Überwachungssystem jedes Verhalten aufzeichnet und dafür eine Wertung, einen Score, vergibt. Hilft man etwa einer alten Dame über die Straße, würde man einen Pluspunkt bekommen. Spuckt man einen Kaugummi auf den Gehsteig, bekäme man einen Minuspunkt. Diese Werte wären dann mit Vor- oder Nachteilen verbunden, zum Beispiel steuerlicher Natur. Solche Systeme hat die EU komplett verboten.

Dass die Gesichter der Menschen im öffentlichen Raum gescannt und deren Identität ermittelt wird, wird durch die neuen EU-Regeln grundsätzlich verboten. Das Gesetz lässt jedoch eine Vielzahl an Ausnahmen zu.
Getty Images/vasare

STANDARD: Die neuen Vorschriften verbieten auch die sogenannte biometrische Massenüberwachung. Dabei werden die Gesichter der Menschen im öffentlichen Raum gefilmt und in Echtzeit ausgewertet. Auf Drängen der Mitgliedsstaaten wurden jedoch etliche Ausnahmen eingeführt. Zum Beispiel für die Polizei, um einen Verdächtigen zu finden oder einen Terrorakt zu verhindern. An diesen Ausnahmen gab es viel Kritik. Wie sehen Sie das?

Rauchegger: Ich schließe mich den Bedenken an: Durch die Ausnahmen ist immer noch ziemlich viel Überwachung möglich. Das Parlament hätte gerne mehr Schutz vor dieser Überwachung gehabt, aber die Mitgliedsstaaten wollten sich nicht beschneiden lassen.

Warum die Gesichtserkennung im öffentlichen Raum so problematisch ist? Weil die Künstliche Intelligenz auch Fehler macht. Sie funktioniert beispielsweise viel schlechter, wenn sie Gesichter von schwarzen oder asiatischen Menschen analysiert. Aber selbst wenn sie weiße Gesichter analysiert, ist sie nicht hundertprozentig zuverlässig. Man mag denken: Es ist doch super, wenn sie Verbrecher herausfischt! Aber sie liegt dabei eben nicht immer richtig.

STANDARD: Einige Unternehmen verwenden bereits Künstliche Intelligenz in ihren Bewerbungsverfahren, auch in Österreich. Warum ist das "hochriskant"?

Rauchegger: Unter anderem weil die Künstliche Intelligenz diskriminierend sein kann. Für sie ist die Welt so, wie es die Daten zeigen, mit denen sie gefüttert wurde. Zum Beispiel könnte es sein, dass für die KI nur Männer für einen Programmierjob infrage kommen, weil sich aus den Trainingsdaten ergibt, dass fast nur sie den Job machen. Künftig müssen die Entwickler solcher Software nachweisen, dass sie dafür sorgen, dass die Daten diesen Bias nicht haben. Die Arbeitgeber wiederum müssen transparent machen, dass sie mit so einer Software arbeiten. Zum Beispiel indem sie die Bewerberinnen und Bewerbern darüber informieren. In einer Antwortmail könnte etwa stehen: "Die erste Stufe des Auswahlverfahrens ist durch KI-basierte Software passiert." Außerdem müssen sie einen Menschen die Entscheidungen überprüfen lassen. Sie dürfen nicht komplett automatisiert ablaufen.

Das gilt übrigens auch für andere automatisierte Entscheidungen, zum Beispiel ob jemand kreditwürdig ist. Ein Bankberater könnte sagen: Die KI würde dieser Person keinen Kredit geben, aber ich entscheide es jetzt anders. Ich glaube, dass sie den Kredit zurückzahlen kann.

"Für die Künstliche Intelligenz ist die Welt so, wie es die Daten zeigen, mit denen sie gefüttert wurde." (Expertin Clara Rauchegger)

STANDARD: Ist es wahrscheinlich, dass die Menschen entgegen dem Urteil der Künstlichen Intelligenz entscheiden?

Rauchegger: Die EU-Institutionen setzen großes Vertrauen in diese menschliche Aufsicht. Forscherinnen und Forscher haben allerdings Zweifel, wie wirksam sie tatsächlich ist. Denn aus psychologischen Studien ist bekannt, dass sich Menschen nur ungern den Entscheidungen einer Maschine widersetzen. Ihre Überlegung dürfte sein: Da sind so viele Daten im Hintergrund, wieso soll ich denen nicht vertrauen?

STANDARD: Im Gesetz ist vorgesehen, dass künstlich erzeugte oder bearbeitete Bilder, aber auch Videos und Audioaufnahmen – oft Deepfakes genannt– als solche gekennzeichnet werden müssen. Wie könnte so eine Kennzeichnung aussehen?

Rauchegger: Die KI-Systeme müssen so konzipiert sein, dass Deepfakes "in einem maschinenlesbaren Format" als solche gekennzeichnet werden. Das bedeutet, dass in den technischen Hintergrunddaten hinterlegt sein muss, dass das Bild oder das Video mit Künstlicher Intelligenz erstellt wurde. Diejenigen, die so ein Bild oder Video verbreiten, müssen offenlegen, dass es künstlich erzeugt oder manipuliert wurde – das ist also ein Bereich, wo das neue Gesetz auch die Anwenderinnen und Anwender eines Programms betrifft. Im Gesetz heißt es, dass die Kennzeichnung von Deepfakes klar, eindeutig und barrierefrei sein muss.

STANDARD: Erst kürzlich sorgten gefakte Pornovideos der Sängerin Taylor Swift für Aufsehen. Wie wäre das in Zukunft?

Rauchegger: Diese Videos sind derzeit ein Riesenproblem! Es kommen nicht nur Prominente darin vor, sondern auch Lehrerinnen und Lehrer oder Mitschülerinnen und Mitschüler. Aber ob und wie das Gesetz in solchen Fällen wirksam ist, wird sich noch zeigen. Denn sie sind nur schwer zu verfolgen, oft postet ein Urheber ja anonym. Es wird davon abhängen, wie diese Kennzeichnungspflicht umgesetzt wird. Eigentlich müssten die Entwickler solcher generativer KI dafür sorgen, dass das Video bereits einen Fake-Stempel hat, wenn es erzeugt wird.

STANDARD: Hat das Gesetz irgendwelche Folgen für jene, die sich von den Tools gerne bei den Hausaufgaben helfen lassen?

Rauchegger: An den Nutzerinnen und Nutzern setzt das Gesetz nicht an. Sie können diese Programme also weiter verwenden, um etwa eine Masterarbeit zusammenzubasteln. In erster Linie setzt die EU bei den Entwicklern an, die die Programme erstellen. Aber auch bei Unternehmen oder Institutionen, die die Software einsetzen, also etwa Arbeitgeber oder Universitäten. Sie sind in der Verantwortung.

Wer gerne seine Uni-Arbeiten mit der Hilfe von Programmen wie ChatGPT erledigt, kann das in Zukunft weiter tun. "An den Nutzerinnen und Nutzern setzt das Gesetz nicht an", sagt Expertin Rauchegger.
Getty Images

STANDARD: Der Vorschlag für das Gesetz kam bereits 2021 von der EU-Kommission. Warum hat es dann so lange gedauert, bis es beschlossen wurde?

Rauchegger: Als der Vorschlag von der Kommission kam, wurde die generative KI, also jene, die Bilder oder Texte erschafft, noch nicht mitgedacht. Hier musste nachgebessert werden, und das war einer der Gründe für die Verzögerung. Der Gesetzesvorschlag war schon fertig – und dann ist vor ungefähr einem Jahr plötzlich ChatGPT aufgetaucht und hat nicht wirklich in eine der vier Risikogruppen hineingepasst. Deshalb wurde eine Extraregelung geschaffen, um diese Systeme zu erfassen. Es gilt nun: Die Anbieter müssen technische Unterlagen und genaue Anleitungen bereitstellen, wie ein Programm zu verwenden ist. Sie müssen außerdem offenlegen, mit welchen Daten es trainiert wird, und sich an das Urheberrecht halten.

STANDARD: EU-Politikerinnen und -Politiker sind sehr stolz auf den AI Act, bezeichnen ihn als "historisch". Halten Sie ihn ebenso für einen Meilenstein?

Rauchegger: Er ist sicher ein Meilenstein, und es ist besonders, dass man sich überhaupt geeinigt hat. Aber es ist nicht das weltweit erste KI-Gesetz, obwohl es gerne so dargestellt wird. Auch China hat schon ein KI-Gesetz. Aber das der Europäischen Union ist bisher sicherlich die erste so umfassende und so strenge Regelung. Auch dass sie bei den Menschenrechten ansetzt, ist besonders und innovativ.

STANDARD: Könnte der AI Act ein Vorbild für andere Länder sein?

Rauchegger: Das ist zumindest die Hoffnung. Denn er gilt ja nicht nur für europäische Unternehmen, sondern für alle, die ihre Produkte in der EU anbieten. Das heißt: Jeder, der etwas in der EU verkaufen will, muss sich an diese strengen Regeln halten. Es könnte außerdem sein, dass, wenn Unternehmen ihre Produkte schon diesen strengen Regeln anpassen, das dann auch für andere Länder umsetzen. In der Wissenschaft spricht man von dem "Brüssel-Effekt". Man kennt ihn aus der Gesetzgebung zum Datenschutz: Wenn sich Unternehmen ohnehin schon an das EU-Datenschutzrecht halten müssen, dann tun sie das oft freiwillig überall.

STANDARD: Das Gesetz soll auch KI-Innovationen in Europa fördern. Aber kann es nicht auch einen Wettbewerbsnachteil darstellen, weil die USA weniger regulieren?

Rauchegger: Das ist ein großes Bedenken und ebenfalls einer der Gründe, warum es so lange gedauert hat, bis man sich auf dieses Gesetz geeinigt hat. Auch im EU-Parlament wurde es nicht einstimmig angenommen, und die Kritik verstummt nicht. Zu beurteilen, ob diese Regeln die Innovation tatsächlich bremsen, fällt mir als Juristin schwer. Auf jeden Fall wollten Länder wie Frankreich, die eine größere KI-Industrie haben, den AI Act zuletzt noch blockieren.

STANDARD: Dort gibt es ja das französische Start-up Mistral AI, das als Europas Hoffnung im KI-Wettlauf gehandelt wird. War das der Grund?

Rauchegger: Anfang dieses Jahres hat es noch so ausgesehen, als ob die Franzosen das Gesetz noch platzen lassen könnten. Als würde Emmanuel Macron alles noch mal zum Anfang zurückschicken wollen, um die lokale KI-Industrie zu schützen. Bei der Regulierung von digitalen Plattformen haben sich die EU-Institutionen viel leichter getan und sich viel schneller geeinigt. Denn die meisten großen Plattformen kommen aus den USA oder China. Es gibt keine europäischen Unternehmen, die man im Wettbewerb behindern kann. Bei der KI-Industrie ist das kritischer. Der Grund also, wieso man nicht noch strenger war: die eigene KI schützen.

STANDARD: Welche Rolle könnten KI und Fakes bei den bevorstehenden Wahlen spielen? Midjourney verbietet nun beispielsweise Prompts, welche die Begriffe "Joe Biden" und "Donald Trump" beinhalten. Ist das ausreichend?

Rauchegger: Fakes werden sicher eine große Rolle spielen. Da müssten die betroffenen Staaten auf nationaler Ebene Regelungen schaffen, um sie in den Griff zu bekommen. Denn für die kommenden Wahlen wird der AI Act sicherlich noch nichts bringen, weil er noch nicht anwendbar sein wird. (Lisa Breit, 9.4.2024)