Nicht nur Stimmen kann die KI täuschend echt nachahmen, sondern auch Bildmaterial. Im Falle von Deepfake-Pornos ein zunehmendes Problem.
APA/AFP/CHRIS DELMAS

In den letzten Jahren hat die Tech-Branche, insbesondere aber große Suchmaschinen wie von Google und Microsoft, zunehmend mit einem Anstieg von Deepfake-Pornovideos zu kämpfen. Dabei werden fortschrittliche KI-Techniken genutzt, um das Gesicht einer Person nahtlos in explizite Inhalte einzublenden – das Wissen, geschweige denn die Zustimmung der Person bleibt dabei fast immer aus. Dies wirft nicht nur erhebliche technologische, sondern natürlich auch tiefgreifende ethische und moralische Bedenken auf, das Missbrauchspotenzial ist beängstigend.

Eine aktuelle Studie, die "Wired" zur Verfügung gestellt wurde, unterstreicht diese Bedenken nun. Sie bietet eine besorgniserregende Perspektive auf das Ausmaß des Problems: Dem Bericht zufolge wurden nämlich in den letzten sieben Jahren nicht weniger als 244.625 solcher Pornovideos auf die 35 größten Websites hochgeladen, die entweder durchgehend oder teilweise Deepfake-Szenen beinhalten.

So weit, so schlecht. Allein in den ersten neun Monaten dieses Jahres sollen aber bereits 113.000 Videos hochgeladen worden sein. Dies bedeutet einen Anstieg um 54 Prozent gegenüber den 73.000 Videos, die im gesamten Jahr 2022 hochgeladen wurden. Setzt sich dieser Trend fort, so die Autoren der Studie, könnte die Zahl der 2023 produzierten Videos bis zum Jahresende die Gesamtzahl aller vorherigen Jahre übertreffen.

Nur einen Klick entfernt

Besorgniserregend ist in diesem Zusammenhang aber auch die Leichtigkeit, mit der Nutzer diese Videos finden können. Ein Großteil des Datenverkehrs zu diesen Websites stammt von Suchmaschinen. Vorläufige Tests haben gezeigt, dass diese Deepfake-Websites unabhängig vom Land – sei es Deutschland, Kanada, Japan oder Südafrika – in den Suchergebnissen weit oben stehen. Dieses globale Problem wird noch verschärft, wenn Persönlichkeiten des öffentlichen Lebens, wie Prominente oder Autoren von Inhalten, zur Zielscheibe werden.

Solche Videos sind nur die Spitze des Eisbergs. Deepfake-Technologien breiten sich über unterschiedlichen Apps aus und umfassen mittlerweile auch Tools, die die Manipulation von Standbildern ermöglichen. So lassen sich Personen beispielsweise auf einem Foto virtuell "ausziehen", was Anwendern die Möglichkeiten des sexuellen Missbrauchs zusätzlich erleichtert.

Dringender Handlungsbedarf

Wie Asher Flynn von der australischen Monash University gegenüber "Wired" formuliert, handelt es sich bei dem aktuellen Szenario um einen "perfekten Sturm", der sich aus dem Zusammentreffen von sich weiterentwickelnden Deepfake-Tools, und einem Anstieg der Onlinekommunikation aufgrund der Covid-19-Pandemie ergibt – und natürlich einem veralteten Rechtssystem, das mit der technologischen Entwicklung schwer mithalten kann.

Hinter diesen erschütternden Zahlen verbirgt sich aber vor allem viel menschliches Leid. Für unzählige Opfer ist der emotionale und psychologische Schaden dauerhaft: Berichte deuten auf einen deutlichen Anstieg von psychischen Problemen wie Depressionen, Angstzuständen und sogar Selbstmordgedanken hin. Ein deutlicher Hinweis darauf, dass gemeinsame Anstrengungen – von Tech-Giganten, Aufsichtsbehörden und der Gesellschaft insgesamt – zur Bekämpfung dieser wachsenden Bedrohung dringend erforderlich sind. (red, 21.10.2023)