Auch Taylor Swift wird Opfer:Deepfake-Pornos: Gezielte Gewalt gegen Frauen
von Sophie Burkhart
|
Mit dem Fortschritt Künstlicher Intelligenz explodiert auch die Zahl pornografischer Deepfake-Videos. Fast immer sind die Opfer der Manipulationen weiblich.
Wurde vermehrt Opfer von Deepfakes: Popstar Taylor Swift (Archivbild)
Quelle: AP
Anfang des Jahres kursierten gefälschte Nacktfotos von Popstar Taylor Swift im Internet - erstellt mithilfe Künstlicher Intelligenz (KI). Eines der Bilder wurde im Onlinedienst X, ehemals Twitter, 47 Millionen Mal aufgerufen. Laut US-Medien war das gefälschte Foto 17 Stunden lang online.
Was Taylor Swift passierte, ist längst keine Neuheit. Fälle von sogenannter bildbasierter sexueller Gewalt im digitalen Raum gibt es seit Jahren: Opfer waren K-Pop-Stars, Tiktokerinnen, Journalistinnen und spanische Schülerinnen.
Dank Künstlicher Intelligenz und digitaler Bilder lassen sich Fälschungen auf höchsten Niveau erschaffen. Wie Deepfakes funktionieren.14.06.2022 | 2:21 min
Laut einer Studie des Cybersicherheitsunternehmens "Home Security Heroes" lag die Gesamtanzahl von Deepfake-Videos im Jahr 2023 bei 95.820 - das entspricht einem Anstieg von 550 Prozent im Vergleich zu 2019. Ganze 98 Prozent dieser Videos sind pornografischer Natur und in 99 Prozent der Fälle waren Frauen Opfer solcher Deepfakes.
Unter Deepfake-Pornografie versteht man mithilfe von KI gefälschte pornografische Fotos oder Videos. Mit Programmen oder Apps können Gesichter innerhalb weniger Minuten ausgetauscht werden. Das Ziel: Fantasien befriedigen – und in vielen Fällen Frauen bloßstellen und erniedrigen.
Bei Deepfake-Pornos immer nach der Plausibilität fragen
Auch beim Messengerdienst Telegram gibt es zahlreiche Kanäle und Bots, die damit werben, Pornobilder und -videos von Stars zu erstellen. Scarlett Johansson oder Cassidy Freeman oberkörperfrei - nach ihrer Erlaubnis hat die beiden niemand gefragt. Die Nutzer reagieren auf die Bilder mit Flammen- und Herz-Emojis und fragen nach mehr Material.
"Viele prominente Frauen haben den Kampf dagegen schon aufgegeben, weil die Quantität so groß ist", sagt Professor Alexander Godulla. Er forscht an der Universität Leipzig seit 2021 verstärkt zum Thema Deepfakes.
Aufgrund neuer Technologien könne mittlerweile "wirklich jede Person, die ein Smartphone bedienen kann, Deepfakes erstellen", sagt Godulla. Von den Opfern selbst brauche es nicht mehr als ein Foto. Mit bloßem Auge lasse sich kaum erkennen, ob es sich um ein Deepfake handele oder nicht.
Wie man Deepfake-Videos erkennt.22.09.2023 | 1:30 min
Digitale Waffe gegen Frauen
Bei HateAid, einer gemeinnützigen Organisation, die sich für Menschenrechte im digitalen Raum einsetzt, ist man deswegen schon länger besorgt: "Dieses Thema hat eine sehr geschlechtsspezifische Komponente", erklärt Hate-Aid-Geschäftsführerin Josephine Ballon:
Auch nicht prominente Frauen würden immer häufiger Opfer von Deepfake-Pornografie, berichtet Ballon, die auch Rechtsanwältin ist. Der Schock bei den Betroffenen sei groß, die meisten würden es erst einmal von sich wegschieben.
HateAid: Rechtslage für Betroffene "ein Schlag ins Gesicht"
Laut Bundesjustizministerium werden Deepfakes insbesondere als "Verletzung des höchstpersönlichen Lebensbereichs und von Persönlichkeitsrechten durch Bildaufnahmen" geahndet. Die Verbreitung von Deepnudes, gefälschten Nacktfotos, kann zudem als Verbreitung pornografischer Inhalte gemäß Paragraf 184 im Strafgesetzbuch strafbar sein.
Rechtsanwältin Josephine Ballon reicht das nicht aus: "Deepfake-Pornografie wird strafrechtlich meist als Bagatelldelikt behandelt, weswegen es sehr, sehr selten zur Strafverfolgung kommt." Für die Betroffenen sei das "ein Schlag ins Gesicht".
Das Zeitalter der KI, berge Licht und Schatten, findet Professor Alexander Godulla. Manche Entwicklungen seien nicht mehr aufzuhalten.
Rechtsanwältin Ballon rät trotzdem zur Strafanzeige; Betroffene sollten die Inhalte melden, damit diese gesperrt und entfernt würden.