Barack Obama, der Donald Trump als „Vollidioten“ bezeichnet, und eine befremdlich wirkende Weihnachtsansprache der britischen Queen Ende 2020: offensichtliche Fakes. Bisher zeigen nur Künstler und Aktivisten auf eher harmlose Weise, was möglich ist. Doch die Manipulationsmöglichkeiten sind beeindruckend – und beängstigend. Was, wenn jemand Fälschungen mit böser Absicht produziert? Fake-Videos von Politikern könnten Wahlen entscheiden oder gar einen Krieg auslösen. Wie realistisch ist ein solches Szenario?
Für das Deepfake mit Harald Lesch und Dirk Steffens, das für diese Sendung erzeugt wurde, brauchte es nur einen gewöhnlichen Rechner und ein Team mit Computer-Know-how. Die Hauptarbeit übernahm künstliche Intelligenz (KI). Anhand von vielen echten Aufnahmen lernte die KI, wie Harald Lesch und Dirk Steffens aussehen und welche Mimik sie haben. Immer wieder durchläuft die KI dabei einen Lernprozess, das sogenannte Deep Learning, das die Kopie immer lebensechter macht. Die so erzeugten Abbilder lassen sich dann beliebig vertauschen. In unserem Fall wurde Harald Leschs Gesicht auf Dirk Steffens übertragen, sodass dieser als Harald Lesch auftreten konnte.
Solche KI-Systeme sind kostenlos zum Download verfügbar. Theoretisch kann also jede*r Videos mithilfe der Deepfake-Technologie manipulieren. Da die Systeme jedoch nur die Gesichter tauschen, ist dennoch einiger Aufwand nötig, um damit Politikern Worte in den Mund zu legen. So muss zum Beispiel die Stimme imitiert und der Hintergrund passend gestaltet werden. Angesichts der rasanten Entwicklung der Technologie sollten wir aber wachsam bleiben.