Millionen Views in Social Media:Myanmar-Erdbeben - KI-Fakes fluten das Netz
von Jan Schneider und Oliver Klein
|
Im Netz gehen dramatische Erdbeben-Videos viral, viele davon sind aber KI-Fakes. Auf den ersten Blick wirken sie authentisch - ZDFheute erklärt, wie Sie die Fälschungen entlarven.
Nach den verheerenden Erdbeben in Myanmar und Thailand kursieren im Netz viele KI-Fakes, die angebliche Szenen aus den Erdbebengebieten zeigen sollen - wie man sie erkennt.04.04.2025 | 1:28 min
Eine Woche nach dem verheerenden Erdbeben in Myanmar und Thailand kämpfen die Einsatzkräfte noch immer mit den Folgen der Katastrophe. Tausende Menschen starben, Tausende haben ihr Zuhause verloren, internationale Hilfsorganisationen arbeiten intensiv daran, Betroffene zu versorgen.
Im Netz nutzen zahlreiche Social-Media-Nutzer die Krise für ihre eigenen Zwecke: Auf Plattformen wie TikTok, Facebook, X (früher Twitter) und YouTube werden gezielt dramatische Videos veröffentlicht, die mithilfe von Künstlicher Intelligenz erstellt wurden - nur um Aufmerksamkeit und Reichweite zu erzielen. Oft mit Erfolg: Die Clips werden teilweise millionenfach angesehen.
Hohe Reichweite - trotz klarer Fake-Indizien
Besonders prominent kursierte ein Video mit der Überschrift "17 M people affected" ("17 Millionen Menschen betroffen"). Der Clip zeigt dramatische Szenen mit zerstörten Häusern und aufgerissenen Straßen, im Hintergrund lodert ein Feuer. Das Material wurde angeblich in Myanmar aufgenommen.
Der Clip wurde tausendfach geteilt und verbreitete sich unter anderem in Ländern wie Russland, China, Thailand, Südkorea und Indien. Tatsächlich handelt es sich aber nicht um eine echte Aufnahme, sondern um computergenerierte Bilder, die mittels der KI-Software Runway erstellt wurden. In manchen Versionen des Videos war noch ein Wasserzeichen der KI-Software zu sehen - in anderen Versionen wurde es gezielt entfernt, um die Herkunft der Videos zu verschleiern.
Ein gefälschtes Video einer zerstörten Stadt, angeblich aufgenommen in Myanmar.
Quelle: Tiktok / @the.360.report
Ein weiteres weit verbreitetes Video zeigt eine Skyline mit markanten Pagoden und zerstörten Gebäuden, angeblich aufgenommen in Mandalay, der zweitgrößten Stadt von Myanmar. Experten konnten nachweisen, dass die dargestellten Tempelanlagen keiner real existierenden Stadt entsprechen. Zudem fielen zahlreiche Anomalien auf, etwa unnatürliche Bewegungen von Personen oder völlig stillstehende Menschen - klare Indizien einer KI-Fälschung.
Auch bei diesem Clip war in einigen Versionen noch ein Wasserzeichen der KI zu sehen, diesmal handelt es sich um die Software Wan des chinesischen Anbieters Alibaba. Das Video wurde unter anderem von einem Account mit mehr als zwei Millionen Followern auf X geteilt - mit der Behauptung, das Material stamme von der BBC. Angezeigt wurde allein dieser Post mehr als 800.000 Mal.
Eine gefälschte Aufnahme von Tempelanlagen in Mandalay. In einigen Versionen des Videos ist das Wasserzeichen der KI-Software (eingekreist) noch zu sehen.
Quelle: X / @MarioNawfal
Selbe Tonspur in 22.000 völlig verschiedenen Videos
Besonders dramatisch wirken KI-Videos von einstürzenden Gebäuden, angeblich aus nächster Nähe gefilmt. Eine Sammlung solcher gefälschter Aufnahmen wurde auf TikTok mit dem Titel "Myanmar Earthquake Update: March 31, 2025" geteilt und schnell verbreitet. Zu sehen sind mehrere einstürzende Gebäude und Brücken, Suchtrupps in Trümmern und eine entgleisende Bahn. Durch zahlreiche Bildfehler und Anomalien sind die Clips als KI-generiert zu erkennen.
Unser Korrespondent Norman Odenthal berichtet aus Mandalay und zeigt, wie es tatsächlich vor Ort aussieht:
Gut eine Woche nach dem schweren Erdbeben in Myanmar ist die Zahl der Todesopfer auf über 3.300 gestiegen.05.04.2025 | 0:22 min
Ein Problem der KI-Clip-Produzenten: Die computergenerierten Videos sind zunächst einmal stumm. Das "Myanmar Earthquake Update"-Video ist jedoch unterlegt mit krachendem Lärm und lautem, panischen Geschrei. Es ist ein Sound aus der TikTok-Datenbank mit dem Namen "Original Sound - disaster today" ("Originalton - Katastrophe heute").
Genau diese Tonspur wird allein bei TikTok auch in rund 22.000 anderen Videos verwendet. Die Clips zeigen Tornados, Waldbrände, Überschwemmungen, sogar Ufo-Landungen - die meisten der Videos sind ebenfalls KI-Fakes.
Screenshot aus einem KI-Fake-Video eines zusammenstürzenden Hauses. Auffällig ist, dass sich die gezeigten Menschen normal weiterbewegen, obwohl unmittelbar neben ihnen Trümmer herabstürzen.
Quelle: TikTok / @the.360.report
KI-Experte rät zur Prüfung
Die Flut an Fake-Videos ist auch Martin Steinebach nicht entgangen. Er ist KI-Experte am Fraunhofer Institut für Sichere Informationstechnologie (SIT): "Was wir bei solchen Ereignissen häufig sehen, ist eine Mischung aus KI-Bildern und Aufnahmen von älteren Katastrophen."
Es geht vielen Hersteller der Fake-Videos dabei nicht darum, ein besonders gutes Video zu erstellen, es soll schlicht Aufmerksamkeit generiert werden.
„
Martin Steinebach, Fraunhofer Institut für Sichere Informationstechnologie (SIT)
Dass Fake-Videos in Zukunft einfach von einer Software erkannt werden können, glaubt Steinebach nicht. Er sieht aktuell große Herausforderungen bei der Erkennung solcher Manipulationen: "Bisher sind uns keine zuverlässigen technischen Ansätze bekannt, die automatisch genutzt werden können."
Es ist unerlässlich, sich Wissen über das Thema anzueignen, um qualifiziert mit den Tools umgehen zu können und deren Ergebnisse zu bewerten.
„
Martin Steinebach, Fraunhofer Institut für Sichere Informationstechnologie (SIT)
Nach dem Erdbeben in Myanmar bleibt die Versorgungslage kritisch. Der Bürgerkrieg erschwert die Rettungsarbeiten. UN-Organisationen warnen vor einer Ausweitung der Notlage. 04.04.2025 | 1:30 min
So können Sie KI-Fakes entlarven
Der Inhalt KI-generierter Videos ist oft nicht konsistent. Bei Personen fallen häufig unnatürliche Bewegungen, Fehler bei Proportionen des Körpers oder unlogisches Verhalten auf. Beispiel: In manchen der Videos, die angeblich aus dem Erdbebengebiet in Südostasien stammen, stürzen Hochhäuser ein. Die Personen davor laufen jedoch noch auf das Unglück zu, statt in Panik wegzurennen.
Sieht man sich ein Video auf dem Smartphone an, rät Martin Steinebach vom Fraunhofer Institut für Sichere Informationstechnologie (SIT), in relevante Bereiche zu zoomen und Details genau unter die Lupe zu nehmen - "beispielsweise beim Übergang von Kopf zu Hals - hier zeigen Deepfake-Verfahren manchmal unsaubere Übergänge". Außerdem lohne es sich immer, auf Dinge im Hintergrund zu achten: "Manchmal schweben Objekte, Menschen verschwinden oder laufen rückwärts, sie verschmelzen mit Objekten." Tipp: Videos auf größeren Bildschirmen anschauen - da sind solche Fehler leichter zu erkennen.
Ist Künstliche Intelligenz im Spiel ist, gibt es von einer bestimmten Szene in der Regel nur ein einziges Video. Keine anderen Clips oder Fotos in Sozialen Netzwerken zeigen dasselbe spektakulär einstürzende Hochhaus oder dieselbe außergewöhnlich aufgerissene Straße. Die Realität sieht meist anders aus: Passiert ein außergewöhnliches Ereignis in der Öffentlichkeit, wird das meistens von mehreren Menschen gefilmt, die ihre Clips online stellen. Also: Besser immer prüfen, ob es andere Berichte oder Videos gibt, die die Inhalte genau so bestätigen.
KI-Clips dauern meistens nur wenige Sekunden, längere Versionen sind oft Zusammenschnitte von solchen kurzen KI-Sequenzen. Die Video-KI Sora von OpenAI produziert zum Beispiel Videos, die exakt fünf Sekunden lang sind. Zudem haben die KI-Clips keinen Originalton. Ersteller von KI-Videos legen oft Soundeffekte darunter, die nicht wirklich zum Bildinhalt passen - oder sogar einfach nur Musik.
Im Netz gibt es zahlreiche Webseiten, die versprechen, KI-generiertes Bildmaterial zu entlarven. Dazu lädt man entweder den Link des Videos oder den Clip selbst auf der Seite hoch. Doch der Aufwand lohnt sich nur bedingt: Solche KI-Detektoren sind bei der Erkennung von Fälschungen bisher sehr unzuverlässig. Besser als Tools ist derzeit immer noch der gesunde Menschenverstand.
Quelle: dpa
Sie wollen auf dem Laufenden bleiben? Dann sind Sie beim ZDFheute-WhatsApp-Channel richtig. Hier erhalten Sie die wichtigsten Nachrichten auf Ihr Smartphone. Nehmen Sie teil an Umfragen oder lassen Sie sich durch unseren Podcast "Kurze Auszeit" inspirieren. Zur Anmeldung: ZDFheute-WhatsApp-Channel.
Um dir eine optimale Website der ZDFmediathek, ZDFheute und ZDFtivi präsentieren zu können, setzen wir Cookies und vergleichbare Techniken ein. Einige der eingesetzten Techniken sind unbedingt erforderlich für unser Angebot. Mit deiner Zustimmung dürfen wir und unsere Dienstleister darüber hinaus Informationen auf deinem Gerät speichern und/oder abrufen. Dabei geben wir deine Daten ohne deine Einwilligung nicht an Dritte weiter, die nicht unsere direkten Dienstleister sind. Wir verwenden deine Daten auch nicht zu kommerziellen Zwecken.
Zustimmungspflichtige Datenverarbeitung • Personalisierung: Die Speicherung von bestimmten Interaktionen ermöglicht uns, dein Erlebnis im Angebot des ZDF an dich anzupassen und Personalisierungsfunktionen anzubieten. Dabei personalisieren wir ausschließlich auf Basis deiner Nutzung der ZDFmediathek, der ZDFheute und ZDFtivi. Daten von Dritten werden von uns nicht verwendet. • Social Media und externe Drittsysteme: Wir nutzen Social-Media-Tools und Dienste von anderen Anbietern. Unter anderem um das Teilen von Inhalten zu ermöglichen.
Du kannst entscheiden, für welche Zwecke wir deine Daten speichern und verarbeiten dürfen. Dies betrifft nur dein aktuell genutztes Gerät. Mit "Zustimmen" erklärst du deine Zustimmung zu unserer Datenverarbeitung, für die wir deine Einwilligung benötigen. Oder du legst unter "Einstellungen/Ablehnen" fest, welchen Zwecken du deine Zustimmung gibst und welchen nicht. Deine Datenschutzeinstellungen kannst du jederzeit mit Wirkung für die Zukunft in deinen Einstellungen widerrufen oder ändern.