ChatGPT für Fake-News-Kampagnen - Spur auch nach Russland

    Spur führt auch nach Russland:ChatGPT für Fake-News-Kampagnen genutzt

    |

    Staatlich unterstützte Akteure haben laut ChatGPT-Entwicklerfirma OpenAI Künstliche Intelligenz für Desinformations-Kampagnen genutzt. Bei der Aufklärung halfen Geheimdienst-Infos.

    Symbolbild: Figuren neben einem Bildschirm, auf dem ein Logo von OpenAI
    OpenAI hat nach eigenen Angaben mehrere verdeckte Beeinflussungsaktionen gestoppt, bei denen ihre KI-Modelle missbraucht wurden.
    Quelle: AFP

    Der ChatGPT-Entwickler OpenAI hat nach eigenen Angaben in den vergangenen drei Monaten fünf Desinformations-Kampagnen staatlich unterstützter Akteure gestoppt, welche die Künstliche Intelligenz (KI) von ChatGPT für betrügerische Aktivitäten nutzen wollten.
    OpenAI teilte am Donnerstag in einem Blogeintrag mit, die vereitelten Kampagnen hätten ihren Ursprung in Russland, China, im Iran und bei der israelischen Handelsgesellschaft STOIC gehabt.
    Die fraglichen Akteure versuchten demnach, die Sprachmodelle von OpenAI für Aufgaben wie die Generierung von Kommentaren, Artikeln, Profilen in Online-Netzwerken und das Austesten von Codes für Bots und Websites zu nutzen. Das Unternehmen von Konzernchef Sam Altman erklärte jedoch:

    Diese Operationen scheinen durch unsere Dienste nicht von deutlich stärkeren Nutzeraktivitäten oder höherer Reichweite profitiert zu haben.

    Mitteilung von OpenAI

    Auf den Bild sieht man ein abgefilmtes Bild, die Audiospur und die slowakischen Untertitel eines Deepfakes über ein Fake-Interview des Oppositionskandidaten Šimečka bei der Präsidentschaftswahl 2023.
    Im Superwahljahr 2024 steigt die Sorge vor KI-generierten Falschnachrichten. Die Präsidentschaftswahl in der Slowakei zeigt, wie groß der Einfluss sein kann. 25.05.2024 | 1:29 min

    Künstliche Intelligenz: Betrug in Sekundenschnelle

    KI-Firmen wie OpenAI stehen angesichts bedeutender Wahlen in diesem Jahr unter strenger Beobachtung. Befürchtet wird, dass Apps wie ChatGPT oder der Bildgenerator Dall-E binnen Sekunden und in großem Umfang betrügerische Inhalte produzieren können. Länder wie Russland, China und der Iran nutzen gezielt Online-Plattformen zur Desinformation, um Wahlen zu manipulieren.
    Zu den durchkreuzten Desinformations-Versuchen gehörten laut OpenAI "Bad Grammar", eine zuvor unbekannte russische Kampagne, die sich gegen die Ukraine, Moldau, die baltischen Staaten und die USA richtete. Sie nutzte OpenAI-Modelle und -Werkzeuge, um kurze politische Kommentare in Englisch und Russisch auf Telegram zu generieren, wie OpenAI mitteilte.
    SGS Spielkamp
    Matthias Spielkamp von der NGO AlgorithmWatch äußert sich zu den Risiken, wie KI im Wahlkampf für Manipulationen missbraucht werden kann. 30.05.2024 | 3:36 min

    Russisches Netzwerk erstellte Kommentare mit KI

    Das bekannte russische "Doppelgänger"-Netzwerk nutzte die KI von OpenAI, um Kommentare auf Plattformen wie X auf Deutsch, Englisch, Französisch, Italienisch und Polnisch zu erzeugen. OpenAI demontierte zudem die chinesische Desinformations-Operation "Spamouflage", die die Firmenmodelle missbrauchte, um unter anderem Online-Netzwerke zu durchsuchen und mehrsprachige Texte zu generieren.
    Laut OpenAI machen es die Zusammenarbeit, der Austausch von Geheimdienstinformationen und in ihre Anwendungen eingebaute Schutzvorrichtungen möglich, Missbrauch zu durchkreuzen.

    Nachrichten | Thema
    :Künstliche Intelligenz

    Was ist künstliche Intelligenz? Welche Beispiele gibt es? Und: Ist KI fehlerfrei? Artificial Intelligence wird strittig diskutiert. Aktuelle News und Hintergründe.
    Frau interagiert mit künstlicher Intelligenz
    Quelle: AFP

    Mehr zu KI und Wahlen

    Chancen und Risiken von KI