KI für politische Infos: Jeder Fünfte nutzt ChatGPT und Co.

    Umfrage:Jeder Fünfte nutzt KI für politische Infos

    Valerie Albert
    von Valerie Albert
    |

    Sprach-KIs werden immer häufiger für politische Informationen eingesetzt. Doch dafür ist Medienkompetenz gefragt, denn die Antworten sind nicht immer korrekt.

    Lehrerin am Smartboard
    Es dauert noch bis diese Schüler wählen gehen werden. Dennoch lernen sie schon die nötige Medienkompetenz, auch mit KIs umgehen zu können.21.02.2024 | 2:45 min
    Künstliche Intelligenz ist inzwischen fast überall. In der Schule, als Teil der Bildung, genauso wie beim Informieren außerhalb des Klassenraums. Auch wenn es um politische Inhalte geht, erfreuen sich Chatbots großer Beliebtheit.
    Etwa jeder fünfte Deutsche zwischen 16 und 65 Jahren hat sich einer Umfrage zufolge schon einmal mithilfe von Künstlicher Intelligenz zu politischen Themen informiert. In der Generation Z bis 25 Jahre ist es mehr als jeder Dritte, wie aus einer Erhebung der IU Internationalen Hochschule mit Sitz in Erfurt hervorgeht. Die private Hochschule hatte rund 1.200 Menschen repräsentativ nach Alter und Geschlecht befragt.
    "Die Zahlen zeigen, dass die Technik Akzeptanz findet. Aber das ist auf jeden Fall noch steigerungsfähig", sagte die Kanzlerin der Hochschule, Alexandra Wuttig. Sie gehe davon aus, dass etwa kurz vor der Bundestagswahl deutlich mehr Menschen ihre Informationen mittels ChatGPT und anderen KI-Systemen einholen.

    Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Damit können menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität imitiert werden. Damit können Maschinen beispielsweise ihre Umwelt wahrnehmen und auf sie reagieren.

    KI wird schon jetzt in vielen Bereichen eingesetzt. Zum Beispiel können solche Programme Aufnahmen von Computertomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Selbstfahrende Autos wiederum versuchen, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und Chatbots oder automatische Playlists von Streaming-Diensten arbeiten ebenfalls mit KI.

    Skepsis in der Bevölkerung

    Zugleich zeigte die Umfrage auch zurückhaltende Vorsicht. So stimmten etwa 73 Prozent der Befragten der Aussage zu, KI-Technologien könnten missbraucht werden, um Informationen zu manipulieren. Etwa zwei Drittel äußerten die Sorge, eine fehlerhafte KI-Programmierung könne dazu beitragen, Ungleichheiten zu verstärken oder Diskriminierung zu fördern.
    Symbolbild Künstliche Intelligenz
    Eine von Künstlicher Intelligenz geschaffene Wirklichkeit wird unsere Gesellschaft in wenigen Jahren von Grund auf verändern. Der Kampf gegen Deep Fakes wird unseren Alltag bestimmen.15.12.2023 | 5:28 min

    Wie wahrhaftig kann eine KI sein?

    Gleichermaßen sei es wichtig, Antworten von KI-Systemen stets zu hinterfragen, sagte Wuttig. Da sei eine ähnliche Skepsis wie etwa bei sozialen Medien angebracht.

    Man kann einen Chatbot ja auch ganz einfach nach seinen Quellen fragen.

    Alexandra Wuttig, Kanzlerin der Hochschule IU

    Eine Gefahr, die KIs mit sich bringen, sind Halluzinationen. Beim Training einer Sprach-KI entstehen hochspezialisierte statistische Modelle, welche die Muster unserer Sprache erlernen. Dadurch können sie unsere Sprache nachahmen, haben aber kein Verständnis für den Inhalt, den sie erzeugen.
    Handy mit Aufschrift ChatGPT
    Auf Befehl schreibt ChatGPT Liebesbriefe, Bewerbungen, Emails oder beantwortet Fragen. Doch das Programm ist anfällig für Falschaussagen und Fake News. Wie kann es dazu kommen? 20.04.2023 | 4:27 min

    Ein Beispiel dafür, was passieren kann, wenn eine KI mit unvollständigen Daten trainiert wird, zeigte sich im Jahr 2020, als X, damals noch Twitter, eine Funktion vorstellte, die Vorschaubilder automatisch zuschneidet. Die Bilderkennung war mit Fotos hellhäutiger Menschen trainiert worden und erkannte dunklere Menschen kaum. Das Ergebnis: Der Algorithmus schnitt ein Bild mit hellhäutigen und dunkelhäutigen Personen immer so zu, dass die hellhäutige Person im Bild immer gut zu erkennen war - die dunkelhäutige nicht. Nachdem der Programmierer Tony Arcieri Twitter auf den rassistischen Algorithmus aufmerksam gemacht hatte, entfernte das Unternehmen diese Funktion. In den Trainingsdaten fehlten ausreichend Bilder von dunkelhäutigen Menschen.

    Selbst in guten Bedingungen fehlerhaft

    Ein KI-Sprachmodell erzeugt bei jeder Anfrage die Antwort komplett neu. So kann es vorkommen, dass auf die gleiche Frage, beim gleichen Anbieter unterschiedliche Antworten entstehen. Selbst wenn man einem Sprachmodell einen Text gibt, um diesen zusammenzufassen, kann es zu Fehlern kommen.
    Faktentreue von Sprach-KIs im Test

    ZDFheute Infografik

    Ein Klick für den Datenschutz
    Für die Darstellung von ZDFheute Infografiken nutzen wir die Software von Datawrapper. Erst wenn Sie hier klicken, werden die Grafiken nachgeladen. Ihre IP-Adresse wird dabei an externe Server von Datawrapper übertragen. Über den Datenschutz von Datawrapper können Sie sich auf der Seite des Anbieters informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.
    Der Markt der Künstlichen Intelligenzen boomt und die Investitionen in dem Bereich sind enorm. Kleinere Mitbewerber haben oft nicht die Ressourcen da mitzuhalten. So konzentriert sich die Technik bei wenigen Anbietern.
    Es ist aber nicht transparent, mit welchen Daten die einzelnen Modelle trainiert werden. Je nach Anbieter entstehen so auf gleiche Anfrage unterschiedliche Antworten. Eine solide, einheitliche Basis für Informationen ist das keinesfalls. Die EU hat deswegen auch schon Regeln für die Anwendung von Künstlichen Intelligenzen beschlossen.
    KI-Apps auf einem Handydisplay
    Mit großer Mehrheit stimmt das EU-Parlament für den AI Act. Das Gesetz ist das erste seiner Art und sieht etwa die Unterteilung von KI-Systemen in verschiedene Risikogruppen vor.13.03.2024 | 2:29 min
    In Deutschland sei die Haltung gegenüber neuen Technologien auch im Vergleich zu anderen Ländern besonders kritisch, sagte Wuttig. "Es wäre gut, wenn wir auch mehr die Möglichkeiten und die Zeitersparnis sehen", sagte sie. Dann liefe Deutschland auch nicht Gefahr, anderen Ländern hinterherzulaufen.

    Prompten nennt man die Texteingabe bei KI-Tools wie ChatGPT oder Google Gemini, also den Befehl oder die Anweisung. Je genauer man promptet, desto bessere Ergebnisse bekommt man.

    So gelingen gute Prompts:

    • nicht zu lange nachdenken, nicht zu analytisch sein
    • eindeutig und ausführlich formulieren
    • Kontext für die KI schaffen
    • quantitative Angaben wie Zeitangaben oder Textlängen mitliefern
    • bei Änderungswünschen klar und nicht zu kurz formulieren

    Auch wenn der Einsatz von Künstlicher Intelligenz viele Chancen bietet, sind die Antworten von Sprachmodellen immer mit Vorsicht zu genießen. Die potentiellen Falschinformationen sollten immer unabhängig überprüft werden.
    Quelle: Mit Materiel von dpa

    Mehr zum Thema Künstliche Intelligenz