Interview
Umfrage:Jeder Fünfte nutzt KI für politische Infos
von Valerie Albert
|
Sprach-KIs werden immer häufiger für politische Informationen eingesetzt. Doch dafür ist Medienkompetenz gefragt, denn die Antworten sind nicht immer korrekt.
Es dauert noch bis diese Schüler wählen gehen werden. Dennoch lernen sie schon die nötige Medienkompetenz, auch mit KIs umgehen zu können.21.02.2024 | 2:45 min
Künstliche Intelligenz ist inzwischen fast überall. In der Schule, als Teil der Bildung, genauso wie beim Informieren außerhalb des Klassenraums. Auch wenn es um politische Inhalte geht, erfreuen sich Chatbots großer Beliebtheit.
Etwa jeder fünfte Deutsche zwischen 16 und 65 Jahren hat sich einer Umfrage zufolge schon einmal mithilfe von Künstlicher Intelligenz zu politischen Themen informiert. In der Generation Z bis 25 Jahre ist es mehr als jeder Dritte, wie aus einer Erhebung der IU Internationalen Hochschule mit Sitz in Erfurt hervorgeht. Die private Hochschule hatte rund 1.200 Menschen repräsentativ nach Alter und Geschlecht befragt.
"Die Zahlen zeigen, dass die Technik Akzeptanz findet. Aber das ist auf jeden Fall noch steigerungsfähig", sagte die Kanzlerin der Hochschule, Alexandra Wuttig. Sie gehe davon aus, dass etwa kurz vor der Bundestagswahl deutlich mehr Menschen ihre Informationen mittels ChatGPT und anderen KI-Systemen einholen.
Künstliche Intelligenz bezeichnet meist Anwendungen auf Basis maschinellen Lernens, bei denen eine Software große Datenmengen nach Übereinstimmungen durchforstet und daraus Schlussfolgerungen zieht. Damit können menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität imitiert werden. Damit können Maschinen beispielsweise ihre Umwelt wahrnehmen und auf sie reagieren.
KI wird schon jetzt in vielen Bereichen eingesetzt. Zum Beispiel können solche Programme Aufnahmen von Computertomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Selbstfahrende Autos wiederum versuchen, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und Chatbots oder automatische Playlists von Streaming-Diensten arbeiten ebenfalls mit KI.
KI wird schon jetzt in vielen Bereichen eingesetzt. Zum Beispiel können solche Programme Aufnahmen von Computertomografen schneller und mit einer höheren Genauigkeit als Menschen auswerten. Selbstfahrende Autos wiederum versuchen, das Verhalten anderer Verkehrsteilnehmer vorherzusagen. Und Chatbots oder automatische Playlists von Streaming-Diensten arbeiten ebenfalls mit KI.
Skepsis in der Bevölkerung
Zugleich zeigte die Umfrage auch zurückhaltende Vorsicht. So stimmten etwa 73 Prozent der Befragten der Aussage zu, KI-Technologien könnten missbraucht werden, um Informationen zu manipulieren. Etwa zwei Drittel äußerten die Sorge, eine fehlerhafte KI-Programmierung könne dazu beitragen, Ungleichheiten zu verstärken oder Diskriminierung zu fördern.
Eine von Künstlicher Intelligenz geschaffene Wirklichkeit wird unsere Gesellschaft in wenigen Jahren von Grund auf verändern. Der Kampf gegen Deep Fakes wird unseren Alltag bestimmen.15.12.2023 | 5:28 min
Wie wahrhaftig kann eine KI sein?
Gleichermaßen sei es wichtig, Antworten von KI-Systemen stets zu hinterfragen, sagte Wuttig. Da sei eine ähnliche Skepsis wie etwa bei sozialen Medien angebracht.
Eine Gefahr, die KIs mit sich bringen, sind Halluzinationen. Beim Training einer Sprach-KI entstehen hochspezialisierte statistische Modelle, welche die Muster unserer Sprache erlernen. Dadurch können sie unsere Sprache nachahmen, haben aber kein Verständnis für den Inhalt, den sie erzeugen.
Auf Befehl schreibt ChatGPT Liebesbriefe, Bewerbungen, Emails oder beantwortet Fragen. Doch das Programm ist anfällig für Falschaussagen und Fake News. Wie kann es dazu kommen? 20.04.2023 | 4:27 min
Ein Beispiel dafür, was passieren kann, wenn eine KI mit unvollständigen Daten trainiert wird, zeigte sich im Jahr 2020, als X, damals noch Twitter, eine Funktion vorstellte, die Vorschaubilder automatisch zuschneidet. Die Bilderkennung war mit Fotos hellhäutiger Menschen trainiert worden und erkannte dunklere Menschen kaum. Das Ergebnis: Der Algorithmus schnitt ein Bild mit hellhäutigen und dunkelhäutigen Personen immer so zu, dass die hellhäutige Person im Bild immer gut zu erkennen war - die dunkelhäutige nicht. Nachdem der Programmierer Tony Arcieri Twitter auf den rassistischen Algorithmus aufmerksam gemacht hatte, entfernte das Unternehmen diese Funktion. In den Trainingsdaten fehlten ausreichend Bilder von dunkelhäutigen Menschen.
Selbst in guten Bedingungen fehlerhaft
Ein KI-Sprachmodell erzeugt bei jeder Anfrage die Antwort komplett neu. So kann es vorkommen, dass auf die gleiche Frage, beim gleichen Anbieter unterschiedliche Antworten entstehen. Selbst wenn man einem Sprachmodell einen Text gibt, um diesen zusammenzufassen, kann es zu Fehlern kommen.
Faktentreue von Sprach-KIs im Test
ZDFheute Infografik
Ein Klick für den Datenschutz
Für die Darstellung von ZDFheute Infografiken nutzen wir die Software von Datawrapper. Erst wenn Sie hier klicken, werden die Grafiken nachgeladen. Ihre IP-Adresse wird dabei an externe Server von Datawrapper übertragen. Über den Datenschutz von Datawrapper können Sie sich auf der Seite des Anbieters informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.
Der Markt der Künstlichen Intelligenzen boomt und die Investitionen in dem Bereich sind enorm. Kleinere Mitbewerber haben oft nicht die Ressourcen da mitzuhalten. So konzentriert sich die Technik bei wenigen Anbietern.
Es ist aber nicht transparent, mit welchen Daten die einzelnen Modelle trainiert werden. Je nach Anbieter entstehen so auf gleiche Anfrage unterschiedliche Antworten. Eine solide, einheitliche Basis für Informationen ist das keinesfalls. Die EU hat deswegen auch schon Regeln für die Anwendung von Künstlichen Intelligenzen beschlossen.
Mit großer Mehrheit stimmt das EU-Parlament für den AI Act. Das Gesetz ist das erste seiner Art und sieht etwa die Unterteilung von KI-Systemen in verschiedene Risikogruppen vor.13.03.2024 | 2:29 min
In Deutschland sei die Haltung gegenüber neuen Technologien auch im Vergleich zu anderen Ländern besonders kritisch, sagte Wuttig. "Es wäre gut, wenn wir auch mehr die Möglichkeiten und die Zeitersparnis sehen", sagte sie. Dann liefe Deutschland auch nicht Gefahr, anderen Ländern hinterherzulaufen.
Prompten nennt man die Texteingabe bei KI-Tools wie ChatGPT oder Google Gemini, also den Befehl oder die Anweisung. Je genauer man promptet, desto bessere Ergebnisse bekommt man.
So gelingen gute Prompts:
So gelingen gute Prompts:
- nicht zu lange nachdenken, nicht zu analytisch sein
- eindeutig und ausführlich formulieren
- Kontext für die KI schaffen
- quantitative Angaben wie Zeitangaben oder Textlängen mitliefern
- bei Änderungswünschen klar und nicht zu kurz formulieren
Auch wenn der Einsatz von Künstlicher Intelligenz viele Chancen bietet, sind die Antworten von Sprachmodellen immer mit Vorsicht zu genießen. Die potentiellen Falschinformationen sollten immer unabhängig überprüft werden.
Quelle: Mit Materiel von dpa
Mehr zum Thema Künstliche Intelligenz
FAQ
EU beschließt Regulierung:Weltweit erstes KI-Gesetz - was das bedeutet
Kolumne
Terra X - die Wissens-Kolumne:Wie Plug-ins ChatGPT und KI vorantreiben
von Gert Scobel
mit Video
Risiken für Beschäftigte:KI-Einsatz im Job: Was ist erlaubt?
von Samuel Kirsch