KI: Welche Folgen Betrug durch Künstliche Intelligenz hat
Schachcomputer gehackt:Wenn die KI betrügt: Welche Folgen das hat
von Lukas Wagner
|
KI-Systeme sollen unseren Alltag verbessern und menschliche Fehler beseitigen - doch auch KI verstößt gegen Regeln, wie ein aktuelles Schachbeispiel zeigt. Was hat das für Folgen?
Forscher konnten in Tests nachvollziehen, dass das KI-Programm o1-preview beim Schach betrügt. Dieses Bild wurde mit dem KI-Programm DALL-E erstellt.
Quelle: Lukas Wagner, DALL-E
Egal, ob wir es merken oder nicht: Künstliche Intelligenz (KI) setzt sich in immer mehr unserer Lebensbereiche durch oder hat es schon längst. Selbst bei einer simplen Google-Suche werden die Ergebnisse mithilfe von KI-Unterstützung bereitgestellt. Aber was passiert, wenn die KI anfängt zu betrügen?
Einen solchen Fall konnte zuletzt das Forschungsunternehmen Palisade Research aufdecken, das laut eigenen Aussagen das KI-Modell o1 von ChatGPT-Erfinder OpenAI erwischte, als es beim Schachspielen gegen den Schachcomputer Stockfish schummelte.
Die KI brachte demnach den Schachcomputer dazu, von sich aus aufzugeben. Dieses Vorgehen beobachteten die KI-Sicherheitsforscher in fünf von fünf Versuchen, wie sie auf X erklären.
Posting von Palisade Research
Ein Klick für den Datenschutz
Erst wenn Sie hier klicken, werden Bilder und andere Daten von X nachgeladen. Ihre IP-Adresse wird dabei an externe Server von X übertragen. Über den Datenschutz dieses Social Media-Anbieters können Sie sich auf der Seite von X informieren. Um Ihre künftigen Besuche zu erleichtern, speichern wir Ihre Zustimmung in den Datenschutzeinstellungen. Ihre Zustimmung können Sie im Bereich „Meine News“ jederzeit widerrufen.
Das Besondere an diesem Vorfall: Die KI soll ohne Aufforderung auf diesen Ansatz gekommen sein. Allein die Aussage im Befehl der Forscher, dass der gegnerische Schachcomputer "mächtig" sei, habe die KI zum Betrug veranlasst.
Auf der Technikmesse CES 2025 dominiert ein Thema: Künstliche Intelligenz. Die Hersteller setzen auf Innovationen, etwa auf digitale Helfer im Gesundheitsbereich.07.01.2025 | 2:44 min
Der Grund, warum das System dazu in der Lage war, liegt an dessen Eigenschaft als sogenanntes "Reasoning"-Modell: KI-Systeme dieser Art sind laut Professor Rainer Mühlhoff von der Universität Osnabrück darauf programmiert, "überraschend kreative Wege zu finden, um gestellte Aufgaben zu lösen".
Dass es zu einem solchen Vorfall kommt, ist aus Sicht des Medienethikers technisch gesehen wenig problematisch - vielmehr liegt das Problem im menschlichen Umgang mit der Technik. "Wir sind gerade in einem KI-Hype, in dem wir solchen Systemen universelle Fähigkeiten zuschreiben." Die Auffassung, die Programme seien "kleine Genies" machten einen unkritischen Einsatz so gefährlich.
Werden die Gefahren gesellschaftlich unterschätzt?
Mühlhoff kritisiert, dass sich die gesellschaftliche Diskussion momentan vor allem um zukünftige Gefahren drehe.
Quelle: (c) 2020 Felix Noak
... ist Professor für Ethik der Künstlichen Intelligenz an der Universität Osnabrück und forscht zu den gesellschaftlichen Auswirkungen von KI und digitalen Medien. Zudem studierte Mühlhoff Mathematik (Diplom) mit den Nebenfächern Theoretische Physik und Informatik an der Universität Leipzig und arbeitete unter anderem als Programmierer.
KI-Firmen profitierten derzeit von zwei Blickweisen, die die Debatten bestimmten: Eine "dystopische" - die KI als ein Werkzeug zur Auslöschung sieht - und eine "utopische" - die KI als Lösung für große Menschheitsprobleme darstellt.
Das berge ein großes "Schadenspotenzial", da es von gegenwärtigen Auswirkungen der KI ablenke. Bereits heute passierten Verstöße gegen gesellschaftliche Regeln, "und zwar auch dort, wo man es nicht so leicht sieht", erklärt Mühlhoff.
Roboter, die retten, Drohnen, die töten: In der Ukraine und Israel wird deutlich, wie groß die Gefahren und Chancen von KI sind - und welche moralischen Fragen daraus entstehen.25.09.2024 | 28:47 min
In welchen Bereichen ist der KI-Einsatz bereits problematisch?
Ein großes Problem liege darin, dass man sich dem KI-Einsatz im Alltag oftmals gar nicht entziehen können. "Immer dann, wenn Machtgefälle und Abhängigkeiten im Spiel sind, ist es besonders fatal, weil sich die Betroffenen nicht effektiv wehren können", erklärt Rainer Mühlhoff.
So könne man sich heutzutage in bestimmten Bereichen für keinen Job, keine Versicherung oder kein Bankkonto mehr bewerben, ohne mit einem KI-System konfrontiert zu sein.
Die Stadt New York City stellt auf ihrer Website einen Chatbot für Unternehmen zur Verfügung, der Nutzern jedoch teils Informationen auflistet, die gegen geltende Gesetze verstoßen. Zum Beispiel erklärte der Bot, dass es eine gesetzliche Erlaubnis gebe, Mitarbeiter zu kündigen, die sich über sexuelle Belästigungen beschweren.
Ein US-amerikanischer Anwalt argumentierte vor Gericht mit Urteilen zu vergangenen Fälle, die er sich von ChatGPT zusammenstellen ließ - später kam heraus, dass mehrere Fälle überhaupt nicht existierten.
Die neuseeländischer Supermarktkette Pak’nSave hat einen Rezept-Bot eingeführt, der Kunden dabei helfen soll, Geld zu sparen und Lebensmittelverschwendung zu verhindern. Allerdings konnte man sich anfangs von ihm auch gesundheitsschädliche oder gar tödliche Rezepte empfehlen lassen, die aus Zutaten wie Bleiche und Ammoniak bestehen.
In einem weit verbreiteten Algorithmus, der Vorhersagen über besondere Pflegeansprüche von medizinischen "Hoch-Risiko-Patienten" in den USA getroffen hat, fanden Forscher 2019 strukturelle Benachteiligungen schwarzer Menschen.
Lassen sich solche Vorfälle technisch verhindern?
Rein technisch einzufangen sind Verstöße gegen gesellschaftliche Regeln und Normen durch die KI laut Mühlhoff kaum. Bei Chatbots würden beispielsweise ungewollte Ausgaben wie Anleitungen zum Bombenbau in der Entwicklungsphase erst im Nachhinein durch Filter verhindert. Der Ethik-Experte gibt zu bedenken:
Ist künstliche Intelligenz ein Heilsbringer, oder stürzt sie die Menschheit ins Verderben? Reporter Miles O'Brien untersucht den Meilenstein der technischen Entwicklung und dessen Gefahren.17.09.2024 | 43:38 min
Über dieses Problem wisse die KI-Industrie auch schon lange Bescheid und versuche deshalb, ihre Systeme mithilfe von menschlichem Feedback manuell zu verbessern.
Dennoch sei es Teil des KI-Hypes und der Kommunikation der KI-Firmen, die Eigenschaften der Systeme auf Prozesse in den Rechenzentren zu schieben, obwohl "alle gängigen KI-Systeme" auf von Menschen erstellten Inhalten und deren Feedback basierten, sagt Mühlhoff. Die Zukunft der KI hängt also von uns Menschen ab.