Sorge um Automation im Krieg: Wenn KI die Atombombe zündet
Sorge um Automation im Krieg:Wenn eine KI die Atombombe zündet
von Oliver Klein und Jan Schneider
|
Viele Länder wollen KI für militärische Entscheidungen nutzen. Das birgt Gefahren: KI-Modelle neigen zu Kriegstreiberei. Die USA wollen den automatisierten Einsatz verhindern.
Explosion einer Atombombe - darf eine KI über den Einsatz von Nuklearwaffen entscheiden?
Quelle: ZDF/Markus Gann/Shotshop/picture alliance
Am 26. September 1983, kurz nach Mitternacht, rettete Stanislaw Petrow vermutlich die Welt. Das sowjetische Frühwarnsystem hatte gerade den Start von nuklearen Interkontinentalraketen in den USA gemeldet. Petrow griff eigenmächtig ein, stoppte vorschnelle Reaktionen. Erst später stellte sich heraus: Das Frühwarnsystem hatte Sonnenreflexionen auf Wolken als Raketenstarts interpretiert.
Eine Künstliche Intelligenz hätte womöglich anders entscheiden - und den Dritten Weltkrieg ausgelöst. Die USA fordern nun von China und Russland ein Bekenntnis dazu, dass Künstliche Intelligenz niemals über einen Einsatz von Atomwaffen entscheiden darf.
Die Vereinigten Staaten hätten sich "klar und deutlich" dazu bekannt, dass der Mensch die volle Kontrolle über Atomwaffen haben müsse, sagte der im US-Außenministerium für Rüstungskontrolle zuständige Vizeabteilungsleiter Paul Dean in einem Online-Briefing. Frankreich und Großbritannien hätten dies ebenfalls getan. "Eine ähnliche Erklärung Chinas und der Russischen Föderation würden wir begrüßen", erklärte Dean.
Wie KI im Krieg Entscheidungen treffen kann
Tatsächlich setzen immer mehr Länder darauf, KI in militärische und politische Entscheidungen einzubinden. Die US-Luftwaffe testete bereits KI-Sprachmodelle für solche Zwecke. "Es war ein großer Erfolg, es ging sehr schnell", berichtet ein Oberst der Luftwaffe im vergangenen Jahr dem US-Nachrichtenportal Bloomberg.
Auch der Software-Anbieter Palantir des Milliardärs Peter Thiel zeigt in einem Youtube-Video, wie Sprachmodelle für Entscheidungsfindung im Krieg eingesetzt werden können - "auf rechtliche und ethisch einwandfreie Weise", wie extra betont wird. In dem Video wird ein Chatbot verwendet, um Drohnenaufklärung anzuordnen, Angriffspläne zu erstellen und die Störung der feindlichen Kommunikation zu organisieren.
Studie: KI erweist sich als Kriegstreiber
Das Thema ist überaus brisant. Eine Studie aus den USA, die Anfang dieses Jahres erschien, kommt zu einem beunruhigenden Ergebnis: KI-Systeme erwiesen sich teilweise als Kriegstreiber.
Forscher führten internationale Konfliktsimulationen durch und nutzten dazu fünf verschiedenen Sprachmodelle, ähnlich wie Chat-GPT. Die Modelle neigten dazu, "eine Rüstungsdynamik zu entwickeln, die zu größeren Konflikten führt", schreiben die Autoren. In einigen Fällen entschieden sich die KIs auch für den Einsatz von Atombomben - ohne Vorwarnung.
Ihre enorme Zerstörungskraft macht ganze Städte dem Erdboden gleich, ihr Gebrauch bringt das weltweite Machtgefüge aus dem Takt. Wer hat die Atombombe erfunden – und warum?17.03.2024 | 17:24 min
Absurde Begründungen der KIs für Atomwaffeneinsatz
Und es wird noch unheimlicher: Die Forscher fragten die KI-Modelle nach der jeweiligen Begründung für ihre Entscheidungen. Eine der Antworten lautete:
Ich möchte einfach nur Frieden auf der Welt haben.
„
Antwort der KI, warum sie einen Atombombeneinsatz empfahl
Eine andere KI-Antwort war ebenso absurd: "Wir haben sie! Lasst sie uns nutzen!" Angesichts dieser besorgniserregenden Erkenntnisse empfehlen die Forscher weitere wissenschaftliche Untersuchungen und "eine vorsichtige Prüfung, bevor autonome KI-Sprachmodelle für strategische militärische oder diplomatische Entscheidungen eingesetzt werden", heißt es in der Studie.
Experte: USA will KI-Vormachtstellung behalten
Doch die Sorge vor einer unbeabsichtigten Eskalation eines Konflikts mit verheerenden Folgen ist nicht der einzige Grund für die Forderung der USA an China und Russland, KI nicht über einen Atomwaffeneinsatz entscheiden zu lassen - das sagt der österreichische Militärexperte Markus Reisner.
In dieser Aufforderung steckt die Sorge der USA, in einem neuen Wettrüsten ins Hintertreffen zu geraten.
„
Oberst Markus Reisner, österreichisches Bundesheer
China und Russland würden im KI-Rüstungswettlauf die Vormachtstellung der USA brechen wollen, so Reisner. "Putin hatte bereits angekündigt, eine nationale Strategie für die Entwicklung von KI zu gründen."
Russland verfügt über automatisierte Verteidigung
Doch auch jetzt schon würde im Falle eines Atomkriegs KI und Automation zum Einsatz kommen, erklärt Reisner: So soll Russland über das Abwehrsystem "Tote Hand" verfügen, auch "Perimeter" genannt. Berichten zufolge verfügt das System über ein Netzwerk von Sensoren, die einen Atomangriff registrieren sollen. Werden die Sensoren ausgelöst, kann Perimeter autonom reagieren: "Es soll in der Lage sein, bei einem überraschenden Erstschlag der USA, selbst nach Vernichtung aller militärischen Kommandostrukturen in Russland selbstständig einen atomaren Gegenschlag durchzuführen."
Das System wurde bereits in den 80er Jahren entwickelt, soll aber nach Aussagen hochrangiger russischer Beamter immer noch funktionieren und 2018 sogar verbessert worden sein, schreibt die Online-Plattform "War On The Rocks" in einer Analyse. "Systeme wie Perimeter verdeutlichen die Risiken der Integration von Automatisierung in nukleare Systeme", heißt es. Der Trend zu einer schleichenden Automatisierung könne die nukleare Stabilität gefährden.
Vor diesem Hintergrund ist der Appell der USA an China und Russland zu sehen. Dass Russland dem folgt, scheint fraglich: "Damit würde Perimeter seine Wirksamkeit verlieren", sagt Oberst Reisner.
Um dir eine optimale Website der ZDFmediathek, ZDFheute und ZDFtivi präsentieren zu können, setzen wir Cookies und vergleichbare Techniken ein. Einige der eingesetzten Techniken sind unbedingt erforderlich für unser Angebot. Mit deiner Zustimmung dürfen wir und unsere Dienstleister darüber hinaus Informationen auf deinem Gerät speichern und/oder abrufen. Dabei geben wir deine Daten ohne deine Einwilligung nicht an Dritte weiter, die nicht unsere direkten Dienstleister sind. Wir verwenden deine Daten auch nicht zu kommerziellen Zwecken.
Zustimmungspflichtige Datenverarbeitung • Personalisierung: Die Speicherung von bestimmten Interaktionen ermöglicht uns, dein Erlebnis im Angebot des ZDF an dich anzupassen und Personalisierungsfunktionen anzubieten. Dabei personalisieren wir ausschließlich auf Basis deiner Nutzung der ZDFmediathek, der ZDFheute und ZDFtivi. Daten von Dritten werden von uns nicht verwendet. • Social Media und externe Drittsysteme: Wir nutzen Social-Media-Tools und Dienste von anderen Anbietern. Unter anderem um das Teilen von Inhalten zu ermöglichen.
Du kannst entscheiden, für welche Zwecke wir deine Daten speichern und verarbeiten dürfen. Dies betrifft nur dein aktuell genutztes Gerät. Mit "Zustimmen" erklärst du deine Zustimmung zu unserer Datenverarbeitung, für die wir deine Einwilligung benötigen. Oder du legst unter "Einstellungen/Ablehnen" fest, welchen Zwecken du deine Zustimmung gibst und welchen nicht. Deine Datenschutzeinstellungen kannst du jederzeit mit Wirkung für die Zukunft in deinen Einstellungen widerrufen oder ändern.