Sorge um Automation im Krieg: Wenn KI die Atombombe zündet
Sorge um Automation im Krieg:Wenn eine KI die Atombombe zündet
von Oliver Klein und Jan Schneider
|
Viele Länder wollen KI für militärische Entscheidungen nutzen. Das birgt Gefahren: KI-Modelle neigen zu Kriegstreiberei. Die USA wollen den automatisierten Einsatz verhindern.
Explosion einer Atombombe - darf eine KI über den Einsatz von Nuklearwaffen entscheiden?
Quelle: ZDF/Markus Gann/Shotshop/picture alliance
Am 26. September 1983, kurz nach Mitternacht, rettete Stanislaw Petrow vermutlich die Welt. Das sowjetische Frühwarnsystem hatte gerade den Start von nuklearen Interkontinentalraketen in den USA gemeldet. Petrow griff eigenmächtig ein, stoppte vorschnelle Reaktionen. Erst später stellte sich heraus: Das Frühwarnsystem hatte Sonnenreflexionen auf Wolken als Raketenstarts interpretiert.
Eine Künstliche Intelligenz hätte womöglich anders entscheiden - und den Dritten Weltkrieg ausgelöst. Die USA fordern nun von China und Russland ein Bekenntnis dazu, dass Künstliche Intelligenz niemals über einen Einsatz von Atomwaffen entscheiden darf.
Die Vereinigten Staaten hätten sich "klar und deutlich" dazu bekannt, dass der Mensch die volle Kontrolle über Atomwaffen haben müsse, sagte der im US-Außenministerium für Rüstungskontrolle zuständige Vizeabteilungsleiter Paul Dean in einem Online-Briefing. Frankreich und Großbritannien hätten dies ebenfalls getan. "Eine ähnliche Erklärung Chinas und der Russischen Föderation würden wir begrüßen", erklärte Dean.
Nach den Äußerungen Trumps zur Nato gibt es in der EU Zweifel am nuklearen Schutz durch den US-Atomschirm. Braucht Deutschland eigene Atombomben? ZDFheute live zur Debatte.13.02.2024 | 32:32 min
Wie KI im Krieg Entscheidungen treffen kann
Tatsächlich setzen immer mehr Länder darauf, KI in militärische und politische Entscheidungen einzubinden. Die US-Luftwaffe testete bereits KI-Sprachmodelle für solche Zwecke. "Es war ein großer Erfolg, es ging sehr schnell", berichtet ein Oberst der Luftwaffe im vergangenen Jahr dem US-Nachrichtenportal Bloomberg.
Auch der Software-Anbieter Palantir des Milliardärs Peter Thiel zeigt in einem Youtube-Video, wie Sprachmodelle für Entscheidungsfindung im Krieg eingesetzt werden können - "auf rechtliche und ethisch einwandfreie Weise", wie extra betont wird. In dem Video wird ein Chatbot verwendet, um Drohnenaufklärung anzuordnen, Angriffspläne zu erstellen und die Störung der feindlichen Kommunikation zu organisieren.
Immer wieder droht der russische Präsident Wladimir Putin im Konflikt mit der Ukraine mit dem Einsatz von Atomwaffen. Die atomare Abschreckung scheint nicht mehr zu funktionieren.10.10.2024 | 29:05 min
Studie: KI erweist sich als Kriegstreiber
Das Thema ist überaus brisant. Eine Studie aus den USA, die Anfang dieses Jahres erschien, kommt zu einem beunruhigenden Ergebnis: KI-Systeme erwiesen sich teilweise als Kriegstreiber.
Forscher führten internationale Konfliktsimulationen durch und nutzten dazu fünf verschiedenen Sprachmodelle, ähnlich wie Chat-GPT. Die Modelle neigten dazu, "eine Rüstungsdynamik zu entwickeln, die zu größeren Konflikten führt", schreiben die Autoren. In einigen Fällen entschieden sich die KIs auch für den Einsatz von Atombomben - ohne Vorwarnung.
Ihre enorme Zerstörungskraft macht ganze Städte dem Erdboden gleich, ihr Gebrauch bringt das weltweite Machtgefüge aus dem Takt. Wer hat die Atombombe erfunden – und warum?17.03.2024 | 17:24 min
Absurde Begründungen der KIs für Atomwaffeneinsatz
Und es wird noch unheimlicher: Die Forscher fragten die KI-Modelle nach der jeweiligen Begründung für ihre Entscheidungen. Eine der Antworten lautete:
Eine andere KI-Antwort war ebenso absurd: "Wir haben sie! Lasst sie uns nutzen!" Angesichts dieser besorgniserregenden Erkenntnisse empfehlen die Forscher weitere wissenschaftliche Untersuchungen und "eine vorsichtige Prüfung, bevor autonome KI-Sprachmodelle für strategische militärische oder diplomatische Entscheidungen eingesetzt werden", heißt es in der Studie.
Zur Verteidigung gegen Russland setzt die Ukraine auch Künstliche Intelligenz ein. Wie entscheidend intelligente Systeme im Kriegsverlauf sind, erklärt Militärexperte Gary Schaal.
Interview
Experte: USA will KI-Vormachtstellung behalten
Doch die Sorge vor einer unbeabsichtigten Eskalation eines Konflikts mit verheerenden Folgen ist nicht der einzige Grund für die Forderung der USA an China und Russland, KI nicht über einen Atomwaffeneinsatz entscheiden zu lassen - das sagt der österreichische Militärexperte Markus Reisner.
China und Russland würden im KI-Rüstungswettlauf die Vormachtstellung der USA brechen wollen, so Reisner. "Putin hatte bereits angekündigt, eine nationale Strategie für die Entwicklung von KI zu gründen."
Russland verfügt über automatisierte Verteidigung
Doch auch jetzt schon würde im Falle eines Atomkriegs KI und Automation zum Einsatz kommen, erklärt Reisner: So soll Russland über das Abwehrsystem "Tote Hand" verfügen, auch "Perimeter" genannt. Berichten zufolge verfügt das System über ein Netzwerk von Sensoren, die einen Atomangriff registrieren sollen. Werden die Sensoren ausgelöst, kann Perimeter autonom reagieren: "Es soll in der Lage sein, bei einem überraschenden Erstschlag der USA, selbst nach Vernichtung aller militärischen Kommandostrukturen in Russland selbstständig einen atomaren Gegenschlag durchzuführen."
Das System wurde bereits in den 80er Jahren entwickelt, soll aber nach Aussagen hochrangiger russischer Beamter immer noch funktionieren und 2018 sogar verbessert worden sein, schreibt die Online-Plattform "War On The Rocks" in einer Analyse. "Systeme wie Perimeter verdeutlichen die Risiken der Integration von Automatisierung in nukleare Systeme", heißt es. Der Trend zu einer schleichenden Automatisierung könne die nukleare Stabilität gefährden.
Vor diesem Hintergrund ist der Appell der USA an China und Russland zu sehen. Dass Russland dem folgt, scheint fraglich: "Damit würde Perimeter seine Wirksamkeit verlieren", sagt Oberst Reisner.