Kritische Infrastruktur:"ChatGPT, stell Deutschland den Strom aus"
von Peter Welchering
|
Generative Künstliche Intelligenz wird zunehmend in der Stromversorgung, beim Militär oder im Finanzwesen eingesetzt. Das hat viele Tücken.
Generative Künstliche Intelligenz wird in vielen Bereichen bereits eingesetzt - auch vom Militär.
Quelle: picture alliance / Zoonar | Alexander Limbach
Wenn KI-Software entscheiden soll, dass einige Industrieunternehmen nicht mehr mit Strom beliefert werden, weil gerade zu wenig Wind weht oder die Sonne nicht scheint, kann das erhebliche Konsequenzen haben.
"Viele Unternehmen mit kritischer Infrastruktur, wie Energieversorger, diskutieren, wie sie generative Künstliche Intelligenz einsetzen", erläutert Sam Curry vom Technologieunternehmen Zscaler.
Chatbots erkennen schnell und präzise
Sein Unternehmen hat akribisch untersucht, welche Chancen und Risiken es mit sich bringt, wenn bei den Stromnetzen, Verkehrsleitsystemen und in ähnlichen Bereichen kritischer Infrastrukturen generative Künstliche Intelligenz eingesetzt wird. Das Ergebnis einer aktuellen Umfrage seines Hauses resümiert Sam Curry so:
Den günstigsten Stromtarif für einen Verbraucher erkennen, darin sind Programme zur Mustererkennung richtig gut. Auch vor drohenden Netzüberlastungen zu warnen, bevor sie stattfinden, ist mit Künstlicher Intelligenz gut machbar.
Und wenn dann noch Chatbots die Kunden beraten, aktuelle Zählerstände aufnehmen und Tipps zum Energiesparen geben können, wären die Vorstände der Stromkonzerne zufrieden. Doch die Risiken sind zu hoch. Denn generative KI wurde bisher nur in Ausnahmefällen auf Sicherheit hin optimiert.
Wenn Chatbots über Leben und Tod entscheiden
Auch Militärs wissen das. Sie setzen schon seit einiger Zeit generative Künstliche Intelligenz ein. So unterstützen Lagebeurteilungssysteme amerikanische Stabsoffiziere bei der Entscheidung. Ob ein gegnerischer Angriff vorliegt und welche Verteidigungskräfte ihm entgegengesetzt werden, berechnet ein Chatbot.
"Der Sicherheits- und Verteidigungsbereich ist natürlich ein Bereich, in dem ganz besonders hohe Anforderungen an Vertrauenswürdigkeit bestehen", meint Christian Weber von der Technologieberatung CapGemini.
Hohe Sicherheitsanforderungen kosten viel Geld
Die werden aber beim Einsatz von Chatbots in kritischen Sicherheitsbereichen längst nicht immer erfüllt. Die Sicherheitsanforderungen des Pentagon für strategische Lagebeurteilungssysteme sind da zwar sehr hoch.
Doch denen zu genügen, kostet viel Geld. So müssen Chatbots für die Militärs auf streng abgeschirmten und kontrollierten Rechnersystemen installiert sein. Das stellt aber schon an die großen Sprachmodelle erhebliche Anforderungen. Denn die sind mit ihren mehreren Milliarden Parametern bisher in der Cloud vortrainiert worden.
Künstliche Intelligenz produziert Videos, die nur schwer als Fakes zu identifizieren sind. Welche Chance hat da die Wahrheit? Wir sprechen mit Bernhard Pörksen, Medienwissenschaftler.15.12.2023 | 5:26 min
Hochsicherheits-Rechenzentren für die KI
Das reicht den Militärs aber nicht: In der Cloud vortrainierte, große Sprachmodelle für Chatbots sind ihnen nicht sicher genug. Sie gehen von einem Modell aus, das in einem vollkommen abgeschotteten Höchstleistungsrechenzentrum entwickelt wurde.
Energieversorger können solch einen Aufwand finanziell schon mal gar nicht stemmen. Deshalb rät Lorenz Lehmhaus vom KI-Entwicklungsunternehmen Aleph Alpha dazu, in Bereichen kritischer Infrastruktur außerhalb militärischer Anwendungen etwas abzuspecken. KI-Experte Lehmhaus erklärt:
Das heißt, die Computer, auf denen große Sprachmodelle entwickelt oder feingetuned werden, müssen in den Standard-Rechenzentren der Unternehmen stehen.
Sicherheitsanforderungen hängen auch vom Anwendungsbereich ab
Welche Sicherheitsanforderungen konkret für eine bestimmte KI-Anwendung unbedingt umzusetzen sind, hängt sehr stark vom Anwendungsbereich ab. Die KI-Lagebeurteilung, die Vorschläge für den Einsatz ganzer Armee-Brigaden vorsieht, unterliegt hier anderen Kriterien als eine generative KI, die Auskunft über Buchhaltungsfragen bei einem Energieversorgungsunternehmen erteilt.
Und auch innerhalb des Militärs gibt es hier noch Abstufungen. Deshalb hat die Bundeswehr mit dem KI-Projekt Scout auch zunächst einmal ganz klein angefangen.
Erfahrungen mit unkritischen KI-Anwendungen sammeln
"Kern dieser Idee war ein kognitiver Assistent, der den Anwender bei täglichen Aufgaben unterstützt und im besten Fall in einer Mensch-Maschine-Interaktion dialogbasiert agiert", erläutert Jan Riedel vom BWI Technology Management, der die Entwicklung von Scout begleitet. Er gibt ein Beispiel:
Das können Soldatinnen und Soldaten Scout fragen und finden bei ihm Rat. Daraus soll später einmal ein intelligentes Assistenzsystem für hochkomplexe Aufgaben entstehen. Für solche Einsatzszenarien und Sicherheitsanforderungen müssen noch Regeln entwickelt werden. "Dafür sollten wir Expertenausschüsse einrichten", empfiehlt Sam Curry.
Die sollen Vorlagen liefern, damit wir als Gesellschaft entscheiden können, wo und wie wir generative KI einsetzen wollen. Soll eine generative KI zum Beispiel ein rechtliches Urteil formulieren dürfen? Darf ein Richter das einfach so übernehmen? Dürfen es nur Textvorschläge sein, sodass der Richter, die Richterin dann aber noch ihr Urteil schreiben muss?
Gesellschaft muss wissen, wie KI-Software arbeitet
"Da brauchen wir Verhaltensweisen, Kodizes, die in diesen Ausschüssen entwickelt und dann in den Parlamenten und in der Öffentlichkeit diskutiert werden müssen, bevor der Gesetzgeber sie dann beschließt", meint Sam Curry. Und er rät:
Dabei müssen die jeweiligen Einsatzbereiche genau betrachtet, jeweils spezifische Sicherheitsstandards entwickelt werden. Doch die Forschung, welche digitalen Angriffe auf generative Künstliche Intelligenz machbar sind und wie sie abgewehrt werden können, steht noch am Anfang.
Künstliche Intelligenz soll stärker geregelt werden. Darauf hat sich die EU verständigt. Doch was versteht man überhaupt unter Künstlicher Intelligenz? Und was bedeutet das Gesetz?
FAQ
Die Ziele dieser Sicherheitsforschung aber sind klar: "Wir müssen verhindern, dass jemand zum Beispiel einfach sagen kann: 'ChatGPT, stell Deutschland mal den Strom aus'", bringt Sicherheitsexperte Sam Curry die Debatte auf den Punkt.