"ChatGPT, stell Deutschland mal den Strom aus"

    Kritische Infrastruktur:"ChatGPT, stell Deutschland den Strom aus"

    Standbild: Gespräch mit Peter Welchering
    von Peter Welchering
    |

    Generative Künstliche Intelligenz wird zunehmend in der Stromversorgung, beim Militär oder im Finanzwesen eingesetzt. Das hat viele Tücken.

    Eine Roboter-Hand berührt eine menschliche Hand durch ein HUD Display. 3D Illustration.
    Generative Künstliche Intelligenz wird in vielen Bereichen bereits eingesetzt - auch vom Militär.
    Quelle: picture alliance / Zoonar | Alexander Limbach

    Wenn KI-Software entscheiden soll, dass einige Industrieunternehmen nicht mehr mit Strom beliefert werden, weil gerade zu wenig Wind weht oder die Sonne nicht scheint, kann das erhebliche Konsequenzen haben.
    "Viele Unternehmen mit kritischer Infrastruktur, wie Energieversorger, diskutieren, wie sie generative Künstliche Intelligenz einsetzen", erläutert Sam Curry vom Technologieunternehmen Zscaler.

    Chatbots erkennen schnell und präzise

    Sein Unternehmen hat akribisch untersucht, welche Chancen und Risiken es mit sich bringt, wenn bei den Stromnetzen, Verkehrsleitsystemen und in ähnlichen Bereichen kritischer Infrastrukturen generative Künstliche Intelligenz eingesetzt wird. Das Ergebnis einer aktuellen Umfrage seines Hauses resümiert Sam Curry so:

    Fast 90 Prozent der Menschen sehen darin eine Chance, die Hälfte der Befragten hat Angst davor.

    Sam Curry, Technologieunternehmen Zscaler

    Den günstigsten Stromtarif für einen Verbraucher erkennen, darin sind Programme zur Mustererkennung richtig gut. Auch vor drohenden Netzüberlastungen zu warnen, bevor sie stattfinden, ist mit Künstlicher Intelligenz gut machbar.
    Und wenn dann noch Chatbots die Kunden beraten, aktuelle Zählerstände aufnehmen und Tipps zum Energiesparen geben können, wären die Vorstände der Stromkonzerne zufrieden. Doch die Risiken sind zu hoch. Denn generative KI wurde bisher nur in Ausnahmefällen auf Sicherheit hin optimiert.

    Wenn Chatbots über Leben und Tod entscheiden

    Auch Militärs wissen das. Sie setzen schon seit einiger Zeit generative Künstliche Intelligenz ein. So unterstützen Lagebeurteilungssysteme amerikanische Stabsoffiziere bei der Entscheidung. Ob ein gegnerischer Angriff vorliegt und welche Verteidigungskräfte ihm entgegengesetzt werden, berechnet ein Chatbot.
    "Der Sicherheits- und Verteidigungsbereich ist natürlich ein Bereich, in dem ganz besonders hohe Anforderungen an Vertrauenswürdigkeit bestehen", meint Christian Weber von der Technologieberatung CapGemini.

    Hohe Sicherheitsanforderungen kosten viel Geld

    Die werden aber beim Einsatz von Chatbots in kritischen Sicherheitsbereichen längst nicht immer erfüllt. Die Sicherheitsanforderungen des Pentagon für strategische Lagebeurteilungssysteme sind da zwar sehr hoch.
    Doch denen zu genügen, kostet viel Geld. So müssen Chatbots für die Militärs auf streng abgeschirmten und kontrollierten Rechnersystemen installiert sein. Das stellt aber schon an die großen Sprachmodelle erhebliche Anforderungen. Denn die sind mit ihren mehreren Milliarden Parametern bisher in der Cloud vortrainiert worden.
    Symbolbild KI
    Künstliche Intelligenz produziert Videos, die nur schwer als Fakes zu identifizieren sind. Welche Chance hat da die Wahrheit? Wir sprechen mit Bernhard Pörksen, Medienwissenschaftler.15.12.2023 | 5:26 min

    Hochsicherheits-Rechenzentren für die KI

    Das reicht den Militärs aber nicht: In der Cloud vortrainierte, große Sprachmodelle für Chatbots sind ihnen nicht sicher genug. Sie gehen von einem Modell aus, das in einem vollkommen abgeschotteten Höchstleistungsrechenzentrum entwickelt wurde.
    Energieversorger können solch einen Aufwand finanziell schon mal gar nicht stemmen. Deshalb rät Lorenz Lehmhaus vom KI-Entwicklungsunternehmen Aleph Alpha dazu, in Bereichen kritischer Infrastruktur außerhalb militärischer Anwendungen etwas abzuspecken. KI-Experte Lehmhaus erklärt:

    Grundvoraussetzung ist häufig im kritischen Umfeld, dass das Ding auf meiner Infrastruktur laufen kann.

    Lorenz Lehmhaus, KI-Experte

    Das heißt, die Computer, auf denen große Sprachmodelle entwickelt oder feingetuned werden, müssen in den Standard-Rechenzentren der Unternehmen stehen.

    Sicherheitsanforderungen hängen auch vom Anwendungsbereich ab

    Welche Sicherheitsanforderungen konkret für eine bestimmte KI-Anwendung unbedingt umzusetzen sind, hängt sehr stark vom Anwendungsbereich ab. Die KI-Lagebeurteilung, die Vorschläge für den Einsatz ganzer Armee-Brigaden vorsieht, unterliegt hier anderen Kriterien als eine generative KI, die Auskunft über Buchhaltungsfragen bei einem Energieversorgungsunternehmen erteilt.
    Und auch innerhalb des Militärs gibt es hier noch Abstufungen. Deshalb hat die Bundeswehr mit dem KI-Projekt Scout auch zunächst einmal ganz klein angefangen.

    Erfahrungen mit unkritischen KI-Anwendungen sammeln

    "Kern dieser Idee war ein kognitiver Assistent, der den Anwender bei täglichen Aufgaben unterstützt und im besten Fall in einer Mensch-Maschine-Interaktion dialogbasiert agiert", erläutert Jan Riedel vom BWI Technology Management, der die Entwicklung von Scout begleitet. Er gibt ein Beispiel:

    Als junger Soldat möchte ich mich proaktiv darüber informieren, was ich denn eigentlich beim feierlichen Gelöbnis anziehe oder wie gehe ich mit meinen Tattoos um?

    Jan Riedel vom BWI Technology Management

    Das können Soldatinnen und Soldaten Scout fragen und finden bei ihm Rat. Daraus soll später einmal ein intelligentes Assistenzsystem für hochkomplexe Aufgaben entstehen. Für solche Einsatzszenarien und Sicherheitsanforderungen müssen noch Regeln entwickelt werden. "Dafür sollten wir Expertenausschüsse einrichten", empfiehlt Sam Curry.
    Die sollen Vorlagen liefern, damit wir als Gesellschaft entscheiden können, wo und wie wir generative KI einsetzen wollen. Soll eine generative KI zum Beispiel ein rechtliches Urteil formulieren dürfen? Darf ein Richter das einfach so übernehmen? Dürfen es nur Textvorschläge sein, sodass der Richter, die Richterin dann aber noch ihr Urteil schreiben muss?

    Gesellschaft muss wissen, wie KI-Software arbeitet

    "Da brauchen wir Verhaltensweisen, Kodizes, die in diesen Ausschüssen entwickelt und dann in den Parlamenten und in der Öffentlichkeit diskutiert werden müssen, bevor der Gesetzgeber sie dann beschließt", meint Sam Curry. Und er rät:

    Wir sollten uns damit beeilen, ehe wir von der Entwicklung überrannt werden.

    Sam Curry vom Technologieunternehmen Zscaler

    Dabei müssen die jeweiligen Einsatzbereiche genau betrachtet, jeweils spezifische Sicherheitsstandards entwickelt werden. Doch die Forschung, welche digitalen Angriffe auf generative Künstliche Intelligenz machbar sind und wie sie abgewehrt werden können, steht noch am Anfang.

    EU beschließt Regulierung
    :Weltweit erstes KI-Gesetz - was das bedeutet

    Künstliche Intelligenz soll stärker geregelt werden. Darauf hat sich die EU verständigt. Doch was versteht man überhaupt unter Künstlicher Intelligenz? Und was bedeutet das Gesetz?
    Archiv: Künstliche Intelligenz an der TU Darmstadt
    FAQ
    Die Ziele dieser Sicherheitsforschung aber sind klar: "Wir müssen verhindern, dass jemand zum Beispiel einfach sagen kann: 'ChatGPT, stell Deutschland mal den Strom aus'", bringt Sicherheitsexperte Sam Curry die Debatte auf den Punkt.

    Mehr zu Künstlicher Intelligenz