FAQ
Cybersicherheit:KI als Waffe: Steigt die Hacker-Gefahr?
von David Metzmacher
|
Hackergruppen nutzen ChatGPT für Cyberangriffe. OpenAI und Microsoft haben bereits Konten gesperrt. Verstärkt generative KI die Hacker-Gefahr und was lässt sich dagegen tun?
Hackergruppen nutzen generative Künstliche Intelligenz als Werkzeug für Cyberangriffe.
Quelle: DALLE-E / David Metzmacher
"Das ist ein Tropfen auf den heißen Stein", meint Nicolas Müller, wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC).
Der Fall wirft Fragen auf: Verstärkt generative Künstliche Intelligenz die Gefahr durch Hackergruppen? Was können sie mit ChatGPT und Co. anstellen? Und was bringt es, ihre Accounts zu sperren - können sie nicht einfach neue erstellen?
Innenministerin Faeser hat im Februar ein neues IT-Lagezentrum in Bonn eröffnet. Es soll kritische Infrastruktur besser vor Cyberattacken schützen.06.02.2024 | 1:47 min
Was ist passiert?
OpenAI, das Unternehmen hinter ChatGPT, und Microsoft haben nach eigenen Angaben Accounts von fünf Hackergruppen gesperrt:
Microsoft ist ein wichtiger Geldgeber von OpenAI und nutzt dessen KI-Technologie für eigene Anwendungen - und leistet OpenAI Hilfe bei der Bekämpfung von Sicherheitsrisiken. Die fünf gesperrten Hackergruppen stehen laut den Unternehmen in Verbindung zu Staaten - namentlich Russland, China, Iran und Nordkorea.
Welche Hackergruppen sind betroffen?
... ist ein russischer Geheimdienstakteur. Microsoft glaubt, dass die Operationen von Forest Blizzard eine unterstützende Rolle für Russlands Außenpolitik und militärische Ziele sowohl in der Ukraine als auch in der breiteren internationalen Gemeinschaft spielen. Die Gruppe nutzte ChatGPT-Dienste für Nachforschungen zu Satellitenkommunikationsprotokollen und Radarbildgebungstechnologien sowie zur Unterstützung bei Programmieraufgaben.
... ist aus Nordkorea, die Gruppe war laut Microsoft im Jahr 2023 "äußerst aktiv". Die Gruppe nutzte ChatGPT-Dienste, um Experten und Organisationen zu identifizieren, die sich auf Verteidigungsfragen in der asiatisch-pazifischen Region konzentrieren. Es ging auch darum, öffentlich verfügbare Schwachstellen zu verstehen, bei Programmieraufgaben zu helfen und Inhalte zu entwerfen, die in Phishing-Kampagnen verwendet werden könnten.
... ist aus dem Iran und wird mit den iranischen Revolutionsgarden in Verbindung gebracht. Die Gruppe nutzte ChatGPT-Dienste für Skriptunterstützung im Zusammenhang mit App- und Webentwicklung, um Inhalte zu generieren, die wahrscheinlich für Phishing-Kampagnen verwendet werden sollten. Weiteres Ziel: Gängige Methoden zu erforschen, wie Malware der Erkennung entgehen könnte.
... ist eine chinesische, staatlich angebundene Hackergruppe, die ChatGPT nutzte, um Unternehmen und Cybersicherheitstools zu erforschen, Fehler in Codes aufzuspüren und Skripte zu generieren. Weiteres Ziel: Inhalte zu erstellen, die wahrscheinlich für den Einsatz in Phishing-Kampagnen bestimmt waren.
... wird ebenfalls mit China in Verbindung gebracht. Die Gruppe hat eine Historie in der Zielausrichtung auf US-amerikanische Verteidigungsunternehmen, Regierungsbehörden und Einrichtungen im Bereich der kryptographischen Technologie. Die Gruppe nutzte ChatGPT-Dienste, um technische Papiere zu übersetzen, öffentlich verfügbare Informationen über mehrere Geheimdienste und regionale Bedrohungsakteure abzurufen, bei der Codierung zu helfen und Methoden zu erforschen, wie Prozesse auf einem System verborgen werden könnten.
Quelle: ZDF/Microsoft
Quelle: ZDF/Microsoft
Wie sind Microsoft und OpenAI den Hackern auf die Schliche gekommen?
Um Hackergruppen zu identifizieren, hilft OpenAI die Partnerschaft mit Microsoft. Der Konzern hat ein eigenes Team für solche Fälle:
Im Team sitzen laut Microsoft Experten mit Cybersecurity-Fachwissen, auch werden automatisierte Systeme genutzt. Das Ziel: Aufdecken von Anomalien - also ungewöhnlichem Nutzerverhalten, dass auf missbräuchliche Verwendung schließen lässt.
Die Unternehmen sammelten Metadaten wie Uhrzeiten der Nutzung, Frequenz der Anfragen, oder die Aufteilung der Themen, zu denen ein Nutzer mit ChatGPT interagiert, erklärt Müller. Abweichler fallen auf. "Das schaut Microsoft sich dann genauer an und kann so Missbrauch erkennen."
Ein Beispiel: Ein ChatGTP-Account ist auf eine deutsche Kreditkarte registriert - aber die IP-Adresse führt in ein anderes Land, die Nutzungszeiten passen nicht zur deutschen Zeit oder Anfragen werden auf Russisch gestellt. "So können dann geklaute Accounts identifiziert werden", erklärt Müller. Das könne man sich vorstellen wie bei der Erkennung von Kreditkartenbetrug.
Die Entwickler von ChatGPT haben einen Filmgenerator veröffentlicht. Er heißt Sora und kann aus kurzen Text-Vorgaben realistische Videos erzeugen.16.02.2024 | 1:31 min
Was haben die Hackergruppen mit ChatGPT gemacht?
Die fünf Hackergruppen haben ChatGPT teilweise ähnlich verwendet, wie es auch Unternehmen oder Privatpersonen machen. Die Möglichkeiten, die der Chatbot bietet, haben sie aber für missbräuchliche Zwecke ausgenutzt.
Quelle: Fraunhofer AISEC / Oliver Rüther
Dr. Nicolas Müller hat an der Universität Freiburg Mathematik, Informatik und Theologie auf Staatsexamen studiert und 2017 mit Auszeichnung abgeschlossen. Er ist seit 2017 wissenschaftlicher Mitarbeiter am Fraunhofer AISEC in der Abteilung "Cognitive Security Technologies". Seine Forschung konzentriert sich auf die Verlässlichkeit von KI-Modellen, ML-Shortcuts und Audio-Deepfakes.
Quelle: Fraunhofer AISEC
Quelle: Fraunhofer AISEC
IT-Sicherheitsexperte Müller sieht zwei Bereiche, in denen Hackergruppen generative KI einsetzen:
- Skalierung und Automatisierung: Einfache, unangenehme Aufgaben können schneller erledigt werden: etwa das Schreiben von Phishing-E-Mails, die Durchforstung von Dokumenten oder die Überprüfung von Programmiercodes. Das sind Aufgaben, die davor schon einzelne Menschen konnten - aber eben lange nicht so schnell.
- Neue Anwendungen: "ChatGPT ermöglicht auch Aufgaben, die zuvor nicht so einfach möglich waren", sagt Müller. Etwa wenn Inhalte in eine fremde Sprache übersetzt werden sollen oder Code von Schadsoftware obfuskiert werden soll (eine Verschleierung des Codes, die es schwieriger macht, seinen Zweck auszulesen).
Häufig sieht man Bilder im Internet, die von einer Künstlichen Intelligenz geschaffen wurden. Manche Fälschungen sind offensichtlich. Aber es entstehen immer mehr gefährliche Fakes.27.12.2023 | 1:50 min
Was hindert die Gruppen, einfach neue Konten zu eröffnen?
Für einen Account mit Zugang zum leistungsstärksten Modell von ChatGPT müssen eine Zahlungsmethode sowie eine E-Mail-Adresse hinterlegt werden. "Wird der Account gesperrt, sind diese verbrannt", so Müller.
Müller geht aber davon aus, dass die Hackergruppen nicht nur einen Account haben. Sie wären also durch die Sperrung durch Microsoft nicht allzu stark eingeschränkt. Zudem sei es mittlerweile recht einfach, sich einen neuen Account zu besorgen:
"Die Unternehmen hinter den KI-Modellen sind sehr bemüht, negative Einsatzzwecke zu minimieren", sagt Müller. Sie fürchteten den medialen und regulatorischen Gegenwind. Es gebe viel Kritik an KI, insbesondere in der EU - "daher wollen die Akteure zeigen, dass sie ihrer Verantwortung gerecht werden."
Können IT-Systeme durch generative KI auch sicherer werden?
Andersherum können aber auch IT-Sicherheitsexperten ChatGPT oder andere Anwendungen nutzen, um sich vor Hackern zu schützen. So könnten laut Müller etwa mögliche Verwundbarkeiten, beispielsweise von E-Mail-Servern leichter aufgedeckt und gelöst werden. "Man sollte generative KI als Werkzeug sehen", sagt Müller.
Die Frage nach dem Umgang mit Künstlicher Intelligenz in Schulen und Unis wird viel diskutiert. Bildungsexperten sehen zwar großes Potenzial, fordern aber gute Rahmenbedingungen.17.01.2024 | 1:33 min
Mehr zu KI und Cybersicherheit
mit Video
Zugriff auf E-Mail-Konten:Russische Hacker in Microsofts Systemen
mit Video