Gefahr durch Schadsoftware:ChatGPT verändert organisierte Kriminalität
von Peter Welchering
|
KI-Werkzeuge wie ChatGPT können schnell Programme schreiben - auch Schadsoftware. Doch für Cyber-Kriminelle entwickelt sich der Bot zum Universal-Werkzeug.
Hacker und Kriminelle nutzen bereits KI-Systeme für ihre Zwecke.
Quelle: dpa
Sergey Shykebich, Analyst beim Sicherheitsunternehmen Check Point Technologies, musste kurz vor der Jahreswende 2022/2023 eine Schadsoftware analysieren. Einmal auf einen Rechner gelangt, verschlüsselte dieses Ransomware genannte Programm sehr schnell Dateien. Online-Kriminelle setzen solche Software ein, um von den Computerinhabern Lösegeld zu erpressen.
"Diese Schadsoftware ist von ChatGPT3 entwickelt worden", beschreibt Sergey Shykebich das Besondere an dem Programm. Dass ChatGPT3 von einzelnen Online-Kriminellen eingesetzt wird, um sehr zielgruppenspezifische, teilweise sogar individuell abgefasste Phishing-Mails zu schreiben, ist schon seit längerer Zeit bekannt.
ChatGPT liefert brauchbare Schadsoftware
Aber die von einem Cyberkriminellen namens "US DoD" geposteten Programme zeigten den Analysten von Checkpoint, dass die organisierte Digitale Kriminalität Chatbots auch einsetzt, um sehr schnell gefährliche Angriffssoftware und Erpressungsprogramme schreiben zu lassen. "ChatGPT erlaubt es einem technisch nicht versierten Computerkriminellen, der keine Erfahrung in der Softwareentwicklung hat, bösartige Angriffsprogramme zu entwickeln", urteilt Sergey Shykebich.
So können kriminelle Hackerattacken automatisiert abgewickelt werden. Und das Geld für Entwickler können sich die kriminellen Organisationen bei so alltäglichen Attacken wie Ransomware-Angriffen dann auch gleich sparen.
Immer häufiger werden Behörden und Unternehmen Opfer von Hackerangriffen - allein in Deutschland sind es tausende pro Tag. Was lässt sich gegen diese Art von Kriminalität unternehmen?19.04.2023 | 2:36 min
ChatGPT wird für Kriminelle zum Universalwerkzeug
Einige kriminelle Organisationen wie die frühere russische Conti-Gruppe haben deshalb ihre Entwicklungsabteilungen mehr oder weniger rationalisiert. Der russische Militärgeheimdienst GRU hat deshalb sogar die Entwicklungskosten für die UNC1151 drastisch gekürzt, die bereits seit einigen Jahren Angriffssoftware entwickelt hat.
Noch vor zwei Jahren dauerte die Entwicklung einer effizienten Ransomware zur Verschlüsselung von Dateien mehreren Wochen. Es musste ein ganzes Team von Codierern und Entwicklern eingesetzt werden. Dank ChatGPT ist eine solche Aufgabe von einem normalen Kriminellen binnen Tagesfrist gut zu erledigen.
Komplettsysteme für Erpressung dank KI
Auch bei der Abwicklung der Lösegeldforderung, nachdem die Ransomware erfolgreich auf dem Zielrechner ausgeführt wurde, hilft ChatGPT3. Das Lösegeld ist nämlich für gewöhnlich in einer Kryptowährung zu zahlen. Und da haben Kriminelle auf mehreren Darknet-Plattformen Software für die vollautomatisierte Zahlungsabwicklung bereitgestellt - mit freundlicher Unterstützung von ChatGPT3. Die KI-Software hat nämlich den Softwarecode dafür komplett geschrieben. Kriminelle nutzen ChatGPT3 also ziemlich effizient.
Deshalb schlägt das Weltwirtschaftsforum auch Alarm. Laut einer Umfrage der Davoser Organisation rechnen 93 Prozent der befragten Sicherheitsexperten und 86 Prozent der Teilnehmenden an der Umfrage aus dem Management damit, dass es in den kommenden beiden Jahren aufgrund der Potenziale, die der KI-Einsatz im kriminellen Umfeld entfaltet, zu einer "katastrophalen Cyberattacke" kommen wird.
ChatGPT wird nach der übereinstimmenden Einschätzung von Sicherheitsexperten nicht nur die Zahl der digitalen Angriffe deutlich ansteigen lassen, sondern könnte auch die Angriffsstruktur verändern. Dr. Terence Liu, Chef des IT-Sicherheitsunternehmen TxOne, erklärt:
Auch der Ablauf einer solchen Attacke ist wesentlich schneller geworden. Den Opfern bleibt kaum noch Zeit für eine effiziente Gegenwehr. Deshalb fordern Sicherheitsexperten, mit entsprechenden KI-Werkzeugen Abwehrstrategien und Sicherheitssoftware zu entwickeln.
"Die Strafverfolgungsbehörden und die Regierungen sind nicht darauf vorbereitet, wie sie damit umgehen sollen" urteilt Sicherheitsexperte Shykebich. Hier ist die Politik gefragt. Doch Sicherheitspolitiker müssen zunächst einmal lernen, mit solchen KI-Werkzeugen umzugehen.
Die Entwicklung Künstlicher Intelligenz schreitet rasant voran. Nun warnen viele namhafte Experten vor den tiefgreifenden Risiken - doch wie gefährlich kann KI wirklich werden?