Gefahr durch Schadsoftware:ChatGPT verändert organisierte Kriminalität
von Peter Welchering
|
KI-Werkzeuge wie ChatGPT können schnell Programme schreiben - auch Schadsoftware. Doch für Cyber-Kriminelle entwickelt sich der Bot zum Universal-Werkzeug.
Hacker und Kriminelle nutzen bereits KI-Systeme für ihre Zwecke.
Quelle: dpa
Sergey Shykebich, Analyst beim Sicherheitsunternehmen Check Point Technologies, musste kurz vor der Jahreswende 2022/2023 eine Schadsoftware analysieren. Einmal auf einen Rechner gelangt, verschlüsselte dieses Ransomware genannte Programm sehr schnell Dateien. Online-Kriminelle setzen solche Software ein, um von den Computerinhabern Lösegeld zu erpressen.
"Diese Schadsoftware ist von ChatGPT3 entwickelt worden", beschreibt Sergey Shykebich das Besondere an dem Programm. Dass ChatGPT3 von einzelnen Online-Kriminellen eingesetzt wird, um sehr zielgruppenspezifische, teilweise sogar individuell abgefasste Phishing-Mails zu schreiben, ist schon seit längerer Zeit bekannt.
ChatGPT liefert brauchbare Schadsoftware
Aber die von einem Cyberkriminellen namens "US DoD" geposteten Programme zeigten den Analysten von Checkpoint, dass die organisierte Digitale Kriminalität Chatbots auch einsetzt, um sehr schnell gefährliche Angriffssoftware und Erpressungsprogramme schreiben zu lassen. "ChatGPT erlaubt es einem technisch nicht versierten Computerkriminellen, der keine Erfahrung in der Softwareentwicklung hat, bösartige Angriffsprogramme zu entwickeln", urteilt Sergey Shykebich.
So können kriminelle Hackerattacken automatisiert abgewickelt werden. Und das Geld für Entwickler können sich die kriminellen Organisationen bei so alltäglichen Attacken wie Ransomware-Angriffen dann auch gleich sparen.
ChatGPT wird für Kriminelle zum Universalwerkzeug
Einige kriminelle Organisationen wie die frühere russische Conti-Gruppe haben deshalb ihre Entwicklungsabteilungen mehr oder weniger rationalisiert. Der russische Militärgeheimdienst GRU hat deshalb sogar die Entwicklungskosten für die UNC1151 drastisch gekürzt, die bereits seit einigen Jahren Angriffssoftware entwickelt hat.
Noch vor zwei Jahren dauerte die Entwicklung einer effizienten Ransomware zur Verschlüsselung von Dateien mehreren Wochen. Es musste ein ganzes Team von Codierern und Entwicklern eingesetzt werden. Dank ChatGPT ist eine solche Aufgabe von einem normalen Kriminellen binnen Tagesfrist gut zu erledigen.
Komplettsysteme für Erpressung dank KI
Auch bei der Abwicklung der Lösegeldforderung, nachdem die Ransomware erfolgreich auf dem Zielrechner ausgeführt wurde, hilft ChatGPT3. Das Lösegeld ist nämlich für gewöhnlich in einer Kryptowährung zu zahlen. Und da haben Kriminelle auf mehreren Darknet-Plattformen Software für die vollautomatisierte Zahlungsabwicklung bereitgestellt - mit freundlicher Unterstützung von ChatGPT3. Die KI-Software hat nämlich den Softwarecode dafür komplett geschrieben. Kriminelle nutzen ChatGPT3 also ziemlich effizient.
Deshalb schlägt das Weltwirtschaftsforum auch Alarm. Laut einer Umfrage der Davoser Organisation rechnen 93 Prozent der befragten Sicherheitsexperten und 86 Prozent der Teilnehmenden an der Umfrage aus dem Management damit, dass es in den kommenden beiden Jahren aufgrund der Potenziale, die der KI-Einsatz im kriminellen Umfeld entfaltet, zu einer "katastrophalen Cyberattacke" kommen wird.
ChatGPT wird nach der übereinstimmenden Einschätzung von Sicherheitsexperten nicht nur die Zahl der digitalen Angriffe deutlich ansteigen lassen, sondern könnte auch die Angriffsstruktur verändern. Dr. Terence Liu, Chef des IT-Sicherheitsunternehmen TxOne, erklärt:
Tatsächlich hat sich während der vergangenen Monate die Zahl der Ransomware-Attacken massiv erhöht.
„
Dr. Terence Liu
Auch der Ablauf einer solchen Attacke ist wesentlich schneller geworden. Den Opfern bleibt kaum noch Zeit für eine effiziente Gegenwehr. Deshalb fordern Sicherheitsexperten, mit entsprechenden KI-Werkzeugen Abwehrstrategien und Sicherheitssoftware zu entwickeln.
"Die Strafverfolgungsbehörden und die Regierungen sind nicht darauf vorbereitet, wie sie damit umgehen sollen" urteilt Sicherheitsexperte Shykebich. Hier ist die Politik gefragt. Doch Sicherheitspolitiker müssen zunächst einmal lernen, mit solchen KI-Werkzeugen umzugehen.
Die Entwicklung Künstlicher Intelligenz schreitet rasant voran. Nun warnen viele namhafte Experten vor den tiefgreifenden Risiken - doch wie gefährlich kann KI wirklich werden?
Um dir eine optimale Website der ZDFmediathek, ZDFheute und ZDFtivi präsentieren zu können, setzen wir Cookies und vergleichbare Techniken ein. Einige der eingesetzten Techniken sind unbedingt erforderlich für unser Angebot. Mit deiner Zustimmung dürfen wir und unsere Dienstleister darüber hinaus Informationen auf deinem Gerät speichern und/oder abrufen. Dabei geben wir deine Daten ohne deine Einwilligung nicht an Dritte weiter, die nicht unsere direkten Dienstleister sind. Wir verwenden deine Daten auch nicht zu kommerziellen Zwecken.
Zustimmungspflichtige Datenverarbeitung • Personalisierung: Die Speicherung von bestimmten Interaktionen ermöglicht uns, dein Erlebnis im Angebot des ZDF an dich anzupassen und Personalisierungsfunktionen anzubieten. Dabei personalisieren wir ausschließlich auf Basis deiner Nutzung der ZDFmediathek, der ZDFheute und ZDFtivi. Daten von Dritten werden von uns nicht verwendet. • Social Media und externe Drittsysteme: Wir nutzen Social-Media-Tools und Dienste von anderen Anbietern. Unter anderem um das Teilen von Inhalten zu ermöglichen.
Du kannst entscheiden, für welche Zwecke wir deine Daten speichern und verarbeiten dürfen. Dies betrifft nur dein aktuell genutztes Gerät. Mit "Zustimmen" erklärst du deine Zustimmung zu unserer Datenverarbeitung, für die wir deine Einwilligung benötigen. Oder du legst unter "Einstellungen/Ablehnen" fest, welchen Zwecken du deine Zustimmung gibst und welchen nicht. Deine Datenschutzeinstellungen kannst du jederzeit mit Wirkung für die Zukunft in deinen Einstellungen widerrufen oder ändern.