Macher von ChatGPT:OpenAI sperrt regierungsnahe Hacker aus
|
Immer öfter nutzen Cyberkriminelle mit Verbindungen nach China, Iran, Nordkorea und Russland auch künstliche Intelligenz. Das Unternehmen hinter ChatGPT geht dagegen nun vor.
Cyberkriminelle nutzen KI-Technologie laut OpenAI vor allem, um die Software-Entwicklung zu automatisieren.
Quelle: AFP
In Kooperation mit Microsoft seien die Accounts von fünf Hacker-Gruppen aufgekündigt worden, teilte die ChatGPT-Entwicklerfirma OpenAI am Mittwoch mit.
Innenministerin Faeser hat Anfang Februar ein neues IT-Lagezentrum in Bonn eröffnet. Es soll kritische Infrastruktur besser vor Cyberattacken schützen. Spezialisten behalten die Sicherheitslage hier rund um die Uhr im Blick.06.02.2024 | 1:47 min
Hacker nutzen KI-Technologie zur Software-Entwicklung
Die Hacker nutzten die Technologie mit Künstlicher Intelligenz hauptsächlich, um die Software-Entwicklung zu automatisieren. Einige der Gruppe griffen darauf aber auch zurück, um technische Dokumentation zu übersetzen und nach öffentlich frei verfügbaren Informationen zu suchen.
Die iranischen und nordkoreanischen Hacker hätten aber auch Texte für Phishing-Attacken von der KI schreiben lassen. Bei solchen Angriffen werden die Opfer mit Hilfe täuschend echt aussehender E-Mails verleitet, ihre Login-Informationen auf fingierten Websites der Hacker einzutippen.
Noch keine neuartigen Angriffe bekannt
OpenAI schränkte zugleich ein, die Entdeckung bestätige die Einschätzung, dass aktuelle KI-Technologie für die Entwicklung von Cyberattacken nur eingeschränkt nützlicher sei als herkömmliche Werkzeuge. Auch Microsoft betonte, man habe noch keine neuartigen Angriffe durch den Einsatz von KI gesehen.
ChatGPT löste vor gut einem Jahr den Hype um Künstliche Intelligenz aus. Solche KI-Chatbots werden mit gewaltigen Mengen an Informationen angelernt und können Texte auf dem sprachlichen Niveau eines Menschen formulieren, Software-Code schreiben und Informationen zusammenfassen.
Künstliche Intelligenz produziert Videos, die nur schwer als Fakes zu identifizieren sind. Welche Chance hat da die Wahrheit? Wir sprechen mit Bernhard Pörksen, Medienwissenschaftler.15.12.2023 | 5:26 min
Das Prinzip dahinter ist, dass sie Wort für Wort abschätzen, wie ein Satz weitergehen sollte. Ein Nachteil davon ist, dass die Software manchmal auch völlig falsche Antworten ausgeben kann, selbst wenn sie nur korrekte Informationen als Basis hatte.
Die Software-Entwicklung wird inzwischen aber oft mit KI-Hilfe erfolgreich automatisiert.
Quelle: AFP, dpa
Mehr zum Thema Künstliche Intelligenz
mit Video
Bildungsexperten zu KI:ChatGPT und Co. als "Denkwerkzeuge" nutzen
von Luisa Houben
mit Video
ChatGPT, Midjourney & Co. :Wie KI das Geschäft mit Kreativität verändert
von David Metzmacher
FAQ
OpenAI stellt App-Store vor:GPT-Store: Was bietet der KI-Marktplatz?
von Lukas Wagner