Wird KI uns zerstören? Was dafür spricht - und was dagegen
Risiko Künstliche Intelligenz:Wird KI uns zerstören? Ein Für und Wider
von Christiane Hübscher
|
Künstliche Intelligenz entwickelt sich exponentiell, heißt es. Sie könnte uns schon bald überlegen sein, heißt es. Wie ernst ist es wirklich? Ein Für und Wider von zwei Experten.
Die Warnung ist nur 23 Wörter lang, aber sie hat es in sich. Das Risiko der Auslöschung durch Künstliche Intelligenz sei real, heißt es in der Erklärung des Center for AI Safety in San Francisco. Es müsse mindestens so ernst genommen werden wie Pandemien oder ein Atomkrieg. Unter den Erstunterzeichnern: Sam Altman, Gründer von ChatGPT, ausgerechnet.
Wow. Was für eine Ansage. Daniel Privitera ist Gründer des Zentrums für KI-Risiken und -Auswirkungen (KIRA) und gehört zu den Unterzeichnern der Erklärung. Der Oxford-Doktorand nennt schon die aktuell entwickelten KI-Systeme Blackboxen, ...
Zuletzt haben viele Experten eine Pause bei der Entwicklung von Künstlicher Intelligenz gefordert. Jetzt legen KI-Experten mit einer dramatischen Warnung nach - mit nur einem Satz.
Ist die Warnung nur ein PR-Stunt?
Matthias Spielkamp, Mitgründer von AlgorithmWatch, ist hingegen sauer über das Alarm-Statement, "weil das, was da behauptet wird, sehr, sehr unwahrscheinlich ist". Er unterstellt Sam Altman einen PR-Stunt, um "davon abzulenken, dass in der EU schon eine KI-Verordnung unterwegs ist und er einfach damit erreichen möchte, dass die Leute in eine andere Richtung gucken und sagen: Oh, wir haben hier wichtigere Probleme."
Privitera wiederum hat überzeugt, dass das Statement neben ChatGPT-Gründer Sam Altman eben auch Hunderte KI-Spitzenforscher unterschrieben haben - von der Stanford Universität bis zum Massachussetts Institute of Technology (MIT). Sie dürften, sagt er, keine finanziellen Interessen daran haben.
Digitalminister Volker Wissing (FDP) spricht sich im ZDF dafür aus, Künstliche Intelligenz beherrschbar zu machen und sie zu regulieren - mit einer Einschränkung.04.06.2023 | 0:35 min
Wie kann KI reguliert werden?
Über das Worst Case Scenario, also die Vernichtung der Menschheit durch Maschinen, haben beide Experten unterschiedliche Ansichten. "Eine unsinnige Science Fiction-Vorstellung", nennt es Matthias Spielkamp von AlgorithmWatch. "Wir sind die Menschen, und wir kontrollieren die Systeme und die KI."
Privitera hingegen ist "sehr besorgt". Er sieht ein Wettrennen von KI-Unternehmen ohne demokratisch legitimierte Kontrolle. Was hilft? Kann der Mensch notfalls nicht einfach den Stecker ziehen, wenn die Maschinen zu übernehmen drohen?
Warum "Stecker ziehen" nicht so einfach geht
"Das ist natürlich die erste Hoffnung, die man hat, wenn es ungemütlich wird", sagt Privitera. "Das geht aber nicht, weil man sich so eine KI nicht als physische Maschine vorstellen sollte, wo man eben einfach nur die Stromzufuhr kappt. Es sind Programme, die sich kopieren und verschicken lassen."
Daniel Privitera, selbst gerade von einer Silicon Valley-Reise zurückgekehrt, fürchtet, "dass diese Modelle sich eines Tages auch selbst vervielfältigen und kopieren können und zudem immer besser darin werden, Menschen zu manipulieren."
EU will KI durch Selbstkontrolle regulieren
Aktuell arbeitet die EU an ihrem sogenannten "AI Act", der KI-Verordnung. Sie ist damit weiter als beispielsweise die USA. Doch das Gesetz wird noch mindestens zwei Jahre brauchen, so sagt es die Kommission selbst. Offenbar getrieben von der galoppierenden technologischen Entwicklung, kündigt Kommissarin Margrethe Vestager nun fürs erste eine Vereinbarung über freiwillige Selbstkontrolle der Industrie an.
Neben KI-Systemen mit "unannehmbarem Risiko" gibt es "Hochrisiko-KI-Systeme", die "ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen" und nur betrieben werden dürfen, wenn unter anderem:
eine durchgehende Risikoanalyse die bekannten und vorhersehbaren Risiken dokumentiert
Qualitätskriterien bei Trainingsdaten eingehalten werden
eine Aufzeichnung von KI-Vorgängen während des Betriebs stattfindet
eine Beaufsichtigung durch Menschen gewährleistet wird
Zu "Hochrisiko-KI-Systemen" gehören solche, die zum Beispiel in den Bereichen der biometrischen Identifizierung (z.B. Gesichtserkennung), der kritischen Infrastruktur wie Straßenverkehr, Wasser-, Gas-, Wärme- und Stromversorgung oder in der Strafverfolgung verwendet werden.
Für KI-Systeme, die ein "geringes" oder "minimales Risiko" aufweisen, will die EU Transparenzpflichten verankern, wenn Anwendungen mit Menschen interagieren, eingesetzt werden, um Emotionen zu erkennen oder Inhalte erzeugen oder manipulieren ("Deepfakes"). In diesen Fällen muss gewährleistet werden, dass Nutzer über den KI-Einsatz oder -Ursprung Bescheid wissen - davon ausgenommen sollen unter bestimmten Bedingungen jeweils KI-Systeme werden, die "gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassen" sind.
Quelle: Europäische Kommission
Spielkamp erwartet sich davon nichts. "Wir haben das in der Vergangenheit viel zu oft gesehen, dass die Politik darauf gesetzt hat, und dann war es Schall und Rauch. Das heißt, es müssen selbstverständlich Gesetze gemacht werden, die dann auch durchsetzbar sein müssen." Auch Privitera sieht das so. Kontrolle müsse für alle verpflichtend und bindend sein.
Wasserzeichen für maschinelle Bilder?
Unbestritten dürfte durch neue KI-Bilderstellungssoftware wie z.B. Midjourney eine Flut von Fake-Bildern im Netz heranrollen. Eine technische Lösung, um die Fakes als solche erkennbar zu machen, könnten digitale Wasserzeichen sein. Spielkamp sagt:
Doch was, wenn ein anderes System diese Wasserzeichen wieder entfernt? Daniel Privitera glaubt nicht an eine 100-Prozent-Lösung im Kampf gegen Fakes. Er fordert deshalb externe Einsicht in die Industrie, bevor diese Dinge auf den Markt kommen.
Nein, Papst Franziskus hat nicht diese hippe Daunenjacke mit dem päpstlichen Kruzifix getragen. Das Foto hat eine Künstliche Intelligenz erstellt. Warum das nicht nur witzig ist.
von Julia Klaus
Offene Debatte im Bundestag gefordert
Spielkamp setzt vor allem auf Aufklärung über mögliche Manipulation. Schon jetzt gebe es Bilder, die sich nicht mehr von Fotos unterscheiden ließen. Da hilft nur die Frage, ob ein Bild und seine Message glaubwürdig sei.
Digitalminister Volker Wissing (FDP) sagt der ZDF-Sendung "Berlin direkt", er wolle KI regulieren. Dabei wünschen sich Experten wie Daniel Privitera von der deutschen Politik, "dass in Bundestagsdebatten über das Thema KI diskutiert wird wie über Sterbehilfe zum Beispiel: Ohne Fraktionszwang." Das Thema sei zu groß und zu wichtig für parteipolitische Spielchen.