Die KI ist für uns da, immer und fast überall. Sie kennt uns, vielleicht sogar besser als wir selbst und durchschaut die wahren Gefühle. In diesem Spannungsfeld spielt die fiktive ZDF-Serie „Concordia“. Harald Lesch prüft, wieviel davon bereits in unserer Welt angekommen ist und beleuchtet auch die Hintergründe, warum Politik und Gesellschaft jetzt gefordert sind, verbindliche Regeln zu KI aufzustellen. Wieviel geben wir der KI bereits von unserer Identität preis?
Wie trainiert man die KI?
„Concordia“ ist der Traum der Stadt der Zukunft in der alle sicher sind vor Kriminalität. Können wir uns bereits heute mit Hilfe der KI schützen? Seit Jahren fallen Plätze der Innenstadt Mannheims durch eine überdurchschnittlich hohe Kriminalitätsrate auf. Eine 24-Stunden-Videoüberwachung könnte helfen.
Doch damit individuelle Merkmale wie Geschlecht, Erscheinung oder Hautfarbe keine Rolle spielen, dürfen Gesichter von Personen nicht gescannt werden. Forschende suchen zusammen mit der Polizei nach einer Methode, die nicht die Persönlichkeitsrechte der Bürger verletzt. Ein spezielles Programm soll ausschließlich die Bewegungsmuster der Passanten analysieren. Die Software muss lernen zu erkennen, handelt es sich noch um eine stürmische Begrüßung oder bereits um einen eskalierenden Konflikt. Bei letzterem soll die KI sofort Alarm schlagen. So der Plan. Doch wie trainiert man die KI? Und wie erfolgsversprechend ist das System?
Was weiß die KI über unsere Gefühle?
In der Serie „Concordia“ analysiert ein Überwachungssystem die Emotionen der Menschen – überwiegen Angst, Freude oder Trauer? Und in der Realität? Weiß bald die KI mehr über unsere Gefühle als wir selbst? KI-Systeme lernen bereits heute, Menschen auf vielfältige Weise zu erfassen – auch bis in ihr „Innerstes“.
Wissenschaftsteams beschäftigen sich beispielsweise mit „intelligenter Audioanalyse“ und dem sogenannten „Affective Computing“. Sie wollen herausfinden, wie mittels KI von unserer Stimme auf unsere „Stimmung“ und Emotionen zurückgeschlossen werden kann. Was lässt einen Redner besonders charismatisch erscheinen und wie überzeugt man besonders gut sein Gegenüber?
Wie gefährlich wäre eine Super-KI?
Zum Training der KI werden neben verschiedenen Stimmproben auch andere Kriterien erfasst, wie Puls, Gesichtsausdruck und Körperhaltung. Auch die sogenannte „Facial-Micro-Expression“ wird hinzugezogen, wenn sich für den Bruchteil von Sekunden unbemerkt Emotionen wie Ablehnung oder Zuneigung in der Mimik zeigen. Fatal – denn die „entgleisenden Gesichtszüge“ zeigen unsere wahren Gefühle, die uns vielleicht nicht mal selbst so bewusst sind…
Doch was passiert, wenn einzelne KIs mit ihren Fähigkeiten miteinander vernetzt werden zu einer Art Super-KI oder „Artifcial General Intelligence“? Google oder Microsoft kündigen bereits an, vernetzte KI Systeme zu entwickeln, die sich gegenseitig korrigieren und steuern – ohne Zutun von Menschen und deren Kontrolle. Wird es eine Super-KI geben, die in der Lage wäre, Entscheidungen und Schlüsse unabhängig von ihren menschlichen Nutzern zu ziehen – autonom, ohne Aufforderung oder sogar gegen den erklärten Willen?