Diskriminiert von der KI? Wenn Maschinen Vorurteile haben
Wenn Maschinen Vorurteile haben:Diskriminiert von Künstlicher Intelligenz?
von Anna Grösch
|
Künstliche Intelligenz hält Einzug in immer mehr Lebensbereiche. Was aber, wenn KI gar nicht so neutral ist, wie erhofft? Wie Datenlücken zu Problemen führen können.
KI beruht auf "selbst denkenden" Computerprogrammen und birgt Chancen sowie auch Gefahren.
Quelle: dpa/Peter Steffen
Auf einer Party wird Lorena (Name von der Redaktion geändert) ihre Handtasche geklaut. Ärgerlich vor allem wegen des Inhalts: Handy, Schlüssel, Bankkarten - alles weg. Noch in der Nacht ruft Lorena deshalb die Sperrnummer ihrer Bank an. Dort geht eine automatische Stimme ans Telefon und weist sie an, ihre IBAN vorzulesen. Das tut Lorena - doch die Software meldet einen Fehler. "Eingabe nicht korrekt" und legt auf. Mehrere Anrufe bringen das gleiche Ergebnis - egal wie laut und deutlich sie spricht. Erst, als ihr Freund es versucht, klappt es - direkt beim ersten Mal. Zufall?
Immer wieder kommt es vor, dass Programme, die mit Künstlicher Intelligenz arbeiten, ihre Nutzerinnen oder Nutzer missverstehen oder schlichtweg frustrieren. Doch was, wenn KI bestimmte Gruppen systematisch im Stich lässt? Denn das Erlebnis von Lorena ist kein Einzelfall. Wie kommt es dazu?
Daten stammen aus dem analogen Leben
Bei den Antworten von ChatGPT und Co. könnte man manchmal der Illusion erliegen, "KI-Systeme funktionieren wie menschliche Gehirne", erklärt Katharina Mosene, Politikwissenschaftlerin am Humboldt-Institut für Internet und Gesellschaft in Berlin. Doch: "Diese Systeme denken nicht. Sie erkennen auch keinen Sinn." Was sie dagegen erkennen: Korrelation.
Der Erfolg des chinesischen KI-Startups DeepSeek setzt die Branche unter Druck. Man merke, dass die Entwickler sehr intelligent waren, sagt Rasmus Rothe vom KI Bundesverband.27.01.2025 | 8:06 min
Künstliche Intelligenz wird mit historischen Daten beispielsweise aus dem Internet gefüttert und trainiert. Und da liege schon das erste Problem: "Diese Daten kommen aus unserem analogen Leben. Und so ist die Technologie ganz eng verschränkt mit dem, was wir gesellschaftlich kennen." Die Trainingsdatensätze seien also nicht immer ausgewogen und ohne Vorurteile, wie Studien zeigen.
Lange Zeit hat beispielsweise Gesichtserkennung Probleme dabei gehabt, die Gesichter von People of Color, vor allem von schwarzen Frauen, zu erkennen.
„
Katharina Mosene, Politikwissenschaftlerin
Gender-Data-Gap in vielen Bereichen
Das habe daran gelegen, dass in den Datensätzen, mit denen diese Software trainiert worden war, vor allem weiße Männer vertreten waren. Fällt jemand aus dem Raster, kann auch die KI an ihre Grenzen kommen. "Die Maschine hatte im Grunde gar keine Chance, schwarze Frauen zu erkennen", sagt Mosene. "Weil sie mit einem fehlerhaften Datensatz trainiert wurde, in dem eine bestimmte Gruppe unterrepräsentiert war."
UN-Generalsekretär Guterres warnt mit Blick auf die USA vor einer unregulierten Nutzung von künstlicher Intelligenz. Was Trumps KI-Pläne für Europa bedeuten, erklärt Frank Bethmann.22.01.2025 | 1:18 min
Künstliche Intelligenz ist nicht der einzige Bereich, in dem die sogenannte Gender-Data-Gap, also die Datenlücke, zum Tragen kommt. Beispiele gibt es aus vielen Lebensbereichen: aus der Medizin, wo viele Tests und Studien noch immer an männlichen Körpern durchgeführt werden. Aus der Produktentwicklung: Handydisplays, die für Hände von kleineren Frauen schlichtweg zu groß sind, um sie einhändig zu bedienen. Ein Beispiel aus der Stadt- und Gebäudeplanung: Die Schlange vorm Damenklo - oder gleich das Fehlen öffentlicher Toiletten.
Schöne neue Technik-Welt, aber nicht für alle?
Was also tun gegen die Datenlücken bei KI und Co.? Es hat sich in den vergangenen Jahren einiges getan, sagt Katharina Mosene.
Ich würde schon sagen, dass da Bewegung drin ist - und das auch durch den Druck von zivilgesellschaftlichen Playern.
„
Katharina Mosene, Politikwissenschaftlerin
Auch die KI-Regulierung der EU gebe Hoffnung. Im Mai 2024 hat die EU mit ihrem AI-Act erstmals einen einheitlichen Rahmen für den Einsatz von KI geschaffen. Darin steht unter anderem, dass nachvollziehbar sein muss, mit welchen Daten die Systeme trainiert werden. Komplett andere Pläne hat hingegen US-Präsident Trump: Er will 500 Milliarden Dollar in KI investieren. Regulierungen? Fehlanzeige.
Natürlich sei es schwierig, KI-Systeme "umzuschulen", sagt Mosene. "Es gibt aber ein paar Stellschrauben, an denen man drehen kann. Was dazu gehört, ist die Diversifizierung der Entwickler im Team." Diese seien auch heute noch vor allem männlich und weiß. "KI wird vorwiegend im globalen Norden entwickelt - mit all den Stereotypen und Vorurteilen, die diese Menschen so haben." Auch das Fraunhofer IAO schreibt, dass mehr Diversität in der Entwicklung von KI-basierten Systemen soziale und ethische Vorteile bringe.
Experten beraten in Berlin über die Gefahren von künstlicher Intelligenz und welche Gegenmittel es gibt. 14.12.2024 | 1:37 min
Welche Probleme soll KI lösen?
Es komme darauf an, die Datensätze so zusammenzustellen, dass sie repräsentativ seien. Außerdem würden viele Systeme ausgerollt, bevor sie überhaupt erst genau überprüft würden, sagt Katharina Mosene.
Und im Nachhinein wird dann festgestellt, dass sie stark diskriminieren.
Zudem gehe es auch um die Frage: Welche Probleme soll die KI lösen? Es gebe Programme, die voraussagen, wann junge Mädchen in sozial-prekären Verhältnissen schwanger werden. Aber: "Keiner stellt mal eine KI her, die uns solide vorhersagt, wann weiße Politiker korrupt werden", sagt Mosene. Es gehe immer auch darum, wer welche Fragen an die Künstliche Intelligenz stelle. "Und das ist schon etwas, was man gesellschaftlich aushandeln kann."
Quelle: dpa
Sie wollen auf dem Laufenden bleiben? Dann sind Sie beim ZDFheute-WhatsApp-Channel richtig. Hier erhalten Sie die wichtigsten Nachrichten auf Ihr Smartphone. Nehmen Sie teil an Umfragen oder lassen Sie sich durch unseren Podcast "Kurze Auszeit" inspirieren. Zur Anmeldung: ZDFheute-WhatsApp-Channel.