Bist du ein Mensch?
Heute musst du beweisen, dass du ein Mensch bist und keine Maschine. Also, in wie vielen Feldern siehst du hier Ampeln?
Das hier ist ein CAPTCHA. CAPTCHA bedeutet “Completely Automated Public Turing test to tell Computers and Humans Apart” (MTX17), also eine Form des sogenannten Turing-Tests (MTX31), mit dem getestet werden kann, ob da gerade ein Mensch oder ein Computer reagiert. Dabei wird eine für Computer scheinbar unlösbare Aufgabe gestellt, wie das Erkennen von Ampeln. Wobei man schon annehmen könnte, dass heutzutage Computer, bzw. künstliche Intelligenz (KI) Ampeln erkennen kann. Ich meine, wir haben doch selbstfahrende Autos!
Dennis Pamlin und KI-Forscher Stuart Armstrong haben am Future of Humanity Institute der Oxford University einen Bericht veröffentlicht, der künstliche Intelligenz zu den 12 globalen Bedrohungen mit “potentially indefinite impact” (MTX1) zählt - also frei übersetzt, Bedrohungen mit potentiell unbegrenzten und unwiderruflichen Folgen.
Da steht KI einfach knallhart in einer Reihe mit einer globalen Pandemie, Asteroideneinschlägen und dem Ausbruch eines Supervulkans.
Denn, so die Theorie, sollte Künstliche Intelligenz sich so weit entwickeln, dass sie eigenständig neue, verbesserte Versionen von sich selbst herstellen kann - könnte sie irgendwann zu dem Schluss kommen, dass die Welt ohne uns Menschen besser dran ist.
Puh, das Ende der Menschheit? Irgendwie müssen wir uns mal entscheiden, oder? Entweder Künstliche Intelligenz bringt uns alle um oder sie ist zu dumm zum Auto fahren, weil sie nicht mal Ampeln erkennen kann.
Was ist Künstliche Intelligenz?
Noch ist Künstliche Intelligenz weder künstlich, noch intelligent. Außerdem macht sie manchmal mehr kaputt als sie nützt.
Aber fangen wir mal damit an, was Intelligenz überhaupt ist.
Quellen: MTX21, MTX30, MTX18
Und dieses Machine Learning ist überall. Die Foto-App auf euren Handys kann über Captchas nur lachen. In euren Fotos könnt ihr nicht nur nach Ampeln suchen. Die KI in euren Handys findet auch Fotos mit Essen, Urlaub oder Tieren. Und das ist superpraktisch, wenn man unter seinen tausenden Fotos dieses eine besonders Schöne sucht.
Und wie Machine Learning technisch genau funktioniert, erklärt uns unsere Reporterin Thora Schubert!
Quelle: MTX16
Künstliche Intelligenz kann also auch Fehler machen. Aber sie ist extrem gut darin, Muster und Merkmale zu erkennen, v.a. in gigantischen Datenmengen, die wir ohne KI nie überblicken könnten.
In Berlin wurde gerade ein Pandemie-Frühwarnzentrum der WHO (MTX5) eröffnet, das massenhaft Gesundheitsdaten auswertet, um noch früher vor Pandemien warnen zu können, als ein ganzes Büro voller Karl Lauterbachs.
Auch in der Klimaforschung setzt man Machine Learning ein (MTX29), um komplexere Modellierungen zu machen, indem man immer mehr Daten einbezieht.
Es geht um Daten
Die größten Datenpools, mit denen KI heutzutage zu tun hat, liegen bei Firmen wie Google, Amazon oder Facebook (MTX35), und die sind im Auswerten unserer Daten so gut, dass jeder schon mal das Gefühl hatte, von seinem Handy abgehört zu werden.
Dahinter steckt kein geheimer Überwachungsstaat – es ist viel banaler: Werbung (MTX33). Google, Facebook und Co. setzen ihre Algorithmen dafür ein, uns möglichst stark an ihre Plattformen zu binden - und uns Sachen anzudrehen.
Klar, wir nutzen das alles kostenlos und irgendwie müssen sich die Plattformen ja finanzieren und deshalb bezahlen wir am Ende eben doch - mit unseren Daten (MTX13). Um diese mehr oder weniger unkontrollierte Daten-Sammelwut zu reglementieren, hat sich die EU die Datenschutz-Grundverordnung ausgedacht, kurz DSGVO (MTX12).
Mit der DSGVO sollen unsere personenbezogenen Daten geschützt werden (MTX11,MTX15). Namen, Geburtstage, IP- und Wohnadressen. Dumm ist nur, dass das wenig nützt. Zum Einen stimmen die meisten eh immer allem einfach zu, und zum Anderen sind die Werbetreibenden schon viel weiter. Die interessieren sich nämlich gar nicht mehr dafür, wie du heißt oder wo du wohnst, sondern dafür … WER DU BIST. (MTX9)
Unsere Passwörter, persönliche Daten, Name, Geburtstag, Telefonnummer - da fühlen wir uns verletzbar. Wenn Google unseren Namen weiß oder unser Haus fotografiert, das geht nicht. Aber meinen Standort, damit ich weiß, welche Pizzerien in der Nähe von wildfremden Menschen gut gefunden werden, das ist okay. Oder fast schon notwendig. Hallo, es geht um Pizza!
Und was die Algorithmen eigentlich wollen ist, unser Verhalten VORAUSZUSAGEN.
Deep Learning
Sie wollen nicht nur wissen, wo wir gerne essen gehen, sondern sie wollen wissen, wo wir in Zukunft essen gehen WERDEN. Und das klingt etwas esoterischer, als es ist, denn was technisch dahinter steckt, ist letztendlich nur trockene Statistik.
Okay, woher weiß eine Künstliche Intelligenz, was wir in Zukunft mögen werden? Um unser Verhalten vorauszusagen arbeiten Algorithmen unter anderem mit Prädiktoren (MTX10), auf englisch predictors, das bedeutet so viel wie “Voraussager”.
In der Statistik ist ein Prädiktor ein Merkmal, mit dem man ein anderes Merkmal - mit einer gewissen Wahrscheinlichkeit - voraussagen kann.
KI nutzt Prädiktoren, um zum Beispiel Kaufinteresse vorauszusagen. Und diese Prädiktoren beruhen auf Korrelationen.
Sonnenstunden und Eiskonsum sind beides Prädiktoren für den Vitamin-D-Spiegel, unabhängig davon, ob es einen direkten kausalen, also ursächlichen Zusammenhang gibt oder nicht.
Prädiktoren sind für die Werbeindustrie so interessant, weil man mit ihrer Hilfe gut auf die Wahrscheinlichkeit schließen kann, mit der eine Gruppe Menschen einen bestimmten Artikel kauft.
Aber das heißt, statistische Voraussagen, die für eine große Gruppe zutreffen, können bei Einzelpersonen auch voll daneben liegen. Und da wir dazu neigen, Statistiken auf uns persönlich zu beziehen, überschätzen wir leicht die Voraussagekraft von Prädiktoren. Statistik ist extrem cool, keine Frage, aber sie hat in der praktischen Anwendung ihre Grenzen.
Warum ist es so wichtig, das zu verstehen? Naja, weil auch Merkmale wie Hautfarbe oder Religion Prädiktoren sind - für Einkommen, Wohlstand, Bildung oder Kriminalität. Und da kann es schnell diskriminierend werden, wenn man Korrelationen und Kausalitäten nicht auseinanderhalten kann.
Aber könnte eine KI hier nicht zur Versachlichung beitragen? Mit einem unvoreingenommenen nicht-menschlichen Blick?
Algorithmen sind nicht neutral
Die Chicagoer Polizei hat ein System entwickelt, das Verbrechen voraussagt. Das System nennt sich “predictive policing program” (MTX22) - predictive, Prädiktoren, da isses wieder - die KI dahinter findet Korrelationen in demographischen Daten - wo jemand wohnt, welchen Job man hat, welche Hautfarbe usw. - und sie sagt darauf basierend vorher, wie wahrscheinlich es ist, dass eine Person in ein Verbrechen verwickelt wird. Kein Witz.
Und so standen eines Tages zwei Polizeibeamte und ein Sozialarbeiter vor der Tür von Robert McDaniel(MTX32). Robert McDaniel war noch nie straffällig geworden, doch die Beamten vor seiner Tür sagten ihm, dass er mit 99,9%iger Wahrscheinlichkeit bald in eine Schießerei verwickelt werden wird. Sie wussten nur nicht, ob er schießen oder auf ihn geschossen wird.
Deshalb waren da auch Polizisten und ein Sozialarbeiter. Die einen für den Fall, dass Robert ein Täter ist und der andere, falls Robert ein Opfer gewesen sein wird.
Genau das passiert also, wenn statistische Voraussagen, die Wahrscheinlichkeiten, Trends und große Gruppen beschreiben, mit einer Glaskugelvoraussage für eine Einzelperson verwechselt werden.
Gucken wir doch mal nach Deutschland: Zwei der größten Arbeitgeber Deutschlands SAP (MTX2)und BMW (MTX24) setzen zum Beispiel künstliche Intelligenz ein, um Bewerbungen vorzufiltern. Aufgrund welcher Daten sie das wohl machen?
Was zum Beispiel in fast jeder Firma sichtbar ist, ist dass der Frauenanteil abnimmt, je höher man in der Hierarchie wandert (MTX19). Der Gesamtanteil von Arbeitnehmerinnen in deutschen Betrieben liegt bei knapp 45%, in der 2. Führungsebene immerhin noch bei 40%, aber in der obersten Führungsebene nur noch bei 26%.
Bei BMW sitzt immerhin eine Frau im Vorstand (MTX3). Eine ganze! Von Kopf bis Fuß!
Welche Schlüsse wird ein Machine Learning Algorithmus wohl aus diesem Zusammenhang ziehen? Ich meine, die Wahrscheinlichkeit, dass ein Mann Karriere macht, ist schlicht und einfach höher als bei einer Frau. Alles nur nüchterne Statistik, was soll man machen?
Und Bewerbungen sind nicht alles. Die SCHUFA errechnet mit KI die Wahrscheinlichkeit für das Erfüllen eines Miet- oder Leasingvertrags oder das Zurückzahlen eines Kredits anhand solcher persönlicher Scoring Daten. (MTX27) Alter, Geschlecht, Wohnort (MTX26), all das kann in die Entscheidung einfließen, ob wir irgendwo WOHNEN dürfen.
Was glaubt ihr, wie fair ein solches Scoring ist(MTX4)? Haben Menschen aller Hautfarben und aller Religionszugehörigkeiten die gleichen Chancen auf einen Mietvertrag oder einen Bankkredit?
Dieses Problem ist der SCHUFA übrigens durchaus bewusst und deshalb klammern sie bestimmte Daten aus dem Scoring aus:
"Angaben zur Staatsangehörigkeit (...) und stehen daher für die Profilbildung nicht zur Verfügung." (MTX25)
Aber das bringt gar nicht so viel gegen Diskriminierung durch Künstliche Intelligenz. Ich kann zwar Merkmale wie Religion aus der Gleichung rausnehmen, aber über bestimmte Prädiktoren können zum Beispiel muslimische Menschen trotzdem diskriminiert werden. Weil muslimisch sein mit vielen anderen Dingen korrelieren kann, z.B. mit einem bestimmten Wohnviertel oder dem Einkommen. Genau wie Eiskonsum mit Vitamin-D-Spiegel korreliert, obwohl es keinen direkten kausalen Zusammenhang gibt, kann auch Einkommen mit einer bestimmten religiösen Identität korrelieren.
Das Problem ist, dass Korrelationen durch soziale Benachteiligung bestimmter Gruppen entstehen können. Und diese Benachteiligung und Diskriminierung ist in unseren Daten abgebildet, zum Beispiel wenn Frauen mit Kopftuch bei einer Jobbewerbung statistisch gesehen öfter abgelehnt werden. (MTX34) Der Datensatz ist vielleicht “sachlich”, aber nicht “fair”.
Wer also glaubt, fairer zu sein, weil er ne “neutrale” KI einsetzt und keine Menschen mit Bauchgefühlen und Vorurteilen - fällt auf einen Trugschluss herein, denn die Daten, mit denen ein Algorithmus Entscheidungen trifft, stammen von Menschen.
Die Mathematikerin Cathy O’Neil sagt dazu: “Algorithmen sind Meinungen, verpackt in Mathematik.” (MTX23)
Also, Machine Learning ist nie fair. Oder besser gesagt: Solange es in unserer Welt Diskriminierung gibt, solange wird sich diese Diskriminierung in den Daten widerspiegeln - und von Algorithmen reproduziert werden.
Aber keine Sorge, es gibt ja die EU. Nach dem großen Erfolg der DSGVO hat die EU bereits einen Gesetzentwurf zur Regulierung Künstlicher Intelligenz vorgelegt.
Blackbox
Und für alle, die bei den Worten EU, DSGVO und Gesetzesentwurf schon eingenickt sind
AUFWACHEN! Hier sind nochmal die wichtigsten Punkte erklärt:
Quellen: MTX14, MTX20
Im Entwurf der EU steht übrigens auch das hier: “Hochrisiko-KI-Systeme sollten so konzipiert und entwickelt werden, dass natürliche Personen ihre Funktionsweise überwachen können.” (MTX14, S. 35)
Hier kommen wir zum vielleicht größten Problem mit Künstlicher Intelligenz. Sozusagen zur Spitze des Scheißbergs.
Der Witz an Künstlicher Intelligenz ist ja, dass man nicht alles selbst programmieren muss, sondern dass die Maschine selbstständig dazulernt. Sie findet neue Prädiktoren, neue Korrelationen, neue Wege, Entscheidungen zu treffen, ganz allein. Die Konsequenz daraus ist, dass eine Künstliche Intelligenz im Gegensatz zu einem traditionell programmierten Algorithmus fast immer eine Blackbox ist.
Es weiß also niemand so genau, wie so eine KI eigentlich zu ihren Ergebnissen kommt und das ist ein Riesenproblem.
Fazit
Nochmal: KI ist nicht neutral, macht auch Fehler und nutzt Statistik, die zwar Massen gut beschreibt, aber bei Einzelpersonen daneben liegen kann. Wenn jetzt eine KI meine Bewerbung ablehnt, dann will ich die Chance haben, zu erfahren, warum.
Wenn meine Kranken- oder KFZ-Versicherungsbeiträge anhand einer Risikobewertung hochgestuft werden, möchte ich nachvollziehen können, wieso.
Die Firma Cambridge Analytica SOLL, laut einem Whistleblower, Donald Trump 2016 zur Präsidentschaft verholfen zu haben (MTX8). Mit Hilfe von Facebook-Daten, Deep Learning und gezielter Pro-Trump und Anti-Clinton-Werbung und Propaganda.
Es gibt aber auch Stimmen, die sagen, dass das gar nicht stimmt und das eigentlich Verrückte ist: Keine der beiden Seiten kann ihren Standpunkt belegen, weil niemand weiß, wie diese Algorithmen genau funktionieren!
Sobald diese Nachvollziehbarkeit nicht mehr gegeben ist … ich weiß nicht, wie ihr das seht, aber für mich fühlt sich das fast schon an wie eine Grundrechtsverletzung. Ich muss ein Recht darauf haben, Technologien, die wichtige Entscheidungen über mich und mein Leben treffen, nachvollziehen zu können.
Es macht keinen Sinn, darüber zu diskutieren ob man KI anwenden sollte oder nicht. Sie wird ja schon längst angewendet, in der Pandemiebekämpfung (MTX6), bei der Schufa, bei tinder (MTX7).
Umso wichtiger, dass wir uns auf klare Regeln einigen, wann, wie und wo KI eingesetzt werden darf. Damit sie wirklich den Menschen oder der Gesellschaft nützt und nicht nur großen Firmen oder Playern, die Menschenmengen für ihre Zwecke beeinflussen wollen.