Technologie-Regeln: Was tun, damit KI nicht zur Gefahr wird?

    Regelungen für Technologie:Was tun, damit KI nicht zur Gefahr wird?

    von Peter Welchering
    |

    Künstliche Intelligenz findet immer mehr Einzug in das alltägliche Leben. Welche Regeln die KI benötigt - darüber diskutieren nun Forscher. Doch es gibt auch Widerstände dagegen.

    Eine Person reicht dem humanoiden Roboter "Ari" die Hände.
    Mensch und KI, Hand in Hand: Was muss man beachten, damit die Technik nicht zur Gefahr wird? (Symbolbild)
    Quelle: dpa/ Klaus-Dietmar Gabbert

    Ein selbstfahrendes Auto überfährt einen Fußgänger, KI-basierte Handelsprogramme sorgen für Kursstürze, ein Scoring-System lehnt die lebensrettende Operation für einen Patienten ab - über solche Szenarien und Ereignisse durch Künstliche Intelligenz diskutieren in dieser Woche Wissenschaftler, Wirtschaftsvertreter und Politiker im englischen Bletchley Park.

    Forscher diskutieren über KI-Regeln

    An dem Ort, an dem Mathematiker und Ingenieure im Zweiten Weltkrieg kriegsentscheidend die Verschlüsselung der deutschen Marine-Kommunikation knackten, geht es jetzt um die Frage, wie die Menschheit die Risiken beim Einsatz von KI-Systemen minimieren kann. Ohne internationale Regulierung des Einsatzes von KI-Software wird das nicht gehen.
    Doch darüber wird hart gestritten. Denn reguliert werden muss die Kontrolle und Überwachung von KI-Systemen. Das kostet Geld und könnte die Unternehmens nötigen, ihre KI-Algorithmen offenzulegen.

    Eine wesentliche Forderung von KI-Experten ist die nach verbesserter Offenlegung von Trainings- und Verifikationsdaten, mit denen KI-Systeme lernen bzw. deren Lernverhalten überprüft wird. Bei den Trainingsdaten müsse sichergestellt werden, dass keine verzerrten Daten zu falschen Entscheidungen führen.

    Gefordert wird auch Transparenz bei den Entscheidungen. Diese müssten genau nachvollzogen werden. Nur so könne man herausfinden, wo eine falsche Entscheidung aufgrund falscher Daten oder aufgrund einer falschen Gewichtung im neuronalen Netz getroffen wurde.

    Generell müsse laut Experten ebenfalls reguliert werden, dass die jeweilige Wissensbasis, auf deren Grundlage ein KI-System Lösungen entwickelt, also Entscheidungen trifft, geprüfte Daten enthält. Hier dürfen nur verifizierte Daten gespeichert sein. Dies sei bislang häufig nicht der Fall.

    Riskante Software als Geschäftsgeheimnis

    Dagegen gibt es Widerstand. Die Debatte über KI-Regulierung ist etwas unübersichtlich geworden, weil verschiedene - teilweise verdeckte - Interessen und sehr komplexe Algorithmen die Orientierung erschweren. Da hilft es, sich klar zu machen, über welche Risiken geredet wird.
    Da ist zum Beispiel das selbstfahrende Auto, das in einen Lieferwagen gefahren ist. Welche KI-Systeme haben da versagt? Bei der Suche nach der Unfallursache stellte sich heraus, dass der Lieferwagen eine himmelblaue Lackierung hatte.
    Das KI-System des selbstfahrenden PKW hat den Lieferwagen deswegen nicht als Auto, sondern als Horizont eingestuft und nicht gebremst. Unfallursache war also eine falsche Mustererkennung.

    Entscheidet KI-Software falsch und verwechselt zum Beispiel die blaue Lackierung eines Lieferwagens mit dem blauen Himmel am Horizont, kann das zu einem Verkehrsunfall führen. Dann muss nachvollzogen werden, wie diese Fehlentscheidung zustande kam. Dafür werden zwei ganz unterschiedliche Methoden eingesetzt:

    Zum einen prüfen KI-Entwickler, mit welchen Daten die KI-Software sich für die Verwechslung entschieden hat. So kann dann erkannt werden, dass die gelieferten Sensordaten falsch erfasst wurden, im Fall der himmelblauen Lackierung die von einer Kamera gelieferten Bilder.

    Waren die Eingabedaten jedoch in Ordnung, müssen die Entwickler weitersuchen. Dann müssen sie die KI-Software insgesamt analysieren. Das fällt bei komplexen neuronalen Netzen mit Millionen von Neuronen und mehreren tausend Entscheidungspunkten nicht leicht.

    Mustererkennung ist anfällig

    Die Sicherheitsforscher Steve Povolny und Shivangee Trivedi haben sich solche Fehler in der Mustererkennung von Fahrassistenzsystemen genauer angeschaut und herausgefunden, dass KI-Systeme für autonomes Fahren oft falsche Entscheidungen treffen und leicht manipuliert werden können. Ihre Forderung: Stärkere Kontrolle der Mustererkennungsalgorithmen. Das setzt aber klare gesetzliche Regelungen voraus.
    Die aber fehlen nicht nur beim selbstfahrenden Auto. Auch beim KI-Einsatz in der Medizin sind die Risiken hoch. Mustererkennungssysteme zur Erkennung von Hautkrebs sorgen nicht selten für falsche Diagnosen. KI-Software, die Therapievorschläge macht, leitet ihre Entscheidungen von Prognoseverfahren ab.
    So berechnet die umstrittene Software eines Anbieters zum Beispiel die Lebenserwartung eines Menschen, um teure Therapien bei Schwerkranken einzusparen. Die Software verarbeitet die Daten aus der gesamten Krankheitsgeschichte eines Menschen.

    Scoring-Systeme werden in der Finanz- und Versicherungsbranche schon seit längerer Zeit eingesetzt. Da zahlt dann ein Pkw-Besitzer 100 Euro für seine Kfz-Versicherung weniger als seine Kollegin - auch wenn beide das gleiche Modell fahren. Grundlage dafür sind neben Daten wie Alter, Beruf, Lebensumstände, wo das Auto abgestellt ist, auch Fahrdaten: Auf welchen Straßen der Pkw-Besitzer unterwegs ist, wie schnell er fährt, wie oft er bremst. Daraus errechnet ein KI-System den Versicherungstarif.

    Ähnlich entscheiden KI-Scoring-Systeme über Kreditvergaben. Das Verfahren für diese Berechnung ist dabei intransparent. Dies kann für den einzelnen Bankkunden negative Folgen haben - etwa, dass er keinen Kredit bekommt.

    Für eine Volkswirtschaft kann es kritisch werden, wenn solche KI-Systeme an der Börse mit Wertpapieren handeln. Mitunter wetten bestimmte Handels-Algorithmen auch auf abstürzende Wertpapiere. Das hat in der Vergangenheit bereits zu Unruhen an den Börsen geführt.

    Welchen KI-Einsatz will eine Gesellschaft zulassen?

    Auch die aktuelle Diagnose und die zuletzt erhobenen Laborwarte werden von der Software verarbeitet. Lautet die aktuelle Diagnose dann bei einem bestimmten Patienten zum Beispiel "Leukämie" werden Krankheitsverläufe ähnlicher Fälle abgeglichen.
    Daraus errechnet die Software dann, ob dieser Krebskranke eine teure Chemotherapie erhalten soll oder nur -kostengünstig - palliativ behandelt wird. Sollen derartige KI-basierte Scoring-Systeme in der Medizin eingesetzt werden? Das ist nicht zuletzt eine Frage der gesetzlichen Regulierung.

    Medizin der Zukunft mit KI
    :Wo Künstliche Intelligenz Ärzten helfen kann

    Künstliche Intelligenz ist längst in Kliniken und Praxen im Einsatz. In Zukunft könnte sie Ärzte und Pfleger stärker entlasten. Werden Patienten bald von Dr. KI behandelt?
    von Annette Kanis
    Eine Fachärztin für Dermatologie und Venerologie zeigt, wie die Behandlung von Hautpatienten per Video funktioniert.
    mit Video

    Mehr zu Künstlicher Intelligenz