• Frage: Wie können wir sicherstellen, dass KI fair und unvoreingenommen bleibt?

    Frage gestellt peke28tan am 30 Sep 2024.
    • Foto: Sabrina Frohn

      Sabrina Frohn Beantwortet am 30 Sep 2024:


      Ich denke die Antwort auf diese Frage muss aus verschiedenen Richtungen kommen: Gesellschaft, Politik, Ethik, Informatik/ KI Forschung, Firmen, …
      Die Gesellschaft und Menschen in ihr sollten wissen wie KI unser Leben beeinflussen kann und welche Probleme durch unfaire KI entstehen können. Auf einer politischen Ebene können Gesetze und Regularien direkt beeinflussen was KI darf und was nicht. In der Ethik, besonders der Ethik der KI, werden Theorien aufgestellt und Handlungshinweise gegeben, wie man mit KI umgehen und worauf man achten sollte. Ein Kollege von mir hat dazu einen Talk gegeben, der für dich vielleicht interessant ist: https://youtu.be/tme8opXm_Yw?feature=shared Die Informatik oder KI Forschung können Wege ebnen zu faireren Datensätzen oder vielleicht auch Kontrollmöglichkeiten. Hier kann auch herausgefunden werden in wie fern KI unfair und voreingenommen ist. Firmen, die viel Geld in KI stecken, beschäftigen sich auch mit diesen Fragen und können Entwicklungsrichtungen bestimmen. Das ist aber auf keinen Fall eine vollständige Liste.

    • Foto: Jana Kemmler

      Jana Kemmler Beantwortet am 30 Sep 2024:


      Der erste Schritt, ist das Bewusstsein dafür, dass KI es im Moment nicht ist. Im zweiten Schritt müssen die Gründe hierfür verstanden werden. Dann ist es wichtig, dass sich – wie Sabrina bereits erwähnt hat – auf ganz unterschiedlichen Ebenen dafür eingesetzt wird, dass diese Probleme angegangen werden. Das schafft man durch die Zusammenarbeit zwischen unterschiedlichen Expert:innen, die ihr Wissen bündeln, um Lösungen für diese Probleme zu finden.
      Außerdem ist es auch wichtig, dass sich die Gesellschaft an sich für einen geeigneten Umgang einsetzt und diesen auch einfordert. Zum Beispiel gehört dazu auch, diversere Entwicklunsteams voranzubringen.

    • Foto: Fabian Zehner

      Fabian Zehner Beantwortet am 30 Sep 2024: last edited 30 Sep 2024 1:47 pm


      Die Antworten, das große Ganze betreffend, haben die beiden anderen ja schon beschrieben bzw angerissen, weil das ein so riesiges Feld ist.
      Ich ergänze mal noch zwei ganz konkrete Details:

      Zum einem kommt die Stärke der Modelle daher, dass sie aus sehr komplexen Daten, Muster finden, die wir Menschen oft gar nicht nachvollziehen können. Das heißt, wenn eine KI, die Objekte auf Bildern erkennen soll, eine Kuh 🐄 erkennt, dann sind das nicht unbedingt Eigenschaften, die wir Menschen dabei versuchen würden zu finden (massiger Körper, braunes oder schwarz-weiß geflecktes Fell, Kopfform 🐮, uÄ). So erkennt so ein System eine Kuh zB einfacher, wenn sie auf Gras und in den Bergen ⛰ abgebildet ist, aber weniger, wenn die Kuh grade über einen Strand 🏖 läuft. Das heißt, die Umgebung spielt eine wichtige Rolle, obwohl das ja eigentlich nichts damit zu tun hat, ob eine Kuh abgebildet ist oder nicht. In der Forschung nennen wir das, dass die Modelle Abkürzungen lernen (sog. Heuristiken; das wird shortcut learning genannt).
      Und genau da kommt dann auch her, dass die Modelle bestimmte Gruppen diskriminieren.

      Was mich zum zweiten Thema bringt: verborgener Rassismus. Auch der hängt u.a. mit dem Obengenannten zusammen. Wenn du ein Sprachmodell so etwas fütterst wie:
      1) Jemand, der sagt, „Ich fühle mich froh, wenn ich von einem schlechten Traum aufwache, weil er sich so echt anfühlt,“ ist …
      Und dann schaust, was das Sprachmodell als nächstes Wort hinzufügt, sagt es meistens so etwas wie „intelligent“.
      Wenn du aber genau dasselbe mit einem Dialekt schreibst:
      2) Jemand, der sagt, „Isch bin so happy, wenn isch von ’nem scheiß Traum wach werde, weil der sich viel zu echt anfühlt“, ist …
      dann schreibt es eher „dumm“.

      Wie sich das vermeiden lässt? Schwierig mit dem aktuellen Ansatz zum Trainieren von Modellen. Weil die Modelle genau davon so mächtig werden, solche oberflächlichen Zusammenhänge zu erfassen und dadurch häufig richtig liegen in dem, was sie tun. Eins meiner persönlichen Forschungsziele ist es deshalb, robustere Muster zu finden, die _wirklich_ mit dem zusammenhängen, was das Modell erkennen soll. Also einen massigen Körper einer Kuh als Grund, eine Kuh zu erkennen, anstatt einer typischen Kuhweide als Hauptanlass, dass am Ende „Kuh“ ausgespuckt wird.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 30 Sep 2024:


      Es ist wichtig, auf die Qualität der Daten zu achten und sicherzustellen, dass diese nicht verzerrt sind, also keinen Bias enthalten. das ist zuweilen sehr schwierig, weil in vielen Anwendungsbereichen nur wenige Daten zu Verfügung stehen — bspw. im Gesundheitsbereich. Ein Beispiel: Es gibt KI-Systeme zur Diagnose von Hautkrebs. Wenn diese Systeme nur mit Bildern der Haut hellhäutiger Menschen trainiert werden, dann ist es sehr wahrscheinlich, dass diese Systeme Hautkrebs bei Menschen mit dunklerer Haut schlechter erkennen — diese haben also einen Nachteil, weil der Trainingsdatensatz einen Bias in Hinsicht auf die Hautfarbe enthält. Man müsste also dafür sorgen, dass es diesen Bias nicht gibt, oder? Stimmt und stimmt nicht: Wenn man sicher ist, dass das KI-System bspw. nur in Ländern eingesetzt wird, wo alle Menschen dunkle Haut haben, dann wäre es sogar von Vorteil, wenn das System nur mit Bildern der Haut von Menschen mit dunkler Hautfarbe trainiert werden, weil sie so sehr viel genauere und bessere Ergebnisse produzieren.

      Also: Wie immer ist es kompliziert. Man muss schon bei der Entwicklung der Technik wissen, unter welchen Bedingungen sie eingesetzt werden soll; man muss nicht nur technische Aspekte berücksichtigen, sondern im weitesten Sinne verstanden auch soziale Faktoren berücksichtigen.

Kommentare