• Frage: Wie kann KI „intolerante" Handlungen oder Entscheidungen in sozialen Netzwerken verhindern, anstatt sie zu fördern?

    Frage gestellt hunt28ant am 24 Sep 2024.
    • Foto: Daniel Braun

      Daniel Braun Beantwortet am 24 Sep 2024:


      Ein wichtiger Aspekt sind die Trainingsdaten, also die Beispiele von denen die KI lernt wie sie sich verhalten soll. Leider verhalten sich Menschen in sozialen Netzwerken auch nicht immer unproblematisch. Wenn wir der KI also einfach ungefiltert alle Daten geben, dann lernt sie sowohl das positive als auch das negative Verhalten. Aber es gibt schon heute KI die zum Beispiel eingesetzt wird um Beleidigungen in sozialen Netzwerken zu erkennen und zu sperren. Es kommt also darauf an wie die KI trainiert wird und für was sie eingesetzt wird.

    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 24 Sep 2024:


      Daniel hat das schon super beantwortet. Wenn man eine KI entsprechend trainiert und programmiert, kann sie auch Intoleranz „bekämpfen“. Leider ist Daten filtern ein sehr anstrengender Prozess, und wird deshalb oft nicht so ausführlich gemacht wie man das eigentlich tun sollte. Das liegt oft auch daran, dass man das manuell machen müsste – da automatisierte Programme nicht alles erkennen können. Das sind dann schnell mal tausende an Daten, die mehrere Leute durchgehen müssen (damit nicht nur die Meinung von einem bewirkt, was als „intolerant“ betrachtet wird). Das ist zeitlich und auf Kosten-Punkten sehr aufwendig und wird daher oft nicht sehr detailliert gemacht.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 24 Sep 2024:


      Man könnte die (KI-)Algorithmen, die derzeit genutzt werden, verändern. Im Moment zeigen soziale Medien uns in der Regel ähnliche Inhalte an, die wir in der Vergangenheit auch angeschaut haben. Wenn jemand also in der Vergangenheit „intolerante“ Inhalte angeschaut hat, werden weitere solche Inhalte angezeigt. Man könnte genau das ändern und stattdessen „tolerante“ Inhalte zeigen — damit die Leute mal was anderes sehen.

    • Foto: Franco Rau

      Franco Rau Beantwortet am 25 Sep 2024:


      Ich finde die bisherigen Antworten sehr interessant und stimme zu, dass das Training und die Filterung der Daten entscheidend sind, wie Daniel und Annegret betont haben.

      Ein weiterer wichtiger Aspekt ist, wie Karsten bereits angesprochen hat, die Veränderung der Algorithmen. Es wäre ein großer Schritt, wenn wir KI so nutzen könnten, dass nicht nur ähnliche, emotionalisierende oder dramatisierende Inhalte vorgeschlagen werden, sondern auch vermehrt Inhalte mit Lern- und Bildungswert. So könnte die KI statt emotional aufgeladene oder polarisierende Beiträge, konstruktive und lehrreiche Inhalte hervorheben. Das würde nicht nur helfen, intolerantes Verhalten zu reduzieren, sondern auch die Medienkompetenz der Nutzer:innen fördern und sie für unterschiedliche Perspektiven öffnen.

      Da soziale Medien jedoch keinen Bildungsauftrag haben und primär darauf abzielen, die Nutzer:innen möglichst lange auf der Plattform zu halten, ist fraglich, inwiefern Techunternehmen von sich aus bereit wären, ihre Algorithmen in diese Richtung anzupassen. Die Empfehlung von Inhalten mit hohem Bildungswert könnte zwar langfristig einen positiven gesellschaftlichen Einfluss haben, jedoch widerspricht dies oft den kurzfristigen Geschäftsinteressen, die auf hohe Interaktionsraten und Werbeeinnahmen abzielen. Deshalb wäre es wichtig, hier regulatorische Maßnahmen oder gesellschaftlichen Druck einzubringen, um solche Anpassungen voranzutreiben und Bildungsinhalte stärker in den Fokus zu rücken (so meine Perspektive als Bildungswissenschaftler).

    • Foto: Clarissa Elisabeth Hohenwalde

      Clarissa Elisabeth Hohenwalde Beantwortet am 26 Sep 2024:


      Die Antworten meiner Kolleg*innen sind super! Hier noch eine neue Perspektive:

      Künstliche Intelligenz kann intolerante Handlungen in sozialen Netzwerken reduzieren, indem man mit ihr hate speech oder illegale Inhalte automatisch identifiziert und entfernt. Somit bekommen solche Beiträge keine große Reichweite.

      Alle großen Social Media Plattformen nutzen KI-Systeme schon seit vielen Jahren. Dank technologischem Fortschritt ist es jetzt aber möglich, noch schneller und präziser einzugreifen. Mittlerweile kann man durch den Einsatz von Deep Learning und Natural Language Processing (NLP) sprachliche Nuancen und den Kontext von Gesagtem besser verstehen.

      Denk z.B. an die Zahl 18. Auf Social Media könnte man sie so verwenden: „Alles Gute zum 18. Geburtstag! ❤️“ In rechtsextremen Kreisen steht die Zahl jedoch für Adolf Hitler (A = 1. Buchstabe im ABC und H = 8. Buchstabe). Das Beispiel zeigt, dass es nicht sinnvoll ist, die Zahl „18“ komplett in Posts zu verbieten. Stattdessen muss man auf den Kontext achten – etwas was Sprach-KIs immer besser können.

Kommentare