• Frage: Gibt es eine Form der 3 Gesetze der Robotik für KI und wie sehen diese aus?

    Frage gestellt ease28sap am 16 Sep 2024.
    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 16 Sep 2024:


      Offiziell gibt es sowas, soweit ich weiß, aktuell nicht. Es gibt aber inzwischen von der EU den AI-Act, der zumindest die Nutzung von KI regulieren soll. Vieles wird aber auch allgemein durch existierende Gesetze abgedeckt. Man darf also nicht mit einem Roboter Verbrechen begehen, da man das Verbrechen sowieso nicht begehen darf. Roboter und KI werden dabei als Werkzeug betrachtet, da diese nicht selbst denken und handeln – zumindest bisher nicht. Sollte das mal erreicht werden, wäre es sicher sinnvoll, etwas wie die 3 Gesetze der Robotik/KI einzuführen.

    • Foto: Daniel Braun

      Daniel Braun Beantwortet am 16 Sep 2024:


      Ich würde sogar sagen die Gesetze werden ganz aktiv gebrochen. Es gibt im militärischen Bereich inzwischen ja durchaus „Roboter“ (Drohnen und andere unbenannte Fahr- und Flugzeuge) die explizit dazu entwickelt wurden Menschen zu verletzen.

      Auch die KI-Verordnung, die dazu gedacht ist Menschen zu schützen, hat explizite Ausnahmen für z.B. den militärischen Bereich.

    • Foto: Jasmin Breitenstein

      Jasmin Breitenstein Beantwortet am 16 Sep 2024:


      Ich weiß auch nicht, dass eine solche Form von Gesetzen existiert. Implizit kann man diese 3 Gesetze natürlich genauso wie für Roboter auch für KI-Methoden formulieren. Allerdings befassen sich die Gesetze eher mit einer Idealvorstellung als mit tatsächlich gültigen Regeln. Es gibt, wie den EU AI Act, auf der ganzen Welt politische Bestrebungen Regelungen für die Nutzung von KI und auch Robotern zu entwerfen.
      Auch die Wissenschaftsgemeinschaft beschäftigt sich mit diesem Thema: Eine der größten Konferenzen im Bereich KI-Forschung (die NeurIPS) unterzieht eingereichte wissenschaftliche Arbeiten zusätzlich zu fachlichen Review auch einem ethischen Review. Es sollen Risiken und mögliche Schäden durch KI-Methoden zu erkennen und Entschärfungstechniken den Veröffentlichungen hinzugefügt werden. Zum Beispiel sollte eine wissenschaftliche Arbeit, die eine KI-Methode entwickelt, um bestimmte IT-Systeme anzugreifen, auch immer eine Technik enthalten, um diese Sicherheitslücke auch zu schließen.

    • Foto: Timur Sereflioglu

      Timur Sereflioglu Beantwortet am 16 Sep 2024: last edited 16 Sep 2024 8:50 pm


      Die „Drei Gesetze der Robotik“ von Asimov hören sich zwar ideal an, sind jedoch aufgrund der komplexen Funktionsweise von Sprachmodellen in der Praxis kaum umsetzbar. Sprachmodelle wie Large Language Models (LLMs) entwickeln Textzusammenhänge und führen darauf basierend bestimmte Funktionen aus. Allerdings kann man niemals garantieren, dass alle Anfragen zu 100 % korrekt ausgeführt werden. Es wird immer eine Wahrscheinlichkeit dafür bestehen, dass unerwünschte Ergebnisse auftreten. Man kann die Risiken zwar stark minimieren, aber nie vollständig ausschließen.

      Ein weiteres Problem ist, dass LLMs manipulierbar sind, da ihre Funktionsweise auf komplexen neuronalen Netzwerken basiert, die der menschlichen Intuition nachempfunden sind. Das bedeutet, dass diese Systeme – ähnlich wie Menschen – durch die gezielte Verwendung bestimmter Wörter und Muster beeinflusst werden können. Dadurch entsteht das Risiko, dass LLMs auf unvorhergesehene oder unerwünschte Weise reagieren, was sie anfällig für Manipulationen macht.

      Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zulassen, dass einem Menschen Schaden zugefügt wird.

      Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, solche Befehle widersprechen dem Ersten Gesetz.

      Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.

    • Foto: Fabian Zehner

      Fabian Zehner Beantwortet am 16 Sep 2024: last edited 16 Sep 2024 10:01 pm


      Gesetze gibt es für die KI nicht. Also solche, die ihr vorschreiben, was sie machen müsste.
      Nur Richtlinien etwa von der EU gibt es bisher, wie die anderen beschrieben haben. Aber die gelten nur für die Menschen, die die KI machen. Also nichts, woran sich die KI halten müsste.

      Die Firmen, die gerade so Sprach-KI wie ChatGPT bauen, versuchen aber tatsächlich ihrer KI Regeln beizubringen. Also sowas ähnliches wie die Gesetze der Robotik, weil sie versuchen aufzuschreiben, was die KI sagen darf und was nicht.
      Das klappt schon deutlich besser als noch vor zwei Jahren. Aber manchmal hält sich die KI auch einfach nicht dran. Vor allem dann nicht, wenn jemand Tricks benutzt, um die KI etwas machen zu lassen, was sie eigentlich nicht sollte — zum Beispiel schimpfen. Das nennt man Jailbreaking, also Ausbrechen aus dem Gefängnis. Da stehen auch solche Dinge drin wie „Du darfst auf keinen Fall das Bild von einer bekannten Person generieren!“. Damit zum Beispiel niemand mit der KI ein Bild von Jamal Musiala auf einer tanzenden Seekuh malen lässt (nur für den Fall, dass der das nicht mag).
      Es sind also viel genauere Regeln als die 3 Gesetze der Robotik.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 17 Sep 2024:


      Nein, so etwas gibt es nicht, das ist im Moment reine Science Fiction.

    • Foto: Clarissa Elisabeth Hohenwalde

      Clarissa Elisabeth Hohenwalde Beantwortet am 17 Sep 2024:


      Die anderen Antworten sind schon super! Deshalb hier nur noch ein paar Ergänzungen:

      Die drei Gesetze der Robotik wurden 1942 vom Science-Fiction-Autor Isaac Asimov formuliert. Er hatte schon vor über 80 Jahren eine erstaunliche Vorstellung davon, wie die Zukunft aussehen könnte.

      Auch wenn die Robotergesetze in der Realität nicht 1-zu-1 existieren, hat Asimov mit seinen Ideen viele Wissenschaftler*innen inspiriert. Durch seine Geschichten sehen wir, wie wichtig es ist, dass wir uns mit den Auswirkungen von Technik auf die Gesellschaft beschäftigen. Außerdem zeigt Asimov, dass wir klare Regeln brauchen, was Roboter dürfen und was nicht.

      Heute werden Regeln zum Einsatz von KI in Verordnungen wie dem AI-Act der EU oder durch Gesetze festgelegt. Viele KI-Firmen haben auch eigene Forschungsabteilungen, die sich mit ethischen Fragen beschäftigen. Der Technologiekonzern Google hatte z.B. auch lange das Motto: „Don’t be evil“ („Sei nicht böse“). Mittlerweile haben sie den Spruch zu „Do the right thing“ („Tu das Richtige“) geändert.

Kommentare