• Frage: Wer sollte in Zukunft die Kontrolle über mächtige KI-Systeme haben? Regierungen, Unternehmen oder eine Art internationaler Organisation?

    Frage gestellt derm28fry am 23 Sep 2024.
    • Foto: Sabrina Frohn

      Sabrina Frohn Beantwortet am 23 Sep 2024:


      Das ist eine spannende Frage und gar nicht so leicht zu beantworten. Tatsächlich gibt es einen neuen Forschungsbereich, Ethik der KI, der sich mit dem Thema beschäftigt. Daher kann ich dir auch keine komplette Antwort geben, da ich mich nicht genug mit Ethik, internationalem Recht und internationaler Politik, und so weiter auskenne.

      Ich vermute, dass es darauf hinaus laufen wird, dass KI in vielen ‚Händen‘ liegen wird. Unternehmen haben den Vorteil viel Geld zur Verfügung zu haben, um KI-Systeme weiter zu entwickeln. Universitäten weltweit arbeiten an Entwicklungen genauso mit und es gibt Ansätze Ressourcen (wie Rechenleistung) zusammenzulegen, um eher mit Unternehmen mithalten zu können. Regierungen werden über Gesetze einfluss nehmen, aber auch durch die Förderung von Univerisäten und Unternehmen oder den eigenen Nutzen von KI. Vielleicht wird es auch internationale Bünde oder Organisationen geben. Vielleicht gibt es ja auch die Möglichkeit auf Open Source KI, also kostenfrei verfügbare und einsehbare Modelle?

      In der momentanen weltpolitischen Lage, fände ich es super, wenn die Verwaltung und Kontrolle so gestreut wie möglich und so fair verteilt wie möglich ist.

      Ich bleibe auf jeden Fall gespannt!

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 24 Sep 2024:


      Wie so vieles ist auch Ethik in der KI alles andere als neu — Joseph Weizenbaum, ein US-amerikanischer Wissenschaftler — hat bereits in den frühen 1970er Jahren vor den Gefahren von KI gewarnt und moralische Regeln für deren Einsatz gefordert. Ich fürchte allerdings, dass Ethik nicht ausreichen wird, sondern dass man Gesetze benötigt, die bestimmte Mindestanforderungen an KI stellen. Ein solches Gesetz ist der europäische Artificial Intelligence Act, der dieses Jahr in Kraft trat.

      Vermutlich ist es der beste Weg, KI mithilfe von Gesetzen zu regulieren. Eine internationale Organisation hat kaum Chancen — siehe UNO. Regierungen sind auch nicht immer die richtigen Institutionen, weil da nicht immer gute Intentionen vorhanden sind. Unternehmen wiederum haben vor allem wirtschaftliche Interessen — diese sollten durch Gesetze eingehegt werden.

    • Foto: Rebecca Wald

      Rebecca Wald Beantwortet am 24 Sep 2024:


      Ziemlich gute Frage! Ich glaube, dass enorm viele Menschen gerade nach den richtigen Antworten suchen. Zusätzlich zu der Frage nach Ethik, die schon von Sabrina und Karsten genannt wurde, kann ich mir vorstellen, dass eine Kombination von Regierung, Unternehmen, und anderen unabhängigen Organisationen vielleicht eine sehr gute Idee sein kann. Ich würde die Kontrolle niemals an nur einen geben. Eine Art Kontrollorgan ist sicher sinnvoll. Und um eine Zusammenarbeit von Industrie und Politik/Regierung kommt man sowieso nicht drum rum.

    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 24 Sep 2024:


      Ich denke, von den entsprechenden Regierungen sollten zumindest Regelungen erstellt werden, was den Umgang mit KI angeht. Regulierungen sind bei solchen Sachen wichtig, und gibt es derzeit meiner Meinung nach noch nicht ausreichend. Unternehmen, die KI entwickeln und verbreiten, haben eine eigene Verantwortung darauf zu achten, dass diese möglichst nicht für irgendetwas verwendet wird, was Schaden anrichtet in irgendeiner Form (was oft einfacher gesagt als getan ist). Unabhängige Organisationen können dazu beitragen, Regulierungen und Ethikrichtlinien zu stärken und herauszufinden, wann etwas dagegen verstößt.
      Allgemein sollte die Verantwortung oder Kontrolle nicht nur an einer Stelle liegen – dafür sind zu viele Stellen daran beteiligt.

Kommentare