• Frage: Glauben sie, dass KI eine ernstzunehmende Gefahr für die Menschheit ist?

    Frage gestellt date28axe am 23 Sep 2024. Diese Frage wurde auch von have28van gestellt.
    • Foto: Jasmin Breitenstein

      Jasmin Breitenstein Beantwortet am 23 Sep 2024:


      Ich glaube das nicht. KI ist in erster Linie ein Mittel zum Zweck und es kommt darauf an, wer sie wie nutzt. Wie jede neue Technologie gibt es natürlich gute und nicht so gute Anwendungen und wir müssen uns dafür einsetzen, dass die Vorteile überwiegen. Gleichzeitig sind natürlich Regelungen für den Einsatz von KI wichtig, genauso wie mögliche Verteidigungen gegen schädliche Anwendungen von KI.

    • Foto: Fabian Zehner

      Fabian Zehner Beantwortet am 23 Sep 2024: last edited 23 Sep 2024 2:09 pm


      Meine kurze (und naive) Antwort ist Nein. Vieles ist Panikmache und Unverständnis über das, was die aktuellen Methoden eigentlich tun.

      Allerdings verfolge ich seit einiger Zeit mit wachsendem Stirnrunzeln, >wie< KI eingesetzt wird. Sprich: Nicht die KI selbst ist die Gefahr, sondern das, was der Mensch damit macht.

      Es gibt ja viele Geschichten und Filme von KIs, die plötzlich auf die Idee kommen, dass es viel besser für die Welt wäre, wenn sie die Menschen überwältigen würde. Auf solche Ideen kommen die sogenannten schwachen KIs, die wir aktuell haben, aber gar nicht. Sie haben keinen eigenen Antrieb oder Ziele, sie haben auch nicht plötzlich Zugriff auf den Sicherheitszaun um eine Forschungsanlage oder gar die Energieversorgung einer Stadt. Und diesen eigenen Antrieb werden sie (aus meiner Sicht) auch nie bekommen. Dann wäre sie eine starke KI. Das kann sich vielleicht ändern, sollten wir Menschen irgendwann verstehen, was Bewusstsein ist und es nachbauen können.

      Was aber nun, wenn wir den schwachen KIs mit all ihren bekannten und unbekannten Fehlern plötzlich Zugriff geben? Im Hype rund um GPT letztes Jahr etwa haben so einige dem Chatbot direkt Zugriff auf ihren Computer gegeben. Oder Zugriff auf Onlinedienste (über sog. APIs), sodass die Chatbots beispielsweise auf X/Twitter posten konnten. Der Chatbot konnte damit alles tun, was man mit einem Computer nunmal machen kann, und auch viele andere Menschen über Sprache erreichen. Diese Chatbots haben dabei keinen bösen Willen; sie haben ja, wie gesagt, keinen Antrieb. Aber sie machen Fehler und können z. B. sozusagen versehentlich schlechte Dinge auf den eigenen Computer laden, Dateien auf dem Computer so verändern, dass er nicht mehr funktioniert, halluzinierte Falschinformationen über Onlinedienste verbreiten und Ähnliches. Deshalb bin ich der Meinung, dass die Menschen gerade einige Ingenieursfehler begehen, die nicht in der Gefährlichkeit der KI begründet sind, sondern darin, dass so einige nicht ganz wissen, was sie da eigentlich tun.

      Als ein weiteres Beispiel gibt es Berichte von Personen mit psychischen Störungen (wie Depression), die mit den Chatbots schreiben und dann schlechten Ratschlägen mit ernstzunehmenden Konsequenzen folgen. Auch das ist ein Risiko, das in der Nutzung durch den Menschen besteht.

      Es gibt natürlich auch die Möglichkeit, dass übelmeinende Menschen die KI so gestalten, _dass_ sie durchaus schlechte Dinge verfolgt. Auch das ist wieder vom Menschen ausgehend und deshalb gibt es zum Beispiel inzwischen von der EU Richtlinien für den Einsatz von KI in bestimmten Bereichen. Und übrigens sieht man solche Tendenzen bereits in der Wissenschaft: Es gibt immer mehr wissenschaftliche Publikationen, die einfach nur automatisch generiert sind und u.a. die Wissenschaft in einem schlechten Licht dastehen lassen. Schaut euch zum Beispiel mal die Abbildung von einer Ratte an, die vermeintliche Wissenschaftler*innen in einer wissenschaftlichen Zeitschrift veröffentlicht haben: https://garymarcus.substack.com/p/the-exponential-enshittification — dass eine normale Ratte so nicht aussieht und auch die Abbildungsbeschriftungen nichtmal richtige Wörter sind, erkennt man ja eigentlich schnell, aber leider ist das in den Qualitätskontrollen nicht aufgefallen. Auch diese Kontamination von Informationen und große Menge neuer Informationen ist ein ernstzunehmendes Risiko in der Art und Weise, wie die generativen KIs zur Verfügung stehen.

    • Foto: Sabrina Frohn

      Sabrina Frohn Beantwortet am 23 Sep 2024:


      Hauptsächlich nein, aber ein bischen ja. Ich sehe es ähnlich wie Fabian und Jasmin, dass viel der schlechten Erzählungen unnötig Panik auslösen und die KI an sich keine Gefahr ist. Allerdings, wie Fabian auch gesagt hat, besteht die Möglichkeit, dass KI für schlechte Sachen genutzt werden könnte oder wird. Hier müssen Wissenschaftler:innen zu forschen und informieren, Politiker:innen Gesetze verabschieden, und alle Menschen aufpassen und hinschauen. So können wir bestimmen was mit KI gemacht werden darf und was nicht.

    • Foto: Yves Jeanrenaud

      Yves Jeanrenaud Beantwortet am 23 Sep 2024:


      vieles wurde schon gesagt. Was ich aber wichtig finde, zu ergänzen, und was wenig Raum einnimmt bislang, ist eine andere Ebene: Wie viel Energie und andere Ressourcen für KI von großen Tech-Unternehmen verwendet werden. Microsoft denkt wohl darüber nach, ein altes AKW wiederzubeleben, als Privatunternehmen, um seine KI-Rechner mit Strom zu Versorgen. Wasser zum Kühlen der Rechenzentren wird in nicht vorstellbaren Mengen verbraucht. Manche stehen auch, recht wenig intuitiv in Wüstengegenden.

      Der Strombedarf der großen KI-Firmen ist in den letzten Jahren so rasant angestiegen, wie noch nie zuvor und es gibt erste, ernstzunehmende Analysen, die zeigen, wie KI den Ausstieg aus Kohle- und Gaskraftwerken zur Stromerzeugung ausbremst oder gar umkehrt. Das könnte durchaus als ernstzunehmende Gefahr für die Menschheit genannt werden, zumal die UN Nachhaltigkeitsziele und die 1,5 Grad-Grenze des Pariser Klimaabkommens sowieso schon mehr als auf der Kippe stehen.
      Es ist also mehr indirekt die KI als Gefahr, aber um die Modelle zu trainieren wird einfach sehr, sehr viel Rechenleistung benötigt. Und die gibt es nunmal nicht umsonst.

    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 24 Sep 2024:


      Wie jede Technologie birgt auch KI Risiken. Aber diese Risiken gehen primär von den Menschen aus, die mehr oder minder verantwortungsvoll mit der Technologie umgehen. Daher sollten wir uns alle nicht so sehr Sorgen über wildgewordene Terminatoren machen, sondern über jene Leute, die so etwas bauen und einsetzen.

    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 24 Sep 2024:


      Meine generelle Antwort auf Fragen der Art ist: KI ist ein Werkzeug. Jedes Werkzeug kann gefährlich sein, wenn Menschen es mit schlechten Absichten verwenden, oder es verwenden ohne zu wissen wie es richtig funktioniert. Bei der KI ist das nicht anders. Man kann KI für Schlechtes verwenden, was gefährlich sein kann. Aber die KI selbst ist dabei nicht die Gefahr. Aber: wie auch bei anderen Werkzeugen, muss da reguliert werden, wie man damit umgehen darf, und was erlaubt ist!

    • Foto: Franco Rau

      Franco Rau Beantwortet am 24 Sep 2024:


      Moin! Um mal den Advocatus Diaboli zu spielen, möchte ich drei Aspekte als Gefahr durchaus noch einmal hervorheben. Auch wenn ich nicht die Sorge teile, dass uns KI bald wie in Filmen á la Skynet übernehmen wird, sollten wir die Herausforderungen nicht ignorieren:

      (1) Nachhaltigkeit und Ressourcenverbrauch: KI-Systeme, besonders die großen wie bei Microsoft oder Google, verbrauchen unglaublich viel Energie und Wasser. Wie Yves schon erwähnt hat, müssen Firmen überlegen, wie sie den Strombedarf für KI decken. Die Gefahr besteht darin: Wenn KI weiterhin so viel Energie verbraucht (und in Zukunft vermutlich noch mehr), könnte das den Umstieg auf erneuerbare Energien erschweren – also genau das, was wir für den Klimaschutz dringend brauchen. In diesem Sinne könnte KI auch die UN-Nachhaltigkeitsziele gefährden, insbesondere in Bezug auf saubere Energie und Klimaschutz.

      (2) Desinformation und Manipulation: Ein weiteres Risiko ist die Verbreitung von Falschinformationen. Fabian hat das Thema bereits angesprochen, aber ich sehe das Problem größer, als es auf den ersten Blick scheint. KI kann täuschend echt wirkende Bilder, Videos und Texte erstellen. Es ist bereits jetzt enorm schwierig, echte von gefälschten Informationen zu unterscheiden, was zum Beispiel auch unsere Demokratie und die Vertrauenswürdigkeit von Medien beeinflussen könnte. Deepfakes und Social Bots sind hier echte Herausforderungen, besonders wenn Plattformen wie X (ehemals Twitter) die Contentmoderation reduzieren.

      (3) Datenschutz: KI wertet riesige Mengen an Daten aus, zum Beispiel bei der Spracherkennung. Das mag praktisch sein, aber es stellt eine große Herausforderung für unser Recht auf informationelle Selbstbestimmung dar. Wir müssen uns fragen: Wer hat Zugriff auf diese Daten und wie werden sie genutzt? In einem Rechtsstaat und einer Demokratie haben wir eine gewisse Komfortzone, die jedoch nicht allen Menschen auf der Erde zur Verfügung steht.

Kommentare