• Frage: Glauben sie, dass Ki eine ernstzunehmende Gefahr für die Menschheit ist?

    Frage gestellt date28axe am 23 Sep 2024. Diese Frage wurde auch von have28van gestellt.
    • Foto: Jasmin Breitenstein

      Jasmin Breitenstein Beantwortet am 23 Sep 2024:


      Ich glaube das nicht. KI ist in erster Linie ein Mittel zum Zweck und es kommt darauf an, wer sie wie nutzt. Wie jede neue Technologie gibt es natürlich gute und nicht so gute Anwendungen und wir müssen uns dafür einsetzen, dass die Vorteile überwiegen. Gleichzeitig sind natürlich Regelungen für den Einsatz von KI wichtig, genauso wie mögliche Verteidigungen gegen schädliche Anwendungen von KI.

    • Foto: Fabian Zehner

      Fabian Zehner Beantwortet am 23 Sep 2024: last edited 23 Sep 2024 2:09 pm


      Meine kurze (und naive) Antwort ist Nein. Vieles ist Panikmache und Unverständnis über das, was die aktuellen Methoden eigentlich tun.

      Allerdings verfolge ich seit einiger Zeit mit wachsendem Stirnrunzeln, >wie< KI eingesetzt wird. Sprich: Nicht die KI selbst ist die Gefahr, sondern das, was der Mensch damit macht.

      Es gibt ja viele Geschichten und Filme von KIs, die plötzlich auf die Idee kommen, dass es viel besser für die Welt wäre, wenn sie die Menschen überwältigen würde. Auf solche Ideen kommen die sogenannten schwachen KIs, die wir aktuell haben, aber gar nicht. Sie haben keinen eigenen Antrieb oder Ziele, sie haben auch nicht plötzlich Zugriff auf den Sicherheitszaun um eine Forschungsanlage oder gar die Energieversorgung einer Stadt. Und diesen eigenen Antrieb werden sie (aus meiner Sicht) auch nie bekommen. Dann wäre sie eine starke KI. Das kann sich vielleicht ändern, sollten wir Menschen irgendwann verstehen, was Bewusstsein ist und es nachbauen können.

      Was aber nun, wenn wir den schwachen KIs mit all ihren bekannten und unbekannten Fehlern plötzlich Zugriff geben? Im Hype rund um GPT letztes Jahr etwa haben so einige dem Chatbot direkt Zugriff auf ihren Computer gegeben. Oder Zugriff auf Onlinedienste (über sog. APIs), sodass die Chatbots beispielsweise auf X/Twitter posten konnten. Der Chatbot konnte damit alles tun, was man mit einem Computer nunmal machen kann, und auch viele andere Menschen über Sprache erreichen. Diese Chatbots haben dabei keinen bösen Willen; sie haben ja, wie gesagt, keinen Antrieb. Aber sie machen Fehler und können z. B. sozusagen versehentlich schlechte Dinge auf den eigenen Computer laden, Dateien auf dem Computer so verändern, dass er nicht mehr funktioniert, halluzinierte Falschinformationen über Onlinedienste verbreiten und Ähnliches. Deshalb bin ich der Meinung, dass die Menschen gerade einige Ingenieursfehler begehen, die nicht in der Gefährlichkeit der KI begründet sind, sondern darin, dass so einige nicht ganz wissen, was sie da eigentlich tun.

      Als ein weiteres Beispiel gibt es Berichte von Personen mit psychischen Störungen (wie Depression), die mit den Chatbots schreiben und dann schlechten Ratschlägen mit ernstzunehmenden Konsequenzen folgen. Auch das ist ein Risiko, das in der Nutzung durch den Menschen besteht.

      Es gibt natürlich auch die Möglichkeit, dass übelmeinende Menschen die KI so gestalten, _dass_ sie durchaus schlechte Dinge verfolgt. Auch das ist wieder vom Menschen ausgehend und deshalb gibt es zum Beispiel inzwischen von der EU Richtlinien für den Einsatz von KI in bestimmten Bereichen. Und übrigens sieht man solche Tendenzen bereits in der Wissenschaft: Es gibt immer mehr wissenschaftliche Publikationen, die einfach nur automatisch generiert sind und u.a. die Wissenschaft in einem schlechten Licht dastehen lassen. Schaut euch zum Beispiel mal die Abbildung von einer Ratte an, die vermeintliche Wissenschaftler*innen in einer wissenschaftlichen Zeitschrift veröffentlicht haben: https://garymarcus.substack.com/p/the-exponential-enshittification — dass eine normale Ratte so nicht aussieht und auch die Abbildungsbeschriftungen nichtmal richtige Wörter sind, erkennt man ja eigentlich schnell, aber leider ist das in den Qualitätskontrollen nicht aufgefallen. Auch diese Kontamination von Informationen und große Menge neuer Informationen ist ein ernstzunehmendes Risiko in der Art und Weise, wie die generativen KIs zur Verfügung stehen.

    • Foto: Sabrina Frohn

      Sabrina Frohn Beantwortet am 23 Sep 2024:


      Hauptsächlich nein, aber ein bischen ja. Ich sehe es ähnlich wie Fabian und Jasmin, dass viel der schlechten Erzählungen unnötig Panik auslösen und die KI an sich keine Gefahr ist. Allerdings, wie Fabian auch gesagt hat, besteht die Möglichkeit, dass KI für schlechte Sachen genutzt werden könnte oder wird. Hier müssen Wissenschaftler:innen zu forschen und informieren, Politiker:innen Gesetze verabschieden, und alle Menschen aufpassen und hinschauen. So können wir bestimmen was mit KI gemacht werden darf und was nicht.

Kommentare