• Frage: Wo sind die Grenzen von KI?

    Frage gestellt prey28amp am 25 Sep 2024.
    • Foto: Karsten Weber

      Karsten Weber Beantwortet am 25 Sep 2024:


      Die Liste ist viel zu lang, um sie aufzuzählen. Die wichtigste Grenze aktueller KI-Systeme ist, dass sie extrem spezialisiert sind — sie können genau eine Aufgabe lösen, aber sonst nichts. Gemessen an den Fähigkeiten von Menschen und anderen Tieren, selbst sehr einfachen Organismen wie Stubenfliegen oder Ameisen, können KI-Systeme also sehr, sehr wenig. Obn sich das grundsätzlich ändern wird, ist umstritten. Viele sagen das es irgendwann eine AGI geben wird — eine Artificial General Intelligence, die alles kann. Ich habe da Zweifel, weil allein schon der Sinn einer AGI aus wirtschaftlichen Überlegungen nicht gegeben ist. Um es mit einer Analogie zu verdeutlichen: Wenn ich einen Schraubenschlüssel brauche, kaufe ich nicht gleichzeitig Stemmeisen und andere Werkzeuge.

      Eine weitere Grenze ist der Energieverbrauch: Biologische Gehirne sind extrem effizient. Schau Dir an, was eine Biene alles kann — sie hat 950.000 Neuronen und lebt von ein wenig Zuckersaft. Für die gleiche Leistung, erbracht von KI, brauchst Du viele Megawatt Strom und der Computer füllt ganze Hallen. Das wird sich auch nicht so schnell ändern, weil wir nicht wissen, wie biologische Computer, wenn Gehirne so nennen möchte, funktionieren — deshalb können wir sie nicht nachbauen.

      Eine dritte Grenze ist, dass manche KI-Wissenschaftler*innen annehmen, dass große Sprachmodelle wie ChatGPT nicht beliebig groß werden können, weil sie ab einer (nicht bekannten) Schwelle nicht mehr besser werden, wenn sie größer werden, sondern sogar schlechtere Leistungen erbringen. Hier wird man abwarten und darauf hoffen müssen, dass diese Befürchtungen falsch sind und/oder es bessere KI-Systeme mit anderen Algorithmen als heute geben wird, die diese Probleme nicht haben.

    • Foto: Katharina Weitz

      Katharina Weitz Beantwortet am 26 Sep 2024:


      Neben den technischen Grenzen (z.B. zu hoher Energieverbrauch, Rechenleistung) gibt es auch noch die ethische Grenze von KI. Wo diese liegt, das definieren die Menschen, zum Beispiel in einem Unternehmen, einem Land (z.B. Deutschland) oder einer größeren Gemeinschaft von Ländern (z.B. Europa). Stell dir vor, jemand möchte eine KI zur Erkennung von Personen einsetzen. Mithilfe von Kameras sollen Menschen erkannt werden und in einer Liste gespeichert, die andere Mitarbeitende sehen können. Dann wüsste ich immer, wo meine Kollegen und Kolleginnen gerade sind und müsste sie nicht suchen. Praktisch, oder? In dem Unternehmen finden das vielleicht einige Mitarbeitende gut, viele aber haben sicherlich Bedenken. Nun kann sich das Unternehmen nicht selbst aussuchen, ob es so ein KI-System einsetzt. Es muss sich an Gesetze und Vorschriften halten, zum Beispiel die Datenschutzgrundverordnung (DSGVO) und den AI-Act. In solchen Gesetzen wurde sich darauf geeinigt, was KI darf und wo die Grenzen sind. Zum Beispiel sagt die DSGVO, dass man nicht einfach persönliche Daten (wie Kamerabilder einer Person) aufzeichnen und nutzen darf.

      Wichtig ist also, dass wir uns überlegen: Wo möchten wir KI-Systeme einsetzen? Wo helfen sie und und wo wollen wir auf keinen Fall Entscheidungen oder Aufgaben einer KI überlassen? Du kannst ja mal für dich überlegen, für welche Aufgaben du eine KI sinnvoll findest und wo du sie eher nicht nutzen würdest!

    • Foto: Annegret Janzso

      Annegret Janzso Beantwortet am 26 Sep 2024:


      Das kann man sehr gut selbst testen! Ein beliebtes Beispiel in letzter Zeit ist, dass wenn man ChatGPT auf Englisch fragt „How many r are there in Strawberry“ (Wie viele r sind in Erdbeere) gibt es für alle Sprachen die Antwort „2“ – weil das in den meisten Sprachen die richtige Antwort ist und es so trainiert wurde. Im Englischen sind es aber 3. Das wurde mal versucht, anzupassen, indem angegeben wurde, dass ChatGPT für diese Frage mit „3“ antworten soll – was es dann in allen Sprachen gemacht hat, und damit in den meisten Sprachen falsch lag.
      Allgemein ist KI nie perfekt und macht Fehler, weshalb es sehr wichtig ist, die Ergebnisse selbst zu überprüfen. Sprach-KIs arbeiten mit Wahrscheinlichkeiten von Wortreihenfolgen, andere KIs mit anderen Wahrscheinlichkeiten. Aber man weiß, nur weil etwas wahrscheinlich ist, ist es nicht unbedingt richtig.
      Dann gibt es noch Probleme mit „Data-Bias“ in den Trainingsdaten. Das heißt, dass Daten manchen Sachen stärker repräsentieren als andere, obwohl beide gleich vorkommen können. Stell dir zum Beispiel vor, man würde eine KI auf allen Wikipedia-Daten trainieren. Die KI würde dann beispielsweise bei Fragen nach Berufen eher auf Männer referenzieren, weil es in Wikipedia sehr viele Einträge gibt zu Männern die bestimmte Berufe ausgeübt haben – was einfach daran liegt, dass Frauen lange Zeit diese Berufe gar nicht ausführen durften, und nicht-binäre Menschen lange Zeit gar nicht erwähnt wurden. Das reflektiert nicht die Realität, dass alle Menschen, unabhängig von Geschlechtsidentität Berufe ausführen können. Eine KI ist immer nur so gut wie ihre Trainingsdaten.

Kommentare