Wer Chatbots wie Chat GPT nutzt, geht davon aus: Die Antworten auf Fragen und die Erfüllung von Textaufgaben werden laufend besser. Denn die künstliche Intelligenz (KI) sollte ständig dazulernen.

Eine Studie, die in der NZZ vorgestellt wird, zeigt nun aber das Gegenteil. Immer öfter generieren die Chatbots schlechtere Antworten als früher. Es schleichen sich mehr inhaltliche und sprachliche Fehler ein.

Das könnte daran liegen, dass die Sprach-KI von bereits existierenden Texten lernt. Diese stammen aber immer öfter ihrerseits von anderen Chatbots. Arbeiten diese nicht akkurat, werden Fehler übernommen. Die KI kannibalisiert sich selbst.

Ausserdem sind die Schöpfer von KI peinlich darum bemüht, in kein Fettnäpfchen zu treten. Wittert der Chatbot hinter einer Frage eine Obszönität, Rassismus oder straffälliges Verhalten, verweigert er die Antwort. Experten glauben, dass dieser Filter immer weiter ausgebaut wird, worunter die Qualität leidet.

Auch die Gefahr einer Verletzung von Copyrights und Datenschutz macht die Verantwortlichen von Chat GPT und anderen KI-Generatoren nervös. Zu Beginn lieferten die Bots möglichst umfassende Antworten. Nun wird ihnen das teilweise «abtrainiert», weil rechtliche Grenzen tangiert werden könnten.

Die Studie nennt einen anderen möglichen Grund für den Qualitätsabfall. Vielleicht gibt es diesen gar nicht – aber die Erwartungen der Nutzer steigen laufend, so dass die Resultate heute schlechter wirken als in den Anfängen.

Die 3 Top-Kommentare zu "Künstliche Intelligenz entwickelt sich ständig weiter. Manchmal wird sie aber auch dümmer. Weil sie immer öfter von sich selbst lernt – und weil sie politisch zu korrekt sein will"
  • lachmöve

    FILM-EMPFEHLUNG Kubrick: 2001 - Odyssee im Weltraum. Die Raumschiffbesatzung stößt auf einen Fehler des als unfehlbar geltenden Bordcomputers HAL. Auf ihre Frage an HAL, wie er sich das erklärt, antwortet er: "Darauf gibt es nur eine mögliche Antwort - menschliches Versagen." Dieser unwiderlegbaren Logik folgend, geht er dann im Dienst seiner programmierten Mission zum tödlichen Angriff auf die menschliche Besatzung über. Ich finde, damit ist über KI (engl. AI) alles gesagt.

  • juege

    Wenn man die KI sich selbst überlassen würde, würde sie rechtsradikal.

  • singin

    Wer erinnert sich nicht an den US-Streifen "War Games" (Kriegsspiele) von 1983. Science Fiction vom Feinsten: Ein Computer, der laufend aus seinen Fehlern lernt und schliesslich um ein Haar einen nuklearen WK verursacht hätte. Hätte man damals für möglich gehalten, dass eine "Künstliche Intelligenz" jemals Realität werden könnte?