Wer Chatbots wie Chat GPT nutzt, geht davon aus: Die Antworten auf Fragen und die Erfüllung von Textaufgaben werden laufend besser. Denn die künstliche Intelligenz (KI) sollte ständig dazulernen.
Eine Studie, die in der NZZ vorgestellt wird, zeigt nun aber das Gegenteil. Immer öfter generieren die Chatbots schlechtere Antworten als früher. Es schleichen sich mehr inhaltliche und sprachliche Fehler ein.
Das könnte daran liegen, dass die Sprach-KI von bereits existierenden Texten lernt. Diese stammen aber immer öfter ihrerseits von anderen Chatbots. Arbeiten diese nicht akkurat, werden Fehler übernommen. Die KI kannibalisiert sich selbst.
Ausserdem sind die Schöpfer von KI peinlich darum bemüht, in kein Fettnäpfchen zu treten. Wittert der Chatbot hinter einer Frage eine Obszönität, Rassismus oder straffälliges Verhalten, verweigert er die Antwort. Experten glauben, dass dieser Filter immer weiter ausgebaut wird, worunter die Qualität leidet.
Auch die Gefahr einer Verletzung von Copyrights und Datenschutz macht die Verantwortlichen von Chat GPT und anderen KI-Generatoren nervös. Zu Beginn lieferten die Bots möglichst umfassende Antworten. Nun wird ihnen das teilweise «abtrainiert», weil rechtliche Grenzen tangiert werden könnten.
Die Studie nennt einen anderen möglichen Grund für den Qualitätsabfall. Vielleicht gibt es diesen gar nicht – aber die Erwartungen der Nutzer steigen laufend, so dass die Resultate heute schlechter wirken als in den Anfängen.
Sie müssen sich anmelden, um einen Kommentar abzugeben.
Noch kein Kommentar-Konto? Hier kostenlos registrieren.
FILM-EMPFEHLUNG Kubrick: 2001 - Odyssee im Weltraum. Die Raumschiffbesatzung stößt auf einen Fehler des als unfehlbar geltenden Bordcomputers HAL. Auf ihre Frage an HAL, wie er sich das erklärt, antwortet er: "Darauf gibt es nur eine mögliche Antwort - menschliches Versagen." Dieser unwiderlegbaren Logik folgend, geht er dann im Dienst seiner programmierten Mission zum tödlichen Angriff auf die menschliche Besatzung über. Ich finde, damit ist über KI (engl. AI) alles gesagt.
Wenn man die KI sich selbst überlassen würde, würde sie rechtsradikal.
Wer erinnert sich nicht an den US-Streifen "War Games" (Kriegsspiele) von 1983. Science Fiction vom Feinsten: Ein Computer, der laufend aus seinen Fehlern lernt und schliesslich um ein Haar einen nuklearen WK verursacht hätte. Hätte man damals für möglich gehalten, dass eine "Künstliche Intelligenz" jemals Realität werden könnte?