ChatGPT (und andere KI-Dienste) kann man gut für Dinge benutzen, bei denen man schnell die Korrektheit überprüfen kann. Für kleine Standardaufgaben. Gestern z.B. brauchte ich für ein Proof-of-Concept eine kleine HTML-Seite mit einem Formular und etwas JavaScript-Code. Das hat wunderbar geklappt.
Aber bei vielen anderen Dingen fängt das Teil halt wild an zu halluzinieren.
Ein Beipiel: Bei meinem aktuellen Lieblingsspiel wird der Titelsong sowohl im Intro, als auch bei den Credits am Ende gespielt, allerdings mit anderem Text. So wird im Refrain aus der Frage "Am I raindrops in the flood?" am Ende die Aussage "I am raindrops in the flood.". Dazu wollte ich - nur so aus Spaß, um das System zu testen - mal eine Interpretation von ChatGPT haben, und eine Einordnung bzgl. der Charakter-Entwicklung der Hauptfigur.
Das Ding fing dann an, irgendwelche Textzeilen herbeizufantasieren. Auf Nachfrage, dass keine der zitierten Zeilen in dem Lied vorkommt, kam das übliche: "Ja, du hast recht ..." und es wurden neue Textzeilen erfunden, mit demsebben BS-Gelaber wie in der ersten Antwort. Für sowas sind diese Modelle komplett unbrauchbar. Zumindest wenn man mehr will als viele Worte nach dem Motto "100% selbstsicheres Auftreten bei völliger Ahnungslosigkeit."
_________________
We are, we were and will not be.