ChatGTP kann nicht anders als aus diesen oder jenen Quellen zu schöpfen, hat aber kein Bewußtsein, das es erlaubt, abstrakt zu denken, um mögliche Ungereimtheiten zu "durchschauen".
Ich denke auch, dass KI eine gewisse Fähigkeit zur Erkennung von Bedeutung nur vortäuscht.
Ich bin auch immer wieder verblüfft, wenn behauptet wird, ChatGPT hätte auch nur irgendein Level von logischem "Denken" (auch in diesem Thread). Man muss da nicht denken oder philosophieren, es reicht ein Blick in das Konzept LLM - statistische Zusammenhänge zwischen Worten, fertig. Ein LLM hat kein Konzept von Konzepten oder von Abstraktion. Mit genug "statistischer Tiefe" kann es das durchaus vortäuschen, mehr aber auch nicht. Man mag jetzt philosophieren "ja gut, aber, wenn die Tiefe beliebig groß wird, wo ist der Unterschied?", aber da reicht schon ein Sprachwechsel mit anderen Trainingsdaten und schon hat das Ding mehrere Gesichter.
Jedes Mal, wenn ich versuche, dieses fragwürdige Stück Marketinggranate zu nutzen, werde ich angelogen. Nicht mal simpelste Anweisungen wie "such das erste Paper zu Thema XY" bekommt es hin. Bei Suchmaschinen kann ich einfach das Thema eingeben und aufsteigend nach dem Datum sortieren oder das Datum nach vorne limitieren. ChatGPT beharrt drauf, die erste Publikation zu "constant-time programming" ist aus dem Jahre 2019, obwohl einiges zu ctgrind aus dem Jahre 2010 stammt.
Ein Freund nutzt regelmäßig ChatGPT, um C++ und verwandte Konzepte zu lernen und ich muss ihm ab und zu dann die ChatGPT-Aussagen wieder abtrainieren und das ganze korrekt aufrollen. Abseits von Boilerplate-Code und "schreib' den Text im Stile 'Politiker' um" finde ich beim besten Willen keinen seriösen Anwendungsfall für dieses Tool, egal wie oft ich nach den ewigen Lobeshymnen auch das neue Modell wieder teste.
Man muss aber auf KI von ChatGPT trennen. LLMs sind zwar für die Öffentlichkeit die Offenbarung Gottes, es gibt aber auch deutlich kompetentere KI je nach Einsatzgebiet.