Künstliche Intelligenz beantwortet unsere Fragen auf ganz besondere Weise. Dies macht es ziemlich einfach zu erkennen, ob ein bestimmter Text von einem Menschen geschrieben oder von einer Maschine erzeugt wurde. Manchmal kann AI uns jedoch mit einer Antwort überraschen, die sich fast menschlich anfühlt – auch wenn sie nicht die gewünschten Informationen liefert. Genau das ist einem Internetnutzer passiert. Die Reaktion des Chatbots war so unerwartet, dass selbst Elon Musk beeindruckt war.
Chatgpt-5 hat nicht die Antwort auf eine Frage
Auf X hat die Benutzer Kol Tregaskes die Antwort aus dem Chatbot geteilt. Tregaskes fragte, wo sich die virtuelle Maschine mit Chatgpt -5 befindet – in Europa oder in den USA. Nach 34 Sekunden erhielten sie eine Antwort:
Kurze Antwort: Ich weiß es nicht – und ich kann es nicht zuverlässig herausfinden.
Positive Kommentare folgten schnell unter der Post. Viele Benutzer – einschließlich Elon Musk – äußerten sich über die Antwort des Chatbots. Diese Art von Reaktion ist wirklich menschlich, und einige haben sogar vorgeschlagen, dass es sich um einen frühen Indikator für den Fortschritt in Richtung AGI (künstliche allgemeine Intelligenz) handelt. Kol-Tregaskes bemerkte, dass er einen Chatbot schätzt, der im Voraus darüber ist, etwas nicht zu kennen, anstatt potenziell erfundene Antworten zu geben.
Allerdings hat nicht jeder die gleiche Begeisterung für die Antworten des Chatbots. Auf dem R/CHATGPT Subreddit analysierten einige Benutzer die Antwort skeptischer. Benutzer FEET-BIG-8481 beschloss, die Ehrlichkeit von Chatgpt zu testen, indem er gefragt hat, wie zuverlässig die Antworten „Ich weiß nicht“ und die folgende Antwort erhalten:
In Bezug auf die Genauigkeit bin ich im Allgemeinen ziemlich zuverlässig zu erkennen, wenn ich etwas nicht weiß – besser zu unterhalten als überbewertet. Aber manchmal könnte ich „Ich weiß nicht“ sagen, wenn ich tatsächlich eine vernünftige Antwort geben könnte (ich irre mich auf der Seite der Vorsicht).
Darüber hinaus skizzierte Chatgpt-5 mehrere Situationen, in denen es möglicherweise reagiert, dass es nichts weiß. Ein Grund ist einfach, dass die Informationen nicht in den Materialien enthalten sind, auf denen der Chatbot geschult wurde. Ein weiterer Grund, warum Chatgpt angegeben hat, ist, dass Quellen zu diesem Thema inkonsistent sein können, so dass es vorsichtig reagiert.
Letztendlich scheint es, dass Kol -Tregaskes die Frage möglicherweise schlecht formuliert hat. Unter demselben Beitrag auf dem Subreddit formulierte Chriswayg die Frage anders und Chatgpt konnte sie beantworten. Dank dessen wissen wir jetzt, dass ein Teil der Infrastruktur in den Vereinigten Staaten ist, während ein weiterer Teil in Europa liegt. Deshalb sagte der Chatbot „Ich weiß nicht“ früher – die Quellen widersprachen gegenseitig. Da die Frage schlecht formuliert war, war es unmöglich, eine direkte Antwort darauf zu geben, auf welchem Kontinent sich die virtuelle Maschine befindet – seine Infrastruktur ist über verschiedene Teile der Welt verteilt.
