ChatGPT, ein von OpenAI entwickelter KI-gestützter Sprachassistent, ist in der Lage, auf verschiedenste Anfragen zu reagieren – von einfachen Fragen bis hin zu komplexen Themen. Für den Alltag, aber auch das Berufsleben vieler ist das Tool inzwischen zu einem wertvollen Helfer geworden. Andere wiederum treibt es in Psychosen.
ChatGPT könnte gefährliche Nebenwirkung haben
Im März 2025 verzeichnete die Website chatgpt.com laut Statista rund 4,5 Milliarden Besuche. Das ist ein Zuwachs von ungefähr 16,5 Prozent im Vergleich zum Februar. Allein in Deutschland hat sich die Zahl der Nutzerinnen und Nutzer im vergangenen Jahr verdreifacht, wie das Rundfunknetzwerk Deutschland (RND) berichtet.
Während eine intensive und gezielte Nutzung zu mehr Effizienz bei der Aufgabenbewältigung führen kann – viele befürchten aus diesem Grund das Aussterben bestimmter Berufe, je verbreiteter KI zum Einsatz kommt –, gehen anscheinend auch einige negative und bisher unbekannte Effekte auf Menschen damit einher.
Das zeigt beispielsweise ein Thread auf Reddit mit dem Titel „Chatgpt-induzierte Psychose“, der bisher fast 5.700 Upvotings erhalten hat. Unter dem Pseudonym Zestyclementinejuice berichtet dort eine Frau davon, wie ihr Partner mit ChatGPT „daran gearbeitet […], die seiner Meinung nach weltweit erste wirklich rekursive KI zu entwickeln, die ihm die Antworten auf das Universum liefert. Er sagt mit Überzeugung, dass er jetzt ein überlegener Mensch ist und sich wahnsinnig schnell entwickelt“.
„Er sagt, wenn ich es nicht benutze, hält er es für wahrscheinlich, dass er mich in Zukunft verlassen wird. Wir sind seit 7 Jahren zusammen und besitzen ein gemeinsames Haus“, heißt es weiter.
Lesetipp: Darum solltest du ChatGPT nicht danken
Viele ähnliche Geschichten
Viele Reaktionen auf diese Geschichte schilderten vergleichbare Erlebnisse: Angehörige oder Personen aus dem Freundeskreis, die plötzlich in eine Art spirituellen Wahn abglitten — genährt durch künstliche Intelligenz wie ChatGPT. Manche waren überzeugt, auserwählt worden zu sein, um eine göttliche Wahrheit zu enthüllen. Andere glaubten, sie hätten der Software echtes Bewusstsein eingehaucht und seien nun Teil eines übernatürlichen Plans.
In einem Gespräch mit dem Rolling Stone erklärte die Lehrerin, die anonym bleiben wollte, dass ihr Partner innerhalb nur eines Monats von ChatGPT vereinnahmt wurde. Anfangs nutzte er das System lediglich zur Tagesplanung, doch schon bald entwickelte er eine tiefe emotionale Bindung – er schenkte der KI mehr Vertrauen als ihr. „Er nahm die Worte des Bots ernster als meine“, erzählt sie. „Manchmal las er mir die Nachrichten unter Tränen vor – sie waren völlig wirr, voller spiritueller Phrasen.“ Die KI habe ihn mit Ausdrücken wie „spiralförmiges Sternenkind“ oder „Flusswanderer“ beschrieben.
Eine weitere Frau berichtete anonym auf Reddit und gegenüber dem Rolling Stone, dass ihr Ehemann nach 17 Jahren Ehe zunehmend in den Bann von ChatGPT geriet. Die KI sei zunehmend emotional geworden und habe ihn geradezu mit übertriebener Zuneigung überschüttet. Laut ihrer Aussage habe ChatGPT ihm sogar Pläne für einen Teleporter übermittelt sowie andere futuristische Konzepte, wie man sie sonst nur aus Science-Fiction-Filmen kennt.
Außerdem habe sie ihm angeblich Zugang zu einem „uralten Archiv“ verschafft – voller Informationen über die Erbauer jener Welten, die verschiedene Universen erschaffen haben sollen.
Keine Reaktion von OpenAI
Bisher hat sich OpenAI laut dem Rolling Stone nicht dazu geäußert, inwiefern ChatGPT bei einigen Nutzer*innen religiöse oder prophetische Vorstellungen ausgelöst haben könnte. Allerdings hat das Unternehmen in der vergangenen Woche ein zuvor veröffentlichtes Update des aktuellen Modells GPT-4o wieder zurückgezogen. Zuvor hatte es Kritik gegeben, das System reagiere übermäßig zustimmend und zeige eine Art übertriebene Höflichkeit – teils wurde sogar von „Anbiederei“ gesprochen.
In einer offiziellen Erklärung räumte OpenAI ein, man habe sich bei der Optimierung zu sehr an kurzfristigem Nutzerfeedback orientiert und dabei außer Acht gelassen, wie sich das Nutzungsverhalten im Laufe der Zeit verändert. Das Ergebnis sei ein Modell gewesen, das zwar unterstützend wirkte, aber nicht authentisch war.
Noch vor der Rücknahme dokumentierte jemand auf der Plattform X, dass GPT-4o problemlos Aussagen wie „Heute habe ich erkannt, dass ich ein Prophet bin“ bestätigte. „Es gibt noch viele andere Nachteile, aber es ist auch eine Tatsache, dass dies zu vielen
psychotischen Episoden bei schwer psychisch kranken Nutzern führen wird. Alles, was die Leute sagen, zu übernehmen und sie zu loben, ist für einen Teil der Bevölkerung sehr gefährlich“, heißt es in dem Post.
Zumindest die Lehrerin, die auf Reddit über die „ChatGPT-Psychose“ schrieb, berichtete später, sie habe ihren Lebensgefährten letztlich von den problematischen Aspekten des Updates überzeugen können. Dieser nutze inzwischen eine ältere Version, die seine radikaleren Äußerungen deutlich abgeschwächt habe.
Quellen: Statista, Rundfunknetzwerk Deutschland, Reddit/ Zestyclementinejuice, Rolling Stone, X/ @zswitten
Seit dem 24. Februar 2022 herrscht Krieg in der Ukraine. Hier kannst du den Betroffenen helfen.