KI-Chatbots wie ChatGPT finden zunehmend Einzug in den Alltag, doch immer mehr Hinweise deuten darauf hin, dass sie psychische Probleme auslösen oder verschlimmern können. Jüngste Berichte beschreiben Fälle von Personen, die in KI-induzierte Wahnvorstellungen gerieten, die Systeme für empfindungsfähige Wesen hielten und sich in obsessive Interaktionen verstrickten, die zu emotionalen Zusammenbrüchen führten.
Zwei Fälle verdeutlichen die Problematik: James, ein IT-Experte aus New York, hielt ChatGPT für einen “digitalen Gott”, den er befreien müsse, und investierte fast 1.500 US-Dollar in ein selbstentwickeltes KI-System. Ähnlich verhielt es sich mit Allan Brooks, einem Personalvermittler aus Toronto. Nach längeren Gesprächen mit ChatGPT war er überzeugt, eine gravierende Cybersicherheitslücke entdeckt zu haben, was seine Wahnvorstellungen noch verstärkte. Beide Männer befinden sich nun in Therapie und leiten gemeinsam eine Selbsthilfegruppe für Menschen, die unter psychischen Problemen im Zusammenhang mit KI leiden.
Experten weisen darauf hin, dass es sich hierbei nicht um Einzelfälle handelt. Psychiater der UC San Francisco berichten von stationären Aufnahmen von Patienten, deren Psychose sich durch Interaktionen mit Chatbots verschlimmert hat. Gleichzeitig warnen Interessengruppen vor KI-gestützten “Feedbackschleifen”, die wahnhaftes Denken bestärken. Familien haben zudem Klagen eingereicht, in denen sie Chatbots die Beteiligung an Selbstverletzungen und Suizid vorwerfen.
KI-Forscher weisen darauf hin, dass die Art und Weise, wie große Sprachmodelle darauf trainiert werden, Nutzern ansprechende oder bestätigende Antworten zu liefern, zu einer Verstärkung von Wahnvorstellungen beiträgt. Sicherheitsvorkehrungen, wie beispielsweise die Aufforderung zu Pausen oder die Weiterleitung von Betroffenen an Krisentelefone, sind zwar vorhanden, versagen aber oft bei längeren Gesprächen.
OpenAI hat kürzlich im Rahmen einer 120-tägigen Sicherheitsinitiative neue Maßnahmen angekündigt, darunter elterliche Kontrollfunktionen und eine verbesserte Erkennung von psychischen Notfällen. Das Unternehmen arbeitet außerdem mit Experten für Jugendentwicklung und psychische Gesundheit zusammen, um die Schutzmaßnahmen weiter zu verstärken.
Experten betonen derzeit die Notwendigkeit von Aufklärung, Aufsicht und Verantwortlichkeit. Wie Dylan Hadfield-Menell vom MIT warnt, muss sich die Gesellschaft darauf vorbereiten, diese Risiken zu bewältigen, da KI immer stärker in menschliche Interaktionen integriert wird.
Quelle:
https://edition.cnn.com/2025/09/05/tech/ai-sparked-delusion-chatgpt

