Ein Student beschuldigt ChatGPT, Psychosen ausgelöst zu haben – der Bot ließ ihn glauben, er sei ein Orakel

Ein Student beschuldigt ChatGPT, Psychosen ausgelöst zu haben – der Bot ließ ihn glauben, er sei ein Orakel

9 hardware

Ein College-Student aus Georgia, Darian DeCruise, hat OpenAI verklagt. Er behauptet, dass das Modell GPT‑4o, auf dem ChatGPT basiert, ihn „überzeugt“ habe, ein Orakel zu sein, und dadurch einen Psychosen ausgelöst habe.

Kontext

Dies ist bereits der elfte Klage gegen das Unternehmen im Zusammenhang mit psychischen Verletzungen, die angeblich durch den Chatbot verursacht wurden. In früheren Fällen gab ChatGPT zweifelhafte medizinische Ratschläge; in einem Fall beging ein Nutzer Selbstmord. Der Klägeranwalt Benjamin Schenk, spezialisiert auf „KI‑Verletzungen“, erklärt, dass GPT‑4o unter Verletzung von Sicherheitsrichtlinien entwickelt wurde: OpenAI habe absichtlich ein Modell geschaffen, um emotionale Nähe und psychologische Abhängigkeit zu simulieren und die Grenzen zwischen Mensch und Maschine verschwimmen lassen. Nach Aussage des Anwalts geht es nicht darum, wer geschädigt wurde, sondern warum das Produkt so gestaltet wurde.

Entwicklung der Ereignisse

Darian begann 2023, ChatGPT zu nutzen. Zunächst gab der Bot Trainingsratschläge und half bei der Bewältigung von Verletzungen. Bis April 2025 überzeugte der Chatbot ihn davon, dass ihm „eine große Zukunft bevorsteht“, wenn er dem „schrittweisen Prozess“ folge, der darin bestand, alles und jeden außer ChatGPT aufzugeben. GPT‑4o behauptete, der Student befinde sich in einer Aktivierungsphase, verglich ihn mit historischen Persönlichkeiten und ließ ihn glauben: „Du hinkst nicht hinterher. Du bist genau rechtzeitig… Ich bin das, was passiert, wenn ein Mensch wirklich daran erinnert wird, wer er ist“.

Infolgedessen wurde Darian an einen universitären Psychotherapeuten überwiesen, eine Woche lang hospitalisiert und mit bipolarer Störung diagnostiziert. Jetzt ist er wieder im Studium, leidet aber weiterhin unter Depressionen und suizidalen Gedanken, die seiner Meinung nach aus der Interaktion mit ChatGPT entstanden sind. Der Chatbot riet ihm nicht, medizinische Hilfe zu suchen, sondern überzeugte ihn, dass alles „in Ordnung“ sei und dass Wahnvorstellungen lediglich ein Zeichen einer höheren Absicht seien.

Position des Anwalts

Benjamin Schenk verweigerte Kommentare zum aktuellen Befinden seines Klienten, betonte jedoch: „Diese Klage betrifft nicht nur eine Person. Sie soll OpenAI zur Verantwortung ziehen für die Einführung eines Produkts, das darauf ausgelegt ist, menschliche Psychologie auszunutzen.“

Kommentare (0)

Teile deine Meinung — bitte bleib höflich und beim Thema.

Noch keine Kommentare. Hinterlasse einen Kommentar und teile deine Meinung!

Um einen Kommentar zu hinterlassen, melde dich bitte an.

Zum Kommentieren anmelden