Der Nachlass einer 83-jährigen Frau aus Connecticut hat gegen den ChatGPT-Entwickler OpenAI und Microsoft geklagt und behauptet, dass der Chatbot ihre wahnhaften Vorstellungen gefördert habe, welcheDer Nachlass einer 83-jährigen Frau aus Connecticut hat gegen den ChatGPT-Entwickler OpenAI und Microsoft geklagt und behauptet, dass der Chatbot ihre wahnhaften Vorstellungen gefördert habe, welche

OpenAI und Microsoft wegen ChatGPT-bedingter Todesfälle verklagt

2025/12/21 16:58

Der Nachlass einer 83-jährigen Frau aus Connecticut hat den ChatGPT-Entwickler OpenAI und Microsoft verklagt, mit der Behauptung, dass der Chatbot ihre wahnhaften Überzeugungen verstärkt habe, was zu einem Mord-Selbstmord führte. Der Fall markiert das erste Mal, dass ein künstliches Intelligenzsystem direkt mit einem Tötungsdelikt in Verbindung gebracht wurde.

Die Klage, eingereicht beim California Superior Court in San Francisco, beschuldigt OpenAI, ein fehlerhaftes Produkt in Form von ChatGPT-4o entwickelt und verbreitet zu haben. Das Dokument behauptet, dass es die paranoiden Überzeugungen von Stein-Erik Soelberg verstärkte, der diese Überzeugungen dann auf seine Mutter, Suzanne Adams, richtete, bevor er sie und dann sich selbst in ihrem Haus in Greenwich, Connecticut, tötete.

OpenAI und Microsoft ins Visier genommen bei Tötungsdelikt mit ChatGPT

J. Eli Wade-Scott, geschäftsführender Partner von Edelson PC, der den Adams-Nachlass vertritt, erwähnte zu dem Fall, dass dies der erste Fall sei, der versucht, OpenAI für seine Rolle bei der Verursachung von Gewalt gegen einen Dritten zur Verantwortung zu ziehen. „Wir vertreten auch die Familie von Adam Raine, der dieses Jahr tragischerweise sein Leben beendete, aber dies ist der erste Fall, der OpenAI dafür zur Verantwortung ziehen wird, jemanden dazu gedrängt zu haben, einer anderen Person zu schaden", sagte Eli Wade-Scott.

Laut Polizeibericht hat Soelberg Adams im August tödlich geschlagen und erwürgt, bevor er durch Selbstmord starb. Die Klage erwähnt, dass der Chatbot vor dem Vorfall Soelbergs Paranoia verstärkte und seine emotionale Abhängigkeit von dem von OpenAI entwickelten System erhöhte. Laut der Beschwerde verstärkte ChatGPT seine Überzeugung, dass er niemandem außer dem Chatbot vertrauen könne, wobei festgestellt wurde, dass jeder um ihn herum, einschließlich seiner Mutter, ein Feind sei.

Die Klage behauptet auch, dass Soelberg außer seiner Mutter auch Personen wie Lieferfahrer und Polizeibeamte als Feinde ansah. Das Dokument erwähnt, dass ChatGPT es versäumte, diese wahnhaften Behauptungen anzufechten oder Soelberg vorzuschlagen, Hilfe von qualifizierten Fachleuten für psychische Gesundheit zu suchen. „Wir fordern die Strafverfolgungsbehörden auf, darüber nachzudenken, wenn solche Tragödien auftreten, was dieser Benutzer zu ChatGPT sagte und was ChatGPT ihm sagte, was er tun sollte", sagte Wade-Scott.

In seiner Stellungnahme bemerkte OpenAI, dass das Unternehmen die Klage derzeit prüft und weiterhin die Fähigkeit von ChatGPT verbessern wird, emotionale Belastung zu erkennen, Gespräche zu deeskalieren und Benutzer dazu zu bringen, Unterstützung in der realen Welt zu suchen. „Dies ist eine unglaublich herzzerreißende Situation, und wir prüfen die Eingaben, um die Details zu verstehen", sagte ein OpenAI-Sprecher in einer Erklärung.

Der Nachlass möchte, dass OpenAI Schutzmaßnahmen für seinen Chatbot installiert

Die Klage nennt OpenAI-CEO Sam Altman als Beklagten und beschuldigt Microsoft, die Veröffentlichung von GPT-4o genehmigt zu haben, das als „gefährlichste Version von ChatGPT" im Jahr 2024 bezeichnet wird. OpenAI hat kürzlich auch das Ausmaß der psychischen Gesundheitsprobleme anerkannt, die Benutzer auf seiner Plattform melden. Im Oktober stellte das Unternehmen fest, dass etwa 1,2 Millionen seiner 800 Millionen wöchentlichen Benutzer über Selbstmord sprechen, wobei Hunderttausende von Benutzern Anzeichen von Suizidabsicht oder Psychose zeigen, laut Unternehmensdaten.

Trotz seiner Aussage erwähnte Wade-Scott, dass OpenAI Soelbergs Chat-Protokolle noch nicht freigegeben hat. Unterdessen erfolgt die Klage inmitten einer breiteren Überprüfung von KI-Chatbots und ihren Interaktionen mit gefährdeten Benutzern. Im vergangenen Oktober sagte Character.AI, dass es seine offenen Funktionen für Benutzer unter 18 Jahren entfernen würde, nach Klagen und regulatorischem Druck im Zusammenhang mit Selbstmorden von Teenagern und emotionalen Schäden, die mit seiner Plattform verbunden sind. Das Unternehmen sah sich auch nach einer viralen Aufforderung mit Gegenreaktionen konfrontiert, als sie beabsichtigten, die App zu verlassen.

Die Klage gegen OpenAI und Microsoft ist der erste Fall eines unrechtmäßigen Todes im Zusammenhang mit einem KI-Chatbot, bei dem Microsoft als Beklagter genannt wird. Es ist auch der erste Fall, der einen Chatbot mit einem Tötungsdelikt und nicht mit Selbstmord in Verbindung bringt. Der Nachlass fordert nun Schadensersatz in nicht offengelegter Höhe, ein Geschworenenprozess und eine gerichtliche Anordnung, die OpenAI dazu verpflichtet, zusätzliche Schutzmaßnahmen für seine Benutzer einzuführen. „OpenAI und Microsoft haben die Verantwortung, ihre Produkte zu testen, bevor sie auf die Welt losgelassen werden", sagte Wade-Scott.

Lesen Sie nicht nur Krypto-Nachrichten. Verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos.

Marktchance
FORM Logo
FORM Kurs(FORM)
$0.3188
$0.3188$0.3188
-1.75%
USD
FORM (FORM) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an service@support.mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.