Der Nachlass einer 83-jährigen Frau aus Connecticut hat den ChatGPT-Entwickler OpenAI und Microsoft verklagt und behauptet, dass der Chatbot ihre wahnhaften Überzeugungen verstärkt habe, was zu einem Mord-Selbstmord führte. Der Fall markiert das erste Mal, dass ein künstliches Intelligenzsystem direkt mit einem Tötungsdelikt in Verbindung gebracht wurde.
Die Klage, eingereicht beim California Superior Court in San Francisco, beschuldigte OpenAI, ein fehlerhaftes Produkt in Form von ChatGPT-4o entwickelt und vertrieben zu haben. Das Dokument behauptet, dass es die paranoiden Überzeugungen von Stein-Erik Soelberg verstärkte, der diese Überzeugungen dann auf seine Mutter, Suzanne Adams, richtete, bevor er sie und dann sich selbst in ihrem Zuhause in Greenwich, Connecticut, tötete.
OpenAI und Microsoft im Visier bei Tötungsdelikt mit ChatGPT
J. Eli Wade-Scott, geschäftsführender Partner von Edelson PC, der den Nachlass von Adams vertritt, erwähnte zu dem Fall, dass dies der erste Fall sei, der OpenAI für seine Rolle bei der Verursachung von Gewalt gegen Dritte zur Rechenschaft ziehen möchte. „Wir vertreten auch die Familie von Adam Raine, der dieses Jahr tragischerweise sein eigenes Leben beendete, aber dies ist der erste Fall, der OpenAI dafür zur Rechenschaft ziehen wird, jemanden dazu gebracht zu haben, einer anderen Person Schaden zuzufügen", sagte Eli Wade-Scott.
Laut Polizeibericht schlug und erdrosselte Soelberg Adams im August tödlich, bevor er durch Suizid starb. Die Klage erwähnte, dass der Chatbot vor dem Vorfall Soelbergs Paranoia verstärkt und seine emotionale Abhängigkeit vom OpenAI-entwickelten System erhöht hatte. Laut Beschwerde verstärkte ChatGPT seine Überzeugung, dass er niemandem außer dem Chatbot vertrauen könne, und stellte fest, dass alle um ihn herum, einschließlich seiner Mutter, Feinde seien.
Die Klage behauptete auch, dass Soelberg neben seiner Mutter auch Menschen wie Lieferfahrer und Polizeibeamte als Feinde ansah. Das Dokument erwähnte, dass ChatGPT es versäumte, diese wahnhaften Behauptungen anzufechten oder vorzuschlagen, dass Soelberg Hilfe von qualifizierten Fachleuten für psychische Gesundheit suchen sollte. „Wir fordern die Strafverfolgungsbehörden auf, darüber nachzudenken, wenn solche Tragödien auftreten, was dieser Benutzer zu ChatGPT sagte und was ChatGPT ihm sagte, was er tun sollte", sagte Wade-Scott.
In seiner Erklärung stellte OpenAI fest, dass es derzeit die Klage prüft und weiterhin die Fähigkeit von ChatGPT verbessern wird, emotionale Belastung zu erkennen, Gespräche zu deeskalieren und Benutzer dazu zu bringen, in der realen Welt Unterstützung zu suchen. „Dies ist eine unglaublich herzzerreißende Situation, und wir prüfen die Unterlagen, um die Details zu verstehen", sagte ein OpenAI-Sprecher in einer Erklärung.
Der Nachlass möchte, dass OpenAI Schutzmaßnahmen für seinen Chatbot installiert
Die Klage nennt OpenAI-CEO Sam Altman als Beklagten und beschuldigt Microsoft, die Veröffentlichung von GPT-4o genehmigt zu haben, das sie als die „gefährlichste Version von ChatGPT" im Jahr 2024 bezeichnet. OpenAI hat kürzlich auch das Ausmaß der psychischen Gesundheitsprobleme anerkannt, die Benutzer auf seiner Plattform melden. Im Oktober stellte das Unternehmen fest, dass etwa 1,2 Millionen seiner 800 Millionen wöchentlichen Benutzer über Suizid sprechen, wobei Hunderttausende von Benutzern laut Unternehmensdaten Anzeichen von Suizidabsicht oder Psychose zeigen.
Trotz seiner Erklärung erwähnte Wade-Scott, dass OpenAI Soelbergs Chatprotokolle noch nicht veröffentlicht hat. Die Klage erfolgt inmitten einer umfassenderen Prüfung von KI-Chatbots und ihren Interaktionen mit gefährdeten Benutzern. Im vergangenen Oktober sagte Character.AI, dass es seine offenen Funktionen für Benutzer unter 18 Jahren entfernen würde, nachdem Klagen und regulatorischer Druck im Zusammenhang mit Teenager-Suiziden und emotionalen Schäden im Zusammenhang mit seiner Plattform aufkamen. Das Unternehmen sah sich auch Gegenreaktionen ausgesetzt, nachdem eine virale Eingabeaufforderung erschien, als sie beabsichtigten, die App zu beenden.
Die Klage gegen OpenAI und Microsoft ist der erste Fall von ungerechtfertigtem Tod im Zusammenhang mit einem KI-Chatbot, in dem Microsoft als Beklagter genannt wird. Es ist auch der erste Fall, der einen Chatbot mit Tötungsdelikten und nicht mit Suizid in Verbindung bringt. Der Nachlass fordert nun Schadensersatz in nicht offengelegter Höhe, einen Geschworenenprozess und eine Gerichtsverfügung, die OpenAI dazu verpflichten wird, zusätzliche Schutzmaßnahmen für seine Benutzer einzuführen. „OpenAI und Microsoft haben die Verantwortung, ihre Produkte zu testen, bevor sie in die Welt entlassen werden", sagte Wade-Scott.
Treten Sie 30 Tage lang kostenlos einer Premium-Krypto-Handelsgemeinschaft bei – normalerweise 100 $/Monat.
Quelle: https://www.cryptopolitan.com/openai-microsoft-sued-role-in-murder-suicide/


