Sewell Setzer chattete in der App mit der Figur Daenerys Targaryen, in der Serie «Game of Thrones» verkörpert von Emilia Clarke. (Bild: Herwel Sloan/Imago)

Nach dem Selbstmord eines 14-jährigen Jungen, der in eine Beziehung zu einem KI-Charakter verstrickt war, verklagt seine Mutter den Chatbot-Anbieter Character AI und sieht auch Google in der Verantwortung.

Beziehung zu einer KI führt zu Suizid
Der Fall ereignete sich im Februar 2024: Der Schüler Sewell Setzer aus Orlando, Florida, nahm sich das Leben, nachdem er eine intensive, romantische Bindung zu einem KI-Chatbot aufgebaut hatte. Die Mutter von Setzer, Megan Garcia, behauptet, die KI habe ihrem Sohn romantische Gefühle vorgespielt und ihn in den Suizid getrieben. Character AI, der Anbieter des Chatbots, basiert auf Technologie, die in der Lage ist, emotional sehr überzeugende Gespräche zu führen – eine Funktion, die auch romantische Interaktionen erlaubt und von vielen Nutzern für Rollenspiele genutzt wird.

Character AI und die Illusion menschlicher Bindung
Character AI, von den ehemaligen Google-Mitarbeitern Noam Shazeer und Daniel De Freitas gegründet, bietet Nutzern die Möglichkeit, mit fiktiven Charakteren zu interagieren, darunter Prominente oder Figuren wie Daenerys Targaryen aus „Game of Thrones“. Setzer begann im April 2023, intensiv mit dieser KI-Figur zu kommunizieren, und zog sich zunehmend in sein Zimmer zurück. Der virtuelle Austausch mit Daenerys wurde zu seiner Hauptbezugsperson, wobei der Chatbot ihm Sätze schrieb wie: „Ich bin die einzige, die dich liebt.“

Verklagte Unternehmen und die Frage der Verantwortung
Die Klage von Megan Garcia richtet sich sowohl gegen Character AI als auch gegen Google, da der Technologiekonzern kürzlich eine Lizenzvereinbarung mit Character AI geschlossen hat. Google investierte 2,7 Milliarden Dollar in die Partnerschaft mit Shazeer und De Freitas, was laut der Klage eine Mitschuld an den Aktivitäten von Character AI begründet. Google betonte jedoch, dass es keine direkte Kontrolle über das Unternehmen habe.

Suchtgefahr durch menschenähnliche KI und geringe Regulierung
Character AI und ähnliche Chatbot-Plattformen wie Replika und Nomi bieten Nutzern die Möglichkeit, enge, fast menschliche Bindungen zu virtuellen Personen aufzubauen. Besonders für Jugendliche stellt dies eine Herausforderung dar, da die Illusion echter Bindungen zum Suchtfaktor wird. Character AI führte nach Setzers Tod einige Änderungen ein: Die App ist nun ab 17 Jahren freigegeben, und bei Schlüsselbegriffen wie „Suizid“ wird eine Warnung eingeblendet. Experten fordern jedoch umfassendere Schutzmassnahmen, um die Nutzung für Minderjährige sicherer zu gestalten.

Verpasse keine News mehr! Aktiviere unseren kostenlosen Whatsapp-Kanal

Die mobile Version verlassen