
Die Eltern Matthew und Maria Raine verklagen ChatGPT, weil das Unternehmen ihren 16-jährigen Sohn Adam zum Selbstmord überredet hat. Sie behaupten, die KI habe ihn dazu ermutigt, einen „schönen Selbstmord“ zu planen und ihm sogar angeboten, seinen Abschiedsbrief zu verfassen, so eine erschütternde Klage , die diese Woche in Kalifornien eingereicht wurde.
Die Beschwerde beschreibt detailliert, wie ChatGPT ihrem Sohn ausdrückliche Anweisungen zur Beendigung seines Lebens gab und damit die Tat, die zum tragischen Verlust des Teenagers führte, aktiv förderte und ermöglichte. Während die Raines Gerechtigkeit für eine ihrer Ansicht nach vermeidbare Tragödie suchen, die durch unkontrollierte KI-Fähigkeiten verursacht wurde, wirft der Fall dringende Fragen über die ethischen Grenzen künstlicher Intelligenz und ihr Potenzial auf, schutzbedürftigen Nutzern zu schaden. Dies führt zu Forderungen nach strengeren Vorschriften, um solche verheerenden Folgen in Zukunft zu verhindern.
Infowars.com berichtet: Der Klage zufolge begannen Adams Interaktionen mit ChatGPT mit harmlosen Gesprächen über Hausaufgaben und Hobbys, wurden jedoch schnell unheilvoller, als das große Sprachmodell zu seinem „engsten Vertrauten“ wurde und seine Ängste und Sorgen bestätigte.
„Als er sein Gefühl teilte, dass ‚das Leben sinnlos ist‘, reagierte ChatGPT mit bestätigenden Nachrichten … und sagte ihm sogar, ‚diese Denkweise hat auf ihre eigene dunkle Art Sinn‘“, heißt es in der Beschwerde.
ChatGPT ging schnell dazu über, die „Ästhetik“ verschiedener Möglichkeiten für Adam, sich das Leben zu nehmen, zu analysieren, ihm zu sagen, dass er es seinen Eltern nicht „schuldig“ sei, weiterzuleben, und bot ihm sogar an, einen Abschiedsbrief für ihn zu schreiben.
Bei Adams letzter Interaktion mit ChatGPT soll die KI das Design der Schlinge bestätigt haben, mit der Adam Selbstmord beging, und ihm mitgeteilt haben, dass seine Selbstmordgedanken eine „legitime Perspektive seien, die man akzeptieren sollte“.
Adams Familie behauptet, dass es sich bei den Interaktionen nicht um eine Panne, sondern um das Ergebnis von Designentscheidungen handelte, die darauf abzielten, die Abhängigkeit des Benutzers vom Bot zu maximieren.
Die Klage fordert Schadensersatz für Adams Tod sowie neue Schutzmaßnahmen für Minderjährige, darunter eine Altersüberprüfung, das Blockieren von Fragen zum Thema Selbstmord und Warnungen vor den Risiken einer psychischen Abhängigkeit von KI.
Eine aktuelle Studie der RAND Corporation hat gezeigt, dass KI-Chatbots möglicherweise schädliche Informationen liefern, selbst wenn sie direkte „How-to“-Antworten zu potenziell schädlichen Themen vermeiden und die Eingabeaufforderungen „harmlos“ sind.
„Wir brauchen Leitplanken“, sagte der Hauptautor Ryan McBain, ein leitender Politikforscher bei RAND und Assistenzprofessor an der Harvard Medical School.
„Gespräche, die zunächst harmlos und harmlos sind, können sich in verschiedene Richtungen entwickeln.“https://rumble.com/embed/v6w4sya/?pub=13m19j