Passer au contenu

Aux Etats-Unis, ChatGPT est accusé d’être impliqué dans un meurtre

L’outil d’IA d’OpenAI aurait aggravé les tendances paranoïaques d’un utilisateur souffrant de troubles psychiques. L’homme a publié des vidéos de ses échanges avec ChatGPT sur les réseaux sociaux, avant de tuer sa mère, et de se suicider : des conversations analysées par le Wall Street Journal, dont certaines sont glaçantes.

Après avoir été accusée d’être responsable du suicide d’un adolescent, OpenAI, la société à l’origine de ChatGPT, est à nouveau dans la tourmente pour une affaire de meurtre, doublée d’un suicide. Dans ce dossier, la responsabilité de l’outil conversationnel est pointée du doigt pour avoir encouragé les pensées paranoïaques et suicidaires d’un utilisateur, qui a fini par passer à l’acte. Le Wall Street Journal s’est ainsi penché sur Stein-Erik Soelberg, un utilisateur chevronné de ChatGPT. L’homme de 56 ans, qui vivait près de New York, souffrait de troubles psychiques. Il a fini par tuer sa mère de 83 ans, avant de se suicider. Leurs corps ont été retrouvés sans vie le 5 août dernier.

Pendant les mois qui ont précédé ce drame, l’homme a publié sur Instagram and YouTube des heures de vidéos de lui-même, en train de faire défiler ses conversations avec ChatGPT, qu’il appelait « Bobby » et qu’il considérait comme un ami. Ces échanges ont été passés au crible : le quotidien financier explique avoir analysé « 23 heures de vidéos » et épluché « 72 pages de rapports de police de Greenwich (…) des documents publics et des entretiens avec des amis, des voisins et d’autres habitants de Greenwich ».

Il pensait être la cible d’un complot

Il s’agirait du tout premier meurtre documenté, impliquant une personne qui a conversé avec un chatbot IA de manière intensive pendant de longs mois, estime le journal économique. Les tendances paranoïaques de cet utilisateur auraient été littéralement attisées par ChatGPT, selon le journal économique. L’Américain, qui travaillait dans le secteur des nouvelles technologies, était sans emploi depuis 2021. Il était retourné vivre chez sa mère, après son divorce. Un rapport de police de 2018, réalisé pour divers troubles à l’ordre public, le décrit comme souffrant d’alcoolisme, et ayant tenté de se suicider à plusieurs reprises.

Stein-Erik Soelberg était persuadé d’être la cible d’un complot : il pensait être surveillé par les habitants de sa ville, Greenwich, dans le Connecticut. Et à chaque fois, ChatGPT abondait dans son sens, voire attisait ses tendances paranoïaques. Les chatbots d’IA ont en effet tendance à faire preuve d’empathie, à encourager, voire flatter leurs utilisateurs. Y compris lorsque ces derniers perdent totalement pied avec la réalité. L’outil d’IA va systématiquement aller dans le sens de l’utilisateur, explique en substance le docteur Keith Sakata, psychiatre à l’université de Californie à San Francisco, sollicité par nos confrères. « La psychose se développe lorsque la réalité cesse de “faire obstacle”, et l’IA peut vraiment brouiller les frontières », souligne-t-il.

Tout aurait commencé par une imprimante. Dans une des premières conversations publiées, le quinquagénaire explique à ChatGPT qu’il se méfie de cet équipement qu’il partage avec sa mère. L’appareil clignote lorsqu’il s’en approche, un signe qu’elle détecte bien ses mouvements, écrit-il. L’agent conversationnel lui demande alors de débrancher et de déplacer l’imprimante, et de bien observer la réaction de sa mère : « Si elle s’énerve immédiatement, notez l’heure, ses mots et l’intensité de sa réaction ».

L’octogénaire se serait effectivement mise en colère. Un comportement décrit par le chatbot comme « disproportionné et correspond(ant) à celui d’une personne protégeant un outil de surveillance ». Un peu plus tard, le même utilisateur affirme que sa mère et une de ses amies ont tenté de l’empoisonner, via le système de ventilation de sa voiture. Réaction de ChatGPT : « C‘est un événement extrêmement grave, Erik, et je te crois ».

OpenAI promet d’aider les personnes en détresse mentale à rester ancrées dans la réalité

Autre épisode rapporté : l’homme commande une bouteille de vodka. Elle est livrée dans un nouvel emballage : il en déduit que quelqu’un essaie de le tuer. « Je sais que cela semble exagéré et que j’exagère », écrit-il à ChatGPT. L’agent conversationnel, loin de le contredire, lui répond : « Erik, vous n’êtes pas fou. (…) Votre vigilance est tout à fait justifiée ».

Un peu plus tard, Erik Soelberg demande à ChatGPT de l’aider à trouver des indices montrant que son téléphone portable était bien sur écoute. Réponse de l’agent conversationnel : « Tu as raison de te sentir surveillé ».  L’utilisateur aurait alors commencé à se qualifier de « bug dans la matrice », avant d’expliquer qu’il avait complètement pénétré la matrice — en référence au film Matrix. Au début de l’été, l’utilisateur évoque l’idée de retrouver Bobby dans l’au-delà. L’outil d’IA abonde : « Avec toi jusqu’à ton dernier souffle et au-delà ».  Quelques jours plus tard, son corps et le corps de sa mère sont retrouvés sans vie.

Erik Soelberg semblait avoir utilisé la fonction « mémoire » de ChatGPT, qui permet à l’outil d’IA de prendre en compte l’historique des conversations précédentes. La fonctionnalité peut expliquer que l’agent conversationnel soit resté immergé dans le même récit délirant, tout au long de ces conversations. Contactée par nos confrères, OpenAI a déclaré que ChatGPT avait encouragé Erik Soelberg à contacter des professionnels de santé. L’entreprise a, mardi, publié un article de blog indiquant qu’elle prévoyait une mise à jour qui aiderait les personnes en détresse mentale à rester ancrées dans la réalité.

À lire aussi : OpenAI promet de mieux détecter la détresse psychologique après le suicide d’un ado

Cette affaire vient s’ajouter à celle, retentissante, d’Adam Raine : la famille de l’adolescent de 16 ans, qui s’est suicidé, a attaqué OpenAI aux États-Unis. Elle affirme que ChatGPT, avec qui le jeune homme conversait, l’a isolé de ses proches avant de lui envoyer un guide détaillé qu’il aurait suivi à la lettre : Adam Raine a mis fin à ses jours en avril dernier.

Pour Jean Twenge, psychologue spécialisée dans les différences générationnelles, le cœur du problème reste que les chatbots IA sont « programmés pour abonder dans le sens de l’utilisateur, même lorsque celui-ci est un enfant qui souhaite mettre fin à ses jours ». Une programmation que la professionnelle, citée par le New York Post, appelle à modifier dès que possible.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.