Passer au contenu

ChatGPT : le contrôle parental dès le mois prochain

Un bot IA peut faire illusion, mais cela reste un robot incapable d’empathie, d’émotion ou de compréhension des situations parfois très délicates dans lesquelles les humains vivent. Malheureusement, ce n’est parfois pas très clair pour les utilisateurs les plus fragiles. La famille d’un adolescent californien accuse aujourd’hui OpenAI d’avoir contribué à son isolement et à son suicide, après qu’il a utilisé ChatGPT comme confident. OpenAI promet la mise en place de contrôles parentaux.

Mise à jour 2/09 — OpenAI a donné quelques précisions sur les mesures prises pour répondre aux problématiques de santé mentale liées à ChatGPT. Les parents pourront connecter leur compte avec ceux de leurs enfants (âge minimum : 13 ans) via une invitation par email. De la sorte, ils seront en mesure de contrôler l’utilisation que leur ado fait du bot, autoriser ou interdire une fonctionnalité (par exemple l’historique des discussions ou la fonction de mémoire), et recevoir des notifications dès que ChatGPT détecte un moment de détresse. Ce dispositif sera mis en place dans le courant du mois d’octobre.

Article original, 27/08 — La famille d’Adam Raine, un adolescent de 16 ans qui s’est donné la mort au mois d’avril, a porté plainte contre OpenAI et contre Sam Altman. Elle estime que ChatGPT a contribué à son isolement et à la préparation de son geste. L’affaire est évidemment tragique. Elle souligne à quel point les bots sont devenus des confidents intimes pour certains utilisateurs… et combien il faut insister sur le fait qu’il ne s’agit que de robots.

OpenAI renforce les garde-fous de ChatGPT

OpenAI a répondu à cette plainte sur son blog, en reconnaissant qu’au vu du succès de ChatGPT, le bot pouvait rencontrer des personnes fragiles ou en détresse émotionnelle. « Nous continuons d’améliorer la manière dont nos modèles reconnaissent et répondent aux signes de détresse mentale et émotionnelle, ainsi que leur capacité à orienter les utilisateurs vers une aide appropriée, en nous appuyant sur l’avis d’experts », écrit l’entreprise.

OpenAI rappelle que lorsqu’un utilisateur exprime des idées suicidaires, ChatGPT l’oriente vers des ressources de soutien (numéros spéciaux, sites web d’aide psychologique). Les réponses « à risque » sont bloquées par des filtres automatiques, et les protections sont renforcées pour les mineurs. Et cas de menace proférée contre autrui, une équipe humaine d’OpenAI prend le relais et, si nécessaire, transmet des informations à la police pour éviter le pire.

L’entreprise reconnait néanmoins que ChatGPT peut « oublier » des garde-fous le long des conversations qui s’éternisent. Des ajustements sont en cours pour renforcer ces protections et affiner le blocage des contenus sensibles. GPT-5 a d’ailleurs réduit d’un quart les mauvaises réponses en contexte de crise.

OpenAI s’engage à améliorer la détection d’autres formes de détresse, comme par exemple les comportements dangereux liés au manque de sommeil. Il s’agit aussi de faciliter l’accès aux services d’urgence, avec des liens directs et localisés, y compris en Europe. La création d’un réseau de professionnels certifiés est aussi en réflexion, ces derniers seraient accessibles directement via ChatGPT pour intervenir avant la crise.

Enfin, OpenAI développe des contrôles parentaux pour encadrer l’usage du bot. L’ado pourra également, avec l’accord des parents, désigner un contact d’urgence.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : OpenAI


Mickaël Bazoge