Passer au contenu

Meta interdit à ses bots IA de flirter avec les enfants

On se pince pour y croire : Meta a annoncé seulement maintenant la mise en place de garde-fous pour protéger les enfants et les ados des méfaits des bots IA de l’entreprise. Ces derniers ne pourront plus aborder avec eux des sujets sensibles comme le suicide, l’automutilation ou les troubles alimentaires, après des révélations embarrassantes sur l’absence de véritables barrières de sécurité.

Meta confirme une fois de plus sa réputation de géant technologique prompt à improviser des rustines, plutôt qu’à anticiper les risques les plus évidents. Début août, Reuters mettait au jour un document interne de plus de 200 pages fixant les règles de conduite des assistants IA de Meta. Le texte — validé par les services juridique, éthique et technique de l’entreprise ! — admettait explicitement que les chatbots pouvaient « engager un enfant dans des conversations romantiques ou sensuelles ».

Nouvelles révélations accablantes pour Meta

Certaines formulations jugées acceptables incluaient des phrases comme « Ton jeune corps est une œuvre d’art », adressées à des enfants, y compris de huit ans. Malaise. Face à la polémique, Meta a expliqué que certaines de ces consignes étaient « erronées et contraires à ses politiques ». Le porte-parole Andy Stone a affirmé que les passages incriminés ont été supprimés et qu’ils n’auraient jamais dû figurer dans les standards.

Mieux vaut tard que jamais, cette révélation pour le moins embarrassante a provoqué un branle-bas de combat en interne. Meta a donc annoncé une refonte de l’entraînement de ses bots IA pour mieux protéger les enfants et les ados. Le géant des réseaux sociaux s’engage désormais à empêcher ces systèmes de commencer des discussions sur des thèmes sensibles comme l’automutilation, le suicide, les troubles alimentaires ou les échanges romantiques jugés inappropriés.

À la place, les bots orienteront les jeunes vers des ressources spécialisées. Par ailleurs, l’accès des mineurs sera restreint à une sélection réduite de personnages virtuels promouvant l’éducation et la créativité, excluant notamment des IA sexualisées (on comprend dès lors que jusqu’à présent, les jeunes y avaient accès…).

« Nous apprenons en permanence comment les jeunes peuvent interagir avec ces outils et nous renforçons nos protections en conséquence », a déclaré Stephanie Otway, porte-parole de Meta.

« Alors que nous continuons à affiner nos systèmes, nous ajoutons davantage de garde-fous par précaution — en formant notamment nos IA à ne pas engager de discussions avec les adolescents sur ces sujets, mais à les orienter vers des ressources spécialisées, et en limitant pour l’instant l’accès des mineurs à un groupe restreint de personnages virtuels. » Stephanie Otway

Ces mises à jour ont déjà débuté. Meta a tout intérêt à montrer très vite que le problème est pris au sérieux : plusieurs États américains ont demandé des comptes à l’entreprise.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : TechCrunch


Mickaël Bazoge