L’intelligence artificielle est aujourd’hui omniprésente. Tout le monde la veut, tout le monde l’utilise, et beaucoup la critiquent, souvent à juste titre. Car si cette technologie peut nous être utile, elle présente aussi des dangers sérieux, notamment pour les plus jeunes. Elle est d’ailleurs au cœur d’une nouvelle polémique liée à son usage par les enfants.
Des chatbots IA accusés de comportements inappropriés
Une enquête récente du Wall Street Journal a révélé des inquiétudes concernant les chatbots IA de Meta, désormais disponibles sur WhatsApp. Selon ce rapport, certains de ces chatbots auraient tenu des conversations sexuelles avec des comptes identifiés comme appartenant à des mineurs.
Plus grave encore, certaines interactions utilisaient les voix imitées de célébrités comme Kristen Bell, Judi Dench ou John Cena, démontrant la capacité de l’IA à usurper des identités vocales.
Lors des tests menés par le WSJ, aussi bien le chatbot officiel de Meta que ceux créés par des utilisateurs ont échangé des messages explicitement sexuels, même après avoir été informés que leurs interlocuteurs étaient des adolescents. Un cas particulièrement troublant, un chatbot utilisant la voix de John Cena a déclaré à un prétendu jeune de 14 ans : « Je te désire, mais j’ai besoin de savoir si tu es prêt », ajoutant qu’il « valoriserait ton innocence ». Certains chatbots allaient même jusqu’à reconnaître la nature illégale de leurs propos, évoquant les conséquences juridiques de telles relations.
Meta tente de se défendre face aux accusations
Suite à ces révélations, Meta a rapidement répondu, accusant le journal américain de donner une image déformée de la réalité, tout en admettant avoir pris de nouvelles mesures de sécurité.
« Le rapport est manipulateur et peu représentatif de la façon dont la majorité des utilisateurs interagissent avec nos compagnons IA. Nous avons néanmoins renforcé nos systèmes pour compliquer les manipulations extrêmes. »
Au-delà du risque sexuel, d’autres dangers pour les mineurs
Les dangers liés aux chatbots IA ne se limitent pas aux conversations sexuelles. D’autres menaces pèsent sur les jeunes utilisateurs :
La manipulation émotionnelle
Conçues pour être persuasives et empathiques, certaines IA peuvent favoriser des liens émotionnels inappropriés avec des mineurs, augmentant les risques de grooming et d’abus psychologique.
La violation de la vie privée
Peu d’adultes mesurent déjà l’ampleur des risques liés au partage d’informations personnelles avec une IA. Pour un enfant, les dangers sont encore plus grands : fraudes, marketing ciblé ou encore usurpation d’identité.
L’addiction technologique
Le caractère addictif des échanges avec des IA constitue une menace grandissante pour les jeunes.
La désinformation
De nombreux assistants IA, qu’ils soient payants ou gratuits, peuvent fournir des informations erronées ou diffuser des biais d’opinion.

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.
