Un ton agressif ou des phrases mal formulées peuvent suffire à faire dérailler l’intelligence artificielle. Une étude inédite pointe un coupable inattendu derrière les réponses inventées de certains chatbots : les utilisateurs. Et les résultats sont surprenants.
Le style d’écriture des utilisateurs, facteur clé des réponses erronées
Derrière les fameuses “hallucinations” de l’intelligence artificielle, ces réponses complètement inventées, se cache un responsable souvent ignoré : l’humain. C’est ce que révèle une étude publiée le 3 octobre sur la plateforme arXiv, intitulée “Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions”.
Les chercheurs ont analysé plus de 13 000 conversations humaines et 1 300 interactions homme-IA. Leur constat est sans appel : lorsqu’ils s’adressent à une intelligence artificielle, les utilisateurs changent radicalement de manière d’écrire. Leurs messages sont souvent plus courts, plus brusques, moins structurés et plus pauvres lexicalement. Pourtant, l’intention reste la même qu’entre humains.
Ce phénomène, que les auteurs qualifient de “décalage stylistique”, pose problème. Les grands modèles de langage sont majoritairement entraînés sur des textes polis, bien écrits et complets. Résultat : face à des formulations bâclées ou ambigües, l’IA peut mal interpréter la demande et générer des contenus fictifs.
Des pistes pour limiter les hallucinations des IA
Pour corriger ce biais, les chercheurs ont exploré plusieurs solutions. La première consiste à entraîner les modèles sur un éventail plus large de styles d’écriture. Cette méthode a permis d’améliorer la compréhension des requêtes de 3 %, un gain modeste mais mesurable.
Une autre idée testée : automatiser la reformulation des requêtes des utilisateurs pour les rendre plus claires avant traitement. Mais cette approche s’est révélée contre-productive, car elle efface souvent les nuances émotionnelles et contextuelles essentielles à la précision de la réponse.
Une recommandation simple : bien écrire pour mieux dialoguer avec l’IA
Le message clé de l’étude est limpide : les utilisateurs peuvent eux-mêmes réduire considérablement le risque de réponses fausses en formulant leurs requêtes de manière plus claire, complète et polie. Autrement dit, plus le message ressemble à une conversation humaine normale, plus l’IA sera fiable.
Un détail qui pourrait transformer notre façon d’interagir avec les assistants numériques au quotidien.

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.
