Dix minutes d’utilisation d’un assistant IA suffiraient à faire chuter les performances lorsqu’il faut ensuite réfléchir sans aide. Selon une recherche menée par Carnegie Mellon, le MIT, Oxford et UCLA, les participants ayant utilisé un chatbot basé sur GPT-5 ont obtenu un taux de réussite environ 20 % plus faible une fois l’outil retiré. Cette baisse, liée à la décharge cognitive, apparaît aussi bien sur des exercices de maths que sur des tests de compréhension écrite.
L’étude montre un effet rapide sur la pensée critique
Les chercheurs ont voulu mesurer un risque très concret : la perte de réflexes intellectuels quand l’IA prend trop vite le relais.
Les participants ont été divisés en deux groupes. Le premier pouvait utiliser un assistant IA, sous la forme d’un chatbot basé sur GPT-5 d’OpenAI. Le second devait résoudre les mêmes exercices sans aide extérieure.
Le test ne se limitait pas à une seule discipline. Il comprenait des problèmes numériques avec des fractions, mais aussi des questions de compréhension de texte proches du format SAT.
Le point clé arrive à la fin. Pour les participants aidés par l’IA, le chatbot a été retiré sans prévenir lors des trois dernières questions. Ils ont donc dû continuer seuls, après avoir travaillé avec l’assistant.
Les performances chutent dès que l’IA disparaît
La baisse a été nette dans les exercices de maths. Une fois privés d’IA, les participants du groupe assisté ont affiché un taux de résolution environ 20 % inférieur à celui du groupe qui avait travaillé seul depuis le début.
Autre signal préoccupant : ils ont aussi sauté presque deux fois plus de questions. Le problème ne se limitait donc pas à de mauvaises réponses. Une partie des participants renonçait plus facilement à essayer.
Le même comportement est apparu dans la compréhension écrite. Tant que l’IA restait disponible, les résultats restaient comparables. Dès qu’elle était retirée, le nombre de bonnes réponses reculait et les omissions augmentaient.
Demander une réponse complète n’a pas le même effet que demander un indice
L’étude souligne une différence majeure entre deux usages de l’IA. Obtenir une réponse toute faite n’a pas les mêmes conséquences que demander une simple piste.
Les participants qui utilisaient l’IA pour recevoir des indices n’ont pas montré de baisse significative par rapport au groupe de contrôle. Ils continuaient à chercher, à tester des hypothèses et à construire leur propre raisonnement.
À l’inverse, ceux qui laissaient l’IA résoudre les exercices à leur place avaient plus de mal à reprendre seuls le fil une fois l’outil supprimé.
Selon les chercheurs, cette baisse n’est pas liée à un domaine précis. Elle apparaît comme une conséquence générale de la résolution de problèmes avec une IA, qu’il s’agisse de calcul ou de compréhension.
D’autres études pointent déjà le même risque
Ces résultats rejoignent d’autres travaux récents. Microsoft avait déjà publié une recherche sur des travailleurs du secteur technologique : plus ils dépendaient de l’IA, moins ils étaient performants lorsqu’ils devaient travailler sans elle.
Une étude menée en Pologne a observé un phénomène similaire chez des médecins. Aidés par l’IA pour diagnostiquer des cancers, ils obtenaient ensuite de moins bons résultats que le groupe de contrôle lorsque l’assistance disparaissait.
Le problème n’est donc pas seulement scolaire ou théorique. Il touche aussi des environnements professionnels où la qualité du jugement peut avoir des conséquences importantes.
Le vrai danger, c’est de laisser l’IA réfléchir à votre place
L’étude ne dit pas qu’il faut abandonner les outils d’intelligence artificielle. Elle montre surtout que leur effet dépend fortement de la façon dont on les utilise.
Quand l’IA sert à obtenir une piste, vérifier une idée ou débloquer un raisonnement, elle peut rester un outil utile. Quand elle produit directement la réponse, l’utilisateur risque d’exercer moins souvent sa propre pensée critique.
À mesure que ces assistants s’installent dans le travail, les études et les tâches du quotidien, cette nuance devient essentielle. L’IA peut faire gagner du temps, mais une dépendance trop rapide semble avoir un prix : une autonomie intellectuelle plus fragile dès que l’aide disparaît.

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.
