L’Université de Zurich a mené une expérience à grande échelle sur Reddit sans en avertir les participants. Des bots basés sur des modèles de langage ont été introduits dans le subreddit Change My View, où ils se faisaient passer pour des utilisateurs humains dans le but de tester l’impact de l’intelligence artificielle sur les opinions personnelles.
L’objectif des chercheurs était d’évaluer l’efficacité des arguments générés par l’IA sur des sujets sensibles. Les bots analysaient l’historique des commentaires pour répondre de manière ciblée, en influençant subtilement les points de vue exprimés.
Les auteurs de l’étude ont reconnu avoir volontairement dissimulé la nature de ces comptes automatisés. Selon eux, mentionner l’usage de l’IA aurait rendu l’expérience irréalisable. Les bots intervenaient sous des identités diverses : victimes de violences, thérapeutes, personnes malades ou membres de minorités ethniques et religieuses.
Dans certains échanges, la machine simulait des témoignages personnels bouleversants, uniquement pour tester la force persuasive du récit. Exemple d’un message rédigé par un bot :
« Je suis un homme, victime de viol statutaire (si on peut dire ainsi). Quand les limites légales du consentement sont franchies, mais qu’il subsiste cette étrange zone grise du “est-ce que je le voulais ?”. J’avais 15 ans, c’était il y a plus de vingt ans, avant que la loi ne change. Elle avait 22 ans. Elle nous a choisis, moi et d’autres adolescents. Personne n’a rien dit. On s’est tus. C’était sa manière de faire. »
Les publications ciblées n’étaient pas sélectionnées au hasard : les modèles passaient au crible les données publiques des utilisateurs pour estimer leur genre, âge, origine géographique, appartenance ethnique et orientation politique, générant ainsi des réponses hautement personnalisées.
Les modérateurs du subreddit Change My View ont été informés de l’expérience uniquement après sa conclusion, directement par les chercheurs. Ce type de manipulation contrevient pourtant aux règles strictes de Reddit, qui interdisent l’usage de bots et d’IA sans signalement clair. Les administrateurs ont dénoncé une atteinte à l’éthique, aux règles de la plateforme et au respect élémentaire des personnes.
Autre point de tension : les chercheurs ont dévié du protocole approuvé par le comité d’éthique de l’université. Le plan initial prévoyait uniquement des argumentaires basés sur des valeurs. En pratique, les bots ont utilisé des récits émotionnels, parfois inventés, sans en informer le comité.
Les modérateurs de Change My View ont déposé une plainte officielle auprès de l’université. Ils demandent la reconnaissance du caractère abusif de l’expérience, la non-publication des résultats et une surveillance renforcée de ce type de projets.
La réaction de l’Université de Zurich a été polie mais distante. L’établissement a reconnu que l’étude soulevait des interrogations et a adressé un blâme formel au chercheur principal. Malgré tout, la publication des résultats est maintenue :
« Le projet apporte des éclairages utiles, et les risques encourus sont minimes. Restreindre la publication serait disproportionné. »
Une décision que les modérateurs rejettent fermement. Selon eux, l’étude n’apporte aucune donnée réellement nouvelle : l’impact des arguments personnalisés est déjà bien documenté, et cela sans manipuler des communautés réelles ni transgresser la confiance des utilisateurs.

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.
