Comment faire pour que ChatGPT et autres chatbots basés sur des Modèles Linguistiques de grande taille cessent de mentir de manière frustrante ? OpenAI croit avoir trouvé la solution à ce problème et propose de modifier légèrement la façon dont l’IA générative est entraînée.
Tendance à l’inexactitude des Chatbots
Des chatbots tels que ChatGPT ou Bing Chat ont une fâcheuse tendance à écrire des inexactitudes. OpenAI et Microsoft (en particulier ce dernier) utilisent de plus en plus de mécanismes de blocage ingénieux pour empêcher l’IA de “halluciner”.
Les mrandes modèles linguistiques en action
Ces hallucinations sont le résultat de la manière dont fonctionnent les Grandes Modèles Linguistiques, technologies qui permettent aux chatbots de remplir leurs fonctions. En simplifiant énormément, ces modèles fonctionnent sur un modèle statistique, sélectionnant les mots suivants avec la plus grande probabilité d’apparaître dans une séquence de mots donnée. Les hallucinations sont l’effet d’un manque de données pour l’entraînement – l’IA n’a pas de source appropriée, elle sélectionne donc les mots suivants d’un autre ensemble, juste pour accomplir la tâche assignée par l’utilisateur.
L’élimination des hallucinations de l’IA par OpenAI
Plutôt que de supprimer les hallucinations de l’IA, il vaut mieux les éliminer. OpenAI, les créateurs de ChatGPT, semblent savoir comment faire.
Modification de l’approche d’entraînement
Jusqu’à présent, OpenAI a formé des modèles linguistiques en utilisant un système de récompenses pour donner la bonne réponse. L’IA était donc formée pour récompenser les actions correctes et, sur cette base, elle apprend quelles réponses l’utilisateur attend. Cependant, selon une étude récemment publiée, le système de récompenses serait utilisé lors des étapes intermédiaires de la formation.
L’objectif d’OpenAI : enseigner un raisonnement approprié à l’IA
En d’autres termes, ce qu’OpenAI veut faire, c’est enseigner à l’intelligence artificielle un raisonnement approprié. Aujourd’hui, les modèles linguistiques GPT tendent vers la bonne réponse par des processus qui étaient composés de manière itérative et chaotique par l’algorithme. Ces processus doivent désormais être façonnés par des récompenses intermédiaires.
Résultats prometteurs de la recherche d’OpenAI
Le travail d’OpenAI, bien sûr, n’est pas seulement théorique. L’entreprise a déjà testé cette nouvelle approche en pratique et rapporte des résultats nettement meilleurs, avec une efficacité énergétique nettement accrue de l’ensemble du processus. Il est à noter que l’expérience a été menée dans un domaine étroit de la mathématique et n’a pas pris en compte la formation du modèle à partir de toute autre donnée.
Recherches futures et perspectives
Les recherches sur d’autres types de données prendront encore un certain temps. Si longtemps, en fait, qu’OpenAI ne veut même pas parler d’une date approximative de mise en œuvre de cette méthode de formation dans la prochaine version du modèle GPT. Cependant, si le problème des hallucinations est effectivement résolu, cela pourrait signifier le début de la fin de la popularité élevée des moteurs de recherche classiques sur Internet.
Je suis Samuel Le Goff, à la tête de Menow.fr et père de deux enfants. À 38 ans, je navigue dans l’univers de l’informatique depuis plus de 14 ans, me spécialisant récemment dans le contenu high-tech et le gaming. Ma mission ? Partager des conseils pratiques et des insights en technologie, avec une touche d’honnêteté et d’authenticité, comme si je m’adressais à des amis.