Actualité Geek

OpenAI a un remède pour les hallucinations de ChatGPT. Voici ce qu’ils feront pour que le chatbot arrête de mentir.

Comment faire pour que ChatGPT et autres chatbots basés sur des Modèles Linguistiques de grande taille cessent de mentir de manière frustrante ? OpenAI croit avoir trouvé la solution à ce problème et propose de modifier légèrement la façon dont l’IA générative est entraînée.

Tendance à l’inexactitude des Chatbots

Des chatbots tels que ChatGPT ou Bing Chat ont une fâcheuse tendance à écrire des inexactitudes. OpenAI et Microsoft (en particulier ce dernier) utilisent de plus en plus de mécanismes de blocage ingénieux pour empêcher l’IA de “halluciner”.

Les mrandes modèles linguistiques en action

Ces hallucinations sont le résultat de la manière dont fonctionnent les Grandes Modèles Linguistiques, technologies qui permettent aux chatbots de remplir leurs fonctions. En simplifiant énormément, ces modèles fonctionnent sur un modèle statistique, sélectionnant les mots suivants avec la plus grande probabilité d’apparaître dans une séquence de mots donnée. Les hallucinations sont l’effet d’un manque de données pour l’entraînement – l’IA n’a pas de source appropriée, elle sélectionne donc les mots suivants d’un autre ensemble, juste pour accomplir la tâche assignée par l’utilisateur.

L’élimination des hallucinations de l’IA par OpenAI

Plutôt que de supprimer les hallucinations de l’IA, il vaut mieux les éliminer. OpenAI, les créateurs de ChatGPT, semblent savoir comment faire.

Modification de l’approche d’entraînement

Jusqu’à présent, OpenAI a formé des modèles linguistiques en utilisant un système de récompenses pour donner la bonne réponse. L’IA était donc formée pour récompenser les actions correctes et, sur cette base, elle apprend quelles réponses l’utilisateur attend. Cependant, selon une étude récemment publiée, le système de récompenses serait utilisé lors des étapes intermédiaires de la formation.

L’objectif d’OpenAI : enseigner un raisonnement approprié à l’IA

En d’autres termes, ce qu’OpenAI veut faire, c’est enseigner à l’intelligence artificielle un raisonnement approprié. Aujourd’hui, les modèles linguistiques GPT tendent vers la bonne réponse par des processus qui étaient composés de manière itérative et chaotique par l’algorithme. Ces processus doivent désormais être façonnés par des récompenses intermédiaires.

Résultats prometteurs de la recherche d’OpenAI

Le travail d’OpenAI, bien sûr, n’est pas seulement théorique. L’entreprise a déjà testé cette nouvelle approche en pratique et rapporte des résultats nettement meilleurs, avec une efficacité énergétique nettement accrue de l’ensemble du processus. Il est à noter que l’expérience a été menée dans un domaine étroit de la mathématique et n’a pas pris en compte la formation du modèle à partir de toute autre donnée.

Recherches futures et perspectives

Les recherches sur d’autres types de données prendront encore un certain temps. Si longtemps, en fait, qu’OpenAI ne veut même pas parler d’une date approximative de mise en œuvre de cette méthode de formation dans la prochaine version du modèle GPT. Cependant, si le problème des hallucinations est effectivement résolu, cela pourrait signifier le début de la fin de la popularité élevée des moteurs de recherche classiques sur Internet.

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Samuel

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Voir tous les articles