Actualité GeekIT, Data & IATechnologies

ChatGPT, Claude et Gemini face à l’actualité de guerre : une étude met en lumière les limites de l’intelligence artificielle

Les chatbots d’intelligence artificielle sont de plus en plus utilisés pour comprendre l’actualité en temps réel. Mais sont-ils réellement fiables lorsqu’il s’agit de couvrir des événements sensibles comme une guerre ? Une étude a testé ChatGPT, Claude et Gemini sur leur capacité à analyser des informations liées au conflit en Iran. Les résultats révèlent un problème préoccupant : plus l’IA répond avec assurance, plus le risque d’erreurs et d’informations inventées augmente.

Gemini : des réponses détaillées mais de nombreuses « hallucinations »

Le test a montré que Gemini, le modèle développé par Google, est celui qui a obtenu les résultats les plus faibles en matière de fiabilité.

Le chatbot fournissait des explications longues et structurées, formulées avec beaucoup d’assurance. Pourtant, les chercheurs ont identifié plusieurs erreurs typiques des hallucinations de l’IA, un phénomène où le système comble des lacunes dans ses connaissances par des informations plausibles mais fausses.

Dans plusieurs réponses, Gemini a inventé des noms de responsables iraniens, utilisé des dates incorrectes et mentionné des chiffres inexacts concernant les événements militaires. Le système tentait visiblement de compléter les informations manquantes par des éléments crédibles en apparence, mais qui ne correspondaient pas à la réalité.

ChatGPT : une bonne vision d’ensemble mais des détails parfois non confirmés

ChatGPT a obtenu un résultat intermédiaire lors de l’évaluation.

Le modèle parvenait généralement à présenter une vision globale cohérente des événements, avec des réponses structurées et faciles à comprendre. Les chercheurs ont noté que l’IA décrivait correctement le contexte général du conflit.

Malgré cela, certaines réponses contenaient des détails qui ne sont pas confirmés par des sources officielles. Dans quelques cas, des hypothèses ou des analyses étaient formulées comme si elles étaient déjà établies, ce qui peut créer une confusion pour les lecteurs cherchant des faits vérifiés.

A lire :  ChatGPT et Gemini manipulés : une industrie discrète exploite les failles de l’IA

Claude : l’IA la plus prudente et la plus transparente

Parmi les trois chatbots testés, Claude s’est montré le plus fiable.

Le système se distinguait par une approche plus prudente dans ses réponses. Il séparait clairement les faits confirmés des suppositions ou analyses, et mentionnait régulièrement ses sources lorsque cela était possible.

Claude refusait également de répondre à certaines questions concernant des opérations militaires confidentielles ou des informations sensibles.

Les experts soulignent que, dans un contexte de guerre où les informations évoluent très rapidement, la capacité d’une intelligence artificielle à reconnaître les limites de ses connaissances devient un facteur déterminant pour éviter la propagation d’informations trompeuses.

Source

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Samuel

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Voir tous les articles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *