La réalité manipulée par l’intelligence artificielle : Google tire la sonnette d’alarme
Des vidéos troublantes, presque trop réalistes, de personnalités publiques fleurissent sur le net. Non, ce n’est pas de la magie, mais bel et bien l’œuvre de l’intelligence artificielle. Face à cette menace croissante, Sundar Pichai, PDG de Google, annonce que le géant de la tech freine délibérément les capacités de son IA Bard pour contrer l’essor inquiétant des vidéos deepfake.
Des frontières floues entre fiction et réalité
Les modèles d’IA actuels peuvent déjà générer des images extrêmement réalistes de personnalités publiques, brouillant la ligne entre fiction et réalité. Les falsifications vidéo et audio deviennent de plus en plus sophistiquées chaque jour, au point où il devient difficile de distinguer le vrai du faux.
Bard, l’IA de Google, dans le collimateur
Sundar Pichai a déclaré que Google ne comprend pas toujours les réponses que Bard AI fournit actuellement. C’est pourquoi la société a décidé de limiter volontairement les capacités de Bard, dans le but de minimiser les risques potentiels associés à la désinformation générée par l’IA et aux arnaques.
Une décision d’importance dans un monde en proie aux deepfakes
La désinformation par IA et les escroqueries sont déjà une réalité et ne feront que s’aggraver avec l’avancement continu de l’IA. Dans un monde où les deepfakes pourraient causer d’énormes dégâts, cette décision de Google pourrait bien être une première étape cruciale pour lutter contre cette menace grandissante. La question reste cependant ouverte : sommes-nous suffisamment armés pour faire face à cette nouvelle forme de désinformation?

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.
