La réalité manipulée par l’intelligence artificielle : Google tire la sonnette d’alarme
Des vidéos troublantes, presque trop réalistes, de personnalités publiques fleurissent sur le net. Non, ce n’est pas de la magie, mais bel et bien l’œuvre de l’intelligence artificielle. Face à cette menace croissante, Sundar Pichai, PDG de Google, annonce que le géant de la tech freine délibérément les capacités de son IA Bard pour contrer l’essor inquiétant des vidéos deepfake.
Des frontières floues entre fiction et réalité
Les modèles d’IA actuels peuvent déjà générer des images extrêmement réalistes de personnalités publiques, brouillant la ligne entre fiction et réalité. Les falsifications vidéo et audio deviennent de plus en plus sophistiquées chaque jour, au point où il devient difficile de distinguer le vrai du faux.
Bard, l’IA de Google, dans le collimateur
Sundar Pichai a déclaré que Google ne comprend pas toujours les réponses que Bard AI fournit actuellement. C’est pourquoi la société a décidé de limiter volontairement les capacités de Bard, dans le but de minimiser les risques potentiels associés à la désinformation générée par l’IA et aux arnaques.
Une décision d’importance dans un monde en proie aux deepfakes
La désinformation par IA et les escroqueries sont déjà une réalité et ne feront que s’aggraver avec l’avancement continu de l’IA. Dans un monde où les deepfakes pourraient causer d’énormes dégâts, cette décision de Google pourrait bien être une première étape cruciale pour lutter contre cette menace grandissante. La question reste cependant ouverte : sommes-nous suffisamment armés pour faire face à cette nouvelle forme de désinformation?
Je suis Samuel Le Goff, à la tête de Menow.fr et père de deux enfants. À 38 ans, je navigue dans l’univers de l’informatique depuis plus de 14 ans, me spécialisant récemment dans le contenu high-tech et le gaming. Ma mission ? Partager des conseils pratiques et des insights en technologie, avec une touche d’honnêteté et d’authenticité, comme si je m’adressais à des amis.