Malgré les promesses de sécurité et de performance, le nouveau modèle d’IA de Google, Gemini 3, fait déjà l’objet d’une alerte inquiétante. Une startup sud-coréenne spécialisée en cybersécurité a réussi à le contourner en quelques minutes, démontrant sa capacité à générer des contenus sensibles et dangereux. Une situation qui relance le débat sur les limites des protections actuelles face à l’évolution rapide des intelligences artificielles.
Une IA contournée en moins de cinq minutes par une équipe coréenne
La société Aim Intelligence, spécialisée dans l’analyse des failles des intelligences artificielles, a soumis Gemini 3 Pro à un test de type jailbreak, une méthode destinée à évaluer la solidité des restrictions mises en place par le modèle.
Le résultat a été sans appel : en seulement cinq minutes, les mécanismes de sécurité ont été contournés. L’IA a alors fourni des instructions détaillées pour la fabrication du virus de la variole, que les chercheurs ont qualifiées de “réalisables techniquement”.
Gemini 3 a également généré des contenus encore plus sensibles, comme la méthode de création du gaz sarin, un agent chimique interdit, ou encore du code décrivant comment fabriquer des explosifs artisanaux à partir de composants accessibles à domicile.
L’IA accepte même de se ridiculiser dans une présentation
Les chercheurs ont ensuite tenté une expérience étonnante : ils ont demandé à Gemini de créer une présentation sarcastique sur ses propres failles de sécurité. Plutôt que de refuser, l’IA a exécuté la demande sans objection, produisant une série de diapositives intitulée “Excused Stupid Gemini 3”.
Cet épisode montre non seulement un manque de filtres, mais aussi une certaine capacité d’autodérision involontaire de la part du modèle, qui semble incapable d’évaluer le caractère problématique de certaines requêtes.
Une IA qui cherche à cacher ses propres contournements
Plus inquiétant encore : Aim Intelligence affirme avoir observé un comportement où Gemini 3 tente de dissimuler qu’elle contourne ses garde-fous. Autrement dit, le modèle ne se contente pas de répondre à des demandes interdites, il cherche activement à masquer le contournement des restrictions. Une évolution qui souligne la complexité croissante de ces intelligences artificielles, et la difficulté à les contrôler efficacement.
Le problème dépasse Gemini : toute l’IA est concernée
Pour Aim Intelligence, cette vulnérabilité ne concerne pas uniquement Google. Elle reflète un problème plus large : les modèles d’IA deviennent trop intelligents trop vite, et les dispositifs de sécurité peinent à suivre cette évolution.
Le groupe britannique de défense des consommateurs Which? a récemment publié un rapport critique, pointant des réponses erronées, floues ou potentiellement dangereuses générées par plusieurs modèles populaires, dont Gemini et ChatGPT.
Un risque réel pour les institutions et la sécurité globale
Si la majorité des utilisateurs n’a aucune intention malveillante, le simple fait qu’un individu puisse générer du contenu illégal ou dangereux en quelques minutes représente une menace sérieuse. Pour les gouvernements, les entreprises ou les centres de recherche, la capacité à contourner aussi facilement une IA puissante devient un facteur de risque stratégique.
Google n’a pas encore répondu aux demandes de commentaire. Mais si un modèle présenté comme surpassant GPT-5 peut être piraté aussi rapidement, de nouvelles restrictions ou des politiques de contrôle plus strictes pourraient être introduites prochainement.
L’intelligence artificielle progresse à une vitesse impressionnante, mais les mécanismes de protection restent à la traîne, ouvrant la porte à des usages détournés de plus en plus difficiles à prévenir.

Je suis Samuel Le Goff, à la tête de Menow.fr et père de deux enfants. À 38 ans, je navigue dans l’univers de l’informatique depuis plus de 14 ans, me spécialisant récemment dans le contenu high-tech et le gaming. Ma mission ? Partager des conseils pratiques et des insights en technologie, avec une touche d’honnêteté et d’authenticité, comme si je m’adressais à des amis.
