Plongeons-nous dans le monde sombre du piratage, où un hacker audacieux a pris la technologie en avance de ChatGPT pour donner vie à un avatar malveillant : WormGPT. Créé pour aider les criminels en ligne, ce bot chat attire l’attention. Cet article met l’accent sur la montée en puissance de cette technologie préoccupante, son utilisation à mauvais escient, et bien sûr, comment nous pouvons nous défendre contre elle. Continuez à lire pour découvrir cette descente vertigineuse dans les abysses du cybercrime.
Le dévoilement de WormGPT
Un hacker a exploité la technologie de ChatGPT pour en créer une version avec des intentions moins nobles, nous présentant WormGPT, un chatbot conçu pour faciliter le travail des criminels en ligne. SlashNext, un service de sécurité pour les e-mails qui a utilisé ce chatbot, indique que l’auteur de WormGPT propose l’accès à ce logiciel à la vente sur un forum de hackers reconnu.
L’entreprise a déclaré dans un billet de blog : “nous constatons que les acteurs malveillants créent désormais leurs propres modules personnalisés similaires à ChatGPT, mais plus faciles à utiliser à des fins néfastes”. Le chatbot semble avoir été présenté pour la première fois par le hacker en mars avant d’être lancé le mois dernier. Contrairement à ChatGPT ou au Bard de Google, WormGPT ne dispose d’aucune protection pour l’empêcher de répondre à des requêtes malveillantes.
Qu’est-ce que WormGPT ?
WormGPT est la version malveillante de ChatGPT, lancée récemment. Il répond aux requêtes contenant du contenu malveillant, alors que d’autres outils générateurs d’IA reconnus comme ChatGPT ou Bing ne le peuvent pas.
Il est important de se rappeler que WormGPT est un chatbot malveillant créé pour aider les criminels en ligne à commettre des crimes. Il n’est donc pas recommandé de l’utiliser à quelque fin que ce soit. En prenant conscience des dangers liés à WormGPT et de ses effets potentiels, nous pouvons mieux comprendre l’importance d’une utilisation éthique et responsable de la technologie.
Attaques par usurpation d’e-mail (BEC) et WormGPT
Les attaques par usurpation d’e-mail d’entreprise (BEC) ont maintenant un nouveau vecteur grâce à l’évolution des technologies d’intelligence artificielle (IA) comme ChatGPT d’OpenAI. Un puissant modèle d’IA appelé ChatGPT produit du texte qui ressemble à un discours humain basé sur des entrées. En automatisant la création de faux e-mails convaincants et personnalisés pour le destinataire, les cybercriminels peuvent augmenter le taux de réussite de l’attaque.
Le développeur de ce projet déclare : “ce projet vise à fournir une alternative à ChatGPT, qui permet de faire toutes sortes de choses illégales et de les vendre facilement en ligne à l’avenir. Tout ce que vous pouvez imaginer en rapport avec le blackhat peut être réalisé avec WormGPT, permettant à quiconque d’accéder à des activités malveillantes sans jamais quitter le confort de sa maison”.
SlashNext a rapporté que le développeur de WormGPT vend le programme sur un forum en ligne. Le créateur de WormGPT a également posté des photos montrant comment vous pouvez demander au bot de créer un malware avec du code Python et demander des conseils sur la conception d’attaques dangereuses.
Comment utiliser WormGPT ?
Pour utiliser WormGPT, vous devez créer un compte sur le forum et consulter le guide complet. Cependant, si vous souhaitez toujours accéder et utiliser WormGPT après avoir lu les informations ci-dessus, vous pouvez le faire en vous rendant sur la page de WormGPT. N’oubliez pas que les activités malveillantes ont des conséquences, et pour devenir une communauté stable et progresser, nous devons être dignes de confiance, honnêtes et éviter toute activité illégale.
Les dangers de l’IA générative
L’IA générative est une technologie puissante qui peut être utilisée pour un certain nombre de tâches, comme la création d’e-mails de phishing, de fausses nouvelles réalistes, et même de malwares. C’est pour cette raison que les hackers blackhat pourraient l’utiliser comme un outil précieux pour exécuter leurs attaques nuisibles.
Comment se défendre contre les outils d’IA générative malveillants ?
En conclusion, le développement de l’IA crée de nouveaux vecteurs d’attaque progressistes tout en étant avantageux. Des mesures de prévention solides doivent être mises en place. Voici quelques stratégies que vous pouvez utiliser :
Formation spécifique BEC : Les organisations doivent élaborer des programmes de formation complets, souvent mis à jour, pour contrecarrer les attaques BEC, en particulier celles qui sont facilitées par l’IA. Cette formation devrait informer les membres du personnel sur la nature des risques BEC, comment l’IA peut être utilisée pour les amplifier, et les stratégies utilisées par les attaquants. Cette formation doit également être incluse dans le développement professionnel continu des employés.
Mesures de vérification des e-mails améliorées : Les organisations doivent imposer des procédures de vérification rigoureuses des e-mails pour se défendre contre les attaques BEC pilotées par l’IA. Cela comprend la mise en place de systèmes qui détectent automatiquement lorsque les e-mails provenant de l’extérieur de l’entreprise imitent les dirigeants ou les fournisseurs internes, et la mise en place de systèmes de messagerie qui signalent les communications contenant des phrases particulières liées aux attaques BEC, comme “urgent”, “sensible”, ou “virement bancaire”. Ces précautions garantissent que les e-mails qui pourraient être nuisibles sont minutieusement examinés avant que toute action ne soit entreprise.
Je suis Samuel Le Goff, à la tête de Menow.fr et père de deux enfants. À 38 ans, je navigue dans l’univers de l’informatique depuis plus de 14 ans, me spécialisant récemment dans le contenu high-tech et le gaming. Ma mission ? Partager des conseils pratiques et des insights en technologie, avec une touche d’honnêteté et d’authenticité, comme si je m’adressais à des amis.