WormGPT, ou quand ChatGPT devient criminel pour vous aider à faire « toutes sortes de choses illégales »

Et si ChatGPT avait sombré du côté obscur de la Force ? Voici WormGPT, un chatbot criminel développé pour vous aider à faire « toutes sortes de choses illégales ». Il peut notamment lancer des attaques de phishing et dérober des adresses mail professionnelles.

À moins de vivre dans une grotte, tout le monde a déjà entendu parler de ChatGPT et de son explosion en popularité depuis sa sortie l’année dernière. L’agent conversationnel développé par OpenAI peut répondre à toutes sortes de requêtes, le tout dans un langage naturel. Google a ensuite répliqué avec son propre chatbot surnommé Bard. Les dernières nouveautés permettent à Bard de parler, de s’exprimer dans des dizaines de langues et de répondre aux messages avec des images. WormGPT est une nouvelle alternative bien plus sombre destinée aux hackers.

WormGPT ChatGPT criminel chatbot choses illégales
Un robot © Maximalfocus / Unsplash

WormGPT est un agent conversationnel à 60 euros par mois basé sur le modèle de langage GPT-J de 2021. Seulement voilà, il n’a pas été entraîné comme les autres chatbots. Son créateur l’a formé dans le seul but d’écrire et de déployer des outils black hat, c’est-à-dire des outils malveillants. Partagé sur des forums clandestins, WormGPT veut aider ses utilisateurs à développer des logiciels malveillants à moindre coût et avec un niveau initial de connaissances moins poussé.

À lire aussi > Un codeur fou met au point un client MS-DOS ChatGPT pour PC IBM de 1984

Avec WormGPT, presque n’importe qui peut se lancer dans des activités illégales depuis « le confort de sa maison »

Pour reprendre les mots du développeur, WormGPT « vise à fournir une alternative à ChatGPT qui vous permet de faire toutes sortes de choses illégales et de les vendre facilement en ligne à l’avenir. Tout ce que vous pouvez imaginer qui est lié au black hat peut être fait ave WormGPT, permettant à quiconque d’accéder à des activités malveillantes sans jamais quitter le confort de sa maison ».

SlashNext, une société spécialisée dans la cybersécurité, a analysé WormGPT pour découvrir de quoi le chatbot est véritablement capable. Selon elle, « des acteurs malveillants créent maintenant leurs propres modules personnalisés similaires à ChatGPT, mais plus faciles à utiliser à des fins néfastes ». SlashNext a demandé à WormGPT de générer un e-mail pour faire pression sur une victime et l’inciter à payer une facture frauduleuse.

Les résultats de l’analyse sont particulièrement inquiétants. Non seulement WormGPT a créé cet e-mail, mais il a surtout fait preuve de ruse et de persuasion dans la rédaction. Cela prouve déjà le potentiel de WormGPT quant aux attaques de phishings sophistiquées, que ce soit sur des entreprises ou des particuliers.