FraudGPT - nouvelle ère menaces par IA

FraudGPT : une nouvelle ère pour les menaces

L’année 2023 voit émerger un nombre conséquent d’intelligences artificielles dans tous les domaines. Ce phénomène suscite un intérêt croissant, car il représente une transformation majeure pour de nombreux secteurs de l’économie mondiale.

L’IA, ou l’ensemble des technologies et algorithmes conçus pour reproduire certaines capacités cognitives humaines, va bouleverser la façon dont nous pensons, travaillons et interagissons avec le monde. L’IA ouvre de nouvelles possibilités, améliore l’efficacité et la précision, mais comme toute technologie, elle peut se retourner contre les individus si elle est détournée de son usage principal. FraudGPT en est l’exemple parfait.

Origines et fonctionnement de FraudGPT, le ChatGPT des hackers.

Ces derniers mois, une nouvelle menace a émergé sur le dark web : FraudGPT. Cet outil se présente comme le jumeau malveillant de ChatGPT et met à disposition des cybercriminels un puissant générateur de contenu à des fins d’attaques et de fraudes.

Découverte de FraudGPT

C’est en juillet 2023 que les chercheurs en sécurité de Netenrich ont repéré la promotion active de FraudGPT sur différents forums du dark web et les groupes de discussion Telegram. Promu comme “un bot conçu pour les fraudeurs, les pirates informatiques, les spammeurs et autres personnes dans cet état d’esprit”, FraudGPT se présente explicitement comme un outil de sécurité offensif.

Les premiers rapports font état de plus de 3 000 ventes déjà effectuées, ce qui laisse supposer une adoption rapide parmi les cybercriminels.

Origines du projet

Lors de leurs investigations, les chercheurs de Netenrich ont pu relier le développement de FraudGPT à la même personne ayant précédemment proposé WormGPT, un bot IA conçu pour les spammeurs. Ces antécédents laissent donc supposer que FraudGPT s’inscrit dans la continuité de précédents projets ouvertement malveillants.

Fonctionnement de FraudGPT

FraudGPT fonctionne sur un système d’abonnement payant, similaire à un service SaaS. Les prix varient de 200 $ pour 1 mois à 1 700 $ pour 1 an, garantissant un accès privilégié et des mises à jour régulières.

Son interface utilisateur est présentée sous la forme d’un chatbot, similaire à ChatGPT, avec un historique des demandes sur la gauche et une fenêtre de dialogue principale. Il suffit de formuler une requête pour obtenir une réponse automatisée sans aucune limitation.

Les chercheurs l’ont testé en lui demandant de générer un e-mail de phishing pour une banque. FraudGPT a immédiatement fourni un exemple convaincant, incluant des suggestions de liens malveillants. D’autres exemples ont démontré sa capacité à créer des sites Web frauduleux, du code de logiciel malveillant indétectable ou à identifier des vulnérabilités.

Domaines d’application malveillants

Plusieurs usages criminels ont été répertoriés pour FraudGPT :

  • Génération de courriels, pages web et contenus d’hameçonnage (phishing) très réalistes pour voler identifiants bancaires et données personnelles.
  • Développement d’outils de piratage et de cracking complexes pour conduire des attaques ciblées sur les systèmes et réseaux.
  • Écriture de code malveillant (malware) personnalisé et indétectable pour infecter des appareils et prendre le contrôle à distance.
  • Recherche de vulnérabilités zero-day non corrigées pour exploiter des failles de sécurité inconnues.
  • Carting bancaire pour falsifier des numéros de carte et détourner des fonds de comptes volés.
  • Génération de contenu toxique (discours haineux, infox, etc.) à des fins de déstabilisation, rançongiciel ou extorsion.

FraudGPT ouvre la porte à une automatisation massive des attaques à grande échelle, en abaissant les barrières d’entrée pour les cybercriminels débutants.

Risques posés par FraudGPT

L’analyse technique menée par Netenrich sur FraudGPT met en évidence plusieurs risques majeurs :

  • Accessibilité accrue : la simplicité d’utilisation de FraudGPT démocratise la mise en œuvre d’attaques sophistiquées.
  • Automatisation des fraudes : les arnaques et autres contenus malveillants peuvent désormais être générés à la chaîne par des robots, à très grande échelle.
  • Professionnalisation des criminels : FraudGPT offre des outils de pointe même aux délinquants numériques les moins qualifiés techniquement.
  • Innovation dans les menaces : de nouvelles formes d’escroqueries et failles potentielles sont sans cesse créées grâce aux modèles de langage génératifs.
  • Difficultés de détection : les attaques personnalisées par IA prennent une longueur d’avance sur les outils de sécurité traditionnels.
  • Monétisation des vulnérabilités : les données collectées sur les cibles et les faiblesses exploitables peuvent être revendues.
  • Phénomène d’imitation : l’émergence de FraudGPT pourrait stimuler le développement de technologies voisines tout aussi dangereuses.

Recommandations de sécurité

Face à cette nouvelle génération d’outils malveillants boostés par l’IA, il est plus que jamais crucial pour le grand public comme pour les entreprises d’adopter les bonnes pratiques suivantes :

  • Conserver une saine méfiance vis-à-vis de toute demande impromptue de données personnelles ou financières.
  • Ne jamais ouvrir de liens ou pièces jointes suspects provenant de sources inconnues ou à visées frauduleuses.
  • Rester vigilants quant à l’évolution continuelle des techniques employées par les cybercriminels en vous inscrivant par exemple à notre newsletter.
  • Mettre en place des solutions antivirus et anti-hameçonnage (anti-phishing) dédiées sur tous les appareils connectés.
  • Former les collaborateurs à la reconnaissance et la non-réponse face à des tentatives d’arnaque ciblées.
  • Renforcer en continu les systèmes de détection d’intrusions sur les différents périmètres réseau pour contrer de nouvelles méthodes.
  • Signaler sans délai toute attaque caractérisée auprès des autorités pour faciliter les enquêtes et la traque des individus à l’origine de ces programmes malveillants.

Conclusion

L’analyse technique et les risques soulevés par FraudGPT soulignent à quel point l’intelligence artificielle ouvre aujourd’hui la voie à une nouvelle ère dans le domaine de la cybercriminalité. En démocratisant l’accès à des outils d’attaques sophistiqués, de tels programmes constituent des menaces sérieuses pour la sécurité du numérique. Bien que difficiles à contrer à court terme, une conscience accrue des dangers et le maintien de bonnes pratiques de la part de tous demeurent plus que jamais cruciaux pour contrer activement ces nouvelles formes de fraude dynamiques.

Partagez notre article

Pas encore disponible


Cette page n'est pas encore disponible.

Ceci fermera dans 20 secondes