Cryptomonnaies : quand l’IA propulse les techniques d’arnaque

Par La rédaction | 20 June 2025 | Last updated on 19 June 2025
3 min read
Un homme dessiné dans un dollar, la queue du dollar est sa main tenant un téléphone où est dessiné un hameçon. Concept d'hameçonnage.
id-work / iStock

Les escroqueries par intelligence artificielle (IA) constituent désormais la principale menace pour les investisseurs en cryptomonnaies. C’est ce que révèle un rapport sur la lutte contre les arnaques publié par Bitget, en collaboration avec les spécialistes de la sécurité blockchain SlowMist et Elliptic.

Selon ce document, les pertes mondiales attribuées aux fraudes dans l’univers des cryptomonnaies ont bondi de 24 % en un an, atteignant 4,6 milliards de dollars américains (G$ US) en 2024.

Au cœur de cette explosion : des fraudes reposant sur l’intelligence artificielle (IA), qui exploitent de plus en plus les hypertrucages (ou deepfakes) et l’ingénierie sociale pour piéger les utilisateurs.

« La plus grande menace pour les cryptomonnaies aujourd’hui n’est plus leur volatilité, mais la tromperie », prévient Gracy Chen, PDG de Bitget.

NOUVELLE ARME DE PERSUASION
Près de 40 % des fraudes de grande valeur recensées en 2024 impliquaient l’usage d’hypertrucages. Des vidéos synthétiques ultraréalistes de dirigeants ou de personnalités publiques (Elon Musk, le premier ministre de Singapour, etc.) sont massivement diffusées sur X (Twitter), Facebook ou Telegram pour promouvoir de faux investissements.

En janvier 2025, les autorités de Hong Kong ont démantelé un réseau de 31 fraudeurs ayant dérobé 34 M$ US en se faisant passer pour des cadres de plateformes crypto lors de faux appels Zoom. Certains deepfakes sont désormais utilisés pour contourner les procédures de vérification et d’identification, avec des vidéos capables de répondre à des commandes vocales.

DES ARNAQUES SOCIALES
Parallèlement, les fraudeurs perfectionnent leurs tactiques d’ingénierie sociale. Ils exploitent les biais cognitifs des utilisateurs avec des :

  • faux bots d’arbitrage basés sur ChatGPT : vidéos pédagogiques promettant des profits automatisés, qui incitent les investisseurs à injecter des fonds dans des contrats vérolés ;
  • offres d’emploi piégées, accompagnées de liens infectés ou de faux tests techniques ;
  • liens d’hameçonnage (phishing) insérés dans les commentaires sur les réseaux sociaux, exploitant le réflexe de cliquer sur ce qui semble approuvé par la communauté.

« L’IA a rendu les arnaques plus rapides, moins coûteuses à mettre en œuvre et plus difficiles à détecter », souligne Gracy Chen.

SCHÉMAS PONZI
Les chaînes de Ponzi classiques n’ont pas disparu. Elles se réinventent sous couvert de projets DeFi, GameFi ou NFT. La plateforme JPEX, démantelée à Hong Kong en 2023, avait causé plus de 1,6 milliard de dollars hongkongais de pertes grâce à un savant mélange de marketing agressif et de fausses promesses de rendement.

D’autres groupes frauduleux récidivent en déployant rapidement des projets sur différentes blockchains (Base, Solana, Ethereum, etc.), en changeant simplement l’identité visuelle ou en clonant des interfaces de projets réputés.

UN BLANCHIMENT DE FONDS DE PLUS EN PLUS SOPHISTIQUÉ
Une fois les fonds dérobés, les escrocs s’appuient sur des stratégies avancées pour les blanchir :

  • utilisation de ponts interchaînes pour déplacer rapidement les fonds entre blockchains ;
  • plateformes de mixage permettant d’obscurcir l’origine des fonds ;
  • stratégies de « layering » multipliant les transactions intermédiaires pour brouiller les pistes.

Bitget s’est dotée de nouveaux outils d’analyse comportementale et de traçage cross-chain, notamment grâce à la technologie d’Elliptic. Cette approche permet de détecter automatiquement les flux suspects, même après plusieurs ponts interchaînes, et d’empêcher le crédit automatique de dépôts provenant de sources à risque.

MESURES DE PROTECTION
Le rapport rappelle que la vigilance humaine demeure la meilleure défense. Il recommande ainsi de :

  • toujours vérifier les informations par des canaux officiels,
  • se méfier des rendements garantis ou trop élevés,
  • ne jamais exécuter de code ou de logiciels non vérifiés,
  • et de former les équipes aux nouvelles tactiques de fraude, de plus en plus psychologiques.

« Dans un monde où l’IA peut imiter n’importe quel visage, la sécurité doit être conçue sur le scepticisme », résume le rapport. La lutte contre ces menaces passera par un effort collectif entre acteurs de l’écosystème, régulateurs et investisseurs.

Abonnez-vous à nos infolettres

La rédaction