Crypto, IA et criminalité : Le cauchemar ne fait que commencer d’après Elliptic
Criminalité Artificielle. L’intelligence artificielle (IA) a révolutionné de nombreux secteurs, y compris celui des crypto-actifs. Cependant, cette même technologie est également exploitée par des acteurs malveillants pour commettre des crimes sophistiqués. Le dernier rapport en date d’Elliptic met en lumière les différents types de crimes facilités par l’IA dans l’écosystème crypto, soulignant l’urgence d’adopter des mesures préventives.
IA et cryptomonnaies : les armes des cybercriminels
Selon le rapport, les crimes liés à l’Intelligence Artificielle sur le marché crypto sont en pleine expansion. L’IA est utilisée pour générer des arnaques plus convaincantes et plus difficiles à détecter. Les modes opératoires faisant le plus de dégâts étant :
- Les deepfakes et usurpations d’identité : des vidéos truquées de célébrités sont utilisées pour promouvoir des arnaques d’investissement. Ces deepfakes rendent les arnaques extrêmement convaincantes et augmentent leur portée.
- Les scams automatisés : l’IA est utilisée pour créer et gérer des profils de scammers plus crédibles, facilitant des arnaques à grande échelle comme les « Sha Zhu Pan » ou arnaques sentimentales.
- Les Bots de trading IA frauduleux : des plateformes de trading basées sur l’IA promettant des rendements élevés se révèlent souvent être des arnaques. Les victimes sont attirées par des promesses de profits faciles et finissent par perdre leurs investissements.
Quand l’Ia scammeuse manipule les cryptomonnaies
Dans les détails, l’une des principales typologies identifiées est l’utilisation de l’IA générative pour les escroqueries liées aux cryptomonnaies. Les criminels utilisent des deepfakes et des matériels générés par l’IA pour rendre leurs arnaques plus crédibles. Par exemple, des vidéos truquées de célébrités ou de dirigeants promeuvent des investissements frauduleux, trompant ainsi les victimes potentielles. Un cas mémorable est celui des deepfakes de dirigeants de Ripple utilisés pour des faux giveaways de XRP, ou bien encore la campagne de scams orchestrée avec des deepfakes d’Elise Lucet.
Les grands modèles de langage (LLM) sont également utilisés pour faciliter les cyberattaques. Les hackers exploitent l’IA pour identifier des vulnérabilités dans les contrats intelligents, augmentant ainsi le risque de vols massifs de crypto-actifs. Par exemple, des outils comme ChatGPT sont utilisés pour générer des codes malveillants et des e-mails de phishing sophistiqués.
Une autre tendance préoccupante est la création de tokens liés à l’Intelligence Artificielle et de plateformes d’investissement frauduleuses. Des tokens comme « CryptoGPT » et « GPT Coin » prolifèrent, capitalisant sur la notoriété de l’IA pour attirer les investisseurs. Ces projets finissent souvent par des exit scams, où les promoteurs disparaissent avec les fonds des investisseurs après avoir généré suffisamment de hype pour faire grimper les prix.
Quand cryptomonnaies rime avec prudence
Le rapport d’Elliptic fournit d’ailleurs des chiffres alarmants sur l’impact de l’IA dans les crimes liés aux cryptomonnaies. Parmi les cas étudiés :
- Plusieurs millions de dollars volés : par exemple, un projet frauduleux basé sur un bot de trading IA, nommé « Harvest Keeper », a escroqué ses victimes de plus de 1,5 million de dollars en quelques semaines seulement.
- Utilisation des deepfakes : des vidéos truquées de personnalité telles que le PDG de Ripple, Brad Garlinghouse, ont été utilisées pour escroquer des milliers d’investisseurs.
- Scams à grande échelle : Des groupes de scammers ont utilisé des outils IA pour créer des centaines de faux sites Web d’investissement, générant des millions de dollars en pertes pour les victimes.
L’utilisation croissante de l’IA par les cybercriminels pose un défi important pour les régulateurs et les entreprises. Voici quelques mesures de prévention recommandées par le rapport :
- Renforcement des capacités de détection : les entreprises doivent intégrer des solutions d’analyse blockchain avancées pour identifier et prévenir les activités frauduleuses facilitées par l’IA.
- Collaboration internationale : une coopération renforcée entre les régulateurs et les acteurs de l’industrie est essentielle pour suivre et contrer les nouvelles techniques de fraude.
- Éducation et sensibilisation : informer le public sur les risques associés aux arnaques basées sur l’IA et les cryptomonnaies est crucial pour réduire leur impact.
Le rapport d’Elliptic souligne une réalité inquiétante : l’IA, bien que bénéfique pour de nombreux secteurs, est également une arme puissante entre les mains des criminels. Pour contrer cette menace, une réponse coordonnée et proactive est nécessaire. Les acteurs de l’industrie, les régulateurs et les utilisateurs doivent travailler ensemble pour assurer un environnement sécurisé et fiable pour les crypto-actifs. Dans ce sens, l’Europe annonçait récemment de nouvelles réglementations pour la blockchain et l’IA.