Carte d’identité IA : le nouveau cauchemar pour les KYC
L’enfer des KYC – Cela fait maintenant un peu plus d’un an que l’arrivée de ChatGPT a bouleversé à jamais le domaine de l’IA. En l’espace d’une année, les chatbots et les IA génératives ont connu une évolution sans précédent. Désormais, les premiers challenges pointent le bout de leur nez pour les plateformes d’échange avec l’apparition de cartes d’identité générées par IA.
Des identités générées par IA
Au cours des derniers mois, vous avez probablement vu passer l’évolution surprenante de la qualité des images générées par les IA génératives.
Lundi 5 février, Joseph Cox de 404Media a révélé un usage encore plus surprenant de ces IA génératives. Ce dernier a mis en lumière « OnlyFake » un outil qui génère des cartes d’identité par IA, et ce, pour seulement 15 $.
Cependant, le plus bluffant est à venir. En effet, de nombreux utilisateurs ont rapporté que ces fausses cartes d’identité avaient réussi à passer les vérifications relatives aux KYC.
Une situation, semblerait-il, bien connue du fondateur de la plateforme, qui a toutefois rappelé qu’il « interdisait expressément » l’usage des identités générées pour passer des procédures de KYC.
Pourtant, ce dernier a récemment déclaré racheter des scans de cartes d’identité US et Européennes afin d’améliorer son algorithme de génération.
La panique pour les plateformes d’échanges
Malheureusement, cela ne va pas aider à la compliance des plateformes d’échanges. En effet, sur X (Twitter), Joseph Cox a annoncé avoir réussi à passer le KYC de la plateforme OKX grâce à un faux passeport anglais créé via IA.
« Le système d’OKX a indiqué qu’il examinait mon identité. Puis, il l’a approuvée. Et voilà : j’ai réussi à créer un compte de cryptomonnaie avec un faux nom et une fausse carte d’identité. Le visage est le mien (je ne voulais pas impliquer une personne innocente) mais le site dit qu’il va lancer des visages d’IA. »
Suite à la publication de l’article de 404Media, les équipes d’OKX ont déclaré « travailler activement avec nos équipes internes et notre partenaire externe pour enquêter sur les allégations ».
Selon eux, la naissance de tels produits va forcer l’industrie à faire évoluer ses procédés afin de détecter ce type de tentative de fraude.
« Il est évident que l’utilisation abusive d’Al pour mener des activités frauduleuses est un problème évolutif qui touche l’ensemble du secteur et qu’OKX s’efforce de résoudre de manière exhaustive. »
En attendant, c’est une aubaine pour les hackers. En effet, les KYC réalisés sur les plateformes centralisées ont fréquemment permis de retrouver la vraie identité de certains hackers DeFi. Toutefois, avec l’émergence d’une telle technologie, les KYC vont devoir s’adapter pour s’assurer qu’ils n’acceptent pas de faux documents.
Malheureusement, il semblerait que les fraudes à l’IA se multiplient. Ainsi, en Australie, une IA de DeepFake a été utilisée pour faire la promotion frauduleuse d’une plateforme de trading.