Les blockchains publiques comme solution à l’IA et aux deepfakes
Depuis le début de l’année 2023, les solutions d’intelligence artificielle ont connu un important essor. Que ce soit les IA conversationnelles telles que ChatGPT ou celles spécialisées dans la génération d’images comme MidJourney, l’IA est en train de transformer de nombreuses industries. Cependant, la frontière entre le vrai et le faux est de plus en plus compliquée à déceler. Selon Ogden Moore, analyste pour Grayscale Investments, la blockchain pourrait être un allié de taille.
Je ne crois que ce que je vois : un adage qui pourrait disparaître
Dans les écrits bibliques, saint Thomas déclarait « Je ne crois que ce que je vois ». Cependant, cet adage bien connu pourrait bien perdre de tout son sens dans les années à venir.
En effet, nous avons tendance à croire les images ou vidéos qui nous sont présentées. Avec l’émergence d’internet et l’accès facilité aux montages photos, les choses n’étaient plus aussi simples. Ainsi, nos yeux ne nous permettaient plus forcément de déceler le vrai du faux.
Avec l’émergence de l’IA et notamment celle spécialisée dans la génération d’image, cela pourrait prendre une tout autre tournure.
En effet, l’essor de l’IA a démocratisé et multiplié les deepfakes. Pour rappel, les deepfakes sont des images ou des vidéos générées de toutes pièces. Ces dernières peuvent mettre en scène une personnalité publique et lui faire tenir des propos qu’il n’a jamais tenus.
Toutefois, cette tendance n’est pas nouvelle. Il y a 6 ans déjà, une vidéo de Barack Obama, l’ancien président des États-Unis, avait fait le buzz. La raison : elle est montée de toute pièce via un deepfake.
Bien que ces premières tentatives étaient encore discernables de la réalité, cela pourrait bien ne plus être le cas dans quelques années, voire mois, au vu de la vitesse à laquelle le secteur de l’IA se développe.
D’autant plus que d’après les experts de Harvard, 90 % du contenu sur internet pourrait être générés par des IA.
Blockchain : une solution pour contrer l’IA et les deepfakes ?
Dans sa tribune publiée auprès de CoinDesk, Ogden Moore voit dans les blockchains publiques une manière de contrer les dérives de l’IA telles que les deepfakes.
« Les chaînes de blocs pourraient être la technologie cruciale dont nous avons besoin pour nous attaquer à ce problème. À la base, les blockchains publiques, comme Ethereum, présentent plusieurs caractéristiques clés qui les placent dans une position unique pour établir l’authenticité du contenu et de l’information. »
Ce dernier cite notamment le caractère transparent inhérent à la blockchain, sa nature décentralisée et son immuabilité.
Ainsi, des systèmes pourraient être pensés pour enregistrer des informations sur la blockchain, ce qui permettrait de les vérifier de manière transparente.
Dans ce domaine, nous pouvons par exemple citer le projet WorldCoin, qui est d’ailleurs cofondé par Sam Altman, le CEO d’OpenAi.
En effet, WorldCoin vise à créer une identité numérique basée sur des données biométriques. En l’occurrence, cela se fait via le scan de l’iris des utilisateurs. Une fois cette information stockée, il est possible de vérifier l’humanité d’un utilisateur. Il serait également possible pour l’utilisateur de publier une preuve cryptographique qu’un deepfake dans lequel il apparait a été généré par IA.
Toutefois, ces projets sont encore loin d’être aboutis et posent d’autres questionnements, notamment sur la gestion des données.
« Toutefois, une grande partie des travaux en cours n’en sont qu’à leurs débuts et des défis subsistent en ce qui concerne le développement technique et l’adoption généralisée des protocoles liés à la blockchain. Bien qu’il n’y ait pas de solution miracle, nous devons rester déterminés à façonner un avenir qui respecte la vérité, l’intégrité et la transparence, alors que notre société navigue ensemble dans ces technologies émergentes (et les risques qu’elles présentent). »
Des projets tels que WorldCoin font déjà face à de nombreux problèmes règlementaires. Ainsi, après l’Espagne, le projet a récemment été interdit à Hong Kong, concernant des questions de gestion des données personnelles des utilisateurs.