Essor de l’IA : Elon Musk et d’autres signataires militent pour une mise en pause des développements
L’IA un potentiel danger – L’intelligence artificielle (IA) est en plein essor et son champ d’application ne cesse de s’élargir. Les récentes avancées, notamment suite à l’émergence de ChatGPT, l’IA développée par OpenAI, commencent à susciter des préoccupations. Ainsi, plusieurs grands noms de l’IT ont récemment signé une lettre ouverte visant à mettre en pause les avancées en matière d’IA.
ChatGPT : l’IA d’un nouveau genre
Depuis la naissance de l’informatique, plusieurs générations de chercheurs ont rêvé d’intelligence artificielle. Pendant longtemps, les limitations techniques et matérielles nous ont cantonnés à des IA relativement basiques.
Cependant, l’IA a connu des progrès considérables au cours des derniers mois. OpenAI, par exemple, a développé GPT-3, puis GPT-4, un modèle qui offre des capacités impressionnantes pour traiter et générer du langage.
Nous avons désormais des systèmes capables de rivaliser avec les compétences humaines dans divers domaines. Cependant, nous le savons tous : un grand pouvoir implique de grandes responsabilités. Ainsi, avec cette puissance vient un certain nombre de risques pour la société et l’humanité.
Face aux avancées rapides de l’intelligence artificielle, une lettre ouverte a récemment été publiée, appelant à une pause d’au moins six mois dans la formation de systèmes d’IA plus puissants que GPT-4.
Les signataires de la lettre estiment que cette pause est nécessaire pour évaluer et gérer les risques associés à l’IA et pour mettre en place des protocoles de sécurité partagés. Parmi les signataires, nous retrouvons plusieurs personnalités de renoms dans l’industrie technologique ainsi que de nombreux universitaires. Nous pouvons notamment citer les signatures d’Elon Musk et de Steve Wozniak.
Les raisons de cette demande de pause
En l’espace de quelques mois, des outils tels que ChatGPT ont permis d’esquisser les possibilités presque illimitées de ces modèles. De surcroît, leur évolution semble exponentielle, avec une amélioration significative des résultats entre chaque version.
Les signataires de la lettre ouverte soulignent que les systèmes d’IA actuels sont en train de devenir compétitifs avec les humains pour des tâches générales, ce qui soulève des questions sur l’impact que pourraient avoir ces technologies sur la société.
Parmi les préoccupations soulevées, nous retrouvons :
- La propagation de la désinformation : ChatGPT a la fâcheuse manie de pouvoir raconter quelque chose de totalement faux avec un aplomb surprenant. Les signataires craignent une publication massive de fausses informations ;
- La perte d’emplois : dans de nombreux domaines, ChatGPT s’est révélé avoir des résultats surprenants, mettant en péril des milliers d’emplois ;
- La création de systèmes non humains qui pourraient éventuellement nous surpasser : du fait de l’architecture des IA, nous ne sommes pas maîtres de 100% du procédé. Ainsi, face à un certain manque de compréhension nous pourrions rapidement être dépassés par cet essor ;
- La perte de contrôle sur notre civilisation : le dernier et pas des moindre, digne d’un scénario de science fiction, l’évolution trop brutale de l’IA pourrait mettre en danger la civilisation.
Une pause pour mieux repartir
La lettre ouverte appelle à une pause pour permettre aux laboratoires d’IA et aux experts indépendants de développer et de mettre en œuvre un ensemble de protocoles de sécurité partagés pour la conception et le développement de l’IA avancée.
Ces protocoles devraient être rigoureusement audités et supervisés par des experts extérieurs indépendants. Ceci ayant pour but d’assurer que les systèmes sont sûrs au-delà de tout doute raisonnable.
Par exemple, la mise en place de systèmes de détection permettant d’identifier si un texte a été réalisé par une IA ou non. Cela passera également par la mise en place d’une charte d’éthique afin d’éviter toute dérive. Enfin, il sera nécessaire de mettre en place des mécanismes d’urgence, au cas où les IA deviendraient incontrôlables.
En effet, nul ne peut oublier les tentatives de Microsoft, dont l’IA connectée à Twitter qui avait commencé à tenir des propos néonazis en seulement 24 heures. La balle est désormais dans le camp des développeurs d’IA et des régulateurs qui pourraient les obliger à mettre en pause leurs recherches.
Dans le domaine des cryptomonnaies, de nombreux observateurs ont mis en lumière l’utilisation de GPT-4 dans la recherche de failles dans les smart contracts. Un outil de taille, qui pourrait s’avérer être un allié précieux face aux hacks.