Logo Epoch Times

Recommandation

plus-iconDéveloppement de la superintelligence

Des personnalités de premier plan signent une lettre réclamant l’interdiction du « développement de la superintelligence »

L’institut Future of Life alerte depuis une décennie sur les risques existentiels posés par l’intelligence artificielle avancée.

top-article-image

Un homme interagit avec un robot humanoïde imprimable en 3D à Hanovre, en Allemagne, le 31 mars 2025.

Photo: Ronny Hartmann/AFP via Getty Images

author-image
Partager un article

Durée de lecture: 8 Min.

Des centaines de personnes, des commentateurs conservateurs à des dirigeants éminents de la tech, ont signé une lettre appelant à interdire « le développement de la superintelligence ».
Cette année, des entreprises technologiques de premier plan comme Google, Meta Platforms et OpenAI ont accéléré leurs efforts pour bâtir des systèmes d’intelligence artificielle (IA) capables de surpasser les humains sur un large éventail de tâches, des plus élémentaires aux plus complexes.
Un chœur grandissant de voix influentes estime qu’il est temps d’appuyer sur la pédale de frein — au moins temporairement.
La lettre, élaborée par le Future of Life Institute, réclame un moratoire sur l’avancée vers une IA superintelligente jusqu’à ce qu’existent une demande publique et un cap scientifique sûr pour cette technologie.
« Nous demandons l’interdiction du développement de la superintelligence, interdiction qui ne serait levée qu’après un large consensus scientifique garantissant une mise en œuvre sûre et contrôlable, et un fort soutien du public », peut-on lire dans cette brève déclaration publiée le 22 octobre.
Le Future of Life Institute alerte depuis dix ans sur les risques existentiels liés à l’IA avancée. Sa pétition a recueilli des milliers de signatures et le soutien de centaines de personnalités de premier plan en phase avec sa mission, dont les pionniers de l’IA Yoshua Bengio et Geoffrey Hinton.
M. Bengio estime que les systèmes d’IA pourraient dépasser la plupart des individus dans diverses tâches cognitives d’ici quelques années. S’ils apporteront des avancées, ils pourraient également « comporter des risques significatifs », écrit-il dans une note personnelle publiée avec la lettre.
« Pour progresser vers la superintelligence en sécurité, nous devons déterminer scientifiquement comment concevoir des systèmes d’IA fondamentalement incapables de nuire aux personnes, que ce soit par mésalignement ou par usage malveillant », ajoute-t-il.
« Il faut aussi s’assurer que le public ait une voix bien plus forte dans les décisions qui façonneront notre avenir commun. »
La lettre met en garde contre des menaces croissantes pour le monde, dont la perte de liberté, des atteintes aux libertés civiles et « l’obsolescence économique des humains ainsi que leur mise à l’écart ».
Parmi les autres signataires figurent l’animateur conservateur Glenn Beck, le fondateur de Virgin Group Sir Richard Branson, le cofondateur d’Apple Steve Wozniak, l’ancienne conseillère à la sécurité nationale Susan Rice et le commentateur politique Steve Bannon.
Le texte exprime sa consternation face au déploiement rapide de l’IA à travers une large palette de secteurs, d’idéologies politiques et de confessions religieuses.
« L’avenir de l’IA doit servir l’humanité, pas la remplacer », a déclaré le prince Harry, l’un des nombreux signataires aux côtés de son épouse, Meghan, dans une note personnelle publiée avec la lettre. « Le véritable test du progrès ne sera pas la vitesse à laquelle nous avançons, mais la sagesse avec laquelle nous orientons la trajectoire. »
Stuart Russell, pionnier de l’IA et professeur d’informatique à l’Université de Californie à Berkeley, affirme que cette déclaration n’est pas une interdiction ou un moratoire « au sens habituel ». Il s’agit plutôt, écrit-il, d’une proposition visant à instaurer les garde-fous nécessaires pour une technologie qui « a une probabilité significative de provoquer l’extinction de l’humanité ».
« Est-ce trop demander ? » interroge M. Russell.
Dans un billet de blog publié en 2015, le PDG d’OpenAI, Sam Altman, écrivait que l’essor d’une « intelligence machinique surhumaine (SMI) est probablement la plus grande menace pour la survie de l’humanité ».

Le PDG de Tesla, Elon Musk, assiste à la cérémonie commémorative « Construire un héritage : en souvenir de Charlie Kirk » au State Farm Stadium de Glendale, en Arizona, le 21 septembre 2025. (Madalina Kilroy/Epoch Times)

Elon Musk, PDG de Tesla et de SpaceX, a déclaré plus tôt cette année à l’animateur Joe Rogan qu’il n’y avait « qu’une chance de 20 % d’anéantissement ».
« La probabilité d’un scénario favorable est d’environ 80 % », a-t-il poursuivi.
La prudence ne s’exprime pas seulement chez les experts et les célébrités.
Le Future of Life Institute cite un sondage national récent mené auprès de 2000 adultes : seuls 5 % soutiennent « le statu quo d’un développement rapide et non réglementé ». Près des deux tiers (64 %) jugent que l’IA surhumaine ne devrait pas voir le jour tant qu’elle n’est pas prouvée sûre et contrôlable, voire « ne devrait jamais être développée ».
L’IA dans la rue et au travail
Depuis trois ans, Wall Street est immergée dans l’ascension de l’IA, et nombre d’observateurs comparent le phénomène à la bulle des dot-com d’il y a 25 ans.
D’autres estiment que la situation diffère grandement de l’exubérance de la fin des années 1990, lorsque les investisseurs déversaient des milliards dans les entreprises affublées du suffixe « .com ».
« Globalement, on observe certaines similitudes (concentration croissante du marché dans les valeurs technologiques ; investissements en capital agressifs anticipant les revenus) », note John Belton, gérant de portefeuille chez Gabelli Funds, dans un commentaire adressé par courriel à Epoch Times.
« Mais il serait réducteur d’affirmer que nous sommes dans une ‘bulle’ (presque certainement pas une bulle de valorisation ; on peut toutefois soutenir qu’il existe une certaine effervescence récente dans les flux de bénéfices). »
Bulle ou non, les entreprises accélèrent sur l’IA, et les travailleurs américains s’en inquiètent.
Selon des données publiées en juin par FactSet Insights, au deuxième trimestre, plus de 40 % des sociétés du S&P 500 ont mentionné « l’IA » lors de leurs appels de résultats. C’est le cinquième trimestre consécutif où plus de 200 entreprises de l’indice le font.
Un sondage Reuters-Ipsos réalisé cet été a révélé que 71 % des répondants redoutaient que l’IA « ne mette trop de gens au chômage de manière permanente ».
Si l’IA n’a pas encore entraîné de suppressions d’emplois à grande échelle, Christopher Waller, membre du directoire de la Réserve fédérale, a indiqué la semaine dernière que davantage d’entreprises se préparaient à intégrer la nouvelle technologie dans leurs opérations quotidiennes.
« Les distributeurs, en particulier, réduisent les effectifs dans les centres d’appels et les métiers liés à l’IT (Information Technology) », a déclaré M. Waller lors d’un événement de la DC Fintech Week, le 15 octobre. « Jusqu’ici, la plupart expliquent que cela se fait par attrition, mais un certain nombre de distributeurs évoquent un risque de réductions d’effectifs l’an prochain. »
Même les salariés œuvrant directement dans l’IA font face à des coupes.
Meta a annoncé, le 22 octobre, la suppression d’environ 600 postes au sein de ses Superintelligence Labs, une décision qui affectera Facebook Artificial Intelligence Research ainsi que d’autres produits et infrastructures d’IA et connexes.
Andrew Moran couvre les affaires, l'économie et la finance. Il est écrivain et reporter depuis plus de dix ans à Toronto, avec des articles publiés sur Liberty Nation, Digital Journal, et Career Addict. Il est également l'auteur de "The War on Cash" (La guerre contre le liquide).

Articles actuels de l’auteur