


Le 22 octobre 2025, le Future of Life Institute (FLI) a publié un texte d’à peine trente mots, mais dont la portée politique et éthique est considérable :
“We call for a prohibition on the development of superintelligence, not lifted before there is broad scientific consensus that it will be done safely and controllably, and strong public buy-in.”
Par cette déclaration, le FLI et plusieurs milliers de signataires, parmi lesquels Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, Richard Branson, Mary Robinson, Meghan Markle et Steve Bannon, appellent à une prohibition du développement de la superintelligence, tant que deux conditions ne sont pas réunies :
Contrairement à la lettre ouverte de mars 2023, qui demandait une simple pause de six mois dans le développement de modèles d’IA avancée, le Statement on Superintelligence prône une interdiction conditionnelle : non plus un moratoire limité, mais un gel global de la course vers la superintelligence tant que la sûreté scientifique et le consentement démocratique ne sont pas établis.
Le FLI désigne par superintelligence des systèmes capables de dépasser les capacités humaines dans la plupart des tâches cognitives. Les risques évoqués sont systémiques : perte de contrôle, manipulation politique, désintégration du marché du travail, et, dans l’hypothèse extrême, menace existentielle pour l’humanité.
Le texte ne précise ni l’autorité compétente pour évaluer ces conditions, ni la procédure d’établissement du consensus scientifique ou du consentement public.
Juridiquement, la notion de « prohibition » implique un interdit normatif, et non une simple recommandation éthique. Elle suppose la mise en place d’un instrument contraignant, national ou international, fondé sur le principe de précaution et la sécurité collective.
Une telle approche nécessiterait :
Le Statement on Superintelligence se situe bien au-delà du règlement européen sur l’intelligence artificielle (IA Act), qui repose sur une approche par niveaux de risque et ne prévoit aucune interdiction générale du développement d’IA dite « forte ».
Là où l’IA Act impose des obligations de transparence, de traçabilité et de maîtrise des risques pour les systèmes à usage général, le FLI appelle à un principe d’interdiction préalable, applicable tant que la science et la société n’ont pas validé la possibilité d’un déploiement sûr.
Ce texte, d’une extrême concision, introduit une idée nouvelle : celle d’un principe de suspension démocratique du développement technologique, tant que les conditions de sûreté et de contrôle collectif ne sont pas garanties.
Une telle logique évoque les moratoires internationaux déjà connus en matière de recherche nucléaire, de biotechnologies ou d’armes chimiques : la science y reste libre, mais son application est soumise à un contrôle collectif.
Le Statement on Superintelligence ouvre ainsi une réflexion inédite : celle d’un droit mondial de la technologie capable de suspendre, au nom de la prudence, l’une des trajectoires les plus puissantes de l’histoire humaine.

