Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus
Actualité
22/10/25

Le « Statement on Superintelligence » du Future of Life Institute (octobre 2025) : vers une interdiction conditionnelle du développement de la superintelligence

Le 22 octobre 2025, le Future of Life Institute (FLI) a publié un texte d’à peine trente mots, mais dont la portée politique et éthique est considérable :

“We call for a prohibition on the development of superintelligence, not lifted before there is broad scientific consensus that it will be done safely and controllably, and strong public buy-in.”

Par cette déclaration, le FLI et plusieurs milliers de signataires, parmi lesquels Geoffrey Hinton, Yoshua Bengio, Steve Wozniak, Richard Branson, Mary Robinson, Meghan Markle et Steve Bannon, appellent à une prohibition du développement de la superintelligence, tant que deux conditions ne sont pas réunies :

  1. un large consensus scientifique garantissant que ce développement peut être réalisé de manière sûre et contrôlable ;
  2. une forte adhésion du public.

Un changement de paradigme dans la régulation de l’intelligence artificielle

Contrairement à la lettre ouverte de mars 2023, qui demandait une simple pause de six mois dans le développement de modèles d’IA avancée, le Statement on Superintelligence prône une interdiction conditionnelle : non plus un moratoire limité, mais un gel global de la course vers la superintelligence tant que la sûreté scientifique et le consentement démocratique ne sont pas établis.

Le FLI désigne par superintelligence des systèmes capables de dépasser les capacités humaines dans la plupart des tâches cognitives. Les risques évoqués sont systémiques : perte de contrôle, manipulation politique, désintégration du marché du travail, et, dans l’hypothèse extrême, menace existentielle pour l’humanité.

Les conditions de levée de la prohibition

Le texte ne précise ni l’autorité compétente pour évaluer ces conditions, ni la procédure d’établissement du consensus scientifique ou du consentement public.

Juridiquement, la notion de « prohibition » implique un interdit normatif, et non une simple recommandation éthique. Elle suppose la mise en place d’un instrument contraignant, national ou international, fondé sur le principe de précaution et la sécurité collective.

Une telle approche nécessiterait :

  • la création d’un organe d’évaluation scientifique indépendant, chargé d’attester la sûreté et la contrôlabilité des systèmes d’IA avancée ;
  • un mécanisme démocratique de validation publique, par consultation citoyenne ou mandat parlementaire ;
  • et la mise en place d’un dispositif de contrôle du « compute », c’est-à-dire de la puissance de calcul et des infrastructures permettant l’entraînement des systèmes les plus puissants.

Une position plus radicale que celle du droit européen

Le Statement on Superintelligence se situe bien au-delà du règlement européen sur l’intelligence artificielle (IA Act), qui repose sur une approche par niveaux de risque et ne prévoit aucune interdiction générale du développement d’IA dite « forte ».

Là où l’IA Act impose des obligations de transparence, de traçabilité et de maîtrise des risques pour les systèmes à usage général, le FLI appelle à un principe d’interdiction préalable, applicable tant que la science et la société n’ont pas validé la possibilité d’un déploiement sûr.

Vers un principe de suspension démocratique du progrès technologique

Ce texte, d’une extrême concision, introduit une idée nouvelle : celle d’un principe de suspension démocratique du développement technologique, tant que les conditions de sûreté et de contrôle collectif ne sont pas garanties.

Une telle logique évoque les moratoires internationaux déjà connus en matière de recherche nucléaire, de biotechnologies ou d’armes chimiques : la science y reste libre, mais son application est soumise à un contrôle collectif.

Le Statement on Superintelligence ouvre ainsi une réflexion inédite : celle d’un droit mondial de la technologie capable de suspendre, au nom de la prudence, l’une des trajectoires les plus puissantes de l’histoire humaine.

Vincent FAUCHOUX
Image par Canva
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.