Le 24 septembre 2025, le Conseil de sécurité des Nations Unies a tenu un débat de haut niveau consacré à « L’intelligence artificielle et la paix et la sécurité internationales », en marge de l’Assemblée générale.
Ce débat marque un tournant : l’IA n’y est plus appréhendée comme une simple innovation technologique ou un levier économique, mais comme un facteur décisif de stabilité – ou de déstabilisation – du système international.
Dans son discours d’ouverture, le Secrétaire général de l’ONU, António Guterres, a déclaré :
« La fenêtre d’opportunité pour façonner l’IA, au service de la paix, de la justice et de l’humanité, est en train de se refermer. Nous devons agir sans tarder. »
Il a rappelé que la communauté internationale avait su, par le passé, encadrer des technologies potentiellement déstabilisantes, qu’il s’agisse du contrôle des armements nucléaires ou de la sécurité aérienne, en fixant des règles et en créant des institutions centrées sur la dignité humaine.
Désormais, la question n’est plus de savoir si l’IA influencera la paix et la sécurité internationales, mais comment nous en orienterons l’impact.
Le Secrétaire général a insisté sur le fait que l’IA est « déjà là », transformant à grande vitesse l’économie mondiale, l’espace de l’information et les relations internationales.
Utilisée de manière responsable, elle pourrait :
Mais « sans garde-fou, elle peut aussi devenir une arme », a-t-il averti, en pointant plusieurs risques majeurs :
Le Secrétaire général a appelé la communauté internationale à concentrer ses efforts sur quatre priorités :
Il a également rappelé que l’Assemblée générale a créé, en août 2025, un Groupe scientifique international indépendant sur l’IA et instauré un Dialogue mondial annuel sur la gouvernance de l’IA, destiné à favoriser une coordination multilatérale durable.
Deux scientifiques de premier plan sont intervenus devant le Conseil :
Si la trajectoire actuelle se poursuit, certaines IA pourraient dépasser les capacités humaines dans la plupart des tâches cognitives d’ici cinq ans.
Il a identifié trois menaces principales :
« Si les capacités des modèles d’IA continuent de croître sans garanties scientifiques qu’ils soient sûrs et alignés sur nos intentions, nous pourrions atteindre un point où l’IA fonctionnerait de manière irréversible, hors de tout contrôle, mettant ainsi l’humanité en danger. »
b) Yejin Choi, professeure à l’Université de Washington et chercheuse au Stanford Institute for Human-Centered AI,
Yejin Choi a plaidé pour une approche inclusive et équitable du développement de l’IA, appelant à un « investissement collectif audacieux » dans la recherche à haut risque et haut rendement, et à la mise en place d’infrastructures publiques et partagées.
Les échanges au Conseil ont mis en évidence plusieurs défis de droit international :
Ces défis appellent la mise en place de normes internationales, de mécanismes de transparence et de dispositifs de supervision indépendants, afin que l’IA demeure sous le contrôle effectif des institutions humaines.
Le débat du 24 septembre 2025 au Conseil de sécurité consacre l’IA comme un enjeu stratégique de gouvernance mondiale.
Les risques ne sont plus hypothétiques : ils sont déjà visibles dans les conflits armés, les cyberattaques et les campagnes de désinformation.
L’appel du Secrétaire général résonne comme un avertissement :
« Nous devons agir sans tarder. »
Il appartient désormais aux États, aux organisations internationales et aux acteurs privés de traduire cet appel en cadres juridiques clairs, contraignants et adaptatifs, afin de préserver la paix et la sécurité internationales et de garantir que l’IA serve la dignité humaine et le bien commun.
Pour accéder aux documents officiels des Nations Unies relatifs à ce débat : cliquez ici.