Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus
Actualité
26/9/25

L’ONU alerte sur l’intelligence artificielle : enjeux pour la paix et la sécurité internationales

Le 24 septembre 2025, le Conseil de sécurité des Nations Unies a tenu un débat de haut niveau consacré à « L’intelligence artificielle et la paix et la sécurité internationales », en marge de l’Assemblée générale.

Ce débat marque un tournant : l’IA n’y est plus appréhendée comme une simple innovation technologique ou un levier économique, mais comme un facteur décisif de stabilité – ou de déstabilisation – du système international.

1. « La fenêtre d’opportunité se referme »

Dans son discours d’ouverture, le Secrétaire général de l’ONU, António Guterres, a déclaré :

« La fenêtre d’opportunité pour façonner l’IA, au service de la paix, de la justice et de l’humanité, est en train de se refermer. Nous devons agir sans tarder. »

Il a rappelé que la communauté internationale avait su, par le passé, encadrer des technologies potentiellement déstabilisantes, qu’il s’agisse du contrôle des armements nucléaires ou de la sécurité aérienne, en fixant des règles et en créant des institutions centrées sur la dignité humaine.

Désormais, la question n’est plus de savoir si l’IA influencera la paix et la sécurité internationales, mais comment nous en orienterons l’impact.

2. Un instrument ambivalent : entre prévention et déstabilisation

Le Secrétaire général a insisté sur le fait que l’IA est « déjà là », transformant à grande vitesse l’économie mondiale, l’espace de l’information et les relations internationales.

Utilisée de manière responsable, elle pourrait :

  • anticiper l’insécurité alimentaire et les déplacements de population,
  • faciliter le déminage et les opérations humanitaires,
  • détecter précocement les signes de montée de la violence,
  • renforcer les dispositifs de protection des civils.

Mais « sans garde-fou, elle peut aussi devenir une arme », a-t-il averti, en pointant plusieurs risques majeurs :

  • l’emploi de systèmes de ciblage autonomes dans les conflits armés,
  • les cyberattaques facilitées par l’IA, susceptibles de déstabiliser des infrastructures critiques en quelques minutes,
  • la production et la diffusion de contenus falsifiés – images, audio, vidéos – menaçant l’intégrité de l’information et la confiance publique,
  • la pression croissante sur les ressources énergétiques, hydriques et sur les minerais stratégiques nécessaires aux grands modèles d’IA, facteur de nouvelles tensions géopolitiques.

3. Quatre priorités pour une gouvernance mondiale de l’IA

Le Secrétaire général a appelé la communauté internationale à concentrer ses efforts sur quatre priorités :

  1. Préserver le contrôle humain sur l’emploi de la force, afin que les décisions létales ne soient jamais déléguées à des systèmes autonomes.
  2. Élaborer des cadres réglementaires mondiaux cohérents, pour éviter la fragmentation normative et les vides juridiques propices aux abus.
  3. Protéger l’intégrité de l’information dans les contextes de conflit et d’insécurité, face à la désinformation et à la manipulation algorithmique.
  4. Réduire les écarts de capacités en matière d’IA entre États et régions, pour que l’innovation ne creuse pas davantage les inégalités et ne nourrisse pas de nouvelles sources d’instabilité.

Il a également rappelé que l’Assemblée générale a créé, en août 2025, un Groupe scientifique international indépendant sur l’IA et instauré un Dialogue mondial annuel sur la gouvernance de l’IA, destiné à favoriser une coordination multilatérale durable.

4. L’avertissement scientifique : maîtrise et responsabilité

Deux scientifiques de premier plan sont intervenus devant le Conseil :

a) Yoshua Bengio, professeur à l’Université de Montréal, a mis en garde

Si la trajectoire actuelle se poursuit, certaines IA pourraient dépasser les capacités humaines dans la plupart des tâches cognitives d’ici cinq ans.

Il a identifié trois menaces principales :

  • la concentration du pouvoir technologique et économique entre un petit nombre d’acteurs ;
  • l’usage malveillant de l’IA, facilitant cyberattaques et campagnes de désinformation sophistiquées ;
  • le désalignement et la perte de contrôle humain sur les systèmes les plus avancés.
« Si les capacités des modèles d’IA continuent de croître sans garanties scientifiques qu’ils soient sûrs et alignés sur nos intentions, nous pourrions atteindre un point où l’IA fonctionnerait de manière irréversible, hors de tout contrôle, mettant ainsi l’humanité en danger. »

b) Yejin Choi, professeure à l’Université de Washington et chercheuse au Stanford Institute for Human-Centered AI,

Yejin Choi a plaidé pour une approche inclusive et équitable du développement de l’IA, appelant à un « investissement collectif audacieux » dans la recherche à haut risque et haut rendement, et à la mise en place d’infrastructures publiques et partagées.

5. Enjeux juridiques et normatifs

Les échanges au Conseil ont mis en évidence plusieurs défis de droit international :

  • Compatibilité avec le droit international humanitaire (DIH) : comment garantir le respect des principes de distinction et de proportionnalité lorsque des systèmes autonomes prennent des décisions létales ? Qui est responsable en cas de violation des règles applicables aux conflits armés ?
  • Protection des droits fondamentaux et de l’intégrité de l’information : la manipulation algorithmique des contenus porte atteinte à la liberté d’expression et au droit d’accès à une information fiable, deux éléments essentiels au maintien de la paix et de la sécurité.
  • Traçabilité et responsabilité : l’opacité technique des modèles d’IA complique l’attribution des responsabilités, qu’il s’agisse de dommages civils, d’infractions pénales ou de manquements des États à leurs obligations internationales.

Ces défis appellent la mise en place de normes internationales, de mécanismes de transparence et de dispositifs de supervision indépendants, afin que l’IA demeure sous le contrôle effectif des institutions humaines.

Conclusion : un appel à l’action collective et à la régulation juridique

Le débat du 24 septembre 2025 au Conseil de sécurité consacre l’IA comme un enjeu stratégique de gouvernance mondiale.

Les risques ne sont plus hypothétiques : ils sont déjà visibles dans les conflits armés, les cyberattaques et les campagnes de désinformation.

L’appel du Secrétaire général résonne comme un avertissement :

« Nous devons agir sans tarder. »

Il appartient désormais aux États, aux organisations internationales et aux acteurs privés de traduire cet appel en cadres juridiques clairs, contraignants et adaptatifs, afin de préserver la paix et la sécurité internationales et de garantir que l’IA serve la dignité humaine et le bien commun.

Pour accéder aux documents officiels des Nations Unies relatifs à ce débat : cliquez ici.

Vincent FAUCHOUX
Image par Canva
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.