


Le contentieux engagé par la société Anthropic, l’un des principaux acteurs mondiaux de l’intelligence artificielle générative, contre le Department of War des États-Unis et plusieurs responsables fédéraux constitue un épisode particulièrement révélateur des tensions croissantes entre régulation publique, sécurité nationale et gouvernance éthique des technologies d’intelligence artificielle.
Le texte intégral de la plainte déposée par Anthropic peut être consulté en cliquant sur ce lien.
Dans cette affaire introduite devant la United States District Court for the Northern District of California, Anthropic conteste une décision administrative particulièrement radicale : une ordonnance ministérielle interdisant à tout partenaire contractuel du ministère de la Défense d’entretenir des relations commerciales avec la société. L’entreprise soutient que cette mesure, présentée comme une décision de sécurité nationale, constitue en réalité une sanction illégale et une mesure de représailles liée à ses prises de position publiques sur les limites éthiques de l’utilisation de l’intelligence artificielle.
Ce litige soulève ainsi des questions juridiques majeures mêlant droit administratif fédéral, liberté d’expression et gouvernance technologique, dans un contexte où les systèmes d’intelligence artificielle occupent désormais une place centrale dans les enjeux stratégiques et militaires contemporains.
Au cœur du litige figure une ordonnance adoptée le 27 février 2026 par le Secrétaire du Department of War, désignant Anthropic comme un « supply-chain risk to national security », c’est-à-dire un risque pour la sécurité de la chaîne d’approvisionnement du ministère de la Défense.
Cette décision produit des effets immédiats et particulièrement étendus. L’ordonnance prévoit en effet que tout contractant, fournisseur ou partenaire travaillant avec l’armée américaine se voit interdire toute activité commerciale avec Anthropic. La mesure est présentée comme immédiatement exécutoire et définitive, ce qui revient en pratique à exclure l’entreprise d’une part significative de l’écosystème technologique lié à la défense américaine.
Dans sa plainte, Anthropic soutient que cette mesure constitue une sanction administrative déguisée, affectant directement sa capacité à participer aux marchés publics et à maintenir des relations commerciales avec de nombreux partenaires industriels.
L’entreprise rappelle qu’elle entretenait jusqu’alors une collaboration étroite avec le Department of War et que son modèle Claude figurait parmi les systèmes d’intelligence artificielle les plus utilisés par l’administration américaine, y compris dans certains environnements classifiés.
La décision contestée apparaît ainsi d’autant plus spectaculaire qu’elle intervient dans un contexte de coopération technologique avancée entre l’entreprise et l’administration fédérale.
Derrière le litige juridique se trouve en réalité un désaccord technique et éthique majeur sur les conditions d’utilisation des modèles d’intelligence artificielle développés par Anthropic, et en particulier de son modèle Claude.
Depuis sa création, Anthropic affirme avoir structuré le développement de ses systèmes autour d’une politique d’usage responsable comportant certaines restrictions techniques explicites. Parmi celles-ci figurent notamment deux limitations fondamentales : l’interdiction d’utiliser ses modèles pour la conduite d’opérations militaires létales autonomes et pour la surveillance massive de citoyens américains.
Selon la société, ces restrictions découlent directement de sa connaissance des capacités et des limites techniques de ses modèles, notamment de leur propension à commettre des erreurs ou à produire des analyses erronées lorsqu’ils sont utilisés dans des contextes critiques.
Anthropic indique ainsi n’avoir jamais validé l’utilisation de Claude dans des systèmes de guerre autonome létale, estimant ne pas disposer de garanties suffisantes quant à la fiabilité et à la sécurité d’un tel usage. De même, l’entreprise considère que la capacité de ses modèles à analyser et synthétiser de vastes ensembles de données pourrait, en l’absence de garde-fous appropriés, faciliter des dispositifs de surveillance généralisée de populations, ce qui justifie le maintien de restrictions spécifiques dans sa politique d’utilisation.
Le Department of War aurait toutefois demandé à la société de supprimer ces limitations et de remplacer sa politique d’usage par une autorisation générale permettant au gouvernement de faire « tout usage légal » de la technologie.
Si Anthropic affirme avoir accepté plusieurs adaptations de ses règles d’utilisation afin de tenir compte des missions particulières de l’administration américaine, elle indique avoir refusé de lever ces deux interdictions qu’elle considère comme essentielles à la sécurité et à la gouvernance responsable de ses systèmes.
C’est ce désaccord technique et éthique, portant sur l’étendue des usages militaires et sécuritaires autorisés pour les modèles d’intelligence artificielle, qui aurait progressivement conduit à la rupture des relations entre l’entreprise et l’administration fédérale.
Sur le plan juridique, la plainte d’Anthropic repose principalement sur deux fondements.
Le premier concerne le droit administratif fédéral, et plus précisément les dispositions de l’Administrative Procedure Act (APA). La société soutient que l’ordonnance ministérielle constitue une « final agency action », produisant des effets juridiques immédiats et susceptibles de contrôle juridictionnel.
Selon Anthropic, cette décision serait entachée de plusieurs illégalités, notamment parce qu’elle excéderait les pouvoirs conférés au ministère par la législation applicable et qu’elle constituerait une décision arbitraire ou capricieuse au sens de l’article 706 de l’Administrative Procedure Act.
La société soutient en outre que l’administration aurait fondé sa décision sur des considérations étrangères aux critères juridiques applicables, notamment ses positions publiques dans les débats relatifs à la sécurité et à l’éthique de l’intelligence artificielle.
Le second fondement invoqué est de nature constitutionnelle. Anthropic soutient en effet que les mesures prises par les autorités fédérales constituent une forme de représailles à l’égard de ses prises de position publiques, en violation du Premier Amendement de la Constitution des États-Unis, qui protège la liberté d’expression et le droit de pétition.
Conclusion
L’affaire Anthropic v. U.S. Department of War et al. illustre de manière particulièrement saisissante les tensions émergentes entre développement des technologies d’intelligence artificielle, souveraineté étatique, sécurité nationale et gouvernance éthique de l’innovation technologique.
Au-delà du litige opposant une entreprise technologique à l’administration fédérale, cette procédure met en lumière une question désormais centrale : qui doit définir les limites d’usage des systèmes d’intelligence artificielle les plus avancés ? Les entreprises qui les développent ou les États, au nom de leurs impératifs stratégiques et sécuritaires.
La décision que rendra la juridiction fédérale pourrait constituer un précédent important dans la structuration juridique des relations entre les acteurs privés de l’intelligence artificielle et les autorités publiques, à un moment où ces technologies s’imposent comme l’un des enjeux majeurs de la compétition technologique mondiale.
