Le 17 juin 2025, la Californie a publié le California Report on Frontier AI Policy, résultat des travaux d’un groupe d’experts mandaté par le gouverneur Gavin Newsom et réunissant des universitaires de Stanford, UC Berkeley et des membres du Carnegie Endowment. Ce rapport, bien qu’il ne constitue pas une législation contraignante, trace une voie ambitieuse pour la gouvernance des systèmes d’intelligence artificielle de pointe (frontier AI).
Dès ses premières pages, le rapport souligne les enjeux :
“Continued progress in frontier AI carries the potential for profound advances in scientific discovery, economic productivity, and broader social well‑being, but also for catastrophic risks that demand a commensurate policy response.”
En Europe, l’adoption en mars 2024 du règlement sur l’intelligence artificielle (AI Act) a marqué une approche différente : celle d’un cadre légal unifié et prescriptif, fondé sur une classification stricte des niveaux de risque. La comparaison entre ces deux philosophies de régulation éclaire les choix stratégiques qui se dessinent de part et d’autre de l’Atlantique.
Le rapport californien établit la transparence comme principe fondateur. Il recommande que les développeurs de systèmes d’IA de pointe :
Pour les rédacteurs du rapport, il s’agit de créer une culture de responsabilité :
“Transparency and independent risk assessment are essential to align commercial incentives with public welfare.”
Perspective européenne
Le règlement européen impose lui aussi des obligations de transparence pour les systèmes d’IA classés à haut risque. Ces obligations incluent la fourniture d’informations claires aux utilisateurs professionnels, la documentation technique détaillée pour les autorités de contrôle, et la traçabilité des opérations du système. Mais contrairement à la Californie, où la publication d’informations pourrait être orientée vers un public plus large, l’AI Act se concentre sur la relation entre fournisseur, utilisateur et autorité de régulation.
L’une des propositions centrales du rapport californien est la création d’un système structuré de notification des incidents liés à l’utilisation des IA. Ce mécanisme, inspiré des secteurs de la santé et de la cybersécurité, permettrait de recenser et d’analyser les événements indésirables afin d’anticiper les dérives systémiques :
“Adverse event reporting systems address a core impediment to targeted AI regulation by enabling regulators to learn about realized harms and unanticipated sources of risk.”
Ce système inclurait :
Perspective européenne
Le règlement européen prévoit également des obligations de notification des incidents pour les systèmes d’IA à haut risque, en cas de défaillances ou d’effets imprévus susceptibles de causer un préjudice. Toutefois, cette obligation apparaît moins détaillée et ne prévoit pas, à ce stade, la création d’une base de données accessible aux parties prenantes, ce qui distingue la philosophie californienne, plus orientée vers l’apprentissage collectif.
Le rapport californien préconise l’adoption de seuils techniques (tels que la puissance de calcul mobilisée ou le coût global du développement) comme outils de filtrage pour cibler les systèmes nécessitant une surveillance renforcée. Ces seuils seraient régulièrement révisés pour tenir compte des évolutions technologiques :
“Policymakers should ensure that mechanisms are in place to adapt thresholds over time.”
Perspective européenne
Le règlement européen ne prévoit pas de seuils techniques explicites. Il classe les systèmes selon leur domaine d’application et leur impact potentiel sur des droits fondamentaux, en désignant certains secteurs critiques (santé, infrastructures, éducation, sécurité) comme générateurs de risque élevé. Cette différence traduit une orientation européenne vers la finalité d’usage plutôt que vers les caractéristiques techniques du système.
L’approche californienne assume une philosophie de gouvernance évolutive :
“Our goal is not to impose rigid rules but to outline a set of principles and tools that enable adaptive, evidence-based oversight.”
Ce modèle repose sur la collecte continue de données, la capacité d’adaptation rapide des normes et une collaboration étroite entre acteurs publics et privés.
Perspective européenne
Le cadre européen, bien qu’il intègre un mécanisme d’adaptation permettant de modifier certains aspects techniques, reste fondamentalement prescriptif et structuré autour d’obligations définies dans le texte législatif de base.
La comparaison entre le California Report on Frontier AI Policy et le règlement européen sur l’IA révèle deux conceptions complémentaires :
Ces deux philosophies, bien que divergentes dans leur mise en œuvre, pourraient converger à terme vers des standards internationaux combinant rigueur normative et flexibilité opérationnelle.
Cet article a été rédigé par Me Vincent Fauchoux, avocat au barreau de Paris, spécialiste en droit de l’intelligence artificielle. Pour toute analyse approfondie des implications de ces cadres juridiques dans un contexte américain, il est recommandé de consulter un avocat habilité à exercer aux États‑Unis.