Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Les opérations de Carve-Out en France
DÉcouvrir
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
DÉcouvrir
Intelligence Artificielle : quels enjeux juridiques ?
Actualité
6/7/25

La Californie, fer de lance d’une régulation pragmatique de l’intelligence artificielle : analyse comparative avec l’AI Act européen

Le 17 juin 2025, la Californie a publié le California Report on Frontier AI Policy, résultat des travaux d’un groupe d’experts mandaté par le gouverneur Gavin Newsom et réunissant des universitaires de Stanford, UC Berkeley et des membres du Carnegie Endowment. Ce rapport, bien qu’il ne constitue pas une législation contraignante, trace une voie ambitieuse pour la gouvernance des systèmes d’intelligence artificielle de pointe (frontier AI).

Dès ses premières pages, le rapport souligne les enjeux :

“Continued progress in frontier AI carries the potential for profound advances in scientific discovery, economic productivity, and broader social well‑being, but also for catastrophic risks that demand a commensurate policy response.”

En Europe, l’adoption en mars 2024 du règlement sur l’intelligence artificielle (AI Act) a marqué une approche différente : celle d’un cadre légal unifié et prescriptif, fondé sur une classification stricte des niveaux de risque. La comparaison entre ces deux philosophies de régulation éclaire les choix stratégiques qui se dessinent de part et d’autre de l’Atlantique.

Transparence et vérification indépendante

Le rapport californien établit la transparence comme principe fondateur. Il recommande que les développeurs de systèmes d’IA de pointe :

  • publient des informations détaillées et accessibles sur les caractéristiques des modèles, leurs protocoles de sécurité et les résultats des audits internes,
  • soumettent leurs systèmes à des évaluations externes menées par des entités tierces indépendantes,
  • et assurent la protection des lanceurs d’alerte afin d’encourager la communication d’informations critiques sur d’éventuelles failles.

Pour les rédacteurs du rapport, il s’agit de créer une culture de responsabilité :

“Transparency and independent risk assessment are essential to align commercial incentives with public welfare.”

Perspective européenne

Le règlement européen impose lui aussi des obligations de transparence pour les systèmes d’IA classés à haut risque. Ces obligations incluent la fourniture d’informations claires aux utilisateurs professionnels, la documentation technique détaillée pour les autorités de contrôle, et la traçabilité des opérations du système. Mais contrairement à la Californie, où la publication d’informations pourrait être orientée vers un public plus large, l’AI Act se concentre sur la relation entre fournisseur, utilisateur et autorité de régulation.

Signalement des incidents : adverse event reporting

L’une des propositions centrales du rapport californien est la création d’un système structuré de notification des incidents liés à l’utilisation des IA. Ce mécanisme, inspiré des secteurs de la santé et de la cybersécurité, permettrait de recenser et d’analyser les événements indésirables afin d’anticiper les dérives systémiques :

“Adverse event reporting systems address a core impediment to targeted AI regulation by enabling regulators to learn about realized harms and unanticipated sources of risk.”

Ce système inclurait :

  • la définition précise des événements à signaler,
  • l’identification des parties responsables de ces notifications,
  • et la mise en place d’un cadre d’accès aux données, pouvant aller jusqu’à une certaine ouverture publique.

Perspective européenne

Le règlement européen prévoit également des obligations de notification des incidents pour les systèmes d’IA à haut risque, en cas de défaillances ou d’effets imprévus susceptibles de causer un préjudice. Toutefois, cette obligation apparaît moins détaillée et ne prévoit pas, à ce stade, la création d’une base de données accessible aux parties prenantes, ce qui distingue la philosophie californienne, plus orientée vers l’apprentissage collectif.

Seuils techniques et périmètre d’application

Le rapport californien préconise l’adoption de seuils techniques (tels que la puissance de calcul mobilisée ou le coût global du développement) comme outils de filtrage pour cibler les systèmes nécessitant une surveillance renforcée. Ces seuils seraient régulièrement révisés pour tenir compte des évolutions technologiques :

“Policymakers should ensure that mechanisms are in place to adapt thresholds over time.”

Perspective européenne

Le règlement européen ne prévoit pas de seuils techniques explicites. Il classe les systèmes selon leur domaine d’application et leur impact potentiel sur des droits fondamentaux, en désignant certains secteurs critiques (santé, infrastructures, éducation, sécurité) comme générateurs de risque élevé. Cette différence traduit une orientation européenne vers la finalité d’usage plutôt que vers les caractéristiques techniques du système.

Une régulation adaptative face à un cadre rigide

L’approche californienne assume une philosophie de gouvernance évolutive :

“Our goal is not to impose rigid rules but to outline a set of principles and tools that enable adaptive, evidence-based oversight.”

Ce modèle repose sur la collecte continue de données, la capacité d’adaptation rapide des normes et une collaboration étroite entre acteurs publics et privés.

Perspective européenne

Le cadre européen, bien qu’il intègre un mécanisme d’adaptation permettant de modifier certains aspects techniques, reste fondamentalement prescriptif et structuré autour d’obligations définies dans le texte législatif de base.

Conclusion : Deux modèles de gouvernance

La comparaison entre le California Report on Frontier AI Policy et le règlement européen sur l’IA révèle deux conceptions complémentaires :

  • L’Europe, fidèle à sa tradition juridique, privilégie une approche préventive, uniforme et contraignante.
  • La Californie adopte une posture pragmatique, centrée sur la proportionnalité, la transparence et l’adaptation continue.

Ces deux philosophies, bien que divergentes dans leur mise en œuvre, pourraient converger à terme vers des standards internationaux combinant rigueur normative et flexibilité opérationnelle.

Cet article a été rédigé par Me Vincent Fauchoux, avocat au barreau de Paris, spécialiste en droit de l’intelligence artificielle. Pour toute analyse approfondie des implications de ces cadres juridiques dans un contexte américain, il est recommandé de consulter un avocat habilité à exercer aux États‑Unis.

Vincent FAUCHOUX
Découvrez l'eBook : Les opérations de Carve-Out en France
Télécharger
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.