Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Les opérations de Carve-Out en France
DÉcouvrir
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
DÉcouvrir
Intelligence Artificielle : quels enjeux juridiques ?
Actualité
4/7/25

Comment réparer les préjudices résultant de l’utilisation d’un système d’IA

Le site de la Cour d’appel de Paris propose depuis 2016 différentes fiches méthodologiques sur la réparation du préjudice économique. L’ensemble constitue un « recueil de bonnes pratiques » traitant de sujets généraux (le lien de causalité, le préjudice moral, etc.) ou de fautes spécifiques (réparation des préjudices résultant d’actes de concurrence déloyale, d’actes de parasitisme, de contrefaçon, etc.).

Désormais, une fiche « 24 » propose des pistes aux praticiens pour « aborder l’évaluation du préjudice résultant de l’utilisation de systèmes d’IA ».

Après un rappel du cadre normatif existant et de la notion de risque lié à l’IA (Règlement européen sur l’IA - 2024/1689), la fiche confirme que le préjudice résultant de l’utilisation d’une IA, qu’il soit « matériel ou immatériel, y compris physique, psychologique, sociétal ou économique », doit pouvoir être réparé.

Elle rejette le principe de l’attribution d’une personnalité juridique à des « robots » qui déresponsabiliserait les acteurs économiques et invite à recourir au droit commun de la responsabilité.

S’agissant de la responsabilité pour faute, la Cour précise que la démonstration d’un lien de causalité pourrait être une chose ardue (en raison de la complexité technologique et de l’effet « boite noire ») et évoque l’instauration d’une présomption judiciaire : les magistrats pourraient examiner les indices qui leur sont soumis et exercer leur pouvoir souverain pour déduire l’existence d’un fait. Cette invitation - si elle était suivie - pourrait alléger considérablement la charge de la preuve du demandeur. S’agissant de la responsabilité du fait des choses, la Cour relève que la distinction entre la garde de la structure et la garde du comportement, pourrait départager les responsabilités du fabricant et du déployeur.

La Cour examine ensuite le régime des responsabilités spéciales et notamment de la contrefaçon et le fait de manière pour le moins tranchée. Elle indique en substance :

  • Les modèles d’IA « s’entrainent sur de masses de données parmi lesquelles des contenus protégés par le droit d’auteur ». Il existe une exception de fouille de textes et de données, mais les deux conditions auxquelles elle est soumise (source licite et opt-out) « font souvent défaut ». En outre, les solutions d’IA permettent de générer des contenus qui « font directement concurrence aux contenus entrants, voire s’y substituent ce qui pourrait déclencher une violation du test en trois étapes, filtre supplémentaire à l’application de exceptions ». En tant que de besoin, la présomption judiciaire pourrait être mobilisée. En conséquence, des actes de contrefaçon pourraient être caractérisés ;
  • Par ailleurs, s’agissant des contenus générés, des actes de contrefaçon pourraient être caractérisés si des « éléments protégés de contenus entrants sont « régurgités » dans la production synthétique par l’IA (ce qui est une hypothèse rare) ». Si « seul le style est reris dans la génération de productions par l’IA », la contrefaçon ne pourrait être retenue… mais « la concurrence déloyale et le parasitisme pourraient bien l’être ».

La position est à tout le moins clairement exprimée.

Jean-Daniel BOUHENIC
Découvrez l'eBook : Les opérations de Carve-Out en France
Télécharger
Découvrez le Livre Blanc : "Intelligence artificielle : quels enjeux juridiques"
Télécharger
Intelligence Artificielle : quels enjeux juridiques ?

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.