Le site de la Cour d’appel de Paris propose depuis 2016 différentes fiches méthodologiques sur la réparation du préjudice économique. L’ensemble constitue un « recueil de bonnes pratiques » traitant de sujets généraux (le lien de causalité, le préjudice moral, etc.) ou de fautes spécifiques (réparation des préjudices résultant d’actes de concurrence déloyale, d’actes de parasitisme, de contrefaçon, etc.).
Désormais, une fiche « 24 » propose des pistes aux praticiens pour « aborder l’évaluation du préjudice résultant de l’utilisation de systèmes d’IA ».
Après un rappel du cadre normatif existant et de la notion de risque lié à l’IA (Règlement européen sur l’IA - 2024/1689), la fiche confirme que le préjudice résultant de l’utilisation d’une IA, qu’il soit « matériel ou immatériel, y compris physique, psychologique, sociétal ou économique », doit pouvoir être réparé.
Elle rejette le principe de l’attribution d’une personnalité juridique à des « robots » qui déresponsabiliserait les acteurs économiques et invite à recourir au droit commun de la responsabilité.
S’agissant de la responsabilité pour faute, la Cour précise que la démonstration d’un lien de causalité pourrait être une chose ardue (en raison de la complexité technologique et de l’effet « boite noire ») et évoque l’instauration d’une présomption judiciaire : les magistrats pourraient examiner les indices qui leur sont soumis et exercer leur pouvoir souverain pour déduire l’existence d’un fait. Cette invitation - si elle était suivie - pourrait alléger considérablement la charge de la preuve du demandeur. S’agissant de la responsabilité du fait des choses, la Cour relève que la distinction entre la garde de la structure et la garde du comportement, pourrait départager les responsabilités du fabricant et du déployeur.
La Cour examine ensuite le régime des responsabilités spéciales et notamment de la contrefaçon et le fait de manière pour le moins tranchée. Elle indique en substance :
La position est à tout le moins clairement exprimée.