Téléchargez gratuitement notre eBook "Pour une stratégie d'entreprise éco-responsable"
télécharger
French
French
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus
Actualité
14/1/26

Intelligence artificielle et ingérence économique : la DGSI alerte les entreprises sur les nouveaux risques liés aux usages professionnels de l’IA

Dans un Flash Ingérence Économique n°117 publié en décembre 2025, la Direction générale de la sécurité intérieure (DGSI), rattachée au Ministère de l’Intérieur, consacre une analyse approfondie aux risques associés à l’usage de l’intelligence artificielle dans le monde professionnel, et plus particulièrement de l’IA générative.

Le document officiel commenté dans le présent article peut être consulté dans son intégralité en cliquant sur le lien ci-dessous.

Ce flash s’inscrit dans la mission de sécurité économique de la DGSI et vise à sensibiliser les entreprises françaises à des mécanismes contemporains d’ingérence, de fuite d’informations stratégiques et de manipulation, rendus possibles ou amplifiés par des usages non maîtrisés de l’intelligence artificielle.

1. L’IA générative : un levier de performance devenu un facteur de vulnérabilité juridique et stratégique

La DGSI rappelle d’emblée que la démocratisation rapide de l’intelligence artificielle, et en particulier de l’IA générative, transforme profondément les modes de travail au sein des entreprises. Les gains de productivité, d’automatisation et d’aide à la décision sont indéniables. Toutefois, ces bénéfices s’accompagnent de risques juridiques, économiques et informationnels majeurs, souvent sous-estimés.

Le rapport souligne que ces risques sont d’autant plus importants que les outils utilisés sont fréquemment développés par des opérateurs étrangers, soumis à des législations extraterritoriales, et reposent sur des modèles dont le fonctionnement et la gouvernance demeurent largement opaques pour les utilisateurs professionnels.

2. La divulgation de données sensibles via des outils d’IA grand public : un risque majeur pour le secret des affaires

Le premier cas présenté par la DGSI concerne l’utilisation, par des salariés d’une entreprise française stratégique, d’un outil d’IA générative grand public pour traduire des documents confidentiels, sans autorisation hiérarchique.

La DGSI met en évidence un point central : les versions gratuites ou standards de nombreux outils d’IA générative réutilisent les données soumises par les utilisateurs à des fins d’entraînement des modèles, ce qui expose directement les entreprises à des risques de perte de contrôle de leurs informations sensibles.

D’un point de vue juridique, ces pratiques sont susceptibles de porter atteinte :

  • au secret des affaires au sens de la directive (UE) 2016/943 et de sa transposition en droit français,
  • aux obligations contractuelles de confidentialité,
  • ainsi qu’aux exigences du RGPD, lorsque des données à caractère personnel sont concernées et hébergées hors de l’Union européenne.

3. La délégation aveugle de décisions stratégiques à l’IA : biais, responsabilité et gouvernance défaillante

Le deuxième scénario analysé illustre les dérives liées à la délégation intégrale de la due diligence de partenaires commerciaux à un outil d’IA, sans vérification humaine complémentaire.

La DGSI alerte sur les biais inhérents aux systèmes d’IA, notamment :

  • la dépendance excessive à des recommandations automatisées,
  • la reproduction ou l’amplification de biais présents dans les données d’entraînement,
  • le caractère parfois non explicable des résultats ("boîte noire"),
  • et le phénomène d’« hallucination », conduisant l’IA à produire des informations inexactes ou fictives.

Sur le plan juridique, cette délégation non maîtrisée est susceptible d’engager la responsabilité civile et pénale des dirigeants, notamment en cas de défaillance dans l’évaluation des risques juridiques, financiers ou réputationnels, et pose plus largement la question de la gouvernance responsable des systèmes d’IA au sein de l’entreprise.

4. IA, cybercriminalité et hypertrucage : la montée en puissance des fraudes sophistiquées

Le troisième cas présenté concerne une tentative d’escroquerie par deepfake, associant la reproduction du visage et de la voix du dirigeant d’un groupe français, afin d’obtenir un transfert de fonds frauduleux.

La DGSI démontre que l’IA constitue désormais un vecteur privilégié d’ingérences économiques, facilitant notamment :

  • le phishing et le spear phishing hautement personnalisés,
  • la création de faux contenus crédibles,
  • l’empoisonnement des données,
  • et la manipulation de systèmes d’IA par des attaques adversariales.

Ces pratiques soulèvent des enjeux cruciaux en matière de sécurité des systèmes d’information, de fraude, de responsabilité des entreprises et de protection de leur réputation.

5. Les préconisations de la DGSI : vers une gouvernance juridique et stratégique de l’IA en entreprise

En conclusion, la DGSI formule une série de recommandations structurantes, parmi lesquelles figurent :

  • l’encadrement formalisé des usages de l’IA dans les chartes informatiques et politiques internes,
  • la limitation stricte des données pouvant être soumises à des outils d’IA,
  • le recours privilégié à des solutions hébergeant les données en France ou dans l’Union européenne,
  • la transparence sur l’usage de l’IA vis-à-vis de la hiérarchie et des partenaires,
  • la formation continue des équipes,
  • et le signalement systématique à la DGSI de tout événement suspect.

Ces préconisations s’inscrivent pleinement dans une logique de conformité juridique, de souveraineté numérique et de protection des actifs immatériels, désormais indissociables des stratégies d’innovation fondées sur l’intelligence artificielle.

Conclusion

Ce Flash DGSI n°117 constitue un signal fort adressé aux dirigeants, directions juridiques, DSI et responsables conformité : l’intelligence artificielle, si elle est un formidable outil de compétitivité, ne peut être déployée sans une analyse juridique rigoureuse, une gouvernance claire et une vigilance accrue en matière de sécurité économique.

L’IA n’est plus seulement une question technologique ; elle est devenue un enjeu central de responsabilité, de souveraineté et de protection stratégique pour l’entreprise.

Vincent FAUCHOUX
Image par Canva
Formation juridique
Propriété intellectuelle : formez vos équipes au-delà de la conformité
Stratégie PI, preuve d’antériorité, secrets d’affaires, outils de valorisation : une formation sur-mesure animée par nos avocats.
En savoir plus
Formation juridique
Intelligence Artificielle : maîtriser vos risques juridiques & anticiper l’IA Act
Découvrez notre formation sur les risques et obligations liés à l’intelligence artificielle
En savoir plus

Abonnez vous à notre Newsletter

Recevez chaque mois la lettre du DDG Lab sur l’actualité juridique du moment : retrouvez nos dernières brèves, vidéos, webinars et dossiers spéciaux.
je m'abonne
DDG utilise des cookies dans le but de vous proposer des services fonctionnels, dans le respect de notre politique de confidentialité et notre gestion des cookies (en savoir plus). Si vous acceptez les cookies, cliquer ici.