
La Commission nationale de l’informatique et des libertés (CNIL) a annoncé qu’elle interrogera la startup chinoise DeepSeek afin de mieux comprendre le fonctionnement de son intelligence artificielle et les risques potentiels en matière de protection des données. Cette initiative s’inscrit dans un contexte de vigilance accrue en Europe sur les technologies exploitant des informations personnelles.
La CNIL analyse l’intelligence artificielle de DeepSeek
Le département spécialisé en intelligence artificielle de la CNIL a démarré l’examen de l’outil développé par DeepSeek. L’objectif est de déterminer comment fonctionne le système et d’évaluer les risques qu’il présente pour la confidentialité des utilisateurs.
Cette enquête fait suite à une publication scientifique de la startup, qui révélait que l’entraînement de son modèle DeepSeek-V3 avait nécessité un investissement de moins de 6 millions de dollars en puissance informatique, reposant sur des puces Nvidia H800. Par ailleurs, face au succès de ce nouveau modèle d’IA, Microsoft a décidé de le déployer sur Azure et sur Git.
Un contrôle renforcé au niveau européen
La CNIL est l’une des autorités les plus actives en Europe en matière de protection des données. Elle a déjà sanctionné des entreprises comme Google et Meta Platforms pour non-respect des règlements en vigueur.
D’autres organismes européens suivent la même voie. L’autorité italienne de protection des données a récemment sollicité des informations sur l’utilisation des données personnelles par DeepSeek, et a par le passé infligé une amende à OpenAI à propos de sa gestion des données. De son côté, la Commission irlandaise de protection des données a demandé des précisions concernant le traitement des données des utilisateurs irlandais.
Le cadre réglementaire européen sur l’IA
L’Union européenne applique une législation stricte en matière de protection des données, avec le Règlement général sur la protection des données (RGPD). Ce texte, considéré comme l’un des plus complets au monde, impose aux entreprises de respecter des obligations de transparence et de protection de la vie privée.
En cas de violation du RGPD, les entreprises risquent des amendes pouvant atteindre 4 % de leur chiffre d’affaires mondial. Par ailleurs, l’Union européenne a adopté de nouvelles règles en 2023, imposant des exigences strictes aux systèmes d’intelligence artificielle considérés comme à « haut risque ».
Des sanctions financières en cas d’infraction
Les entreprises qui ne respectent pas la réglementation en vigueur s’exposent à des sanctions financières. Selon la nature des infractions, les amendes peuvent aller de 7,5 millions d’euros, soit 1,5 % du chiffre d’affaires, à 35 millions d’euros, voire 7 % du chiffre d’affaires mondial.
Avec l’intégration de nouvelles obligations sur l’intelligence artificielle, les autorités européennes renforcent leur surveillance pour garantir une utilisation responsable des technologies, tout en préservant la protection des données personnelles des citoyens.