
Meta Platforms a officialisé l’utilisation des publications publiques et des interactions avec son intelligence artificielle pour former ses modèles dans l’Union européenne, plutôt que d’utiliser les données de ses utilisateurs Facebook et Instagram. Ce changement, survenu après une période de blocage réglementaire, marque une nouvelle étape dans l’intégration de l’IA au sein des plateformes numériques en Europe. Malgré cela, cette approche soulève des questions autour de la protection des données personnelles et de la transparence, éléments fondamentaux du cadre européen.
Meta et l’intelligence artificielle : un déploiement encadré
Après avoir lancé sa technologie Meta AI aux États-Unis en 2023, l’entreprise a rencontré plusieurs obstacles pour en étendre l’usage à l’Europe. Le lancement, initialement prévu pour juin 2024, a été repoussé en raison de préoccupations soulevées par les autorités de protection des données. Ces dernières se sont penchées sur les conditions dans lesquelles les contenus partagés par les utilisateurs pouvaient être exploités pour l’entraînement d’algorithmes. On a remarqué également un scénario similaire lors du lancement de l’IA Grok, qui utilisait les données des utilisateurs du réseau social X (ex-Twitter) d’Elon Musk. Une enquête est d’ailleurs en cours en Irlande à ce sujet.
Le feu vert a finalement été donné, mais avec des modalités strictes. Seules les publications publiques et les interactions avec l’IA issues des utilisateurs adultes sont concernées. Les messages privés et les contenus provenant de comptes d’utilisateurs mineurs ne seront pas pris en compte dans les modèles d’apprentissage.
Meta informe les utilisateurs européens sur l’usage de leurs données
Les utilisateurs des plateformes du groupe, notamment Facebook et Instagram, recevront une notification explicative concernant les types de données utilisés. Un lien vers un formulaire d’opposition sera proposé, permettant aux personnes concernées de refuser l’utilisation de leurs données dans le processus de formation des modèles d’IA.
Cette procédure vise à répondre aux exigences en matière de transparence et de consentement explicite prévues par la législation européenne. L’initiative fait suite aux discussions avec l’autorité de régulation irlandaise, qui avait recommandé à Meta de suspendre temporairement son projet en 2024.
Contexte réglementaire et réactions dans l’Union européenne
L’annonce de Meta intervient dans un contexte de vigilance accrue de la part des régulateurs européens. Plusieurs entreprises technologiques, dont X (anciennement Twitter) et Google, font également l’objet d’enquêtes portant sur l’utilisation des données personnelles des citoyens européens à des fins d’entraînement de modèles d’IA.
Dans le cas de X, une enquête est en cours concernant l’intégration de données issues de comptes européens dans le développement de son système d’intelligence artificielle, Grok. Google est également examiné pour des pratiques similaires, notamment sur la gestion des données avant leur exploitation pour la création d’algorithmes.
Une démarche surveillée par les défenseurs de la vie privée
Meta a également dû faire face à des pressions de la part de groupes de défense des droits numériques. L’organisation NOYB, active dans le domaine de la protection de la vie privée, et qui avait récemment porté plainte contre de nombreux acteurs tech chinois (TikTok, Xiaomi, Shein…), avait également demandé aux autorités nationales de bloquer l’utilisation des publications sociales à des fins de formation d’IA, mettant en avant un manque de consentement explicite.
Les décisions récentes s’inscrivent dans un effort de conciliation entre innovation technologique et respect des droits fondamentaux des utilisateurs. Meta devra désormais conjuguer développement de ses modèles avec l’obligation de conformité aux normes européennes de protection des données.