LinkedIn arrête d’utiliser les données des utilisateurs britanniques pour entraîner son IA

LinkedIn

Après X, le réseau social d’Elon Musk qui a cessé d’utiliser les données des utilisateurs en Europe pour son IA Gork, c’est au tour de LinkedIn, propriété de Microsoft, qui a récemment pris la décision de suspendre l’utilisation des données des utilisateurs britanniques pour l’entraînement de modèles d’intelligence artificielle. Cette décision fait suite aux préoccupations soulevées par l’Information Commissioner’s Office (ICO), l’organisme britannique de surveillance de la protection des données, qui a incité le réseau social à revoir sa politique.

Ce changement marque une étape importante dans la gestion des données personnelles dans un contexte où de plus en plus de grandes entreprises tech sont sous pression pour protéger la vie privée de leurs utilisateurs.

LinkedIn interrompt l’utilisation des données des utilisateurs britanniques pour l’IA

Face à une vague de critiques importante, LinkedIn a choisi de ne plus utiliser les données des utilisateurs britanniques dans l’entraînement de ses modèles d’IA générative. Cette décision a été confirmée par l’Information Commissioner’s Office (ICO) du Royaume-Uni. Stephen Almond, directeur exécutif du risque réglementaire à l’ICO, a salué cette action, soulignant que LinkedIn a pris en compte les préoccupations soulevées par l’organisme en matière de protection des données.

Cette suspension est le résultat d’une enquête approfondie menée par l’ICO, qui a permis de révéler que LinkedIn utilisait les informations de ses utilisateurs britanniques sans leur fournir d’option de refus explicite. En réponse, l’entreprise a revu sa stratégie et mis fin à cette pratique, dans l’attente de discussions plus approfondies avec l’ICO.

La pression croissante des défenseurs de la vie privée sur LinkedIn

La décision de LinkedIn survient à la suite d’une réaction virulente de la part des défenseurs de la vie privée, qui ont critiqué la manière dont la plateforme utilisait les informations personnelles à des fins d’entraînement d’algorithmes d’IA. Les experts ont souligné que la plateforme n’avait pas appliqué les mêmes protections aux utilisateurs britanniques qu’à ceux de l’Union européenne ou de la Suisse, où le règlement général sur la protection des données (RGPD) interdit de telles pratiques sans consentement explicite.

Cette situation a conduit l’Open Rights Group (ORG), une organisation britannique de défense des droits numériques, à déposer une plainte auprès de l’ICO. L’ORG a dénoncé le manque de transparence de LinkedIn, ainsi que le traitement jugé inconsidéré des données personnelles pour alimenter les systèmes d’intelligence artificielle.

Meta et la collecte des données au Royaume-Uni

Parallèlement à cette affaire, Meta, la société mère de Facebook et Instagram, a également relancé la collecte des données des utilisateurs britanniques pour l’entraînement de ses propres modèles d’IA. Cette initiative a été réactivée après une courte interruption, malgré les préoccupations déjà exprimées par l’ICO. Meta a ainsi instauré une collecte automatique par défaut, forçant les utilisateurs à se désinscrire manuellement s’ils ne souhaitent pas que leurs données personnelles soient utilisées. Une méthode qui rappelle celle adoptée par X, anciennement Twitter, qui collecte par défaut les données de ses utilisateurs, mais propose une option pour désactiver cela dans les réglages du compte.

Cette reprise des activités de collecte de données a intensifié les débats autour du modèle d’opt-out (désinscription), qui impose aux utilisateurs de refuser activement le traitement de leurs informations plutôt que d’obtenir un consentement explicite dès le départ. Les critiques estiment que cette méthode met à mal les droits des utilisateurs, les obligeant à surveiller constamment les politiques des entreprises en ligne.

Le débat autour du modèle d’opt-out

Le recours au modèle d’opt-out pour la gestion des données personnelles reste un sujet de controverse, notamment au Royaume-Uni. Selon Mariano delli Santi, responsable juridique et politique à l’Open Rights Group, ce modèle est insuffisant pour protéger les droits des utilisateurs. Il plaide pour un changement fondamental dans les pratiques des grandes entreprises technologiques, estimant qu’elles devraient obtenir un consentement explicite avant toute utilisation des données personnelles.

Delli Santi a exprimé sa frustration face à la puissance des plateformes numériques, soulignant que le public ne peut pas constamment surveiller les décisions des entreprises concernant l’usage des informations personnelles. Selon lui, le modèle d’opt-out est inadapté et ne respecte ni la loi ni le bon sens, notamment lorsqu’il s’agit de former des modèles d’intelligence artificielle avec les données des utilisateurs.

[Nouveau] 4 ebooks sur le digital marketing à télécharger gratuitement

Cet article vous a plu ? Recevez nos prochains articles par mail

Inscrivez-vous à notre newsletter, et vous recevrez un mail tous les jeudis avec les derniers articles d’experts publiés.

D’autres articles sur le même thème :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *