
On vous parlait déjà en juillet 2024 dernier de l’IA de X, appelée Grok, qui s’apprêtait à aspirer les données des utilisateurs du réseau social pour s’entraîner. Mais ce n’est pas terminé. Le réseau anciennement connu sous le nom de Twitter, a récemment annoncé un changement majeur dans sa politique de confidentialité. À partir du 15 novembre 2024, des tiers pourront accéder aux données des utilisateurs afin d’entraîner des modèles d’intelligence artificielle. Ce nouvel ajustement pourrait offrir à X une nouvelle source de revenus, mais suscite des inquiétudes quant à la protection des données personnelles des utilisateurs.
Un changement de politique de X pour l’entraînement de l’IA
Une idée très tentante, que bon nombre de réseaux sociaux ont essayé d’adopter, parfois en faisant machine arrière, comme LinkedIn au Royaume-Uni, ou encore Meta (Facebook & Instagram) en Europe. La mise à jour de la politique de confidentialité de X, qui entrera en vigueur le 15 novembre, permet à des tiers d’utiliser les données des utilisateurs pour former leurs modèles d’intelligence artificielle. Cette démarche s’aligne sur une tendance plus large dans l’industrie technologique, où des entreprises comme Reddit ou certaines organisations médiatiques envisagent de licencier des données à des sociétés d’IA pour générer des revenus supplémentaires.
Le changement concerne notamment les données publiques partagées sur X, qui pourraient être utilisées pour des projets d’IA, à moins que les utilisateurs ne choisissent de se retirer de ce programme via leurs paramètres. Toutefois, il reste à clarifier où exactement les utilisateurs peuvent désactiver cette option dans les paramètres de l’application.
L’impact pour les utilisateurs et l’option de retrait
Selon la nouvelle politique de X, les utilisateurs ont la possibilité de refuser que leurs informations soient partagées avec des tiers pour l’entraînement d’IA. Cependant, la section actuelle « Confidentialité et sécurité » dans les paramètres de X ne mentionne pas spécifiquement l’option de retrait pour ces collaborations avec des entreprises externes d’intelligence artificielle.
Cette nouvelle fonctionnalité n’étant pas encore active, il est probable que les utilisateurs puissent accéder à cette option après le 15 novembre. D’ici là, la politique continue d’indiquer que les utilisateurs peuvent gérer leurs préférences en matière de partage de données avec les partenaires commerciaux de X, bien que cela concerne principalement ceux avec lesquels la plateforme collabore pour améliorer ses propres produits et services.
La conservation des données des utilisateurs par X
En parallèle de cette modification sur l’entraînement de l’IA, X a également modifié la manière dont elle conserve les données personnelles. Alors que l’ancienne version de la politique indiquait que les informations des utilisateurs seraient stockées pendant un maximum de 18 mois, la nouvelle version mentionne une durée de conservation variable. Cela dépendra de divers facteurs, comme les exigences légales ou les besoins de sécurité de l’entreprise.
De plus, même après la suppression de contenu par les utilisateurs, certaines données publiques pourraient persister sur des moteurs de recherche ou être stockées ailleurs, ce qui pourrait encore alimenter les modèles d’IA formés à partir de ces informations.
Les répercussions financières pour le scraping de contenu sur X
Un autre ajout notable dans les conditions d’utilisation de X concerne le scraping de contenu. Désormais, toute organisation accédant à plus d’un million de publications en une journée sera tenue de payer des dommages-intérêts liquides, évalués à 15 000 dollars pour chaque million de publications. Cette mesure vise à protéger la monétisation des données de X, alors que la société cherche de nouvelles façons de stabiliser ses finances.
Le changement intervient après des retraits massifs d’annonceurs et des boycotts publicitaires, des événements qui ont considérablement réduit les revenus de la plateforme. Face à ces défis, X tente d’explorer de nouvelles avenues financières pour couvrir ses coûts.
Il est vrai que ces derniers mois, les acteurs de l’IA, à commencer par OpenAI et son ChatGPT, ont multiplié les partenariats dans le but d’aspirer les données de partenaires tiers, comme celui avec Time Magazine ou encore Le Monde. Mais celui qui se rapproche plus de la démarche du réseau social X, c’est Reddit, qui a décidé de fournir son contenu à OpenAI contre rémunération, dans le but de l’aider à améliorer son intelligence artificielle. Ces collaborations entre acteurs de l’IA et plate-formes constituent pour ces derniers de nouvelles sources de revenus non négligeables, leur permettant de monétiser davantage leurs activités.
Des enjeux de protection des données à surveiller
Avec cette nouvelle direction, la protection des données des utilisateurs de X soulève des interrogations. Les informations publiques des utilisateurs pourraient être intégrées dans des modèles d’intelligence artificielle, même après leur suppression de la plateforme. Ce développement nécessite une plus grande transparence de la part de X sur la manière dont les utilisateurs peuvent réellement protéger leurs informations personnelles.
À mesure que ces politiques seront mises en œuvre, il sera crucial pour les utilisateurs de rester vigilants quant à l’utilisation de leurs données et de comprendre comment ils peuvent gérer leurs paramètres de confidentialité pour limiter le partage non souhaité de leurs informations avec des tiers.