L’IA Replika de Luka Inc. écope d’une amende de 5,6M de $ par l’autorité italienne de la protection des données

Replika, the AI companion

Le développeur de Replika, une application d’intelligence artificielle spécialisée dans les avatars conversationnels, a été sanctionné par l’autorité italienne de protection des données pour non-respect du cadre réglementaire européen. Ce nouveau cas met en lumière les problématiques juridiques européens auxquels font face les entreprises exploitant des technologies fondées sur l’IA.

Replika et la protection des données personnelles

Le service Replika, lancé en 2017 par la startup basée à San Francisco Luka Inc., propose aux utilisateurs des avatars personnalisés capables d’engager des conversations, dans une logique de soutien émotionnel. Cette plateforme est présentée comme un outil de bien-être numérique à usage individuel.

La Garante, autorité italienne en charge de la protection des données, a mené une enquête approfondie sur cette technologie. Il a été constaté que Replika ne disposait pas d’une base juridique valable pour le traitement des données personnelles des utilisateurs. Le défaut de système de vérification de l’âge a également été relevé, exposant potentiellement les mineurs à des interactions non encadrées avec le chatbot.

Une suspension du service en Italie

En février 2023, la Garante a ordonné la suspension du service Replika sur le territoire italien. Cette décision a été motivée par des risques identifiés pour les enfants, en l’absence de contrôle d’âge au sein de l’application. La mesure s’inscrit dans une série d’interventions de l’autorité en matière de régulation des outils basés sur l’intelligence artificielle.

Cette action a abouti à une amende administrative de 5 millions d’euros (environ 5,64 millions de dollars) infligée à Luka Inc., la société éditrice de Replika.

Une enquête européenne en cours sur Replika

Au-delà de la sanction pécuniaire, une enquête complémentaire a été ouverte pour vérifier la conformité du système génératif de Replika avec le Règlement général sur la protection des données (RGPD). Les autorités s’intéressent notamment aux méthodes de formation du modèle linguistique utilisé par l’application.

Cette initiative reflète une vigilance croissante de la part des régulateurs européens vis-à-vis des solutions d’intelligence artificielle qui traitent des données personnelles sensibles.

L’Italie, acteur de premier plan dans la régulation de l’IA

La Garante italienne se positionne comme l’un des régulateurs les plus actifs au sein de l’Union européenne en matière de contrôle des technologies basées sur l’IA. Elle avait déjà pris des mesures similaires en 2023 à l’encontre d’autres entreprises du secteur, dont le développeur de ChatGPT, OpenAI, sanctionné à hauteur de 15 millions d’euros après une interdiction temporaire du service dans le pays.

Ces actions traduisent une volonté de faire respecter les normes européennes en matière de confidentialité, face à l’expansion rapide des plateformes d’IA générative sur le marché européen.

[Nouveau] 4 ebooks sur le digital marketing à télécharger gratuitement

Cet article vous a plu ? Recevez nos prochains articles par mail

Inscrivez-vous à notre newsletter, et vous recevrez un mail tous les jeudis avec les derniers articles d’experts publiés.

D’autres articles sur le même thème :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *