Décidément, TikTok fait de plus en plus parler de lui… dans les tribunaux. Après l’Italie qui a condamné le réseau social à 10 millions d’euros à cause de vidéos mettant en danger les mineurs, cette fois-ci, c’est en France que cela se passe. En effet, 7 familles ont intenté une action en justice contre le géant des réseaux sociaux TikTok, accusant la plateforme de ne pas avoir retiré des contenus jugés dangereux pour leurs enfants adolescents. Selon leur avocate, certains de ces contenus auraient contribué au décès de deux jeunes de 15 ans, poussant les familles à demander la reconnaissance de la responsabilité de TikTok en matière de modération.
Cette affaire, première en Europe à regrouper plusieurs familles, soulève des questions sur la protection des jeunes face aux risques des algorithmes des réseaux sociaux.
Les familles françaises poursuivent TikTok pour la gestion des contenus dangereux
Ce sont 7 familles françaises qui ont décidé de s’unir pour poursuivre TikTok en justice. Selon leur avocate, Laure Boutron-Marmion, cette action vise à dénoncer la manière dont les algorithmes de la plateforme exposent les jeunes à des contenus potentiellement dangereux. Les familles estiment que la plateforme n’a pas fait preuve de la diligence nécessaire pour protéger les adolescents de vidéos incitant à des comportements autodestructeurs comme le suicide, les troubles alimentaires et les mutilations.
Cette démarche collective a été déposée auprès du tribunal judiciaire de Créteil. C’est la première fois en Europe que plusieurs familles se regroupent pour attaquer TikTok en mettant en avant la responsabilité légale de l’entreprise en matière de protection des jeunes utilisateurs. Cette action pourrait représenter un tournant dans la régulation des réseaux sociaux en Europe.
Les parents demandent la reconnaissance de la responsabilité de TikTok
Les parents des adolescents impliqués dans cette affaire souhaitent que la responsabilité juridique de TikTok, réseau social préféré des adolescents américain, soit reconnue. L’avocate des familles, Boutron-Marmion, a souligné que l’entreprise propose un produit destiné à des consommateurs qui sont, dans ce cas, des mineurs. Pour elle, cette responsabilité implique une obligation de sécurité envers ces jeunes utilisateurs.
En mettant en avant le fait que TikTok est une entreprise à but commercial, les familles espèrent démontrer que la plateforme a une part de responsabilité dans la protection de ses jeunes utilisateurs contre des contenus pouvant nuire à leur santé mentale. Selon elles, les algorithmes qui promeuvent ce type de contenus doivent être revus pour prévenir les risques encourus par les mineurs.
La régulation des réseaux sociaux face aux dangers pour les adolescents
Cette affaire rappelle la difficulté que rencontrent les plateformes comme TikTok, mais aussi Meta avec Facebook et Instagram, pour réguler efficacement les contenus sensibles. Aux États-Unis, ces plateformes font déjà face à de multiples procédures judiciaires pour des motifs similaires, les accusant d’encourager une forme de dépendance chez les jeunes, avec des répercussions sur leur santé mentale.
Les réseaux sociaux sont accusés de proposer des contenus conçus pour capter l’attention des jeunes et les inciter à passer un maximum de temps sur les applications, malgré les risques que cela représente. Cette situation soulève des questions essentielles quant à la modération et aux responsabilités des entreprises du numérique face aux utilisateurs vulnérables, en particulier les adolescents.
TikTok face aux allégations de contenus inappropriés
Pour le moment, TikTok n’a pas réagi officiellement aux accusations portées dans cette affaire en France. Toutefois, l’entreprise a déjà affirmé par le passé qu’elle prend les questions liées à la santé mentale des jeunes très au sérieux. Son PDG, Shou Zi Chew, avait déclaré devant le Congrès américain que TikTok avait investi dans des mesures pour protéger les jeunes utilisateurs. Une étude récente montrerait que les jeunes femmes ont une perception négative de leur corps, à force d’exposition au réseau social de Bytedance.
Ces mesures incluent notamment la mise en place d’outils de contrôle parental et des fonctionnalités visant à limiter l’exposition des mineurs à des contenus inappropriés. Malgré cela, les critiques persistent, car de nombreux utilisateurs continuent de signaler des contenus susceptibles d’affecter le bien-être psychologique des plus jeunes.