La montée en puissance de l’intelligence artificielle génère des contenus de plus en plus réalistes, et certains créateurs de contenu exploitent ce phénomène pour tromper les internautes. YouTube a récemment pris des mesures radicales contre deux chaînes très populaires qui utilisaient l’IA pour produire de fausses bandes-annonces, trompant ainsi des millions d’abonnés.
Les 3 infos à ne pas manquer
- Deux chaînes YouTube, KH Studio et Screen Culture, ont été suspendues pour avoir utilisé l’IA afin de créer de fausses bandes-annonces.
- Ces chaînes comptaient ensemble plus de deux millions d’abonnés avant leur suspension.
- YouTube avait précédemment démonétisé ces chaînes mais a finalement choisi de les fermer pour non-respect des règles de transparence.
L’essor de l’IA générative dans les contenus numériques
L’IA générative, qui permet de créer des contenus visuels et audiovisuels d’une grande précision, a rapidement trouvé sa place sur internet. Cette technologie, en évolution constante, est capable de produire des images et des vidéos qui ressemblent à s’y méprendre à des productions authentiques, ce qui peut induire les spectateurs en erreur.
Un exemple marquant a été évoqué par le président de la République française, avec une vidéo virale faussement attribuée annonçant un coup d’État. Ce type de contenu montre l’impact potentiel de l’IA sur la désinformation en ligne.
La popularité des chaînes frauduleuses
KH Studio et Screen Culture sont deux exemples de chaînes ayant utilisé l’IA pour créer de fausses bandes-annonces pour des titres populaires tels que « GTA San Andreas (2025) » et un supposé retour de la série « Malcom In The Middle Reboot (2025) ». Ces chaînes ont rapidement attiré un large public, cumulant plus de deux millions d’abonnés, fascinés par ces contenus trompeurs.
Ces chaînes avaient été identifiées par YouTube, qui avait initialement décidé de démonétiser leurs vidéos pour forcer les créateurs à indiquer clairement qu’il s’agissait de contenus fictifs. Cependant, après avoir temporairement retrouvé leur capacité à générer des revenus, elles ont continué à ignorer les règles de transparence.
La réponse de YouTube face aux contenus trompeurs
Face à la persistance de ces chaînes à diffuser des contenus sans avertissement, YouTube a pris la décision de les suspendre définitivement. Cette action soulève la question de l’efficacité des mesures mises en place par la plateforme pour réguler les contenus générés par l’IA.
Le défi pour YouTube est désormais de déterminer s’il s’agissait d’une mesure isolée ou si elle sera suivie d’une série d’actions similaires contre d’autres chaînes utilisant des pratiques similaires pour tromper les utilisateurs.
Contexte de YouTube et sa lutte contre la désinformation
YouTube, plateforme de partage de vidéos fondée en 2005, est devenue un acteur majeur du divertissement en ligne, avec des milliards d’utilisateurs à travers le monde. Au fil des ans, elle a dû faire face à des défis liés à la modération des contenus, notamment en ce qui concerne la désinformation et les contenus trompeurs.
Dans un effort pour maintenir un écosystème de contenu fiable, YouTube a mis en place diverses politiques et technologies visant à détecter et supprimer les contenus problématiques. Le cas des chaînes utilisant l’IA pour créer des contenus trompeurs souligne la nécessité pour la plateforme de continuer à développer des stratégies efficaces pour protéger ses utilisateurs contre la désinformation.