Intelligence artificielle : Découvrez les défis des modèles face à la désinformation

Alors que les modèles d’intelligence artificielle sont de plus en plus intégrés dans notre quotidien, leur capacité à discerner le vrai du faux reste un défi. Une étude récente révèle que ces systèmes, bien qu’efficaces pour répondre à des questions variées, sont souvent en proie à diffuser des informations incorrectes. Plongeons dans cette problématique préoccupante qui touche la fiabilité des chatbots les plus populaires.

L’info résumée en 3 points

  • Les modèles d’IA générative ont diffusé de fausses informations dans 35 % des cas en août 2025, contre 18 % l’année précédente.
  • Les chatbots, autrefois prudents, répondent désormais à presque toutes les questions, augmentant ainsi le risque de fournir des réponses erronées.
  • Des systèmes d’IA comme Perplexity ont vu leur performance chuter, citant des sources peu fiables au même titre que des sources crédibles.

La fiabilité des modèles d’IA en question

Les systèmes d’IA, bien qu’innovants, rencontrent des difficultés croissantes lorsqu’il s’agit de vérifier l’exactitude des informations. Une étude menée par NewsGuard révèle qu’en août 2025, 35 % des réponses fournies par ces modèles reposaient sur des informations incorrectes. Cette hausse par rapport aux 18 % de l’année précédente soulève des questions sur leur fiabilité.

En 2024, les chatbots refusaient de répondre à des demandes sensibles dans 31 % des cas. Aujourd’hui, ce chiffre est tombé à zéro, laissant la porte ouverte à des réponses potentiellement erronées et convaincantes.

Perplexity et la chute de performance

Parmi les chatbots analysés, Perplexity se distingue par une baisse significative de sa performance. Alors qu’il obtenait un score parfait l’année dernière, il ne fournit désormais des réponses correctes que dans moins de la moitié des tests. McKenzie Sadeghi de NewsGuard souligne que ce chatbot a tendance à traiter des faits faux comme fiables, ce qui constitue une préoccupation majeure.

Il est important de noter que ces résultats, bien qu’alarmants, proviennent d’une période d’étude limitée à un seul mois, ce qui pourrait influencer la perception globale de la situation.

Les menaces externes et la désinformation

Les systèmes d’IA font face à des menaces externes, notamment des tentatives de désinformation orchestrées. La Russie, par exemple, utilise des réseaux comme Storm-1516 et Pravda pour diffuser des contenus trompeurs. Des modèles populaires, tels que Le Chat de Mistral, Copilot de Microsoft et Llama de Meta, ont été identifiés comme utilisant ces sources.

L’incapacité des chatbots à évaluer correctement la fiabilité des sources les rend vulnérables, compromettant leur efficacité à distinguer les vraies informations des fausses.

Un appel à la vigilance

Face à ces défis, NewsGuard insiste sur la nécessité d’une vigilance accrue dans la gestion des modèles d’IA. L’organisation appelle à une surveillance continue pour identifier et corriger les « angles morts » des systèmes, afin de garantir une information fiable et vérifiée.

Le développement des chatbots et des systèmes d’IA a connu une croissance rapide ces dernières années. Des entreprises comme OpenAI, Microsoft, et Meta ont été à l’avant-garde de cette révolution technologique, en intégrant l’IA dans divers produits et services. Cependant, alors que ces technologies évoluent, la question de la fiabilité des informations fournies devient de plus en plus pressante, nécessitant des innovations constantes pour répondre à ces nouveaux défis.

[Nouveau] 4 ebooks sur le digital marketing à télécharger gratuitement

Cet article vous a plu ? Recevez nos prochains articles par mail

Inscrivez-vous à notre newsletter, et vous recevrez un mail tous les jeudis avec les derniers articles d’experts publiés.

D’autres articles sur le même thème :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *