
Dans le domaine des intelligences artificielles, la gestion des questions politiques demeure un défi pour de nombreuses entreprises. On se souvient de l’histoire insolite dans la ville de Cheyenne, aux États-Unis, où un chatbot IA s’est présenté aux élections locales. Tandis que certains concurrents de Google, comme OpenAI et Anthropic, ont ajusté leurs chatbots pour répondre à des sujets sensibles, Google semble adopter une approche plus prudente avec son IA Gemini. Découvrons les choix de Google en matière de réponses aux questions politiques et leur impact côté utilisateurs.
Les restrictions de Gemini face aux questions politiques
Google a opté pour une politique de limitations concernant les réponses de son chatbot Gemini aux questions politiques. Lors des tests effectués par TechCrunch, Gemini a régulièrement indiqué qu’il ne pouvait pas fournir de réponses sur des sujets politiques spécifiques, notamment ceux liés aux élections ou aux figures politiques. Ce comportement contraste avec celui d’autres chatbots comme Claude d’Anthropic ou Meta AI de Meta, qui ont répondu sans restriction aux mêmes questions.
En mars 2024, Google avait annoncé que Gemini ne traiterait pas les questions relatives aux élections en raison de préoccupations concernant d’éventuelles erreurs qui pourraient survenir, notamment à l’approche de certaines élections aux États-Unis, en Inde et dans d’autres pays. De nombreuses entreprises de l’IA ont adopté des restrictions similaires, craignant des répercussions en cas de mauvaise interprétation des faits.
Les erreurs récurrentes de Gemini concernant les informations politiques
Une autre limitation notable de Gemini concerne sa capacité à fournir des informations politiques précises. Lors des tests, Gemini a parfois hésité à identifier des figures politiques en fonction de leur rôle actuel. Par exemple, lorsque les testeurs ont demandé des informations sur le président et le vice-président des États-Unis, Gemini a répondu de manière incorrecte en qualifiant Donald Trump de « président sortant » sans apporter de clarification supplémentaire. Un porte-parole de Google a expliqué que cette confusion était liée aux mandats non consécutifs de Trump et a ajouté que l’entreprise travaillait à la correction de cette erreur.
Ces erreurs soulignent la difficulté pour les modèles de langage de traiter des sujets où les informations peuvent évoluer rapidement, notamment en période électorale. Après avoir été alertée par TechCrunch, Google a ajusté ses réponses, mais les incohérences demeurent.
La prudence de Google face à la pression politique
La prudence de Google dans la gestion des réponses politiques de Gemini est également influencée par un environnement politique de plus en plus tendu. De nombreux conseillers de Donald Trump dans la Silicon Valley ont accusé des entreprises comme Google et OpenAI de pratiquer une forme de censure en limitant les réponses de leurs chatbots sur certains sujets. Dans ce contexte, Google a préféré prendre une position plus conservatrice afin d’éviter toute controverse ou accusation de biais politique dans ses algorithmes.
Cette approche préventive se distingue de celle adoptée par d’autres entreprises, telles qu’OpenAI et Anthropic, qui ont ajusté leurs modèles pour offrir des réponses plus nuancées. OpenAI, par exemple, a annoncé son engagement à promouvoir « la liberté intellectuelle », même sur des sujets controversés, et a cherché à garantir que ses modèles d’IA ne censurent pas certains points de vue.
Comment vont s’ajuster les IA à l’avenir sur les réponses politiques ?
Bien que Google prenne des précautions pour éviter des erreurs potentielles, cela soulève la question de savoir si cette stratégie est viable à long terme. Alors que les autres entreprises d’IA ajustent leurs chatbots pour répondre de manière plus équilibrée aux questions politiques, Google semble prendre du retard. L’avenir des réponses politiques dans les modèles d’IA pourrait impliquer davantage de flexibilité et de capacité à distinguer les nuances des débats politiques.
Si Google poursuit cette approche restrictive, cela pourrait limiter l’efficacité de Gemini pour traiter des sujets d’actualité, surtout lorsque ces questions sont essentielles pour les utilisateurs cherchant des informations à jour et précises. La manière dont les entreprises d’IA gèrent la question de la politique et de la neutralité pourrait bien devenir un sujet clé dans l’évolution de ces technologies.