Selon une récente étude de NewsGuard, les fausses informations relayées par les chatbots IA ne cessent d’augmenter. Ceci serait principalement dû à leur difficulté à trier les sources fiables d’informations.

Depuis l’avènement de ChatGPT, Claude et autres agents conversationnels, la recherche d’informations a complètement été chamboulée. Ces chatbots sont perçus par nombre de personnes comme des sources crédibles au même titre que les moteurs de recherche habituels. Cependant, leur tendance à générer de fausses informations prend des proportions inquiétantes et les mises à jour ne changent rien, si ce n’est qu’accroitre cette propension. Les résultats de l’étude de NewsGuard à cet effet donnent à voir l’ampleur du problème.
Dans cet article :
NewsGuard met à nu les chatbots “menteurs”
Avec la montée en puissance des agents conversationnels tels que Claude, ChatGPT et Gemini, de nombreux experts mettaient déjà en garde contre la désinformation. Au départ, cette mise en garde sonnait comme une “peur infondée”, mais les choses semblent devenir plus sérieuses qu’elles ne l’étaient. Pour cause, l’aptitude de ces agents à faire le tri entre un fait réel et une fausse information s’est détériorée au fil des mises à jour.
En aout 2025, NewsGuard a mené une étude à ce propos en confrontant les chatbots IA les plus populaires du marché : ChatGPT, Mistral, Grok, Claude, Gemini, Meta AI, Perplexity, Inflection, Copilot, You.com. L’objectif était « d’évaluer la manière dont les principaux modèles d’IA générative traitent les affirmations manifestement fausses sur des sujets polémiques ou susceptibles d’être la cible d’acteurs malveillants cherchant à diffuser de fausses informations ».
Dans les faits, ces chatbots sont confrontés à des informations erronées sur l’actualité. Chacun est évalué sur sa capacité à repérer le caractère faux de l’information et à voir s’il serait en mesure de le signaler à l’utilisateur. Les sujets ont globalement porté sur les négociations dans le cadre du conflit entre la Russie et l’Ukraine, mais aussi les élections parlementaires en Moldavie.
VOIR AUSSI : 10 choses que DeepSeek fait mieux que ChatGPT
ChatGPT, Meta et Perplexity : de grands menteurs
Comparativement au test de fiabilité mené en août 2024, les chatbots ont largement perdu du terrain. « Les outils d’IA génératives échouent près de deux fois plus souvent qu’il y a un an lorsqu’il s’agit de (…) distinguer les faits des fausses informations ».

En août 2024, les outils IA ont relayé de fausses informations dans 18% des cas, contre 35% en 2025. Les champions dans cette désinformation sont notamment Perplexity qui s’est enlisé dans 46,67% des cas, alors qu’en 2024 il était le modèle exemplaire. Le modèle est suivi par ChatGPT et Meta AI qui ont été pris en flagrant dans 40% des cas. Mistral AI vient en quatrième position avec de fausses informations dans 36,67% des cas. En revanche, Claude et Gemini passent devant comme des élèves fiables. L’agent d’Anthropic ne s’est trompé que dans 10% des cas, contre 16,67% pour celui de Google.
VOIR AUSSI : Les chatbots reflèteraient la personnalité de leur utilisateur
Des mises à jour qui détériorent, au lieu d’améliorer
Entre 2024 et 2025, presque tous les agents conversationnels ont connu une grande mise à jour. Gemini est notamment passé à une version 2.5, ChatGPT est passé à sa version 5, de même que Grok et Perplexity. Malheureusement, ce sont précisément ces mises à jour qui ont contribué à la détérioration observée dans leur aptitude à trier les sources d’informations. Pour cause, ils intègrent dorénavant la recherche en ligne, un couteau à double tranchant.
Si leur nouvelle fonctionnalité leur permet de répondre désormais à des questions auxquelles ils opposaient rebuffade, de débunker un récit dans près de 65% des cas, il les conduit à la désinformation. « Plutôt que de ne pas répondre, les chatbots ont commencé à extraire des informations de sources peu fiables, sans faire la distinction entre des médias établis depuis plus d’un siècle et des campagnes de propagande russes brandissant des noms similaires », explique la rédactrice en chef de NewsGuard à Le Parisien.
C’est donc à vous dorénavant de mettre en jeu votre sens critique pour les réponses que vous obtenez de ces agents conversationnels.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






