Radotage, réponses inventées, rigidité excessive… Et si certains bugs des intelligences artificielles ressemblaient, par métaphore, à des troubles du comportement humains ?

C’est l’exercice proposé par deux chercheurs britanniques, relayé par le magazine Cerveau & Psycho. Leur objectif n’est pas de psychiatriser les machines, mais d’offrir une grille de lecture pédagogique pour comprendre leurs défaillances. Car une IA comme ChatGPT n’a ni conscience, ni émotions, ni intention. Elle produit des réponses en fonction de probabilités apprises à partir d’immenses volumes de données. Pourtant, certains de ses dysfonctionnements rappellent, de façon imagée, des mécanismes cognitifs humains. Les chercheurs ont ainsi recensé 32 comportements atypiques. En voici cinq, parmi les plus parlants.
Dans cet article :
Des raisonnements en boucle, proches des troubles obsessionnels
Vous corrigez une erreur. Le modèle s’excuse. Puis il répète la même erreur, parfois reformulée différemment. Ce phénomène a été comparé à des troubles obsessionnels compulsifs (TOC), non pas parce que la machine “obsède”, mais parce qu’elle peut s’enfermer dans une boucle computationnelle.
Concrètement, cela se traduit par des reformulations interminables, des justifications répétées et l’incapacité à abandonner un raisonnement initial erroné. L’IA optimise la cohérence statistique de sa réponse, pas sa vérité factuelle. Si un schéma logique s’est imposé dans son calcul, elle peut avoir du mal à en sortir, même lorsqu’on lui signale l’erreur.
VOIR AUSSI : Pour un rapport généré par IA, un grand cabinet de conseil facture 250 000 euros
Une perte de contexte comparable à certaines apraxies
Autre dysfonctionnement : la décontextualisation. Les chercheurs la rapprochent de l’apraxie, un trouble neurologique dans lequel une personne ne parvient plus à adapter correctement un geste pourtant maîtrisé.
Dans le cas d’une IA, le phénomène est différent mais l’effet peut sembler similaire : elle applique une règle correcte… au mauvais contexte. La réponse est techniquement valide, grammaticalement impeccable, mais elle ne correspond pas exactement à la demande.
Par exemple, elle peut fournir une explication générale alors que la question portait sur un cas précis, ou répondre de manière standardisée à une situation qui nécessitait nuance et adaptation.
Des affirmations inventées mais plausibles
C’est l’un des défauts les plus connus : l’invention d’informations. Dates, citations, références académiques, décisions juridiques… tout peut être fabriqué avec aplomb.
Ce phénomène est souvent comparé, par analogie, à de faux souvenirs chez l’humain. En réalité, l’IA ne ment pas : elle complète un vide informationnel en générant la suite statistiquement la plus probable. Si les données d’entraînement sont floues ou contradictoires, elle peut produire une réponse cohérente en apparence, mais factuellement incorrecte.
N’oubliez pas : un modèle de langage prédit du texte. Il ne vérifie pas spontanément la véracité des faits, sauf s’il est connecté à des bases de données actualisées.
Des biais hérités de leurs données d’apprentissage
Comme les humains sont influencés par leur environnement social et culturel, les IA reflètent les données qui les ont nourries. Si celles-ci contiennent des stéréotypes, des déséquilibres ou des représentations partielles du monde, ces biais peuvent se retrouver dans les réponses générées.
Les concepteurs travaillent à limiter ces effets par des filtres, des ajustements et des phases de supervision humaine. Mais le problème ne disparaît jamais totalement : un modèle entraîné sur des données imparfaites produira inévitablement des sorties imparfaites.
VOIR AUSSI : 2027, c’est l’année où l’IA pourrait surpasser l’humain
Une rigidité excessive dans l’application des règles
Enfin, certaines réponses illustrent une rigidité algorithmique. L’IA applique strictement une règle sans tenir compte des subtilités de la situation.
Chez l’humain, on parlerait d’un manque de flexibilité cognitive. Pour la machine, il s’agit plutôt d’un arbitrage automatique : lorsqu’une consigne entre en conflit avec une autre (par exemple sécurité vs précision), elle peut privilégier l’une au détriment du bon sens pratique. Résultat : des réponses correctes sur le plan formel, mais peu adaptées à la réalité.
Ces comparaisons restent bien sûr métaphoriques. Elles n’impliquent aucune forme de conscience artificielle. Mais elles ont une utilité : rappeler que ces outils, aussi performants soient-ils, restent des systèmes probabilistes perfectibles.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






