Des chercheurs de l’université des sciences appliquées de Mayence et de l’université Johannes Gutenberg de Mayence viennent de démontrer que les internautes font aussi bien confiance aux contenus générés par une IA qu’à ceux créés par des humains.
Il faut dire qu’à l’ère du numérique, l’information est facilement accessible. Pour beaucoup, internet est devenu la principale source d’information. Et il est d’autant plus nécessaire de faire preuve de discernement et d’esprit critique en ce qui concerne les médias en ligne. Les analystes s’inquiètent notamment du fait que les systèmes pilotés par des IA génèrent du contenu de manière autonome avec des erreurs. Ils fonctionnent grâce à des algorithmes qui ont hérité des biais issus des données à partir desquelles ils ont été conçus. Cette étude répond ainsi à cette préoccupation majeure et nous sensibilise sur le degré de confiance que nous pouvons accorder aux informations générées par une IA.
Dans cet article :
Les IA et les humains seraient aussi crédibles les uns comme les autres
Aujourd’hui, nous assistons à la prolifération d’applications d’intelligence artificielle générative telles que ChatGPT et Google Bard. Ils rivalisent avec les plateformes traditionnelles, comme Wikipédia, qui reposent sur du contenu généré par l’homme. Les chercheurs ont alors essayé de déterminer comment les utilisateurs perçoivent la crédibilité des contenus générés par l’homme et par l’IA. Pour ce faire, ils ont enquêté auprès de 600 personnes à travers différentes interfaces utilisateur.
C’est ainsi que les scientifiques ont découvert que les internautes ne font pas la différence entre un texte provenant d’une IA et un autre rédigé par un blogueur, par exemple. Martin Huschens, professeur de systèmes d’information à l’université des sciences appliquées de Mayence, a été surpris de ces résultats. Ces derniers mettent en lumière l’état actuel de la perception des utilisateurs. Ils pointent aussi les risques associés aux contenus générés par les IA.
« Ce qui est encore plus fascinant, c’est que les participants ont évalué le contenu généré par l’IA comme étant plus clair et plus attrayant. »
Puis, il a ajouté que :
« Le contenu généré par l’IA présente toujours un risque élevé d’erreur, d’incompréhension et de comportement hallucinatoire. »
VOIR AUSSI : Amour et IA : ces internautes tombent amoureux d’un chatbot
Il faudrait étiqueter les contenus provenant des robots
Les chercheurs ont donc dénoncé cette confiance presque « naïve » des internautes aux contenus générés par une IA. Selon eux, ils doivent être sensibilisés pour être en mesure de faire la différence entre l’accessibilité et la crédibilité d’une information. Franz Rothlauf, professeur de systèmes d’information à l’université Johannes Gutenberg de Mayence, a affirmé que :
« À l’ère du ChatGPT, nous ne sommes plus en mesure de faire la distinction entre le langage humain et le langage machine dans la production de texte. »
Certes, les logiciels pilotés par une IA permettent d’accéder rapidement et facilement à une information. Néanmoins, ils ne garantissent pas une utilisation responsable de celle-ci. Les utilisateurs doivent rester conscients des limites et des biais inhérents à ces systèmes.
Ils s’appuient plus sur des suppositions statistiques que sur des raisonnements logiques. Rothlauf recommande donc que ces contenus soient étiquetés pour que les utilisateurs les consomment en connaissance de cause. Cela permettrait une utilisation plus responsable des IA et d’éviter que la vérité ne se confonde avec la fiction.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :