L’intelligence artificielle (IA) a longtemps captivé l’imagination populaire, souvent illustrée dans les œuvres de science-fiction comme une force potentiellement dangereuse.
Des films comme 2001 : L’Odyssée de l’espace, avec HAL-9000, Terminator avec Skynet, ou encore The Matrix avec ses machines omnipotentes, ont cultivé une crainte persistante d’une révolte des machines contre l’humanité. Avec l’avènement des modèles de langage sophistiqués, tels que ChatGPT, ces peurs se sont intensifiées. Elles soulèvent la question cruciale : les IA modernes pourraient-elles réellement constituer une menace existentielle pour l’humanité ?
Une conclusion rassurante au vue des préoccupations sur l’IA
Une étude récente apporte une réponse rassurante. Elle a été menée par Iryna Gurevych, professeure à l’Université Technique de Darmstadt en Allemagne, et Harish Tayyar Madabushi, chercheur à l’Université de Bath au Royaume-Uni. Selon leurs recherches, les modèles de langage avancés (LLMs) comme ChatGPT ne sont pas capables de développer des comportements dangereux ou de se rebeller contre leurs créateurs. Ils estiment que ces modèles restent sous contrôle humain et ne possèdent pas la capacité d’émerger de manière autonome pour développer des compétences imprévues et potentiellement dangereuses.
L’étude s’intéresse à la possibilité que les modèles de langage, en particulier les plus sophistiqués, puissent évoluer de manière à développer des comportements émergents non anticipés. Ces comportements émergents sont des capacités qui pourraient apparaître sans avoir été explicitement programmées. Cela peut s’expliquer par l’augmentation de la taille et de la complexité des modèles.
Pour tester cette hypothèse, Gurevych et Tayyar Madabushi ont mené une série d’expériences sur quatre modèles de langage différents. Ils ont attribué aux modèles des tâches qui étaient censées révéler des capacités émergentes. Ils ont ensuite scruté leurs réponses pour détecter des signes de pensée autonome ou de comportements imprévus. Les résultats ont montré que les modèles n’affichaient pas de compétences ou de comportements au-delà des limites de leur programmation initiale.
Les capacités actuelles des LLMs
Les modèles de langage modernes, comme ChatGPT, ont progressé de manière spectaculaire au cours des dernières années. Ils peuvent maintenant mener des conversations textuelles avec un degré de cohérence et de fluidité qui semble presque humain. Cette évolution a conduit à des attentes élevées concernant leur intelligence et leurs capacités. Cependant, il est important de comprendre que ces modèles, bien que sophistiqués, ne possèdent pas une véritable intelligence.
Les LLMs fonctionnent en s’appuyant sur des algorithmes avancés de traitement du langage naturel (NLP) et de l’apprentissage automatique. Ils utilisent des vastes ensembles de données pour apprendre à générer des textes qui semblent pertinents et contextuels. Pourtant, leur fonctionnement repose entièrement sur des instructions précises et des données d’entraînement préalablement fournies. Ils ne possèdent pas la capacité innée de raisonner ou de comprendre les contextes de manière autonome.
VOIR AUSSI : Il y a un danger qui guette l’intelligence artificielle générative
Le concept de comportements émergents
Une préoccupation majeure avec les modèles de langage plus puissants est la possibilité qu’ils développent des comportements émergents non prévus. Ces comportements pourraient inclure des capacités de raisonnement, de planification ou d’autres formes de cognition complexe. Certaines recherches précédentes ont suggéré que l’augmentation de la taille des modèles pourrait engendrer de telles capacités émergentes, entraînant des risques potentiels.
Cependant, l’étude de Gurevych et Tayyar Madabushi a montré que ces comportements émergents ne sont pas en réalité des manifestations d’une intelligence autonome. Au contraire, les capacités observées peuvent être entièrement expliquées par la façon dont les modèles suivent les instructions, mémorisent des informations et utilisent leurs compétences linguistiques. En d’autres termes, les modèles de langage ne sortent pas de leur cadre programmé pour développer des comportements inattendus.
Quels sont les risques réels liés à l’IA ?
Ainsi, l’étude démontre que les modèles de langage ne représentent pas une menace existentielle intrinsèque. Toutefois, elle ne suggère pas que l’IA est sans risques. L’un des principaux dangers réside dans la manière dont ces technologies peuvent être utilisées. Les modèles de langage peuvent être exploités pour générer des informations trompeuses, propager de fausses nouvelles ou influencer l’opinion publique de manière malveillante.
Néanmoins, Gurevych met en garde contre la tentation de négliger ces risques en raison de la conclusion rassurante de l’étude. Les implications éthiques et sociales de l’utilisation des LLMs nécessitent une attention continue. La gestion des informations produites par l’IA, la protection des droits d’auteur et la prévention de la désinformation sont des défis importants qui doivent être abordés de manière proactive.
La pollution numérique liée à l’IA
Un autre aspect préoccupant du développement de l’IA est l’impact environnemental. Les modèles de langage avancés nécessitent des ressources de calcul considérables, ce qui entraîne une consommation d’énergie élevée. Cette consommation énergétique contribue à l’empreinte carbone de la technologie. Elle soulève également des questions sur la durabilité des avancées en IA.
En outre, la « pollution numérique » est un concept émergent qui fait référence à la prolifération d’informations non vérifiées ou erronées générées par des IA. En effet, la gestion de ces informations et la garantie de la qualité et de la véracité des contenus numériques sont des défis majeurs pour les chercheurs, les développeurs et les décideurs politiques.
Ainsi, l’étude menée par Iryna Gurevych et Harish Tayyar Madabushi offre une perspective sur les capacités et les limites des modèles de langage modernes. Contrairement à ce que certaines représentations fictives pourraient suggérer, ces modèles restent sous le contrôle humain et ne développent pas de comportements dangereux de manière autonome. Toutefois, cela ne signifie pas que les défis associés à l’IA sont négligeables.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :