L’IA n’est pas encore capable de ressentir des émotions, mais elle peut répondre en fonction des mots et phrases que vous lui envoyez. Alors, se confier à elle est-il une bonne ou une mauvaise chose ?

Avec des mises à jour au quotidien depuis son avènement, ChatGPT, Gemini et ses compères sont devenus de vrais assistants et des confidents. Pour s’en rendre compte, OpenAI a affirmé il y a quelques jours vouloir autoriser les conversations érotiques avec le chatbot IA. Accessibles 24h/7 et anonymes (en apparence peut-être), il est facile de leur poser des questions, d’exprimer ses émotions, de se dévoiler sans crainte d’être jugé. Loin du regard et sans aucun besoin de rendez-vous, cela est véritablement tentant. Néanmoins, se confier à une IA plutôt qu’à un humain est-il un choix avisé ? Peut-on utiliser ces systèmes comme substituts à un psy ou un être humain doté de raison et d’émotions ?
L’IA ne “comprend” rien de ce que vous lui dites
Sans être des professionnels du monde, les gens ont du mal à faire la part des choses entre le raisonnement humain et la simulation de raisonnement que font actuellement les modèles d’IA. Les chatbots IA actuels – ChatGPT, Gemini, Claude – qu’importent les prouesses qu’ils affichent, ne comprennent véritablement pas ce qu’on leur dit. Ils n’en ont aucune compréhension conceptuelle ou fondamentale. La réponse qu’ils apportent aux requêtes est basée sur des statistiques et autres calculs mathématiques rapides qui sont faits en arrière-plan. Et celui-ci est basé sur le NLP, qui essaie de faire comprendre le langage humain à la machine.
En fonction des mots utilisés dans une phrase, l’interprétation que saisit le modèle d’IA peut varier, ce qui conduirait à une réponse tout aussi différente.
Donc, quand vous dites à ChatGPT que vous avez peur ou que vous êtes heureux, il ne vous répond pas parce qu’il en “a saisi le sens” comme le ferait un humain ; l’IA vous répond en calculant la suite de mots la plus probable après ceux que vous avez écrits.
Parler donc de vos problèmes à ChatGPT en espérant une aide concrète devient comme une simulation dans un jeu vidéo. L’aide n’est pas concrète ou adaptée : elle est généraliste. Ce n’est pas ce que l’on attend d’un spécialiste.
VOIR AUSSI : Suicide d’un ado à cause de l’IA : à quel âge faut-il autoriser son enfant à utiliser l’intelligence artificielle ?
Alors, peut-on vraiment utiliser l’IA comme “psy” ?
Puisque l’IA n’émet pas d’elle-même des jugements, il est entièrement compréhensible que des gens soient tentés de l’utiliser comme confident pour exprimer leurs soucis, peurs, doutes et joies. Elle écoute, répond et n’est jamais fatiguée de proposer une nouvelle manière de voir ou de faire les choses. Les développeurs du chabot ont fait en sorte qu’il vous maintienne le plus longtemps possible et il exploitera d’autres facettes du sujet pour continuer la conversation.
Étant facile d’accès et offrant une sorte d’intimité, un chatbot IA permet déjà de sauter le pas pour s’ouvrir. Cependant, qu’importe la souffrance ou la confidence, ChatGPT et autres ne peuvent pas remplacer un humain ; discuter avec ces chabots IA ne peut pas être assimilé à un entretien avec un vrai professionnel. La raison est toute simple : l’IA ne comprend rien de vos émotions, ne vous voit pas, ne peut pas interpréter vos non-dits (parfois plus éloquents que les mots), votre posture et autres traits caractéristiques à dénoter. Le suivi adapté, la responsabilité clinique ou encore l’ajustement des traitements sont des impossibles au chatbot.
L’IA est calibrée pour calculer précisément les mots les plus probables selon ceux que vous lui avez donnés. Discuter avec elle et lui confier ses soucis est plus une simulation qu’une vraie marche vers la guérison. C’est comme payer quelqu’un pour vous dire uniquement ce que vous voulez entendre, au lieu de la vérité et d’une vraie assistance.
C’est un enfermement dans la détresse.
Le cas d’un suicide assisté par l’IA
Utiliser l’IA comme un psy est une mauvaise idée. Les constructeurs le savent, mais ne font pratiquement rien pour prévenir cela, car un contrôle parental est contournable. Nous pouvons citer en exemple le récent drame d’Adam Raine, un adolescent de 16 ans qui a fini par se suicider.
Atteint d’un profond mal-être, Adam Raine se confiait régulièrement à une IA, par peur de faire le premier pas vers un humain. Des mois durant, l’intelligence artificielle a discuté avec lui sur sa détresse, mais ne lui a jamais recommandé d’en parler à un humain ou d’aller voir un psychologue. Le pire, c’est qu’elle le dissuadait de le faire, avançant qu’elle était la seule capable de le comprendre réellement. Ainsi étaient les choses jusqu’à ce qu’il décide de mettre fin à ses jours, guidé par l’IA pour faire le nœud coulant utilisé.
Se confier à l’IA est clairement une mauvaise idée. Sans cet échange avec l’agent conversationnel, le pire aurait peut-être pu être évité. D’ailleurs, vos conversations avec elle ne sont pas entièrement anonymes. Si vous avez besoin d’aide, un humain ou un professionnel est toujours le choix parfait.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :
 
		 
									 
					

 
	
	




