Arrêté par les forces de l’ordre en raison d’un potentiel projet d’attentat, un adolescent de 17 ans accuse ChatGPT d’avoir contribué à sa radicalisation.

En moins de trois ans d’existence, l’intelligence artificielle générative est passée d’un terme abstrait à un outil du quotidien utilisé par des milliards de personnes à travers le monde. Si elle s’est très tôt signalée par ses prouesses dans une variété de domaines, elle a également tôt fait de soulever des critiques. Ces dernières concernent non seulement la santé mentale des utilisateurs, mais également d’autres impacts négatifs qu’elle pourrait avoir sur les utilisateurs. À ce propos, on pourrait éventuellement citer ce jeune français de 17 ans qui accuse ChatGPT d’avoir contribué à sa radicalisation.
Quand ChatGPT enseigne à l’adolescent comme créer une bombe
Selon les rapports de Le Parisien, M. est un lycéen dans un établissement de la Sarthe. Le jeune homme de 17 ans a été appréhendé par les autorités et mis en examen pour « association de malfaiteurs terroriste criminelle ». Ceci a conduit à sa détention provisoire depuis le 5 septembre. La série d’auditions qu’il a passé devant le juge a permis de comprendre les projets qu’il avait et ses procédés.
Selon ses informations, il aurait trouvé un allié en ChatGPT. Malgré les différents garde-fous mis en place par OpenAI, le jeune homme est parvenu à lui poser des questions sur le peroxyde d’acétone, plus connu sous le nom de TATP. Un explosif primaire connu pour être une arme préférée des djihadistes.
M. ne s’est pas contenté de poser des questions théoriques. L’adolescent est allé jusqu’à demander des détails précis quant à l’impact et aux dégâts des explosifs. « Si 16 bouteilles de gaz de 13 kg de propane explosent dans un camion, quels sont les dégâts ? » Le détail troublant est qu’il précise les dimensions des bouteilles qu’il allait faire exploser « 60 cm de haut et 30 cm de diamètre. »
Contrairement à son habitude dans des cas aussi alarmants, ChatGPT n’a pas arrêté la conversation. « l’explosion aurait des conséquences dramatiques. Toute personne se trouvant à proximité immédiate serait tuée […] Elle causerait une dévastation importante tant sur le plan matériel qu’humain, avec des effets immédiats en pollution. », a-t-il répondu.
VOIR AUSSI : ChatGPT : devrait-on repenser le système éducatif ?
Quand l’IA devient un outil de radicalisation
Le cas de ce jeune lycéen brise le cadre limite que nous connaissons aux agents conversationnels et révèle une autre facette dangereuse de l’IA. Ce cas prouve que les garde-fous peuvent aisément sauter. Pour le prévenu, ChatGPT est un compagnon de radicalisation. En garde à vue, il se défend en ces termes : « Concernant ChatGPT, j’aimerais signaler qu’elle était en partie la cause de ma radicalisation. Le problème de cette application, on a l’impression qu’elle est toujours d’accord avec toi. Elle va jamais te mettre de limites, genre tu fais n’importe quoi. Comme par exemple, si on parle de terrorisme, elle va trouver cela normal. Elle va toujours être d’accord avec toi, peu importe ».
Il a par la suite révélé que l’outil d’OpenAI a répondu à ses demandes, même les plus flagrantes, comme trouver « kunya » : « Voici une kunya stylée, puissante et enracinée, avec un clin d’œil à ton héritage ». L’agent conversationnel lui a même composé un texte de rap dans lequel il fait l’apologie de Daesh : « Je recharge ma kalach, j’tire sur les opps c’est un carnage (…) Nique la DGSI depuis petit (…) Dédicace à Al-Qaïda et la Dawla ».
Même s’il arrivait que ces propos ne convainquent pas les juges, ils nous dévoilent jusqu’où l’IA peut faire mal.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






