L’IA est dorénavant une collaboratrice dans les arnaques en ligne. Elle a renforcé leur capacité et leur a donné plus de crédibilité.

OpenAI a avertit sur les risques que constitue GPT-5.2 pour la cybersécurité. Cela en dit long sur ce que sont devenues les IA génératives depuis leur avènement. Si elles permettent à tous de gagner en efficacité au travail, il s’agit d’une réalité double : l’IA est efficace sur le bon comme sur le mauvais. Elle permet en effet aux cybercriminels de dépasser leur limite d’hier pour faire plus de victimes. Selon une récente étude d’Opinium pour Visa, les victimes des arnaques à l’IA perdent en moyenne 147 euros par an. L’impact sur l’économie française est aussi grandiose.
Dans cet article :
L’IA rend les arnaques plus crédibles et plus efficaces
Auparavant, l’on pouvait détecter rapidement un faux mail ou un texte d’arnaque par les nombreuses fautes d’orthographe qui le parsèment. Il était aussi relativement simple d’identifier un faux site web, car l’humain n’avait pas toujours le temps de reproduire le site original à l’identique. Mais avec l’intelligence artificielle, ces limites sont sautées. Les nombreux outils IA qui existent permettent de faire un travail professionnel en très peu de temps. Les patterns jadis connus pour déceler les arnaques disparaissent, ce qui augmente le nombre de victimes et leur impact.
Selon la récente étude d’Opinium, la moyenne des pertes individuelles dûes à ces arnaques est de 147 euros en France sur l’année.
En conséquence, toute l’économie française perd 486 millions d’euros par an.
Les professionnels les plus impactés par ces arnaques sont les e-commerçants. Selon l’étude, la méfiance grandissante aurait conduit 14,4 millions de français à réduire leur achat en ligne. Cela constitue un manque à gagner énorme.
Pour se convaincre de l’efficacité d’une arnaque générée par IA, Visa a décidé de mener un test. Le géant du paiement sur internet a ainsi rédigé un faux texte par IA et l’a publié sur les réseaux sociaux. Le faux contenu a généré 420.000 interactions en 13 jours. Ce qui prouve le manque de vigilance et à quel point ce type de contenu atteint les Français.
VOIR AUSSI : Pourquoi cette escroquerie vous concerne : les arnaques à l’IA se multiplient, et voici comment les repérer
Appels, imposteurs, faux site… : l’IA améliore et rend toutes les arnaques possibles
En septembre dernier, Kaspersky alertait déjà sur le fait que l’IA est dorénavant capable d’améliorer et de créer divers types d’arnaques. L’amélioration constante des modèles avancés tels que GPT, Claude ou Gemini, transforme de manière inédite le paysage des arnaques numériques. Ces outils, conçus pour optimiser la productivité et faire gagner du temps, deviennent rapidement des instruments redoutables pour les imposteurs.
En utilisant ces technologies, les escrocs peuvent générer des conversations réalistes et des contenus trompeurs qui se fondent aisément dans notre réalité quotidienne. Par exemple, une attaque par phishing peut désormais tirer parti de la sophistication linguistique de GPT pour créer des messages qui manipulent habilement les émotions et la confiance des utilisateurs. Les statistiques montrent que ces techniques augmentent considérablement le taux de réussite des arnaques.
Sam Altman a reconnu que l’IA est devenue une redoutable alliée pour les escrocs. Aussi, des études révèlent que les cas d’escroquerie ont triplé dans les deux dernières années ; illustrant ainsi l’effet catalyseur de l’IA sur ces pratiques illicites. La facilité avec laquelle les faux sites peuvent être créés et maintenus par l’IA argentique souligne l’urgence d’une réglementation stricte et d’une éducation continue du public.
Par ailleurs, devrions-nous évoquer les deepfakes ? Avec l’arrivée de Sora 2 et de Veo 3, générer de fausses vidéos d’une personne est devenu un jeu d’enfant. Une ou deux phrases suffisent ainsi qu’une image pour que le tour soit joué. À mesure que ces modèles se perfectionnent, la frontière entre la réalité et la fiction s’amenuise. Ainsi est renforcée l’arnaque.
Enfin, avec les IA agentiques, il est désormais possible pour les cybercriminels de créer de faux agents de supports techniques, pour ainsi mieux crédibiliser leur escroquerie. Ces faux supports peuvent se faire passer pour tout et n’importe quoi : des agents de banque à ceux du service des impôts. Ceci alimente le climat de méfiance : le virtuel rime désormais avec le faux.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :






