Vous vous demandez à quoi peuvent servir les intelligences artificielles vocales ? Ces IA sont massivement utilisées à des fins d’arnaques.
Vous pensez que l’intelligence artificielle est là pour aider à l’avancée de l’humanité ? Oui, c’est bien cela, mais uniquement quand elle est utilisée dans le bon sens. Malheureusement, ce n’est pas toujours le cas. Alors que de nombreuses personnes utilisent déjà ChatGPT pour développer des malwares, les cybercriminels ont trouvé une autre utilité aux IA vocales. Ils s’en servent pour cloner des voix humaines et orchestrer des escroqueries au téléphone.
La voix au téléphone n’est plus sûre
Auparavant, un coup de fil à quelqu’un suffisait pour confirmer ce qu’on vient d’entendre de lui. Malheureusement, ce ne sera plus suffisant, car la fraude vient de changer d’ère, grâce à l’intelligence artificielle.
Il y a quelques jours, l’IA vocale faisait parler d’elle lorsqu’un journaliste s’en est servi pour pirater un compte bancaire. Au cours de la semaine, une même technologie, développée par ElevenLabs, a été utilisée pour imiter la voix d’Emma Watson lisant Mein Kampf. Mais tout cela, c’est en Europe.
Ailleurs, les mêmes choses se passent également. Et certains ont été plus loin, puisque l’IA vocale a permis aux escrocs de voler 15 000 dollars à un couple américain, rapporte le Washington Post. Pour s’y prendre, la bande d’escrocs a cloné la voix d’un homme de 39 ans. Elle a ensuite appelé sa famille et lui a expliqué que l’homme en question vient de causer la mort d’un diplomate américain dans un accident de voiture. Il fallait donc envoyer des fonds pour sa défense. Pour s’en assurer, la famille a contacté une personne qui avait exactement la voix de leur enfant. Cette dernière a confirmé les faits et la famille, sous la panique, a déboursé les fonds. 15 000 dollars ont ainsi disparu !
VOIR AUSSI : Et si l’intelligence artificielle pouvait ouvrir la porte de l’immortalité ?
Des escrocs difficiles à trouver
L’appel qui devrait rassurer le couple est celui qui l’a précipité. La voix qui devrait permettre à la famille d’y voir clair l’a sombré. Les dés ont été jetés et il est impossible de les ramasser.
Quelques minutes après avoir reçu les fonds, les escrocs les ont convertis en bitcoins avant de disparaître. Les retrouver devient ainsi une tâche bien trop difficile, puisque les criminels n’ont utilisé qu’un simple téléphone portable. Une réalité qui contraste entièrement avec la réalisation qui est désormais très facile.
Aujourd’hui, nul besoin de nombreux enregistrements pour cloner la voix de quelqu’un. Grâce à l’intelligence artificielle, il suffit de récupérer un message vocal ou une vidéo Tik-Tok avec environ 30 secondes de la voix de la personne ciblée. Le tour est joué ! L’arme est disponible pour escroquer n’importe qui.
BuzzWebzine est un média indépendant. Soutiens-nous en nous ajoutant à tes favoris sur Google Actualités :