Arnaque : « voice scam » la nouvelle escroquerie qui clone la voix des proches des victimes

Avec l'arrivée de l'Intelligence Artificielle, tout est désormais possible. Les arnaques ne manquent pas à se servir de cette technologie pour trouver de nouveaux moyens d'escroquer les gens.

© Crédits photos : iStock

Afficher Masquer le sommaire

Une nouvelle forme d’arnaque émerge avec l’avancée de l’intelligence artificielle. Appelée la « voice scam » ou arnaque à la voix selon un article récent du Washington Post. Cette technique consiste à utiliser des outils basés sur l’IA pour imiter la voix d’une personne. Et ensuite appeler un proche de la cible, demandant ainsi un transfert d’argent.

Selon le rapport du Washington Post, une femme canadienne âgée de 73 ans a été victime de cette nouvelle arnaque. Les fraudeurs ont réussi à cloner la voix de son petit-fils, Brandon, et ont prétendu qu’il était en prison. Demandant ainsi de l’argent. La femme et son mari ont alors retiré le montant maximum quotidien de 2 074 euros de leur compte bancaire, puis se sont rendus dans une autre banque pour retirer plus d’argent.

Une arnaque déjà connue

Fort heureusement, un employé de la deuxième banque a été vigilant et a détecté quelque chose de suspect. En effet, un autre client avait déjà été la cible de la même arnaque. C’est grâce à cela que la grand-mère de Brandon a été avertie et a évité de se faire arnaquer. Il convient de souligner que la voix générée par l’IA était très convaincante.

À lire Anah : attention à cette escroquerie dans votre boîte mail

Malheureusement, d’autres n’ont pas eu autant de chance. Selon le Washington Post, un homme de 39 ans a témoigné que ses parents ont perdu l’équivalent de 14 500 euros. Les fraudeurs leur ont fait croire que leur fils avait causé un accident de voiture mortel et avait besoin d’argent. La voix synthétique était suffisamment convaincante pour que les parents y croient. Paniqués, ils ont retiré de l’argent dans plusieurs banques avant d’effectuer le transfert demandé sur un terminal Bitcoin.

Des technologies à la portée de tous

Le développement de l’IA générative a rendu possible la création de logiciels performants pour cloner des voix à moindre coût, voire gratuitement, expliquant ainsi la fréquence de ces arnaques. Par ailleurs, certains de ces logiciels sont capables de cloner une voix à partir d’un enregistrement de seulement 30 secondes. Ce qui peut être facile à trouver si la cible possède une chaîne YouTube ou un compte TikTok.

L’une des solutions de clonage vocal est proposée par la société ElevenLabs. Cependant, en janvier dernier, la société a dû modifier les conditions d’accès à son logiciel pour limiter les utilisations malveillantes. Dans une série de tweets, ElevenLabs a précisé que la plupart des « contenus malveillants » sont créés à partir de leur version gratuite. Qui ne nécessite aucune vérification d’identité.

Afin de limiter les utilisations malveillantes de leur solution de clonage vocal, ElevenLabs a supprimé sa version gratuite qui ne requérait aucune vérification d’identité et a désormais rendu obligatoire l’utilisation d’une carte bancaire, même pour un essai gratuit, permettant ainsi d’identifier les utilisateurs. Par ailleurs, l’entreprise a également annoncé la création d’un logiciel qui permet de détecter les voix générées par son IA.

D’autres arnaques à base d’IA

Des experts en cybersécurité ont repéré sur LinkedIn de faux comptes et des images générées par des outils d’intelligence artificielle tels que DALL-E. Selon un rapport publié par la société SafeGuard Cyber le 21 février 2023 et partagé avec les journalistes de TechRadar, les premières tentatives d’arnaques écrites grâce aux outils d’intelligence artificielle ont fait leur apparition sur le web. Les malfaiteurs utilisent notamment les services de création d’images par IA pour diffuser des documents trompeurs. Tels que le « Sales Intelligence », sur LinkedIn. Pour télécharger ces documents, les utilisateurs doivent renseigner leurs données personnelles, ce qui laisse penser qu’il s’agit d’un stratagème pour voler des identifiants. Toutefois, les utilisateurs ne reçoivent finalement aucun fichier.

À lire Orange : attention à cette nouvelle arnaque qui usurpe l’identité de l’opérateur

Des opérations de phishing utilisant des images créées par l’IA ont fait l’objet de signalement depuis l’automne dernier. Hamish Taylor, qui gère un groupe LinkedIn de 300 000 membres, a déclaré avoir bloqué plus de 12 700 faux comptes au cours des derniers mois, tous se présentant comme des experts en gestion de crises. Cependant, ces personnes n’existent pas et les photos de profil sont générées par une IA. Un bot est utilisé pour gérer les comptes, les mentions « j’aime », les demandes de connexion, etc.

Source : Presse Citron

Il était une pub est un média indépendant. Soutenez-nous en nous ajoutant à vos favoris Google Actualités :