Deepfake audio : quelle est encore cette dangereuse nouvelle arnaque ?IllustrationIstock
Des images et voix de synthèses très réalistes sont utilisées pour piéger particuliers et personnalités. Si cette technologie peut servir pour de simples canulars, elle peut aussi être exploitée pour vous faire chanter…
Sommaire

Deepfake ou hypertrucage. Connaissez-vous cette technologie qui vise à piéger ? Employée pour de simples canulars, elle peut aussi servir à faire chanter personnalités et particuliers. Créée grâce à l'intelligence artificielle, elle est exploitée pour réaliser des images et des voix de synthèse réalistes. Il est donc possible d’utiliser l’image de quelqu'un et de reproduire n’importe quelle voix.

Deepfake audio : trucages, canulars et fake news

Pratiqué généralement pour des trucages et autres canulars, le deepfake sert aussi à diffuser des fake news. D’ailleurs, comme le rapporte le quotidien 20 minutes, la pratique intéresse grandement les pirates informatiques.

Pour parvenir à leurs fins, ils reproduisent en effet la voix de leur cible et lui prêtent les propos qu’ils souhaitent. De nombreuses personnes ont d’ores et déjà étaient arnaquées. La technologie évoluant rapidement et les clones vocaux se perfectionnant, le nombre de victimes potentielles pourrait très vite s’agrandir.

La société de conseil en sécurité NISOS indique d’ailleurs, au sein de son dernier rapport, avoir étudié l’une de ces escroqueries. Après avoir reproduit la voix du PDG d’une entreprise, des hackers ont envoyé un message vocal à un employé stipulant que celui-ci avait besoin d’"une assistance immédiate pour finaliser un accord commercial urgent".

Si l’audio partagé via le site Motherboard conserve un aspect robotique, dans l’urgence, il est possible de tomber dans le piège et de suivre les indications annoncées. "Cela semble vraiment humain. Ils ont coché cette case en ce qui concerne : est-ce que cela semble plus robotique ou plus humain ? Je dirais plus humain", a estimé Rob Volkert, chercheur à NISOS, à Motherboard.

Deepfake audio : il pourrait vous faire perdre gros

L’escroquerie n’a ici pas abouti. L’employé, trouvant le message suspect, l’a tout de suite signalé au service juridique de sa société. La multiplication de ce type d’arnaque peut cependant faire de nombreuses victimes. Certains en ont d’ailleurs déjà fait les frais.

Le directeur général d’une entreprise énergétique britannique a été dupé en 2019. Après avoir reçu un faux appel téléphonique de son patron, précisant qu’un transfert d’argent devait s’établir dans l’heure, il a envoyé 220 000 euros à un fournisseur hongrois. Les escrocs courent toujours…

Comment éviter ce piège ?

Deepfake audio : comment ne pas tomber dans le piège ?

Prenez garde, car plus les audios sont de bonne qualité, plus le résultat est réaliste, plus il est facile de tomber dans le piège. Comment peut-on alors échapper à cette arnaque ?

L’interlocuteur vous met la pression ? Gardez votre calme. Les malfaiteurs jouent sur cet aspect et l’urgence pour vous escroquer. Posez des questions que seul le vrai interlocuteur peut connaître.

Si l’appel vous semble suspect, raccrochez et rappeler la personne, pour vérifier que l’appel provient bien d’elle et non d’un hacker.