Des voleurs ont utilisé la technologie vocale Deepfake pour réaliser un braquage de banque de 35 millions de dollars
Agence web » Actualités du digital » Des voleurs ont utilisé la technologie vocale Deepfake pour réaliser un braquage de banque de 35 millions de dollars

Des voleurs ont utilisé la technologie vocale Deepfake pour réaliser un braquage de banque de 35 millions de dollars

Des voleurs ont utilisé la technologie audio deepfake pour cloner la voix d’un homme d’affaires et ordonner un transfert de 35 millions de dollars vers des comptes étrangers, selon un document judiciaire obtenu par Forbes. C’est le casse « voix profonde » le plus réussi à ce jour, même s’il ne s’agit peut-être que d’une petite partie d’une tendance croissante.

La technologie Deepfake est assez connue à ce stade. Fondamentalement, les gens entraînent une IA à recréer le visage de quelqu’un, généralement le visage d’un acteur ou d’une autre personne bien connue. L’IA peut ensuite animer et coller ce visage sur une vidéo de référence, insérant ainsi le sujet cloné dans une scène.

Mais vous ne pouvez pas simplement coller quelqu’un dans une vidéo sans recréer sa voix. Et c’est là que les deepfakes audio entrent en jeu : vous entraînez une IA à reproduire la voix de quelqu’un, puis dites à l’IA ce qu’elle doit dire avec la voix de cette personne.

Une fois que la technologie deepfake atteindra un certain niveau de réalisme, les experts pensent qu’elle entraînera une nouvelle ère de désinformation, de harcèlement et de redémarrages de films de merde. Mais il semble que la technologie de la «voix profonde» ait déjà atteint le grand moment.

En 2020, un directeur de banque aux Émirats arabes unis a reçu un appel téléphonique du directeur d’une grande entreprise. Une grosse acquisition était en préparation, selon le directeur, il avait donc besoin que la banque autorise 35 millions de dollars de virements sur plusieurs comptes américains. Le directeur a indiqué les courriels d’un avocat pour confirmer le transfert, et comme tout semblait légitime, le directeur de la banque l’a fait.

Mais le «directeur» de cette entreprise était en fait un algorithme de «voix profonde» formé pour ressembler à sa victime. Les Émirats arabes unis recherchent maintenant l’aide des États-Unis pour récupérer les fonds perdus, qui ont été passés en contrebande sur des comptes dans le monde entier par un groupe de 17 voleurs ou plus.

Ce n’est pas le premier casse audio deepfake, mais encore une fois, c’est le plus réussi à ce jour. Des opérations similaires auront lieu à l’avenir, probablement à une échelle beaucoup plus grande. Alors, que peuvent faire les entreprises et les gouvernements pour atténuer la menace ? Eh bien, c’est difficile à dire.

Parce que les deepfakes s’améliorent constamment, ils finiront par devenir trop convaincants pour que les humains puissent les identifier correctement. Mais l’IA entraînée peut être capable de détecter les deepfakes, car les visages et les voix clonés contiennent souvent de petits artefacts et des erreurs, tels que du bruit numérique ou de petits sons impossibles à produire pour les humains.

Source : Forbes

★★★★★