[ad_1]
DÉCRYPTAGE – Les deepfakes se multiplient et exploitent l’image et la voix de célébrités pour arnaquer leurs fan. Jérôme Mondi, expert en intelligence artificielle générative, nous explique comment rester vigilant face à ces escroqueries.
Une vidéo virale sur les réseaux sociaux montre Alain Delon promettant de redistribuer une partie de sa fortune à ses fans. Pourtant, l’acteur, décédé récemment, n’a jamais tenu de tels propos. Cette publicité redirige les internautes vers un faux site imitant le Google Play Store, offrant une application nommée «Casino Delon» qui vise en réalité à voler les données personnelles et bancaires des utilisateurs pour leur soutirer de l’argent.
Ces manipulations audiovisuelles ultras réalistes sont réalisées grâce à des deepfakes, des logiciels capables de remplacer un visage, reconstituer la voix d’une célébrité et falsifier des propos. Ces escroqueries visent à subtiliser des données bancaires et à obtenir des transferts d’argent de la part d’internautes dupés.
Le développement de l’intelligence artificielle générative a facilité la création de ces vidéos truquées, rendant difficile la distinction entre le vrai et le faux. Jérôme Mondi souligne que malgré les avancées technologiques, des détails flagrants peuvent trahir un deepfake mal réalisé, tels que des mouvements anormaux ou des incohérences visuelles.
Récemment, la voix du chanteur Florent Pagny a été utilisée de manière frauduleuse pour escroquer une fan. Les tonalités robotiques de la voix ont permis d’identifier l’inauthenticité de la vidéo. Cette pratique est sévèrement punie par la loi, notamment en France où une législation stricte vise à protéger les victimes de ces manipulations.
Il est essentiel de rester vigilant et d’exercer du bon sens face à ces situations trompeuses. Demander des preuves et rester sceptique peuvent aider à éviter de tomber dans le piège des deepfakes. Des précautions simples peuvent protéger contre ces manipulations et réduire les risques d’escroquerie.
En somme, la montée en puissance des deepfakes appelle à une vigilance accrue de la part des utilisateurs, mais également à une adaptation des législations pour lutter contre ces pratiques frauduleuses.
[ad_2]