Temps de lecture : 3 minutes
Écouter l'article
C’est un sacré testament que laisse Alain Delon aux Français. "Si vous regardez cette vidéo, c’est que je suis déjà mort (…) J’ai décidé de distribuer une partie de mon argent à tous les Français (…) chacun pourra gagner 4.000 euros.” Décédé le 18 août dernier, l’acteur est déjà privé de repos en paix. Dans une vidéo générée par intelligence artificielle, donc fallacieuse, il invite les internautes à télécharger une application de “casino en ligne” et à renseigner leurs coordonnées bancaires. “Tout ce que vous avez à faire, c’est de recharger votre compte et de trouver Plinko. (...) Je laisserai le lien vers l’application sous la vidéo", assure-t-il dans ce deepfake (vidéo truquée grâce à des logiciels de manipulation d’images s’appuyant sur des algorithmes d’apprentissage profond) relayés par le chasseur d’arnaqueurs en ligne Méta-Brouteur.
Pub d'une arnaque sur Facebook, exploitant la mort d'Alain Delon
— Méta-Brouteur (@Metabrouteur) August 26, 2024
Ca va trop loin... pic.twitter.com/22SmSqSowt
Votre vidéo n'est pas affichée car vous avez refusé les cookies.
C’est sur Facebook que circule cette vidéo, tout comme celle de Florent Pagny, dont l’image a également été détournée par des escrocs qui, en usurpant son identité, ont réussi à soutirer quelques centaines d’euros à l’une de ses fans. Dans une vidéo publiée sur son compte Instagram, le chanteur a pris la liberté de lutter contre la cybercriminalité. "Vous ne pouvez pas imaginer une seconde qu’un artiste, une personne publique, puisse vous donner par le biais des réseaux sociaux, son numéro de téléphone", se désole-t-il. "Cela n’est pas possible. Si vous ne l’avez pas rencontré, ça ne peut pas arriver. S’il vous plaît, arrêtez d’être naïfs à ce point-là, ça coûte trop cher”, assure-t-il gravement.
Le réseau social fondé par Mark Zuckerberg est le terrain de jeu privilégié des cybercriminels qui utilisent l’IA pour créer des images bidons et duper les internautes. Qu’ils soient néophytes ou amateurs de numérique, seulement un tiers (33%) des Français se sentent en capacité de détecter une image ou une vidéo générée par l’IA, selon un sondage Ifop. Pour lutter contre l’augmentation d’escroqueries toujours plus sophistiquées et la désinformation liée à l’intelligence artificielle, l’éditeur spécialisé en cybersécurité McAfee lance un outil baptisé Deepfake Detector capable de détecter les vidéos trompeuses générées par IA. Pour l’instant, le logiciel est disponible pour la détection en anglais dans certains nouveaux Lenovo AI PC3 commandés sur Lenovo.com et chez certains détaillants locaux aux États-Unis, au Royaume-Uni et en Australie.
Espérons que le dispositif fonctionne avec Grok, l’IA conversationnelle d’Elon Musk. Considéré comme “l’intelligence artificielle la plus fun du monde” par son propriétaire, cet outil est simplement en roue libre puisqu’il permet la création d'images proscrites par d'autres IA telles que Midjourney et DALL-E.
Tuto : 4 conseils pour reconnaître une image créée par une intelligence artificielle
Réservée aux abonnés premium de X (ex-Twitter), la dernière version de Grok, Grok-2, s'est accompagnée d'une vague de désinformation sur X. Comme à l’accoutumée, le multimilliardaire justifie cette absence de modération au nom de la liberté d’expression. Pas sûr que ce jouet sans filtre soit disponible longtemps en Europe.
Notre espace dédié à la cybersécurité
Un site, un lien, le contenu d'un sms ou d'un email vous semble suspect ? On le vérifie pour vous !