Deepfakes : IA-t-il quelqu’un à bord ?

Alain Delon et Florent Pagny salis par l’IA, dernier joujou grotesque d’Elon Musk et premier détecteur de deepfakes signé McAfee… L’intelligence artificielle fait sa rentrée, continuant de faire des remous. Tour d’horizon des arnaques et des solutions.

©Canva

Temps de lecture : 3 minutes

Écouter l'article

0:00

C’est un sacré testament que laisse Alain Delon aux Français. "Si vous regardez cette vidéo, c’est que je suis déjà mort (…) J’ai décidé de distribuer une partie de mon argent à tous les Français (…) chacun pourra gagner 4.000 euros.” Décédé le 18 août dernier, l’acteur est déjà privé de repos en paix. Dans une vidéo générée par intelligence artificielle, donc fallacieuse, il invite les internautes à télécharger une application de “casino en ligne” et à renseigner leurs coordonnées bancaires. “Tout ce que vous avez à faire, c’est de recharger votre compte et de trouver Plinko. (...) Je laisserai le lien vers l’application sous la vidéo", assure-t-il dans ce deepfake (vidéo truquée grâce à des logiciels de manipulation d’images s’appuyant sur des algorithmes d’apprentissage profond) relayés par le chasseur d’arnaqueurs en ligne Méta-Brouteur.

C’est sur Facebook que circule cette vidéo, tout comme celle de Florent Pagny, dont l’image a également été détournée par des escrocs qui, en usurpant son identité, ont réussi à soutirer quelques centaines d’euros à l’une de ses fans. Dans une vidéo publiée sur son compte Instagram, le chanteur a pris la liberté de lutter contre la cybercriminalité. "Vous ne pouvez pas imaginer une seconde qu’un artiste, une personne publique, puisse vous donner par le biais des réseaux sociaux, son numéro de téléphone", se désole-t-il. "Cela n’est pas possible. Si vous ne l’avez pas rencontré, ça ne peut pas arriver. S’il vous plaît, arrêtez d’être naïfs à ce point-là, ça coûte trop cher”, assure-t-il gravement. 

Le réseau social fondé par Mark Zuckerberg est le terrain de jeu privilégié des cybercriminels qui utilisent l’IA pour créer des images bidons et duper les internautes. Qu’ils soient néophytes ou amateurs de numérique, seulement un tiers (33%) des Français se sentent en capacité de détecter une image ou une vidéo générée par l’IA, selon un sondage Ifop. Pour lutter contre l’augmentation d’escroqueries toujours plus sophistiquées et la désinformation liée à l’intelligence artificielle, l’éditeur spécialisé en cybersécurité McAfee lance un outil baptisé Deepfake Detector capable de détecter les vidéos trompeuses générées par IA. Pour l’instant, le logiciel est disponible pour la détection en anglais dans certains nouveaux Lenovo AI PC3 commandés sur Lenovo.com et chez certains détaillants locaux aux États-Unis, au Royaume-Uni et en Australie.

Espérons que le dispositif fonctionne avec Grok, l’IA conversationnelle d’Elon Musk. Considéré comme “l’intelligence artificielle la plus fun du monde” par son propriétaire, cet outil est simplement en roue libre puisqu’il permet la création d'images proscrites par d'autres IA telles que Midjourney et DALL-E

Tuto : 4 conseils pour reconnaître une image créée par une intelligence artificielle

Lire l'article

Réservée aux abonnés premium de X (ex-Twitter), la dernière version de Grok, Grok-2, s'est accompagnée d'une vague de désinformation sur X. Comme à l’accoutumée, le multimilliardaire justifie cette absence de modération au nom de la liberté d’expression. Pas sûr que ce jouet sans filtre soit disponible longtemps en Europe

icon-cybersecure

Notre espace dédié à la cybersécurité

Un site, un lien, le contenu d'un sms ou d'un email vous semble suspect ? On le vérifie pour vous !

Partager l’article

Partager bien vivre le digital