MAROC
17/09/2018 18h:25 CET

Comment détecter les deepfakes, ces vidéos truquées qui pourraient perturber les élections

Des parlementaires américains ont mis en garde contre le risque d'utilisation de cette nouvelle technologie. Facebook travaille déjà à l'endiguer.

TECHNO - Dans deux mois, les électeurs américains se rendront aux urnes pour les élections législatives de mi-mandat. Avec l’exemple de la présidentielle de 2016, le risque d’une interférence russe est pris très au sérieux par les services de renseignement américains.

Et cette année, il pourrait y avoir bien pire que de simples fake news. Les articles de sites douteux propageant des rumeurs pourraient par exemple être remplacées par des vidéos très réalistes montrant des candidats dire des énormités. C’est ce que craignent trois parlementaires américains qui ont écrit une lettre au Directeur du renseignement national, rapporte The Verge.

Ils lui demandent d’enquêter sur la menace potentielle des “deepfakes”. Ce terme est devenu célèbre au début de l’année. Il désigne des vidéos où la tête de la personne a été remplacée par une autre, grâce à un algorithme d’intelligence artificielle (plus de détail sur ce phénomène ici).

À l’origine, ce sont des têtes de célébrités qui ont été placées sur des corps d’actrices porno, comme ici avec Daisy Ridley, découverte en 2015 pour son rôle de Rey dans “Star Wars”. Si Pornhub et d’autres ont annoncé qu’ils interdisaient ces vidéos, ce n’est pourtant pas si simple de les détecter.

 

La peur d’une utilisation par des puissances étrangères

Dans leur lettre, les trois parlementaires souhaitent que les services de renseignement vérifient si cette technologie a déjà été utilisée par des individuels étrangers et mettent au point des réponses en cas de danger. En juillet, deux autres sénateurs américains avaient mis en garde contre l’utilisation des deepfakes dans un cadre de sécurité nationale, rappelle The Verge.

Une vidéo publiée en avril par BuzzFeed montre bien ce qu’il pourrait se passer. On y voit Barack Obama affirmer que “le président Donald Trump est une merde”. La vidéo est évidemment fausse. C’est en réalité l’acteur Jordan Peele qui s’exprime. Mais grâce à des algorithmes qui ont modifié le son et l’image, on croirait voir bouger les lèvres de l’ancien président et entendre sa voix.

De manière générale, les vidéos deepfakes sont loin d’être parfaites, même celles bien maîtrisées comme Barack Obama. Mais il est simple de se laisser piéger. Avant même que les renseignements se penchent sur la question, des scientifiques ont cherché des parades.

Clin d’œil et comparatifs

Par exemple, une équipe de l’Université de l’Etat de New York a mis au point un système de vérification qui utilise un des gros défauts des deepfakes: les yeux. Pour que l’algorithme d’apprentissage profond (deep learning) qui créée ces fausses vidéos fonctionne, il a besoin de données. Surtout, de visuels de la face de la personne que l’on veut piéger, sous toutes les coutures.

En général, on nourrit l’intelligence artificielle avec des centaines de photos de la célébrité. Sauf qu’il est très rare, sur une photo, de voir quelqu’un cligner des yeux. Quand l’algorithme copie le visage sur le corps de la personne de la vidéo, le résultat chimérique cligne ainsi bien moins souvent des yeux que la normal. L’algorithme mis au point par les chercheurs a réussi à détecter les fausses vidéos dans 95% des cas.

D’autres chercheurs ont créé une grande base de données de vidéos deepfakes et des vidéos originales qui ont servi de modèles. Ils ont ensuite fait s’entraîner un algorithme à se rendre compte quand une vidéo a été modifiée.

Le problème, évidemment, c’est que ces techniques utilisent des failles des deepfakes pour les repérer. Il suffirait donc à des personnes mal intentionnées de corriger ces défauts pour être indétectables par ces outils bien spécifiques.

Facebook passe des fake news aux deepfakes

Ce 13 septembre, Facebook a également affirmé qu’il allait maintenant vérifier les photos et vidéos postées sur le réseau social. Pour cela, un algorithme vérifie de nombreux signaux, notamment le retour des utilisateurs. Si une vidéo est suspectée d’être fausse, elle est envoyée aux journalistes qui collaborent avec Facebook pour être vérifiée.

Tessa Lyons, responsable des produits sur cette question chez Facebook, explique que le réseau social cherche à détecter automatiquement les deepfakes. Mais si elle note “des progrès” pour repérer les contenus modifiés, il reste difficile de savoir si cette manipulation entraîne une fausse information. Et de citer par exemple l’utilisation des filtres, ou l’ajout d’éléments visuels qui modifient une vidéo originale sans être problématiques.

“Vous avez besoin de comprendre le contexte original du média, le contexte dans lequel il est présenté actuellement et s’il y a une contradiction entre les deux”, précise-t-elle. La guerre des fausses vidéos ne fait que commencer.

Cet article a été initialement publié par Le HuffPost France.