Alors que l’inquiétant phénomène des deepfakes se généralise en même temps qu’il se perfectionne, il semble qu’il sera bientôt de plus en plus difficile de démêler le vrai du faux sur Internet. Mises en causes, les intelligences artificielles pourraient pourtant être une solution.

Faux Zuckerberg 

Une vidéo un peu particulière de Mark Zuckerberg a été publiée sur Instagram le 7 juin dernier, rapportait Vice quatre jours plus tard. Le patron de Facebook y tient un sinistre discours sur le pouvoir du réseau social. « Imaginez ça une seconde : un homme avec le contrôle total des données volées de milliards de personnes, leurs secrets, leurs vies, leur avenir », explique-t-il le regard vissé à l’objectif. « Je dois tout cela à Spectre. Spectre m’a montré que quiconque contrôle les données, contrôle l’avenir. »

Zuckerberg n’a pourtant jamais prononcé de telles paroles, mais on doit ce tour de passe-passe terrifiant de réalisme aux artistes Bill Posters et Daniel Howe, aidés par la start-up israélienne Canny AI. La vidéo originale est issue d’une allocution datant de septembre 2017 au sujet de l’ingérence russe dans l’élection présidentielle américaine de 2016. Pour rendre ce faux plus vrai que nature, un bandeau a été ajouté sous la vidéo : « Nous augmentons la transparence sur les publicités », annonce-t-il. 

C’est grâce à la technologie de remplacement du dialogue vidéo de Canny AI (VDR) que cette vidéo a pu être créée. Ainsi générée par intelligence artificielle, elle était destinée à promouvoir Spectre, une exposition qui s’est tenue au début du mois de juin 2019 au Sheffield Doc/Fest, un festival international de documentaire anglais. Par ce deepfake, les auteurs espéraient informer les internautes sur les possibles dérives des géants de la tech.

Deepfake

Issu de la contraction entre « deep learning » et « fake », le deepfake est une « fabrication par ordinateur d’une fausse vidéo à partir d’éléments réels », expliquait le délégué général de l’association Génération Numérique Cyril di Palma à France Bleu. L’intelligence artificielle permet aussi bien de donner vie à des tableaux mythiques que de faire dire à Mark Zuckerberg des mots qu’il n’a jamais prononcés, ou de mettre en scène dans des vidéos pornographiques des personnes contre leur volonté.

Ce type de vidéos ultra-réalistes est apparue en 2017 sur Internet. Sa création était à l’origine très fastidieuse et il fallait de longues heures de traitement pour parvenir à un résultat crédible. Mais la technologie a progressé et  l’apprentissage automatique a fait d’importants progrès, si bien que concevoir des vidéos deepfake est devenu de plus en plus simple. Selon Vincent Nozick, chercheur au Laboratoire d’informatique Gaspard-Monge (LIGM), la menace est grande car ces deepfakes « ne demandent pas de connaissances très approfondies en mathématiques, ni de matériel informatique très perfectionné », assurait-il à France 24.

L’IA doit toutefois disposer d’un nombre suffisant de données sur la victime du montage. Et cela tombe mal car des chercheurs·euses spécialisés en IA de l’Institut des sciences et technologies Skolkovo de Moscou ont présenté le 21 mai 2019 un système capable de créer un faux assez convaincant à partir de seulement quelques photos d’un visage. 

Il existe en outre différentes façons de créer un deepfake. Pour faire en sorte que Mark Zuckerberg affirme face caméra qu’il contrôle totalement les données volées de milliards de personnes, Canny s’est entre autres inspirée du programme Face2Face, une approche de « synthèse par l’analyse » qui reconstruit un visage en 3D en temps réel.

« Nous sommes dépassés »

Les deepfakes pourraient avoir de graves conséquences et laissent présager le pire. Selon Rachel Thomas, fondatrice du laboratoire de machine learning Fast.ai, une campagne de désinformation utilisant ce type de vidéos peut très bien fonctionner actuellement, « en raison de la structure de récompense du Web moderne, dans laquelle des supports choquants attirent un public plus large ».

De rapides modifications ont déjà prouvé qu’elles étaient capables de créer de puissants remous. Le 22 mai dernier, une vidéo de la présidente de la Chambre des Représentants aux États-Unis, Nancy Pelosi, a été partagée par le site conservateur Politics WatchDog. Le lendemain soir, elle avait été vue plus de deux millions de fois. Sa voix était pâteuse et elle semblait éprouver des difficultés à s’exprimer. Le lendemain, le Washington Post a finalement révélé que cette vidéo avait été ralentie à environ 75 % de sa vitesse normale et sa voix modifiée pour dissimuler cette transformation. Désirant la faire paraître saoule, cette vidéo a été publiée alors qu’une guerre ouverte oppose Pelosi à Donald Trump.

Certains, comme le chercheur en désinformation Aviv Ovadya, ont également peur que les fausses vidéos ne desservent les « preuves vidéos ». C’est ce qu’il appelle « l’apathie de la réalité ». Parce qu’il vous faut produire trop d’efforts pour identifier ce qui est vrai et ce qui ne l’est pas, « vous serez donc plus enclin à rester sur vos positions antérieures », explique-t-il.

Selon Giogio Patrini, PDG de Deeptrace, lors de la conférence CogX dédiée à l’IA qui a eu lieu à Londres du 10 au 12 juin 2019, la qualité de ces vidéos « va encore progresser et les prix continuer à baisser », c’est pourquoi il faut nous préparer.

Enfin, Hany Farid, professeur d’informatique et expert en criminalité numérique à l’UC Berkeley, craint par-dessus tout un véritable déséquilibre dans la lutte en cours, témoin du chemin qu’il reste à parcourir. « Nous sommes dépassés », reconnaît-il. « Le nombre de personnes travaillant du côté de la synthèse vidéo, par opposition au côté du détecteur, est de 100 contre 1. »

Le chercheur Aviv Ovadya craint une apathie de la réalité
Crédits : Aviv Ovadya

Systèmes de détection

Alors que l’anxiété se répand à travers la Toile et dans la vie réelle, désormais la course à la détection des deepfakes vidéos est lancée dans le monde de la tech. Adobe est par exemple à la recherche d’un système de détection reconnaissant l’implication éthique de sa technologie. En collaboration avec des scientifiques de l’UC Berkeley, l’entreprise de logiciels a développé un prototype d’IA capable de détecter tout visage photoshoppé.

Crédits : Adobe Research et UC Berkeley

Avec un taux de 99 % de réussite, l’IA d’Adobe a été conçue pour repérer les modifications exécutées avec l’outil « Liquify » de Photoshop, couramment utilisé pour remodeler les formes et les expressions d’un visage. L’IA est en outre capable de retrouver l’image d’origine. Un porte-parole a précisé à The Verge que la société n’a pas pour ambition de commercialiser ce projet dans l’immédiat.

La députée Caroline Janvier
Crédits : Robin Troutot

Le Pentagone a également débuté il y a un an le financement du développement d’une technologie capable de lutter contre ces vidéos : MediFor. « Si le projet est un succès, la plateforme MediFor détectera automatiquement les manipulations, fournira des informations détaillées sur la manière dont ces manipulations ont été faites, et réfléchira sur l’intégrité générale des contenus visuels », a expliqué David Gunning, responsable du programme au sein de l’Agence pour les projets de recherche avancée de défense (DARPA). Le groupe de recherche de l’entreprise américaine SRI International travaillera avec l’université d’Amsterdam et l’Institut de recherche Idiap en Suisse.

Mais alors que certain·e·s misent donc sur l’IA, d’autres parlent plutôt éducation aux médias et scepticisme. « Nous devons apprendre aux journalistes à aider les gens à accroître leur sens critique et à tirer les bonnes conclusions des contenus qu’ils voient », estime Laura Ellis, responsable de la prospective technologique à la BBC, également présente à la conférence CogX.

Le monde de la tech se met donc en marche, mais certain·e·s attendent également une réponse législative. En France, la loi relative à la lutte contre la manipulation de l’information est entrée en vigueur en décembre 2018, sans faire mention de détournement audiovisuel. Ce n’est qu’en février que la question des deepfakes a été soulevée par la députée Caroline Janvier, dans l’espoir qu’elle soit prise au sérieux dans les plus brefs délais.

Auteure : Malaurie Chokoualé Datou