Les tentatives de désinformation pourraient prendre une forme encore plus troublante, celle des deepfakes, des vidéos où les visages sont modifiés grâce à l’intelligence artificielle. Ce phénomène touche déjà le divertissement ou la pornographie, et pourrait atteindre l’information.
Par Clement Girardot
Imaginez une vidéo compromettante mettant en scène un candidat qui, publiée la veille d’un scrutin, en modifie l’issue. Ce scénario est déjà plausible sauf que, cette fois, il s’agira d’une vidéo manipulée qui aura toutes les apparences d’une vraie. «Je pense que ce sera en premier à l’occasion d’une élection que l’on verra l’impact des deepfakes», prédit le journaliste Gérald Holubowicz, chef de produit digital à Libération, qui s’intéresse de près au phénomène. «Il suffira d’un seul événement catastrophique pour que tout le monde se réveille, un peu comme avec les fake news.»
Les deepfakes, qui sont en anglais un mot-valise associant «deep-learning» et l’adjectif «fake», sont des vidéos générées grâce à des algorithmes d’apprentissage automatique qui permettent de permuter des visages ou de changer l’expression des lèvres, d’un visage ou d’un corps. Ils ont émergé en 2017 sur les sites pornographiques avec la multiplication des vidéos où des célébrités et même des anonymes se sont retrouvés en pleins ébats, à la place des acteurs réels.
«Mes étudiants ont beau faire partie de la génération numérique, ils demeurent stupéfaits», déclare Jean-Hugues Roy, professeur de journalisme à l’Université du Québec à Montréal. Il utilise des deepfakes pour ses cours, notamment la vidéo créée par Buzzfeed en février dernier, où Barack Obama semble insulter Donald Trump. Après une trentaine de secondes, l’acteur Jordan Peele qui imite la voix de l’ancien président apparaît à l’écran pour mettre en garde contre les manipulations de l’information sur Internet.
«Je leur fais aussi une démonstration d’une technologie mise au point par une petite startup montréalaise appelée Lyrebird», continue le professeur. Ils lisent une trentaine de phrases en anglais, et l’outil est capable de générer de l’audio avec leur voix lisant n’importe quel texte.» «Les résultats sont très réalistes, plus besoin d’être un spécialiste des effets spéciaux ou d’avoir un budget hollywoodien pour réaliser des manipulations crédibles. »
Les outils permettant de créer des deepfakes deviennent accessibles au grand public. Le visage du président argentin remplacé par celui d’Hitler, celui d’Angela Merkel par Donald Trump, les usages actuels semblent avant tout parodiques. Mais l’enjeu pour les rédactions est de taille. Pour repérer les deepfakes, un premier réflexe pourrait être de contacter la personne impliquée et de vérifier la source de la vidéo. Une deuxième étape serait une analyse technique des différents plans, une tâche potentiellement fastidieuse mais qui pourrait être automatisée grâce à des outils informatiques.
Le rôle des journalistes ne limitera pas seulement de déconstruire les mensonges: «Maintenant que les deepfakes existent et sont connus, des personnalités mises en cause par un enregistrement audio ou vidéo pourraient alléguer que c’est un faux généré pour leur nuire», remarque Jean-Hugues Roy.
Une autre piste serait donc de s’assurer de l’authenticité des contenus dès leur captation: «Il faudrait mettre au point une norme, reposant sur la blockchain, permettant à quiconque de vérifier d’où vient une information, quel que soit le canal par lequel elle lui parvient (réseau social, app de messagerie comme WhatsApp, etc.)», imagine le professeur québécois. «Des partenariats doivent se tisser entre les fabricants de matériel, ceux qui produisent du contenu et les diffuseurs pour assurer une certification», propose pour sa part Gérald Holubowicz.
Si dans les médias francophones, les réflexions sur les stratégies à adopter pour repérer et contrer les deepfakes en sont encore à leurs balbutiements, les expérimentations se multiplient dans le monde anglo-saxon. Les applications TruePic et et Serelay permettent déjà d’authentifier un contenu dès la prise de vue pour repérer ensuite toute altération. Des chercheurs de l’Université d’Etat de New York ont développé un algorithme permettant de repérer les passages où les yeux des personnes ne clignent pas normalement.
«Si vous avez un algorithme qui décèle le non-clignement des yeux, quelqu’un va créer un algorithme qui va faire ce clignement, c’est une vraie course à l’armement!», relève Steven Meyer, fondateur de l’entreprise genevoise ZENData. L’expert en cyber-sécurité mise plus sur l’esprit critique des citoyens pour répondre au problème: «Nous avons appris que tout n’est pas vrai sur Facebook, il faut maintenant être sceptique par rapport aux vidéos et penser qu’elles peuvent être fausses.»
Comme pour les fake news, il sera crucial de sensibiliser le public et de renforcer l’éducation aux médias pour les plus jeunes. Mais cela sera-t-il suffisant dans des sociétés fragilisées et divisées, plus promptes à croire des mensonges que la vérité? C’est ce que montrait une étude récente du MIT portant sur la diffusion des fausses informations sur Twitter…
Votre commentaire