Vous avez vu la vidéo de Gal Gadot qui couche avec son demi-frère ? Elle traîne sur Internet depuis quelques temps. Ce n’est juste pas le corps de Gal Gadot. Ce n’est presque pas son visage non plus, d’ailleurs. C’est une expérience, une approximation, un face-swap conçu pour donner l’illusion que l’actrice israélienne a vraiment tourné dans une vidéo pornographique fauxcest.
Les images en question ont été créées à l’aide d’un algorithme de machine learning. La mauvaise nouvelle, c’est que n’importe quel individu doté d’un minimum de connaissances dans le domaine du deep learning aurait pu bricoler cette formule dans son coin. Le code nécessaire est accessible en open-source.
Videos by VICE
Le spectateur attentif remarquera rapidement que quelque chose cloche dans la vidéo. Par moment, le visage ne “s’accroche” pas correctement à la tête. Du coin de l’oeil, par contre, ça passe.
Le plus frappant, c’est que tout ceci est l’oeuvre d’un seul individu. Deepfakes – c’est son pseudonyme sur Reddit – n’a pas eu besoin de l’aide d’un studio d’effets spéciaux de pointe pour créer sa Gal Gadot artifcielle : il s’est contenté d’outils de machine learning open-source comme TensorFlow, une bibliothèque logicielle distribuée gratuitement par Google.
Comme cet outil Adobe qui permet de faire dire n’importe quoi à n’importe qui ou l’algorithme Face2Face, ce genre de fake montre que nous sommes sur le point de basculer dans un univers où rien n’est plus facile que fabriquer des vidéos complètement truquées.
Pour le moment, deepfakes a appliqué sa méthode à Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza et Gal Gadot. Les résultats de toutes ses expériences sont disponibles sur Reddit. Motherboard a signalé l’existence de ces vidéos aux personnes et entreprises qui représentent les actrices concernées. En cas de retour, cet article sera mis à jour.
Les montages pornographiques de personnalités forment un genre ancien et populaire. Le subreddit sur lequel deepfakes poste ses créations compte plus de 40 000 membres. Beaucoup sont fans de son travail ; certains vont même jusqu’à le décrire comme annonciateur d’une nouvelle ère du fake porn.
Contacté par Motherboard, deepfakes a refusé de dévoiler sa véritable identité par crainte de l’opinion publique mais il accepté de nous en dire plus sur ses outils. Son logiciel est basé sur plusieurs librairies logicielles open-source comme Keras et TensorFlow. Pour compiler le visage des célébrités qui l’intéressent, il utilise la recherche par image de Google, des stock photos et des vidéos YouTube.
Les systèmes de deep learning reposent sur des réseaux de noeuds conçus pour “digérer” les informations qui lui sont fournies, l’input. (Dans ce cas précis, Deepfakes a entraîné l’algorithme à l’aide de vidéos X et d’images du visage de Gal Gadot.) À force d’input, les noeuds s’organisent pour accomplir au mieux une tâche particulière : reconnaître des visages, des objets, manipuler de la vidéo en direct…
Contacté par mail, le chercheur en intelligence artificielle Alex Champandard a indiqué à Motherboard qu’une bonne carte graphique grand public suffisait pour ce genre de tâche. À l’en croire, même un processeur pourrait faire le travail. “Tout ceci n’est vraiment pas sorcier”, a-t-il ajouté.
La méthode de deepfakes est inquiétante de facilité. Au-delà de son aspect technique, elle ne demande rien d’autre qu’un nombre suffisant d’images de la personne à faker. Quand on sait que les humains ont uploadé 24 milliards de selfies sur Google Photos entre 2015 et 2016, on n’a pas de mal à imaginer que le programmeur-amateur qui créera votre sextape sans vous est déjà né.
Deepfakes nous a affirmé qu’il n’était pas un chercheur professionnel, juste un programmeur qui s’intéresse au machine learning.
“J’ai juste trouvé une manière astucieuse de faire du face swap, affirme-t-il à propos de son algorithme. Avec des centaines d’images de visage, je peux facilement générer des millions d’images déformées pour entraîner le réseau. Après ça, si je mets le visage de quelqu’un d’autre dans le réseau, il va essayer de le modifier pour qu’il ressemble au visage avec lequel il a été entraîné.”
Au détour d’un fil de commentaires sur Reddit, deepfakes affirme qu’il utilise un algorithme similaire à celui qu’utilisent les chercheurs de Nvdia pour transformer instantanément une scène estivale en scène hivernale, entre autres. Les chercheurs de Nvidia qui ont développé cet algorithme ont refusé de commenter ses applications éventuelles pour Motherboard.
Presque toutes les images diffusées par deepfakes sont imparfaites. Dans la vidéo de Gal Gadot, une boîte apparaît parfois autour du visage de l’actrice – c’est l’image originale qui ressurgit. Ses yeux et sa bouche ne cadrent pas toujours avec les mots prononcés par l’actrice. Ceci dit, en plissant un peu les yeux, on pourrait se laisser convaincre. D’autres vidéos de deepfakes sont encore plus convaincantes.
L’actrice pornographique Grace Evangeline nous a expliqué que les performeurs X étaient habitués à voir leurs images partagées sans leur accord sur des tubes gratuits comme SendVid, où la vidéo de Gal Gadot a été uploadée. Elle nous a aussi dit que tout ça était différent et qu’elle n’avait jamais rien vu de tel.
“Il y a un truc important qui doit toujours être présent, le consentement, insiste Evangeline. Ça marche pour la vie privée comme pour les plateaux. Faire des scènes pornographiques fake sans le consentement des personnes concernées, c’est mal.”
Même les personnes qui gagnent leur vie face caméra ont du mal à tolérer qu’on viole leur intimité. Nous avons montré la vidéo de Gal Gadot à Alia Janine, une actrice qui a travaillé 15 ans dans l’industrie du X avant de prendre sa retraite. “C’est vraiment perturbant, nous a-t-elle déclaré par téléphone. Ça montre à quel point certains hommes ne voient les femmes que comme des objets qu’ils peuvent manipuler pour leur faire faire tout ce qu’ils veulent… Ça dénote un manque de respect total pour les performeuses et pour les actrices concernées.”
Nous avons demandé à deepfakes s’il se souciait des questions éthiques soulevées par son travail. Le consentement, le revenge porn et le chantage l’avaient-ils inquiété pendant qu’il développait l’algorithme ?
“Toute technologique peut être utilisé à des fins de nuisance, c’est impossible de lutter contre ça”, nous a-t-il répondu en traçant un parallèle entre son logiciel et la technologie qui a été utilisée pour façonner la performance posthume de Paul Walker dans Furious 7. “La grosse différence, c’est la facilité d’accès. Je ne pense pas que ce soit une mauvaise chose que les gens normaux puissent se lancer dans la recherche en machine learning.”
Pour Champandard, deepfakes pose un “énorme” défi éthique. Et si l’utilisation de la technologie à des fins malveillantes est impossible à empêcher, elle peut tout à fait être combattue.
“Nous devons avoir un débat public à ce sujet, a-t-il déclaré. Tout le monde doit savoir à quel point il est facile de créer des photos et des vidéos truquées et qu’il sera impossible de les distinguer d’images originales d’ici quelques mois. Bien sûr, tout ceci est possible depuis longtemps, mais seulement au prix de ressources conséquentes et d’une main d’oeuvre qualifiée. Désormais, cela peut être fait par un seul programmeur derrière un ordinateur récent.”
Champandard pense que les chercheurs peuvent commencer à développer des techniques de détection de vidéos truquées dès maintenant. Il soutient aussi qu’Internet pourrait s’adapter pour gérer au mieux les événements déclenchés par ce genre d’images.
“D’une certaine manière”, c’est une bonne chose, explique-t-il. “Nous devons nous employer à transformer notre société pour qu’elle soit capable de gérer tout ça.”