Pourrait-on vivre dans un monde où plus aucune vidéo ne serait crédible ? Telle est la question que pose l’émergence des deepfakes, ces fausses vidéos très réalistes générées par intelligence artificielle. Alors que la démocratisation des outils de manipulation menace aussi bien la politique que la sphère privée, plusieurs acteurs du secteur appellent à réagir. Cet article, rédigé par Dorian Chotard, est à retrouver dans notre dernier numéro.
Un samedi matin, dans un quartier d’affaires impersonnel de Los Angeles, Hao Li nous accueille dans des bureaux vides. Sa société, Pinscreen, est spécialisée dans la création d’avatars photoréalistes pour l’industrie du jeu vidéo et du divertissement. Imaginez, dans quelques années, la possibilité d’un jeu, d’un film ou d’une série dont vous êtes le héros : une épopée dans laquelle votre visage remplacerait celui du personnage principal. Mais ce jour-là, c’est une perspective plus inquiétante qu’il me propose d’explorer. Après avoir traversé un open space désert, le jeune patron m’installe face à un écran doté d’une webcam. C’est ici que sa démonstration commence : « Ok, maintenant, qui voulez-vous devenir ? » Un menu déroulant m’offre le choix parmi une vingtaine de personnalités : Emmanuel Macron, George Clooney ou encore Vladimir Poutine. En un clic, me voici capable d’incarner n’importe qui. Tel un marionnettiste, je peux faire prononcer les phrases les plus scandaleuses aux dirigeants de la planète, le tout en temps réel. « On fonce vers un monde dans lequel n’importe qui sera capable de falsifier une vidéo et d’usurper n’importe quelle identité, avertit Hao Li. Les progrès sont tels que, d’ici un an ou deux, on ne pourra même plus faire la différence entre de la 3D et une vidéo authentique. »
Un trucage indétectable
Depuis l’apparition des deepfakes, il y a deux ans, Hao Li diffuse sa mise en garde au plus haut niveau. En juin dernier, il est invité en Chine afin de sensibiliser l’audience du Forum économique mondial. Il collabore également avec la Darpa (Defense Advanced Research Projects Agency), une agence du département de la Défense des États-Unis qui prend très au sérieux cette menace à l’approche de l’élection présidentielle de 2020. Contraction de Deep Learning et de Fake, un deepfake consiste à utiliser l’intelligence artificielle afin de remplacer un visage par un autre dans une vidéo. En pratique, deux algorithmes se livrent une compétition infinie jusqu’à rendre le trucage indétectable à l’œil nu. Afin de prouver qu’une intelligence artificielle est déjà en capacité de nous leurrer, une firme hollandaise spécialisée dans la détection de deepfakes a mené une expérience sur son site internet. Objectif du test : essayer de discerner les visages humains de ceux générés par un algorithme. Le verdict est sans appel. « Seul 0,06 % des gens – soit 20 personnes sur 30000 – a réussi un sans-faute, détaille Sezer Karaoglu, cofondateur de 3DUniversum. Plus des deux tiers des participants n’obtiennent même pas la moyenne. »
Il y a encore quelques mois, remplacer un visage par un autre de façon crédible dans une vidéo restait l’apanage des gros studios d’Hollywood. Aujourd’hui, il suffit d’un peu de temps et d’un ordinateur. Alors que la pratique se démocratise, les théoriciens du pire échafaudent déjà des scénarios catastrophe. Et si une fausse vidéo de Donald Trump déclarant son hostilité à la Corée du Nord venait à déclencher la Troisième Guerre mondiale? « À mon avis, le risque le plus inquiétant et le plus immédiat, ce n’est pas ce genre de vision apocalyptique, tempère Sezer Karaoglu. C’est plus subtil, plus insidieux et cela concerne tout le monde. Si quelqu’un veut vous nuire, il lui sera facile de fabriquer une vidéo pour vous faire passer pour un criminel. Même si vous démentez, ce sera trop tard : le mal sera fait. » De ce point de vue, la liste des risques n’a pas d’autre limite que celle de l’imagination des personnes malveillantes. Il deviendrait possible d’usurper l’identité d’un proche lors d’un appel vidéo, de nuire à la réputation d’une entreprise afin de manipuler les marchés, d’escroquer un employé en se faisant passer pour son patron, etc.
Cet article est à retrouver dans son intégralité dans Fisheye #39, en kiosque et disponible ici.
Issues du site thispersondoesnotexist, ces personnes n’existent pas. Leurs traits ont été générés par intelligence artificielle.