18 |économie & entreprise MARDI 26 NOVEMBRE 2019
0123
La menace des vidéos trafiquées
Des logiciels gratuits permettent de remplacer
un visage par un autre, faisant tenir à quelqu’un
de faux propos... Intéressant le monde du spectacle,
cette technologie ouvre aussi la voie à toutes les
manipulations ou à tous les chantages
Capture d’écran d’une fausse vidéo de Barack Obama utilisant la technologie du deepfake. AP
DOSSIER
A
ujourd’hui est un jour histo
rique. » Le ton de Donald
Trump, face caméra, est
solennel. « J’ai une grande
nouvelle : aujourd’hui, nous
avons éradiqué le sida. » Le
président des EtatsUnis accompagne son
discours de grands gestes. « C’est bon, c’est
fait, je m’en suis occupé personnellement. (...)
Je n’ai pas seulement rendu l’Amérique
meilleure, mais le monde entier. »
L’information est bien entendu trop belle
pour être vraie. Et pour cause : cette vidéo
est un faux, une opération de communica
tion sur les réseaux sociaux lancée en octo
bre par l’ONG Solidarité Sida, qui affirme
qu’elle pourrait devenir réalité si les chefs
d’Etat le décidaient. A première vue pour
tant, Donald Trump a bien prononcé ces
phrases : dans cette vidéo, on reconnaît son
visage, ses expressions, ses gestes et sa voix.
Il faut y regarder de plus près pour se rendre
compte que ses traits sont un peu trop figés,
sa voix un peu étrange.
Cette vidéo est ce que l’on appelle un deep
fake – et celuici est de particulièrement
bonne facture. Ce terme désigne le plus sou
vent des vidéos trafiquées dans lesquelles
un visage est remplacé par un autre. Ce qui
permet, par exemple, de faire dire à quel
qu’un des choses qu’il n’a pas dites. Leur par
ticularité : la manipulation est automatisée,
grâce à des logiciels d’intelligence artifi
cielle, gratuits et relativement simples d’uti
lisation, capables « d’apprendre » et de re
produire un visage à partir de nombreuses
images de la personne ciblée.
PARODIE ET PORNOGRAPHIE
Si de nombreux deepfakes s ont réalisés à
des fins de divertissement ou de parodie
(remplacer le visage d’une minimiss par ce
lui du président américain, faire apparaître
Elon Musk dans 2001, l’Odyssée de l’espace...),
d’autres utilisations font moins sourire. A
commencer par celle qui a mis en lumière
l’existence de cette technologie fin 2017 : la
modification de vidéos pornographiques,
pour remplacer le visage des actrices par
ceux d’autres femmes.
Un développeur a commencé à publier sur
le forum Reddit des vidéos de ce type, et a
mis à disposition gratuitement un logiciel
permettant aux autres internautes de réali
ser leurs propres deepfakes. Ils s’en sont
donné à cœur joie : des dizaines de séquen
ces pornographiques trafiquées, mettant en
scène des célébrités comme Gal Gadot,
Emma Watson ou encore Ariana Grande ont
été publiées sur le forum. Jusqu’à ce que
Reddit décide, début 2018, de fermer le fil de
discussion où elles étaient rassemblées.
Trop tard : le phénomène deepfake était
né, et avec lui un torrent d’inquiétudes.
« Déshonorer des personnalités publiques »,
« extorquer ou rançonner », « effets désas
treux pour des processus démocratiques
comme les élections »... Tels sont les dangers
que pointe l’Agence nationale de sécurité des
systèmes d’information (Anssi) dans un rap
port publié en mai sur les dangers liés au
numérique. Le passage consacré aux deep
fakes n’est pas long, mais montre que le su
jet est pris au sérieux par le garde du corps
numérique de l’Etat.
Si l’immense majorité des deepfakes en
circulation est pornographique, la grande
angoisse provoquée par cette technologie
concerne le risque de fausses informations.
« A l’avenir, la désinformation pourra venir
sous la forme d’une vidéo deepfake d’un poli
cier blanc scandant des insultes racistes »,
alertait en juin la juriste Danielle Keats Ci
tron, invitée par le Congrès américain à une
audience sur « le défi en matière de sécurité
intérieure » représenté par les deepfakes.
« Les deepfakes pourront exacerber les divi
sions sociales au point de générer des violen
ces », craignaitelle.
Autre exemple avancé par cette profes
seure de droit à l’université de Boston : « Ima
ginez : la nuit précédant l’entrée en Bourse
d’une entreprise, une vidéo deepfake apparaît
montrant le PDG en train de commettre un
crime. Si la vidéo était largement diffusée, le
prix de l’action pourrait s’effondrer. »
Ce type de scénario fait couler beaucoup
d’encre. Et pourtant, l’ampleur de la crainte
est inversement proportionnelle à la réalité
du phénomène. « On n’a pas repéré de cas de
deepfake utilisé à des fins de désinformation
pour l’instant », constate Alexandre Alaphi
lippe, directeur de l’ONG EU DisinfoLab, spé
cialiste des questions de désinformation.
LA CALIFORNIE A DÉJÀ LÉGIFÉRÉ
Le fameux deepfake de Barack Obama trai
tant Donald Trump de « connard » ou celui
de Mark Zuckerberg vantant son pouvoir sur
les données des internautes étaient présen
tés par leurs auteurs comme des faux et ont
été conçus pour faire avancer le débat pu
blic. Quant à la vidéo trafiquée de la démo
crate Nancy Pelosi, la montrant comme ivre
lors d’une intervention publique, elle n’avait
rien d’un deepfake, contrairement à ce qui a
parfois été relayé. L’auteur de cette vidéo
virale s’est contenté de ralentir le rythme de
la séquence initiale pour obtenir cet effet.
Ce qui ne signifie pas que les deepfakes ne
seront jamais utilisés à des fins de désinfor
mation. « A partir du moment où on est capa
ble de créer du faux de façon simple, c’est une
menace, estime M. Alaphilippe. Le risque des
deepfakes n’est pas surestimé, ça risque d’arri
ver, il faut se préparer. » Mais, relativisetil,
« c’est une forme de manipulation comme
une autre ». Trafiquer les images à des fins de
désinformation ne date pas d’hier : le régime
stalinien était, par exemple, passé maître en
falsification de photographies.
« DÉFI TECHNIQUE »
Aujourd’hui encore, même si des logiciels de
deepfake sont accessibles à tous, il n’est pas
si simple d’en réaliser un suffisamment
réussi pour duper des spectateurs. « On est
beaucoup plus inquiets des images d’oiseaux
morts qui ont circulé après l’incendie de
l’usine Lubrizol à Rouen que des deepfakes,
note Alexandre Alaphilippe. Ça a beaucoup
plus d’impact qu’un deepfake, c’est facile à
faire, ça passe... Pas besoin pour l’internaute
de consommer une vidéo d’une minute. »
« Créer et diffuser une vidéo de bonne qualité
et convaincante représente aujourd’hui un
défi technique, et si elle mettait en scène une
personnalité influente, elle serait très rapide
ment analysée pour détecter des signes de ma
nipulation », note Renee DiResta, directrice
de recherche à l’Internet Observatory de
Stanford et spécialiste de la désinformation.
Les deepfakes représentent, pour elle, « un
outil dans l’arsenal » parmi d’autres. « Il y a
différents types d’acteurs dans la diffusion de
fausses informations, poursuitelle. Pour les
groupes locaux qui disposent de peu de res
sources, il sera bien plus facile de créer un arti
cle. » « La question, c’est de savoir si des acteurs
plus sophistiqués, et disposant de beaucoup
de moyens, décideront que ça vaut la peine »
de se lancer dans la conception de deepfakes.
« Pour un Etat, fabriquer un deepfake à des
fins politiques, ça ne coûte rien! », analyse
Vincent Nozick, maître de conférences à
l’université ParisEstMarnelaVallée (labo
ratoire LIGM) et créateur d’un logiciel conçu
pour détecter les deepfakes. « Avec une pe
tite équipe de trois personnes pendant un
mois, ils pourraient faire de très bons deepfa
kes », affirmetil.
Si, aujourd’hui, des vidéos truquées de
grande qualité ne sont pas si simples à réali
ser, qui sait en revanche quelles techno
logies arriveront demain? L’application chi
noise Zao en a donné un aperçu : lancée en
août, elle permet à ses utilisateurs d’insérer
leur visage dans des extraits de films ou de
clips avec un simple selfie, en quelques se
condes seulement. Le résultat est parfois
bluffant, même si le champ d’application
est limité à quelques séquences proposées
par l’application.
Comment, alors, se prémunir des utilisa
tions malveillantes de ces technologies?
Différentes équipes de recherche travaillent
à la mise au point de logiciels de détection.
L’un des premiers, MesoNet, a été conçu
par Vincent Nozick en 2017. « A l’époque, il
atteignait 98 % de détection, mais aujour
d’hui il marche beaucoup moins bien, car il
n’a pas été réentraîné sur des cas récents,
bien meilleurs. » Peuton imaginer qu’un
jour, les deepfakes deviendront parfaits au
point d’être indétectables? « C’est la ques
tion qu’on se pose tous », soupire le cher
cheur. Et pour lui, la réponse au problème
ne réside pas seulement dans la technolo
gie, mais dans la régulation : « Les politiques
devraient intervenir. »
En France, on surveille la situation. Selon les
informations du Monde, une réunion à ce su
jet a eu lieu début novembre, à laquelle parti
cipaient des chercheurs et des membres du
ministère de l’intérieur. Mais pour Cédric O,
le secrétaire d’Etat chargé du numérique, « une
« POUR UN ÉTAT,
FABRIQUER
UN “DEEPFAKE”
À DES FINS
POLITIQUES, ÇA
NE COÛTE RIEN ! »
VINCENT NOZICK
maître de conférences
à l’université Paris-Est-
Marne-la-Vallée
si le terme « deepfake » est gé
néralement utilisé pour désigner la
falsification d’un visage dans une
vidéo, il s’applique aussi à la voix.
Une technologie similaire permet,
à partir d’extraits sonores d’une
personne, de reconstituer sa voix
de façon synthétique. La startup ca
nadienne Lyrebird, fondée en 2017,
en a fait sa spécialité, tout comme
d’autres jeunes pousses et déve
loppeurs indépendants.
Le résultat n’est pas encore par
fait, mais a suffi à donner des
sueurs froides au masculiniste Jor
dan Peterson, professeur de psy
chologie à l’université de Toronto.
Cet été, un site, Notjordanpeterson.
com, a mis en ligne un outil per
mettant aux internautes de faire
prononcer n’importe quoi à sa
voix. Il suffisait d’entrer un texte
par écrit pour qu’une voix synthéti
que, imitant la sienne, le prononce.
Certains médias s’en sont donné à
cœur joie, lui faisant énoncer des
insultes ou des déclarations fémi
nistes. Une expérience « loin d’être
agréable », écritil dans une tribune
sévère publiée dans le quotidien ca
nadien National Post, que le con
tenu ainsi créé ait un objectif « sé
rieux, comique ou malveillant ».
Ces voix synthétiques peuvent
aussi servir dans le cadre d’arna
ques. La compagnie d’assurances
française Euler Hermes a ainsi af
firmé en septembre qu’une de ses
clientes, une grande entreprise bri
tannique du secteur de l’énergie,
avait perdu 220 000 euros à cause
d’un deepfake. Elle raconte que le
PDG s’est fait abuser au téléphone
par une voix synthétique, imitant
celle du patron de la maison mère,
qui lui a ordonné d’effectuer un vi
rement. Difficile à vérifier, les
échanges téléphoniques n’ayant
pas été enregistrés. Mais l’entre
prise Symantec, spécialiste de la sé
curité informatique, a affirmé au
Washington Post avoir identifié
trois affaires dans lesquelles des
voix de dirigeants d’entreprise ont
été imitées : l’une aurait généré des
millions de dollars de pertes.
m. t.
Une technologie qui s’applique aussi à la voix