Le Monde - 26.11.2019

(Tuis.) #1

18 |économie & entreprise MARDI 26 NOVEMBRE 2019


0123


La menace des vidéos trafiquées


Des logiciels gratuits permettent de remplacer


un visage par un autre, faisant tenir à quelqu’un


de faux propos... Intéressant le monde du spectacle,


cette technologie ouvre aussi la voie à toutes les


manipulations ou à tous les chantages


Capture d’écran d’une fausse vidéo de Barack Obama utilisant la technologie du deepfake. AP

DOSSIER


A


ujourd’hui est un jour histo­
rique. » Le ton de Donald
Trump, face caméra, est
solennel. « J’ai une grande
nouvelle : aujourd’hui, nous
avons éradiqué le sida. » Le
président des Etats­Unis accompagne son
discours de grands gestes. « C’est bon, c’est
fait, je m’en suis occupé personnellement. (...)
Je n’ai pas seulement rendu l’Amérique
meilleure, mais le monde entier. »
L’information est bien entendu trop belle
pour être vraie. Et pour cause : cette vidéo
est un faux, une opération de communica­
tion sur les réseaux sociaux lancée en octo­
bre par l’ONG Solidarité Sida, qui affirme
qu’elle pourrait devenir réalité si les chefs
d’Etat le décidaient. A première vue pour­
tant, Donald Trump a bien prononcé ces
phrases : dans cette vidéo, on reconnaît son
visage, ses expressions, ses gestes et sa voix.
Il faut y regarder de plus près pour se rendre
compte que ses traits sont un peu trop figés,
sa voix un peu étrange.
Cette vidéo est ce que l’on appelle un deep­
fake – et celui­ci est de particulièrement
bonne facture. Ce terme désigne le plus sou­
vent des vidéos trafiquées dans lesquelles
un visage est remplacé par un autre. Ce qui
permet, par exemple, de faire dire à quel­
qu’un des choses qu’il n’a pas dites. Leur par­
ticularité : la manipulation est automatisée,
grâce à des logiciels d’intelligence artifi­
cielle, gratuits et relativement simples d’uti­
lisation, capables « d’apprendre » et de re­
produire un visage à partir de nombreuses
images de la personne ciblée.

PARODIE ET PORNOGRAPHIE
Si de nombreux deepfakes s ont réalisés à
des fins de divertissement ou de parodie
(remplacer le visage d’une mini­miss par ce­
lui du président américain, faire apparaître
Elon Musk dans 2001, l’Odyssée de l’espace...),
d’autres utilisations font moins sourire. A
commencer par celle qui a mis en lumière
l’existence de cette technologie fin 2017 : la
modification de vidéos pornographiques,
pour remplacer le visage des actrices par
ceux d’autres femmes.
Un développeur a commencé à publier sur
le forum Reddit des vidéos de ce type, et a
mis à disposition gratuitement un logiciel
permettant aux autres internautes de réali­
ser leurs propres deepfakes. Ils s’en sont

donné à cœur joie : des dizaines de séquen­
ces pornographiques trafiquées, mettant en
scène des célébrités comme Gal Gadot,
Emma Watson ou encore Ariana Grande ont
été publiées sur le forum. Jusqu’à ce que
Reddit décide, début 2018, de fermer le fil de
discussion où elles étaient rassemblées.
Trop tard : le phénomène deepfake était
né, et avec lui un torrent d’inquiétudes.
« Déshonorer des personnalités publiques »,
« extorquer ou rançonner », « effets désas­
treux pour des processus démocratiques
comme les élections »... Tels sont les dangers
que pointe l’Agence nationale de sécurité des
systèmes d’information (Anssi) dans un rap­
port publié en mai sur les dangers liés au
numérique. Le passage consacré aux deep­
fakes n’est pas long, mais montre que le su­
jet est pris au sérieux par le garde du corps
numérique de l’Etat.
Si l’immense majorité des deepfakes en
circulation est pornographique, la grande
angoisse provoquée par cette technologie
concerne le risque de fausses informations.
« A l’avenir, la désinformation pourra venir
sous la forme d’une vidéo deepfake d’un poli­
cier blanc scandant des insultes racistes »,
alertait en juin la juriste Danielle Keats Ci­
tron, invitée par le Congrès américain à une
audience sur « le défi en matière de sécurité
intérieure » représenté par les deepfakes.
« Les deepfakes pourront exacerber les divi­
sions sociales au point de générer des violen­
ces », craignait­elle.
Autre exemple avancé par cette profes­
seure de droit à l’université de Boston : « Ima­
ginez : la nuit précédant l’entrée en Bourse
d’une entreprise, une vidéo deepfake apparaît
montrant le PDG en train de commettre un
crime. Si la vidéo était largement diffusée, le
prix de l’action pourrait s’effondrer. »
Ce type de scénario fait couler beaucoup
d’encre. Et pourtant, l’ampleur de la crainte
est inversement proportionnelle à la réalité
du phénomène. « On n’a pas repéré de cas de

deepfake utilisé à des fins de désinformation
pour l’instant », constate Alexandre Alaphi­
lippe, directeur de l’ONG EU DisinfoLab, spé­
cialiste des questions de désinformation.

LA CALIFORNIE A DÉJÀ LÉGIFÉRÉ
Le fameux deepfake de Barack Obama trai­
tant Donald Trump de « connard » ou celui
de Mark Zuckerberg vantant son pouvoir sur
les données des internautes étaient présen­
tés par leurs auteurs comme des faux et ont
été conçus pour faire avancer le débat pu­
blic. Quant à la vidéo trafiquée de la démo­
crate Nancy Pelosi, la montrant comme ivre
lors d’une intervention publique, elle n’avait
rien d’un deepfake, contrairement à ce qui a
parfois été relayé. L’auteur de cette vidéo
virale s’est contenté de ralentir le rythme de
la séquence initiale pour obtenir cet effet.
Ce qui ne signifie pas que les deepfakes ne
seront jamais utilisés à des fins de désinfor­

mation. « A partir du moment où on est capa­
ble de créer du faux de façon simple, c’est une
menace, estime M. Alaphilippe. Le risque des
deepfakes n’est pas surestimé, ça risque d’arri­
ver, il faut se préparer. » Mais, relativise­t­il,
« c’est une forme de manipulation comme
une autre ». Trafiquer les images à des fins de
désinformation ne date pas d’hier : le régime
stalinien était, par exemple, passé maître en
falsification de photographies.

« DÉFI TECHNIQUE »
Aujourd’hui encore, même si des logiciels de
deepfake sont accessibles à tous, il n’est pas
si simple d’en réaliser un suffisamment
réussi pour duper des spectateurs. « On est
beaucoup plus inquiets des images d’oiseaux
morts qui ont circulé après l’incendie de
l’usine Lubrizol à Rouen que des deepfakes,
note Alexandre Alaphilippe. Ça a beaucoup
plus d’impact qu’un deepfake, c’est facile à
faire, ça passe... Pas besoin pour l’internaute
de consommer une vidéo d’une minute. »
« Créer et diffuser une vidéo de bonne qualité
et convaincante représente aujourd’hui un
défi technique, et si elle mettait en scène une
personnalité influente, elle serait très rapide­
ment analysée pour détecter des signes de ma­
nipulation », note Renee DiResta, directrice
de recherche à l’Internet Observatory de
Stanford et spécialiste de la désinformation.
Les deepfakes représentent, pour elle, « un
outil dans l’arsenal » parmi d’autres. « Il y a
différents types d’acteurs dans la diffusion de
fausses informations, poursuit­elle. Pour les
groupes locaux qui disposent de peu de res­
sources, il sera bien plus facile de créer un arti­
cle. » « La question, c’est de savoir si des acteurs
plus sophistiqués, et disposant de beaucoup
de moyens, décideront que ça vaut la peine »
de se lancer dans la conception de deepfakes.
« Pour un Etat, fabriquer un deepfake à des
fins politiques, ça ne coûte rien! », analyse
Vincent Nozick, maître de conférences à
l’université Paris­Est­Marne­la­Vallée (labo­
ratoire LIGM) et créateur d’un logiciel conçu
pour détecter les deepfakes. « Avec une pe­
tite équipe de trois personnes pendant un
mois, ils pourraient faire de très bons deepfa­
kes », affirme­t­il.
Si, aujourd’hui, des vidéos truquées de
grande qualité ne sont pas si simples à réali­
ser, qui sait en revanche quelles techno­
logies arriveront demain? L’application chi­
noise Zao en a donné un aperçu : lancée en
août, elle permet à ses utilisateurs d’insérer
leur visage dans des extraits de films ou de
clips avec un simple selfie, en quelques se­
condes seulement. Le résultat est parfois
bluffant, même si le champ d’application
est limité à quelques séquences proposées
par l’application.
Comment, alors, se prémunir des utilisa­
tions malveillantes de ces technologies?
Différentes équipes de recherche travaillent
à la mise au point de logiciels de détection.
L’un des premiers, MesoNet, a été conçu
par Vincent Nozick en 2017. « A l’époque, il
atteignait 98 % de détection, mais aujour­
d’hui il marche beaucoup moins bien, car il
n’a pas été réentraîné sur des cas récents,
bien meilleurs. » Peut­on imaginer qu’un
jour, les deepfakes deviendront parfaits au
point d’être indétectables? « C’est la ques­
tion qu’on se pose tous », soupire le cher­
cheur. Et pour lui, la réponse au problème
ne réside pas seulement dans la technolo­
gie, mais dans la régulation : « Les politiques
devraient intervenir. »
En France, on surveille la situation. Selon les
informations du Monde, une réunion à ce su­
jet a eu lieu début novembre, à laquelle parti­
cipaient des chercheurs et des membres du
ministère de l’intérieur. Mais pour Cédric O,
le secrétaire d’Etat chargé du numérique, « une

« POUR UN ÉTAT, 


FABRIQUER 


UN “DEEPFAKE” 


À DES FINS 


POLITIQUES, ÇA 


NE COÛTE RIEN ! »
VINCENT NOZICK
maître de conférences
à l’université Paris-Est-
Marne-la-Vallée

si le terme « deepfake » est gé­
néralement utilisé pour désigner la
falsification d’un visage dans une
vidéo, il s’applique aussi à la voix.
Une technologie similaire permet,
à partir d’extraits sonores d’une
personne, de reconstituer sa voix
de façon synthétique. La start­up ca­
nadienne Lyrebird, fondée en 2017,
en a fait sa spécialité, tout comme
d’autres jeunes pousses et déve­
loppeurs indépendants.
Le résultat n’est pas encore par­
fait, mais a suffi à donner des
sueurs froides au masculiniste Jor­
dan Peterson, professeur de psy­
chologie à l’université de Toronto.
Cet été, un site, Notjordanpeterson.
com, a mis en ligne un outil per­

mettant aux internautes de faire
prononcer n’importe quoi à sa
voix. Il suffisait d’entrer un texte
par écrit pour qu’une voix synthéti­
que, imitant la sienne, le prononce.
Certains médias s’en sont donné à
cœur joie, lui faisant énoncer des
insultes ou des déclarations fémi­
nistes. Une expérience « loin d’être
agréable », écrit­il dans une tribune
sévère publiée dans le quotidien ca­
nadien National Post, que le con­
tenu ainsi créé ait un objectif « sé­
rieux, comique ou malveillant ».
Ces voix synthétiques peuvent
aussi servir dans le cadre d’arna­
ques. La compagnie d’assurances
française Euler Hermes a ainsi af­
firmé en septembre qu’une de ses

clientes, une grande entreprise bri­
tannique du secteur de l’énergie,
avait perdu 220 000 euros à cause
d’un deepfake. Elle raconte que le
PDG s’est fait abuser au téléphone
par une voix synthétique, imitant
celle du patron de la maison mère,
qui lui a ordonné d’effectuer un vi­
rement. Difficile à vérifier, les
échanges téléphoniques n’ayant
pas été enregistrés. Mais l’entre­
prise Symantec, spécialiste de la sé­
curité informatique, a affirmé au
Washington Post avoir identifié
trois affaires dans lesquelles des
voix de dirigeants d’entreprise ont
été imitées : l’une aurait généré des
millions de dollars de pertes.
m. t.

Une technologie qui s’applique aussi à la voix

Free download pdf