57
"A tecnologia para criar deepfakes
está a desenvolver-se mais rápido do
que a que permite detetá-los", alerta
Daniel Creus, da Kaspersky
"O problema não vai desaparecer,
mas podemos tentar proteger-nos",
diz Giorgio Patrini, sobre o motivo
para ter criado a Sensity AI
sia ou China, isso não significa que não é
um alvo de manipulações mal intencio-
nadas. Para Daniel Creus, da equipa glo-
bal de análise e investigação (GReAT) da
gigante russa da segurança informática
Kaspersky, “vão sempre existir pessoas
interessadas ou com interesses [em altas
figuras] do país – a um nível estratégico
e a um nível tático”, acrescenta.
Ainda segundo Giorgio Patrini, as mi-
lhares de imagens de Marcelo Rebelo de
Sousa foram, muito provavelmente, reti-
radas a partir de vídeos que estão dispo-
níveis online. E lembra-se de termos dito
que as imagens estavam "alinhadas"?
“Penso que houve muito trabalho
para garantir que as imagens são úteis
no treino da GAN. Uma imagem muito
escura ou muito iluminada será remo-
vida. Uma imagem que está desfocada
será removida. Imagina que a pessoa tem
um microfone à frente, por estar a falar
numa conferência, será removida. Tudo
isso é muito difícil e doloroso de auto-
matizar. Imagino que a pessoa que fez
este conjunto teve muito trabalho para
navegar todas as milhares de imagens e
procurar por aquelas que quer manter,
antes de as disponibilizar online”, su-
blinha o italiano.
A Exame Informática contactou a Pre-
sidência da República a alertar sobre a
descoberta e a pedir um comentário
sobre o caso. A resposta não chegou.
A descoberta da referência a Marcelo
Rebelo de Sousa, enquanto figura maior
de Portugal, em sites de deepfakes é ape-
nas um dos primeiros exemplos de como
este novo perigo digital está à espreita.
Mas é a jovem atriz Alba Baptista, que
saltou para a ribalta internacional após
protagonizar a série Warrior Nun, da Ne-
tflix, a grande vítima portuguesa, até
agora, deste fenómeno e logo na forma
mais comum e mais grave de deepfakes:
ver o seu rosto usado de forma realista
num vídeo pornográfico.
FAKE PORN
A Exame Informática confirmou que,
até ao final de novembro, existiam pelo
menos três vídeos pornográficos deep-
fake (fake porn) que usavam o rosto de
Alba Baptista. No site no qual estavam
disponíveis, contavam com mais de 35
mil visualizações no seu conjunto. Con-
tactada, a agente da atriz, Carla Quelhas,
agradeceu o aviso, mas não teceu co-
mentários sobre a situação.
Ainda antes de um dos ditos filmes
iniciar, o autor da manipulação subli-
Exame Informática pela Sensity AI, star-
tup de cibersegurança que desenvolve
uma plataforma que calcula o nível de
risco de exposição online negativa de
uma figura pública, baseado nesta ti-
pologia de crimes. Na base de dados da
jovem empresa baseada em Amesterdão,
Países Baixos, constam mais de 500 mil
figuras públicas de todo o mundo.
Depois, usando um misto de meca-
nismos automáticos de rastreamento de
conteúdos (crawlers), técnicas de aná-
lise forense em vídeos, e investigação
humana em sites e fóruns na darknet, a
empresa atualiza a informação da base de
dados das celebridades (que tem por base
figuras públicas listadas na Wikipédia).
Se a startup encontrar um deepfake, o
nível de risco sobe. Ao todo, mais de três
mil figuras públicas já foram vítimas.
Patrini, que lidera uma equipa de seis
pessoas, já encontrou fake porn de gran-
des estrelas de Hollywood que amealha-
ram mais de 20 milhões de visualizações,
um número que atesta a escala que esta
ameaça já atinge. E na internet, se tem
visualizações, gera dinheiro.
VÍDEOS FALSOS, DINHEIRO REAL
O CEO da Sensity AI não tem dúvidas
em dizer que a monetização dos sites de
fake porn, através de publicidade digital,
é um dos “maiores incentivos que está
a levar ao crescimento dos deepfakes”.
Mas tanto se pode ganhar pela gestão
dos sites que albergam deepfakes, como
pela produção de vídeos falsos a pedido.
E a venda de serviços de produção de
deepfakes será, muito em breve, uma
realidade comum no mundo do crime
informático, como aponta Daniel Creus.
“Isto vai gerar muitas receitas em alguns
grupos de cibercrime: podem vendê-
-los a outros grupos especializados em
phishing. Podes apenas vender modelos
pré-treinados ou deepfakes pré-feitos e
tu [cibercriminoso] ficas responsável pela
distribuição da campanha maliciosa”.
E este é um problema que vai escalar.
Segundo a experiência da Sensity AI nos
últimos meses, a tecnologia de produção
de deepfakes tem vindo e vai continuar
a melhorar, vai ser mais fácil de aceder e
também vai tornar-se mais barata. Para
Georgio Patrini, esta ameaça digital vai
mesmo ganhar contornos “dramáticos”.
É que, segundo o especialista, quando a
tecnologia de criação de deepfakes atin-
gir a maturidade, as figuras públicas não
são as únicas potenciais vítimas – somos
todos nós.
nha, através de uma imagem estática,
que o vídeo é falso, seguido de “Espero
que gostem!”. Pede ainda que o apoiem
através de donativos em Bitcoin e vai
mais longe – se alguém tiver um pedido
de um deepfake que gostasse de ver pro-
duzido, com alguma pessoa específica,
então basta mandar-lhe uma mensagem
privada pelo fórum (e pagar). É neste
último contexto que também visuali-
zámos online um pedido explícito, de
um outro utilizador, para a criação de
um deepfake pornográfico que envolva
a atriz portuguesa Daniela Ruah.
Também Cristiano Ronaldo, uma das
principais estrelas desportivas a nível
mundial, já foi alvo de um deepfake –
mais concretamente de um cheapfake.
Este termo refere-se quando o resultado
final é pouco convincente, devido à má
qualidade do conjunto de imagens usa-
das ou à má qualidade do algoritmo de
manipulação. Neste vídeo, disponível
no YouTube, a cara do craque português
surge no corpo de um jogador do Olym-
piakos, clube de futebol da Grécia. O
vídeo, aparentemente inofensivo, pode
no entanto ser o resultado do treino de
um algoritmo para a produção posterior
de vídeos manipulados mais realistas.
Todos estes casos referidos no artigo
foram identificados e partilhados com a