O Estado de São Paulo (2020-06-21)

(Antfer) #1

%HermesFileInfo:B-8:20200621:
B8 Economia DOMINGO, 21 DE JUNHO DE 2020 O ESTADO DE S. PAULO


Blogs e notícias. Acompanhe as
novidades de tecnologia no site do Link
link.estadao.com.br

LINK

Manifestações e recuo de gigantes põem


o reconhecimento facial na berlinda


THOMAS PETER / REUTERS

Parcial. Se forem criados com base em bancos de dados sem diversidade, algoritmos podem ter viés racial ou de gênero

Bruno Romani


Um desdobramento inespera-
do dos protestos iniciados
nos EUA, após o assassinato
de George Floyd, foi o reco-
nhecimento facial ser posto
em xeque. A tecnologia, em
crescente desenvolvimento,
levanta dúvidas sobre sua efi-
cácia e temores sobre o perigo
quando usada por agências de
segurança. Na esteira das ma-
nifestações antirracistas, três
das principais companhias de
tecnologia do mundo decidi-
ram mudar a forma como pes-
quisam e vendem a tecnolo-
gia, pondo interrogações so-
bre seu futuro e limites.

A fila foi puxada pela IBM, que
no último dia 9 anunciou que en-
cerrará sua divisão de reconheci-
mento facial. “A IBM se opõe fir-
memente e não tolerará o uso de
nenhuma tecnologia, incluindo
o reconhecimento facial, para vi-
gilância em massa, elaboração
de perfis raciais, violação dos di-
reitos humanos e liberdades
básicas”, escreveu Arvind
Krishna, presidente executivo
da companhia. Indiano, Krishna
é o primeiro líder não branco da
IBM – algo visto por analistas co-
mo crucial para a decisão.
Na sequência, Amazon e Mi-
crosoft tomaram medidas mais
brandas. A Amazon disse que
congelará por um ano a comer-
cialização do seu programa
Rekognition para departamen-
tos de polícia dos EUA, enquan-
to aguarda legislação específica
sobre a tecnologia. A empresa
não revelou, porém, o que acon-
tecerá com agências de seguran-
ça que já usam o software.
Ao jornal Washington Post , a
Microsoft afirmou que não ven-
de a tecnologia para agências de
segurança e se comprometeu a
não fazê-lo por mais um ano, até
que uma legislação federal seja
criada nos EUA. A empresa já ha-
via sido a primeira a pedir regula-
ção sobre o tema, em 2018.


Falhas. “Todo sistema de bio-
metria tem falhas que geram fal-
sos positivos. No reconheci-
mento facial isso pode resultar
em problemas gravíssimos”, ex-
plica Sérgio Amadeu, professor
da Universidade Federal do
ABC (UFABC).


Isso já foi provado, por exem-
plo, em um experimento da
União Americana de Liberdades
Civis (Aclu, na sigla em inglês).
Em 2018, a entidade enviou fo-
tos de congressistas americanos
ao Rekognition, que erronea-
mente identificou 28 deles co-
mo procurados pela polícia.
Outros experimentos da
Aclu, por sua vez, demonstram
que algoritmos de reconheci-
mento facial tendem a ter de-
sempenho pior quando anali-
sam rostos de negros e mulhe-
res. “Sistemas de inteligência ar-
tificial aprendem o que se ensi-
na a eles. O perigo é colocar nos
dados usados por esses siste-
mas valores preexistentes, que
prejudicam grupos específi-
cos”, diz Yasodara Córdova,
programadora e pesquisadora
da Universidade Harvard.

Sistemas de inteligência artifi-
cial, como os que identificam ros-
tos, aprendem por meio de gran-
des bancos de dados. A partir dis-
so, identificam padrões e tomam
suas decisões. O problema é que
nem sempre os dados são bons o
suficiente para que qualquer pes-
soa seja tratada de maneira simi-
lar – de fato, essas informações

podem acentuar problemas da
sociedade. “Esses sistemas fo-
ram construídos com base em
grupos de teste sem diversidade
suficiente”, diz Yasodara.
É por isso que as decisões das
gigantes estão profundamente li-
gadas ao Black Lives Matter. “Es-
ses algoritmos estão inseridos
num contexto racista nas agên-
cias de segurança, o que tende a
reforçar a discriminação”, avalia
Veridiana Alimonti, analista de
políticas públicas da Electronic
Frontier Foundation, entidade
de defesa de direitos digitais.
Dentro do contexto das mani-
festações, há também temores
de que o monitoramento estava
sendo aplicado indiscriminada-
mente contra os cidadãos, o que
pode levar a abusos e à violação
da privacidade. “A utilização
de reconhecimento fa-

cial de forma massiva viola uma
série de direitos. Ela monitora
movimentos nas cidades, que
podem ser cruzados com outros
dados e que revelam demais so-
bre as pessoas”, diz Veridiana.
Para Amadeu, “isso coloca a so-
ciedade numa situação totalitá-
ria, com vigilância ubíqua”.

Gota no oceano. À primeira vis-
ta, a atitude da IBM e das outras
gigantes pode parecer um pas-
so à frente para a tecnologia.
Mas também pode representar
um empurrão do reconheci-
mento facial para pesquisas fei-
tas às sombras. “Existem ou-
tras empresas médias e peque-
nas que desenvolvem soluções
parecidas”, diz Amadeu.
Na semana passada, o Wall
Street Journal publicou que em-
presas que vendem sistemas de

reconhecimento facial para for-
ças policiais dos EUA, como a
japonesa NEC, a Ayonix e a star-
tup Clearview AI, não vão se
afastar do mercado. Há moti-
vos: é um setor que pode valer
US$ 8 bilhões em 2022, segun-
do a consultoria Market Resear-
ch Future. Com o recuo das gi-
gantes, o perigo é que seu vácuo
seja preenchido por nomes obs-
curos e, portanto, mais difíceis
de serem fiscalizados.
Por outro lado, o rechaço ao
uso da tecnologia não é consen-
so. “Qualquer software pode
ter erro. Desde que eles sejam
solucionados e o uso da tecnolo-
gia seja responsável e legal, não
tem por que não usar”, diz o ad-
vogado Renato Opice Blum,
coordenador dos cursos de pro-
teção de dados e direito digital
do Insper. “O benefício se so-
brepõe a eventuais hipóteses de
problemas. Se o reconhecimen-
to facial está tirando crimino-
sos das ruas, isso é positivo.”

Como lidar. Para evitar a ação
de empresas suspeitas, Blum
imagina requisitos mínimos so-
bre empresas que possam atuar
nesse mercado. “Aqui no Brasil
a Autoridade Nacional de Prote-
ção de Dados (ANPD) poderia
determinar regras garantindo
quem pode participar. A diferen-
ça entre uma gigante e uma em-
presa pequena é a sua capacida-
de de reparo”, diz. Vale, porém,
lembrar: a ANPD, que deve ze-
lar pelo cumprimento da Lei Ge-
ral de Proteção de Dados, é um
órgão que ainda não existe.
Já que a tecnologia não será pa-
rada nem pelas gigantes, as socie-
dades terão de encontrar manei-
ras de lidar com ela. “É preciso
regulação, claro, mas só ela não
vai dar conta, pois as leis ficam
obsoletas muito rápido. É preci-
so ter novas instituições que se-
jam capazes de tomar conta. Há
decisões técnicas que precisam
ser tomadas”, explica Yasodara.
“Sem dúvida, o caminho é uma
regulação, mas que precisará pas-
sar por caminhos democráticos.
Não é possível que uma parte do
Estado tenha aparatos de vigilân-
cia sem controle”, afirma Ama-
deu. Assim, a questão que paira
sobre o reconhecimento facial é,
ao mesmo tempo, antiga e atual:
“quem vigia os vigilantes?”

l Passível de errar
“Todo sistema de biometria
tem falhas que podem gerar
falsos positivos. Em
reconhecimento
facial, isso
pode gerar
problemas
gravíssimos.”
Sérgio Amadeu
PROFESSOR DA UFABC

Cerca de um ano após virar ma-
nia nas redes sociais com um fil-
tro de envelhecimento de rostos,
o app russo FaceApp voltou a vi-
ralizar. Desta vez com um filtro
de “troca de gênero” que permi-
te a um homem saber como seria
seu rosto se fosse mulher – e vi-
ce-versa. A mudança, porém, fica
só no exterior: mesmo com mu-
danças em seus termos de uso, o
app segue entregando a terceiros
dados de quem o usa.
Quando surgiu, o app da de-
senvolvedora russa Wireless
Lab foi criticado por entregar
dados dos usuários a anuncian-
tes e por ter uma política de pri-
vacidade vaga e permissiva.
Além disso, os algoritmos da
empresa embranquecem pes-
soas negras, em viés racista. Ou-
tra crítica é de que os dados for-


necidos ao app podiam ser usa-
dos para treinar sistemas obscu-
ros de reconhecimento facial.
Agora, nesse retorno, o Fa-
ceApp deu um banho de loja
nos termos de uso – mas, se a
aparência mudou, as práticas
ainda são as mesmas. Segundo
a nova política de privacidade, o
FaceApp segue coletando as ati-
vidades online dos usuários por
meio de cookies e outras ferra-
mentas instaladas no dispositi-
vo. É uma tática que permite
monitorar páginas e sites nave-
gados, além do tempo gasto em
cada uma delas. A empresa afir-
ma ainda que essas informa-
ções podem ser repassadas a
parceiros e anunciantes do site.

O que o FaceApp deixa claro
agora é que vai coletar as infor-
mações de rede social caso o
usuário opte pelo login usando
o seu perfil no Facebook. Entre
elas estão nome completo, nú-
mero de amigos e, dependendo
das configurações, os nomes
nas listas de amigos. O site diz
que respeita os limites impos-
tos por essas plataformas, e dei-
xa claro que é o usuário que de-
ve alterar as configurações de
privacidade caso queira impor
limites ao que é coletado.
Chama também a atenção um
aviso presente no documento:
“O FaceApp não pode garantir a
segurança de nenhuma das infor-
mações que você transmite ao
FaceApp, ou garantir que as in-
formações no aplicativo não se-
jam acessadas, reveladas, altera-
das ou destruídas.” O trecho pa-
rece se referir a informações que
o usuário ativamente fornece ao
app, como o nome. Mas não está
claro se isso vale também para
os cookies que, teoricamente,
são também cedidos após o con-
sentimento do usuário.

“É como aquelas cláusulas de
estacionamento de não garantir
responsabilidade sobre um obje-
to deixado no veículo”, explica
Bruno Bioni, fundador do Data
Privacy Brasil. “Quando você con-
fia a sua face ao app, há a legítima
expectativa de que terceiros não
terão acesso a isso. É um dever da
empresa. Essa cláusula tende a

ser considerada nula.”

Destino dos dados. Como o Fa-
ceApp já avisava antes, muitos
desses dados são usados para o
direcionamento de propagan-
da personalizada e para a cria-
ção de perfis de consumo. Nes-
se último quesito, os dados são
agrupados e supostamente tor-

nados anônimos para criar per-
fis que são repassados a parcei-
ros. “O problema aqui é que não
existe dado 100% anonimiza-
do. Ele também precisa especifi-
car quais são esses fins de negó-
cio. Não basta dizer que vai com-
partilhar com terceiros para
propósitos de negócios. O app
abre o leque demais”, diz Bioni.
Analista da empresa de segu-
rança Kaspersky, Fábio Assolini
vai além: “Quando os termos de
privacidade são genéricos e
quando o usuário não paga pelo
serviço, ele acaba pagando com
os seus dados.”
Nos novos termos, porém, a
empresa avisa que o usuário po-
de alterar as configurações e per-
missões nos dispositivos, nos
navegadores de internet e nas
alianças de anunciantes. Para es-
pecialistas, ainda assim é bem
pouco. “As atividades do passa-
do de uma empresa não podem
macular seu futuro, mas é pro-
blemático quando um serviço fi-
ca popular e não tem uma políti-
ca de privacidade adequada.
Os termos melhoraram, mas
não se pode comprar o discurso
da redenção da empresa. Preci-
samos entender como essa po-
lítica será aplicada”, afirma Car-
los Affonso de Souza, diretor do
Instituto de Tecnologia e Socie-
dade (ITS-Rio). / B.R.

6

l Na mira
Nos EUA, FaceApp foi investiga-
do pelo FBI; em documento
divulgado em dezembro do
ano passado, agência americana
afirmou que serviço poderia ser
uma arma de espionagem a
serviço de Moscou

Ação e reação. Após protestos pela morte de George Floyd, empresas como IBM, Microsoft e Amazon decidiram recuar na pesquisa


e venda de tecnologias capazes de identificar rostos; decisão espera regulação, mas pode gerar avanço de companhias de origem obscura


BRUNO CAPELAS/ESTADÃO

Aplicativo russo agora


não só envelhece rostos,


mas faz troca de gênero;


problemas de privacidade,


porém, persistem


FaceApp retorna com novo filtro,


mas segue entregando dados


Troca. Serviço simula como seria rosto em gênero oposto
Free download pdf