(20201100-PT) Exame Informática 305

(NONE2021) #1
62

Professor no IST e investigador no
Instituto de Telecomunicações é aos 58
anos um dos cientistas mais citados na sua
área, em todo o mundo. Conduz a cátedra
Feedzai em machine learning desde o ano
passado e é o responsável pelo polo em
Portugal do Laboratório Europeu para
Sistemas Inteligentes e de Aprendizagem

união como existe na América, que é um único país, a popu-
lação é muito inferior à da China, que além disso é um povo
só, com governo centralizado, que controla tudo. Do ponto de
vista científico, também há grupos muito bons, avançados,
na Europa, mas depois a passagem deste conhecimento para
empresas de grande poder, de grande impacto nesta área, é
um bocado difícil. A criação desta rede é uma tentativa de
aumentar o grau de coesão na Europa. Nos EUA a ligação entre
empresas e universidades funciona muito bem. Na Europa
funciona muito mal, em Portugal é quase zero.
A que se deve este afastamento?
Há uma certa desconfiança por parte dos empresários, em parte
devido ao baixo nível de formação destes. Mas isto começa a
mudar. Portugal está a ter cada vez mais startups tecnológicas,
que saltam das universidades. Há um hábito que me parece
muito bom na América que é no verão os estudantes de doutora-
mento irem passar três meses numa empresa. Isto é fantástico!
Todos os países se queixam deste problema da transferência
de tecnologia. Um inglês pretendia averiguar como se podia
melhorar e a conclusão foi a de que a melhor forma de fazer
isso era ‘a pé’. Ou seja, quando a pessoa sai da universidade,
atravessa a rua e vai para a empresa. Leva um pouco do que
aprendeu e vai aumentar o nível técnico e científico da empresa.
Esta rede é uma tentativa de melhorar estes aspetos na Europa,
no campo da IA, uma ferramenta essencial em todas as áreas
em que há necessidade de tratamento de dados.
Outra questão que se levanta em torno da IA é esta per-
petuar os enviesamentos, como se verificou na América.
Introduziu-se um algoritmo para tornar as decisões sobre
a concessão de liberdade condicional mais justas e afinal
verificou-se que o preconceito subsistia.
Há muita gente a trabalhar neste assunto, que é delicado,
inclusivamente uma investigadora portuguesa a trabalhar na
Suécia, Virginia Dignum. Chama-se ‘fairness’ (equidade) que
é mais complicado do que parece à primeira vista. Os sistemas
de IA são todos baseados em aprendizagem. Fornece-se uma
quantidade de exemplos e a máquina aprende a tomar deci-
sões parecidas. Há outro caso conhecido, na Google, que quis
aplicar IA à contratação e depois descobriu-se que o sistema
estava enviesado.
O sistema perpetua o que se queria evitar...
Pois, porque o sistema aprendeu com exemplos que padeciam
deste problema. O que está programado é o modo como o
sistema vai aprender com os exemplos. Nos casos referidos,
os exemplos sofriam deste enviesamento. Nem sempre é fácil
identificar estes problemas. É um tema difícil, que está na
ordem do dia e aparece em todas as diretivas comunitárias
relacionadas com IA. Outro tema importante nesta área é a
‘explainability’ (explicabilidade), se o sistema depois de to-
mar uma decisão tem capacidade de explicar por que razão a


tomou. Há áreas em que é difícil fazer e nem é relevante. Por
exemplo, se estiver a analisar uma imagem de um cérebro, para
ver se tem Alzheimer ou não, pode ser muito difícil de justifi-
car, muito complexo. Mas no caso das decisões de liberdade
condicional faz sentido que se exija ao algoritmo que explique
porque tomou determinada decisão. Nestes parâmetros todos
que foram avaliados, quanto é que eu teria de mexer e em que
variável para a decisão ter sido noutro sentido. O exemplo que
se dá sempre é o da atribuição de crédito. O banco conhece
o padrão de consumo, se tem dívidas, se não tem, e nalguns
países é obrigatório, no caso de não ser concedido o crédito,
justificar-se porquê, qual ou quais dos itens é que impediu o
crédito. A explicabilidade está próxima da equidade, no sen-
tido que quanto maior a explicabilidade, mais fácil é depois
controlar ou avaliar o sistema.
A inclusão de sistemas de IA poderá ajudar a criar socieda-
des mais justas e equitativas?
Pode ajudar. Para já, teve o mérito de trazer estes assuntos
para a ordem do dia, para a discussão pública. Sobretudo em
ambientes académicos e empresas que não estavam habituados
a pensar nestas questões sociais.
O que irá mudar com a existência deste polo no Técnico?
Vamos tentar estabelecer mais colaborações entre o Instituto
de Telecomunicações, o Instituto de Sistemas e Robótica e o
INESC, partir barreiras, dar visibilidade unificada. Em vez de
aparecer cada um por si, aparece o Técnico. Trata-se de um
instrumento para facilitar colaboração e a união. As universi-
dades portuguesas são quase todas muito compartimentadas,
muito divididas em quintas. Há muros muito fortes entre
departamentos e até entre as diferentes áreas dos mesmos
departamentos. Muita competição, que decorre do facto de
que para subir na carreira as pessoas têm de competir com o
colega do lado, porque o esquema de progressão é em pirâmide
em vez de ser em paralelo, como acontece nos EUA.
Há linhas de investigação prioritárias?
Sim, tudo o que tenha a ver com interação com o homem, a
IA relacionada com pessoas, robótica social.
Robôs nos hospitais e nos lares?
Exatamente! E não só. Como é que a presença de robôs num
grupo afeta o comportamento das pessoas, interação com
crianças autistas e doentes oncológicos. O efeito de nud-
ging [influenciar comportamentos] de um robô, a aplicação
à Medicina, à imagiologia médica, linguagem natural. Tudo
relativo a pessoas.

O próximo salto será a computação quântica?
Não sei. Uma forma de o avaliar é ver se as grandes empresas
estão a apostar nisto. E algumas estão. Se se conseguir fazer
o que se espera será um salto muito grande. Mas prefiro não
especular.

MÁRIO FIGUEIREDO

Free download pdf