Libération - 18.10.2019

(Ron) #1

L


es assistants virtuels actuellement dis-
ponibles ne sont qu’une première
étape. Les chercheurs continuent de
travailler à la création d’êtres virtuels dotés
d’un corps et d’un visage, afin de communi-
quer le plus naturellement du monde avec
leurs interlocuteurs humains. Mais la tâche
est loin d’être aisée.
Ces derniers mois, on a vu fleurir les assis-
tants virtuels, qu’il s’agisse d’Alexa pour
Amazon ou de Google Home Assistant et de
sa dernière version «duplex», qui se propose
carrément de passer des appels à notre place
pour prendre rendez-vous chez le coiffeur
ou le médecin... Si séduisantes qu’elles puis-
sent être pour le Terrien de 2019, ces voix
­désincarnées sont pourtant loin de ce que
pourraient être les assistants virtuels dans le
futur : des êtres virtuels possédant un corps
et un visage pour mieux faire passer leur
message, capables de décrypter notre hu-
meur et de nouer des relations avec nous
pour mieux répondre à nos besoins.
Créer de tels êtres virtuels demande un long
travail de recherche, si l’on veut éviter les
«Désolé, je ne vous comprends pas» ou les «Je
suis désolé, je ne sais pas comment vous aider
avec cela» que nous opposent régulièrement
les assistants d’aujourd’hui. La communica-
tion est en effet bien plus qu’un échange d’in-
formations. Ce n’est pas une simple série de
questions-réponses, comme peut le faire le
système d’intelligence artificielle Watson
lancé en 2017 par IBM (le logiciel se propose
de répondre en langage naturel aux questions
que lui posent ses utilisateurs dans le do-
maine de la banque ou de la santé).
Partout dans le monde, des laboratoires
­travaillent à la création d’êtres virtuels
­communicatifs et relationnels, capables de
communiquer avec la voix, bien sûr, mais
aussi avec des gestes, les expressions du
­visage et le regard, pour indiquer à qui ils
s’adressent. Pour y arriver, certains cher-
cheurs se basent sur le travail d’acteur, d’au-
tres font appel à des animateurs profession-
nels, ­d’autres – comme nous – cherchent à
comprendre le compor­tement humain dans

Parce que la voix ne suffit
pas, des laboratoires
travaillent à la création
d’êtres virtuels, capables
de communiquer avec
des gestes, des expressions
du visage et le regard
pour indiquer à qui
ils s’adressent.

Par
Justine Cassell
directrice de recherche à l’Inria,
membre de l’Institut
interdisciplinaire d’intelligence
artificielle Prairie (Paris Artificial
Intelligence Research Institute)

et Catherine
Pelachaud
Institut des systèmes intelligents
et de robotique (CNRS-Sorbonne
Université-Inserm) à Paris

Jusqu’à quel point a-t-on
intérêt à créer un être

virtuel capable de nouer


des relations de manière


naturelle avec des êtres


humains? Ne doit-on pas
garder une part

d’imperfection à ces


personnages virtuels,


pour éviter que l’humain


ne se fasse manipuler par
de tels interlocuteurs?

Pourquoi les assistants


virtuels ont besoin


d’un corps


Idées/


la communication, et dérivent de ces tra-
vaux les algorithmes qui seront ensuite im-
plantés dans des êtres virtuels. Car les assis-
tants virtuels créés grâce à l’analyse de
l’interaction entre de vraies personnes ont,
selon nous, toutes les chances d’être mieux
appréciés, mieux compris et plus efficaces
dans l’accomplissement de leurs tâches.
Pour créer nos êtres virtuels, nous étudions
donc le comportement humain de façon
­rigoureuse. Nous utili-
sons des vidéos de per-
sonnes en conversation (à
la télévision, en ligne, ou
dans les archives scienti-
fiques), ou nous mettons
en scène des humains
dans des situations les
plus naturelles possible :
nous demandons à deux
lycéens de ­seconde de tra-
vailler ensemble sur un
devoir d’algèbre, ou à une personne de re-
commander un film à une autre. Ces vidéos
visionnées, ­seconde par seconde, parfois
jusqu’à cent fois de suite, ­permettent d’ana-
lyser les comportements verbal et non ver-
bal et la façon dont ils ­s’articulent.
La question du sourire est un exemple inté-
ressant : où trouve-t-on des sou­rires lors de
ces interactions, et ont-ils toujours la même
forme et la même signification? Une étude
a ainsi permis de montrer que lorsque
deux lycéens travaillent l’algèbre, si l’un
d’eux taquine l’autre mais accompagne sa pi-
que d’un sourire, leur niveau d’entente a ten-
dance à s’élever et ils ont une propension à
mieux ­apprendre. Mais quand la taquinerie
n’est pas accompagnée par un sourire, le ni-
veau d’entente tend à baisser et l’apprentis-

sage à être moins fort. La taquinerie, qui est
une stratégie conversationnelle souvent
­perçue comme menaçante, peut donc aussi
montrer que la relation entre deux interlocu-
teurs est privilégiée. La différence entre ces
deux fonctions de la taquinerie est simple-
ment signalée ici par le sourire.
Cette première théorisation nous a conduits
à regarder les effets d’autres stratégies
­conversationnelles, comme la stratégie
d’imitation – hocher la tête quand l’autre
­hoche la tête, ou émettre des «hmm» encou-
rageants quand l’autre en émet... – et de les
implémenter dans nos êtres virtuels de labo-
ratoire afin de tester leur efficacité. En fai-
sant varier les différents paramètres, on peut
ainsi mesurer comment les êtres virtuels
sont perçus par leurs interlocuteurs
­humains.
Malgré une connaissance toujours plus fine
des mécanismes qui sous-tendent la com-
munication humaine, il reste illusoire de
prétendre créer dès aujourd’hui un être vir-
tuel qui soit en mesure de répondre à toutes
les situations. Il devient en revanche envisa-
geable de concevoir des
êtres virtuels capables
d’interagir dans des con-
textes précis. On peut
ainsi imaginer des tu-
teurs virtuels destinés à
l’apprentissage (d’une
langue, de l’algèbre...) ou
des compagnons virtuels
­capables d’aider une per-
sonne âgée à adopter les
bons réflexes de santé
prescrits par ses médecins. Dans ce dernier
cas, il se révèle indispensable de bien doser
les impressions de chaleur et de compé-
tence que ces compagnons virtuels peuvent
produire sur les humains. Une étude a per-
mis de montrer que beaucoup de sourires
augmentaient certes l’impression de cha-
leur, mais faisaient baisser le niveau de
compétence perçu ; de petits mouvements
rythmiques de la main renforçaient eux
­l’impression de compétence...
Même pour des applications précises, créer
un être virtuel reste tout un art! Mais pas
seulement. Avec la création d’êtres virtuels
se profilent des questions d’éthique aux­-
quelles les chercheurs, mais aussi la société
tout entière, devront répondre prochaine-
ment. Jusqu’à quel point a-t-on intérêt à
créer un être virtuel capable de nouer des
­relations et de communiquer de manière
­totalement naturelle avec des êtres
­humains? Ne doit-on pas au contraire garder
une part d’imperfection à ces personnages
virtuels, pour éviter que l’humain ne s’y at-
tache trop, ou ne se fasse manipuler par un
interlocuteur virtuel devenu trop habile?
Se pose aussi la question délicate du
­stockage des données : pour répondre aux
attentes de son utilisateur, un être virtuel
devra d’abord analyser finement ses émo-
tions, ses humeurs, ses besoins, et stocker
ces informations. Qu’en fera l’entreprise qui
commercialise l’assistant virtuel en ques-
tion? Que deviendront ces informations si
elles sont piratées ou tombent entre de
mauvaises mains? L’exemple des enregis-
trements d’Alexa utilisés à l’insu des utilisa-
teurs par Amazon pour améliorer son ser-
vice donne matière à réflexion.•

LES INÉDITS DU CNRS
Une fois par mois,Libé
publie, en partenariat avec le
magazine en ligne de l’organisme
(lejournal.cnrs.fr), une analyse
scientifique originale.

ANGELA WEISS. AFP Télécom ParisTech


26 u Libération Vendredi^18 Octobre 2019

Free download pdf