Ma ville

Laurence Devillers : « Les robots captent nos émotions »

Laurence Devillers, chercheuse en intelligence artificielle au CNRS et professeure à la Sorbonne, est le “Talent scéen” du mois de novembre 2021. 

Que représente Sceaux pour vous ? 

Je vis à Sceaux depuis 2009. J’ai toujours connu cette ville car j’ai passé mon enfance à proximité, à Bourg-la-Reine. J’ai fréquenté le lycée Lakanal. J’ai souhaité ensuite que mes enfants aillent dans ce même lycée. J’aime Sceaux pour sa qualité de vie. Nous avons un centre-ville avec de multiples activités. J’ai l’habitude d’aller au théâtre Les Gémeaux, de jouer au tennis et de courir au parc de Sceaux. Sceaux est un lieu de rencontres culturelles où chacun peut s’épanouir. Mes deux enfants ont fait leur scolarité au collège et lycée Lakanal. Nous avons toujours apprécié vivre à Sceaux. 

Pouvez-vous nous parler de l’objet de vos recherches ? 

Je suis une spécialiste des interactions entre l’humain et la machine par le biais du langage et de l’apprentissage machine mobilisant des réseaux de neurones. J’ai travaillé sur la reconnaissance de la parole, le dialogue et les agents conversationnels. Je travaille à présent sur la détection des émotions qui sont des technologies d’intelligence artificielle (IA) utilisant des algorithmes d’apprentissage. Les robots embarquant ces systèmes sont capables d’interpréter ce que nous disons et de nous répondre. Ils imitent notre langage, mais ne sont pas dotés d’une pensée comparable à la nôtre. Il n’y a ni empathie, ni conscience chez les robots, même si nous pouvons les doter de quelques capacités émotionnelles. Je travaille aussi sur les bénéfices et les risques des IA et de ces systèmes affectifs qui peuvent nous manipuler. L’un des sujets majeurs est le traitement des émotions, celles que nous pouvons détecter dans la voix, la parole ou sur le visage d’un individu. 

Présidente du conseil stratégique de la fondation Blaise Pascal et professeure à la Sorbonne, je suis également à la tête d’une chaire en IA, intitulée HUman MAchine Affective Interaction and Ethics (HUMAAINE), au Centre national de la recherche scientifique (CNRS) à Saclay. J’anime une équipe de recherche pluridisciplinaire (avec notamment des chercheurs en économie de la faculté Jean-Monnet à Sceaux) au sein du laboratoire interdisciplinaire des sciences du numérique (LISN) du CNRS. Nos recherches portent sur les dimensions affectives et sociales dans les interactions parlées, ainsi que sur le “nudge” numérique (faculté d’inciter les individus en provoquant des comportements ciblés). Nous travaillons tout particulièrement sur les systèmes de détection des émotions et sur les mécanismes qui contribuent à orienter le choix d’une personne, à modifier sa réponse à une question. Ces travaux ont de nombreuses implications dans notre vie quotidienne, que ce soit pour l’assistance aux personnes âgées, dans l’éducation, les transports ou encore la justice. Mais les répercussions peuvent aussi être moins positives, lorsqu’il s’agit par exemple de manipulation marketing ou politique. 

Qu’en est-il justement de vos recherches récentes sur l’éthique dans le domaine de la robotique ? 

Les systèmes robotiques et assistants vocaux que nous développons sont capables de capter nos émotions et de changer les stratégies de réponse. Il faut que ces données, certes simplifiées, soient utilisées à bon escient. C’est toute la question de l’éthique. Nous devons être vigilants par rapport à ces intelligences créées, en veillant par exemple à préserver la vie privée et la liberté de décision de chacun. Je siège actuellement au sein de plusieurs comités d’éthique sur le numérique et l’IA au niveau national (Comité national pilote d’éthique du numérique ou CNPEN) et international (“Global Partnership on Artificial Intelligence” ou GPAI). Je dirige également un groupe d’experts sur le “nudge” numérique au sein de l’Agence française de normalisation (Afnor). 

 
Concernant le CNPEN, j’ai co-dirigé un rapport qui sera rendu au Premier ministre le 9 novembre 2021 au sujet des “chatbots”, ces systèmes capables de dialoguer avec vous sur internet, au téléphone, à travers une enceinte vocale ou un robot*. Nous formulons des préconisations à la fois pour les gouvernants, les concepteurs industriels et les chercheurs. De son côté, le comité d’éthique international sur l’intelligence artificielle, nommé GPAI, s’intéresse à l’implication de l’IA sur le futur du monde du travail, et notamment sur l’impact des “chatbots” dans le travail. Par ailleurs, je fais aussi partie depuis peu d’un groupe d’éthique sur l’IA pour le compte de l’Afnor qui porte sur la question du “digital nudge”, c’est-à-dire la manipulation par les machines, ces dernières pouvant nous inciter dans nos choix en détectant nos comportements. C’est notamment un sujet émergent à l’heure des réseaux sociaux. Il faut qu’il y ait plus de lois autour de ces IA. C’est le sens de mon engagement auprès de l’Afnor et pour soutenir le futur projet de lois européennes sur l’IA. Enfin, les robots et machines peuvent également amplifier les stéréotypes de la société. 80 % des concepteurs de systèmes informatiques sont aujourd’hui des hommes, alors que 80 % des systèmes qui nous parlent ont des voix, des noms, des visages voire des corps féminins. Nous devons donc être vigilants également sur ces questions d’égalité femmes/hommes dans les métiers du numérique, de l’informatique et de l’intelligence artificielle. La fondation Blaise Pascal, dont je suis la présidente, a pour vocation la médiation sur les mathématiques et l’informatique à l’école, tout particulièrement auprès des filles.    

Pour aller plus loin 
Ouvrages
Les robots émotionnels, 2020, Les éditions de l’observatoire 
Des robots et des hommes, 2017, Plon 

Publications
Élaborer une éthique de la relation humain-machine, La Recherche, octobre-décembre 2021
Les émotions artificielles, Chut !, octobre-décembre 2021 
Désinformation : les armes de l’intelligence artificielle, Pour la science, mai 2021