Laurence Devillers : « L’éthique dans l’intelligence artificielle est un enjeu d’avenir pour la France »

J’ai écrit « Les robots émotionnels : santé, surveillance, sexualité… et l’éthique dans tout cela ? » en 2020 pour démystifier la discipline scientifique appelée « affective computing » (informatique affective), domaine de l’intelligence artificielle (IA) qui est mon sujet de recherche au CNRS depuis les années 2000. Il s’agit d’étudier, de développer des systèmes et agents comme les robots ayant les capacités de reconnaître, d’exprimer, de synthétiser et de modéliser les émotions humaines et de les expérimenter. Cet essai fait suite à un premier ouvrage paru chez Plon en 2017 « Des robots et des hommes : mythes, fantasmes et réalité » dont le but était de faire comprendre les capacités et limites des algorithmes, de l’apprentissage machine, de l’IA et les avancées de la robotique tout en parlant des mythes et de la science-fiction qui précèdent souvent la science.

Je me suis engagée à écrire des livres et à parler dans des conférences pour faire prendre conscience des bénéfices mais aussi des risques de dépendance, d’attachement et d’isolement dans nos relations humain-machine. Mon domaine de recherche engage des compétences de nombreuses disciplines à la fois en sciences humaines et sociales mais également de toutes les disciplines relevant de l’informatique et de la technologie comme l’IA, le traitement automatique du langage, l’apprentissage machine. Les nombreux métiers de l’IA sont tout autant pour les filles que pour les garçons. Il est d’ailleurs urgent d’attirer plus de filles et femmes en science et en informatique car nous modélisons nos rapports aux autres et au monde à travers ces algorithmes d’apprentissage qui se développent dans tous les domaines de la société : de l’écologie, de la santé, de l’éducation, de la justice, du transport en passant par la conquête spatiale. Or, 80% des concepteurs en informatique et IA sont des hommes et 80% par exemple des objets qui nous parlent ont des prénoms féminisés, des voix et des corps de femmes ! La représentation des femmes à travers ces objets risque d’amplifier les stéréotypes de genre.

Je crois profondément à l’importance de s’engager en tant que chercheuse ou chercheur dans la communication grand public des enjeux de son domaine de recherche quand celui-ci a des conséquences fortes pour l’individu et la société. Je suis impliquée dans de nombreux comités d’éthique nationaux et internationaux, ainsi qu’à l’AFNOR pour créer des normes et standards afin de préparer les audits de ces systèmes. Je suis également présidente de la fondation Blaise Pascal de médiation en mathématiques et informatique auprès des plus jeunes.

Le livre « Les robots émotionnels »

Mon livre « Les robots émotionnels » est une grille de lecture des sciences affectives et de leurs champs applicatifs notamment à travers des chatbots (c-a-d des agents conversationnels comme SIRI, Google home ou alexa Amazon) ou en robotique. La robotique sociale ou collaborative (la cobotique) constitue actuellement l’une des voies de recherche les plus fécondes en robotique. Le fait que ces objets, chatbots ou robots, doivent agir dans la proximité des êtres humains, dans leur environnement quotidien et intime, ouvre un champ immense de questionnements qui n’entre pas traditionnellement dans celui de l’ingénierie. L’un des objectifs de l’informatique affective est de développer des technologies capables d’interpréter, voir même d’exprimer des émotions comme le feraient des êtres humains. Avec les années et les progrès technologiques, l’informatique affective prend de plus en plus d’ampleur et les applications se diversifient. On commence à trouver des robots PARO ou NAO capables d’exprimer des émotions pour assister les personnes âgées dans les EHPAD. Les recherches se portent aussi sur le développement de capteurs d’indices émotionnels ou encore sur différents systèmes de détection des émotions humaines basés sur l’utilisation de caméras, microphones ou autres senseurs avec des moteurs d’analyse du langage et d’apprentissage machine.

La reconnaissance acoustique, faciale, gestuelle, posturale ou encore d’indicateurs physiologiques comme le rythme cardiaque, la température corporelle permettent de décrypter le comportement d’une personne, ce qui est très utile pour changer les stratégies du système de dialogue.  Ces systèmes embarqués sur nos téléphones, assistants vocaux et également dans les robots auront demain un fort pouvoir d’incitation sur nous voire de manipulation en détectant et interprétant nos actions et signaux qu’ils soient conscients ou inconscients. Les données fournies par les recherches et les résultats obtenus dans ce domaine montrent cependant leurs limites. En effet, les indices émotionnels peuvent s’avérer être très différents selon la culture ou l’environnement de l’individu. Cela complexifie énormément les modélisations et performances dans le domaine de l’informatique affective.
Les chatbots et robots affectifs n’ont pas d’émotions, ne ressentent rien, ne comprennent pas « au sens des humains », ils ne reconnaissent que la surface du langage sans en comprendre le sens, alors qui est responsable en cas de dysfonctionnement de la machine ? La machine ne doit en aucun cas être responsable, ce sont les humains qui la façonnent et l’utilisent qui sont responsables. L’avancée dans ce domaine représente certes un enjeu commercial mais traduit aussi la nécessité de nombreux progrès technologiques et d’évaluation sur le court et long terme.

L’éthique dans l’IA

Elle soulève également des questions d’éthiques qui amènent au déploiement de bonnes pratiques et de garde-fous pour encadrer ces systèmes ainsi qu’à des débats de société. Peut-on laisser les plus jeunes devant des machines émotionnelles ? Comment gérer l’addiction ? En Occident, nous souhaitons que la frontière soit claire entre le vivant et l’inanimé, ce qui n’est pas forcément le cas dans toutes les cultures comme par exemple au Japon. La place du virtuel dans notre vie et dans la conscience de nous-même n’est pas si simple. Notre propre identité peut-elle habiter des entités virtuelles ? Comment allons-nous juger une machine capable d’apprendre de nous et répondant toujours à nos demandes ?

Mieux comprendre l’IA et l’informatique affective, ses évolutions rapides, ses opportunités et risques sont nécessaires pour construire des cadres éthiques, des bonnes pratiques et des lois pour respecter les droits et la dignité des humains sans pour autant être un frein au développement des chatbots et robots émotionnels.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

error: Content is protected !!