Publications

L’IA pourra ou peut-elle d’ores et déjà interpréter nos émotions ?

23 juin 2021

Les systèmes d’identification d’émotions à l’aide de la reconnaissance faciale proposent aujourd’hui des innovations susceptibles d’améliorer notre vie quotidienne.

Par exemple, dans l'habileté à rendre nos dialogues plus naturels avec les assistants vocaux. Dans cet article nous nous concentrerons sur la reconnaissance d’émotions exprimées par du langage non verbale, en s’appuyant sur des techniques de traitement d’image.

A quoi servent les systèmes d’IA de reconnaissance d’émotions ?

De nos jours, la reconnaissance d’émotions humaines par des techniques de machine learning (par exemple par des réseaux de neurones) est un champ de recherche en pleine effervescence venant contribuer à des innovations dans de nombreuses industries. 

Par exemple, dans l’industrie automobile, ces systèmes d’IA contribuent à améliorer la sécurité à bord d’un véhicule en détectant et identifiant le comportement du conducteur (signes de fatigue, stress, comportements inhabituels) pour ensuite l’informer d’un danger (2). Les technologies de reconnaissance d’émotions sont aussi un outil pour venir en aide aux enfants atteints d’autisme. En effet, avec des Google Glass (entre autres) des enfants autistes ont pu améliorer leurs aptitudes sociales en utilisant une application les aidant à identifier les émotions transmises par les expressions faciales de leurs interlocuteurs (3).

Comment fonctionne l’identification d’émotions par l’IA ?

La reconnaissance faciale d’émotion s'effectue en deux étapes. Tout d’abord, un algorithme de reconnaissance faciale est chargé de détecter le visage de l’individu ciblé grâce à une caméra. Puis un second système d’IA est appliqué en identifiant les points clés du visage, tels que la bouche, les yeux et le nez. Ce dernier utilise ces informations pour faire la reconnaissance des émotions et des micro-expressions. Pour entraîner ce type de réseau de neurones il est nécessaire de fournir des données composées d’une grande quantité d’images contenant des visages humains exprimant diverses émotions.

Quelles sont les limites des systèmes d’identification d’émotions par l’IA ?

Cependant la détection d’émotion à travers la technologie de la reconnaissance faciale présente ses propres limites. Les erreurs d’interprétation sont l’un des risques majeurs pour ces algorithmes de détection d’émotions de par la nature très subjective de ces dernières.

Cet avis est partagé par de nombreux spécialistes dont Kate Crawford (chercheuse chez Microsoft) :

Parallèlement au déploiement de ces technologies, un grand nombre d’études montrent qu’il n’y a … aucune preuve substantielle qu’il existe une parfaite adéquation entre l’émotion que vous ressentez et l’expression de votre visage.” (4). 

 

Parmi ces limites, l’une fut détaillée par le chercheur Ekman au cours d’une expérience interculturelle menée en Papouasie-Nouvelle-Guinée auprès d’une tribu appelée les Fores. Ekman cherchait à vérifier une hypothèse controversée, à savoir que tous les humains manifestent un petit nombre d'émotions universelles, ou affects, qui sont innées et identiques dans le monde entier. 

Fondamentalement isolée de la culture occidentale, la tribu des Fores constituait un échantillon idéal afin de mener cette expérience. Les résultats l’ont amené à en déduire que les expressions faciales étaient liées à un contexte et que ces dernières divergent selon la culture étudiée (1). Ainsi, les performances d’un système d’IA qui analyse les émotions humaines pourront avoir des performances différentes selon le domaine socioculturel dans lequel il évolue par rapport à celui dans lequel il a été conçu. Cependant, la thèse d’Ekman a néanmoins relevé que parmi un large panel d’émotions, six seraient communes à l’ensemble des humains (le bonheur, la tristesse, le dégoût, la surprise, la colère et la peur). 

Les systèmes d’IA et leurs algorithmes sont paramétrés pour fournir des performances satisfaisantes dans un domaine d’usage prédéterminé. Cependant ces performances pourront se dégrader lorsque le système d’IA sera exposé à des situations qui s’éloignent trop de ce qu’il connaît. Ainsi pour un système d’IA visant à identifier les émotions grâce à la reconnaissance  faciale, chaque différence ou particularité culturelle doit être prise en compte. 

Nous pouvons par exemple évoquer le balancement de tête propre à la culture indienne. Un système développé en occident pourrait ne pas être en capacité d’interpréter correctement ce comportement, puisqu’il est inconnu pour un occidental. En réponse, une multi-culturalité des équipes de conception permettra de limiter ces risques. Si de grandes entreprises peuvent disposer de personnels suffisamment divers, cela sera néanmoins plus difficile pour de petites équipes.

L’interprétation du sourire est aussi un bon exemple illustrant la complexité du paramétrage du domaine d’emploi d’un système d’IA. Si au Japon le sourire est vu comme un moyen de montrer du respect ou de cacher ce que l'on ressent réellement, il est perçu, dans les sociétés occidentales, comme le moyen d’exprimer une satisfaction. 

Pour conclure, malgré l’identification de six émotions primaires, il existe une multitude d’émotions plus subtiles et complexes à définir pour un système d’IA. Ces émotions primaires peuvent être les briques élémentaires de lecture du comportement, mais elles ne constituent pas la grammaire complète de toutes les émotions.

La détection d’une émotion par un système d'IA est une première étape, son interprétation et sa compréhension, variant selon l’environnement culturel, en est une deuxième bien plus complexe pour laquelle de nombreux progrès restent à réaliser.

Numalis

We are a French innovative software editor company providing tools and services to make your neural networks reliable and explainable.

Contact us

Follow us