Un algorithme pour décrypter les émotions
La reconnaissance automatisée des émotions est déjà une réalité dans certains commerces, et peut-être demain dans les hôpitaux et les transports.
Nouveau domaine des caméras dites « intelligentes », « la reconnaissance des émotions » ne cherche pas à identifier une personne, mais « consiste à suivre des points caractéristiques du visage au cours du temps pour détecter quel est son ressenti », explique Kévin Bailly, enseignant chercheur à l’ISIR (Institut des systèmes intelligents et de robotique). En bref, la machine guette les activations musculaires caractéristiques, tel le froncement de sourcil ou le sourire, puis interprète.
Détecter les émotions des clients
Cette technologie a déjà des usages commerciaux. « Des produits analysent les réactions des personnes face à une publicité : sourient-elles ? Ou perd-on leur attention rapidement ? », explique Kévin Bailly, également directeur de recherche dans la société Datakalab qui vend ce type de services.
Regarder si les personnes sont contentes ou non devant un produit.
Aujourd’hui utilisé sur un panel de personnes volontaires pour tester les publicités, cet outil pourrait être déployé dans l’espace public « pour regarder si les personnes sont contentes ou non, par exemple dans une file d’attente, ou devant un produit », envisage le chercheur. La vidéosurveillance déjà banalisée dans les centres commerciaux pourrait être complétée par ces mécanismes (voir interview p. 21).
Surveiller les patients
Cette technologie intéresse aussi des collectivités, comme la ville de Nice qui a tenté de l’installer – sans succès – à bord d’un tramway afin d’anticiper les problèmes en analysant l’humeur des passagers. Autre domaine d’application potentiel : le soin. Datakalab travaille avec la société Genius et ses « jeux sérieux » destinés à des enfants autistes. L’objectif est de leur apprendre à exprimer un sentiment en adéquation avec ce qu’ils ressentent : l’enfant exprime une émotion devant la machine qui lui indique ce qu’elle décrypte sur son visage. « L’avantage est que l’enfant peut s’entraîner seul chez lui, et la machine peut enregistrer l’évolution », défend Kévin Bailly. Autre projet, encore exploratoire : comme cela existe pour le rythme cardiaque, placer une machine qui surveille en continu les émotions exprimées par un patient sous assistance respiratoire, qui ne peut communiquer, pour détecter notamment une douleur ou un inconfort respiratoire.
Une technologie limitée
Quelle est l’efficacité réelle de ces technologies de détection d’émotions ? « On sait suivre des points sur un visage, mais l’interprétation reste très gros grain », reconnaît Kévin Bailly. En cause notamment : la faible quantité de données sur les émotions des visages. Celles-ci sont essentielles pour « nourrir » l’intelligence artificielle chargée de décrypter l’émotion. L’autre difficulté tient au fait qu’il faut annoter ces données (« telle expression exprime telle émotion »), or « cela coûte cher et nécessite des personnes certifiées », explique Kévin Bailly. Sans compter l’inévitable subjectivité avec laquelle ces images seront annotées, car un froncement de sourcil ne signifie pas la même chose selon les personnes et les cultures. La subtilité des émotions humaines mise en boîte dans un algorithme n’est donc pas pour tout de suite.