Nous avons besoin d'un contexte pour reconnaître les émotions sur les visages

Selon une nouvelle étude, lorsqu'il s'agit de lire l'état d'esprit d'une personne, le contexte visuel (comme l'arrière-plan et l'action) est tout aussi important que les expressions faciales et le langage du corps.

Les résultats mettent au défi des décennies de recherche selon lesquelles l'intelligence émotionnelle et la reconnaissance reposent en grande partie sur la capacité de lire des micro-expressions indiquant le bonheur, la tristesse, la colère, la peur, la surprise, le dégoût, le mépris et d'autres humeurs et sentiments positifs et négatifs.

«Notre étude révèle que la reconnaissance des émotions est, à la base, une question de contexte autant que de visages», explique l’auteur principal Zhimin Chen, étudiant au doctorat en psychologie à l’Université de Californie à Berkeley.

Expressions et émotions

Les chercheurs ont brouillé les visages et le corps d'acteurs dans des dizaines de clips muets tirés de films hollywoodiens et de vidéos personnelles. Malgré l'invisibilité virtuelle des personnages, des centaines de participants à l'étude ont pu lire avec précision leurs émotions en examinant l'arrière-plan et la manière dont ils interagissaient avec leur environnement.

Le modèle de «suivi affectif» que Chen a créé pour l'étude permet aux chercheurs de déterminer comment les gens évaluent les émotions d'un personnage à l'autre lorsqu'ils visionnent des vidéos.

"Face à cela, le visage ne suffit pas à percevoir l'émotion."

La méthode de Chen est capable de collecter de grandes quantités de données en peu de temps et peut éventuellement permettre de comprendre comment les personnes atteintes de troubles comme l'autisme et la schizophrénie lisent les émotions en temps réel et facilitent le diagnostic.


graphique d'abonnement intérieur


«Certaines personnes peuvent avoir des difficultés à reconnaître les expressions faciales, mais peuvent reconnaître les émotions du contexte», explique Chen. "Pour d'autres, c'est le contraire."

Les résultats, fondés sur des analyses statistiques des notations recueillies par les chercheurs, pourraient également éclairer le développement de la technologie de reconnaissance faciale.

«À l'heure actuelle, les entreprises développent des algorithmes d'apprentissage automatique pour la reconnaissance des émotions, mais elles entraînent leurs modèles uniquement sur des visages recadrés et ces modèles ne peuvent lire les émotions que sur des visages», explique Chen.

"Nos recherches montrent que les visages ne révèlent pas très fidèlement les véritables émotions et que l'identification de l'état d'esprit d'une personne doit également prendre en compte le contexte."

Visages flous

Pour cette étude, les chercheurs ont testé les capacités de reconnaissance des émotions de jeunes adultes presque 400. Les stimuli visuels utilisés étaient des clips vidéo de divers films hollywoodiens, ainsi que des documentaires et des vidéos personnelles montrant des réactions émotionnelles dans des environnements plus naturels.

Les participants à l'étude sont allés en ligne pour visionner et évaluer les clips vidéo. Les chercheurs ont superposé une note sur la vidéo afin de pouvoir suivre le curseur de chaque participant à l'étude qui se déplaçait sur l'écran, en traitant les informations visuelles et en notant les émotions au moment présent.

Dans la première de trois expériences, les participants à l’étude 33 ont analysé les interactions entre deux personnages, dont un chercheur est flou, et ont évalué les émotions perçues du personnage flou. Les résultats montrent que les participants à l'étude ont déduit comment le personnage invisible se sentait basé non seulement sur ses interactions interpersonnelles, mais également sur ce qui se passait à l'arrière-plan.

Ensuite, environ des participants à l’étude 200 ont visionné des clips vidéo montrant les interactions dans trois conditions différentes: une dans laquelle tout était visible, une autre dans laquelle les chercheurs ont estompé les caractères et une autre dans laquelle ils ont brouillé le contexte. Les résultats ont montré que le contexte était aussi important que la reconnaissance faciale pour décoder les émotions.

Lors de la dernière expérience, les participants à l'étude 75 ont visionné des extraits de documentaires et de vidéos personnelles afin que les chercheurs puissent comparer la reconnaissance des émotions dans des environnements plus naturalistes. Encore une fois, le contexte était aussi important pour déduire les émotions des personnages que leurs expressions faciales et leurs gestes.

«Dans l’ensemble, les résultats suggèrent que le contexte est non seulement suffisant pour percevoir l’émotion, mais également nécessaire pour percevoir l’émotion d’une personne», explique l’auteur David Whitney, professeur de psychologie. "Face à cela, le visage ne suffit pas à percevoir l'émotion."

La recherche apparaît dans le Actes de l'Académie nationale des sciences.

La source: UC Berkeley

Livres connexes

at Marché InnerSelf et Amazon