L'intelligence artificielle comprendra-t-elle toujours les émotions humaines?

Comment vous sentiriez-vous pour obtenir une thérapie à partir d'un robot? Les machines émotionnellement intelligentes peuvent ne pas être aussi loin qu'il n'y paraît. Au cours des dernières décennies, l'intelligence artificielle (IA) est devenue de plus en plus bonne à la lecture des réactions émotionnelles chez les humains.

Mais lire n'est pas la même chose que comprendre. Si l'IA ne peut pas expérimenter elle-même les émotions, peut-elle nous comprendre vraiment? Et, sinon, y a-t-il un risque que nous attribuions des propriétés de robots qu'ils n'ont pas?

La dernière génération d'IA a vu le jour grâce à une augmentation des données disponibles pour les ordinateurs, ainsi que leur puissance de traitement améliorée. Ces machines sont de plus en plus compétitives dans des tâches qui ont toujours été perçues comme humaines.

L'IA peut maintenant, entre autres choses, reconnaître les visages, tourner des croquis de visage en photos, reconnaître le discours et jouer au go.

Identifier les criminels

Récemment, les chercheurs ont développé une IA capable de déterminer si une personne est un criminel simplement en regardant les traits de son visage. Le système a été évalué à l'aide d'une base de données de photos d'identité chinoises et Les resultats sont la chute de la mâchoire. L'IA a classé par erreur des innocents comme des criminels dans environ 6% des cas, alors qu'elle était capable d'identifier avec succès environ 83% des criminels. Cela conduit à une précision globale stupéfiante de presque 90%.

Le système est basé sur une approche appelée «apprentissage en profondeur», qui a réussi dans des tâches perceptives telles que la reconnaissance faciale. Ici, l'apprentissage en profondeur combiné avec un «modèle de rotation du visage» permet à l'IA de vérifier si deux photos faciales représentent le même individu, même si l'éclairage ou l'angle change entre les photos.


graphique d'abonnement intérieur


L'apprentissage en profondeur construit un «réseau de neurones», vaguement modelé sur le cerveau humain. Ceci est composé de centaines de milliers de neurones organisés en différentes couches. Chaque couche transforme l'entrée, par exemple une image faciale, en un niveau d'abstraction plus élevé, tel qu'un ensemble d'arêtes à certaines orientations et emplacements. Cela met automatiquement en évidence les fonctionnalités les plus pertinentes pour effectuer une tâche donnée.

Étant donné le succès de l'apprentissage en profondeur, il n'est pas surprenant que les réseaux de neurones artificiels puissent distinguer les criminels des non criminels - s'il y a vraiment des traits faciaux qui peuvent faire la différence entre eux. La recherche suggère qu'il y en a trois. L'un est l'angle entre le bout du nez et les coins de la bouche, qui était en moyenne 19.6% plus petit pour les criminels. La courbure de la lèvre supérieure était également en moyenne 23.4% plus grande pour les criminels alors que la distance entre les coins intérieurs des yeux était en moyenne 5.6% plus étroite.

À première vue, cette analyse semble suggérer que vues obsolètes que les criminels peuvent être identifiés par des attributs physiques ne sont pas entièrement faux. Cependant, ce n'est peut-être pas l'histoire complète. Il est intéressant que deux des caractéristiques les plus pertinentes sont liées aux lèvres, qui sont nos traits les plus expressifs du visage. Les photos d'identité telles que celles utilisées dans l'étude doivent avoir une expression faciale neutre, mais il se peut que l'IA ait réussi à trouver des émotions cachées dans ces photos. Ceux-ci peuvent être si mineures que les humains pourraient avoir lutté pour les remarquer.

Il est difficile de résister à la tentation de regarder les exemples de photos affichées dans le document, qui doit encore être revu par les pairs. En effet, un regard attentif révèle un léger sourire sur les photos des non-criminels - voir par vous-même. Mais seulement quelques exemples de photos sont disponibles, donc nous ne pouvons pas généraliser nos conclusions à l'ensemble de la base de données.

La puissance de l'informatique affective

Ce ne serait pas la première fois qu'un ordinateur était capable de reconnaître les émotions humaines. Le soi-disant domaine de "informatique affective"Existe depuis plusieurs années. On prétend que, pour vivre confortablement et interagir avec des robots, ces machines devraient être capables de comprendre et de réagir de manière appropriée aux émotions humaines. Il y a beaucoup de travail dans la région et les possibilités sont vastes.

Par exemple, les chercheurs ont utilisé l'analyse faciale pour repérer les étudiants en difficulté dans des séances de tutorat informatique. L'IA a été formée pour reconnaître différents niveaux d'engagement et de frustration, de sorte que le système puisse savoir quand les étudiants trouvaient le travail trop facile ou trop difficile. Cette technologie pourrait être utile pour améliorer l'expérience d'apprentissage sur les plateformes en ligne.

AI a également été utilisé pour détecter les émotions basées sur le son de notre voix par une compagnie appelée BeyondVerbal. Ils ont produit un logiciel qui analyse la modulation de la voix et cherche des modèles spécifiques dans la façon dont les gens parlent. La société prétend être capable d'identifier correctement les émotions avec une précision 80%. À l'avenir, ce type de technologie pourrait, par exemple, aider les personnes autistes à identifier leurs émotions.

Sony essaie même de développer un robot capable de former des liens émotionnels avec des gens. Il n'y a pas beaucoup d'informations sur la façon dont ils ont l'intention de réaliser cela, ou ce que fera exactement le robot. Cependant, ils mentionnent qu'ils cherchent à "intégrer du matériel et des services pour offrir des expériences émotionnelles attrayantes ».

Une intelligence émotionnelle intelligente a plusieurs avantages potentiels, que ce soit de donner un compagnon ou de nous aider à effectuer certaines tâches - allant de l'interrogatoire criminel à la thérapie par la parole.

Mais il y a aussi des problèmes éthiques et des risques impliqués. Est-il juste de laisser un patient atteint de démence s'appuyer sur un compagnon IA et croire qu'il a une vie émotionnelle quand ce n'est pas le cas? Et pouvez-vous condamner une personne basée sur une IA qui les classe comme coupables? Clairement non. Au lieu de cela, une fois qu'un système comme celui-ci est amélioré et entièrement évalué, une utilisation moins nuisible et potentiellement utile pourrait être de déclencher d'autres vérifications sur des individus considérés comme «suspects» par l'IA.

Alors, que devons-nous attendre de l'IA à l'avenir? Les sujets subjectifs tels que les émotions et le sentiment sont encore difficiles à apprendre pour l'IA, en partie parce que l'IA n'a pas forcément accès à suffisamment de bonnes données pour les analyser objectivement. Par exemple, AI pourrait-elle jamais comprendre le sarcasme? Une phrase donnée peut être sarcastique lorsqu'elle est prononcée dans un contexte mais pas dans un autre.

Pourtant, la quantité de données et de puissance de traitement continue de croître. Donc, à quelques exceptions près, l'IA pourrait bien être capable de faire correspondre les humains en reconnaissant différents types d'émotions dans les prochaines décennies. Mais si une IA pourrait jamais éprouver des émotions est un sujet controversé. Même s'ils le pouvaient, ils pourraient certainement avoir des émotions qu'ils ne pourraient jamais éprouver, ce qui les rendrait difficiles à vraiment les comprendre.

The Conversation

A propos de l'auteur

Leandro Minku, Maître de conférences en informatique, University of Leicester

Cet article a été publié initialement le The Conversation. Lis le article original.

Livres connexes:

at Marché InnerSelf et Amazon