AI peut prédire si votre relation durera en fonction de la façon dont vous parlez à votre partenaire

AI peut prédire si votre relation durera en fonction de la façon dont vous parlez à votre partenaire

Tout enfant (ou conjoint) qui a été grondé pour son ton de voix - comme crier ou être sarcastique - sait que le manière vous parlez à quelqu'un peut être tout aussi important que le paroles que vous utilisez. Les artistes et les acteurs de la voix en font un bon usage - ils sont capables de donner un sens à leur façon de parler, parfois beaucoup plus que ce que les mots seuls méritent.

Mais à quel point l'information est-elle véhiculée dans le ton de notre voix et dans les modes de conversation, et comment cela influence-t-il nos relations avec les autres? Les systèmes informatiques peuvent déjà établir qui sont les gens de leurs voix, alors pourraient-ils nous dire quelque chose sur notre vie amoureuse? Étonnamment, il semble que ça.

Nouvelle recherche, vient de paraître dans la revue PLOS-ONE, a analysé les caractéristiques vocales des couples 134 en cours de traitement. Des chercheurs de l'Université de Californie du Sud ont utilisé des ordinateurs pour extraire des caractéristiques d'analyse de la parole standard à partir d'enregistrements de participants à des sessions de thérapie sur deux ans. Les caractéristiques - y compris pas, variation de hauteur et d'intonation - tous se rapportent à des aspects de la voix comme le ton et l'intensité.

Un algorithme d'apprentissage automatique a ensuite été formé pour apprendre une relation entre ces caractéristiques vocales et le résultat final de la thérapie. Ce n'était pas aussi simple que de détecter des cris ou des voix élevées - cela incluait le jeu de la conversation, qui parlait quand et pour combien de temps aussi bien que le son des voix. Il s'est avéré que le fait de ne pas tenir compte de ce qui se disait et de ne tenir compte que de ces modes de parler suffisait à prédire si les couples resteraient ensemble. C'était purement axé sur les données, donc il n'a pas lié les résultats à des attributs vocaux spécifiques.

Comment un ton de voix peut changer la signification de quelques mots.

Fait intéressant, les enregistrements vidéo complets de la séance de thérapie ont ensuite été donnés à des experts pour classer. Contrairement à l'IA, ils ont fait leurs prédictions en utilisant une évaluation psychologique basée sur les attributs vocaux (et autres) - y compris les mots parlés et le langage corporel. Étonnamment, leur prédiction du résultat final (ils étaient corrects dans 75.6% des cas) était inférieure aux prédictions faites par l'IA basée uniquement sur les caractéristiques vocales (79.3%). Il est clair qu'il y a des éléments codés dans la façon dont nous parlons dont même les experts ne sont pas conscients. Mais les meilleurs résultats ont été obtenus en combinant l'évaluation automatisée avec l'évaluation des experts (79.6% correct).


Obtenez les dernières nouvelles d'InnerSelf


La signification de ceci n'est pas tellement d'impliquer l'IA dans le conseil matrimonial ou d'amener les couples à parler plus gentiment les uns aux autres (aussi méritoires que cela puisse être). La signification révèle combien d'informations sur nos sentiments sous-jacents sont codées dans la façon dont nous parlons - certaines d'entre elles nous sont complètement inconnues.

Les mots écrits sur une page ou un écran ont des significations lexicales dérivées de leurs définitions de dictionnaire. Ceux-ci sont modifiés par le contexte des mots environnants. Il peut y avoir une grande complexité dans l'écriture. Mais quand les mots sont lus à haute voix, il est vrai qu'ils prennent des significations additionnelles qui sont véhiculées par le stress de mot, le volume, le taux de voix et le ton de la voix. Dans une conversation typique, il y a aussi un sens à la durée de chaque intervenant et à la rapidité avec laquelle l'un ou l'autre peut intervenir.

Considérez la question simple "Qui êtes-vous?". Essayez de parler cela avec un stress sur des mots différents; "Qui sont Qui vous?", "Qui sont toi et "Nombre de personnes es-tu?". Écoutez ces - la signification sémantique peut changer avec la façon dont nous lisons même lorsque les mots restent les mêmes.

Des ordinateurs qui lisent des «sens qui fuient»?

Il n'est pas surprenant que les mots transmettent des significations différentes selon la façon dont ils sont parlés. Il n'est également pas surprenant que les ordinateurs puissent interpréter une partie de la signification derrière la façon dont nous choisissons de parler (peut-être un jour, ils seront même en mesure de comprendre l'ironie).

Mais cette recherche va plus loin que le simple regard sur la signification d'une phrase. Il semble révéler les attitudes sous-jacentes et les pensées qui se cachent derrière les phrases. C'est un niveau de compréhension beaucoup plus profond.

Les participants à la thérapie ne lisaient pas les mots comme des acteurs. Ils parlaient juste naturellement - ou aussi naturellement qu'ils pouvaient dans le bureau d'un thérapeute. Et pourtant, l'analyse a révélé des informations sur leurs sentiments mutuels qu'ils «fuyaient» par inadvertance dans leur discours. Cela peut être l'une des premières étapes de l'utilisation des ordinateurs pour déterminer ce que nous pensons ou ressentons réellement. Imaginez un instant que vous conversiez avec de futurs smartphones - allons-nous «divulguer» des informations qu'ils peuvent récupérer? Comment vont-ils répondre?

Pourraient-ils nous conseiller sur les partenaires potentiels en nous écoutant parler ensemble? Pourraient-ils détecter une propension à un comportement antisocial, à la violence, à la dépression ou à d'autres conditions? Ce ne serait pas un saut d'imagination pour imaginer le dispositifs eux-mêmes en tant que futurs thérapeutes - interagir avec nous de différentes manières pour suivre l'efficacité des interventions qu'ils fournissent.

Ne vous inquiétez pas pour le moment car nous sommes à des années d'un tel avenir, mais cela soulève les questions de confidentialité, d'autant plus que nous interagissons plus profondément avec les ordinateurs en même temps qu'ils deviennent plus puissants pour analyser le monde qui les entoure.

La ConversationQuand nous nous arrêtons aussi pour considérer les autres sens humains en dehors du son (parole); peut-être avons-nous aussi des fuites d'informations à travers la vue (comme le langage corporel, le rougissement), le toucher (température et mouvement) ou même l'odorat (phéromones). Si les appareils intelligents peuvent apprendre tant en écoutant comment on parle, on se demande combien plus pourraient-ils glaner des autres sens.

A propos de l'auteur

Ian McLoughlin, professeur d'informatique, directeur de l'école (Medway), Université du Kent

Cet article a été publié initialement le La Conversation. Lis le article original.

Livres connexes:

{amazonWS: searchindex = Livres; mots-clés = relations fructueuses; maxresults = 3}