La science de la façon dont nous sommes ancrés dans nos opinions

Enfin, une nouvelle année est arrivée après les mois les plus politiquement séparatifs de 12 depuis très longtemps. Au Royaume-Uni, le Brexit a brisé les rêves et les amitiés. Aux États-Unis, le polarisation était déjà énorme, mais une campagne électorale amère a rendu les divisions encore plus profondes. La rhétorique politique ne persuade pas uniformément. Il divise et polarise l'opinion publique.

En tant que citoyen, les divisions croissantes me troublent. En tant que neuroscientifique, cela m'intrigue. Comment est-il possible que les gens viennent pour tenir des vues si différentes de la réalité? Et que pouvons-nous faire (le cas échéant) pour sortir du cycle de sentiments de plus en plus hostiles vers des gens qui semblent être de «l'autre côté» de nous?

Pour comprendre comment fonctionne la psychologie, imaginez Amy et Betsy, deux partisans démocrates. Au début de la saison primaire présidentielle, aucun d'entre eux n'a une forte préférence. Ils aimeraient tous les deux une présidente, qui les attire vers Hillary Clinton, mais ils pensent aussi que Bernie Sanders serait mieux à même de s'attaquer aux inégalités économiques. Après une réflexion initiale, Amy décide de soutenir Clinton, tandis que Betsy choisit Sanders.

Leurs différences initiales d'opinion ont pu être assez petites, et leurs préférences faibles, mais quelques mois plus tard, ils sont tous deux devenus fermement convaincus que leur candidat est le bon. Leur soutien va plus loin que les mots: Amy a commencé à faire du porte-à-porte pour Clinton, tandis que Betsy écrit des articles soutenant la campagne de Sanders.

Comment leurs positions ont-elles changé si résolument? Entrer "dissonance cognitive”, Un terme inventé dans 1957 par Leon Festinger. Il est devenu un raccourci pour les incohérences que nous percevons dans les opinions des autres - mais rarement dans le nôtre.


graphique d'abonnement intérieur


Ce dont les gens sont moins conscients, c'est que la dissonance entraîne le changement d'opinion. Festinger a proposé que les incohérences que nous éprouvons dans nos croyances créent un malaise émotionnel qui agit comme une force pour réduire l'incohérence, en changeant nos croyances ou en en ajoutant de nouvelles.

Un choix peut également créer une dissonance, surtout s'il implique un compromis difficile. Ne pas choisir Sanders peut générer une dissonance pour Amy parce qu'elle est en désaccord avec sa conviction qu'il est important de s'attaquer aux inégalités, par exemple.

Ce choix et cet engagement envers l'option choisie conduisent à un changement d'opinion qui a été démontré dans de nombreuses expériences. Dans une étude récente, les gens ont évalué leurs destinations de vacances choisies plus haut qu'avant le choix. Étonnamment, ces changements étaient toujours en place trois ans plus tard.

Presque 60 années de recherche et des milliers d'expériences ont montré que la dissonance opère le plus fortement lorsque les événements affectent nos croyances fondamentales, en particulier les croyances que nous avons sur nous-mêmes en tant que personnes intelligentes, bonnes et compétentes.

Pyramide de choix

Mais comment pouvons-nous devenir si ancrés? Imaginez Amy et Betsy au sommet d'une pyramide au début de la campagne, où leurs préférences sont assez similaires. Leur décision initiale équivaut à un pas de chaque côté de la pyramide. Cela déclenche un cycle d'auto-justification pour réduire la dissonance ("J'ai fait le bon choix parce que ..."), d'autres actions (défendre sa décision à la famille, poster sur Facebook, devenir un volontaire de campagne), et plus -justification. En descendant leurs côtés de la pyramide, justifiant leur choix initial, leurs convictions deviennent plus fortes et leurs points de vue se séparent de plus en plus.

L'analogie de la pyramide provient d'erreurs commises (mais pas par moi) par Elliot Aronson et Carol Tavris. De www.rightbetween.com, Auteur fourniL'analogie de la pyramide vient de Des erreurs ont été commises (mais pas par moi) par Elliot Aronson et Carol Tavris. De www.rightbetween.com, Auteur fourni

Un durcissement similaire se produisit chez les républicains qui devinrent soit des partisans vocaux de Trump ou de #NeverTrump, et des électeurs auparavant indépendants lorsqu'ils s'engagèrent à Clinton ou à Trump. Il s'appliquait également aux militants de Remain and Leave au Royaume-Uni, bien que le choix qu'ils avaient à faire concernait une idée plutôt qu'un candidat.

Comme les électeurs de toutes les tendances descendent de chaque côté de la pyramide, ils tendent à aimer leur candidat préféré ou à en voir plus, et à développer une plus forte aversion pour l'adversaire. Ils cherchent également (et trouvent) plus de raisons de soutenir leur décision. Paradoxalement, cela signifie que chaque fois nous discutons de notre position avec les autres, nous pouvons devenir plus certains que nous avons raison.

La vue depuis le bas de la pyramide

Plus on descend, plus on devient enclin à biais de confirmation et de croire scandaleux, partisane et même fausses nouvelles - L'aversion que nous ressentons pour le camp adverse rend plus crédibles les histoires désobligeantes à leur sujet.

En effet, plus nous sommes certains de nos opinions, plus nous ressentons le besoin de dénigrer ceux qui se trouvent de l'autre côté de la pyramide. «Je suis une personne bonne et intelligente, et je n’ai aucune croyance fausse ni aucun acte blessant», poursuit notre raisonnement. "Si vous proclamez le contraire de ce que je crois, alors vous devez être égaré, ignorant, stupide, fou ou mal."

Ce n'est pas une coïncidence si les gens aux extrémités opposées d'un débat polarisé se jugent dans des termes similaires. Nos cerveaux sociaux nous prédisposent à cela. Les nourrissons de six mois peuvent déjà évaluer le comportement des autres, préférant "Gentil" sur "méchant" et "Similaire" sur "dissemblable".

Nous possédons également des processus cognitifs puissants et automatiques pour se protéger d'être trompé. Mais notre raisonnement social est trop sensible et facilement des ratés. Les médias sociaux aggravent les choses parce que la communication électronique rend plus difficile évaluer correctement la perspective et les intentions des autres. Cela nous rend aussi plus verbalement agressif que nous sommes en personne, alimentant notre perception que ceux de l'autre côté sont vraiment un groupe abusif.

L'analogie pyramidale est un outil utile pour comprendre comment les gens passent de convictions faibles à fortes sur un certain sujet ou candidat, et comment nos opinions peuvent diverger d'autres personnes qui ont eu une position similaire dans le passé.

Mais avoir de fortes convictions n'est pas nécessairement une mauvaise chose: après tout, elles inspirent aussi nos meilleures actions.

Ce qui aiderait à réduire la croissance antipathie et méfiance est de devenir plus méfiant de notre raisonnement par défaut stupide-fou-mal, les explications désobligeantes que nous croyons facilement au sujet des gens qui sont en désaccord avec nous sur des questions qui nous tiennent à cœur. Si nous gardons à l'esprit que - plutôt que d'être la «vérité» - ils peuvent être la réaction instinctive de notre cerveau social, nous pourrions nous tirer juste assez haut sur les pentes de la pyramide pour savoir d'où viennent nos désaccords. .

The Conversation

A propos de l'auteur

Kris De Meyer, chercheur en neurosciences, King 's College London

Cet article a été publié initialement le The Conversation. Lis le article original.

Livres connexes:

at Marché InnerSelf et Amazon