Le problème de Facebook est plus compliqué que de fausses nouvelles

démocratie

Le problème de Facebook est plus compliqué que de fausses nouvelles

Dans la foulée de la victoire inattendue de Donald Trump, de nombreux les questions ont été soulevées sur le rôle de Facebook dans la promotion d'informations inexactes et hautement partisanes pendant la course présidentielle et si cette fausse nouvelle a influencé le résultat de l'élection.

Quelques-uns ont minimisé L'impact de Facebook, y compris le PDG Mark Zuckerberg, qui a dit qu'il est "extrêmement improbable" cette fausse nouvelle aurait pu influencer l'élection. Mais les questions sur la signification politique du réseau social méritent plus qu'une attention passagère.

Faire de Facebook algorithmes de filtrage expliquer pourquoi tant de libéraux avaient égaré la confiance dans une victoire de Clinton (faisant écho à l'erreur commise par Les supporters de Romney dans 2012)? Et est les fausses nouvelles circulent sur Facebook la raison pour laquelle tant de partisans de Trump ont endossé des déclarations manifestement fausses faites par leur candidat?

L'affirmation populaire selon laquelle les "bulles filtrantes" sont la raison pour laquelle les fausses nouvelles prospèrent sur Facebook est presque certainement fausse. Si le réseau encourage les gens à croire les contre-vérités - et c'est un gros problème - le problème réside probablement dans la manière dont la plateforme interagit avec les tendances sociales de base. C'est beaucoup plus difficile à changer.

Un public mal informé

Le rôle de Facebook dans la diffusion des nouvelles politiques est indéniable. En mai 2016, 44 pour cent des Américains ont déclaré avoir reçu des nouvelles du site des médias sociaux. Et la prévalence de la désinformation diffusée par Facebook est indéniable.

Il est donc plausible que la quantité de fausses nouvelles sur une plate-forme où tant de gens reçoivent leurs nouvelles peut aider à expliquer pourquoi tant d'Américains sont mal informés sur la politique.

Mais il est difficile de dire à quel point c'est probable. J'ai commencé à étudier le rôle d'Internet dans la promotion des fausses croyances lors de l'élection de 2008, en portant mon attention sur les médias sociaux dans 2012. Dans la recherche en cours, j'ai trouvé peu de preuves cohérentes que l'utilisation des médias sociaux favorisait l'acceptation de fausses allégations sur les candidats, en dépit de la prévalence de nombreux mensonges. Au lieu de cela, il semble que dans 2012, comme dans 2008, e-mail a continué d'être un conduit unique puissante pour les mensonges et les théories du complot. Les médias sociaux n'ont aucun effet détectable fiable sur les croyances des gens.

Supposons un instant que 2016 soit différent de 2012 et 2008. (L'élection était certainement unique à bien d'autres égards.)

Si Facebook promeut une plate-forme dans laquelle les citoyens sont moins capables de discerner la vérité de la fiction, cela constituerait une menace sérieuse pour la démocratie américaine. Mais nommer le problème ne suffit pas. Pour lutter contre le flux de désinformation à travers les médias sociaux, il est important de comprendre pourquoi cela se produit.

Ne blâmez pas les bulles de filtre

Facebook veut que ses utilisateurs soient engagés, pas submergés, donc il utilise un logiciel propriétaire qui filtre les flux de nouvelles des utilisateurs et choisit le contenu qui apparaîtra. Le risque réside dans la façon dont cette couture est faite.

Il y a suffisamment de preuves que les gens sont attirés par les nouvelles qui affirment leur point de vue politique. Le logiciel de Facebook apprend des actions passées des utilisateurs; il essaie de deviner quelles histoires il est susceptible de cliquer ou de partager dans le futur. Pris à l'extrême, cela produit un bulle de filtre, dans lequel les utilisateurs sont exposés uniquement au contenu qui réaffirme leurs préjugés. Le risque, alors, est que les bulles de filtre favorisent les perceptions erronées en cachant la vérité.

L'attrait de cette explication est évident. C'est facile à comprendre, alors peut-être que ce sera facile à corriger. Débarrassez-vous des flux de nouvelles personnalisés, et les bulles de filtre ne sont plus.

Le problème avec la métaphore de la bulle de filtre est qu'elle suppose que les gens sont parfaitement isolés des autres points de vue. En réalité, nombreux études étaient montré les régimes médiatiques des individus contiennent presque toujours de l'information et des sources qui remettent en question leurs attitudes politiques. Et une étude des données de l'utilisateur Facebook trouvé que les rencontres avec des informations transversales sont très répandues. En d'autres termes, la détention de fausses croyances est peu susceptible d'être expliquée par manque de contact avec des nouvelles plus précises.

Au lieu de cela, les identités politiques préexistantes des gens profondément façonner leurs croyances. Donc, même face à la même information, que ce soit un nouvelles article ou Vérification des faits, les personnes ayant des orientations politiques différentes ont souvent une signification radicalement différente.

Une expérience de pensée peut aider: Si vous étiez un partisan de Clinton, étiez-vous conscient que le site de prédiction très respecté FiveThirtyEight a donné à Clinton seulement une chance de gagner 71 pour cent? Ces chances valent mieux qu'un retournement de monnaie, mais loin d'être une certitude. Je soupçonne que de nombreux démocrates ont été choqués en dépit de voir cette preuve inconfortable. Effectivement, beaucoup avaient critiqué cette projection dans les jours précédant les élections.

Si vous avez voté pour Trump, avez-vous déjà rencontré des preuves contestant l'affirmation de Trump selon laquelle la fraude électorale est monnaie courante aux États-Unis? Vérificateurs de faits et organisations de presse ont largement couvert cette question, offrant des preuves solides que l'allégation est fausse. Cependant, un partisan de Trump pourrait être indifférent: Dans un sondage 2016 de septembre, 90 pour cent des partisans de Trump ont déclaré qu'ils ne faisaient pas confiance aux vérificateurs de faits.

Facebook = partisans en colère?

Si l'isolement de la vérité est vraiment la principale source d'informations inexactes, la solution serait évidente: rendre la vérité plus visible.

Malheureusement, la réponse n'est pas si simple. Ce qui nous ramène à la question de Facebook: Y a-t-il d'autres aspects du service qui pourraient fausser les croyances des utilisateurs?

Il faudra un certain temps avant que les chercheurs puissent répondre à cette question avec confiance, mais en tant que quelqu'un qui a étudié comment les autres technologies Internet peuvent conduire les gens à croire de fausses informations, je suis prêt à offrir quelques suppositions éclairées.

Il y a deux choses que nous savons déjà sur Facebook qui pourraient encourager la propagation de fausses informations.

D'abord, les émotions sont contagieuses et peuvent se propager sur Facebook. Une étude à grande échelle a montré que de petits changements dans les flux de nouvelles des utilisateurs de Facebook peut façonner les émotions qu'ils expriment dans les messages ultérieurs. Dans cette étude, les changements émotionnels étaient minimes, mais les changements dans le fil de nouvelles les ont également provoqués. Imaginez comment les utilisateurs de Facebook réagissent aux accusations répandues de corruption, d'activité criminelle et de mensonges des candidats. Ce n'est pas surprenant que près de la moitié (49%) de tous les utilisateurs ont décrit la discussion politique sur les médias sociaux comme «en colère».

Quand il s'agit de politique, la colère est une émotion puissante. Il a été montré pour rendre les gens plus disposé à accepter des mensonges partisans et plus susceptibles de poster et de partager information politique, incluant vraisemblablement de faux articles de presse qui renforcent leurs croyances. Si l'utilisation de Facebook met en colère les partisans tout en les exposant à des faussetés partisanes, il est possible que la présence d'informations précises ne soit pas très importante. Républicain ou démocrate, les gens en colère font confiance à l'information qui rend leur partie belle.

Deuxièmement, Facebook semble renforcer l'identité politique des gens - favorisant un division partisane. Même si Facebook ne protège pas les gens contre les informations avec lesquelles ils ne sont pas d'accord, il est certainement plus facile de trouver d'autres personnes partageant les mêmes idées. Nos réseaux sociaux ont tendance à inclure beaucoup de personnes qui partagent nos valeurs et nos croyances. Et cela peut être une autre façon que Facebook renforce les mensonges politiquement motivés. Les croyances servent souvent une fonction sociale, aidant les gens à définir qui ils sont et comment ils s'intègrent dans le monde. Plus il est facile pour les gens de se voir en termes politiques, plus ils sont attachés aux croyances qui affirment cette identité.

Ces deux facteurs - la façon dont la colère peut se propager sur les réseaux sociaux de Facebook, et comment ces réseaux peuvent faire de l'identité politique des individus plus centrale - expliquent probablement les croyances inexactes des utilisateurs de Facebook plus efficacement que la soi-disant bulle filtrante.

Si cela est vrai, alors nous avons un sérieux défi devant nous. Facebook sera probablement convaincu de changer son algorithme de filtrage pour donner la priorité à des informations plus précises. Google a déjà entrepris une entreprise similaire. Et les rapports récents suggèrent que Facebook peut être prendre le problème plus au sérieux que les commentaires de Zuckerberg suggèrent.

Mais cela ne fait rien pour répondre aux forces sous-jacentes qui propagent et renforcent les fausses informations: les émotions et les personnes dans vos réseaux sociaux. Il n'est pas non plus évident que ces caractéristiques de Facebook puissent ou doivent être «corrigées». Un réseau social dépourvu d'émotion semble être une contradiction, et la police avec laquelle les individus interagissent n'est pas quelque chose que notre société devrait adopter.

Il se peut que Facebook partage certains de la faute de certains des mensonges qui ont circulé cette année électorale - et qu'ils ont changé le cours de l'élection.

Si c'est vrai, le défi sera de comprendre ce que nous pouvons faire à ce sujet.

La Conversation

A propos de l'auteur

R. Kelly Garrett, Professeur Associé de Communication, The Ohio State University

Cet article a été publié initialement le La Conversation. Lis le article original.

Livres connexes

{amazonWS: searchindex = Livres; mots-clés = fausses nouvelles; maxresults = 3}

démocratie
enafarzh-CNzh-TWtlfrdehiiditjamsptrues

suivez InnerSelf sur

google-plus-iconfacebook-icontwitter-iconrss-icon

Recevez le dernier par courriel

{Emailcloak = off}

suivez InnerSelf sur

google-plus-iconfacebook-icontwitter-iconrss-icon

Recevez le dernier par courriel

{Emailcloak = off}