3 façons Facebook pourrait réduire fausses nouvelles

Le public reçoit beaucoup de ses nouvelles et informations de Facebook. Certains d'entre eux sont faux. Cela présente un problème pour les utilisateurs du site et pour l'entreprise elle-même.

Le cofondateur et président de Facebook, Mark Zuckerberg, a déclaré que l'entreprise trouverait des moyens de résoudre le problème, bien qu'il n'ait pas reconnu sa gravité. Et sans ironie apparente, il a fait cette annonce dans un Après Facebook entouré - au moins pour certains spectateurs - par de fausses nouvelles.

D'autres entreprises à la pointe de la technologie avec un pouvoir similaire sur la façon dont le public s'informe, comme Google, ont travaillé dur au fil des ans pour rétrograder des informations de faible qualité dans leurs résultats de recherche. Mais Facebook n'a pas fait de démarches similaires pour aider les utilisateurs.

Que pourrait faire Facebook pour répondre à son obligation sociale de trier les faits de la fiction pour le 70 pour cent des internautes qui accède à Facebook? Si le site est de plus en plus l'endroit où les gens reçoivent leurs nouvelles, que pourrait faire l'entreprise sans prendre la responsabilité d'être un arbitre final de la vérité? Mon travail en tant que professeur d'études sur l'information suggère qu'il y a au moins trois options.

Le rôle de Facebook

Facebook dit que c'est un société de technologie, pas une entreprise de médias. Le motif principal de l'entreprise est le profit, plutôt qu'un objectif loftier comme produire de l'information de haute qualité pour aider le public à agir de façon compétente dans le monde.

Néanmoins, les messages sur le site, et les conversations environnantes en ligne et hors ligne, sont de plus en plus impliqué dans notre discours public et l'agenda politique de la nation. En conséquence, la société a l'obligation sociale d'utiliser sa technologie pour faire progresser le bien commun.


graphique d'abonnement intérieur


Cependant, discerner la vérité du mensonge peut être intimidant. Facebook n'est pas seul dans susciter des inquiétudes quant à sa capacité - et celle d'autres entreprises technologiques - pour juger de la qualité des nouvelles. Le directeur de FactCheck.org, un groupe de vérification des faits à but non lucratif basé à l'Université de Pennsylvanie, a déclaré à Bloomberg News que de nombreuses revendications et histoires ne sont pas entièrement fausses. Beaucoup ont noyaux de vérité, même si elles sont très faussement formulées. Alors, que peut vraiment faire Facebook?

Option 1: Nudging

Une option que Facebook pourrait adopter consiste à utiliser des listes existantes identifiant des données fiables et présélectionnées. faux-sites de nouvelles. Le site pourrait alors alerter ceux qui veulent partager un article gênant que sa source est discutable.

Un développeur, par exemple, a créé une extension pour le navigateur Chrome cela indique quand un site web vous regardez pourrait être faux. (Il l'appelle le "BS Detector".) Dans un hackathon 36-heure, un groupe d'étudiants créé une extension de navigateur Chrome similaire Indique si le site Web à partir duquel l'article provient figure sur une liste de sites fiables vérifiés ou s'il n'est pas vérifié.

Ces extensions présentent leurs alertes pendant que les utilisateurs font défiler leurs flux d'actualités. À l'heure actuelle, aucun de ces travaux directement dans le cadre de Facebook. Leur intégration offrirait une expérience plus transparente et rendrait le service accessible à tous les utilisateurs de Facebook, au-delà de ceux qui ont installé l'une des extensions sur leur propre ordinateur.

L'entreprise peut également utiliser les informations générées par les extensions (ou leur source) pour avertir les utilisateurs avant qu'ils ne partagent des informations non fiables. Dans le monde de la conception de logiciels, ceci est connu comme un "pousser du coude. "Le système d'alerte surveille le comportement de l'utilisateur et avertit les utilisateurs ou leur donne des commentaires pour les aider à modifier leurs actions lors de l'utilisation du logiciel.

Cela a déjà été fait à d'autres fins. Par exemple, mes collègues ici à l'Université de Syracuse construit une application de nudging qui surveille ce que les utilisateurs de Facebook écrivent dans un nouveau message. Il affiche une notification si le contenu qu'ils écrivent est quelque chose qu'ils pourraient regretter, comme un message en colère avec des mots grossiers.

La beauté des nudges est la façon douce mais efficace dont ils rappellent aux gens leur comportement pour les aider à changer ce comportement. Des études qui ont testé l'utilisation des nudges pour améliorer le comportement sainPar exemple, vous constaterez que les gens sont plus susceptibles de changer leur régime alimentaire et de faire de l'exercice en se basant sur de légers rappels et recommandations. Les nudges peuvent être efficaces car ils permettent aux gens de contrôler tout en leur donnant des informations utiles. En fin de compte, le destinataire du nudge décide quand même d'utiliser les commentaires fournis. Les nudges ne se sentent pas coercitifs; Au lieu de cela, ils sont potentiellement habilitant.

Option 2: Crowdsourcing

Facebook pourrait également utiliser le pouvoir du crowdsourcing pour aider à évaluer les sources de nouvelles et indiquer quand les nouvelles qui ont été partagées ont été évaluées et évaluées. Un défi important avec les fausses nouvelles est qu'il joue à la façon dont nos cerveaux sont câblés. Nous avons des raccourcis mentaux, appelés biais cognitifs, qui nous aident à prendre des décisions lorsque nous n'avons pas assez d'informations (nous ne le faisons jamais), ou tout à fait assez de temps (nous ne le faisons jamais). En règle générale, ces raccourcis fonctionnent bien pour nous, car nous prenons des décisions sur tout, de quelle route à conduire pour travailler à quelle voiture pour acheter Mais, de temps en temps, ils nous échouent. Tomber pour de fausses nouvelles est l'un de ces exemples.

Cela peut arriver à n'importe qui - même moi. Pendant la saison primaire, je suivais un hashtag Twitter sur lequel le candidat principal de l'époque, Donald Trump, a tweeté. Un message est apparu que j'ai trouvé choquant. Je l'ai retweeté avec un commentaire se moquant de son caractère offensant. Un jour plus tard, je me suis rendu compte que le tweet provenait d'un compte de parodie qui semblait identique au pseudonyme Twitter de Trump, mais avait une lettre modifiée.

Je l'ai manqué parce que j'étais tombé pour biais de confirmation - la tendance à négliger certaines informations parce qu'elles vont à l'encontre de mes attentes, de mes prédictions ou de mes intuitions. Dans ce cas, je n'avais pas tenu compte de cette petite voix qui me disait que ce tweet était un peu exagéré pour Trump, parce que je croyais qu'il était capable de produire des messages encore plus inappropriés. Les fausses nouvelles nous attaquent de la même manière.

Un autre problème avec de fausses nouvelles est qu'il peut voyager beaucoup plus loin que n'importe quelle correction qui pourrait venir après. Ceci est similaire aux défis auxquels les salles de rédaction ont toujours été confrontées lorsqu'elles ont signalé des informations erronées. Bien qu'ils publient des corrections, souvent les personnes initialement exposées à la désinformation ne voient jamais la mise à jour, et donc ne savent pas ce qu'ils lisent plus tôt est faux. De plus, les gens ont tendance à conserver les premières informations qu'ils rencontrent; les corrections peuvent même se retourner en répétant de fausses informations et en renforçant l'erreur dans l'esprit des lecteurs.

Si les gens évaluaient l'information en la lisant et partageaient ces évaluations, les scores de vérité, comme les coups de pouce, pourraient faire partie de l'application Facebook. Cela pourrait aider les utilisateurs à décider eux-mêmes s'ils doivent lire, partager ou simplement ignorer. Un défi avec le crowdsourcing est que les gens peuvent jouer ces systèmes pour essayer de conduire des résultats biaisés. Mais, la beauté du crowdsourcing est que la foule peut également évaluer les évaluateurs, comme cela se produit sur Reddit ou avec les critiques d'Amazon, pour réduire les effets et le poids des fauteurs de troubles.

Option 3: Algorithmic social distance

La troisième façon que Facebook pourrait aider serait de réduire le biais algorithmique qui existe actuellement dans Facebook. Le site affiche principalement les messages de ceux avec qui vous vous êtes engagé sur Facebook. En d'autres termes, l'algorithme de Facebook crée ce que certains ont appelé un bulle de filtre, un phénomène d'actualité en ligne qui a chercheurs concernés depuis des décennies maintenant. Si vous êtes exposé uniquement à des personnes ayant des idées semblables aux vôtres, cela polarisation politiqueLes libéraux deviennent encore plus extrêmes dans leur libéralisme et les conservateurs deviennent plus conservateurs.

La bulle de filtre crée une «chambre d'écho», où des idées similaires rebondissent indéfiniment, mais de nouvelles informations a du mal à trouver son chemin dans. C'est un problème lorsque la chambre d'écho bloque les informations de correction ou de vérification des faits.

Si Facebook devait ouvrir plus de nouvelles à venir dans le fil d'actualité d'une personne à partir d'un ensemble aléatoire de personnes dans leur réseau social, cela augmenterait les chances que de nouvelles informations, des informations alternatives et des informations contradictoires circuleraient dans ce réseau. Le nombre moyen de amis sur le réseau d'un utilisateur Facebook est 338. Bien que beaucoup d'entre nous aient des amis et des membres de la famille qui partagent nos valeurs et nos croyances, nous avons aussi des connaissances et des étrangers qui font partie de notre réseau Facebook et qui ont des points de vue diamétralement opposés. Si les algorithmes de Facebook apportaient plus de ces vues dans nos réseaux, la bulle de filtre serait plus poreuse.

Toutes ces options sont bien dans les capacités des ingénieurs et des chercheurs de Facebook. Ils permettent aux utilisateurs de prendre de meilleures décisions concernant les informations qu'ils choisissent de lire et de partager avec leurs réseaux sociaux. En tant que plate-forme de diffusion de l'information et générateur de culture sociale et politique à travers le dialogue et le partage d'informations, Facebook n'a pas besoin d'être l'arbitre ultime de la vérité. Mais il peut utiliser la puissance de ses réseaux sociaux pour aider les utilisateurs à évaluer la valeur des objets dans le flux de contenu auquel ils sont confrontés.

The Conversation

A propos de l'auteur

Jennifer Stromer-Galley, professeur d'études de l'information, Université de Syracuse

Cet article a été publié initialement le The Conversation. Lis le article original.

Livres connexes:

at Marché InnerSelf et Amazon