La technologie peut-elle nous sauver de la désinformation sur les médias sociaux?

Si vous recevez vos nouvelles des médias sociaux, comme la plupart des Américains font, vous êtes exposé à une dose quotidienne de canulars, de rumeurs, de théories du complot et de nouvelles trompeuses. Quand tout cela est mélangé avec des informations fiables provenant de sources honnêtes, la vérité peut être très difficile à discerner.

En fait, l'analyse de mon équipe de recherche de données de l'Université de Columbia Émergent rumeur tracker suggère que cette la désinformation est tout aussi susceptible d'aller virale comme une information fiable.

Beaucoup demandent si cet assaut de la désinformation numérique affecté le résultat de l'élection américaine 2016. La vérité est que nous ne savons pas, bien qu'il y ait des raisons de croire qu'il est tout à fait possible, basé sur analyse passée et comptes d'autres pays. Chaque fragment de désinformation contribue à façonner nos opinions. Dans l'ensemble, le préjudice peut être très réel.

En tant que chercheur sur la propagation de la désinformation à travers les médias sociaux, je sais que limiter la capacité des fakers de nouvelles à vendre des annonces, comme l'a récemment annoncé Google et Facebook, est un pas dans la bonne direction. Mais cela ne limitera pas les abus motivés par des motivations politiques.

Exploiter les médias sociaux

À propos de 10 il y a des années, mes collègues et moi avons dirigé expérience dans lequel nous avons appris 72 pour cent des étudiants de confiance des liens de confiance qui semblaient provenir d'amis - même au point d'entrer des informations de connexion personnelles sur les sites de phishing. Cette vulnérabilité généralisée suggérait une autre forme de manipulation malveillante: les gens pourraient aussi croire que la désinformation qu'ils reçoivent en cliquant sur un lien d'un contact social.

Pour explorer cette idée, j'ai créé un fausse page web avec des nouvelles de ragots générées par ordinateur - des choses comme «Celebrity X attrapé au lit avec Celebrity Y!" Les visiteurs du site qui ont cherché un nom déclencherait le script pour fabriquer automatiquement une histoire sur la personne. J'ai inclus sur le site une clause de non-responsabilité, disant que le site contenait du texte dénué de sens et des «faits» inventés. J'ai également placé des publicités sur la page. À la fin du mois, j'ai reçu un chèque dans le courrier avec les revenus des publicités. C'était ma preuve: de fausses nouvelles pourraient faire de l'argent en polluant Internet avec des mensonges.


graphique d'abonnement intérieur


Malheureusement, je n'étais pas le seul à avoir cette idée. Dix ans plus tard, nous avons industrie de fausses nouvelles et désinformation numérique. Les sites Clickbait fabriquent des canulars pour gagner de l'argent à partir de publicités, tandis que les sites soi-disant hyperpartisants publient et propagent des rumeurs et des théories du complot pour influencer l'opinion publique.

Cette industrie est renforcée par la facilité de création robots sociaux, de faux comptes contrôlés par des logiciels qui ressemblent à de vraies personnes et peuvent donc avoir une réelle influence. Recherche dans mon laboratoire découvert de nombreux exemples de fausses campagnes de base, aussi appelé astroturf politique.

En réponse, nous avons développé BotOrNot outil pour détecter les robots sociaux. Ce n'est pas parfait, mais Assez précis pour découvrir des campagnes de persuasion dans les mouvements Brexit et antivax. En utilisant BotOrNot, nos collègues ont constaté qu'un grande partie du bavardage en ligne sur les élections 2016 a été généré par des bots.

Créer des bulles d'information

Nous, humains, sommes vulnérables à la manipulation par désinformation numérique grâce à un ensemble complexe de biais sociaux, cognitifs, économiques et algorithmiques. Certains d'entre eux ont évolué pour de bonnes raisons: faire confiance aux signaux de nos cercles sociaux et rejeter des informations qui contredisent notre expérience nous ont bien servi lorsque notre espèce s'est adaptée pour échapper aux prédateurs. Mais dans les réseaux en ligne rétrécissant aujourd'hui, une connexion de réseau social avec un théoricien de la conspiration de l'autre côté de la planète ne contribue pas à informer mes opinions.

Copier nos amis et laisser tomber ceux qui ont des opinions différentes nous donne des chambres d'écho afin polarisée que les chercheurs peuvent dire avec une grande précision si vous êtes libéral ou conservateur en regardant simplement vos amis. La structure du réseau est si dense que toute fausse information se propage presque instantanément dans un groupe, et qu'elle est si ségrégée qu'elle n'atteint pas l'autre.

À l'intérieur de notre bulle, nous sommes sélectivement exposés à des informations alignées avec nos croyances. C'est un scénario idéal pour maximiser l'engagement, mais nuisible au développement d'un scepticisme sain. Le biais de confirmation nous amène à partager un titre sans même lire l'article.

Notre laboratoire a eu une leçon personnelle lorsque notre propre projet de recherche a fait l'objet d'un campagne de désinformation vicieux dans la perspective des élections à mi-mandat de 2014 aux États-Unis. Lorsque nous avons enquêté sur ce qui se passait, nous avons trouvé de fausses nouvelles sur le fait que notre recherche était principalement partagée par les utilisateurs de Twitter dans une chambre d'écho partisane, une communauté vaste et homogène d'utilisateurs politiquement actifs. Ces gens ont été rapides à retweeter et imperméables à l'information de démystification.

Inévitabilité virale

Notre recherche montre qu'étant donné la structure de nos réseaux sociaux et notre attention limitée, il est inévitable que certains mèmes deviendra virale, indépendamment de leur qualité. Même si les individus ont tendance à partager des informations de meilleure qualité, le réseau dans son ensemble n'est pas efficace pour distinguer entre des informations fiables et fabriquées. Cela aide à expliquer tous les canulars viraux que nous observons dans la nature.

La économie d'attention prend soin du reste: Si nous prêtons attention à un certain sujet, plus d'informations sur ce sujet seront produites. Il est moins coûteux de fabriquer de l'information et de la faire passer pour un fait que de dire la vérité. Et la fabrication peut être adaptée à chaque groupe: les conservateurs lisent que le pape a endossé Trump, les libéraux ont lu qu'il approuvait Clinton. Il n'a fait ni.

Beholden aux algorithmes

Puisque nous ne pouvons pas faire attention à tous les messages de nos flux, les algorithmes déterminent ce que nous voyons et ce que nous ne voyons pas. Les algorithmes utilisés par les plateformes de médias sociaux sont conçus pour prioriser les messages attrayants - ceux sur lesquels nous sommes susceptibles de cliquer, de réagir et de partager. Mais une analyse récente a trouvé intentionnellement des pages trompeuses obtenu au moins autant de partage en ligne et la réaction comme de vraies nouvelles.

Ce biais algorithmique vers l'engagement sur la vérité renforce nos biais sociaux et cognitifs. En conséquence, lorsque nous suivons des liens partagés sur les médias sociaux, nous avons tendance à visiter un plus petit, plus homogène ensemble de sources que lorsque nous menons une recherche et visiter les meilleurs résultats.

Les recherches existantes montrent qu'être dans une chambre d'écho peut rendre les gens plus crédule d'accepter des rumeurs non vérifiées. Mais nous devons en savoir beaucoup plus sur la façon dont différentes personnes réagissent à un seul canular: certains le partagent tout de suite, d'autres le vérifient d'abord.

Nous sommes simuler un réseau social étudier cette compétition entre partage et vérification des faits. Nous espérons aider à démêler des preuves contradictoires sur quand la vérification des faits aide à arrêter les canulars de répandre et quand ce n'est pas le cas. Nos résultats préliminaires suggèrent que plus la communauté de croyants est ségréguée, plus le canular survit longtemps. Encore une fois, il ne s'agit pas seulement du canular lui-même, mais aussi du réseau.

Beaucoup de gens essaient de comprendre que faire à propos de tout cela. Selon le dernier Mark Zuckerberg annonceLes équipes Facebook testent des options potentielles. Et un groupe d'étudiants a proposé un moyen de simplement étiquette les liens partagés comme "vérifié" ou non.

Certaines solutions restent hors de portée, au moins pour le moment. Par exemple, nous ne pouvons pas encore enseigner aux systèmes d'intelligence artificielle comment discerner entre la vérité et le mensonge. Mais nous pouvons dire aux algorithmes de classement de donner une priorité plus élevée à des sources plus fiables.

Étudier la propagation de fausses nouvelles

Nous pouvons rendre notre lutte contre les fausses nouvelles plus efficace si nous comprenons mieux comment les mauvaises informations se propagent. Si, par exemple, les bots sont responsables de beaucoup de faussetés, nous pouvons nous concentrer sur leur détection. Si, alternativement, le problème est avec des chambres d'écho, nous pourrions peut-être concevoir des systèmes de recommandation qui n'excluent pas des vues différentes.

À cette fin, notre laboratoire construit une plate-forme appelée Hoaxy suivre et visualiser la propagation des revendications non vérifiées et la vérification des faits correspondante sur les médias sociaux. Cela nous donnera des données réelles, avec lesquelles nous pouvons informer nos réseaux sociaux simulés. Ensuite, nous pouvons tester les approches possibles pour lutter contre les fausses nouvelles.

Hoaxy peut également montrer aux gens à quel point il est facile pour leurs opinions d'être manipulées par des informations en ligne - et même à quel point certains d'entre nous sont susceptibles de partager des faussetés en ligne. Hoaxy rejoindra une suite d'outils dans notre Observatoire sur les médias sociaux, ce qui permet à tous de voir comment les mèmes se propagent sur Twitter. Lier des outils comme ceux-ci aux vérificateurs de faits humains et aux plateformes de médias sociaux pourrait faciliter la réduction des chevauchements support L'un et l'autre.

Il est impératif que nous investissions des ressources dans l'étude de ce phénomène. Nous avons besoin de tout le monde: les informaticiens, les spécialistes des sciences sociales, les économistes, les journalistes et les partenaires de l'industrie doivent: travailler ensemble tenir ferme contre la propagation de la désinformation.

The Conversation

A propos de l'auteur

Filippo Menczer, professeur d'informatique et d'informatique; Directeur du Centre de recherche sur les réseaux complexes et les systèmes, Université de l'Indiana, Bloomington

Cet article a été publié initialement le The Conversation. Lis le article original.

Livres connexes:

at Marché InnerSelf et Amazon