La désinformation et les biais dans les médias sociaux, intentionnellement et accidentellementCaptures d'écran du jeu Fakey. Mihai Avram et Filippo Menczer

Les médias sociaux sont parmi les sources primaires de nouvelles aux États-Unis et à travers le monde. Pourtant, les utilisateurs sont exposés à un contenu d'une exactitude discutable, y compris les théories du complot, clickbait, contenu hyperpartisan, pseudo science et même des "fausses nouvelles" fabriquées.

Il n'est pas surprenant qu'il y ait tellement de désinformation publiée: Spam et fraude en ligne sont lucratifs pour les criminelset le rendement de la propagande gouvernementale et politique avantages partisans et financiers. Mais le fait que contenu à faible crédibilité se propage si rapidement et facilement suggère que les gens et les algorithmes derrière les plateformes de médias sociaux sont vulnérables à la manipulation.

Notre recherche a identifié trois types de biais qui rendent l'écosystème des médias sociaux vulnérable à la désinformation intentionnelle et accidentelle. C'est pourquoi notre Observatoire sur les médias sociaux à l'Université de l'Indiana est en construction les outils aider les gens à prendre conscience de ces préjugés et à se protéger des influences extérieures destinées à les exploiter.

Expliquer les outils développés à l'Observatoire des médias sociaux:


graphique d'abonnement intérieur


{youtube}https://youtu.be/BIv9054dBBI{/youtube}

Biais dans le cerveau

Les préjugés cognitifs proviennent de la façon dont le cerveau traite les informations que chaque personne rencontre chaque jour. Le cerveau ne peut traiter qu'une quantité limitée d'informations, et trop de stimuli entrants peuvent causer surcharge d'information. Cela a en soi de graves implications pour la qualité de l'information sur les médias sociaux. Nous avons constaté que la concurrence forte pour l'attention limitée des utilisateurs signifie que certaines idées deviennent virales malgré leur faible qualité - même lorsque les gens préfèrent partager du contenu de haute qualité.

Pour éviter d'être submergé, le cerveau utilise un nombre de tours. Ces méthodes sont généralement efficaces, mais peuvent aussi devenir des préjugés lorsqu'il est appliqué dans les mauvais contextes.

Un raccourci cognitif se produit lorsqu'une personne décide de partager une histoire apparaissant sur son flux de médias sociaux. Les gens sont très affecté par les connotations émotionnelles d'un titre, même si ce n'est pas un bon indicateur de l'exactitude d'un article. Beaucoup plus important est qui a écrit la pièce.

Pour contrer ce biais et aider les gens à accorder plus d'attention à la source d'une réclamation avant de la partager, nous avons développé Fakey, un jeu d'actualités mobile (gratuit sur Android ainsi que iOS) simulant un flux de nouvelles de médias sociaux typique, avec un mélange d'articles de nouvelles provenant de sources ordinaires et à faible crédibilité. Les joueurs obtiennent plus de points pour partager des nouvelles provenant de sources fiables et signaler des contenus suspects pour vérification des faits. Dans le processus, ils apprennent à reconnaître les signes de la crédibilité de la source, tels que les revendications hyperpartisan et les titres chargés d'émotion.

Biais dans la société

Une autre source de partialité vient de la société. Lorsque les gens se connectent directement avec leurs pairs, les préjugés sociaux qui guident leur sélection d'amis viennent influencer l'information qu'ils voient.

En fait, dans notre recherche, nous avons constaté qu'il est possible de déterminer les tendances politiques d'un utilisateur de Twitter en regardant simplement les préférences partisanes de leurs amis. Notre analyse de la structure de ces réseaux de communication partisans Les réseaux sociaux trouvés sont particulièrement efficaces pour diffuser des informations - exactes ou non - lorsque ils sont étroitement liés et déconnectés des autres parties de la société.

La tendance à évaluer l'information plus favorablement si elle vient de l'intérieur de leurs propres cercles sociaux crée "chambres d'écho"Qui sont mûrs pour la manipulation, consciemment ou involontairement. Cela aide à expliquer pourquoi tant de conversations en ligne se transforment en "Nous contre eux" confrontations.

Pour étudier comment la structure des réseaux sociaux en ligne rend les utilisateurs vulnérables à la désinformation, nous avons construit Hoaxy, un système qui suit et visualise la diffusion du contenu à partir de sources de faible crédibilité, et comment il est en concurrence avec le contenu de vérification des faits. Notre analyse des données recueillies par Hoaxy lors des élections présidentielles américaines de 2016 montre que les comptes Twitter qui partageaient la désinformation étaient presque complètement coupé à partir des corrections apportées par les vérificateurs de faits.

Lorsque nous avons analysé les comptes de répartition de la désinformation, nous avons trouvé un noyau de comptes très dense se retweetant presque exclusivement - y compris plusieurs robots. Les seules fois où les organisations de vérification des faits ont été citées ou mentionnées par les utilisateurs du groupe mal informé, c'était quand on remettait en question leur légitimité ou affirmait le contraire de ce qu'ils écrivaient.

Biais dans la machine

Le troisième groupe de biais provient directement des algorithmes utilisés pour déterminer ce que les gens voient en ligne. Les plateformes de médias sociaux et les moteurs de recherche les utilisent. Ces technologies de personnalisation sont conçues pour sélectionner uniquement le contenu le plus intéressant et pertinent pour chaque utilisateur. Mais, ce faisant, cela peut finir par renforcer les préjugés cognitifs et sociaux des utilisateurs, les rendant ainsi encore plus vulnérables à la manipulation.

Par exemple, le détail outils publicitaires intégrés dans de nombreuses plateformes de médias sociaux que les militants de la désinformation exploitent biais de confirmation by adapter les messages aux gens qui sont déjà enclins à les croire.

En outre, si un utilisateur clique souvent sur les liens Facebook d'une source d'information particulière, Facebook ont tendance à montrer à cette personne plus de contenu de ce site. Ce soi-disant "bulle de filtre"Effet peut isoler les gens de diverses perspectives, renforçant le biais de confirmation.

Notre propre recherche montre que les plateformes de médias sociaux exposent les utilisateurs à un ensemble de sources moins diversifiées que les sites de médias non-sociaux comme Wikipedia. Parce que c'est au niveau d'une plate-forme entière, pas d'un seul utilisateur, nous appelons cela le biais d'homogénéité.

Un autre ingrédient important des médias sociaux est l'information qui est tendance sur la plate-forme, en fonction de ce qui obtient le plus de clics. Nous appelons cela biais de popularité, parce que nous avons constaté qu'un algorithme conçu pour promouvoir le contenu populaire peut affecter négativement la qualité globale de l'information sur la plate-forme. Cela nourrit également les préjugés cognitifs existants, renforçant ce qui semble être populaire quelle que soit sa qualité.

Tous ces biais algorithmiques peuvent être manipulés par robots sociaux, les programmes informatiques qui interagissent avec les humains par le biais de comptes de médias sociaux. La plupart des robots sociaux, comme Twitter Big Ben, sont inoffensifs. Cependant, certains cachent leur vraie nature et sont utilisés pour des intentions malveillantes, telles que stimuler la désinformation ou faussement créer l'apparition d'un mouvement populaire, aussi appelé "astroturfing". Nous avons trouvé preuve de ce type de manipulation dans la perspective des élections à mi-mandat de 2010 aux États-Unis.

Pour étudier ces stratégies de manipulation, nous avons développé un outil de détection des robots sociaux appelé Botomètre. Botometer utilise l'apprentissage automatique pour détecter les comptes de bot, en inspectant des milliers de fonctionnalités différentes des comptes Twitter, comme le temps de ses messages, combien de fois il tweete, et les comptes qu'il suit et retweets. Ce n'est pas parfait, mais cela a révélé que 15 pour cent des comptes Twitter montrent des signes d'être des robots.

En utilisant Botometer en collaboration avec Hoaxy, nous avons analysé le noyau du réseau de désinformation au cours de la campagne présidentielle américaine 2016. Nous avons trouvé de nombreux robots exploitant à la fois les biais cognitifs, de confirmation et de popularité de leurs victimes et les biais algorithmiques de Twitter.

Ces robots sont en mesure de construire des bulles de filtre autour des utilisateurs vulnérables, les alimentant de fausses déclarations et de fausses informations. Tout d'abord, ils peuvent attirer l'attention des utilisateurs humains qui soutiennent un candidat particulier en tweetant les hashtags de ce candidat ou en mentionnant et en retweetant la personne. Ensuite, les bots peuvent amplifier les fausses revendications qui maculent les opposants en retweetant des articles provenant de sources à faible crédibilité qui correspondent à certains mots-clés. Cette activité permet également à l'algorithme de mettre en évidence pour les autres utilisateurs les fausses histoires partagées largement.

Comprendre les vulnérabilités complexes

Même si notre recherche, et d'autres, montre comment les individus, les institutions et même des sociétés entières peuvent être manipulées sur les médias sociaux, il y a beaucoup de questions gauche pour répondre. Il est particulièrement important de découvrir comment ces différents biais interagissent les uns avec les autres, créant potentiellement des vulnérabilités plus complexes.

The ConversationDes outils comme le nôtre offrent aux utilisateurs d'Internet plus d'informations sur la désinformation, et donc un certain degré de protection contre ses méfaits. Les solutions seront ne sera probablement pas seulement technologique, mais il y aura probablement des aspects techniques. Mais ils doivent prendre en compte les aspects cognitifs et sociaux du problème.

À propos des auteurs

Giovanni Luca Ciampaglia, chercheur scientifique adjoint, Indiana University Network Science Institute, Université de l'Indiana et Filippo Menczer, professeur d'informatique et d'informatique; Directeur du Centre de recherche sur les réseaux complexes et les systèmes, Université de l'Indiana

Cet article a été publié initialement le The Conversation. Lis le article original.

Livres connexes

at