Comment n'importe qui, même vous, pourrait devenir un troll Internet

Par définition, les trolls Internet sont perturbateurs, combatifs et souvent désagréables avec leurs messages en ligne offensants ou provocateurs conçus pour déranger et déranger.

L'hypothèse commune est que les gens qui traînent sont différents du reste d'entre nous, nous donnant la liberté de les rejeter et leur comportement. Mais une nouvelle étude suggère le contraire - dans les bonnes circonstances, n'importe qui peut devenir un troll.

"Nous voulions comprendre pourquoi la pêche à la traîne est si répandue aujourd'hui", explique Justin Cheng, chercheur en informatique à l'université de Stanford et auteur principal du nouveau journal. "Alors que la connaissance commune est que les trolls sont des individus particulièrement sociopathes qui apparaissent occasionnellement dans les conversations, est-ce vraiment juste ces gens qui traînent les autres?"

Mauvaises humeurs

Le comportement de pêche à la traîne est-il une caractéristique innée ou des facteurs situationnels peuvent-ils influencer les gens à agir comme des trolls? Pour le savoir, les chercheurs ont utilisé une combinaison d'expérimentation, d'analyse de données et d'apprentissage automatique - et ont abordé certains facteurs simples qui rendent la personne moyenne plus susceptible de troller.

Suite à des recherches antérieures sur le comportement antisocial, les chercheurs ont décidé de se concentrer sur la façon dont l'humeur et le contexte affectent ce que les gens écrivent sur un forum de discussion. Ils ont mis en place une expérience en deux parties avec des sujets 667 recrutés à travers une plateforme de crowdsourcing.

Dans la première partie de l'expérience, les participants ont reçu un test, soit très facile, soit très difficile. Après avoir passé les tests, tous les sujets ont rempli un questionnaire qui évaluait diverses facettes de leur humeur, y compris la colère, la fatigue, la dépression et la tension. Comme prévu, les personnes qui ont passé le test difficile étaient dans une humeur pire que ceux qui ont eu le test facile.


graphique d'abonnement intérieur


Tous les participants ont ensuite reçu l'ordre de lire un article et de s'engager dans sa section de commentaires. Ils devaient laisser au moins un commentaire, mais pouvaient laisser plusieurs commentaires et votes positifs et négatifs et pouvaient répondre à d'autres commentaires. Tous les participants ont vu le même article sur la même plate-forme, créé uniquement pour l'expérience, mais certains participants ont reçu un forum avec trois messages trolls en haut de la section des commentaires. D'autres ont vu trois postes neutres.

Deux experts indépendants ont évalué si les posts laissés par les sujets qualifiés de traîne, définis généralement dans cette recherche par une combinaison de lignes directrices d'affichage prises à partir de plusieurs forums de discussion. Par exemple, les attaques personnelles et la malédiction étaient indicatives des messages troll.

À propos de 35% des personnes qui ont terminé le test facile et qui ont vu des posts neutres ont ensuite publié leurs propres commentaires. Ce pourcentage a grimpé à 50% si le sujet a soit pris le test difficile, soit vu des commentaires à la traîne. Les personnes exposées à la fois au test difficile et aux poteaux trolls ont traîné environ 68 pour cent du temps.

Pour relier ces idées expérimentales au monde réel, les chercheurs ont également analysé les données anonymisées de la section des commentaires de CNN à travers 2012. Les données comprenaient les utilisateurs 1,158,947, les discussions 200,576 et les messages 26,552,104, ainsi que les utilisateurs bannis et les messages supprimés par les modérateurs. Dans cette partie de la recherche, l'équipe a défini les postes de troll comme ceux qui ont été signalés par les membres de la communauté pour abus.

'Spirale de la négativité'

Il n'a pas été possible d'évaluer directement l'humeur des commentateurs, mais les chercheurs ont examiné l'horodatage des messages, car des recherches antérieures ont montré que l'heure et le jour de la semaine correspondent à l'humeur. Les incidents de déclassement et les postes signalés se sont alignés étroitement sur les tendances établies de l'humeur négative. De tels incidents ont tendance à augmenter tard dans la nuit et au début de la semaine, ce qui est également le cas lorsque les gens sont les plus susceptibles d'être de mauvaise humeur.

Les chercheurs ont étudié plus avant les effets de l'humeur et ont constaté que les gens étaient plus susceptibles de produire un poste marqué s'ils avaient été récemment signalés ou s'ils avaient pris part à une discussion distincte qui incluait simplement des messages signalés par d'autres. Ces résultats sont restés vrais quel que soit l'article associé à la discussion.

«C'est une spirale de la négativité», explique Jure Leskovec, professeur agrégé d'informatique et auteur principal du document. "Une seule personne qui se réveille grincheuse peut créer une étincelle et, à cause du contexte de discussion et du vote, ces étincelles peuvent se transformer en cascades de mauvais comportements. Les mauvaises conversations conduisent à de mauvaises conversations. Les gens qui descendent voté reviennent plus, commenter davantage, et commenter encore pire. "

Prédire les messages marqués

Comme dernière étape de leur recherche, l'équipe a créé un algorithme d'apprentissage automatique chargé de prédire si le prochain article écrit par un auteur serait marqué.

Les informations fournies à l'algorithme comprenaient l'horodatage du dernier message de l'auteur, si le dernier message avait été marqué, si le post précédent dans la discussion avait été marqué, l'historique général de l'écriture des messages marqués et l'identifiant anonyme de l'auteur. .

Les résultats ont montré que le statut de drapeau du post précédent dans la discussion était le prédicteur le plus fort de savoir si le prochain poste serait marqué. Les caractéristiques liées à l'humeur, telles que le timing et le signalement précédent du commentateur, étaient beaucoup moins prédictives. L'historique de l'utilisateur et l'identifiant de l'utilisateur, bien que quelque peu prédictif, restaient significativement moins informatifs que le contexte de discussion. Cela implique que, même si certaines personnes peuvent être constamment plus enclines à la pêche à la traîne, le contexte dans lequel nous publions est plus susceptible de mener à la pêche à la traîne.

Les interdictions de l'ombre et les périodes de refroidissement?

Entre la vraie vie, l'analyse de données à grande échelle, l'expérience et la tâche prédictive, les résultats étaient forts et cohérents. Les chercheurs suggèrent que le contexte et l'humeur de la conversation peuvent mener à la pêche à la traîne. Ils croient que cela pourrait informer la création de meilleurs espaces de discussion en ligne.

Selon Cristian Danescu-Niculescu-Mizil, professeur adjoint de sciences de l'information à l'Université Cornell et coauteur de l'article, «comprendre ce qui fait que quelqu'un se comporte antisociologiquement est essentiel si nous voulons améliorer la qualité des discussions en ligne». "Un aperçu des mécanismes causaux sous-jacents pourrait éclairer la conception de systèmes qui encouragent une discussion en ligne plus civile et pourrait aider les modérateurs à atténuer la pêche à la traîne plus efficacement."

Les interventions visant à empêcher la pêche à la traîne pourraient inclure des forums de discussion qui recommandent une période de réflexion aux commentateurs qui viennent juste d'afficher un message, des systèmes qui alertent automatiquement les modérateurs d'un message susceptible d'être un message troll. des utilisateurs non-trolls sans avertir le troll.

Les chercheurs croient que des études comme celle-ci ne sont que le début d'un travail qui a été nécessaire depuis un certain temps, car Internet est loin d'être le village mondial du débat et de la discussion cordiaux que les gens pensaient autrefois devenir.

«En fin de compte, ce que cette recherche suggère vraiment, c'est que c'est nous qui causons ces ruptures dans la discussion», explique le co-auteur Michael Bernstein, professeur adjoint d'informatique à Stanford. "Beaucoup de sites d'information ont supprimé leurs systèmes de commentaires parce qu'ils pensent que cela va à l'encontre du débat et de la discussion. Comprendre nos propres meilleurs et mauvais pécheurs ici est la clé pour les ramener. "

La papier a été publié dans le cadre de la prochaine conférence 2017 sur le travail coopératif assisté par ordinateur et l'informatique sociale.

La source: L'Université de Stanford

Livres connexes

at Marché InnerSelf et Amazon