4 Ways Vos recherches Google et les médias sociaux affectent vos opportunités dans la vie

4 Ways Vos recherches Google et les médias sociaux affectent vos opportunités dans la vie
Shutterstock.

Que vous le réalisiez ou y consentiez, le big data peut vous affecter et influencer votre vie. Les données que nous créons lors de l'utilisation des médias sociaux, naviguer sur Internet et porter des trackers de fitness sont tous collectés, catégorisés et utilisés par les entreprises et l'état pour créer des profils de nous. Ces profils sont ensuite utilisés pour cibler les publicités pour les produits et services à ceux qui sont les plus susceptibles de les acheter, ou pour informer les décisions du gouvernement.

Les données volumineuses permettent aux États et aux entreprises d'accéder, de combiner et d'analyser nos informations incomplet et potentiellement inexacte - Profils de nos vies. Ils le font en identifiant les corrélations et les modèles dans les données à notre sujet, et les personnes ayant des profils similaires à nous, pour faire des prédictions sur ce que nous pourrions faire.

Mais ce n'est pas parce que les analyses de Big Data sont basées sur des algorithmes et des statistiques qu'elles sont précis, neutre ou intrinsèquement objectif. Et bien que les données volumineuses puissent fournir des informations sur le comportement des groupes, elles ne constituent pas nécessairement un moyen fiable de déterminer le comportement individuel. En fait, ces méthodes peuvent ouvrir la porte à la discrimination et menacer les droits de l'homme - Ils pourraient même travailler contre toi. Voici quatre exemples où l'analyse de Big Data peut conduire à l'injustice.

1. Calculer les scores de crédit

Les grandes données peuvent être utilisées pour prendre des décisions sur l'admissibilité au crédit, affectant si vous êtes accordé une hypothèque, ou à quelle hauteur votre assurance voiture les primes devraient être. Ces décisions peuvent être éclairées par votre messages de médias sociaux et les données d'autres applications, qui sont prises pour indiquer votre niveau de risque ou de fiabilité.

Mais les données telles que votre formation ou votre lieu de résidence peuvent ne pas être pertinentes ou fiables pour de telles évaluations. Ce type de données peut servir de référence pour la race ou le statut socio-économique, et son utilisation pour prendre des décisions sur le risque de crédit pourrait entraîner une discrimination.

2. Recherches d'emploi

Big data peut être utilisé pour déterminer qui voit une annonce d'emploi ou est présélectionné pour une entrevue. Les offres d'emploi peuvent cibler des groupes d'âge particuliers, comme 25 à 36-year-olds, ce qui exclut les travailleurs plus jeunes et plus âgés même de voir certains postes affichés et présente un risque de discrimination fondée sur l'âge.

L'automatisation est également utilisée pour rendre le filtrage, le tri et le classement des candidats plus efficaces. Mais ce processus de sélection peut exclure des personnes sur la base d'indicateurs tels que distance de leur trajet. Les employeurs pourraient supposer que ceux qui ont de plus longs déplacements sont moins susceptibles de conserver un emploi à long terme, mais cela peut en fait discriminer les personnes vivant loin du centre-ville en raison de l'emplacement des logements abordables.

3. Décisions de libération conditionnelle

Aux États-Unis et au Royaume-Uni, des modèles d'évaluation des risques du Big Data sont utilisés pour aider les responsables à décider si les personnes sont autorisées libération conditionnelle ou cautionou renvoyé à programmes de réhabilitation. Ils peuvent également être utilisés pour évaluer le degré de risque que présente un délinquant pour la société, un facteur dont un juge pourrait tenir compte lorsqu'il décide de la durée d'une peine.

On ne sait pas exactement quelles données sont utilisées pour aider à faire ces évaluations, mais comme le mouvement vers police numérique rythme, il est de plus en plus probable que ces programmes intègrent des informations open source telles que activité médiale sociale - Si ce n'est pas déjà fait.

Ces évaluations peuvent non seulement regarder le profil d'une personne, mais aussi comment elles se comparent aux autres. Certaines forces de police ont historiquement sur-policé certaines communautés minoritaires, conduisant à un nombre disproportionné d'incidents criminels signalés. Si ces données sont introduites dans un algorithme, cela faussera les modèles d'évaluation des risques et entraînera une discrimination qui affecte directement le droit de la personne à la liberté.

4. Vérification des demandes de visa

L'année dernière, l'Agence des États-Unis pour l'immigration et les douanes (ICE) a annoncé qu'elle souhaitait introduire un système automatisé "contrôle de visa extrême"Programme. Il analyserait automatiquement et continuellement les comptes de médias sociaux, afin d'évaluer si les candidats apporteraient une «contribution positive» aux États-Unis et si des problèmes de sécurité nationale pouvaient survenir.

En plus de présenter des risques pour la liberté de pensée, d'opinion, d'expression et d'association, il y avait des risques importants que ce programme soit discriminatoire envers les personnes de certaines nationalités ou religions. Les commentateurs caractérisé comme une "interdiction musulmane par l'algorithme".

Le programme a été récemment retiré, apparemment sur la base qu '«il n'y avait pas de logiciel« prêt à l'emploi »capable de fournir la qualité de surveillance voulue par l'agence». Mais l'inclusion de tels objectifs dans les documents d'approvisionnement peut créer de mauvaises motivations pour que l'industrie de la technologie développe des programmes qui sont discriminatoires par conception.

La ConversationIl ne fait aucun doute que l'analyse des données volumineuses fonctionne d'une manière qui peut affecter les opportunités des individus dans la vie. Mais le le manque de transparence Au sujet de la façon dont les données volumineuses sont collectées, utilisées et partagées, il est difficile pour les gens de savoir quelle information est utilisée, comment et quand. L'analyse de Big Data est simplement trop compliquée pour que les individus puissent protéger leurs données contre une utilisation inappropriée. Au lieu de cela, les États et les entreprises doivent adopter - et suivre - des règlements pour s'assurer que leur utilisation du Big Data n'entraîne pas de discrimination.

À propos des auteurs

Lorna McGregor, directrice, Centre des droits de la personne, chercheuse principale et codirectrice, subvention de l'ESRC pour les droits de la personne, le Big Data et la technologie, Université d'Essex; Daragh Murray, conférencière en droit international des droits de la personne à la Essex Law School, Université d'Essex, et Vivian Ng, chercheuse principale en droits de la personne, Université d'Essex

Cet article a été publié initialement le La Conversation. Lis le article original.

Livres de ces auteurs:

{amazonWS: searchindex = Livres; mots-clés = Lorna McGregor; maxresults = 1}

{amazonWS: searchindex = Livres; keywords = Daragh Murray; maxresults = 2}

enafarzh-CNzh-TWtlfrdehiiditjamsptrues

suivez InnerSelf sur

facebook-icontwitter-iconrss-icon

Recevez le dernier par courriel

{Emailcloak = off}