The New Digital Divide Is Between People Who Opt Out Of Algorithms And People Who Don't Savez-vous ce qui se passe lorsque vous partagez vos données? mtkang / shutterstock.com

Tous les aspects de la vie peuvent être guidés par des algorithmes d’intelligence artificielle: choix de la route à prendre pour votre trajet du matin, choix du lieu de rendez-vous, rendez-vous aux affaires juridiques et judiciaires complexes telles que la surveillance policière prévisionnelle.

Les grandes entreprises de technologie comme Google et Facebook utilisent l’intelligence artificielle pour obtenir des informations sur leurs innombrables données client détaillées. Cela leur permet de monétiser les préférences collectives des utilisateurs grâce à des pratiques telles que le micro-ciblage, stratégie utilisée par les annonceurs pour cibler de manière étroite des ensembles spécifiques d’utilisateurs.

En parallèle, de nombreuses personnes font désormais davantage confiance aux plates-formes et aux algorithmes qu'à leurs propres gouvernements et à la société civile. Une étude 2018 d'octobre a suggéré que les gens démontrent "appréciation de l'algorithme, "Dans la mesure où ils s'appuieraient davantage sur des conseils lorsqu'ils pensent qu'il s'agit d'un algorithme que d'un humain.

Dans le passé, les experts en technologie s’inquiétaient de la "fracture numérique" entre ceux qui peuvent accéder aux ordinateurs et à Internet et ceux qui ne le peuvent pas. Les ménages ayant un accès réduit aux technologies numériques sont désavantagés dans leur capacité à gagner de l'argent et accumuler des compétences.


innerself subscribe graphic


Mais, avec la prolifération des appareils numériques, la fracture ne concerne plus seulement l'accès. Comment les gens gèrent-ils la surcharge d'informations et la multitude de décisions algorithmiques qui imprègnent chaque aspect de leur vie?

Les utilisateurs plus expérimentés s'éloignent des périphériques et prennent conscience de la façon dont les algorithmes affectent leur vie. Pendant ce temps, les consommateurs qui disposent de moins d'informations s'appuient encore davantage sur des algorithmes pour guider leurs décisions.

Devez-vous rester connecté - ou débrancher? pryzmat / shutterstock.com

La sauce secrète derrière l'intelligence artificielle

La raison principale de la nouvelle fracture numérique, à mon avis en tant que spécialiste des systèmes d’information, est la suivante: si peu de gens comprennent le fonctionnement des algorithmes. Pour la majorité des utilisateurs, les algorithmes sont vus comme une boîte noire.

Les algorithmes d’IA captent les données, les ajustent à un modèle mathématique et émettent une prédiction, allant de quelles chansons vous pourriez aimer à combien d'années quelqu'un devrait passer en prison. Ces modèles sont développés et peaufinés en fonction des données antérieures et du succès des modèles précédents. La plupart des gens - même parfois les concepteurs d'algorithmes eux-mêmes - ne savent pas vraiment ce qui se passe à l'intérieur du modèle.

Les chercheurs ont longtemps été concernés à propos de l'équité algorithmique. Par exemple, l'outil de recrutement d'Amazon basé sur l'IA s'est avéré être renvoyer les candidates. Le système d'Amazon extrayait sélectivement mots implicitement genrés - des mots que les hommes sont plus susceptibles d'utiliser dans le langage de tous les jours, tels que «exécuté» et «capturé».

D'autres études ont montré que les algorithmes judiciaires étaient à préjugés raciaux et condamnaient les accusés noirs de longue durée à des peines plus longues que d’autres.

Dans le cadre du règlement général sur la protection des données récemment approuvé dans l'Union européenne, les citoyens ont “Un droit d'explication” des critères que les algorithmes utilisent dans leurs décisions. Ce projet de loi traite le processus de prise de décision algorithmique comme un livre de recettes. L'idée est que si vous comprenez la recette, vous pouvez comprendre comment l'algorithme affecte votre vie.

Pendant ce temps, certains chercheurs en IA ont poussé pour des algorithmes qui sont juste, responsable et transparent, aussi bien que interprétable, ce qui signifie qu’ils doivent arriver à leurs décisions par le biais de processus que les humains peuvent comprendre et avoir confiance.

Quel effet aura la transparence? Dans une étude, les élèves ont été notés par un algorithme et ont proposé différents niveaux d’explication sur la manière dont les scores de leurs pairs étaient ajustés pour obtenir la note finale. Les étudiants avec des explications plus transparentes faisaient en réalité moins confiance à l'algorithme. Cela suggère encore une fois une fracture numérique: la conscience algorithmique ne conduit pas à davantage de confiance dans le système.

Mais la transparence n'est pas une panacée. Même lorsque le processus global d'un algorithme est esquissé, les détails peuvent encore être trop complexes pour les utilisateurs à comprendre. La transparence aidera uniquement les utilisateurs suffisamment sophistiqués à comprendre les subtilités des algorithmes.

Par exemple, dans 2014, Ben Bernanke, l’ancien président de la Réserve fédérale, a été initialement refusé un refinancement hypothécaire par un système automatisé. La plupart des personnes qui demandent un tel refinancement hypothécaire ne comprendraient pas comment les algorithmes pourraient déterminer leur solvabilité.

Que dit l'algorithme à faire aujourd'hui? Maria Savenko / shutterstock.com

Se désengager du nouvel écosystème de l'information

Bien que les algorithmes influencent tellement la vie des gens, seule une infime fraction des participants est suffisamment sophistiquée pour participer pleinement à la vie quotidienne. comment les algorithmes affectent leur vie.

Il n'y a pas beaucoup de statistiques sur le nombre de personnes qui connaissent l'algorithme. Des études ont trouvé des preuves de anxiété algorithmique, conduisant à un profond déséquilibre de pouvoir entre les plateformes qui déploient des algorithmes et les utilisateurs qui en dépendent.

Une étude de l'utilisation de Facebook ont constaté que lorsque les participants ont été informés de l’algorithme de Facebook pour la gestion des flux de nouvelles, environ 83% des participants ont modifié leur comportement pour tenter de tirer parti de cet algorithme, tandis que près de 10% ont réduit leur utilisation de Facebook.

Un rapport 2018 de novembre du Pew Research Center ont constaté qu'une large majorité du public était très préoccupée par l'utilisation d'algorithmes pour des utilisations particulières. Il a constaté que 66% pensait qu'il ne serait pas juste que des algorithmes calculent les scores de finances personnelles, alors que 57% disait la même chose à propos du filtrage automatisé des CV.

Une petite partie des individus exerce un certain contrôle sur la manière dont les algorithmes utilisent leurs données personnelles. Par exemple, la plate-forme Hu-Manity permet aux utilisateurs une option pour contrôler la quantité de données collectées. Encyclopédie en ligne Everipedia offre aux utilisateurs la possibilité d'être partie prenante dans le processus de conservation, ce qui signifie qu'ils peuvent également contrôler la manière dont les informations sont agrégées et présentées.

Cependant, une grande majorité des plates-formes n'offrent pas cette flexibilité aux utilisateurs finaux, ni le droit de choisir la manière dont l'algorithme utilise leurs préférences pour gérer leurs flux d'actualités ou pour leur recommander du contenu. S'il existe des options, les utilisateurs peuvent ne pas les connaître. À propos de 74% des utilisateurs de Facebook ont ​​déclaré dans un sondage qu'ils étaient pas au courant de la façon dont la plate-forme caractérise leurs intérêts personnels.

À mon avis, la nouvelle culture numérique ne consiste pas à utiliser un ordinateur ni à naviguer sur Internet, mais à comprendre et à évaluer les conséquences d'un style de vie toujours branché.

Ce mode de vie a un impact significatif sur comment les gens interagissent avec les autres; sur leur capacité à prêter attention aux nouvelles informations; et sur la complexité de leurs processus décisionnels.

L’augmentation de l’anxiété algorithmique peut également être reflétée par des changements parallèles de l’économie. Un petit groupe d'individus sont saisir les gains de l'automatisation, alors que de nombreux travailleurs sont dans un position précaire.

S'abstenir de la curation algorithmique est un luxe - et pourrait un jour être un symbole de richesse disponible pour seulement quelques privilégiés. La question est alors de savoir quels seront les inconvénients mesurables pour ceux qui se trouvent du mauvais côté de la fracture numérique.

A propos de l'auteur

Anjana Susarla, professeure agrégée en systèmes d'information, Michigan State University

Cet article est republié de The Conversation sous une licence Creative Commons. Lis le article original.

Livres connexes

at Marché InnerSelf et Amazon