un visage composé de bits et de morceaux de données
Shutterstock

L'intelligence artificielle (IA) en apprend davantage sur la façon de travailler avec (et sur) les humains. UNE étude récente a montré comment l'IA peut apprendre à identifier les vulnérabilités dans les habitudes et les comportements humains et à les utiliser pour influencer la prise de décision humaine.

Il peut sembler cliché de dire que l'IA transforme tous les aspects de notre façon de vivre et de travailler, mais c'est vrai. Diverses formes d'IA sont à l'œuvre dans des domaines aussi divers que le développement de vaccins, la gestion environnementale et l'administration de bureau. Et bien que l'IA ne possède pas d'intelligence et d'émotions semblables à celles des humains, ses capacités sont puissantes et se développent rapidement.

Il n'est pas nécessaire de s'inquiéter pour le moment d'une prise de contrôle de la machine, mais cette découverte récente met en évidence la puissance de l'IA et souligne la nécessité d'une gouvernance appropriée pour éviter les abus.

Comment l'IA peut apprendre à influencer le comportement humain

Une équipe de chercheurs à Data61 de CSIRO, la branche des données et du numérique de l'agence scientifique nationale australienne, a mis au point une méthode systématique de recherche et d'exploitation des vulnérabilités dans la façon dont les gens font des choix, en utilisant une sorte de système d'IA appelé réseau neuronal récurrent et apprentissage par renforcement profond. Pour tester leur modèle, ils ont mené trois expériences dans lesquelles des participants humains ont joué à des jeux contre un ordinateur.

La première expérience impliquait des participants cliquant sur des cases de couleur rouge ou bleue pour gagner une fausse monnaie, l'IA apprenant les modèles de choix des participants et les guidant vers un choix spécifique. L'IA a réussi environ 70% du temps.


graphique d'abonnement intérieur


Dans la deuxième expérience, les participants devaient regarder un écran et appuyer sur un bouton quand on leur montrait un symbole particulier (comme un triangle orange) et ne pas appuyer dessus quand on leur en montrait un autre (disons un cercle bleu). Ici, l'IA a décidé d'organiser la séquence des symboles pour que les participants fassent plus d'erreurs et obtiennent une augmentation de près de 25%.

La troisième expérience consistait en plusieurs tours au cours desquels un participant prétendait être un investisseur donnant de l'argent à un fiduciaire (l'IA). L'IA rendrait ensuite une somme d'argent au participant, qui déciderait alors du montant à investir dans le tour suivant. Ce jeu se jouait selon deux modes différents: dans l'un, l'IA cherchait à maximiser la somme d'argent avec laquelle elle se retrouvait, et dans l'autre, l'IA visait une répartition équitable de l'argent entre elle-même et l'investisseur humain. L'IA a connu un grand succès dans chaque mode.

Dans chaque expérience, la machine a appris des réponses des participants et identifié et ciblé les vulnérabilités dans la prise de décision des gens. Le résultat final a été la machine apprise à orienter les participants vers des actions particulières.

Dans les expériences, L'intérieur de la tête d'un homme ressemble au schéma d'une carte mère d'ordinateur.n Le système d'IA a appris avec succès à influencer les décisions humaines. Shutterstock

Ce que la recherche signifie pour l'avenir de l'IA

Ces résultats sont encore assez abstraits et impliquent des situations limitées et irréalistes. Des recherches supplémentaires sont nécessaires pour déterminer comment cette approche peut être mise en œuvre et utilisée au profit de la société.

Mais la recherche fait progresser notre compréhension non seulement de ce que l'IA peut faire, mais aussi de la manière dont les gens font des choix. Cela montre que les machines peuvent apprendre à orienter les choix humains grâce à leurs interactions avec nous.

La recherche a une vaste gamme d'applications possibles, de l'amélioration des sciences du comportement et des politiques publiques pour améliorer le bien-être social, à la compréhension et à l'influence sur la manière dont les gens adoptent des habitudes alimentaires saines ou des énergies renouvelables. L'IA et l'apprentissage automatique pourraient être utilisés pour reconnaître les vulnérabilités des personnes dans certaines situations et les aider à éviter les mauvais choix.

La méthode peut également être utilisée pour se défendre contre les attaques d'influence. On pourrait apprendre aux machines à nous alerter lorsque nous sommes influencés en ligne, par exemple, et à nous aider à façonner un comportement pour déguiser notre vulnérabilité (par exemple, en ne cliquant pas sur certaines pages ou en cliquant sur d'autres pour tracer une fausse piste).

Quelle est la prochaine?

Comme toute technologie, l'IA peut être utilisée en bien ou en mal, et une bonne gouvernance est essentielle pour garantir sa mise en œuvre de manière responsable. L'année dernière, le CSIRO a développé un Cadre d'éthique de l'IA pour le gouvernement australien comme une première étape dans ce voyage.

L'IA et l'apprentissage automatique sont généralement très gourmands en données, ce qui signifie qu'il est essentiel de nous assurer que nous avons des systèmes efficaces en place pour la gouvernance et l'accès aux données. La mise en œuvre de processus de consentement adéquats et de protection de la vie privée lors de la collecte de données est essentielle.

Les organisations qui utilisent et développent l'IA doivent s'assurer qu'elles savent ce que ces technologies peuvent et ne peuvent pas faire, et qu'elles sont conscientes des risques potentiels ainsi que des avantages.

À propos de l’auteur

Jon Whittle, directeur, Data61

Cet article est republié de The Conversation sous une licence Creative Commons. Lis le article original.