confiance ai 7 20
 Les chatbots IA deviennent de plus en plus puissants, mais comment savoir s'ils fonctionnent dans votre meilleur intérêt ? 

Si vous demandez à Alexa, le système d'IA d'assistant vocal d'Amazon, si Amazon est un monopole, il répond par dire qu'il ne sait pas. Il n'en faut pas beaucoup pour le faire fustiger les autres géants de la technologie, mais il est silencieux sur les méfaits de sa propre société mère.

Quand Alexa répond de cette manière, il est évident qu'elle fait passer les intérêts de son développeur avant les vôtres. Habituellement, cependant, il n'est pas si évident de savoir à qui un système d'IA est destiné. Pour éviter d'être exploités par ces systèmes, les gens devront apprendre à aborder l'IA avec scepticisme. Cela signifie construire délibérément l'entrée que vous lui donnez et penser de manière critique à sa sortie.

Les nouvelles générations de modèles d'IA, avec leurs réponses plus sophistiquées et moins par cœur, rendent plus difficile de dire qui en profite lorsqu'ils parlent. La manipulation par les sociétés Internet de ce que vous voyez pour servir leurs propres intérêts n'a rien de nouveau. Les résultats de recherche de Google et votre flux Facebook sont rempli d'entrées payantes. Facebook, TikTok et d'autres manipulent vos flux pour maximiser le temps que vous passez sur la plate-forme, ce qui signifie plus de vues d'annonces, sur votre bien-être.

Ce qui distingue les systèmes d'IA de ces autres services Internet, c'est à quel point ils sont interactifs et comment ces interactions deviendront de plus en plus comme des relations. Il ne faut pas beaucoup d'extrapolation à partir des technologies d'aujourd'hui pour imaginer des IA qui planifieront des voyages pour vous, négocieront en votre nom ou agiront en tant que thérapeutes et coachs de vie.


graphique d'abonnement intérieur


Ils sont susceptibles d'être avec vous 24 heures sur 7, XNUMX jours sur XNUMX, de vous connaître intimement et d'anticiper vos besoins. Ce type d'interface conversationnelle avec le vaste réseau de services et de ressources sur le Web est à la portée des IA génératives existantes comme ChatGPT. Ils sont en passe de devenir assistants numériques personnalisés.

Comme étant une entreprise expert en sécurité ainsi que Data Scientist, nous pensons que les personnes qui en viennent à s'appuyer sur ces IA devront leur faire implicitement confiance pour naviguer dans la vie quotidienne. Cela signifie qu'ils devront s'assurer que les IA ne travaillent pas secrètement pour quelqu'un d'autre. Sur Internet, les appareils et les services qui semblent fonctionner pour vous fonctionnent déjà secrètement contre vous. Téléviseurs intelligents t'espionner. Applications téléphoniques collecter et vendre vos données. De nombreuses applications et sites Web vous manipuler à travers des motifs sombres, des éléments de conception qui induire délibérément en erreur, contraindre ou tromper les visiteurs du site Web. C'est surveillance du capitalisme, et l'IA s'apprête à en faire partie. L'IA joue un rôle dans le capitalisme de surveillance, qui se résume à vous espionner pour gagner de l'argent sur vous.

Dans le noir

Très probablement, cela pourrait être bien pire avec l'IA. Pour que cet assistant numérique IA soit vraiment utile, il devra vraiment vous connaître. Mieux que votre téléphone vous connaît. Mieux que la recherche Google vous connaît. Mieux, peut-être, que vos amis proches, partenaires intimes et thérapeute vous connaissent.

Vous n'avez aucune raison de faire confiance aux principaux outils d'IA générative d'aujourd'hui. Laisser de côté le hallucinations, les "faits" inventés que produisent GPT et d'autres grands modèles de langage. Nous prévoyons que ceux-ci seront en grande partie nettoyés à mesure que la technologie s'améliorera au cours des prochaines années.

Mais vous ne savez pas comment les IA sont configurées : comment elles ont été formées, quelles informations elles ont été données et quelles instructions leur ont été ordonnées de suivre. Par exemple, les chercheurs découvert les règles secrètes qui régissent le comportement du chatbot Microsoft Bing. Ils sont en grande partie bénins mais peuvent changer à tout moment.

Faire de l'argent

Beaucoup de ces IA sont créées et formées à des frais énormes par certains des plus grands monopoles technologiques. Ils sont offerts aux gens pour qu'ils les utilisent gratuitement ou à très faible coût. Ces entreprises devront les monétiser d'une manière ou d'une autre. Et, comme pour le reste d'Internet, cela inclura probablement la surveillance et la manipulation.

Imaginez demander à votre chatbot de planifier vos prochaines vacances. A-t-il choisi une compagnie aérienne, une chaîne d'hôtels ou un restaurant en particulier parce que c'était le meilleur pour vous ou parce que son créateur a reçu un pot-de-vin des entreprises ? Comme pour les résultats payants dans la recherche Google, les annonces de fil d'actualité sur Facebook et les placements payants sur les requêtes Amazon, ces influences payantes sont susceptibles de devenir plus subreptices avec le temps.

Si vous demandez à votre chatbot des informations politiques, les résultats sont-ils faussés par la politique de la société qui possède le chatbot ? Ou le candidat qui l'a payé le plus d'argent ? Ou même les opinions démographiques des personnes dont les données ont été utilisées pour former le modèle ? Votre agent IA est-il secrètement un agent double ? Pour l'instant, il n'y a aucun moyen de le savoir.

Digne de confiance selon la loi

Nous pensons que les gens devraient attendre plus de la technologie et que les entreprises technologiques et les IA peuvent devenir plus dignes de confiance. La proposition de l'Union européenne Loi sur l'IA prend des mesures importantes, exigeant la transparence sur les données utilisées pour former des modèles d'IA, l'atténuation des biais potentiels, la divulgation des risques prévisibles et des rapports sur les tests standard de l'industrie. L'Union européenne fait avancer la réglementation de l'IA.

La plupart des IA existantes ne pas se conformer avec ce nouveau mandat européen et, malgré poussée récente du chef de la majorité au Sénat, Chuck Schumer, les États-Unis sont loin derrière sur une telle réglementation.

Les IA du futur doivent être dignes de confiance. À moins que et jusqu'à ce que le gouvernement offre de solides protections aux consommateurs pour les produits d'IA, les gens seront seuls pour deviner les risques et les biais potentiels de l'IA, et pour atténuer leurs pires effets sur les expériences des gens avec eux.

Ainsi, lorsque vous obtenez une recommandation de voyage ou des informations politiques à partir d'un outil d'IA, abordez-les avec le même œil sceptique que vous le feriez pour un panneau publicitaire ou un bénévole de campagne. Malgré toute sa magie technologique, l'outil d'IA n'est peut-être guère plus que le même.The Conversation

A propos de l'auteur

Bruce Schneier, maître de conférences associé en politiques publiques, École Harvard Kennedy ainsi que Nathan Sander, affilié, Berkman Klein Center for Internet & Society, Université de Harvard

Cet article est republié de The Conversation sous une licence Creative Commons. Lis le article original.