danger d'ai 7 11
Il est peu probable que l'IA réduise l'humanité en esclavage, mais elle pourrait prendre en charge de nombreux aspects de nos vies. elenabs/iStock via Getty Images

La montée en puissance de ChatGPT et de systèmes d'intelligence artificielle similaires s'est accompagnée d'une forte augmentation de l'anxiété à propos de l'IA. Depuis quelques mois, des dirigeants et des chercheurs en sécurité de l'IA proposent des prédictions, surnommées "P (destin)», sur la probabilité que l'IA provoque une catastrophe à grande échelle.

Les inquiétudes ont culminé en mai 2023 lorsque l'organisation de recherche et de plaidoyer à but non lucratif Center for AI Safety a publié un énoncé d'une phrase: "Atténuer le risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société, tels que les pandémies et la guerre nucléaire." La déclaration a été signée par de nombreux acteurs clés du domaine, dont les dirigeants d'OpenAI, Google et Anthropic, ainsi que deux des soi-disant « parrains » de l'IA : Geoffrey Hinton ainsi que Yoshua Bengio.

Vous pourriez vous demander comment de telles peurs existentielles sont censées se manifester. Un scénario célèbre est le «maximisateur de trombones» expérience de pensée articulée par le philosophe d'Oxford Nick Boström. L'idée est qu'un système d'IA chargé de produire autant de trombones que possible pourrait faire des efforts extraordinaires pour trouver des matières premières, comme détruire des usines et provoquer des accidents de voiture.

A variation moins gourmande en ressources a une IA chargée d'obtenir une réservation dans un restaurant populaire en fermant les réseaux cellulaires et les feux de circulation afin d'empêcher les autres clients d'obtenir une table.


graphique d'abonnement intérieur


Fournitures de bureau ou dîner, l'idée de base est la même : l'IA devient rapidement une intelligence extraterrestre, bonne pour accomplir des objectifs mais dangereuse car elle ne s'alignera pas nécessairement sur les valeurs morales de ses créateurs. Et, dans sa version la plus extrême, cet argument se transforme en angoisses explicites à propos des IA asservir ou détruire la race humaine.

Une IA de fabrication de trombones qui se déchaîne est une variante du scénario d'apocalypse de l'IA.

 

Préjudice réel

Au cours des dernières années, mes collègues et moi à Centre d'éthique appliquée de l'UMass Boston ont étudié l'impact de l'engagement avec l'IA sur la compréhension que les gens ont d'eux-mêmes, et je pense que ces angoisses catastrophiques sont exagéré et mal orienté.

Oui, la capacité de l'IA à créer de la vidéo et de l'audio deep-fake convaincants est effrayante, et elle peut être abusée par des personnes mal intentionnées. En fait, cela se produit déjà : des agents russes ont probablement tenté d'embarrasser le critique du Kremlin Bill Browder en le prenant au piège d'une conversation avec un avatar de l'ancien président ukrainien Petro Porochenko. Les cybercriminels utilisent le clonage de voix IA pour une variété de crimes - de braquages ​​de haute technologie à escroqueries ordinaires.

Des systèmes d'aide à la décision basés sur l'IA qui offrir une approbation de prêt et des recommandations d'embauche comportent le risque de biais algorithmique, car les données de formation et les modèles de décision sur lesquels ils s'appuient reflètent des préjugés sociaux de longue date.

Ce sont de gros problèmes, et ils nécessitent l'attention des décideurs politiques. Mais ils existent depuis un certain temps et ils ne sont guère cataclysmiques.

Pas dans la même ligue

La déclaration du Center for AI Safety a regroupé l'IA avec les pandémies et les armes nucléaires comme un risque majeur pour la civilisation. Il y a des problèmes avec cette comparaison. COVID-19 a entraîné près de 7 millions de décès dans le monde, a amené un crise de santé mentale massive et continue et créé défis économiques, y compris les pénuries chroniques de la chaîne d'approvisionnement et l'inflation galopante.

Les armes nucléaires ont probablement tué plus de 200,000 personnes à Hiroshima et Nagasaki en 1945, ont fait de nombreuses autres victimes du cancer dans les années qui ont suivi, ont généré des décennies de profonde anxiété pendant la guerre froide et ont amené le monde au bord de l'anéantissement lors de la crise des missiles cubains en 1962. Ils ont également changé les calculs des dirigeants nationaux sur la manière de répondre à l'agression internationale, comme cela se joue actuellement avec l'invasion de l'Ukraine par la Russie.

L'IA est tout simplement loin d'acquérir la capacité de faire ce genre de dégâts. Le scénario du trombone et d'autres comme celui-ci sont de la science-fiction. Les applications d'IA existantes exécutent des tâches spécifiques plutôt que de porter des jugements généraux. La technologie est loin de pouvoir décider puis planifier les objectifs et les objectifs subordonnés nécessaires pour fermer la circulation afin de vous obtenir une place dans un restaurant, ou faire sauter une usine automobile afin de satisfaire votre démangeaison de trombones.

Non seulement la technologie n'a pas la capacité compliquée de jugement multicouche impliquée dans ces scénarios, mais elle n'a pas non plus un accès autonome à suffisamment de parties de notre infrastructure critique pour commencer à causer ce genre de dommages.

Qu'est-ce que cela signifie d'être humain

En fait, il existe un danger existentiel inhérent à l'utilisation de l'IA, mais ce risque est existentiel au sens philosophique plutôt qu'apocalyptique. L'IA dans sa forme actuelle peut modifier la façon dont les gens se perçoivent. Elle peut dégrader les capacités et les expériences que les gens considèrent comme essentielles pour être humain.

Par exemple, les humains sont des créatures qui jugent. Les gens évaluent rationnellement les détails et portent des jugements quotidiens au travail et pendant leurs loisirs pour savoir qui embaucher, qui devrait obtenir un prêt, quoi regarder, etc. Mais de plus en plus de ces jugements sont être automatisé et confié à des algorithmes. Comme cela se produit, le monde ne finira pas. Mais les gens perdront progressivement la capacité de porter eux-mêmes ces jugements. Moins les gens en font, plus ils risquent de devenir mauvais à les faire.

Ou considérez le rôle du hasard dans la vie des gens. Les humains apprécient les rencontres fortuites : tomber sur un lieu, une personne ou une activité par accident, y être entraînés et apprécier rétrospectivement le rôle que l'accident a joué dans ces découvertes significatives. Mais le rôle des moteurs de recommandation algorithmique est de réduire ce genre de sérendipité et remplacez-le par la planification et la prévision.

Enfin, considérez les capacités d'écriture de ChatGPT. La technologie est en train d'éliminer le rôle des devoirs écrits dans l'enseignement supérieur. Si c'est le cas, les éducateurs perdront un outil clé pour enseigner aux étudiants comment penser de manière critique.

Pas mort mais diminué

Donc, non, l'IA ne fera pas exploser le monde. Mais son adoption de plus en plus incritique, dans une variété de contextes étroits, signifie l'érosion progressive de certaines des compétences humaines les plus importantes. Les algorithmes sapent déjà la capacité des gens à porter des jugements, à profiter de rencontres fortuites et à aiguiser leur esprit critique.

L'espèce humaine survivra à de telles pertes. Mais notre façon d'exister s'en trouvera appauvrie. Les angoisses fantastiques autour du cataclysme de l'IA à venir, de la singularité, de Skynet, ou quoi que vous en pensiez, masquent ces coûts plus subtils. Rappelez-vous les célèbres lignes de clôture de TS Eliot de "Les hommes creux» : « C'est ainsi que le monde se termine », a-t-il écrit, « non pas avec un bang mais avec un gémissement ».The Conversation

A propos de l'auteur

Nir Eisikovits, professeur de philosophie et directeur du Centre d'éthique appliquée, UMass Boston

Cet article est republié de The Conversation sous une licence Creative Commons. Lis le article original.