Pourquoi la technologie met les droits de la personne en danger
Spainter_vfx / Shutterstock.com

Des films tels que 2001: A Space Odyssey, Blade Runner et Terminator apporté des robots voyous et des systèmes informatiques sur nos écrans de cinéma. Mais ces jours-ci, de tels spectacles classiques de science-fiction ne semblent pas si éloignés de la réalité.

De plus en plus, nous vivons, travaillons et jouons avec des technologies computationnelles autonomes et intelligentes. Ces systèmes comprennent des logiciels et du matériel capables de raisonner de façon indépendante et de prendre des décisions. Ils travaillent pour nous dans l'usine. ils décident si nous pouvons obtenir une hypothèque; ils suivent et mesurent nos niveaux d'activité et de forme physique; ils nettoient nos planchers de salon et coupent nos pelouses.

Les systèmes autonomes et intelligents ont le potentiel d'affecter presque tous les aspects de notre vie sociale, économique, politique et privée, y compris les aspects quotidiens banals. Une grande partie de cela semble innocent, mais il y a des raisons de s'inquiéter. Les technologies informatiques ont un impact sur tous les droits de l'homme, du droit à la vie jusqu'au droit à la vie privée, la liberté d'expression aux droits sociaux et économiques. Alors, comment pouvons-nous défendre les droits de l'homme dans un paysage technologique de plus en plus façonné par la robotique et l'intelligence artificielle (AI)?

AI et droits de l'homme

Premièrement, il existe une réelle crainte qu'une augmentation de l'autonomie des machines mine le statut des humains. Cette crainte est aggravée par un manque de clarté sur qui sera tenu de rendre compte, que ce soit dans un sens juridique ou moral, lorsque des machines intelligentes font du mal. Mais je ne suis pas sûr que le centre de notre préoccupation pour les droits de l'homme devrait vraiment robots voyous, comme il semble à présent. Nous devrions plutôt nous préoccuper de l'utilisation humaine des robots et de l'intelligence artificielle et de leur déploiement dans des contextes politiques, militaires, économiques et sociaux injustes et inégaux.

Cette inquiétude est particulièrement pertinente en ce qui concerne les systèmes d'armes létaux autonomes (LAWS), souvent décrits comme des robots tueurs. Comme nous se diriger vers une course aux armements de l'IA, des spécialistes des droits de l'homme et des militants tels que Christof Heyns, ancien rapporteur spécial des Nations unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, craignent que l'utilisation de LAWS ne mette des systèmes robotiques autonomes en charge des décisions de vie et de mort, avec un contrôle humain limité ou inexistant.


graphique d'abonnement intérieur


L'IA révolutionne aussi le lien entre les pratiques de guerre et de surveillance. Des groupes tels que Comité international pour le contrôle des armes de robot (ICRAC) récemment exprimé leur opposition à la participation de Google dans Projet Maven, un programme militaire qui utilise l'apprentissage automatique pour analyser les séquences de surveillance de drones, qui peuvent être utilisées pour des exécutions extrajudiciaires. ICRAC appel à Google pour s'assurer que les données qu'il recueille sur ses utilisateurs ne sont jamais utilisées à des fins militaires, rejoignant les protestations des employés de Google sur l'implication de l'entreprise dans le projet. Google a récemment annoncé qu'il ne renouvellera pas son contrat.

Dans 2013, l'étendue des pratiques de surveillance a été soulignée par Edward Snowden révélations. Ceux-ci nous ont beaucoup appris sur la menace au droit à la vie privée et le partage de données entre les services de renseignement, les organismes gouvernementaux et les sociétés privées. La controverse récente entourant Cambridge AnalyticaLa collecte de données à caractère personnel via l'utilisation de plateformes de médias sociaux comme Facebook continue de susciter de sérieuses appréhensions, cette fois sur la manipulation et l'ingérence dans des élections démocratiques qui portent atteinte au droit à la liberté d'expression.

Pendant ce temps, les analystes de données critiques contestent pratiques discriminatoires associé à ce qu'ils appellent "le problème du type blanc" d'AI. C'est la préoccupation que les systèmes d'IA formés aux données existantes reproduisent les stéréotypes raciaux et de genre existants qui perpétuent les pratiques discriminatoires dans des domaines tels que la police, les décisions judiciaires ou l'emploi.

L'IA peut reproduire et ancrer les stéréotypes.
L'IA peut reproduire et ancrer les stéréotypes.
Ollyy / Shutterstock.com

Bots ambigus

La menace potentielle des technologies informatiques pour les droits de l'homme et la sécurité physique, politique et numérique a été soulignée dans une étude récemment publiée sur L'utilisation malveillante de l'intelligence artificielle. Les préoccupations exprimées dans ce rapport de l'Université de Cambridge doivent être prises au sérieux. Mais comment devrions-nous gérer ces menaces? Les droits de l'homme sont-ils prêts pour l'ère de la robotique et de l'IA?

Des efforts sont en cours pour mettre à jour les principes des droits de l'homme existants pour cette époque. Ceux-ci comprennent le Principes directeurs et principes directeurs des Nations Unies sur les entreprises et les droits de l'homme, tente d'écrire un Magna Carta pour l'ère numérique et l'avenir de l'Institut de la vie Asilomar AI Principes, qui identifient des lignes directrices pour la recherche éthique, l'adhésion aux valeurs et un engagement pour le développement bénéfique à long terme de l'IA.

Ces efforts sont louables mais pas suffisants. Les gouvernements et les organismes gouvernementaux, les partis politiques et les entreprises privées, en particulier les entreprises technologiques de pointe, doivent s'engager à utiliser l'IA de manière éthique. Nous avons également besoin d'un contrôle législatif efficace et exécutoire.

Quelles que soient les nouvelles mesures que nous introduisons, il est important de reconnaître que nos vies sont de plus en plus enchevêtrées avec des machines autonomes et des systèmes intelligents. Cet enchevêtrement améliore le bien-être humain dans des domaines tels que la recherche et le traitement médicaux, dans notre système de transport, dans les milieux sociaux et dans les efforts de protection de l'environnement.

Mais dans d'autres domaines, cet enchevêtrement crée des perspectives inquiétantes. Les technologies computationnelles sont utilisées pour suivre et suivre nos actions et nos comportements, tracer nos étapes, notre localisation, notre santé, nos goûts et nos amitiés. Ces systèmes façonnent le comportement humain et nous poussent vers des pratiques d'autosurveillance qui restreignent notre liberté et sapent les idées et les idéaux des droits de l'homme.

The ConversationEt voici le point crucial: la capacité de double usage des technologies computationnelles brouille la frontière entre les pratiques bénéfiques et malveillantes. De plus, les technologies computationnelles sont profondément impliquées dans les rapports de force inégaux entre les citoyens individuels, l'État et ses agences, et les sociétés privées. S'ils sont détournés de systèmes nationaux et internationaux efficaces de freins et de contrepoids, ils constituent une menace réelle et inquiétante pour nos droits humains.

A propos de l'auteur

Birgit Schippers, chercheur invité, Institut George J. Mitchell pour la paix mondiale, la sécurité et la justice, Université Queen de Belfast

Cet article a été publié initialement le The Conversation. Lis le article original.

Livres connexes

{amazonWS:searchindex=Books;Birgit Schippers=innerself" target="_blank" rel="nofollow noopener">InnerSelf Market et Amazon