L'intelligence artificielle peut maintenant imiter les comportements humains et sera bientôt dangereuse

L'intelligence artificielle peut maintenant imiter les comportements humains et sera bientôt dangereuseCe visage est-il juste un assemblage de bits informatiques? PHOTOCREO Michal Bednarek / Shutterstock.com

Lorsque les systèmes d’intelligence artificielle commencent à faire preuve de créativité, ils peuvent créer de grandes choses, voire d’effrayantes. Prenons, par exemple, un programme d’IA qui laisse les internautes composent la musique ainsi qu'un virtuel Johann Sebastian Bach en entrant des notes dans un programme qui génère des harmonies semblables à celles de Bach.

Géré par Google, l'application a dessiné génial louange pour être révolutionnaire et amusant à jouer avec. Il a également attiré critiqueet a fait part de ses préoccupations concernant les dangers d’Amnesty International.

Mon étude de comment les technologies émergentes affectent la vie des gens m'a appris que les problèmes vont au-delà de l'inquiétante grande préoccupation que suscite si des algorithmes peut vraiment créer de la musique ou de l'art en général. Certaines plaintes semblaient minimes, mais n'étaient pas vraiment, comme des observations que l'IA de Google était enfreindre les règles de base de composition musicale.

En fait, les efforts visant à faire en sorte que les ordinateurs imitent le comportement de personnes réelles peuvent être déroutants et potentiellement dangereux.

Technologies d'emprunt d'identité

Le programme de Google a analysé les notes dans 306 des œuvres musicales de Bach, en trouvant des relations entre la mélodie et les notes fournissant l'harmonie. Parce que Bach suivait des règles de composition strictes, le programme les apprenait effectivement, il pouvait donc les appliquer lorsque les utilisateurs fournissaient leurs propres notes.

L’équipe Google Doodle explique le programme Bach.

L'application Bach elle-même est nouvelle, mais la technologie sous-jacente ne l'est pas. Algorithmes formés à reconnaître les modèles et de faire décisions probabilistes existe depuis longtemps. Certains de ces algorithmes sont si complexes que les gens ne comprend pas toujours comment ils prennent des décisions ou produisent un résultat particulier.

Les systèmes d'intelligence artificielle ne sont pas parfaits - beaucoup d'entre eux s'appuient sur données non représentatives de toute la population, ou qui sont influencé par les préjugés humains. Ce n'est pas tout à fait clair qui pourrait être légalement responsable lorsqu'un système d'intelligence artificielle commet une erreur ou pose un problème.

Maintenant, cependant, les technologies d'intelligence artificielle sont suffisamment avancées pour pouvoir se rapprocher du style d'écriture ou de conversation des personnes, et même des expressions faciales. Ce n’est pas toujours mauvais: une IA assez simple a donné à Stephen Hawking le capacité à communiquer plus efficacement avec les autres en prédisant les mots qu'il utiliserait le plus.

Des programmes plus complexes qui imitent les voix humaines aider les personnes handicapées - mais peut également être utilisé pour tromper les auditeurs. Par exemple, les fabricants de Lyrebird, un programme imitant la voix, ont publié un conversation simulée entre Barack Obama, Donald Trump et Hillary Clinton. Cela peut sembler réel, mais cet échange n'a jamais eu lieu.

Du bien au mal

En février, 2019, société à but non lucratif OpenAI, a créé un programme qui génère du texte pratiquement impossible à distinguer du texte écrit par des gens. Il peut «écrire» un discours à la manière de John F. Kennedy, JRR Tolkien dans “Le Seigneur des Anneaux”Ou un étudiant écrit une mission scolaire sur la guerre civile américaine.

Le texte généré par le logiciel OpenAI est tellement crédible que la société a choisi ne pas relâcher le programme lui-même.

Des technologies similaires peuvent simuler des photos et des vidéos. Au début de 2018, par exemple, l'acteur et cinéaste Jordan Peele a créé une vidéo qui semblait montrer à l'ancien président américain Barack Obama: les choses que Obama n'a jamais dites avertir le public des dangers de ces technologies.

Faites attention aux vidéos que vous croyez.

Au début de 2019, un fausse photo nue de la représentante des États-Unis, Alexandria Ocasio-Cortez, ont été distribués en ligne. Vidéos fabriquées, souvent appelé "deepfakes, "Devraient être de plus en plus d'utiliser dans les campagnes électorales.

Membres du Congrès ont commencé à se pencher sur cette question en avance sur l'élection 2020. Le département américain de la Défense enseigne au public comment repérer des vidéos trafiquées et audio. Des organisations de presse comme Reuters commencent à former des journalistes pour repérer les deepfakes.

Mais, à mon avis, une préoccupation encore plus grande demeure: les utilisateurs pourraient ne pas être en mesure d'apprendre assez rapidement pour distinguer les faux contenus à mesure que la technologie d'intelligence artificielle devient plus sophistiquée. Par exemple, alors que le public commence à prendre conscience de l'improviste, l'IA est déjà utilisée pour des tromperies encore plus avancées. Il existe maintenant des programmes pouvant générer faux visages et fausses empreintes digitales, créant efficacement les informations nécessaires à la fabrication d’une personne entière - au moins dans les archives de l’entreprise ou du gouvernement.

Les machines continuent à apprendre

À l'heure actuelle, ces technologies comportent suffisamment d'erreurs potentielles pour permettre aux utilisateurs de détecter les fabrications numériques. Compositeur Bach de Google fait des erreurs un expert pourrait détecter. Par exemple, quand j’ai essayé, le programme m’a permis de saisir quintes parallèles, un intervalle de musique que Bach studieusement évité. L'application aussi enfreint les règles musicales de contrepoint en harmonisant les mélodies dans la mauvaise clé. De même, le programme de génération de texte d’OpenAI écrivait parfois des phrases telles que «les incendies se produisent sous l'eau”Cela n'avait aucun sens dans leurs contextes.

À mesure que les développeurs travailleront sur leurs créations, ces erreurs deviendront plus rares. Effectivement, les technologies d'intelligence artificielle vont évoluer et apprendre. L’amélioration des performances est susceptible d’apporter de nombreux avantages sociaux, notamment de meilleurs soins de santé, grâce à l’aide des programmes d’IA démocratiser la pratique de la médecine.

Donner aux chercheurs et aux entreprises la liberté d'explorer, afin de tirer parti des systèmes d'IA, de ces réalisations positives, ouvre le risque de développer des moyens plus avancés de créer la duperie et d'autres problèmes sociaux. Limiter considérablement la recherche sur l’IA pourrait freiner ces progrès. Mais donner des technologies bénéfiques espace pour grandir coûte très cher - et le potentiel d’abus, qu’il s’agisse de produire une musique inexacte «à la Bach» ou de tromper des millions de personnes, risque de s’accroître de manière que les gens ne peuvent pas encore anticiper.La Conversation

A propos de l'auteur

Ana Santos Rutschman, professeure adjointe de droit, Université de Saint Louis

Cet article est republié de La Conversation sous une licence Creative Commons. Lis le article original.

Livres connexes

{amazonWS: searchindex = Livres; mots-clés = intelligence artificielle; maxresults = 3}

enafarzh-CNzh-TWtlfrdehiiditjamsptrues

suivez InnerSelf sur

google-plus-iconfacebook-icontwitter-iconrss-icon

Recevez le dernier par courriel

{Emailcloak = off}

suivez InnerSelf sur

google-plus-iconfacebook-icontwitter-iconrss-icon

Recevez le dernier par courriel

{Emailcloak = off}