Comment comprendre les animaux peut nous aider à tirer le meilleur parti de l'intelligence artificielleLes voitures autonomes ne sont pas plus intelligentes que cela. X posid

Chaque jour d'innombrables manchettes émergent d'innombrables sources à travers le monde, à la fois avertissement de conséquences désastreuses et avenir utopique prometteur - Tout cela grâce à l'intelligence artificielle. AI "transforme le lieu de travail", écrit le Wall Street Journal, tandis que fortune Le magazine nous dit que nous sommes confrontés à une «révolution de l'IA» qui va «changer nos vies». Mais nous ne comprenons pas vraiment ce que sera l'interaction avec l'IA - ou ce qu'elle devrait être. The Conversation

Il se trouve, cependant, que nous avons déjà un concept que nous pouvons utiliser lorsque nous pensons à l'IA: C'est notre façon de penser les animaux. En tant qu'ancien entraîneur d'animaux (quoique brièvement) qui étudie maintenant comment les gens utilisent l'IA, je sais que les animaux et l'entraînement des animaux peuvent nous apprendre beaucoup sur la façon dont nous devons penser, approcher et interagir avec l'intelligence artificielle, maintenant et dans le avenir.

Utilisation d'analogies animales peut aider les gens ordinaires à comprendre de nombreux aspects complexes de l'intelligence artificielle. Cela peut également nous aider à réfléchir à la meilleure façon d'enseigner de nouvelles compétences à ces systèmes et, peut-être le plus important, à la façon dont nous pouvons concevoir correctement leurs limites, même si nous célébrons les nouvelles possibilités de l'IA.

Regarder les contraintes

Comme expert en IA Maggie Boden Explique«L'intelligence artificielle cherche à faire faire aux ordinateurs le genre de choses que les esprits peuvent faire.» Les chercheurs de l'IA travaillent sur l'enseignement des ordinateurs pour raisonner, percevoir, planifier, bouger et faire des associations. L'IA peut voir les tendances dans de grands ensembles de données, prédire la probabilité qu'un événement se produise, planifier un itinéraire, gérer le calendrier des réunions d'une personne et même jouer à des scénarios de guerre.

Beaucoup de ces capacités ne sont pas surprenantes: bien sûr, un robot peut rouler dans un espace et ne pas entrer en collision avec quoi que ce soit. Mais en quelque sorte, l'IA semble plus magique quand l'ordinateur commence à mettre ces compétences ensemble pour accomplir des tâches.


graphique d'abonnement intérieur


Prenez, par exemple, les voitures autonomes. Les origines de la voiture sans conducteur sont dans un projet de l'Agence de Projet de Recherche Avancée de Défense de l'ère 1980s appelé le Véhicule terrestre autonome. Les objectifs du projet étaient d'encourager la recherche sur la vision par ordinateur, la perception, la planification et le contrôle robotique. Dans 2004, l'effort ALV est devenu le premier Grand défi pour les voitures autonomes. Maintenant, plus de 30 années depuis le début des efforts, nous sommes sur le précipice de voitures autonomes ou autonomes sur le marché civil. Dans les premières années, peu de gens pensaient qu'un tel exploit était impossible: les ordinateurs ne pouvaient pas conduire!

Le DARPA Grand Challenge a favorisé le développement de véhicules autonomes.

{youtube}M2AcMnfzpNg{/youtube}

Pourtant, comme nous l'avons vu, ils peuvent. Les capacités des voitures autonomes sont relativement faciles à comprendre pour nous. Mais nous luttons pour comprendre leurs limites. Après le 2015 crash fatal de Tesla, où la fonction de pilotage automatique de la voiture n'a pas réussi à détecter le passage d'une semi-remorque dans sa voie, peu semblent encore saisir la gravité de la réalité du pilote automatique de Tesla. Alors que la société et ses logiciels étaient effacé de la négligence par la National Highway Traffic Safety Administration, il reste peu clair si les clients comprennent vraiment ce que la voiture peut et ne peut pas faire.

Et si les propriétaires de Tesla ont été informés qu'ils n'étaient pas conduire une version "beta" d'un pilote automatique mais plutôt une voiture semi-autonome avec le équivalence mentale d'un ver? La soi-disant "intelligence" qui fournit "pleine capacité de conduite autonome"Est vraiment un ordinateur géant qui est assez bon pour détecter les objets et les éviter, en reconnaissant les éléments dans les images et la planification limitée. Cela pourrait changer les points de vue des propriétaires sur ce que la voiture pourrait vraiment faire sans l'intervention ou la surveillance humaine.

Qu’est-ce que c’est?

Les technologistes essaient souvent d'expliquer l'IA en termes de construction. Prenez, par exemple, les progrès réalisés dans l'apprentissage en profondeur. C'est une technique qui utilise réseaux multicouches apprendre à faire une tâche. Les réseaux doivent traiter de vastes quantités d'informations. Mais en raison du volume des données dont ils ont besoin, de la complexité des associations et des algorithmes dans les réseaux, il est souvent difficile pour les humains de savoir comment ils apprennent ce qu'ils font. Ces systèmes peuvent devenir très bons pour une tâche particulière, mais nous ne les comprenons pas vraiment.

Au lieu de penser à l'IA comme quelque chose de surhumain ou d'extra-terrestre, il est plus facile de les assimiler à des animaux, à des non-humains intelligents que nous avons l'habitude de former.

Par exemple, si je devais utiliser apprentissage par renforcement Pour dresser un chien à s'asseoir, je voudrais féliciter le chien et lui donner des friandises quand il s'assoit sur commande. Au fil du temps, il apprendrait à associer la commande au comportement avec la friandise.

Enseigner un chien à s'asseoir, c'est beaucoup comme former une intelligence artificielle.

{youtube}5-MA-rGbt9k{/youtube}

La formation d'un système d'IA peut être très similaire. Dans renforcement de l'apprentissage en profondeur, les concepteurs humains mettent en place un système, imaginent ce qu'ils veulent apprendre, lui donnent des informations, surveillent ses actions et lui donnent des retours (comme des éloges) quand ils voient ce qu'ils veulent. En substance, nous pouvons traiter le système d'IA comme nous traitons les animaux que nous entraînons.

L'analogie fonctionne aussi à un niveau plus profond. Je ne m'attends pas à ce que le chien assis comprenne des concepts complexes comme «l'amour» ou «bien». Je m'attends à ce qu'il apprenne un comportement. Tout comme nous pouvons faire asseoir les chiens, rester et rouler, nous pouvons obtenir des systèmes d'IA pour déplacer les voitures sur les routes publiques. Mais c'est trop demander à la voiture "résoudre" la problèmes éthiques pouvant survenir dans les situations d'urgence.

Aider les chercheurs aussi

Penser à l'IA en tant qu'animal entraînable n'est pas seulement utile pour l'expliquer au grand public. Il est également utile pour les chercheurs et les ingénieurs qui construisent la technologie. Si un spécialiste de l'IA essaie d'enseigner une nouvelle compétence à un système, penser au processus du point de vue d'un entraîneur d'animaux pourrait aider à identifier des problèmes ou des complications potentiels.

Par exemple, si j'essaie d'entraîner mon chien à s'asseoir, et chaque fois que je dis «assis», le buzzer s'éteint, alors mon chien commencera à s'associer non seulement avec ma commande, mais aussi avec le son du buzzer du four. En substance, le buzzer devient un autre signal indiquant au chien de s'asseoir, ce qu'on appelle un «renforcement accidentel». Si nous cherchons des renforcements ou des signaux accidentels dans les systèmes d'IA qui ne fonctionnent pas correctement, nous saurons mieux non seulement ce qui se passe. mal, mais aussi ce recyclage spécifique sera le plus efficace.

Cela nous oblige à comprendre quels messages nous donnons pendant l'entraînement à l'IA, ainsi que ce que l'IA peut observer dans l'environnement. Le buzzer du four est un exemple simple; dans le monde réel, ce sera beaucoup plus compliqué.

Avant d'accueillir nos suzerains de l'IA et de transmettre nos vies et nos emplois aux robots, nous devons faire une pause et réfléchir au genre d'intelligences que nous créons. Ils seront très bons pour faire des actions ou des tâches particulières, mais ils ne peuvent pas comprendre les concepts et ne savent rien. Donc, quand vous songez à bombarder des milliers pour une nouvelle voiture Tesla, rappelez-vous sa fonction de pilote automatique est vraiment juste un ver très rapide et sexy. Voulez-vous vraiment donner le contrôle de votre vie et celle de vos proches à un ver? Probablement pas, alors gardez vos mains sur le volant et ne vous endormez pas.

A propos de l'auteur

Heather Roff, chercheur principal, Département de politique et des relations internationales, Université d'Oxford; Chercheur scientifique, Global Security Initiative, Arizona State University

Cet article a été publié initialement le The Conversation. Lis le article original.

Livres connexes

at Marché InnerSelf et Amazon