Shutterstock/Valentin640

En 1956, lors d'un voyage d'un an à Londres et au début de la vingtaine, le mathématicien et biologiste théoricien Jack D. Cowan rendit visite à Wilfred Taylor et à son étrange nouveau «machine d'apprentissage». À son arrivée, il fut déconcerté par « l’immense parc d’appareils » auquel il était confronté. Cowan ne pouvait que rester là et regarder « la machine faire son travail ». Ce qu’il semblait faire était d’exécuter un « schéma de mémoire associative » – il semblait être capable d’apprendre à trouver des connexions et à récupérer des données.

Cela ressemblait peut-être à des blocs de circuits encombrants, soudés ensemble à la main dans une masse de fils et de boîtiers, mais ce que Cowan était témoin était une première forme analogique d'un réseau neuronal – un précurseur de l'intelligence artificielle la plus avancée d'aujourd'hui, y compris le beaucoup discuté ChatGPT avec sa capacité à générer du contenu écrit en réponse à presque toutes les commandes. La technologie sous-jacente de ChatGPT est un réseau neuronal.

Alors que Cowan et Taylor regardaient la machine fonctionner, ils n'avaient vraiment aucune idée de la manière exacte dont elle parvenait à accomplir cette tâche. La réponse au mystérieux cerveau machine de Taylor se trouve quelque part dans ses « neurones analogiques », dans les associations établies par sa mémoire machine et, surtout, dans le fait que son fonctionnement automatisé ne pouvait pas vraiment être entièrement expliqué. Il faudrait des décennies pour que ces systèmes trouvent leur utilité et pour que ce pouvoir soit libéré.

Le terme réseau neuronal englobe un large éventail de systèmes, mais de manière centrale, selon IBM, ces « réseaux de neurones – également appelés réseaux de neurones artificiels (ANN) ou réseaux de neurones simulés (SNN) – sont un sous-ensemble de l’apprentissage automatique et sont au cœur des algorithmes d’apprentissage profond ». Fondamentalement, le terme lui-même, sa forme et sa « structure sont inspirés du cerveau humain, imitant la façon dont les neurones biologiques se signalent les uns aux autres ».

Il y a peut-être eu des doutes résiduels quant à leur valeur au début, mais au fil des années, la mode de l’IA s’est fermement orientée vers les réseaux de neurones. Ils sont désormais souvent considérés comme l’avenir de l’IA. Ils ont de grandes implications pour nous et pour ce que signifie être humain. Nous avons entendu échos de ces préoccupations récemment avec des appels à suspendre les nouveaux développements de l’IA pendant une période de six mois afin de garantir la confiance dans leurs implications.


graphique d'abonnement intérieur


Ce serait certainement une erreur de rejeter le réseau neuronal comme étant uniquement de nouveaux gadgets brillants et accrocheurs. Ils sont déjà bien implantés dans nos vies. Certains sont puissants dans leur sens pratique. Dès 1989, une équipe dirigée par Yann LeCun des laboratoires AT&T Bell a utilisé des techniques de rétro-propagation pour entraîner un système à reconnaître les codes postaux manuscrits. La récente annonce de Microsoft que les recherches Bing seront alimentées par l'IA, ce qui en fera votre « copilote pour le Web », illustre comment les choses que nous découvrons et dont nous les comprenons seront de plus en plus le produit de ce type d'automatisation.

S'appuyant sur de vastes données pour trouver des modèles, l'IA peut de la même manière être entraînée à faire des choses comme la reconnaissance d'images à grande vitesse, ce qui entraîne leur intégration dans la reconnaissance faciale, par exemple. Cette capacité à identifier des modèles a conduit à de nombreuses autres applications, telles que prédire les marchés boursiers.

Les réseaux de neurones changent également la façon dont nous interprétons et communiquons. Développé par le titre intéressant Équipe Google Cerveau, Google translate est une autre application importante d’un réseau neuronal.

Vous ne voudriez pas non plus jouer aux échecs ou au Shogi avec un. Leur maîtrise des règles et leur mémorisation des stratégies et de tous les mouvements enregistrés signifient qu'ils sont exceptionnellement bons dans les jeux (bien que ChatGPT semble lutter avec Wordle). Les systèmes qui dérangent les joueurs humains de Go (le Go est un jeu de plateau stratégique notoirement délicat) et les grands maîtres d'échecs sont les suivants : fabriqué à partir de réseaux de neurones.

Mais leur portée va bien au-delà de ces cas et continue de s’étendre. Une recherche de brevets limitée aux seules mentions de l’expression exacte « réseaux de neurones » produit 135,828 XNUMX résultats. Avec cette expansion rapide et continue, les chances que nous puissions expliquer pleinement l’influence de l’IA pourraient devenir de plus en plus minces. Ce sont les questions que j’ai examinées dans mes recherches et mon nouveau livre sur la pensée algorithmique.

De mystérieuses couches d'« inconnaissabilité »

Un retour sur l’histoire des réseaux de neurones nous apprend quelque chose d’important sur les décisions automatisées qui définissent notre présent ou celles qui auront peut-être un impact plus profond dans le futur. Leur présence nous indique également que nous comprendrons probablement encore moins les décisions et les impacts de l’IA au fil du temps. Ces systèmes ne sont pas de simples boîtes noires, ils ne sont pas seulement des éléments cachés d’un système qui ne peuvent être ni vus ni compris.

C’est quelque chose de différent, quelque chose enraciné dans les objectifs et la conception de ces systèmes eux-mêmes. Il y a une longue quête de l’inexplicable. Plus le système est opaque, plus authentique et avancé. Il ne s’agit pas seulement de complexité croissante des systèmes ou de contrôle de la propriété intellectuelle limitant l’accès (même si cela en fait partie). Il s’agit plutôt de dire que l’éthos qui les anime porte un intérêt particulier et intégré à « l’inconnaissabilité ». Le mystère est même codé dans la forme et le discours mêmes du réseau neuronal. Ils sont constitués de couches profondément empilées – d’où l’expression apprentissage profond – et au sein de ces profondeurs se trouvent des « couches cachées » au son encore plus mystérieuses. Les mystères de ces systèmes se cachent profondément sous la surface.

Il y a de fortes chances que plus l’impact de l’intelligence artificielle sur nos vies est grand, moins nous comprendrons comment et pourquoi. Il existe aujourd’hui une forte poussée en faveur de l’IA, qui est explicable. Nous voulons savoir comment cela fonctionne et comment cela aboutit à des décisions et à des résultats. L’UE est tellement préoccupée par les « risques inacceptables » voire les applications « dangereuses » qu’elle avance actuellement une nouvelle loi sur l'IA destiné à établir une « norme mondiale » pour « le développement d’une intelligence artificielle sécurisée, digne de confiance et éthique ».

Ces nouvelles lois seront fondées sur un besoin d'explicabilité, exigeant que « Pour les systèmes d’IA à haut risque, les exigences en matière de données, de documentation et de traçabilité de haute qualité, de transparence, de surveillance humaine, d’exactitude et de robustesse sont strictement nécessaires pour atténuer les risques pour les droits fondamentaux et la sécurité posés par l’IA ». Il ne s'agit pas seulement de choses comme les voitures autonomes (bien que les systèmes qui assurent la sécurité entrent dans la catégorie européenne des IA à haut risque), mais il s'agit également de craindre que des systèmes émergent à l'avenir qui auront des implications sur les droits de l'homme.

Cela fait partie d’appels plus larges à la transparence dans l’IA afin que ses activités puissent être vérifiées, auditées et évaluées. Un autre exemple serait celui de la Royal Society note d'information politique sur l'IA explicable dans lequel ils soulignent que « les débats politiques à travers le monde font de plus en plus appel à une certaine forme d’explicabilité de l’IA, dans le cadre des efforts visant à intégrer des principes éthiques dans la conception et le déploiement de systèmes basés sur l’IA ».

Mais l’histoire des réseaux de neurones nous dit que nous nous éloignerons probablement de cet objectif à l’avenir, plutôt que de nous en rapprocher.

Inspiré du cerveau humain

Ces réseaux de neurones peuvent être des systèmes complexes, mais ils reposent sur certains principes fondamentaux. Inspirés par le cerveau humain, ils cherchent à copier ou simuler des formes de pensée biologique et humaine. En termes de structure et de conception, ils sont, comme IBM explique également, composé de « couches de nœuds, contenant une couche d’entrée, une ou plusieurs couches cachées et une couche de sortie ». Au sein de celui-ci, « chaque nœud, ou neurone artificiel, se connecte à un autre ». Parce qu’ils ont besoin d’entrées et d’informations pour créer des résultats, ils « s’appuient sur les données de formation pour apprendre et améliorer leur précision au fil du temps ». Ces détails techniques sont importants, tout comme la volonté de modéliser ces systèmes sur la complexité du cerveau humain.

Comprendre l’ambition derrière ces systèmes est essentiel pour comprendre ce que ces détails techniques signifient dans la pratique. Dans un Entretien 1993, le scientifique des réseaux neuronaux Teuvo Kohonen a conclu qu'un système « auto-organisé » « est mon rêve », fonctionnant « quelque chose comme ce que notre système nerveux fait instinctivement ». À titre d'exemple, Kohonen a imaginé comment un système « auto-organisé », un système qui se surveillait et se gérait lui-même, « pourrait être utilisé comme panneau de surveillance pour n'importe quelle machine… dans chaque avion, avion à réaction, ou chaque centrale nucléaire, ou chaque voiture". Cela signifierait, pensait-il, qu'à l'avenir « on pourrait voir immédiatement dans quel état se trouve le système ».

L’objectif primordial était de disposer d’un système capable de s’adapter à son environnement. Il serait instantané et autonome, fonctionnant à la manière du système nerveux. C’était notre rêve : disposer de systèmes capables de se gérer eux-mêmes sans nécessiter beaucoup d’intervention humaine. Les complexités et les inconnues du cerveau, du système nerveux et du monde réel viendront bientôt éclairer le développement et la conception des réseaux neuronaux.

"Il y a quelque chose de louche là-dedans"

Mais si l'on remonte à 1956 et à cette étrange machine à apprendre, c'est l'approche pratique adoptée par Taylor lors de sa construction qui a immédiatement attiré l'attention de Cowan. Il avait clairement transpiré sur l'assemblage des morceaux. Taylor, Cowan a observé lors d'une interview sur son propre rôle dans l'histoire de ces systèmes, « il ne l'a pas fait par théorie, et il ne l'a pas fait sur ordinateur ». Au lieu de cela, avec les outils en main, il « a réellement construit le matériel ». C'était une chose matérielle, une combinaison de pièces, peut-être même un engin. Et tout a été « réalisé avec des circuits analogiques », ce qui a pris à Taylor, note Cowan, « plusieurs années pour le construire et jouer avec ». Un cas d’essais et d’erreurs.

Naturellement, Cowan voulait comprendre ce qu’il voyait. Il a essayé de convaincre Taylor de lui expliquer cette machine à apprendre. Les éclaircissements ne sont pas venus. Cowan n'a pas réussi à convaincre Taylor de lui décrire comment la chose fonctionnait. Les neurones analogiques restaient un mystère. Le problème le plus surprenant, pensait Cowan, était que Taylor « ne comprenait pas vraiment ce qui se passait ». Il ne s’agissait pas seulement d’une rupture momentanée de communication entre les deux scientifiques aux spécialisations différentes, c’était bien plus que cela.

Dans une entretien du milieu des années 1990En repensant à la machine de Taylor, Cowan a révélé que « jusqu'à aujourd'hui, dans les articles publiés, on ne comprend pas vraiment comment elle fonctionne ». Cette conclusion suggère à quel point l’inconnu est profondément ancré dans les réseaux neuronaux. Le caractère inexplicable de ces systèmes neuronaux est présent même depuis les étapes fondamentales et de développement remontant à près de sept décennies.

Ce mystère demeure aujourd’hui et se retrouve dans les formes avancées d’IA. L'insondable fonctionnement des associations réalisées par la machine de Taylor a amené Cowan à se demander s'il n'y avait pas « quelque chose de louche là-dedans ».

Racines longues et enchevêtrées

Cowan a évoqué sa brève visite avec Taylor lorsqu'on l'a interrogé sur la réception de son propre travail quelques années plus tard. Dans les années 1960, les gens étaient, selon Cowan, « un peu lents à comprendre l’intérêt d’un réseau neuronal analogique ». Et ce malgré le fait, se souvient Cowan, que les travaux de Taylor dans les années 1950 sur la « mémoire associative » étaient basés sur des « neurones analogiques ». L'expert en systèmes neuronaux lauréat du prix Nobel, Léon N. Cooper, conclu que les développements autour de l’application du modèle cérébral dans les années 1960 étaient considérés comme « parmi les grands mystères ». En raison de cette incertitude, un scepticisme subsistait quant aux résultats potentiels d'un réseau neuronal. Mais les choses ont commencé lentement à changer.

Il y a une trentaine d’années, le neuroscientifique Walter J. Freeman, surpris par le «remarquables» gamme d'applications trouvées pour les réseaux neuronaux, commentait déjà qu'il ne les considérait pas comme « un type de machine fondamentalement nouveau ». Leur développement a été lent, la technologie étant arrivée en premier, puis des applications ultérieures étant trouvées. Cela a pris du temps. En effet, pour trouver les racines de la technologie des réseaux neuronaux, nous pourrions remonter encore plus loin que la visite de Cowan à la mystérieuse machine de Taylor.

Le scientifique des réseaux neuronaux James Anderson et le journaliste scientifique Edward Rosenfeld ont noté que l'origine des réseaux de neurones remonte aux années 1940 et à certaines premières tentatives visant, comme ils le décrivent, à « comprendre le système nerveux humain et à construire des systèmes artificiels qui agissent comme nous, au moins un petit peu ». Ainsi, dans les années 1940, les mystères du système nerveux humain sont également devenus les mystères de la pensée informatique et de l’intelligence artificielle.

Résumant cette longue histoire, l'écrivain informaticien Larry Hardesty a souligné que l’apprentissage profond sous la forme de réseaux de neurones « est de plus en plus à la mode depuis plus de 70 ans ». Plus précisément, ajoute-t-il, ces « réseaux de neurones ont été proposés pour la première fois en 1944 par Warren McCulloch et Walter Pitts, deux chercheurs de l'Université de Chicago qui ont rejoint le MIT en 1952 en tant que membres fondateurs de ce qu'on appelle parfois le premier département de sciences cognitives ».

Ailleurs, 1943 est parfois la date donnée comme première année pour la technologie. Quoi qu’il en soit, depuis environ 70 ans, les récits suggèrent que les réseaux de neurones sont devenus et sont passés de mode, souvent négligés, mais parfois prenant le dessus et s’installant dans des applications et des débats plus courants. L'incertitude persistait. Ces premiers développeurs décrivent souvent l’importance de leurs recherches comme ayant été négligées, jusqu’à ce qu’elles trouvent leur objectif souvent des années, voire des décennies plus tard.

En passant des années 1960 à la fin des années 1970, nous pouvons découvrir d’autres histoires sur les propriétés inconnues de ces systèmes. Même alors, après trois décennies, le réseau neuronal n’avait toujours pas trouvé de sens. David Rumelhart, qui avait une formation en psychologie et était co-auteur d'une série de livres publiés en 1986 qui ramèneraient plus tard l'attention sur les réseaux de neurones, s'est retrouvé à collaborer au développement des réseaux de neurones. avec son collègue Jay McClelland.

En plus d'être collègues, ils s'étaient récemment rencontrés lors d'une conférence au Minnesota où le discours de Rumelhart sur la « compréhension de l'histoire » avait suscité quelques discussions parmi les délégués.

Après cette conférence, McClelland est revenu avec une réflexion sur la manière de développer un réseau neuronal qui pourrait combiner des modèles pour être plus interactif. Ce qui compte ici, c'est Le souvenir de Rumelhart des « heures et heures et heures de bricolage sur l’ordinateur ».

Nous nous sommes assis et avons fait tout cela sur ordinateur et avons construit ces modèles informatiques, mais nous ne les comprenions tout simplement pas. Nous ne comprenions pas pourquoi ils fonctionnaient ou pourquoi ils ne fonctionnaient pas, ni ce qui était critique chez eux.

Comme Taylor, Rumelhart s’est retrouvé à bricoler le système. Eux aussi ont créé un réseau neuronal fonctionnel et, surtout, ils ne savaient pas non plus comment ni pourquoi il fonctionnait de la manière dont il le faisait, apprenant apparemment des données et trouvant des associations.

Imiter le cerveau - couche après couche

Vous avez peut-être déjà remarqué que lorsqu’on évoque les origines des réseaux de neurones, l’image du cerveau et la complexité qu’elle évoque ne sont jamais loin. Le cerveau humain servait en quelque sorte de modèle à ces systèmes. Au début, en particulier, le cerveau – encore une des grandes inconnues – est devenu un modèle pour le fonctionnement potentiel du réseau neuronal.

Ces nouveaux systèmes expérimentaux étaient donc calqués sur quelque chose dont le fonctionnement était lui-même largement inconnu. L'ingénieur en neuroinformatique Carver Mead a parlé de manière révélatrice de la conception d’un « iceberg cognitif » qui lui avait paru particulièrement séduisante. Ce n'est que la pointe de l'iceberg de la conscience dont nous avons conscience et qui est visible. L’ampleur et la forme du reste restent inconnues sous la surface.

En 1998, James Anderson, qui travaille depuis un certain temps sur les réseaux neuronaux, a souligné qu'en matière de recherche sur le cerveau, « notre découverte majeure semble être la prise de conscience que nous ne savons pas vraiment ce qui se passe ».

Dans un compte rendu détaillé du Financial Times en 2018, le journaliste technologique Richard Waters a noté comment les réseaux neuronaux « sont calqués sur une théorie sur la façon dont le cerveau humain fonctionne, transmettant des données à travers des couches de neurones artificiels jusqu'à ce qu'un modèle identifiable émerge ». Cela crée un problème d’entraînement, a proposé Waters, car « contrairement aux circuits logiques utilisés dans un logiciel traditionnel, il n’existe aucun moyen de suivre ce processus pour identifier exactement pourquoi un ordinateur propose une réponse particulière ». La conclusion de Waters est que ces résultats ne peuvent être ignorés. L’application de ce type de modèle du cerveau, faisant passer les données à travers de nombreuses couches, signifie que la réponse ne peut pas être facilement retracée. Les multiples couches expliquent en grande partie ce phénomène.

Hardesty a également observé que ces systèmes sont « vaguement calqués sur le cerveau humain ». Cela suscite une volonté d’intégrer toujours plus de complexité de traitement afin d’essayer de correspondre au cerveau. Le résultat de cet objectif est un réseau neuronal « composé de milliers, voire de millions de nœuds de traitement simples et densément interconnectés ». Les données transitent par ces nœuds dans une seule direction. Hardesty a observé qu'un « nœud individuel peut être connecté à plusieurs nœuds de la couche située en dessous, à partir desquels il reçoit des données, et à plusieurs nœuds de la couche située au-dessus, auxquels il envoie des données ».

Les modèles du cerveau humain faisaient partie de la manière dont ces réseaux neuronaux ont été conçus dès le départ. Ceci est particulièrement intéressant si l’on considère que le cerveau lui-même était un mystère de l’époque (et l’est encore à bien des égards).

« L'adaptation est la clé du jeu »

Des scientifiques comme Mead et Kohonen voulaient créer un système capable de véritablement s’adapter au monde dans lequel il se trouvait. Il répondrait à ses conditions. Mead était clair sur le fait que l’intérêt des réseaux de neurones était qu’ils pouvaient faciliter ce type d’adaptation. A l'époque, et en réfléchissant à cette ambition, Hydromel ajouté que produire une adaptation « est tout le jeu ». Cette adaptation est nécessaire, pensait-il, « en raison de la nature du monde réel », qui, selon lui, est « trop variable pour avoir quelque chose d'absolu ».

Il fallait tenir compte de ce problème, d'autant plus que, pensait-il, c'était quelque chose que « le système nerveux avait compris depuis longtemps ». Non seulement ces innovateurs travaillaient avec une image du cerveau et de ses inconnues, mais ils la combinaient avec une vision du « monde réel » et des incertitudes, des inconnues et de la variabilité que cela entraîne. Les systèmes, pensait Mead, devaient être capables de réagir et de s'adapter aux circonstances. sans instruction.

À peu près à la même époque, dans les années 1990, Stephen Grossberg – un expert en systèmes cognitifs travaillant dans les domaines des mathématiques, de la psychologie et du génie biomédical – a également fait valoir que l’adaptation sera l’étape importante à long terme. Grossberg, alors qu'il travaillait sur la modélisation des réseaux neuronaux, pensait qu'il s'agissait « de la manière dont les systèmes de mesure et de contrôle biologiques sont conçus pour s'adapter rapidement et de manière stable en temps réel à un monde en rapide fluctuation ». Comme nous l'avons vu plus tôt avec le « rêve » de Kohonen d'un système « auto-organisé », une notion de « monde réel » devient le contexte dans lequel la réponse et l'adaptation sont codées dans ces systèmes. La façon dont ce monde réel est compris et imaginé détermine sans aucun doute la façon dont ces systèmes sont conçus pour s’adapter.

Couches masquées

À mesure que les couches se multipliaient, l’apprentissage profond pénétrait dans de nouvelles profondeurs. Le réseau neuronal est entraîné à l'aide de données d'entraînement qui, Hardesty, « est transmis à la couche inférieure – la couche d’entrée – et passe à travers les couches suivantes, se multipliant et s’additionnant de manière complexe, jusqu’à ce qu’il arrive finalement, radicalement transformé, à la couche de sortie ». Plus il y a de couches, plus la transformation est importante et plus la distance entre l’entrée et la sortie est grande. Le développement des unités de traitement graphique (GPU), dans les jeux par exemple, ajoute Hardesty, « a permis aux réseaux à une couche des années 1960 et aux réseaux à deux ou trois couches des années 1980 de s'épanouir en dix, 15, voire 50 réseaux ». réseaux à couches d’aujourd’hui ».

Les réseaux de neurones deviennent de plus en plus profonds. En effet, c'est à cet ajout de couches, selon Hardesty, que « ce à quoi fait référence le « deep » dans « deep learning ». C’est important, propose-t-il, car « actuellement, l’apprentissage profond est responsable des systèmes les plus performants dans presque tous les domaines de la recherche sur l’intelligence artificielle ».

Mais le mystère devient encore plus profond. À mesure que les couches de réseaux neuronaux se sont accumulées, leur complexité s’est accrue. Cela a également conduit à la croissance de ce que l’on appelle des « couches cachées » dans ces profondeurs. La discussion sur le nombre optimal de couches cachées dans un réseau neuronal est en cours. Le théoricien des médias Béatrice Fazi a écrit que « en raison de la façon dont fonctionne un réseau neuronal profond, s'appuyant sur des couches neuronales cachées prises en sandwich entre la première couche de neurones (la couche d'entrée) et la dernière couche (la couche de sortie), les techniques d'apprentissage en profondeur sont souvent opaques ou illisibles même pour l'utilisateur. programmeurs qui les ont initialement configurés ».

À mesure que les couches augmentent (y compris les couches cachées), elles deviennent encore moins explicables – même, comme il s’avère, encore une fois, pour ceux qui les créent. Faisant le même point, l'éminente penseuse interdisciplinaire des nouveaux médias Katherine Hayles a également noté qu'il y a des limites à « ce que nous pouvons savoir sur le système, un résultat pertinent pour la « couche cachée » des réseaux neuronaux et des algorithmes d'apprentissage profond ».

À la poursuite de l'inexplicable

Pris ensemble, ces longs développements font partie de ce que le sociologue de la technologie Taïna Bucher a appelé la « problématique de l’inconnu ». Élargissant ses recherches influentes sur les connaissances scientifiques au domaine de l'IA, Harry Collins a souligné que l'objectif des réseaux neuronaux est qu'ils puissent être produits par un humain, du moins au début, mais « une fois écrit, le programme vit sa propre vie, pour ainsi dire ; sans d’énormes efforts, la manière exacte dont le programme fonctionne peut rester mystérieuse ». Cela fait écho à ces rêves de longue date d’un système auto-organisé.

J'ajouterais à cela que l'inconnu et peut-être même l'inconnaissable ont été considérés comme un élément fondamental de ces systèmes dès leurs premiers stades. Il y a de fortes chances que plus l’impact de l’intelligence artificielle sur nos vies est grand, moins nous comprendrons comment et pourquoi.

Mais cela ne convient pas à beaucoup aujourd’hui. Nous voulons savoir comment fonctionne l’IA et comment elle parvient aux décisions et aux résultats qui nous affectent. À mesure que les progrès de l’IA continuent de façonner notre connaissance et notre compréhension du monde, ce que nous découvrons, la façon dont nous sommes traités, la façon dont nous apprenons, consommons et interagissons, cette impulsion à comprendre va croître. Lorsqu’il s’agit d’IA explicable et transparente, l’histoire des réseaux de neurones nous dit que nous nous éloignerons probablement de cet objectif à l’avenir, plutôt que de nous en rapprocher.

David Bière, Professeur de sociologie, Université de York

Cet article est republié de The Conversation sous une licence Creative Commons. Lis le article original.