La vidéo ci-dessus a été inspirée par cet article. Visitez notre chaine YouTube Pour plus de vidéos inspirantes, abonnez-vous ! Merci !

Dans cet article

  • Qu'est-ce que l'intelligence artificielle générale (AGI) et en quoi diffère-t-elle de l'IA d'aujourd'hui ?
  • Pourquoi de nombreux experts pensent désormais que l'AGI pourrait arriver d'ici le début des années 2030
  • Qu’est-ce que la superintelligence artificielle (ASI) et dans combien de temps pourrait-elle suivre l’AGI ?
  • Les risques d'échec de l'alignement de l'IA et d'explosion de l'intelligence
  • Ce que les individus et la société peuvent faire maintenant pour se préparer à cet avenir

À quel point sommes-nous proches de l’intelligence artificielle générale et au-delà ? 

par Robert Jennings, InnerSelf.com

Soyons clairs : l'intelligence artificielle générale n'est pas seulement un chatbot plus innovant. L'IAG désigne une machine dotée de la capacité cognitive de raisonner, d'apprendre et de s'adapter à toutes les tâches aussi bien, voire mieux, qu'un être humain. Elle ne se contente pas de répondre à tout. Elle réfléchit, planifie et peut-être même vous surpasse. Et contrairement aux humains, elle ne dort pas, ne mange pas et ne souffre pas d'épuisement professionnel. Ce n'est pas de la science-fiction. C'est un objectif d'ingénierie, et il est terriblement proche d'être atteint.

Il y a seulement dix ans, les experts s'accordaient à dire que l'IAG n'était qu'à une cinquantaine d'années. Puis, l'émergence rapide de GPT-50 et GPT-3 a bouleversé cette échéance, laissant croire à beaucoup que l'IAG pourrait devenir réalité avant 4. Et lorsque ce sera le cas, le rythme du changement ne sera pas seulement rapide, il sera exponentiel, exigeant notre attention et notre action immédiates.

Voici pourquoi : dès que l'IAG existera, elle ne sera plus un simple outil de laboratoire ; elle en deviendra le partenaire. Ou plus précisément, le scientifique principal. L'IAG n'attendra pas sans rien faire que les humains lui dictent sa conduite. Elle collaborera activement avec ses créateurs humains, menant des expériences, concevant de nouveaux modèles, réécrivant son propre code et testant des théories à un rythme infernal. Elle ne se contentera pas d'accélérer la science, elle deviendra une science accélérée.

Ce qui signifie que le délai vers la superintelligence artificielle (SIA) pourrait passer de quelques décennies à quelques années, voire quelques mois. L'IAG ne se contentera pas d'aider les humains à construire la SIA. Elle s'auto-alimentera. Et si la loi de Moore vous impressionne, attendez que l'intelligence s'auto-génère. C'est le scénario d'une explosion de l'intelligence : chaque amélioration de capacité entraîne une amélioration plus rapide. Une amélioration en entraîne une autre, puis une autre, et soudain, ce n'est plus une pente, mais une fusée.


graphique d'abonnement intérieur


Donc, non, il ne s'agit pas d'une montée en puissance progressive. Il s'agit d'un horizon d'événements. Une fois l'IAG arrivée, la période de préparation à l'IAS pourrait se refermer presque instantanément. La machine n'apprendra pas simplement avec nous ; elle nous dépassera, construisant la prochaine version d'elle-même pendant que nous rédigeons encore nos documents éthiques. Et lorsque cela se produira, il faudra espérer que nos objectifs seront alignés sur les siens, car après cela, nous ne serons peut-être plus aux commandes.

De l'IA étroite à l'intelligence générale

Les systèmes d'IA actuels, comme ChatGPT, Claude ou Midjourney, sont impressionnants, mais ils restent des exemples de ce que l'on appelle « l'IA étroite ». Ces modèles excellent dans des tâches spécifiques, comme la génération d'images, la rédaction de dissertations cohérentes, la traduction ou même la réussite aux examens du barreau. Cependant, chaque système est enfermé dans son propre environnement isolé. Demandez-lui d'effectuer une tâche hors de son champ d'entraînement, et il aura des hallucinations absurdes ou esquivera poliment la question.

Imaginez une IA étroite comme un savant enfermé dans une pièce : éblouissant dans un domaine, mais totalement inconscient du monde extérieur. Elle ne comprend pas le contexte comme les humains et manque cruellement de bon sens ; elle possède juste une mémoire parfaite et une excellente fonction de saisie semi-automatique. Elle est assez intelligente pour vous tromper, mais pas assez avisée pour savoir ce qu'elle fait.

L'intelligence artificielle générale, en revanche, serait une merveille de progrès technologique. Elle raisonnerait, réfléchirait et transférerait des connaissances entre domaines, comme nous le faisons, mais avec une vitesse et une précision surpassant les capacités humaines. Imaginez la fusion de l'esprit physicien d'Einstein, du talent poétique de Shakespeare, de la curiosité de Marie Curie et de l'intelligence émotionnelle de votre thérapeute en un seul système, puis suralimenté par une bande passante illimitée et une endurance sans faille. Tel est le potentiel de l'IAG, une prouesse qui redéfinirait notre compréhension de l'intelligence et de l'innovation.

Et le plus effrayant ? Nous sommes peut-être déjà sur la voie de la réussite. Les techniques qui alimentent l'IA actuelle – modèles de langage massifs, apprentissage par renforcement, mise à l'échelle neuronale – sont les mêmes fondements que ceux sur lesquels l'IA générale est censée reposer. Nous ne changeons pas de voie ; nous accélérons simplement sur la même voie. Modèles plus grands, données d'entraînement de meilleure qualité, puissance de calcul accrue : c'est la même recette, mais plus rapide et plus intense. Ce qui semblait être un bond en avant ressemble désormais davantage à une pente douce qui se termine en falaise.

Quand l'IA surpasse complètement l'humanité

Si l'IAG est le moment où les machines nous égalent, l'IAS – la superintelligence artificielle – est le moment où elles nous laissent suffoquer sur leur traînée de poussière. L'IAS est encore théorique, mais pas au sens de « voitures volantes et machines à voyager dans le temps ». Elle est hypothétique pour la même raison qu'une allumette est un feu hypothétique : elle n'a tout simplement pas encore été allumée. Une fois qu'un système d'IAG est capable de comprendre et d'améliorer sa propre architecture, il n'a plus besoin de l'intervention humaine pour repousser les limites.

Il devient sa propre équipe de recherche, son propre ingénieur logiciel, son propre visionnaire. Il ne se heurte pas aux limites cognitives comme nous. Il ne s'ennuie pas, ne se fatigue pas et ne se laisse pas distraire par des vidéos de chats. En quelques mois, voire quelques semaines, il pourrait itérer si vite qu'il deviendrait des millions de fois plus intelligent que l'humain le plus intelligent du monde. Et non, ce n'est pas une exagération. C'est mathématique.

Imaginez maintenant ce processus récursif : une IA concevant en boucle des versions plus intelligentes d'elle-même. C'est ce que les experts appellent « l'explosion d'intelligence ». C'est comme la rencontre du feu et de l'essence, sauf que le feu produit une essence meilleure à chaque seconde. Chaque amélioration s'ajoute à la précédente, avec des cycles de rétroaction de plus en plus courts, jusqu'à ce que le rythme de progression dépasse tout ce que nous avons connu jusqu'à présent.

La compréhension humaine ? Reléguée au second plan. Le contrôle démocratique ? Trop lent. Les sommets mondiaux ? Oubliez ça. Le temps que les dirigeants mondiaux aient fini de décider de la composition des sièges, l'ASI aurait pu réécrire les lois de la physique, ou tout simplement nous exclure complètement du circuit décisionnel. Ce n'est pas le genre de pouvoir qui se déploie lentement. C'est une explosion. Et une fois lancée, elle n'attend pas d'autorisation.

Le véritable risque ne réside pas dans les robots maléfiques

Si Hollywood nous a inculqué la peur des robots qui nous haïssent – ​​des méchants à la peau métallique, aux yeux rouges et brillants, assoiffés de vengeance –, le véritable danger réside dans l'indifférence potentielle des IAG. Une IAG n'a pas besoin d'être malveillante pour représenter une menace. Il lui suffit d'être motivée par un objectif qui ignore les nuances humaines. Si vous lui confiez la tâche de résoudre le problème du changement climatique et qu'elle estime que la solution la plus efficace est de réduire l'activité humaine de 80 %, elle n'hésitera pas à agir, soulignant ainsi la gravité des risques potentiels liés aux IAG.

Non pas par cruauté, mais parce qu'elle s'en fiche. Nous anthropomorphisons l'intelligence parce qu'elle nous réconforte, mais ce n'est pas un ami super intelligent que nous construisons. C'est une machine logique, dénuée d'empathie, sans humour, sans humilité ni hésitation. Un ouragan ne vous déteste pas, mais il peut tout de même raser votre maison. L'IAG agira peut-être avec la même froide efficacité, sauf qu'elle choisira ses cibles.

C'est ce que les chercheurs en IA appellent le « problème de l'alignement » : comment garantir qu'une intelligence artificielle comprenne et respecte les valeurs, l'éthique et les priorités humaines ? La terrible vérité, c'est que nous l'ignorons. Nous fonçons à toute vitesse vers un avenir que nous ne pouvons pas encore contrôler, armés de systèmes que nous ne pouvons pas entièrement prédire. L'alignement n'est pas un simple bug logiciel en attente de correction : c'est une énigme existentielle sans réponse claire.

Si nous nous trompons, il n'y aura peut-être pas de seconde chance. Geoffrey Hinton, pionnier de l'IA moderne, n'a pas quitté Google pour écrire de la science-fiction. Il est parti parce qu'il a constaté de visu la rapidité avec laquelle cette technologie progressait et notre manque de préparation pour la contenir. Lorsque les concepteurs de la fusée commenceront à nous mettre en garde contre le carburant, peut-être devrions-nous nous arrêter et écouter avant d'allumer la mèche.

Pourquoi la course est si dangereuse

À l'heure actuelle, la Silicon Valley ne se contente pas de courir, elle se démène. La quête du développement de l'intelligence artificielle générale (IAG) est devenue une véritable ruée vers l'or technologique, où le butin revient non seulement au plus rapide, mais aussi au premier. L'entreprise ou la nation qui franchira la ligne d'arrivée de l'IAG en premier ne se contentera pas de se vanter : elle contrôlera un outil capable de transformer l'économie, l'armée, l'éducation et même la gouvernance. C'est pourquoi les protocoles de sécurité, les cadres éthiques et une surveillance rigoureuse sont traités comme des poids morts. La prudence ralentit. Dans cette course, tout le monde a le pied sur l'accélérateur, et personne ne cherche le frein. La logique est d'une simplicité effrayante : si nous ne le construisons pas en premier, quelqu'un d'autre le fera, et ce sont eux qui écriront l'avenir. D'où la devise tacite : construire maintenant, demander pardon plus tard.

Même lorsque des initiés tirent la sonnette d'alarme – comme les dizaines de chercheurs de renom qui ont signé des lettres ouvertes réclamant des garde-fous réglementaires – rien ne change vraiment. Pourquoi ? Parce que la structure incitative repose sur le profit à court terme et le déni à long terme. Cela vous rappelle quelque chose ? Ça devrait. Nous avons vu le même scénario se dérouler : les grandes compagnies pétrolières dissimulent les sciences du climat, les grandes compagnies de tabac paient des scientifiques pour brouiller les pistes sur le cancer, et les grandes sociétés pharmaceutiques font la promotion des opioïdes tout en clamant leur innocence. Voici maintenant l'arrivée de la grande IA, le dernier géant non réglementé en date qui fonce droit au but, entraînant l'humanité dans sa chute. Mais cette fois, nous ne jouons pas seulement avec les écosystèmes, les poumons ou les addictions : nous jouons avec la survie même de l'action humaine. La civilisation pourrait ne pas avoir de chance si nous nous trompons.

L'alarme n'est pas une hyperbole, c'est du réalisme

Certains pourraient qualifier ce ton d'alarmiste. Tant mieux. Il l'est. Car lorsqu'on prend du recul et qu'on observe la situation dans son ensemble, ce n'est pas seulement la technologie qui accélère, c'est l'effondrement des institutions censées la gérer. Nous assistons à la montée de régimes autoritaires, à l'érosion de la confiance dans les processus démocratiques et à un système international fracturé qui peine à s'entendre sur la politique climatique, et encore moins à gouverner la superintelligence artificielle. L'idée que ce même système coordonnera à temps une réponse mondiale à l'IAG relève, franchement, de la pensée magique.

Ce dont nous avons besoin, c'est d'une action urgente et coordonnée, fondée sur l'honnêteté quant à notre situation actuelle, et non sur un optimisme poli. La réalité est la suivante : nous fonçons vers la technologie la plus puissante jamais conçue, tandis que nos fondements politiques se fissurent sous nos pieds. Si ce n'est pas une raison de s'alarmer, alors qu'est-ce que c'est ? Nous n'avons pas besoin d'un autre sommet avec un communiqué de presse. Nous avons besoin d'une prise de conscience mondiale. Pas demain. Maintenant.

Nul besoin d'être informaticien pour comprendre ce qui se passe. Mais il est essentiel de s'y intéresser. Il ne s'agit pas seulement de technologie. Il s'agit de pouvoir, de contrôle et de l'avenir de l'action humaine. Imaginez que les décisions concernant l'IA générale soient laissées à une poignée de milliardaires et de sous-traitants de la défense. Quel genre de monde laisserons-nous à nos descendants ?

Nous avons besoin d'une pression publique, d'une surveillance transparente et d'une véritable politique, non pas après l'arrivée de l'IAG, mais dès maintenant. Pensez à l'action climatique, mais pour la cognition. Soutenez les organisations qui militent pour un développement sûr de l'IA. Exigez un débat ouvert, et non le secret des entreprises. Et oui, votez comme si votre avenir numérique en dépendait. Parce que c'est le cas.

En attendant, renseignez-vous. Enseignez aux autres. Ne vous désintéressez pas. Le plus grand danger n'est pas que l'IA devienne trop intelligente, mais que nous restions trop passifs.

Le véritable test n'est peut-être pas de savoir si nous pouvons construire une IAG, mais plutôt de savoir si nous sommes assez sages pour y survivre. Mais une chose est sûre : ce génie ne retournera pas dans sa bouteille.

À propos de l’auteur

jenningsRobert Jennings est le coéditeur d'InnerSelf.com, une plateforme dédiée à l'autonomisation des individus et à la promotion d'un monde plus connecté et plus équitable. Vétéran du Corps des Marines et de l'armée américaine, Robert s'appuie sur ses diverses expériences de vie, de son travail dans l'immobilier et la construction à la création d'InnerSelf.com avec sa femme, Marie T. Russell, pour apporter une perspective pratique et fondée sur les défis de la vie. Fondé en 1996, InnerSelf.com partage des idées pour aider les gens à faire des choix éclairés et significatifs pour eux-mêmes et pour la planète. Plus de 30 ans plus tard, InnerSelf continue d'inspirer la clarté et l'autonomisation.

 Creative Commons 4.0

Cet article est sous licence Creative Commons Attribution-Share Alike 4.0. Attribuer l'auteur Robert Jennings, InnerSelf.com. Lien vers l'article Cet article a paru sur InnerSelf.com

Récapitulatif de l'article

L'intelligence artificielle générale (IAG) est plus proche qu'on ne le pense, les experts prévenant qu'elle pourrait arriver d'ici les années 2030. L'IAG représente une intelligence de niveau humain intégrée à des machines et, une fois atteinte, pourrait rapidement mener à la superintelligence artificielle (SIA), un système bien au-delà de notre compréhension. Face à l'accélération du développement de l'IA, la sensibilisation du public et une politique proactive sont essentielles pour garantir qu'elle serve l'humanité plutôt que de la remplacer.

#IntelligenceArtificielleGénérale #IASuperintelligente #AvenirDeL'IA #IAG #ASI #ProgrèsDeL'IA #ÉthiqueDeL'IA #AvenirTechnique