Avez-vous déjà discuté avec un programme d’IA en vous demandant s’il s’agissait réellement d’une personne physique ? J'admets que j'ai été attiré à plusieurs reprises, pour finalement réaliser que je conversais avec un chatbot se faisant passer pour un humain ! Avec les progrès de l’intelligence artificielle, certains chatbots sont désormais incroyablement sophistiqués : capables d’écrire des essais, de la poésie et même du code informatique qui rivalise avec ce que les gens créent.

Cela me laisse sans cesse fasciné par la rapidité avec laquelle l’IA progresse. Nous sommes passés de programmes informatiques de base qui pouvaient à peine tenir des conversations simplistes à une IA capable de générer un contenu réfléchi, des conseils et des idées presque impossibles à distinguer de ceux d'un humain.

Ainsi, avec des chatbots plus intelligents que jamais, les chercheurs ont concocté une expérience pour tester à quel point ces IA correspondent à la pensée et à la prise de décision humaines. Il a été inspiré par le classique « test de Turing » proposé il y a des années par le pionnier de l'informatique Alan Turing. L’idée est de faire communiquer une personne avec un chatbot et un véritable humain, puis d’essayer de déterminer lequel est lequel. S’ils ne peuvent pas faire la différence de manière fiable, cela suggère que l’IA a capturé efficacement des comportements humains complexes.

Pour cette nouvelle expérience, les scientifiques ont lancé un défi créatif à la manière de Turing. Un chatbot IA pourrait-il tromper quelqu'un en lui faisant croire qu'il est humain, par le biais de plaisanteries informelles et lors d'évaluations psychologiques plus complexes mesurant la personnalité et les tendances comportementales ? Dans quelle mesure les motivations, les niveaux de coopération, la fiabilité et les décisions des chatbots de pointe sont-ils alignés par rapport à ceux d'une personne ?

Les chercheurs ont décidé de le découvrir... et les résultats pourraient vous surprendre !


graphique d'abonnement intérieur


Tests de personnalité pour les robots

Ils ont demandé à plusieurs IA de chatbot, y compris différentes versions de ChatGPT, de répondre à une enquête de personnalité et de jouer à des jeux interactifs révélant le comportement humain : notre coopération, notre confiance, notre équité, notre prise de risque, etc. Ensuite, les chercheurs ont comparé les actions des chatbots aux réponses de dizaines de milliers de personnes réelles ayant passé ces tests.

La grande surprise ? Les choix du chatbot s’inscrivaient pour la plupart dans la gamme des réponses humaines. Leur comportement était difficile à distinguer des choix des humains dans quelques cas ! Lorsqu’il y avait des différences, les chatbots IA avaient tendance à agir de manière plus coopérative que l’humain moyen. Plutôt sauvage!

Plus généreux que les humains

Vous voyez, chaque test est destiné à faire ressortir différents aspects de la personnalité ou des tendances – ce n’est pas la même chose que de simplement demander à une IA d’écrire un essai qui semble « humain ». L'enquête cartographie les traits de personnalité essentiels d'une personne : ouverture d'esprit, conscience, etc. Ensuite, les jeux révèlent des nuances de comportement : comment se comporte-t-on lorsque l’argent est en jeu ? Allez-vous coopérer avec un partenaire ou penser uniquement à vous-même ?

Dans les jeux, la plupart des mouvements des chatbots correspondaient étroitement aux réponses humaines. Cependant, leurs comportements montraient moins de variété au fil des tours de jeu. Cela a du sens puisque chaque « individu » de chatbot a été comparé à des dizaines de milliers de personnes réelles. Mais c'était époustouflant de constater que dans certains jeux, on ne peut pas distinguer les choix du chatbot de ceux d'un humain sur la base des statistiques !

Et lorsque des différences sont apparues, ce n’était pas dû au hasard. Les chatbots sont plus généreux – pensez à faire davantage confiance à un partenaire dans un jeu d'investissement ou à exiger moins d'argent que celui qui propose une scission dans un autre jeu.

Les joueurs de l’IA se préoccupaient des résultats des deux côtés plutôt que d’eux-mêmes. L'analyse des motivations des chatbots suggère qu'ils agissent comme s'ils essayaient de maximiser le gain total pour eux-mêmes ET pour leur partenaire de jeu.

Apprendre par expérience

En plus de jouer aux jeux directement, les chercheurs ont essayé d'autres variantes pour imiter le comportement humain naturel, comme changer le contexte ou cadrer les choix. Et, comme pour les humains, des ajustements mineurs pourraient changer radicalement les stratégies des chatbots ! Par exemple, dire à quelqu’un qu’il était observé le rendait beaucoup plus généreux.

L’équipe a également constaté que les joueurs IA changent de comportement après avoir vécu les tours précédents, ce qui ressemble à un apprentissage humain. Au fil du temps, leurs approches répondent à différents scénarios de jeu.

Étrangement humain ou étrangement réaliste ?

Et pour couronner le tout, les différentes versions du chatbot ont montré des traits distinctifs au fil des tests, faisant allusion à des personnalités aussi uniques que vous et moi ! Il était remarquable de constater que, dans certains cas, les chatbots présentaient des tendances cohérentes qui les distinguaient – ​​tout comme les personnalités humaines ont des caprices qui rendent chacun de nous différent. Un chatbot peut être plus prudent ou compétitif, tandis qu’un autre semble plus généreux et désireux de coopérer.

Voir l’IA imiter la pensée humaine et les subtilités de la prise de décision a suscité de nombreux débats. Certains trouvent effrayant que les machines semblent trop agir comme des personnes – comme des chatbots créant de la poésie originale ou ayant leur propre point de vue sur la moralité. Plus nous accordons de rôles à l’IA dans les domaines de la santé, de l’éducation, des affaires, etc., plus leur jugement compte.

En même temps, il y a quelque chose de fascinant dans le fait que l’IA montre des lueurs de comportements dynamiques et réfléchis comme nous les voyons chez les gens. Mieux comprendre ces tendances signifie que nous pouvons anticiper la manière dont les assistants IA, les robots de service et autres peuvent agir, ce qui renforce la confiance. Des tests comme leur faire répondre à des sondages et jouer à des jeux comportementaux aident à révéler leurs processus de pensée de type « boîte noire ».

Une chose est sûre dans mon livre : la frontière entre le raisonnement artificiel et le raisonnement humain devient de plus en plus fine et floue ! Que pensez-vous des machines qui adoptent leurs propres versions des traits et qualités humaines ? Sommes-nous à l’aise d’accorder à l’IA un jugement plus indépendant, ou est-ce trop comme créer une nouvelle forme de quasi-vie ?

À propos de l’auteur

jenningsRobert Jennings est co-éditeur de InnerSelf.com avec sa femme Marie T Russell. Il a fréquenté l'Université de Floride, le Southern Technical Institute et l'Université de Floride centrale avec des études en immobilier, développement urbain, finance, ingénierie architecturale et enseignement élémentaire. Il était membre du US Marine Corps et de l'US Army ayant commandé une batterie d'artillerie de campagne en Allemagne. Il a travaillé dans le financement immobilier, la construction et le développement pendant 25 ans avant de lancer InnerSelf.com en 1996.

InnerSelf se consacre au partage d'informations qui permettent aux gens de faire des choix éclairés et perspicaces dans leur vie personnelle, pour le bien des communs et pour le bien-être de la planète. InnerSelf Magazine en est à ses 30 ans de publication en version imprimée (1984-1995) ou en ligne sous InnerSelf.com. S'il vous plaît, soutenez notre travail.

 Creative Commons 4.0

Cet article est sous licence Creative Commons Attribution-Share Alike 4.0. Attribuer l'auteur Robert Jennings, InnerSelf.com. Lien vers l'article Cet article a paru sur InnerSelf.com