Michal Kosinski est un psychologue de recherche à Stanford avec un flair pour les sujets d’actualité. Il considère son travail comme non seulement une avancée dans la connaissance, mais aussi comme une alerte au monde sur les dangers potentiels déclenchés par les conséquences des systèmes informatiques. Ses projets les plus connus impliquaient l’analyse des façons dont Facebook (maintenant Meta) avait acquis une compréhension étonnamment profonde de ses utilisateurs à partir de toutes les fois où ils cliquaient sur “j’aime” sur la plateforme. Maintenant, il s’est tourné vers l’étude des choses surprenantes que l’IA peut faire. Il a mené des expériences, par exemple, qui indiquent que les ordinateurs pourraient prédire la sexualité d’une personne en analysant une photo numérique de son visage.
J’ai appris à connaître Kosinski à travers mes écrits sur Meta, et je me suis reconnecté avec lui pour discuter de son dernier article, publié cette semaine dans les Actes de l’Académie nationale des sciences, revu par des pairs. Sa conclusion est frappante. Les grands modèles linguistiques comme ceux d’OpenAI, affirme-t-il, ont franchi une frontière et utilisent des techniques analogues à une véritable pensée, autrefois considérées comme relevant uniquement des êtres humains (ou du moins des mammifères). Plus précisément, il a testé GPT-3.5 et GPT-4 d’OpenAI pour voir s’ils avaient maîtrisé ce qui est connu sous le nom de “théorie de l’esprit”. C’est la capacité des humains, développée durant les années d’enfance, à comprendre les processus de pensée des autres humains. C’est une compétence importante. Si un système informatique ne peut pas interpréter correctement ce que les gens pensent, sa compréhension du monde sera appauvrie et il se trompera sur de nombreuses choses. Si les modèles possèdent la théorie de l’esprit, ils sont d’un pas plus près d’égaler et de dépasser les capacités humaines. Kosinski a mis les LLM à l’épreuve et dit maintenant que ses expériences montrent qu’en particulier dans GPT-4, une capacité similaire à la théorie de l’esprit “a pu émerger comme un sous-produit involontaire des compétences linguistiques en amélioration des LLM … Ils signifient l’avènement d’une IA plus puissante et socialement habile.”
Kosinski voit son travail en IA comme une évolution naturelle de sa plongée antérieure dans les “j’aime” de Facebook. “Je n’étais pas vraiment en train d’étudier les réseaux sociaux, j’étudiais les humains,” dit-il. Lorsque OpenAI et Google ont commencé à construire leurs derniers modèles d’IA générative, dit-il, ils pensaient qu’ils les formaient principalement à gérer le langage. “Mais en réalité, ils ont entraîné un modèle de l’esprit humain, car vous ne pouvez pas prédire quel mot je vais dire ensuite sans modéliser mon esprit.”
Kosinski prend soin de ne pas prétendre que les LLM ont complètement maîtrisé la théorie de l’esprit—pour l’instant. Dans ses expériences, il a présenté quelques problèmes classiques aux chatbots, que certains d’entre eux ont bien traités. Mais même le modèle le plus sophistiqué, GPT-4, échouait une fois sur quatre. Les succès, écrit-il, placent GPT-4 au niveau d’enfants de 6 ans. Pas mal, compte tenu de l’état précoce du domaine. “Observant la progression rapide de l’IA, beaucoup se demandent si et quand l’IA pourrait atteindre la théorie de l’esprit ou la conscience,” écrit-il. Mettons de côté ce mot radioactif, c’est beaucoup à digérer.
“Si la théorie de l’esprit est apparue spontanément dans ces modèles, cela suggère également que d’autres capacités peuvent émerger ensuite,” me dit-il. “Ils peuvent être meilleurs pour éduquer, influencer et nous manipuler grâce à ces capacités.” Il s’inquiète que nous ne soyons pas vraiment préparés aux LLM qui comprennent la façon dont les humains pensent. Surtout s’ils atteignent un point où ils comprennent les humains mieux que les humains eux-mêmes.
<
p class=”paywall”>”Nous, les humains, ne simulons pas la personnalité—nous avons une personnalité,” dit-il. “Donc je suis un peu coincé avec ma personnalité. Ces choses modélisent la personnalité. Il y a un avantage à cela, car elles peuvent avoir n’importe quelle personnalité qu’elles veulent à tout moment.” Lorsque je mentionne à Kosinski que cela ressemble à la description d’un sociopathe, il s’illumine. “J’utilise ça dans mes discours!” dit-il. “Un sociopathe peut mettre un masque—il n’est pas vraiment triste, mais il peut jouer une personne triste.” Ce pouvoir chameleon-like pourrait faire de l’IA un escroc supérieur. Sans aucun remords.