Michal Kosinski est un psychologue de recherche à Stanford avec un flair pour les sujets d’actualité. Il considère son travail comme non seulement une avancée dans la connaissance, mais aussi comme une alerte au monde sur les dangers potentiels déclenchés par les conséquences des systèmes informatiques. Ses projets les plus connus impliquaient l’analyse des façons dont Facebook (maintenant Meta) avait acquis une compréhension étonnamment profonde de ses utilisateurs à partir de toutes les fois où ils cliquaient sur “j’aime” sur la plateforme. Maintenant, il s’est tourné vers l’étude des choses surprenantes que l’IA peut faire. Il a mené des expériences, par exemple, qui indiquent que les ordinateurs pourraient prédire la sexualité d’une personne en analysant une photo numérique de son visage.

J’ai appris à connaître Kosinski à travers mes écrits sur Meta, et je me suis reconnecté avec lui pour discuter de son dernier article, publié cette semaine dans les Actes de l’Académie nationale des sciences, revu par des pairs. Sa conclusion est frappante. Les grands modèles linguistiques comme ceux d’OpenAI, affirme-t-il, ont franchi une frontière et utilisent des techniques analogues à une véritable pensée, autrefois considérées comme relevant uniquement des êtres humains (ou du moins des mammifères). Plus précisément, il a testé GPT-3.5 et GPT-4 d’OpenAI pour voir s’ils avaient maîtrisé ce qui est connu sous le nom de “théorie de l’esprit”. C’est la capacité des humains, développée durant les années d’enfance, à comprendre les processus de pensée des autres humains. C’est une compétence importante. Si un système informatique ne peut pas interpréter correctement ce que les gens pensent, sa compréhension du monde sera appauvrie et il se trompera sur de nombreuses choses. Si les modèles possèdent la théorie de l’esprit, ils sont d’un pas plus près d’égaler et de dépasser les capacités humaines. Kosinski a mis les LLM à l’épreuve et dit maintenant que ses expériences montrent qu’en particulier dans GPT-4, une capacité similaire à la théorie de l’esprit “a pu émerger comme un sous-produit involontaire des compétences linguistiques en amélioration des LLM … Ils signifient l’avènement d’une IA plus puissante et socialement habile.”

Kosinski voit son travail en IA comme une évolution naturelle de sa plongée antérieure dans les “j’aime” de Facebook. “Je n’étais pas vraiment en train d’étudier les réseaux sociaux, j’étudiais les humains,” dit-il. Lorsque OpenAI et Google ont commencé à construire leurs derniers modèles d’IA générative, dit-il, ils pensaient qu’ils les formaient principalement à gérer le langage. “Mais en réalité, ils ont entraîné un modèle de l’esprit humain, car vous ne pouvez pas prédire quel mot je vais dire ensuite sans modéliser mon esprit.”

Kosinski prend soin de ne pas prétendre que les LLM ont complètement maîtrisé la théorie de l’esprit—pour l’instant. Dans ses expériences, il a présenté quelques problèmes classiques aux chatbots, que certains d’entre eux ont bien traités. Mais même le modèle le plus sophistiqué, GPT-4, échouait une fois sur quatre. Les succès, écrit-il, placent GPT-4 au niveau d’enfants de 6 ans. Pas mal, compte tenu de l’état précoce du domaine. “Observant la progression rapide de l’IA, beaucoup se demandent si et quand l’IA pourrait atteindre la théorie de l’esprit ou la conscience,” écrit-il. Mettons de côté ce mot radioactif, c’est beaucoup à digérer.

“Si la théorie de l’esprit est apparue spontanément dans ces modèles, cela suggère également que d’autres capacités peuvent émerger ensuite,” me dit-il. “Ils peuvent être meilleurs pour éduquer, influencer et nous manipuler grâce à ces capacités.” Il s’inquiète que nous ne soyons pas vraiment préparés aux LLM qui comprennent la façon dont les humains pensent. Surtout s’ils atteignent un point où ils comprennent les humains mieux que les humains eux-mêmes.

<

p class=”paywall”>”Nous, les humains, ne simulons pas la personnalité—nous avons une personnalité,” dit-il. “Donc je suis un peu coincé avec ma personnalité. Ces choses modélisent la personnalité. Il y a un avantage à cela, car elles peuvent avoir n’importe quelle personnalité qu’elles veulent à tout moment.” Lorsque je mentionne à Kosinski que cela ressemble à la description d’un sociopathe, il s’illumine. “J’utilise ça dans mes discours!” dit-il. “Un sociopathe peut mettre un masque—il n’est pas vraiment triste, mais il peut jouer une personne triste.” Ce pouvoir chameleon-like pourrait faire de l’IA un escroc supérieur. Sans aucun remords.

Share this post

Articles similaires

16 NOVEMBRE 2024

Porteriez-vous un appareil photo de 11 kg uniquement pour nourrir une IA ?

<p><strong><em>Odyssey, une entreprise innovante dans le domaine de l'IA générative, propose une idée surprenante : installer des caméras sur le dos des individus pour capturer le monde qui les entoure. Le but ? Entraîner des modèles d'IA capables de simuler des environnements virtuels d'une...

0

16 NOVEMBRE 2024

Bitfinex Hacker Écope de 5 Ans pour un Vol de Bitcoin de 10 Milliards de Dollars

Plus : Une "grand-mère IA" fait perdre du temps aux escrocs, un procès vise les dirigeants de la société de logiciels espions NSO Group, et des hackers liés à la Corée du Nord tentent de s'attaquer à des malwares macOS.

0

15 NOVEMBRE 2024

Google vous offrira la possibilité de concevoir des clips artistiques IA pour vos documents.

a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63″>Comment tirer parti de “Créer une image” dans Google Docs.

0

15 NOVEMBRE 2024

Cette mamie IA met les arnaqueurs sur les nerfs et leur fait perdre leur temps.

<p><strong><em>Les escrocs ont découvert une nouvelle adversaire, et elle ressemble à une grand-mère affectueuse.</em></strong></p> <p><strong>Daisy, la grand-mère de l'IA développée par O2</strong>, piège les fraudeurs dans des échanges sans fin. Son objectif ? Leur faire perdre un...

0

15 NOVEMBRE 2024

IA générative : le mythe du « plus c’est grand, mieux c’est » s’écroule

<p><strong><em>La quête incessante de modèles d’IA de plus en plus volumineux touche à ses limites : l’industrie réévalue ses méthodes pour maintenir son efficacité.</em></strong></p> <p>Depuis l'apparition de ChatGPT,<strong> la dimension des modèles</strong> est devenue un sujet...

0