Share this post

Pas même l’autorité, juste les signifiants de l’autorité

Au cours des 20 dernières années passées en tant que journaliste, j’ai vu et écrit sur de nombreuses choses qui ont irrévocablement changé ma vision de l’humanité. Mais ce n’est que récemment qu’une chose m’a vraiment perturbé.

Je parle d’un phénomène que vous avez peut-être aussi remarqué : l’appel à l’IA.

Il y a de fortes chances que vous ayez vu quelqu’un utiliser l’appel à l’IA en ligne, voire l’avez entendu à voix haute. C’est une erreur logique que l’on pourrait résumer en trois mots : “J’ai demandé à ChatGPT.”

  • J’ai demandé à ChatGPT de m’aider à comprendre ma maladie mystérieuse.
  • J’ai demandé à ChatGPT de me donner des conseils de tough love qu’ils pensent que j’ai le plus besoin pour grandir en tant que personne.
  • J’ai utilisé ChatGPT pour créer une routine de soins de la peau sur mesure.
  • ChatGPT a fourni un argument selon lequel l’éloignement relationnel de Dieu (c’est-à-dire, la damnation) est nécessairement possible, sur la base de principes logiques et métaphysiques abstraits, c’est-à-dire le tiers exclu, sans faire appel à la nature des relations, à l’amour véritable, à la libre volonté ou au respect.
  • Tant d’agences gouvernementales existent que même le gouvernement ne sait pas combien il y en a ! [basé entièrement sur une réponse de Grok, qui est screenshotée]

Tous les exemples n’utilisent pas cette formulation exacte, bien que ce soit la façon la plus simple de résumer le phénomène. Les gens pourraient utiliser Google Gemini, ou Microsoft Copilot, ou leur petite amie chatbot, par exemple. Mais l’élément commun est de placer une confiance réflexive, injustifiée, dans un système technique qui n’est pas conçu pour faire ce que vous lui demandez, et ensuite d’exiger que d’autres personnes l’acceptent également.

Et chaque fois que je vois cet appel à l’IA, ma première pensée est la même : Es-tu vraiment stupide ou quoi ? Depuis un certain temps, “J’ai demandé à ChatGPT” en tant que phrase suffit à me faire abandonner — je n’avais aucun intérêt à ce que cette personne avait à dire. Je l’ai mentalement classé parmi les erreurs logiques, vous savez, celles-ci : le faux dilemme, l’argument ad hominem, le Gish gallop et le no true Scotsman. Si je commentais encore sur les forums, ce serait le genre de chose que je critiquerais. Mais l’appel à l’IA commence à se produire si souvent que je vais serrer les dents et essayer de le comprendre.

Je vais commencer par le plus simple : l’exemple Musk — le dernier — est un homme faisant de la publicité pour son produit tout en s’engageant dans de la propagande en même temps. Les autres sont plus complexes.

Pour commencer, je trouve ces exemples tristes. Dans le cas de la maladie mystérieuse, l’écrivain se tourne vers ChatGPT pour obtenir le type d’attention — et de réponses — qu’ils n’ont pas pu obtenir d’un médecin. Dans le cas des conseils de “tough love”, le questionneur dit qu’il est “choqué et surpris par l’exactitude des réponses”, même si les réponses sont toutes des balivernes génériques que vous pouvez obtenir de n’importe quelle émission de radio, allant jusqu’à “les applications de rencontres ne sont pas le problème, votre peur de la vulnérabilité l’est.” Dans le cas de la routine de soin de la peau, l’écrivain aurait pu aussi bien en obtenir une d’un magazine féminin — il n’y a rien de particulièrement sur mesure à ce sujet.

Quant à l’argument sur la damnation : l’enfer est réel et j’y suis déjà.

Les systèmes comme ChatGPT, comme quiconque familier avec les modèles de langage large le sait, prédisent les réponses probables aux requêtes en générant des séquences de mots basées sur des motifs dans une bibliothèque de données d’entraînement. Il y a une énorme quantité d’informations créées par des humains en ligne, et donc ces réponses sont souvent correctes : demandez-lui “quelle est la capitale de la Californie”, par exemple, et il répondra Sacramento, plus une autre phrase inutile. (Parmi mes objections mineures à ChatGPT : ses réponses sonnent comme celles d’un élève de sixième essayant de respecter un minimum de mots.) Même pour des questions plus ouvertes comme celles ci-dessus, ChatGPT peut construire une réponse plausible basée sur des données d’entraînement. Les conseils sur l’amour et la peau sont génériques car d’innombrables écrivains en ligne ont donné des conseils exactement comme cela.

Le problème est que ChatGPT n’est pas fiable. Le texte de ChatGPT semble confiant, et les réponses sont détaillées. Ce n’est pas la même chose que d’être vrai, mais cela a les signifiants d’être vrai. Ce n’est pas toujours manifestement incorrect, en particulier en ce qui concerne les réponses — comme avec les conseils en amour — où le questionneur peut facilement projeter. Le biais de confirmation est réel et vrai et mon ami. J’ai déjà écrit sur les types de problèmes que rencontrent les gens lorsqu’ils font confiance à un système d’autoprévision pour des questions factuelles complexes. Pourtant, malgré la fréquence de ces problèmes, les gens continuent à agir exactement de cette manière.

Comment établir la confiance est une question épineuse. En tant que journaliste, j’aime montrer mon travail — je vous dis qui m’a dit quoi quand, ou je vous montre ce que j’ai fait pour essayer de confirmer que quelque chose est vrai. Avec les faux pardons présidentiels, je vous ai montré quelles sources primaires j’ai utilisées afin que vous puissiez faire vous-même une requête.

Mais la confiance est aussi un heuristique, qui peut être facilement abusée. Dans les fraudes financières, par exemple, la présence d’un fonds de capital-risque spécifique dans un tour peut suggérer à d’autres fonds de capital-risque que quelqu’un a déjà effectué la diligence requise, les conduisant à sauter le processus intensif eux-mêmes. Un appel à l’autorité repose sur la confiance en tant qu’heuristique — c’est une mesure pratique, bien que parfois défectueuse, qui peut faire gagner du temps.

La personne qui demande concernant la maladie mystérieuse fait appel à l’IA parce que les humains n’ont pas de réponses et qu’ils sont désespérés. La question des soins de la peau semble être de la pure paresse. Pour la personne cherchant des conseils en amour, je me demande juste comment ils en sont arrivés au point dans leur vie où ils n’avaient personne de humain à demander — comment se fait-il qu’ils n’aient pas un ami qui les ait vus interagir avec d’autres personnes. En ce qui concerne la question de l’enfer, il y a une odeur de “la machine a jugé que la damnation est logique”, ce qui est simplement foutrement embarrassant.

L’appel à l’IA est distinct des histoires “J’ai demandé à ChatGPT” à propos, disons, de lui faire compter les “r” dans “fraise” — ce n’est pas un test des limites du chatbot ou une manière de s’y engager de manière auto-consciente. Il y a peut-être deux manières de le comprendre. La première est “J’ai demandé à la boîte magique de réponses et elle m’a dit”, dans le même ton que “Eh bien, l’Oracle de Delphes a dit…” La seconde est, “J’ai demandé à ChatGPT et je ne peux pas être tenu responsable s’il a tort.”

La seconde est paresseuse. La première est alarmante.

Sam Altman et Elon Musk, parmi d’autres, partagent la responsabilité de l’appel à l’IA. Combien de temps avons-nous écouté des capitaines de l’industrie dire que l’IA sera capable de penser bientôt ? Qu’elle surpassera les humains et prendra nos emplois ? Il y a ici une sorte de logique bovine à l’œuvre : Elon Musk et Sam Altman sont très riches, donc ils doivent être très intelligents — ils sont plus riches que vous, donc ils sont plus intelligents que vous. Et ils vous disent que l’IA peut penser. Pourquoi ne les croiriez-vous pas ? De plus, le monde n’est-il pas tellement plus cool s’ils ont raison ?

Il y a aussi une grande récompense en attention pour faire une histoire d’appel à l’IA ; l’idiote histoire du chatbot Bing de Kevin Roose en est un exemple. Bien sûr, c’est crédule et ringard — mais voir des experts échouer au test du miroir a tendance à attirer l’attention des gens. (À tel point, en fait, que Roose a ensuite écrit une seconde histoire où il a demandé aux chatbots ce qu’ils pensaient de lui.) Sur les réseaux sociaux, il y a une incitation à mettre l’appel à l’IA au premier plan pour obtenir de l’engagement ; il y a tout un culte de weirdos influenceurs de l’IA qui sont plus qu’heureux de promouvoir ces choses. Si vous offrez des récompenses sociales pour des comportements stupides, les gens s’engageront dans des comportements stupides. C’est ainsi que fonctionnent les modes.

Il y a une chose de plus et c’est Google. Google Search a commencé comme un annuaire en ligne exceptionnellement bon, mais depuis des années, Google a encouragé à le voir comme une boule de cristal qui fournit la seule vraie réponse à la demande. C’était le but des extraits avant l’essor de l’IA générative, et maintenant, l’intégration des réponses IA l’a emmené plusieurs étapes plus loin.

Malheureusement pour Google, ChatGPT est une boule de cristal plus séduisante. Disons que je veux remplacer le caoutchouc de mes essuie-glaces. Un retour de recherche Google pour “remplacer le caoutchouc d’essuie-glace” me montre une large variété de déchets, commençant par l’aperçu de l’IA. À côté se trouve une vidéo YouTube. Si je fais défiler plus bas, il y a un extrait ; à côté se trouve une photo. En dessous, il y a des recherches suggérées, puis plus de suggestions vidéo, puis des réponses sur le forum Reddit. C’est chargé et désordonné.

Maintenant, allons sur ChatGPT. Demander “Comment puis-je remplacer le caoutchouc d’essuie-glace ?” me donne une mise en page plus propre : une réponse avec des sous-titres et des étapes. Je n’ai aucun lien immédiat vers des sources et aucune façon d’évaluer si je reçois de bons conseils — mais j’ai une réponse claire, qui semble autoritaire sur une interface propre. Si vous ne savez pas ou ne vous souciez pas de la façon dont les choses fonctionnent, ChatGPT semble meilleur.

L’appel à l’IA est l’exemple parfait de la loi d’Arthur Clarke : “Toute technologie suffisamment avancée est indistinguable de la magie.” La technologie derrière un LLM est suffisamment avancée parce que les personnes qui l’utilisent ne se sont pas donné la peine de la comprendre. Le résultat a été un tout nouveau genre déprimant d’histoire d’actualité : une personne dépend de l’IA générative seulement pour obtenir des résultats inventés. Je trouve également déprimant que peu importe combien il y en a — que ce soient de faux pardons présidentiels, de fausses citations, des jurisprudences inventées ou des citations de films fabriquées — ils semblent n’avoir aucun impact. Même la question de la colle sur la pizza n’a pas arrêté “J’ai demandé à ChatGPT”.

Que c’est une machine à conneries — dans le sens philosophique — ne semble pas déranger beaucoup de questionneurs. Un LLM, par sa nature, ne peut pas déterminer si ce qu’il dit est vrai ou faux. (Au moins un menteur sait ce qu’est la vérité.) Il n’a pas accès au monde réel, seulement aux représentations écrites du monde qu’il “voit” à travers des jetons.

Ainsi, l’appel à l’IA, alors, est l’appel aux signifiants de l’autorité. ChatGPT semble confiant, même quand il ne devrait pas, et ses réponses sont détaillées, même quand elles sont erronées. L’interface est propre. Vous n’avez pas besoin de faire un jugement sur quel lien cliquer. Certains riches vous ont dit que cela allait être plus intelligent que vous bientôt. Un reporter du New York Times fait exactement cela. Alors pourquoi réfléchir, quand l’ordinateur peut le faire pour vous ?

Je ne peux pas dire combien de cela est une confiance naïve et combien est du pur nihilisme de luxe. D’une certaine manière, “le robot me dira la vérité” et “personne ne réparera quoi que ce soit et Google a tort de toute façon, alors pourquoi ne pas faire confiance au robot” équivalent à la même chose : un manque de foi dans l’effort humain, un mépris pour la connaissance humaine, et l’incapacité à nous faire confiance. Je ne peux m’empêcher de sentir que cela nous mène vers quelque chose de très sombre. Des personnes importantes parlent d’interdire le vaccin contre la polio. Des résidents du New Jersey pointent des lasers sur des avions durant la période de voyage la plus chargée de l’année. L’ensemble de l’élection présidentielle était inondé de théories du complot. De plus, n’est-il pas plus amusant si les extraterrestres sont réels, qu’il y a un cabale secrète dirigeant le monde, et que l’IA est en fait intelligente ?

Dans ce contexte, il est peut-être facile de croire qu’il y a une boîte magique de réponses dans l’ordinateur, et qu’elle est totalement autoritaire, tout comme notre vieux ami la Sibylle à Delphes. Si vous croyez que l’ordinateur est infailliblement compétent, vous êtes prêt à croire n’importe quoi. Il s’avère que l’avenir a toujours été prédit par Jean Baudrillard : qui a besoin de la réalité quand nous avons des signifiants ? Quelle réalité m’a jamais aidé, de toute façon ?


En savoir plus sur L'ABESTIT

Subscribe to get the latest posts sent to your email.

Articles similaires

26 DéCEMBRE 2024

Il est temps de dépasser le nationalisme en matière d’IA

En 2025, la perception de l'intelligence artificielle et de la géopolitique évoluera vers une coopération internationale au détriment du nationalisme. L'essor de l'IA, marqué par des...

0

23 DéCEMBRE 2024

Trump Révèle Ses Nouvelles Nominations en Politique Technologique pour un Deuxième Mandat : Ce Que Cela Signifie...

Dans des publications sur Truth Social, Donald Trump a annoncé des nominations pour son équipe de politique technologique, sous la direction de David Sacks, czar de l'IA et des crypto-monnaies....

0

23 DéCEMBRE 2024

“Les Smartphones IA Qui N’ont Jamais Vu le Jour en 2024 : Innovations Manquées et Promesses Non...

Malgré de nombreuses promesses, l'IA sur les smartphones reste largement décevante. Bien que les lancements récents aient vanté des capacités d'IA, les fonctionnalités réelles sont souvent...

0

23 DéCEMBRE 2024

Les agents d’IA seront des moteurs de manipulation

Se soumettre à des agents algorithmiques risque de nous mettre sous leur influence....<div class="media_block"><img...

0

22 DéCEMBRE 2024

La course pour traduire les sons des animaux en langage humain

Avec d'importants prix en espèces en jeu—et l'IA boostant la recherche—la traduction interespèces est plus proche que jamais. Mais que voudraient nous dire les animaux, s'ils avaient quelque...

0

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

En savoir plus sur L'ABESTIT

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture