Mittelsteadt ajoute que Trump pourrait punir les entreprises de diverses manières. Il cite, par exemple, la façon dont le gouvernement Trump a annulé un important contrat fédéral avec Amazon Web Services, une décision probablement influencée par la vision qu’avait l’ancien président du Washington Post et de son propriétaire, Jeff Bezos.
Il ne serait pas difficile pour les décideurs de pointer des preuves de biais politique dans les modèles d’IA, même si cela peut aller dans les deux sens.
Une étude de 2023 menée par des chercheurs de l’Université de Washington, de l’Université Carnegie Mellon et de l’Université Jiaotong de Xi’an a révélé une gamme d’inclinaisons politiques dans différents grands modèles de langage. Elle a également montré comment ce biais peut affecter les performances des systèmes de détection de discours de haine ou de désinformation.
Une autre étude, réalisée par des chercheurs de l’Université de science et de technologie de Hong Kong, a trouvé des biais dans plusieurs modèles d’IA open source sur des sujets polarisants tels que l’immigration, les droits reproductifs et le changement climatique. Yejin Bang, une doctorante impliquée dans ce travail, dit que la plupart des modèles ont tendance à pencher vers le libéralisme et à être centrés sur les États-Unis, mais que les mêmes modèles peuvent exprimer une variété de biais libéraux ou conservateurs selon le sujet.
Les modèles d’IA capturent des biais politiques car ils sont entraînés sur des pans de données internet qui incluent inévitablement toutes sortes de perspectives. La plupart des utilisateurs peuvent ne pas être conscients de biais dans les outils qu’ils utilisent car les modèles incorporent des garde-fous qui les empêchent de générer certains contenus nuisibles ou biaisés. Ces biais peuvent toutefois s’exprimer subtilement, et la formation supplémentaire que les modèles reçoivent pour restreindre leur production peut introduire un partisanisme supplémentaire. “Les développeurs pourraient s’assurer que les modèles sont exposés à plusieurs perspectives sur des sujets divisifs, leur permettant de répondre avec un point de vue équilibré”, dit Bang.
La question pourrait s’aggraver à mesure que les systèmes d’IA deviennent plus répandus, dit Ashique KhudaBukhsh, un informaticien de l’Institut de technologie de Rochester qui a développé un outil appelé le Toxicity Rabbit Hole Framework, qui met en lumière les différents biais sociétaux des grands modèles de langage. “Nous craignons qu’un cycle vicieux ne soit sur le point de commencer alors que de nouvelles générations de LLM seront de plus en plus formées sur des données contaminées par du contenu généré par l’IA”, dit-il.
“Je suis convaincu que ce biais au sein des LLM est déjà un problème et sera probablement un problème encore plus grand à l’avenir,” dit Luca Rettenberger, un chercheur postdoctoral à l’Institut de technologie de Karlsruhe qui a mené une analyse des LLMs pour des biais liés à la politique allemande.
Rettenberger suggère que des groupes politiques pourraient également chercher à influencer les LLM pour promouvoir leurs propres vues au détriment de celles des autres. “Si quelqu’un est très ambitieux et a des intentions malveillantes, il pourrait être possible de manipuler les LLM dans certaines directions,” dit-il. “Je considère la manipulation des données d’entraînement comme un véritable danger.”
Il y a déjà eu certains efforts pour modifier l’équilibre des biais dans les modèles d’IA. En mars dernier, un programmeur a développé un chatbot plus orienté à droite dans le but de mettre en lumière les biais subtils qu’il voyait dans des outils comme ChatGPT. Musk a lui-même promis de faire de Grok, le chatbot IA construit par xAI, “maximiquement avide de vérité” et moins biaisé que d’autres outils d’IA, bien qu’en pratique, il reste également prudent lorsqu’il s’agit de questions politiques épineuses. (Un fervent supporter de Trump et un défenseur de l’immigration, la propre vision de Musk de “moins biaisé” peut également se traduire par des résultats plus orientés à droite.)
Les élections de la semaine prochaine aux États-Unis ne sont guère susceptibles de guérir la discorde entre démocrates et républicains, mais si Trump gagne, le discours sur l’IA anti-woke pourrait devenir beaucoup plus fort.
Musk a offert une vision apocalyptique sur la question lors de l’événement de cette semaine, faisant référence à un incident où Gemini de Google a déclaré qu’une guerre nucléaire serait préférable à mal appeler Caitlyn Jenner. “Si vous avez une IA qui est programmée pour des choses comme ça, elle pourrait conclure que la meilleure façon de s’assurer que personne n’est mal appelé est d’anéantir tous les humains, rendant ainsi la probabilité d’une future méprise zéro,” a-t-il déclaré.
Laisser un commentaire