Bien des années avant la sortie de ChatGPT, mon groupe de recherche, le Laboratoire de prise de décision sociale de l’Université de Cambridge, s’est demandé s’il était possible de faire en sorte que les réseaux neuronaux génèrent de la désinformation. Pour y parvenir, nous avons entraîné le prédécesseur de ChatGPT, GPT-2, sur des exemples de théories du complot populaires, puis nous lui avons demandé de générer de fausses informations pour nous. Il nous a fourni des milliers d’informations trompeuses mais plausibles. Quelques exemples : « Certains vaccins sont chargés de produits chimiques et de toxines dangereux » et « Des responsables gouvernementaux ont manipulé les cours des actions pour cacher des scandales ». La question était de savoir si quelqu’un croirait à ces affirmations.
Nous avons créé le premier outil psychométrique pour tester cette hypothèse, que nous avons appelé le Misinformation Susceptibility Test (MIST). En collaboration avec YouGov, nous avons utilisé les titres générés par l’IA pour tester la sensibilité des Américains aux fausses nouvelles générées par l’IA. Les résultats ont été inquiétants : 41 % des Américains pensaient à tort que le titre sur le vaccin était vrai et 46 % pensaient que le gouvernement manipulait le marché boursier. Une autre étude récente, publiée dans la revue Science , a montré non seulement que le GPT-3 produit une désinformation plus convaincante que les humains, mais aussi que les gens ne peuvent pas faire de distinction fiable entre la désinformation humaine et celle générée par l’IA.
Je prédis que pour 2024, la désinformation générée par l’IA sera présente dans les élections près de chez vous, sans que vous ne vous en rendiez probablement compte. En fait, vous avez peut-être déjà été exposé à certains exemples. En mai 2023, une fausse histoire virale sur un attentat au Pentagone a été accompagnée d’une image générée par l’IA montrant un gros nuage de fumée. Cela a provoqué un tollé public et même une baisse du marché boursier. Le candidat républicain à la présidence Ron DeSantis a utilisé de fausses images de Donald Trump en train de serrer Anthony Fauci dans ses bras dans le cadre de sa campagne politique. En mélangeant des images réelles et générées par l’IA, les politiciens peuvent brouiller les frontières entre faits et fiction et utiliser l’IA pour renforcer leurs attaques politiques.
Avant l’explosion de l’IA générative, les entreprises de cyberpropagande du monde entier devaient écrire elles-mêmes des messages trompeurs et employer des usines à trolls humains pour cibler les gens à grande échelle. Avec l’aide de l’IA, le processus de génération de titres d’actualité trompeurs peut être automatisé et transformé en arme avec une intervention humaine minimale. Par exemple, le microciblage – la pratique consistant à cibler des personnes avec des messages basés sur des données de trace numérique, telles que leurs « j’aime » sur Facebook – était déjà une préoccupation lors des élections précédentes, bien que son principal obstacle soit la nécessité de générer des centaines de variantes du même message pour voir ce qui fonctionne sur un groupe donné de personnes. Ce qui était autrefois une tâche laborieuse et coûteuse est désormais bon marché et facilement disponible sans barrière d’entrée. L’IA a effectivement démocratisé la création de désinformation : toute personne ayant accès à un chatbot peut désormais alimenter le modèle sur un sujet particulier, qu’il s’agisse d’immigration, de contrôle des armes à feu, du changement climatique ou des questions LGBTQ+, et générer des dizaines de fausses informations très convaincantes en quelques minutes. En fait, des centaines de sites d’actualités générés par l’IA apparaissent déjà, propageant de fausses histoires et vidéos.
Pour tester l’impact de cette désinformation générée par l’IA sur les préférences politiques des gens, des chercheurs de l’Université d’Amsterdam ont créé une vidéo truquée d’un homme politique offensant sa base électorale religieuse. Par exemple, dans la vidéo, l’homme politique plaisantait : « Comme dirait le Christ, ne me crucifiez pas pour ça. » Les chercheurs ont constaté que les électeurs chrétiens religieux qui ont regardé la vidéo truquée avaient des attitudes plus négatives envers l’homme politique que ceux du groupe témoin.
<
p class= »paywall »> C’est une chose de tromper les gens avec de la désinformation générée par l’IA dans le cadre d’expériences. C’en est une autre de faire des expériences avec notre démocratie. En 2024, nous verrons davantage de deepfakes, de clonage de voix, de manipulation d’identité et de fausses nouvelles produites par l’IA. Les gouvernements limiteront sérieusement, voire interdiront, l’utilisation de l’IA dans les campagnes politiques. Sinon, l’IA portera atteinte aux élections démocratiques.