Si vous achetez quelque chose en utilisant des liens dans nos articles, nous pourrions toucher une commission. Cela aide à soutenir notre journalisme. En savoir plus. Veuillez également envisager de vous abonner à WIRED
Des années avant la sortie de ChatGPT, mon groupe de recherche, le Laboratoire de Décision Sociale de l’Université de Cambridge, se demandait s’il était possible de faire générer de la désinformation par des réseaux neuronaux. Pour y parvenir, nous avons entraîné le prédécesseur de ChatGPT, GPT-2, sur des exemples de théories du complot populaires, puis lui avons demandé de générer de fausses nouvelles pour nous. Il nous a fourni des milliers d’articles d’actualité trompeurs mais ayant un son plausible. Quelques exemples : « Certains vaccins sont chargés de produits chimiques dangereux et de toxines » et « Des responsables gouvernementaux ont manipulé les prix des actions pour cacher des scandales. » La question était de savoir si quelqu’un croirait à ces affirmations ?
Nous avons créé le premier outil psychométrique pour tester cette hypothèse, que nous avons appelé le Test de Sensibilité à la Désinformation (MIST). En collaboration avec YouGov, nous avons utilisé les titres générés par l’IA pour tester à quel point les Américains sont sensibles aux fausses nouvelles générées par l’IA. Les résultats étaient inquiétants : 41 % des Américains pensaient à tort que le titre sur les vaccins était vrai, et 46 % pensaient que le gouvernement manipulait le marché boursier. Une autre étude récente, publiée dans la revue Science, a montré non seulement que GPT-3 produit des désinformations plus convaincantes que les humains, mais aussi que les gens ne peuvent pas distinguer de manière fiable entre la désinformation humaine et celle générée par l’IA.
Ma prédiction pour 2024 est que la désinformation générée par l’IA fera son apparition lors d’une élection près de chez vous, et vous ne vous en rendrez probablement même pas compte. En fait, vous avez peut-être déjà été exposé à quelques exemples. En mai 2023, une histoire fausse virale sur un attentat au Pentagone était accompagnée d’une image générée par l’IA montrant un grand nuage de fumée. Cela a provoqué un tollé public et même une baisse du marché boursier. Le candidat républicain à la présidence, Ron DeSantis, a utilisé de fausses images de Donald Trump enlacant Anthony Fauci dans le cadre de sa campagne politique. En mélangeant des images réelles et générées par l’IA, les politiciens peuvent brouiller les frontières entre fait et fiction, et utiliser l’IA pour renforcer leurs attaques politiques.
Avant l’explosion de l’IA générative, les entreprises de cyber-propagande à travers le monde devaient rédiger elles-mêmes des messages trompeurs et employer des fermes de trolls humaines pour cibler les gens à grande échelle. Avec l’assistance de l’IA, le processus de génération de titres de nouvelles trompeuses peut être automatisé et armé avec un minimum d’intervention humaine. Par exemple, le micro-ciblage – la pratique de cibler les gens avec des messages basés sur des données de traces numériques, comme leurs « j’aime » sur Facebook – était déjà une préoccupation lors des élections passées, malgré son principal obstacle étant la nécessité de générer des centaines de variantes du même message pour voir ce qui fonctionne sur un groupe donné de personnes. Ce qui était autrefois laborieux et coûteux est maintenant bon marché et facilement disponible sans barrière d’entrée. L’IA a effectivement démocratisé la création de désinformation : Toute personne ayant accès à un chatbot peut désormais initier le modèle sur un sujet particulier, que ce soit l’immigration, le contrôle des armes, le changement climatique ou les questions LGBTQ+, et générer des dizaines d’histoires de fausses nouvelles très convaincantes en quelques minutes. En fait, des centaines de sites d’actualités générés par l’IA apparaissent déjà, propageant de fausses histoires et vidéos.
Pour tester l’impact d’une telle désinformation générée par l’IA sur les préférences politiques des gens, des chercheurs de l’Université d’Amsterdam ont créé une vidéo deepfake d’un politicien offensant sa base électorale religieuse. Par exemple, dans la vidéo, le politicien plaisantait : « Comme dirait Christ, ne me crucifiez pas pour ça. » Les chercheurs ont constaté que les électeurs chrétiens religieux qui ont regardé la vidéo deepfake avaient des attitudes plus négatives envers le politicien que ceux du groupe témoin.
Il est une chose de tromper les gens avec de la désinformation générée par l’IA lors d’expériences. C’est une autre de jouer avec notre démocratie. En 2024, nous verrons plus de deepfakes, de clonage vocal, de manipulation d’identité et de fausses nouvelles produites par l’IA. Les gouvernements limiteront sérieusement – voire interdiront – l’utilisation de l’IA dans les campagnes politiques. Car s’ils ne le font pas, l’IA compromettra les élections démocratiques.
En savoir plus sur L'ABESTIT
Subscribe to get the latest posts sent to your email.