Le PDG d’OpenAI, Sam Altman, s’attend à ce que l’AGI, ou intelligence générale artificielle—IA qui surpasse les humains dans la plupart des tâches—apparaisse vers 2027 ou 2028. La prévision d’Elon Musk est soit 2025 soit 2026, et il a affirmé qu’il “perdait le sommeil à cause de la menace d’un danger lié à l’IA.” De telles prévisions sont erronées. Alors que les limitations de l’IA actuelle deviennent de plus en plus claires, la plupart des chercheurs en IA en viennent à penser que construire simplement des chatbots plus grands et plus puissants ne mènera pas à l’AGI.
Cependant, en 2025, l’IA posera toujours un risque massif : non pas d’une superintelligence artificielle, mais d’un usage abusif par des humains.
Il peut s’agir d’abus involontaires, comme des avocats qui comptent trop sur l’IA. Après la sortie de ChatGPT, par exemple, un certain nombre d’avocats ont été sanctionnés pour avoir utilisé l’IA pour générer des avis juridiques erronés, apparemment inconscients de la tendance des chatbots à inventer des choses. En Colombie-Britannique, l’avocate Chong Ke a été condamnée à payer des frais à l’avocat adverse après avoir inclus des affaires fictives générées par l’IA dans un dépôt légal. À New York, Steven Schwartz et Peter LoDuca ont été condamnés à une amende de 5 000 $ pour avoir fourni de fausses citations. Au Colorado, Zachariah Crabill a été suspendu pendant un an pour avoir utilisé des affaires judiciaires fictives générées avec ChatGPT et avoir blâmé un “stagiaire juridique” pour les erreurs. La liste s’allonge rapidement.
D’autres abus sont intentionnels. En janvier 2024, des deepfakes sexuellement explicites de Taylor Swift ont inondé les plateformes de médias sociaux. Ces images ont été créées à l’aide de l’outil d’IA “Designer” de Microsoft. Bien que la société ait mis en place des garde-fous pour éviter de générer des images de vraies personnes, une simple faute d’orthographe du nom de Swift a suffi à les contourner. Microsoft a depuis corrigé cette erreur. Mais Taylor Swift n’est que la partie émergée de l’iceberg, et les deepfakes non consensuels prolifèrent largement—en partie parce que les outils open-source pour créer des deepfakes sont disponibles publiquement. Une législation en cours à travers le monde cherche à combattre les deepfakes dans l’espoir de limiter les dégâts. Reste à voir si cela sera efficace.
En 2025, il sera encore plus difficile de distinguer ce qui est réel de ce qui est inventé. La fidélité de l’audio, du texte et des images générés par l’IA est remarquable, et la vidéo sera la prochaine. Cela pourrait conduire au “dividende des menteurs” : ceux qui occupent des positions de pouvoir reniant des preuves de leur mauvaise conduite en affirmant qu’elles sont fausses. En 2023, Tesla a soutenu qu’une vidéo de 2016 d’Elon Musk aurait pu être un deepfake en réponse à des allégations selon lesquelles le PDG avait exagéré la sécurité de l’autopilote de Tesla, ce qui a conduit à un accident. Un homme politique indien a affirmé que des extraits audio de lui reconnaissant la corruption dans son parti politique avaient été falsifiés (l’audio d’au moins un de ses extraits a été vérifié comme étant réel par un média). Et deux accusés des émeutes du 6 janvier ont affirmé que les vidéos dans lesquelles ils apparurent étaient des deepfakes. Les deux ont été reconnus coupables.
Pendant ce temps, les entreprises exploitent la confusion publique pour vendre des produits fondamentalement douteux en les étiquetant “IA.” Cela peut mal tourner lorsque de tels outils sont utilisés pour classer les gens et prendre des décisions importantes à leur sujet. Par exemple, la société de recrutement Retorio prétend que son IA prédit l’adéquation des candidats à un emploi en fonction des entretiens vidéo, mais une étude a révélé que le système pouvait être trompé simplement par la présence de lunettes ou en remplaçant un fond uni par une bibliothèque, montrant qu’il repose sur des corrélations superficielles.
Il existe également des dizaines d’applications dans les soins de santé, l’éducation, la finance, la justice pénale et l’assurance où l’IA est actuellement utilisée pour priver les gens d’importantes opportunités de vie. Aux Pays-Bas, l’autorité fiscale néerlandaise a utilisé un algorithme d’IA pour identifier les personnes ayant commis une fraude à l’aide sociale pour enfants. Elle a faussement accusé des milliers de parents, souvent en leur demandant de rembourser des dizaines de milliers d’euros. Dans la foulée, le Premier ministre et tout son cabinet ont démissionné.
En 2025, nous nous attendons à ce que les risques liés à l’IA ne proviennent pas de l’IA agissant seule, mais de ce que les gens en font. Cela inclut des cas où il semble bien fonctionner et est surutilisé (avocats utilisant ChatGPT); quand il fonctionne bien et est mal utilisé (deepfakes non consensuels et le dividende des menteurs); et quand il n’est tout simplement pas adapté à son usage (priver les gens de leurs droits). Atténuer ces risques est une tâche immense pour les entreprises, les gouvernements et la société. Cela sera déjà assez difficile sans se laisser distraire par des inquiétudes de science-fiction.
En savoir plus sur L'ABESTIT
Subscribe to get the latest posts sent to your email.
Laisser un commentaire