Une tendance croissante se dessine avec des individus et des organisations qui rejettent l’imposition non sollicitée de l’intelligence artificielle (IA) dans leur vie. En décembre 2023, le New York Times a poursuivi OpenAI et Microsoft pour violation de droits d’auteur. En mars 2024, trois auteurs ont déposé une action collective en Californie contre Nvidia, l’accusant d’avoir formé sa plateforme IA NeMo à partir de leurs œuvres protégées. Deux mois plus tard, l’actrice renommée Scarlett Johansson a adressé une lettre légale à OpenAI lorsqu’elle a réalisé que la nouvelle voix de ChatGPT ressemblait « étrangement » à la sienne.
Le problème ici ne réside pas dans la technologie elle-même, mais dans la dynamique de pouvoir qui l’entoure. Les gens prennent conscience que cette technologie est développée à partir de leurs données, souvent sans leur consentement. Il n’est donc pas surprenant que la confiance du public dans l’IA soit en déclin. Une étude récente menée par Pew Research révèle que plus de la moitié des Américains sont plus préoccupés qu’enthousiastes à propos de l’IA, un sentiment partagé par la majorité des personnes provenant de pays d’Amérique centrale et du Sud, d’Afrique et du Moyen-Orient, selon un sondage mondial sur les risques.
En 2025, il est prévu que les individus exigent un plus grand contrôle sur l’utilisation de l’IA. Comment cela pourra-t-il être réalisé ? Un exemple est l’exercice de “red teaming”, une pratique empruntée au domaine militaire et utilisée en cybersécurité. Lors d’un exercice de red teaming, des experts externes sont invités à « infiltrer » ou à compromettre un système, afin de tester les failles de sécurité et d’y remédier.
Les grandes entreprises d’IA utilisent déjà le red teaming pour identifier des problèmes dans leurs modèles, mais cette pratique n’est pas encore largement répandue pour un usage public. Cependant, cela devrait changer en 2025. La firme d’avocats DLA Piper, par exemple, utilise le red teaming pour tester directement si les systèmes d’IA respectent les cadres juridiques. Mon organisation à but non lucratif, Humane Intelligence, met en place des exercices de red teaming avec des experts non techniques, des gouvernements et des organisations de la société civile pour évaluer l’IA en matière de discrimination et de biais. En 2023, nous avons réalisé un exercice impliquant 2 200 personnes, soutenu par la Maison Blanche. En 2025, nos événements de red teaming s’appuieront sur l’expérience vécue de citoyens ordinaires pour évaluer les modèles d’IA en matière d’islamophobie et leur capacité à faciliter le harcèlement en ligne contre les femmes.
Lorsque j’organise l’un de ces exercices, la question la plus fréquente que l’on me pose est de savoir comment évoluer de l’identification des problèmes à la résolution de ceux-ci soi-même. En d’autres termes, les gens désirent un droit à la réparation.
Un droit à la réparation pour l’IA pourrait se manifester de cette manière : un utilisateur pourrait avoir la possibilité d’effectuer des diagnostics sur une IA, de signaler des anomalies et de suivre les corrections apportées par l’entreprise. Des groupes tiers, comme des hackers éthiques, pourraient créer des correctifs pour les problèmes accessibles à tous. Ou encore, vous pourriez engager une partie indépendante accréditée pour évaluer un système d’IA et le personnaliser selon vos besoins.
Bien que cette idée soit aujourd’hui abstraite, nous préparons le terrain pour que le droit à la réparation devienne une réalité à l’avenir. Renverser la dynamique de pouvoir actuelle, qui est dangereuse, nécessitera des efforts : nous sommes rapidement poussés à normaliser un monde où les entreprises d’IA déploient simplement de nouveaux modèles non testés dans des systèmes réels, au détriment de citoyens ordinaires. Un droit à la réparation offrirait à chaque personne la capacité de contrôler l’utilisation de l’IA dans sa vie. 2024 a été l’année où le monde a pris conscience de la prévalence et de l’impact de l’IA. 2025 sera l’année où nous revendiquerons nos droits.
En savoir plus sur L'ABESTIT
Subscribe to get the latest posts sent to your email.
Laisser un commentaire