Une tendance croissante se dessine avec des individus et des organisations qui rejettent l’imposition non sollicitée de l’intelligence artificielle (IA) dans leur vie. En décembre 2023, le New York Times a poursuivi OpenAI et Microsoft pour violation de droits d’auteur. En mars 2024, trois auteurs ont déposé une action collective en Californie contre Nvidia, l’accusant d’avoir formé sa plateforme IA NeMo à partir de leurs œuvres protégées. Deux mois plus tard, l’actrice renommée Scarlett Johansson a adressé une lettre légale à OpenAI lorsqu’elle a réalisé que la nouvelle voix de ChatGPT ressemblait « étrangement » à la sienne.

Le problème ici ne réside pas dans la technologie elle-même, mais dans la dynamique de pouvoir qui l’entoure. Les gens prennent conscience que cette technologie est développée à partir de leurs données, souvent sans leur consentement. Il n’est donc pas surprenant que la confiance du public dans l’IA soit en déclin. Une étude récente menée par Pew Research révèle que plus de la moitié des Américains sont plus préoccupés qu’enthousiastes à propos de l’IA, un sentiment partagé par la majorité des personnes provenant de pays d’Amérique centrale et du Sud, d’Afrique et du Moyen-Orient, selon un sondage mondial sur les risques.

En 2025, il est prévu que les individus exigent un plus grand contrôle sur l’utilisation de l’IA. Comment cela pourra-t-il être réalisé ? Un exemple est l’exercice de “red teaming”, une pratique empruntée au domaine militaire et utilisée en cybersécurité. Lors d’un exercice de red teaming, des experts externes sont invités à « infiltrer » ou à compromettre un système, afin de tester les failles de sécurité et d’y remédier.

Les grandes entreprises d’IA utilisent déjà le red teaming pour identifier des problèmes dans leurs modèles, mais cette pratique n’est pas encore largement répandue pour un usage public. Cependant, cela devrait changer en 2025. La firme d’avocats DLA Piper, par exemple, utilise le red teaming pour tester directement si les systèmes d’IA respectent les cadres juridiques. Mon organisation à but non lucratif, Humane Intelligence, met en place des exercices de red teaming avec des experts non techniques, des gouvernements et des organisations de la société civile pour évaluer l’IA en matière de discrimination et de biais. En 2023, nous avons réalisé un exercice impliquant 2 200 personnes, soutenu par la Maison Blanche. En 2025, nos événements de red teaming s’appuieront sur l’expérience vécue de citoyens ordinaires pour évaluer les modèles d’IA en matière d’islamophobie et leur capacité à faciliter le harcèlement en ligne contre les femmes.

Lorsque j’organise l’un de ces exercices, la question la plus fréquente que l’on me pose est de savoir comment évoluer de l’identification des problèmes à la résolution de ceux-ci soi-même. En d’autres termes, les gens désirent un droit à la réparation.

Un droit à la réparation pour l’IA pourrait se manifester de cette manière : un utilisateur pourrait avoir la possibilité d’effectuer des diagnostics sur une IA, de signaler des anomalies et de suivre les corrections apportées par l’entreprise. Des groupes tiers, comme des hackers éthiques, pourraient créer des correctifs pour les problèmes accessibles à tous. Ou encore, vous pourriez engager une partie indépendante accréditée pour évaluer un système d’IA et le personnaliser selon vos besoins.

Bien que cette idée soit aujourd’hui abstraite, nous préparons le terrain pour que le droit à la réparation devienne une réalité à l’avenir. Renverser la dynamique de pouvoir actuelle, qui est dangereuse, nécessitera des efforts : nous sommes rapidement poussés à normaliser un monde où les entreprises d’IA déploient simplement de nouveaux modèles non testés dans des systèmes réels, au détriment de citoyens ordinaires. Un droit à la réparation offrirait à chaque personne la capacité de contrôler l’utilisation de l’IA dans sa vie. 2024 a été l’année où le monde a pris conscience de la prévalence et de l’impact de l’IA. 2025 sera l’année où nous revendiquerons nos droits.


En savoir plus sur L'ABESTIT

Subscribe to get the latest posts sent to your email.

Share this post

Articles similaires

26 NOVEMBRE 2024

Évaluation du libre-échange : L’hypocrisie présumée de Macron – Situation au Liban : Quelles solutions...

Nous sommes le mardi 26 novembre 2024. Dans cette édition de Toujours debout,...

0

26 NOVEMBRE 2024

L’industrie de la crypto-monnaie aide Donald Trump à choisir le président de la SEC.

L'équipe de transition du président élu consulte des leaders du secteur pour...

0

26 NOVEMBRE 2024

Le fabricant de téléphones Xiaomi a conçu la voiture que n’a pas pu réaliser Apple.

Xiaomi, avec son tout premier véhicule électrique, présente une construction...

0

26 NOVEMBRE 2024

Analyse des raisons du renouveau de la colère parmi les agriculteurs

Les producteurs s'engagent pour une variété de raisons, telles que le revenu,...

0

26 NOVEMBRE 2024

Le début de la fin des grandes entreprises technologiques

De la part des politiciens aux sociétés de capital-risque, il semble que...

0

26 NOVEMBRE 2024

Les pays dépendant des rentes et ceux investissant à l’échelle mondiale : une analyse.

La France parvient à se financer de manière durable grâce au travail et à...

0

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

En savoir plus sur L'ABESTIT

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Continue reading