Share this post

Le PDG d’OpenAI, Sam Altman, s’attend à ce que l’AGI, ou intelligence générale artificielle—IA qui surpasse les humains dans la plupart des tâches—apparaisse vers 2027 ou 2028. La prévision d’Elon Musk est soit 2025 soit 2026, et il a affirmé qu’il “perdait le sommeil à cause de la menace d’un danger lié à l’IA.” De telles prévisions sont erronées. Alors que les limitations de l’IA actuelle deviennent de plus en plus claires, la plupart des chercheurs en IA en viennent à penser que construire simplement des chatbots plus grands et plus puissants ne mènera pas à l’AGI.

Cependant, en 2025, l’IA posera toujours un risque massif : non pas d’une superintelligence artificielle, mais d’un usage abusif par des humains.

Il peut s’agir d’abus involontaires, comme des avocats qui comptent trop sur l’IA. Après la sortie de ChatGPT, par exemple, un certain nombre d’avocats ont été sanctionnés pour avoir utilisé l’IA pour générer des avis juridiques erronés, apparemment inconscients de la tendance des chatbots à inventer des choses. En Colombie-Britannique, l’avocate Chong Ke a été condamnée à payer des frais à l’avocat adverse après avoir inclus des affaires fictives générées par l’IA dans un dépôt légal. À New York, Steven Schwartz et Peter LoDuca ont été condamnés à une amende de 5 000 $ pour avoir fourni de fausses citations. Au Colorado, Zachariah Crabill a été suspendu pendant un an pour avoir utilisé des affaires judiciaires fictives générées avec ChatGPT et avoir blâmé un “stagiaire juridique” pour les erreurs. La liste s’allonge rapidement.

D’autres abus sont intentionnels. En janvier 2024, des deepfakes sexuellement explicites de Taylor Swift ont inondé les plateformes de médias sociaux. Ces images ont été créées à l’aide de l’outil d’IA “Designer” de Microsoft. Bien que la société ait mis en place des garde-fous pour éviter de générer des images de vraies personnes, une simple faute d’orthographe du nom de Swift a suffi à les contourner. Microsoft a depuis corrigé cette erreur. Mais Taylor Swift n’est que la partie émergée de l’iceberg, et les deepfakes non consensuels prolifèrent largement—en partie parce que les outils open-source pour créer des deepfakes sont disponibles publiquement. Une législation en cours à travers le monde cherche à combattre les deepfakes dans l’espoir de limiter les dégâts. Reste à voir si cela sera efficace.

En 2025, il sera encore plus difficile de distinguer ce qui est réel de ce qui est inventé. La fidélité de l’audio, du texte et des images générés par l’IA est remarquable, et la vidéo sera la prochaine. Cela pourrait conduire au “dividende des menteurs” : ceux qui occupent des positions de pouvoir reniant des preuves de leur mauvaise conduite en affirmant qu’elles sont fausses. En 2023, Tesla a soutenu qu’une vidéo de 2016 d’Elon Musk aurait pu être un deepfake en réponse à des allégations selon lesquelles le PDG avait exagéré la sécurité de l’autopilote de Tesla, ce qui a conduit à un accident. Un homme politique indien a affirmé que des extraits audio de lui reconnaissant la corruption dans son parti politique avaient été falsifiés (l’audio d’au moins un de ses extraits a été vérifié comme étant réel par un média). Et deux accusés des émeutes du 6 janvier ont affirmé que les vidéos dans lesquelles ils apparurent étaient des deepfakes. Les deux ont été reconnus coupables.

Pendant ce temps, les entreprises exploitent la confusion publique pour vendre des produits fondamentalement douteux en les étiquetant “IA.” Cela peut mal tourner lorsque de tels outils sont utilisés pour classer les gens et prendre des décisions importantes à leur sujet. Par exemple, la société de recrutement Retorio prétend que son IA prédit l’adéquation des candidats à un emploi en fonction des entretiens vidéo, mais une étude a révélé que le système pouvait être trompé simplement par la présence de lunettes ou en remplaçant un fond uni par une bibliothèque, montrant qu’il repose sur des corrélations superficielles.

Il existe également des dizaines d’applications dans les soins de santé, l’éducation, la finance, la justice pénale et l’assurance où l’IA est actuellement utilisée pour priver les gens d’importantes opportunités de vie. Aux Pays-Bas, l’autorité fiscale néerlandaise a utilisé un algorithme d’IA pour identifier les personnes ayant commis une fraude à l’aide sociale pour enfants. Elle a faussement accusé des milliers de parents, souvent en leur demandant de rembourser des dizaines de milliers d’euros. Dans la foulée, le Premier ministre et tout son cabinet ont démissionné.

En 2025, nous nous attendons à ce que les risques liés à l’IA ne proviennent pas de l’IA agissant seule, mais de ce que les gens en font. Cela inclut des cas où il semble bien fonctionner et est surutilisé (avocats utilisant ChatGPT); quand il fonctionne bien et est mal utilisé (deepfakes non consensuels et le dividende des menteurs); et quand il n’est tout simplement pas adapté à son usage (priver les gens de leurs droits). Atténuer ces risques est une tâche immense pour les entreprises, les gouvernements et la société. Cela sera déjà assez difficile sans se laisser distraire par des inquiétudes de science-fiction.


En savoir plus sur L'ABESTIT

Subscribe to get the latest posts sent to your email.

Articles similaires

26 DéCEMBRE 2024

Il est temps de dépasser le nationalisme en matière d’IA

En 2025, la perception de l'intelligence artificielle et de la géopolitique évoluera vers une coopération internationale au détriment du nationalisme. L'essor de l'IA, marqué par des...

0

23 DéCEMBRE 2024

Trump Révèle Ses Nouvelles Nominations en Politique Technologique pour un Deuxième Mandat : Ce Que Cela Signifie...

Dans des publications sur Truth Social, Donald Trump a annoncé des nominations pour son équipe de politique technologique, sous la direction de David Sacks, czar de l'IA et des crypto-monnaies....

0

23 DéCEMBRE 2024

“Les Smartphones IA Qui N’ont Jamais Vu le Jour en 2024 : Innovations Manquées et Promesses Non...

Malgré de nombreuses promesses, l'IA sur les smartphones reste largement décevante. Bien que les lancements récents aient vanté des capacités d'IA, les fonctionnalités réelles sont souvent...

0

23 DéCEMBRE 2024

Transformez vos débats en ligne : Découvrez comment l’IA peut influencer vos arguments !

L'auteur, journaliste, exprime son inquiétude face à la dépendance croissante des gens vis-à-vis de l'intelligence artificielle, en particulier des chatbots comme ChatGPT. Ce phénomène, qu'il...

0

23 DéCEMBRE 2024

Les agents d’IA seront des moteurs de manipulation

Se soumettre à des agents algorithmiques risque de nous mettre sous leur influence....<div class="media_block"><img...

0

22 DéCEMBRE 2024

La course pour traduire les sons des animaux en langage humain

Avec d'importants prix en espèces en jeu—et l'IA boostant la recherche—la traduction interespèces est plus proche que jamais. Mais que voudraient nous dire les animaux, s'ils avaient quelque...

0

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

En savoir plus sur L'ABESTIT

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture