L’IA est-elle capable de commettre des erreurs et de transformer des innocents en criminels ? Plongez dans la réalité avec l’histoire de Martin Bernklau, un journaliste allemand injustement accusé par l’IA.

De nos jours, l’IA est employée dans divers secteurs et commence déjà à s’intégrer dans le domaine judiciaire et les enquêtes criminelles. Certains profileurs l’utilisent déjà pour conduire des recherches et des investigations. Mais, peut-on vraiment considérer l’IA comme infaillible à 100 % ? Voici quelques exemples, pas si isolés, qui pourraient vous donner des frissons, surtout quand l’IA fait passer des innocents pour des coupables.

Quand l’IA hallucine ou désigne des innocents comme criminels…

Avant le triste épisode de Bernklau, des témoignages avaient déjà montré que certains systèmes d’IA, censés fournir des données précises et fiables, ont déjà mené leurs utilisateurs à des erreurs. Celles-ci sont souvent qualifiées de « hallucinations » de l’IA. Cela se produit lorsque l’outil s’égare en présentant des informations fictives comme étant factuelles.

Martin Bernklau a été confronté à cette réalité troublante lorsqu’il a fait une recherche personnelle avec Copilot de Microsoft. À sa grande surprise, l’IA le désignait comme un criminel, mentionnant des délits graves tels que des violences, des évasions d’asile et même des accusations de trafic de drogue.

Mais qu’est-il arrivé à Copilot pour accuser le journaliste de criminalité ? Simplement parce que l’IA avait amalgamé son profil personnel avec les affaires criminelles qu’il avait couvertes, reliant ainsi son nom aux crimes reportés.

Plus inquiétant encore, Copilot a divulgué des informations personnelles erronées, y compris l’adresse et le numéro de téléphone de Bernklau. Ces données inexactes, accessibles à tous, ont menacé sa sécurité et ont gravement porté atteinte à sa vie privée.

Cette expérience de Bernklau s’inscrit dans un cadre plus large. Aux États-Unis, une affaire similaire a conduit Mark Walters, un animateur radio, à poursuivre OpenAI. L’outil d’IA avait faussement affirmé que Walters était impliqué dans des activités frauduleuses, des accusations sans fondement. Ce procès pourrait créer un précédent pour les responsabilités des entreprises d’IA face à des allégations de diffamation.

L’IA et la justice pourront-elles réellement coexister ?

YouTube video

L’intelligence artificielle a fait des faux pas et a faussement accusé des innocents. Ironiquement, même avec ses erreurs, l’IA dans le domaine judiciaire est de plus en plus adoptée. Son objectif est de simplifier la gestion des affaires et de générer des documents juridiques. En Inde, les tribunaux utilisent l’IA pour traduire les procès dans les dialectes locaux, facilitant ainsi la compréhension par tous les participants.

En revanche, en Australie, des tribunaux et des commissions examinent l’intégration de l’IA dans le traitement judiciaire. Cependant, Catherine Terry, avocate et présidente d’une commission sur la réforme de la justice en Australie, évoque les dangers d’une dépendance excessive. Elle affirme que « L’IA pourrait altérer la voix des témoins, qui est essentielle pour la preuve. »

C’est probablement la raison pour laquelle plusieurs tribunaux australiens, comme ceux du Queensland et de Victoria, imposent que toute utilisation d’IA dans les documents juridiques soumis à la cour soit clairement indiquée. Mais cela suffira-t-il à éviter les cas “hallucinants” d’IA dans les affaires judiciaires ?

Selon moi, il est crucial de mettre en place une réglementation stricte concernant l’IA dans le domaine de la justice. L’application de cette technologie doit être accompagnée de contrôles rigoureux. Cela évitera des erreurs graves et garantira une utilisation éthique et responsable de l’IA.

Share this post

Articles similaires

16 NOVEMBRE 2024

Porteriez-vous un appareil photo de 11 kg uniquement pour nourrir une IA ?

<p><strong><em>Odyssey, une entreprise innovante dans le domaine de l'IA générative, propose une idée surprenante : installer des caméras sur le dos des individus pour capturer le monde qui les entoure. Le but ? Entraîner des modèles d'IA capables de simuler des environnements virtuels d'une...

0

16 NOVEMBRE 2024

Bitfinex Hacker Écope de 5 Ans pour un Vol de Bitcoin de 10 Milliards de Dollars

Plus : Une "grand-mère IA" fait perdre du temps aux escrocs, un procès vise les dirigeants de la société de logiciels espions NSO Group, et des hackers liés à la Corée du Nord tentent de s'attaquer à des malwares macOS.

0

15 NOVEMBRE 2024

Google vous offrira la possibilité de concevoir des clips artistiques IA pour vos documents.

a:hover]:text-black [&>a:hover]:shadow-underline-black dark:[&>a:hover]:text-gray-e9 dark:[&>a:hover]:shadow-underline-gray-63 [&>a]:shadow-underline-gray-13 dark:[&>a]:shadow-underline-gray-63″>Comment tirer parti de “Créer une image” dans Google Docs.

0

15 NOVEMBRE 2024

Cette mamie IA met les arnaqueurs sur les nerfs et leur fait perdre leur temps.

<p><strong><em>Les escrocs ont découvert une nouvelle adversaire, et elle ressemble à une grand-mère affectueuse.</em></strong></p> <p><strong>Daisy, la grand-mère de l'IA développée par O2</strong>, piège les fraudeurs dans des échanges sans fin. Son objectif ? Leur faire perdre un...

0

15 NOVEMBRE 2024

IA générative : le mythe du « plus c’est grand, mieux c’est » s’écroule

<p><strong><em>La quête incessante de modèles d’IA de plus en plus volumineux touche à ses limites : l’industrie réévalue ses méthodes pour maintenir son efficacité.</em></strong></p> <p>Depuis l'apparition de ChatGPT,<strong> la dimension des modèles</strong> est devenue un sujet...

0

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.