Les visions erronées de l’IA ont présenté des innocents comme des criminels, les mettant en péril !
L’IA est-elle capable de commettre des erreurs et de transformer des innocents en criminels ? Plongez dans la réalité avec l’histoire de Martin Bernklau, un journaliste allemand injustement accusé par l’IA.
De nos jours, l’IA est employée dans divers secteurs et commence déjà à s’intégrer dans le domaine judiciaire et les enquêtes criminelles. Certains profileurs l’utilisent déjà pour conduire des recherches et des investigations. Mais, peut-on vraiment considérer l’IA comme infaillible à 100 % ? Voici quelques exemples, pas si isolés, qui pourraient vous donner des frissons, surtout quand l’IA fait passer des innocents pour des coupables.
Quand l’IA hallucine ou désigne des innocents comme criminels…
Avant le triste épisode de Bernklau, des témoignages avaient déjà montré que certains systèmes d’IA, censés fournir des données précises et fiables, ont déjà mené leurs utilisateurs à des erreurs. Celles-ci sont souvent qualifiées de « hallucinations » de l’IA. Cela se produit lorsque l’outil s’égare en présentant des informations fictives comme étant factuelles.
Martin Bernklau a été confronté à cette réalité troublante lorsqu’il a fait une recherche personnelle avec Copilot de Microsoft. À sa grande surprise, l’IA le désignait comme un criminel, mentionnant des délits graves tels que des violences, des évasions d’asile et même des accusations de trafic de drogue.
Mais qu’est-il arrivé à Copilot pour accuser le journaliste de criminalité ? Simplement parce que l’IA avait amalgamé son profil personnel avec les affaires criminelles qu’il avait couvertes, reliant ainsi son nom aux crimes reportés.
Plus inquiétant encore, Copilot a divulgué des informations personnelles erronées, y compris l’adresse et le numéro de téléphone de Bernklau. Ces données inexactes, accessibles à tous, ont menacé sa sécurité et ont gravement porté atteinte à sa vie privée.
Cette expérience de Bernklau s’inscrit dans un cadre plus large. Aux États-Unis, une affaire similaire a conduit Mark Walters, un animateur radio, à poursuivre OpenAI. L’outil d’IA avait faussement affirmé que Walters était impliqué dans des activités frauduleuses, des accusations sans fondement. Ce procès pourrait créer un précédent pour les responsabilités des entreprises d’IA face à des allégations de diffamation.
L’IA et la justice pourront-elles réellement coexister ?
L’intelligence artificielle a fait des faux pas et a faussement accusé des innocents. Ironiquement, même avec ses erreurs, l’IA dans le domaine judiciaire est de plus en plus adoptée. Son objectif est de simplifier la gestion des affaires et de générer des documents juridiques. En Inde, les tribunaux utilisent l’IA pour traduire les procès dans les dialectes locaux, facilitant ainsi la compréhension par tous les participants.
En revanche, en Australie, des tribunaux et des commissions examinent l’intégration de l’IA dans le traitement judiciaire. Cependant, Catherine Terry, avocate et présidente d’une commission sur la réforme de la justice en Australie, évoque les dangers d’une dépendance excessive. Elle affirme que « L’IA pourrait altérer la voix des témoins, qui est essentielle pour la preuve. »
C’est probablement la raison pour laquelle plusieurs tribunaux australiens, comme ceux du Queensland et de Victoria, imposent que toute utilisation d’IA dans les documents juridiques soumis à la cour soit clairement indiquée. Mais cela suffira-t-il à éviter les cas “hallucinants” d’IA dans les affaires judiciaires ?
Selon moi, il est crucial de mettre en place une réglementation stricte concernant l’IA dans le domaine de la justice. L’application de cette technologie doit être accompagnée de contrôles rigoureux. Cela évitera des erreurs graves et garantira une utilisation éthique et responsable de l’IA.
- Partager l’article :