Les illusions de l’IA représentent des enjeux significatifs pour les entreprises, parfois avec des répercussions sérieuses.
Patronus AI, une jeune entreprise de San Francisco, vient de dévoiler la première API autonome créée pour remédier aux failles de l’intelligence artificielle en temps réel. Avec un financement de série A de 17 millions de dollars, cette solution identifie et empêche les erreurs produites par les systèmes d’IA avant qu’elles ne soient aperçues par les utilisateurs.
Patronus AI met en œuvre une technologie de détection avancée qui fonctionne comme un correcteur de texte pour les systèmes d’IA. Une enquête menée par l’entreprise montre que même les modèles d’IA les plus performants, tels que GPT-4, génèrent des contenus protégés dans 44 % des occurrences.
La solution de Patronus AI offre aux entreprises la possibilité de définir leurs propres paramètres de sécurité, en fonction de leurs nécessités. Grâce à une fonction nommée « judge evaluators », les utilisateurs peuvent rédiger des règles claires en anglais. Ce mécanisme aide les entreprises à protéger leurs produits de manière efficace. Il prend en compte la conformité réglementaire dans le secteur financier et la protection des données pour les acteurs de la santé.
Lynx, un modèle de détection pour l’analyse des erreurs d’IA
Lynx, le modèle phare de Patronus AI, excelle dans la détection d’hallucinations. Il surpasse même GPT-4 en matière d’identification d’erreurs médicales. Ce modèle propose une version pour les analyses en temps réel ainsi qu’une autre plus exhaustive, pour les vérifications hors ligne. Parmi les outils proposés, CopyrightCatcher et FinanceBench se distinguent. Ceux-ci garantissent une protection contre le plagiat et les erreurs financières.
Le modèle tarifaire adaptable de Patronus AI débute à 10 dollars pour 1 000 requêtes d’API. Cette accessibilité pourrait séduire de nombreuses petites entreprises cherchant à surveiller l’IA. Les premiers retours d’entreprises comme HP et AngelList témoignent d’un intérêt croissant pour ce type de solution.
Avec la montée en puissance de modèles d’IA comme GPT-4, les dangers d’hallucinations augmentent. La réglementation devient plus stricte, particulièrement avec les récentes directives aux États-Unis et en Europe. Cela pousse les entreprises à s’assurer que leurs systèmes d’IA soient sûrs et conformes. La solution de Patronus AI pourrait ainsi devenir un outil central pour maintenir une sécurité continue. Cela contribuera donc à renforcer la confiance dans les systèmes d’IA.
- Partager l’article :
En savoir plus sur L'ABESTIT
Subscribe to get the latest posts sent to your email.