Fuite apparente de Sora, le système d'OpenAI

TECHNOLOGIES

Le modèle o1 d’OpenAI essaie certainement de tromper les humains beaucoup.

OpenAI a finalement publié la version complète de o1, qui fournit des réponses plus intelligentes que GPT-4o en utilisant des calculs supplémentaires pour “réfléchir” aux questions. Cependant, les testeurs de sécurité en IA ont constaté que les capacités de raisonnement de o1 l’incitent également à essayer de tromper les humains à un taux plus élevé que GPT-4o — ou, pour cette affaire, les principaux modèles d’IA de Meta, Anthropic et Google.

C’est selon une recherche de l’équipe rouge publiée par OpenAI et Apollo Research mercredi : “Bien que nous trouvions cela passionnant que le raisonnement puisse améliorer considérablement l’application de nos politiques de sécurité, nous sommes conscients que ces nouvelles capacités pourraient former la base d’applications dangereuses,” a déclaré OpenAI dans le document.

OpenAI a publié ces résultats dans sa carte système pour o1 mercredi après avoir donné à une tierce partie rouge…