Quels critères de référence utiliser pour évaluer les performances des LLMs ?

INTELLIGENCE ARTIFICIELLE

Quels critères de référence utiliser pour évaluer les performances des LLMs ?

Pour élaborer et mettre en œuvre des solutions d’IA, il est essentiel de réaliser des tests et des évaluations comparatives de chaque modèle. Ces essais permettent effectivement de mesurer objectivement l’efficacité de diverses configurations. Cela inclut notamment le choix de l’architecture, les techniques d’apprentissage et les stratégies de déploiement. Ces analyses permettront ensuite d’identifier les solutions les plus adéquates aux exigences spécifiques du projet et de son cadre opérationnel. C’est ce que l’on désigne couramment par les Benchmarks en machine learning, absolument cruciaux dans le secteur de l’IA.

Dans ce guide, nous allons examiner les outils principaux d’évaluation utilisés en apprentissage automatique, ainsi que les approches recommandées pour effectuer des comparaisons pertinentes.

Nous tenterons aussi de comprendre comment tirer parti des résultats pour améliorer les modèles et maximiser les performances globales.

Ces ressources ont pour but de doter les professionnels des compétences requises pour analyser et perfectionner leurs systèmes, avec un accent particulier sur les LLM.

YouTube video
[youtube https://www.youtube.com/watch?v=aOjgPJ94-aM?feature=oembed&w=662&h=372]

Quel benchmark pour évaluer la maîtrise des mathématiques ?

L’évaluation des capacités mathématiques des LLMs constitue un défi particulier, notamment à travers deux benchmarks principaux qui se distinguent par leur approche et leur complexité.

Le premier, GSM-8K, s’affirme comme une référence essentielle dans l’évaluation des compétences mathématiques élémentaires.

Ce benchmark, qui comprend 8 500 problèmes mathématiques soigneusement choisis, teste la capacité des modèles à résoudre des exercices nécessitant entre deux et huit étapes de résolution.

Or, ces problèmes, bien que paraissant simples à première approche, demandent une compréhension approfondie des notions d’arithmétique, d’algèbre et de géométrie.

La performance d’un modèle sur GSM-8K se mesure simplement par le taux de réponses correctes. C’est ainsi qu’une métrique claire et objective est obtenue.

En parallèle, le benchmark MATH élève l’évaluation à des niveaux de sophistication plus élevés. Avec ses 12 500 problèmes de niveau compétitif, il ne se contente pas d’évaluer la capacité à trouver la bonne réponse.

Ce benchmark analyse également la qualité du raisonnement à travers des solutions détaillées étape par étape.

Cela représente donc une approche plus raffinée qui couverture sept domaines différents en mathématiques. Notamment l’algèbre, les statistiques et le calcul différentiel, le tout réparti sur cinq niveaux de difficulté croissante.

Le benchmark MATH se démarque par sa capacité à évaluer non seulement la justesse des réponses, mais aussi la profondeur de la compréhension mathématique des modèles.

Contexte, ambiguïtés et vérification

En explorant le domaine des connaissances générales, le benchmark MMLU (Massive Multitask Language Understanding) se pose comme une référence essentielle pour évaluer les modèles de langages tels que GPT-4.

Avec environ 16 000 questions couvrant 57 domaines variés, le benchmark MMLU propose une évaluation exhaustive des capacités de compréhension et de raisonnement des modèles.

Il va ainsi au-delà d’une simple répétition en demandant une véritable compréhension contextuelle. Mais aussi une capacité à appliquer les connaissances de manière nuancée.

Néanmoins, ce benchmark n’est pas exempt de défauts. Les critiques soulignent notamment un manque de contexte dans certaines questions.

Il peut également présenter, parfois, des ambiguïtés et des erreurs dans ses réponses.

Dans ce cadre, TriviaQA ajoute une dimension supplémentaire à l’évaluation en mettant l’accent sur la véracité des réponses générées.

Ce benchmark met en lumière un paradoxe fascinant. Les modèles plus volumineux, ayant accès à davantage d’informations durant leur apprentissage, peuvent parfois s’avérer moins fiables à cause de l’absorption de données incorrectes.

Le défi principal de TriviaQA réside toutefois dans la capacité des modèles à parcourir les documents fournis pour extraire et vérifier les informations pertinentes.

À l’image de Claude AI qui permet aujourd’hui d’analyser des documents en format PDF simplement en téléchargeant le fichier dans l’interface web du chatbot.

Quels benchmarks pour tester la génération de code des LLMs ?

D’un point de vue programmation et codage, l’évaluation des capacités des LLMs s’articule principalement autour de deux benchmarks clés : HumanEval et MBPP.

HumanEval, mis en place par OpenAI, comporte 164 défis de programmation en Python minutieusement conçus.

Ce benchmark se distingue notamment par l’utilisation de la métrique pass@k. Cela dans le but d’évaluer l’exactitude du code généré par le modèle testé.

À mon avis, cela est idéal pour évaluer les performances d’un modèle en matière de génération de code, bien que le benchmark HumanEval présente néanmoins certaines limites.

YouTube videoYouTube video
[youtube https://www.youtube.com/watch?v=tFXm5ijih98?feature=oembed&w=662&h=372]

D’une part, il se concentre essentiellement sur les problèmes algorithmiques. D’autre part, il tend à occlure la complexité des tâches de programmation dans le monde réel.

En outre, HumanEval ignore des éléments cruciaux comme la rédaction de tests ou l’explication du code.

Concernant le benchmark MBPP (Mostly Basic Python Programming), il élargit le processus d’évaluation avec 974 tâches de programmation de niveau débutant.

Ce dernier adopte également une approche systématique qui implique trois cas de test automatisés pour chaque problème.

Ainsi, il propose une évaluation plus approfondie de la capacité des modèles à produire du code fonctionnel à partir de descriptions en langage naturel.

LLMs face à l’épreuve en les testant sur HellaSwag et ARC

Outre HumanEval, MMLU et MBPP, il existe également le benchmark HellaSwag, qui se distingue par son approche unique du raisonnement de sens commun.

En d’autres termes, à travers des tâches de complétion de phrases basées sur des vidéos, il teste la capacité des modèles à comprendre et à prévoir des séquences d’événements logiques.

Cependant, bien que ces scénarios puissent sembler simples pour les humains, ils revisent un réel défi pour les LLMs. En grande partie à cause du processus de filtrage utilisé pour créer des réponseserronées, souvent trompeuses.

YouTube videoYouTube video
[youtube https://www.youtube.com/watch?v=QrSCwxrLrRc?feature=oembed&w=662&h=372]

Aussi, il y a l’ARC ou AI2 Reasoning Challenge, qui pousse encore plus loin l’évaluation du raisonnement avec près de 8 000 questions scientifiques de niveau collège.

Ce benchmark est assez spécifique, car il nécessite un raisonnement distribué plutôt qu’une simple extraction d’informations.

En gros, les questions touchent à une large gamme de connaissances. Elles s’étendent du factuel à l’expérimental, en incluant des éléments spatiaux et algébriques.

Cependant, sa limitation aux questions scientifiques réduit quelque peu son étendue évaluative.

Benchmarks ou tests réels ? La méthode idéale pour évaluer les modèles de langage

Le choix d’un LLM ne doit pas se limiter aux seuls résultats des benchmarks, qui peuvent comporter des biais ou des insuffisances.

Il est donc préférable de tester concrètement les modèles préalablement sélectionnés pour s’assurer qu’ils répondent aux besoins spécifiques de chaque projet.

Les plateformes d’évaluation telles que le LLM playground de Keywords AI proposent un cadre idéal pour comparer les performances des différents modèles en conditions réelles.

Une fois l’évaluation manuelle accomplie, l’intégration des modèles sélectionnés peut être facilitée par le biais d’APIs compatibles OpenAI, tel que celui proposé par Keywords AI.

Ainsi, on peut facilement lancer le processus de transition entre la phase d’évaluation et la mise en production.

En conclusion, l’évaluation des LLMs nécessite une approche holistique. Il est crucial de prendre en considération non seulement les performances affichées sur les divers benchmarks, mais aussi les exigences spécifiques de chaque application.

Les benchmarks en mathématiques, en connaissances générales, en programmation et en raisonnement logique ne fournissent qu’un cadre structuré pour cette évaluation. Cela dit, ils doivent être accompagnés de tests pratiques pour assurer une sélection optimale.

Quel est le meilleur LLM selon les benchmarks ?

Les LLM représentent aujourd’hui une technologie majeure dans le secteur de l’IA. Leur évaluation se fait via diverses plateformes de tests normalisés comme MMLU, SuperGLUE ou Big-Bench.

Celles-ci vont ensuite mesurer leurs aptitudes dans différents domaines. Notamment la compréhension textuelle, le raisonnement mathématique et leurs capacités analytiques, comme mentionné précédemment.

En se penchant sur le paysage actuel des LLM, OpenAI conserve une position prépondérante avec GPT-4. Ce modèle est particulièrement réputé pour son exactitude face à des interrogations complexes et sa maîtrise approfondie des dimensions multiculturelles et multilinguistiques.

De son côté, le modèle Claude 3 d’Anthropic commence également à se faire remarquer pour son approche responsable et son expertise dans la gestion de sujets délicats.

Et selon Sam Altman, le PDG actuel d’OpenAI, l’entreprise attache désormais une importance notable aux considérations éthiques.

Image d'un ingénieur devant un écran digital affichant les résultats d'un benchmarkImage d'un ingénieur devant un écran digital affichant les résultats d'un benchmark

Et Llama, PaLM et Falcon dans tout ça ?

Concernant Meta, Mark Zuckerberg et son équipe ont déployé Llama 2, une alternative open source qui favorise l’optimisation des ressources et l’adaptabilité.

Le lancement de ce modèle a permis des ajustements spécifiques malgré des résultats plus modestes sur certains tests standards.

En parallèle, TII ou Technology Innovation Institute a conçu le modèle Falcon, qui se distingue par son efficacité en matière de ressources informatiques.

Son principal atout est sa capacité à satisfaire les besoins des organisations soucieuses de leur budget.

Dans cette optique, PaLM 2 de Google et Mistral émergent comme des solutions polyvalentes offrant des performances harmonieuses sur tous les critères d’évaluation.

Toute cette multiplicité de modèles souligne l’importance d’aligner votre choix de LLM avec vos objectifs précis.

C’est-à-dire qu’il ne faut pas vous focaliser uniquement sur les résultats des benchmarks. Il est également nécessaire de baser vos évaluations sur l’exactitude, mais aussi sur la responsabilité éthique et la performance, sans omettre l’optimisation des coûts que présente le modèle choisi.

    Partager l’article :

Les codeurs en détresse ? Alibaba dévoile Qwen, une intelligence artificielle pour créer et évaluer du code !

INTELLIGENCE ARTIFICIELLE

Les codeurs en détresse ? Alibaba dévoile Qwen, une intelligence artificielle pour créer et évaluer du code !

Alibaba fait une entrée remarquée avec Qwen 2.5, son IA générative capable de rédiger et d’analyser du code. Est-ce une menace potentielle pour les développeurs web ou un outil essentiel pour améliorer la productivité ? La réponse se trouve ci-après !

Alors que la compétition autour de l’IA s’intensifie, Alibaba sort son atout avant la fin de l’année ! En effet, le géant chinois du commerce électronique continue d’explorer les possibilités de l’IA avec le lancement de Qwen 2.5 ! Vous vous interrogez sûrement sur la fonction de ce modèle d’IA ? Il est conçu pour créer et analyser du code, avec l’ambition de transformer le secteur du développement logiciel.

Alors, les développeurs web devraient-ils percevoir cela comme une menace ou simplement un outil incontournable pour parfaire leur travail ? De l’analyse à la compréhension du codage, cet IA d’Alibaba se positionne parmi les systèmes les plus performants actuellement disponibles. Voyons donc comment cela pourrait transformer le paysage du codage dans son ensemble !

Qwen 2.5 d’Alibaba : une gamme de modèles d’IA adaptés à tous les besoins

YouTube video
[youtube https://www.youtube.com/watch?v=oImZDitmGK4?feature=oembed&w=662&h=372]

Qwen 2.5 est un instrument de codage, mais il propose également d’autres modèles d’IA qui s’adaptent à divers usages et niveaux de performance. Que vous soyez un développeur débutant cherchant à améliorer vos petits projets ou une multinationale nécessitant une importante capacité de calcul, Qwen semble avoir une solution adéquate.

Les étudiants en programmation peuvent également trouver ce dispositif utile. Ils peuvent l’utiliser pour corriger et perfectionner leur code. Afin de maximiser l’accessibilité et la flexibilité, Alibaba envisage d’intégrer cette technologie directement sur sa plateforme cloud Tongyi. Il est donc certain que ses fonctionnalités seront ouvertes à tous ceux souhaitant en bénéficier !

Quelles sont les capacités de Qwen 2.5 par rapport aux autres modèles d’IA de codage disponibles actuellement ?

Le modèle phare, Qwen-2.5-Coder-32B-Instruct, s’illustre comme un leader dans plusieurs catégories de tests de référence. Il excelle principalement dans la génération de code, sa réparation et le raisonnement logique.

Lors de tests comme EvalPlus et LiveCodeBench, il démarque ses compétiteurs open source tels que DeepSeek-Coder et Codestral Mamba. Les utilisateurs qui l’ont déjà expérimenté affirment même que ce modèle rivalise avec GPT-4o, un modèle IA de haut niveau. 

Néanmoins, GPT-4o a toujours une longueur d’avance sur certaines tâches, notamment celles demandant des compétences avancées de compréhension du langage naturel. Toutefois, il est à noter que Qwen se distingue surtout par la qualité des données utilisées pour son entraînement. Ce modèle a été formé avec plus de 20 trillions de tokens, un record impressionnant dans le domaine de l’open source !

Avec des capacités remarquables dans des langages fonctionnels tels que Haskell et des modèles conçus pour diverses applications, Qwen 2.5 saisit, corrige et enrichit les codes.

On peut déjà s’apercevoir du désir d’Alibaba d’exploiter l’IA pour générer du code même si Qwen est présenté comme un outil d’aide plutôt qu’un substitut. Néanmoins, il est envisageable que dans un futur proche, les développeurs confieront des parties de leur travail à ces systèmes. 

Alors que certains accueillent cette nouveauté comme un atout précieux pour accélérer les cycles de développement, d’autres la considèrent comme une menace pour les développeurs humains. Ces outils soulèvent des interrogations importantes : les entreprises vont-elles se contenter d’utiliser ces IA comme des assistants ou chercheront-elles à diminuer leurs effectifs en automatisant les tâches répétitives ?

La réponse se dévoilera dans les mois à venir. Une chose est claire, Alibaba aspire à laisser sa marque dans une bataille de l’IA où les leaders technologiques s’affrontent actuellement !

    Partager l’article :

Incroyable ! Ce robot canin du MIT pourrait bientôt escalader n'importe où grâce à l'intelligence artificielle générative.

INTELLIGENCE ARTIFICIELLE

Incroyable ! Ce robot canin du MIT pourrait bientôt escalader n’importe où grâce à l’intelligence...

À la recherche d’un chien à accueillir ? Que diriez-vous de vous laisser charmer par ce « chien robot » développé par le MIT et équipé d’IA générative ! Jusqu’où ce chien robot peut-il aller pour satisfaire les attentes de ses propriétaires ? Analysons cette innovation dans ce qui suit !

Un chien robot avant-gardiste avec des capacités qui dépassent l’imagination ! C’est ainsi que je peux décrire ce chien robot innovant du MIT reposant sur l’IA générative. Il est vrai que toutes les grandes entreprises impliquées dans la création de robots l’affirment, l’apprentissage de robots pour effectuer des tâches complexes s’avère relativement compliqué. Cela exige une quantité considérable de données.

Malheureusement, cette importante exigence en données est le principal obstacle au progrès des systèmes robotiques efficaces. C’est dans ce cadre que les chercheurs du MIT ont brillé. Ils ont réussi à former leur chien robot à réaliser des tâches assez complexes telles que le saut d’obstacles et plus encore. Explication !

Lorsque la robotique se heurte à des obstacles…

Vidéo YouTube
[youtube https://www.youtube.com/watch?v=_u3aRc-yjRY?feature=oembed&w=662&h=372]

Traditionnellement, les robots étaient programmés manuellement pour réaliser des tâches spécifiques. Bien que cette méthode garantisse des résultats exacts, elle présente un manque de flexibilité face aux aléas du monde réel.

Les techniques d’apprentissage automatique sont prometteuses pour remédier à ce problème en rendant les robots plus réactifs, mais elles exigent d’énormes quantités de données issues d’expériences concrètes, souvent coûteuses et difficiles à obtenir. 

Pour contourner cette contrainte, les chercheurs ont eu recours à des simulations informatiques reproduisant des environnements virtuels. Ces simulations facilitent la génération rapide de scénarios divers.

Cependant, elles sont limitées par ce que l’on appelle le « sim-to-real gap », un décalage entre les environnements simulés et la réalité. Cela compliquait le transfert des compétences acquises en simulation dans le monde réel. 

LucidSim : la solution utilisant l’IA générative pour un chien robot surperformant !

https://twitter.com/techreview/status/1856268187232260518

Pour surmonter cette limitation, l’équipe du MIT CSAIL a élaboré LucidSim. Ce système propose un pipeline de génération de données combinant simulateurs physiques et modèles d’IA générative de pointe.

En s’appuyant sur des outils tels que les générateurs de texte à image, les chercheurs ont conçu des scènes réalistes à partir de descriptions fournies par ChatGPT. Ces illustrations étaient ensuite intégrées à un simulateur, MuJoCo, afin de superposer des données géométriques et physiques précises à ces visuels. 

Pour enrichir les données visuelles, une autre innovation nommée Dreams in Motion a permis de transformer ces images en courtes vidéos. Ce système simule le déplacement d’un robot dans un environnement, produisant plusieurs images d’animation à partir d’une seule image. 

Grâce à ce processus, l’équipe a été en mesure de former un modèle d’IA capable de diriger leur chien robot pour diverses tâches. Ainsi, si vous choisissez d’adopter ce chien robot, sachez qu’il peut monter et descendre les escaliers, grimper aux arbres et même poursuivre un ballon. Que dire d’un chien vivant !

Et après, qu’est-ce qui va se passer ?

Après ce chien robot amélioré grâce à ce modèle d’IA générative, l’équipe du MIT envisage d’appliquer cette approche à d’autres types de robots. Cela concernera aussi bien les humanoïdes que les bras robotiques nécessitant une grande précision. Cette avancée pourrait indéniablement permettre de former et déployer des robots dans tous les domaines.

Elle pourrait optimiser l’emploi des robots dans l’industrie et favoriser leur utilisation à domicile. Je pense que nous nous dirigeons vers un futur où l’adoption de systèmes robotiques dans notre vie quotidienne ne sera plus une utopie. Imaginez-vous recevoir votre petit-déjeuner servi par un robot humanoïde ? Laissez votre avis dans les commentaires pour notre communauté passionnée de nouvelles technologies et de robotique !

    Partagez l’article :

Coca-Cola et l’IA suscitent des réactions contrastées avec leur récente campagne publicitaire pour Noël

INTELLIGENCE ARTIFICIELLE

Coca-Cola et l’IA suscitent des réactions contrastées avec leur récente campagne publicitaire pour Noël

Coca-Cola fait face à de vives critiques avec une publicité de Noël entièrement conçue par intelligence artificielle. Cette initiative divise les audiences, qui regrettent l’absence de l’ambiance festive traditionnelle.

Une publicité au centre de la controverse

Pour les célébrations de fin d’année, Coca-Cola a opté pour une approche originale en intégrant l’intelligence artificielle. La célèbre campagne Holidays Are Coming, réimaginée grâce à l’IA, peine à captiver les téléspectateurs. D’après Javier Meza, directeur marketing pour l’Europe de Coca-Cola, le but était de moderniser l’esprit festif à l’ère contemporaine.

Puisque la réaction sur le web est loin d’être positive. Les utilisateurs jugent cette interprétation comme dérangeante et dépourvue d’âme. De nombreux avis mettent en avant le manque d’authenticité et se plaignent d’une approche trop mécanisée. Ainsi, Coca-Cola se retrouve confronté à une série de réactions négatives inattendues.

Des critiques révélatrices d’une frustration plus étendue

Les reproches ne se limitent pas qu’à la qualité de la publicité. Certains pointent du doigt un précédent risqué pour les secteurs créatifs en raison de l’utilisation exclusive de l’IA. Une internaute souligne que si une entreprise comme Coca-Cola ne rémunère pas de véritables artistes, cela pourrait normaliser des pratiques nuisibles.

YouTube video
[youtube https://www.youtube.com/watch?v=tsX1KgSbTN4?feature=oembed&w=662&h=372]

D’autres utilisateurs expriment leur désappointement vis-à-vis du choix de la technologie au détriment de l’humain. Des comparaisons avec des créations amateurs, considérées comme plus authentiques, amplifient les critiques. En outre, ces remarques soulignent une inquiétude grandissante concernant l’impact de l’IA sur les industries créatives.

Une efficacité technologique à double tranchant

Malgré les critiques, Jason Zada, l’un des concepteurs de la publicité, défend l’utilisation de l’intelligence artificielle. Il souligne la rapidité de production, cinq fois plus rapide qu’une méthode classique. Selon lui, cette technologie représente un atout stratégique majeur pour les grandes marques.

Cependant, cette justification ne rassure pas tous les consommateurs. Certains craignent que cette efficacité ne nuise à la créativité humaine et à l’authenticité. Ces discussions illustrent les tensions entourant l’intégration de l’intelligence artificielle dans des domaines historiquement dominés par des talents humains.

Une image de marque remise en question

Coca-Cola n’a pas encore fourni de réponse officielle aux critiques, mais cette controverse pourrait avoir des répercussions. Les consommateurs mécontents envisagent de se tourner vers d’autres options comme Pepsi pour faire entendre leur mécontentement. Ce cas met en lumière l’importance pour les marques de saisir les attentes de leur public avant d’adopter des technologies controversables.

YouTube videoYouTube video
[youtube https://www.youtube.com/watch?v=E3-J0MwvBSI?feature=oembed&w=662&h=372]

L’intelligence artificielle, bien qu’efficace, demeure un sujet délicat dans le secteur créatif. Cette polémique incite à réfléchir sur l’équilibre entre avancées technologiques et respect des traditions culturelles. Coca-Cola devra sans doute réévaluer sa stratégie pour regagner les amateurs de la magie de Noël traditionnelle.

    Partager l’article :

Un agent d'intelligence artificielle pour lutter contre les cyberattaques et soutenir les équipes de sécurité

INTELLIGENCE ARTIFICIELLE

Un agent d’intelligence artificielle pour lutter contre les cyberattaques et soutenir les équipes de sécurité

La start-up Twine transforme la cybersécurité avec son agent IA Alex, développé pour remédier à la pénurie de talents. Possédant une expertise en gestion des identités, il a pour but de simplifier et sécuriser les systèmes d’entreprise.

Une solution novatrice face à la pénurie de talents

La cybersécurité fait face à une carence mondiale de presque 4 millions de professionnels. Twine se distingue en mettant à disposition des agents capables d’automatiser des missions essentielles et complexes. Ces agents assistent ainsi les équipes humaines en prenant en charge des tâches compliquées.

https://twitter.com/ameerstark23/status/1840368528677085511

Alex, le premier employé numérique de Twine, se spécialise dans la gestion des identités et des accès (IAM). En effet, cette solution SaaS assure une transparence totale dans l’exécution des tâches automatisées. Alex organise, réalise et surveille chaque mission avec une transparence complète, réduisant ainsi le fardeau humain.

Une nécessité en réponse à l’augmentation des cyberattaques

Le troisième trimestre 2024 a connu une augmentation de 75 % des cyberattaques par rapport à 2023. Cette croissance des menaces numériques met les entreprises sous une pression accrue. D’après CyberSeek, seulement 85 % des postes en cybersécurité sont pourvus dans l’économie américaine.

YouTube video
[youtube https://www.youtube.com/watch?v=xrVV79aibtk?feature=oembed&w=662&h=372]

L’augmentation de l’utilisation du cloud computing et de l’intelligence artificielle intensifie ces menaces. Alex assiste les entreprises à sécuriser leurs environnements malgré le déficit de professionnels expérimentés. Twine cherche donc à offrir une réponse rapide et efficace aux risques grandissants.

Un financement ambitieux pouractiver le développement

Twine a obtenu 12 millions de dollars lors d’un financement co-dirigé par Ten Eleven Ventures et Dell Technologies Capital. Ce capital servira à étendre les applications des agents IA au-delà de la cybersécurité. L’implication d’investisseurs notables comme les fondateurs de Wiz souligne la confiance envers ce projet.

https://twitter.com/cipherstorm/status/1820639448436261294

En intégrant l’intelligence artificielle générative, Twine espère surpasser les attentes. Ses employés numériques pourraient également jouer un rôle crucial dans d’autres domaines essentiels. Cette vision ambitieuse positionne Twine comme un leader potentiel de l’innovation en cybersécurité.

L’avenir de la cybersécurité avec les agents IA

Twine pave la voie vers une nouvelle ère de cybersécurité, où l’intelligence artificielle collabore étroitement avec les experts humains. Alex représente cette synergie en garantissant une surveillance constante et fiable des systèmes.

YouTube videoYouTube video
[youtube https://www.youtube.com/watch?v=PQEFSfe0pRA?feature=oembed&w=662&h=372]

Alors que les cybermenaces continuent d’évoluer, des solutions novatrices comme celle-ci deviennent vitales. Twine prouve que l’IA peut préserver les infrastructures cruciales tout en améliorant l’utilisation des ressources humaines.

    Partager l’article :

Que nous apprend le prix de la Banque de Suède en économie ?

ECONOMIE

Que nous apprend le prix de la Banque de Suède en économie ?

La remise du prix de la Banque de Suède en économie 2024 incite à réfléchir sur la géographie de la recherche économique et à examiner l’évolution des décisions du comité suédois au cours des deux dernières décennies.

Après avoir abandonné la grande théorie qui motivait sa création en 1969, le prix témoigne depuis 2000 d’une volonté de distinguer des chercheurs qui s’attaquent aux enjeux contemporains plutôt qu’à ceux qui ne se concentrent que sur l’élaboration de nouveaux outils ou l’identification de mécanismes de coordination inédits.

Le choix de cette année, qui honore trois économistes démontrant l’importance du politique dans la création des institutions favorisant la prospérité et la croissance, laisse-t-il présager un regain d’intérêt pour une économie institutionnelle, historique et comparative ?

La newsletter d’Alternatives Économiques

Chaque dimanche à 17h, notre analyse de l’actualité de la semaine

Les universités américaines et le melting-pot des récipiendaires

Les lauréats de 2024, bien que d’origines nationales variées, sont tous professeurs dans des institutions universitaires parmi les plus renommées d’Amérique du Nord. Daron Acemoglu, d’ascendance turco-arménienne, est le protagoniste principal, ayant collaboré avec James Robinson, un Britannique, coauteur d’un ouvrage à succès Power and progress (2013), ainsi qu’avec Simon Johnson, un autre Britannique devenu Américain, pour le livre Why nations fail ? The origins of power, prosperity and poverty (2023).

Ce partage du prix est donc dicté par l’interconnexion de leurs travaux plutôt que par une simple convergence d’approches complémentaires comme cela a souvent été le cas auparavant.

Cette distinction n’est pas une surprise compte tenu des multiples contributions significatives de Daron Acemoglu, mais aussi parce qu’entre 2000 et 2024, les chercheurs affiliés aux universités américaines ont reçu le prix 38 fois, la France deux fois, l’Angleterre une fois et la Norvège une fois. Environ 83 % des prix ont été attribués à des établissements tels que le MIT, Chicago et Harvard, soulignant ainsi la tendance générale observée entre 1969 et 1999, où ce chiffre n’était que de 73 %. Deux interprétations opposées pourraient expliquer cette concentration extrême.

La première insiste sur le fait que les universités américaines disposent des ressources les plus généreuses, attirant ainsi les économistes les plus brillants du monde entier. Dans une profession compétitive, cette hiérarchie serait donc le résultat de critères objectifs.

Étant donné le faible nombre d’institutions concernées, on pourrait avancer qu’elles constituent un club très exclusif qui affiche sa puissance, y compris dans l’attribution des prix. Bien que le prix soit décerné par l’Académie royale de Suède, celle-ci valide la domination nord-américaine, car, depuis la Seconde Guerre mondiale, le cœur de la profession s’est déplacé de la Grande-Bretagne vers l’Amérique du Nord.

La vérité se trouve probablement entre ces deux extrêmes : il existe de remarquables économistes porteurs d’innovations significatives, mais il arrive aussi que l’affiliation à un cercle restreint, comme celui de l’université de Chicago, engendre la remise de ce prix à d’autres économistes dont l’apport est largement moins substantiel.

Longtemps ignorée, la place des institutions et du politique

Le comité souligne que les trois récipiendaires ont réussi à illustrer le rôle des institutions et, par conséquent, du politique, dans la divergence entre économies prospères et sociétés empêchées d’accéder au développement. Il s’agit d’une rupture majeure vis-à-vis du leitmotiv qui a précédé, souvent enclos dans une discipline économique s’auto-référentielle mettant l’accent sur la rationalité, le marché et l’équilibre.

Les trois chercheurs soutiennent en ce sens que les marchés ne constituent pas le seul mode de coordination, car des institutions fondamentales encadrent et régulent l’activité économique. Ainsi, le politique devient inextricable de toute analyse économique qui aspire à être pertinente, au point qu’elle doit se réinventer en une économie politique.

Ces institutions ne sont pas de simples obstacles à une économie de marché, mais elles sont intrinsèques à chaque ordre économique observable dans l’espace et le temps. Certaines configurations institutionnelles favorisent une prospérité et des innovations qui s’accumulent sur le long terme. À l’opposé, en l’absence d’intermédiaires politiques capables d’assurer la diffusion des avantages du progrès technique, certaines sociétés peinent à exploiter des moments cruciaux pour sortir de la pauvreté. Les auteurs mettent particulièrement en lumière le rôle des droits de propriété, rejoignant ainsi l’École de Chicago, mais leur contribution dépasse cette institution fondamentale.

L’économiste doit porter son attention non seulement sur la production et la création de valeur et de richesse, mais également sur leur distribution, conditionnant la durabilité d’un système de croissance. De cette manière, ils apportent un complément précieux aux travaux de Thomas Piketty : alors que celui-ci privilégie la redistribution à travers la fiscalité et les biens publics, Acemoglu et ses collègues s’intéressent à la distribution initiale des revenus, également façonnée par des processus politiques.

Ainsi se rouvre le débat sur une économie institutionnelle moderne. Ce thème avait déjà été reconnu par le comité lors de la distinction de Douglas North en 1993, puis celle d’Eleanor Östrom en 2009. On peut évaluer la rareté d’une telle reconnaissance au regard des quatre autres voies qui conduisent au prix de la Banque de Suède.

Construire des outils et de nouveaux instruments

En 1969, la création de ce prix s’inscrivait dans une vision ambitieuse qui souhaitait établir l’économie sur le même plan que la physique. Paul Samuelson (lauréat en 1970) en est la figure emblématique, ayant appliqué les outils mathématiques de la physique à l’économie. L’exploration de cette voie a abouti à une impasse, car la généralisation de la théorie de l’équilibre général se révèle impossible et produit autant de modèles que d’hypothèses. Il en ressort que l’espoir d’une fondation axiomatique de l’économie s’est évaporé !

De 2000 à 2024, seules trois tentatives de refondation théorique ont été récompensées. D’abord par un partenariat avec la psychologie (Kahneman, 2002), ensuite avec l’économie comportementale (Thaler, 2017), ou encore par l’analyse des liens entre innovation et croissance (Romer, 2018).

Ces deux dernières décennies ont également été témoins d’avancées significatives en matière de statistiques et d’économétrie. « Développons des méthodes rigoureuses d’analyse des données et les fondements d’une approche économique scientifique émergeront à travers une accumulation d’études empiriques » : tel est le projet de la majorité des économistes. Ils peuvent ainsi examiner les causalités, point faible des recherches économétriques classiques, ce qui explique la reconnaissance des travaux d’Heckman (2000) et de Sargent (2011).

De son côté, l’économétrie des séries temporelles ouvre la voie à une macroéconomie dynamique, essentielle pour évaluer, par exemple, les effets des politiques économiques à court et moyen termes (Engle, 2003). L’augmentation de la fréquence et le volume croissant des données financières permettent un développement sans précédent de la finance de marché : l’analyse des processus stochastiques (les marchés financiers sont-ils efficients ?) remplace les évaluations en termes d’équilibre général statique (Fama, 2013). De même, il est indéniable que les ajustements des marchés du travail présentent des caractéristiques spécifiques pouvant être mises en lumière par des techniques appropriées (Card, 2021).

Explorer les divers mécanismes économiques

Malheureusement, cette approche inductive n’a pas produit le modèle canonique que ce tournant empirique laissait espérer. Peu de régularités statistiques se retrouvent à travers les périodes, les pays ou les secteurs. En conséquence, le prix de la Banque de Suède a dû récompenser une série d’études mettant en lumière des mécanismes fondamentaux, dans l’espoir qu’elles permettent un jour d’établir une théorie à part entière !

Ce troisième axe de recherche a connu une activité accrue depuis 2000. Il commence par reconnaître avec Akerlof, Spence et Stiglitz (2001) que l’asymétrie d’information empêche les marchés d’atteindre l’efficacité et l’auto-équilibre attribués par la théorie économique classique. L’analyse des cycles économiques remplace ainsi la référence à un équilibre stationnaire (Kydland, 2004). Les théories des jeux réinventent les conceptions de l’équilibre (Aumann, 2005), tandis que la prise en compte du temps introduit des dilemmes complexes dans les décisions économiques (Phelps, 2006). L’aspect géographique n’est pas en reste avec la reconnaissance des travaux de Krugman (2010) et de son attribution de rendements croissants.

Il est remarquable que, de 2007 à 2020, de nombreuses recherches aient porté sur le fonctionnement des marchés, tant dans une perspective analytique (Hurwitz, 2007 ; Diamond, 2010 ; Roth, 2012) que normative : comment encourager la concurrence via la réglementation (Tirole, 2014) ou quelle est la meilleure manière d’organiser des enchères (Milgrom, 2020). Une autre question concerne la nature des contrats (Hart, 2016), qui sont une caractéristique essentielle des économies de marché.

Il ne fait aucun doute que les outils et les mécanismes de coordination des économistes se sont considérablement étoffés grâce à ces récompenses. Cependant, la compréhension des économies modernes a-t-elle suffisamment progressé pour fournir des recommandations scientifiquement valables aux décideurs et aux acteurs des politiques publiques ?

Étudier les problèmes contemporains

C’est effectivement le quatrième axe de recherche que l’Académie royale de Suède reconnait. En cela, elle se reconnecte à l’origine même de l’économie politique : observer les phénomènes récents et développer les concepts nécessaires pour les appréhender, afin d’éclairer notamment les décisions des responsables politiques.

Or, l’entrée au XXIe siècle a mis en lumière de nombreuses anomalies. Dans le domaine de la santé économique, pourquoi l’espérance de vie a-t-elle divergé entre différentes classes sociales (Deaton, 2015) ? Comment intégrer le changement climatique dans les modèles macroéconomiques (Nordhaus, 2018) ? Si la pauvreté ne peut être atténuée par des politiques macroéconomiques, pourquoi ne pas multiplier les expériences contrôlées pour en tirer des enseignements et établir des politiques ad hoc (Duflo & Banerjee, 2019) ?

Les crises financières, touchant principalement les pays en développement, notamment en Amérique Latine puis en Asie, ont commencé à affecter les économies les plus avancées – d’abord le Japon, puis les États-Unis (Bernanke, 2022). De façon implicite, l’économie était « genrée ».

Face aux revendications féministes, à l’essor du travail féminin et aux relations avec l’évolution des structures familiales, la reconnaissance de ce nouveau champ de recherche était nécessaire (Goldin, 2023). Ces spécialisations sont très utiles pour le progrès des connaissances et la gestion des politiques publiques, mais les grandes théories restent-elles envisageables ?

Une économie institutionnelle ouvre-t-elle de nouvelles voies ?

Porté par un certain optimisme, on pourrait penser que les lauréats de 2024 signalent un retour à l’âge d’or de l’économie politique nord-américaine, institutionnaliste et historique, marqué par des penseurs tels que Commons, Mitchell ou Veblen. Cependant, une certaine prudence est de mise.

En effet, bien que Douglas North soit célébré et reconnu, il n’a pas établi l’équivalent de l’école de pensée de Milton Friedman. La reconnaissance des travaux d’Eleanor Östrom (2009) est étonnante a priori, puisque celle-ci démontrait que les individus d’une communauté peuvent concevoir des formes d’organisation innovantes pour gérer efficacement et équitablement une ressource naturelle partagée, c’est-à-dire un bien commun. À noter également que l’axe de l’économie institutionnelle, tout comme celui des fondements théoriques, demeure plutôt limité !

La question de la collaboration entre diverses disciplines se pose, où l’économie standard n’est pas nécessairement dominante, nécessitant la coopération entre économistes, sociologues, politologues, gestionnaires, psychologues, juristes, historiens et philosophes. La Society for the Advancement of Socio Economics (SASE) a été fondée en 1989 dans ce but et jouit d’une reconnaissance internationale. On hésite à évoquer l’approche de la régulation ou la théorie des conventions qui depuis longtemps s’attachent à un renouvellement théorique de l’économie autour du rôle des institutions et des organisations.

Tous ces courants ont-ils une réelle chance de devenir les futurs lauréats du prix de la Banque de Suède en économie ? L’avenir nous le dira, mais la première partie de cet article suscite des doutes sur cette question !

Cinq entreprises de l'alliance contre la pollution plastique « ont produit 1 000 fois plus de plastique qu'elles n'en ont nettoyé »

ENVIRONNEMENT

Cinq entreprises de l’alliance contre la pollution plastique « ont produit 1 000 fois plus de plastique...

Exclusif : Cinq entreprises pétrolières et chimiques qui avaient promis de détourner le plastique de l’environnement ont produit 132 millions de tonnes de celui-ci, selon une analyseLe programme de recyclage à Bali submergé par les déchetsLes entreprises pétrolières et chimiques qui ont créé une alliance très médiatisée pour mettre fin à la pollution plastique ont produit 1 000 fois plus de nouveau plastique en cinq ans que les déchets qu’elles ont détournés de l’environnement, selon de nouvelles données obtenues par Greenpeace.L’Alliance to End Plastic Waste (AEPW) a été créée en 2019 par un groupe d’entreprises comprenant ExxonMobil, Dow, Shell, TotalEnergies et ChevronPhillips, certains des plus grands producteurs de plastique au monde. Elles avaient promis de détourner 15 millions de tonnes de déchets plastiques de l’environnement en cinq ans, jusqu’à fin 2023, en améliorant la collecte et le recyclage, et en créant une économie circulaire. Continue reading…

Agence IA Générative Créteil

INTELLIGENCE ARTIFICIELLE

Agence IA Générative Créteil

Explorez notre agence dédiée à l'IA générative à Créteil. Nous innovons pour proposer des solutions personnalisées en intelligence artificielle, améliorant vos projets grâce à des technologies avancées. Contactez-nous pour transformer vos idées en réalité.

L’Agence IA Générative située à Créteil incarne une multitude d’initiatives mettant l’intelligence artificielle au centre de la transformation technologique. Cet établissement propose des formations avancées, des stages en recherche et développement, ainsi que des projets innovateurs pour les entreprises et les professionnels désireux d’explorer l’univers captivant de l’IA générative.

Pratiquer l’Intelligence Artificielle Générative à Créteil

À Créteil, l’initiation à l’Intelligence Artificielle (IA) générative n’est plus exclusivement pour les spécialistes. Avec DATA FORMATION, une plateforme offre des cours conçus pour clarifier et rendre accessibles les subtilités de l’IA. Peu importe votre niveau, cette formation vous aidera à appréhender les rouages complexes de l’IA générative.

Une session d’une journée est prévue, vous permettant d’explorer l’univers fascinant de l’IA. À la fin de cette journée, chaque participant aura acquis une meilleure compréhension du fonctionnement de l’intelligence artificielle et sera en mesure d’envisager ses applications concrètes dans divers domaines.

Possibilités de Stage en IA Générative

L’IA générative transforme le monde professionnel et, par conséquent, des possibilités de stage en Recherche et Développement dans ce secteur sont offertes à Créteil et Courcelles. À partir de janvier 2024, un stage de six mois permettra aux passionnés d’approfondir leurs compétences en participant à des projets variés liés aux chatbots, aux workflows ou aux systèmes automatisés.

Cette expérience pratique est destinée à ceux qui désirent vraiment s’immerger dans l’univers de l’IA, contribuant à l’amélioration de ces systèmes novateurs et à leurs diverses applications.

Transformez Votre Entreprise avec l’IA Générative

L’Agence IA Générative fournit des solutions innovantes pour métamorphoser les entreprises. Grâce à l’IA générative, chaque projet bénéficie d’une amélioration en efficacité et en innovation. Cette technologie permet non seulement l’automatisation de tâches complexes, mais elle assure également des résultats adaptés à chaque organisation.

Pour en savoir plus sur la façon dont l’IA générative peut métamorphoser votre entreprise, consultez leur site ici pour découvrir comment une approche intégrée de l’intelligence artificielle peut faire avancer vos objectifs commerciaux.

Les Défis des Métiers de Cadres face à l’IA

À l’époque de l’intelligence artificielle, les métiers de cadres vivent une évolution sans précédent. Selon Julien Roudil, Directeur opérationnel du Campus des métiers et qualifications de l’IA, l’IA générative procure de nouvelles perspectives qu’il est essentiel d’explorer. Ces technologies offrent des opportunités de croissance personnelle et organisationnelle, redéfinissant le rôle des cadres dans la contemporanéité.

Communication et IA : Une Synergie Puissante

À Créteil, l’agence de communication mercichef fait des progrès dans l’utilisation de l’IA générative pour ses projets de communication. Que ce soit pour la gestion de communauté, la création de sites web ou la réalisation de séances photos et vidéos, l’IA est un atout précieux pour offrir des services variés et de qualité supérieure.

Pour plus d’informations sur les services proposés, connectez-vous à leur site mercichef.

Appréhender l’Intelligence Artificielle Générative et ses Usages

Comprendre les rôles et les applications de l’intelligence artificielle générative est crucial pour quiconque désire maîtriser les nouvelles technologies. Un colloque sur ce sujet, organisé par le mil et le lacl à l’université, examine ces thèmes en profondeur. Ce type d’événement soulève des questions essentielles sur la distinction entre l’IA traditionnelle et l’IA générative, ainsi que sur les diverses manières dont cette dernière peut être exploitée.

Pour un aperçu des différences et des exemples concrets d’utilisation de l’IA générative, des ressources telles qu’AWS offrent une abondance d’informations à explorer.

    Partager l’article :

Charger plus Tous les Articles sont chargés