Amazon construit l’un des supercalculateurs d’intelligence artificielle les plus puissants au monde en collaboration avec Anthropic, un concurrent d’OpenAI qui travaille pour repousser les limites de ce qui est possible avec l’intelligence artificielle. Lorsqu’il sera terminé, il sera cinq fois plus grand que le cluster utilisé pour construire le modèle le plus puissant d’Anthropic. Amazon affirme qu’il s’attend à ce que le supercalculateur, qui sera équipé de centaines de milliers des dernières puces de formation en IA d’Amazon, Trainium 2, soit la plus grande machine d’IA reportée au monde une fois achevée.

Matt Garman, le PDG d’Amazon Web Services, a révélé les plans du supercalculateur, baptisé projet Rainer, lors de la conférence Re:Invent de l’entreprise à Las Vegas aujourd’hui, ainsi qu’une série d’autres annonces consolidant le statut de potentiel vainqueur d’Amazon dans le monde de l’IA générative.

Garman a également annoncé que Trainium 2 serait rendu disponible au grand public dans des clusters Trn2 UltraServer spécialisés pour la formation d’IA de pointe. De nombreuses entreprises utilisent déjà le cloud d’Amazon pour construire et former des modèles d’IA personnalisés, souvent en tandem avec des GPU de Nvidia. Mais Garman a déclaré que les nouveaux clusters AWS sont de 30 à 40 % moins chers que ceux qui contiennent des GPU de Nvidia.

Amazon est le plus grand fournisseur de cloud computing au monde, mais jusqu’à récemment, il aurait pu être considéré comme un retardataire dans l’IA générative par rapport à des concurrents comme Microsoft et Google. Cependant, cette année, l’entreprise a investi 8 milliards de dollars dans Anthropic, et elle a discrètement lancé une gamme d’outils via une plateforme AWS appelée Bedrock pour aider les entreprises à exploiter et à gérer l’IA générative.

Lors de Re:Invent, Amazon a également présenté sa puce de formation de nouvelle génération, Trainium 3, qui, selon elle, offrira quatre fois la performance de sa puce actuelle. Elle sera disponible pour les clients fin 2025.

« Les chiffres sont assez fascinants » pour la puce de nouvelle génération, déclare Patrick Moorhead, PDG et analyste principal chez Moore Insight & Strategy. Moorhead indique que Trainium 3 semble avoir reçu un coup de pouce de performance significatif grâce à une amélioration de l’interconnexion entre les puces. Les interconnexions sont critiques dans le développement de modèles d’IA très grands, car elles permettent le transfert rapide de données entre puces, un facteur que AWS semble avoir optimisé dans ses derniers designs.

Nvidia peut rester le joueur dominant dans la formation d’IA pendant un certain temps, dit Moorhead, mais elle fera face à une concurrence croissante dans les prochaines années. L’innovation d’Amazon « montre que Nvidia n’est pas le seul acteur sur le marché de la formation », dit-il.

Garman a déclaré à WIRED avant l’événement qu’Amazon introduira également une gamme d’outils pour aider les clients à gérer des modèles d’IA générative qu’il dit souvent trop coûteux, peu fiables et imprévisibles.

Il s’agit notamment d’un moyen d’améliorer les capacités de modèles plus petits en utilisant des modèles plus grands, d’un système pour gérer des centaines d’agents d’IA différents, et d’un outil qui fournit une preuve que la sortie d’un chatbot est correcte. Amazon construit ses propres modèles d’IA, pour recommander des produits sur sa plateforme de commerce électronique et d’autres tâches, mais elle sert principalement de plateforme pour aider d’autres entreprises à construire leurs propres programmes d’IA.

Bien qu’Amazon n’ait pas de produit de type ChatGPT pour promouvoir ses capacités en IA, l’étendue de ses services cloud lui donnera un avantage pour vendre l’IA générative à d’autres, dit Steven Dickens, PDG et analyste principal chez HyperFRAME Research. « L’étendue d’AWS – ça va être quelque chose d’intéressant », dit-il.

La propre ligne de puces d’Amazon l’aidera à rendre le logiciel d’IA qu’elle vend plus abordable. « Le silicium devra être une partie clé de la stratégie de tout hyperscaler à l’avenir », dit Dickens, faisant référence aux fournisseurs de cloud qui offrent du matériel pour construire les plus grands et les plus performants d’IA. Il note également qu’Amazon développe son silicium personnalisé depuis plus longtemps que ses concurrents.

Garman déclare qu’un nombre croissant de clients d’AWS passent maintenant des démonstrations à la construction de produits et services commercialement viables incorporant l’IA générative. « L’une des choses qui nous excite beaucoup est d’avoir des clients passant d’expériences d’IA et de preuves de concept », a-t-il déclaré à WIRED.

Garman affirme que de nombreux clients s’intéressent bien moins à repousser la frontière de l’IA générative qu’à trouver des moyens de rendre la technologie moins coûteuse et plus fiable.

Un nouveau service AWS annoncé récemment appelé Model Distillation, par exemple, peut produire un modèle plus petit qui est plus rapide et moins coûteux à exécuter tout en ayant des capacités similaires à un modèle plus grand. « Disons que vous êtes une compagnie d’assurance », dit Garman. « Vous pouvez prendre tout un ensemble de questions, les alimenter dans un modèle vraiment avancé, puis utiliser cela pour former le modèle plus petit afin qu’il soit un expert dans ces domaines. »

Un autre nouvel outil cloud annoncé aujourd’hui, Bedrock Agents, peut être utilisé pour créer et gérer ce que l’on appelle des agents d’IA qui automatisent des tâches utiles telles que le support client, le traitement des commandes et l’analyse. Il comprend un agent principal qui gérera une équipe d’agents d’IA subalternes, fournissant des rapports sur leur fonctionnement et coordonnant les changements. « Vous pouvez essentiellement créer un agent qui dit que vous êtes le chef de tous les autres agents », dit Garman.

Garman s’attend à ce que les entreprises soient particulièrement enthousiasmées par le nouvel outil d’Amazon pour garantir que les sorties d’un chatbot soient précises. Les grands modèles de langage ont tendance à halluciner, et les méthodes existantes pour les maintenir sur la bonne voie sont imparfaites. Des clients tels que des assureurs, qui ne peuvent se permettre de faire des erreurs avec leur modèle d’IA, réclament ce genre de protection, a déclaré Garman à WIRED. « Quand vous demandez : ‘Est-ce que cela est couvert par mon assurance ?’ vous ne voulez pas que le modèle dise non quand c’est le cas ou oui quand ce n’est pas le cas, » dit Garman.

Le nouvel outil de vérification d’Amazon, appelé Raisonnement Automatisé, est différent d’un produit similaire qu’OpenAI a annoncé plus tôt cette année. Il repose sur le raisonnement logique pour analyser la sortie d’un modèle. Pour que cela fonctionne, une entreprise doit transformer ses données et ses politiques en un format permettant une analyse logique. « Nous prenons le langage naturel, nous le traduisons en logique, nous prouvons ou réfutons l’énoncé, puis nous pouvons fournir un argument sur la raison pour laquelle l’énoncé est vrai ou non, » a déclaré Bryon Cook, un scientifique distingué chez AWS et vice-président du groupe de raisonnement autonome de l’entreprise, à WIRED.

Cook dit que le même type de raisonnement formel a été utilisé pendant des décennies dans des domaines comme la conception de puces et la cryptographie. Il ajoute que l’approche pourrait être utilisée pour construire des chatbots qui gèrent les remboursements de billets d’avion ou qui fournissent des informations sur les ressources humaines sans se tromper de faits.

Cook ajoute que les entreprises peuvent combiner plusieurs systèmes présentant un Raisonnement Automatisé pour construire des applications et des services plus sophistiqués, y compris ceux qui intègrent des agents autonomes. « Maintenant, vous avez des agents communicants qui font du raisonnement formel et communiquent leur raisonnement, » dit-il. « Le raisonnement deviendra une chose très importante. »


En savoir plus sur L'ABESTIT

Subscribe to get the latest posts sent to your email.

Share this post

Articles similaires

4 DéCEMBRE 2024

Jensen Huang veut faire de l’IA la nouvelle infrastructure mondiale

Le PDG de Nvidia, Jensen Huang, a un plan pour apporter une infrastructure d'IA aux pays du monde entier, et il le présente en personne....<div class="media_block"><img...

0

3 DéCEMBRE 2024

Les résultats de recherche de ChatGPT pour les nouvelles sont « imprévisibles » et souvent inexactes.

Des recherches menées par le Tow Center for Digital Journalism de Columbia révèlent que l'outil de recherche ChatGPT d'OpenAI éprouve des difficultés à fournir des informations véridiques....

0

3 DéCEMBRE 2024

Meta dit qu’elle modère par erreur trop de contenu

Meta, selon Nick Clegg, fait face à des taux d'erreur trop élevés dans la modération de contenu sur ses plateformes, entraînant la suppression injustifiée d'un contenu inoffensif. Clegg a admis...

0

2 DéCEMBRE 2024

La société derrière Arc construit un nouveau navigateur web IA appelé Dia

Image : The Broswer CompanyLe PDG de The Browser Company, Josh Miller, a laissé entendre en octobre qu'il lançait un produit plus axé sur l'IA, qu'une nouvelle vidéo révèle être Dia, un...

0

2 DéCEMBRE 2024

Cette site montre combien l’IA de Google peut tirer de vos photos

Une startup de partage de photos fondée par un ancien ingénieur de Google a trouvé un moyen ingénieux de retourner la technologie de Google contre elle-même....<div class="media_block"><img...

0

2 DéCEMBRE 2024

Les États-Unis viennent de rendre beaucoup plus difficile pour la Chine de fabriquer ses propres puces...

Le Département du commerce des États-Unis a récemment mis en place des contrôles stricts à l'exportation visant à affaiblir l'industrie des semi-conducteurs en Chine, notamment en interdisant...

0

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

En savoir plus sur L'ABESTIT

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Continuer la lecture