Lancement des Rubin Superchips : NVIDIA propulse l'avenir de l'IA agentique et à grande échelle

La plate-forme Rubin exploite une conception de code extrême sur le matériel et les logiciels, offrant une réduction jusqu'à 10 fois du coût des jetons d'inférence et permettant la formation de modèles de mélange d'experts (MoE) à grande échelle avec 4 fois moins de GPU par rapport à la plate-forme NVIDIA Blackwell.

La plate-forme Rubin exploite une conception de code extrême sur le matériel et les logiciels, offrant une réduction jusqu'à 10 fois du coût des jetons d'inférence et permettant la formation de modèles de mélange d'experts (MoE) à grande échelle avec 4 fois moins de GPU par rapport à la plate-forme NVIDIA Blackwell.

Nvidia a annoncé le lancement de sa plateforme Rubin, marquant un pas en avant majeur dans l'infrastructure de l'IA. Nommée en l'honneur de l'astronome pionnière Vera Rubin, la plate-forme intègre six nouvelles puces (le processeur NVIDIA Vera, le GPU Rubin, le commutateur NVLink 6, le SuperNIC ConnectX-9, le DPU BlueField-4 et le commutateur Ethernet Spectrum-6) pour offrir l'un des supercalculateurs d'IA les plus avancés au monde. Rubin vise à accélérer l’adoption généralisée de l’IA tout en réduisant considérablement les coûts de formation et d’inférence.

La plate-forme Rubin exploite une conception de code extrême sur le matériel et les logiciels, offrant une réduction jusqu'à 10 fois du coût des jetons d'inférence et permettant la formation de modèles de mélange d'experts (MoE) à grande échelle avec 4 fois moins de GPU par rapport à la plate-forme NVIDIA Blackwell. Les innovations avancées incluent la technologie d'interconnexion NVIDIA NVLink, Transformer Engine, Confidential Computing et le moteur RAS, tous conçus pour optimiser les performances, la sécurité et la fiabilité.

Percées en matière de performances et d’efficacité

Rubin présente une infrastructure native d'IA de nouvelle génération, notamment la plate-forme de stockage de mémoire contextuelle d'inférence NVIDIA, optimisée par BlueField-4. Cela permet un raisonnement d’IA agentique évolutif avec un partage de données efficace et des performances économes en énergie. Les commutateurs photoniques Ethernet Spectrum-X de la plate-forme offrent une efficacité énergétique et une disponibilité 5 fois supérieures, tandis que l'architecture ASTRA (Advanced Secure Trusted Resource Architecture) de BlueField-4 garantit des charges de travail d'IA sécurisées et isolées.

Le système rack-scale NVIDIA Vera Rubin NVL72 combine 72 GPU Rubin et 36 processeurs Vera, offrant une bande passante et une densité de calcul sans précédent, tandis que le serveur HGX Rubin NVL8 prend en charge les charges de travail d'IA générative basées sur x86. Les systèmes NVIDIA DGX SuperPOD fournissent une architecture de référence pour le déploiement de Rubin à grande échelle, intégrant des GPU, des CPU, des DPU, des logiciels de mise en réseau et de gestion.

Adoption à grande échelle de l’écosystème

La plateforme Rubin est déjà prise en charge par les principaux fournisseurs de cloud, les laboratoires d'IA et les partenaires matériels. Les premiers utilisateurs incluent AWS, Google Cloud, Microsoft Azure, CoreWeave, Lambda, OCI et xAI, tandis que les partenaires d'infrastructure tels que Cisco, Dell, HPE, Lenovo et Supermicro construisent des serveurs alimentés par Rubin. Les laboratoires d'IA, notamment OpenAI, Anthropic, Meta, Cohere, Mistral AI et Perplexity, prévoient d'exploiter Rubin pour former des modèles multimodaux avancés, à grand contexte.

Les leaders de l'industrie réagissent

  • Jensen Huang, PDG de NVIDIA : « Rubin arrive exactement au bon moment alors que la demande en matière d'informatique IA monte en flèche… il fait un pas de géant vers la prochaine frontière de l'IA. »
  • Sam Altman, OpenAI : « La plateforme NVIDIA Rubin nous aide à faire progresser les progrès de l’IA afin que l’intelligence avancée profite à tout le monde. »
  • Mark Zuckerberg, méta : «Rubin promet le changement radical en termes de performances et d'efficacité requis pour déployer les modèles les plus avancés auprès de milliards de personnes.»
  • Elon Musk, xAI : « Rubin sera un moteur de fusée pour l'IA… NVIDIA reste la référence. »
  • Satya Nadella, Microsoft : « Avec les GPU NVIDIA Vera Rubin, nous donnerons aux développeurs et aux organisations les moyens de créer, de raisonner et d'évoluer de manière entièrement nouvelle. »

Collaboration entre écosystèmes et logiciels

NVIDIA a élargi son partenariat avec Red Hat pour fournir une pile d'IA complète optimisée pour Rubin, comprenant Red Hat Enterprise Linux, OpenShift et Red Hat AI, permettant aux entreprises Fortune 500 et aux innovateurs en IA de déployer efficacement des solutions d'IA hautes performances.

Disponibilité

Les produits basés sur Rubin seront disponibles auprès de partenaires au cours du second semestre 2026, offrant une plate-forme unifiée, sécurisée et évolutive pour la formation en IA, l'inférence et les charges de travail agentiques. Microsoft déploiera les systèmes Vera Rubin NVL72 dans les superusines d'IA de nouvelle génération, tandis que CoreWeave intégrera Rubin dans sa plate-forme cloud d'IA pour accélérer l'innovation dans les applications d'entreprise, de recherche et grand public.

Avec la plateforme Rubin, NVIDIA établit une nouvelle norme en matière d'infrastructure d'IA, combinant une efficacité, une évolutivité et une sécurité sans précédent pour alimenter la prochaine génération de supercalculateurs et d'applications d'IA.