-+ 0.00%
-+ 0.00%
-+ 0.00%

NVIDIA lance la prochaine génération d'IA avec le lancement de la plateforme NVIDIA Rubin, composée de six nouvelles puces conçues pour fournir un incroyable superordinateur IA ; les superusines Fairwater AI de Microsoft s'adapteront à des centaines de milliers de superpuces NVIDIA Vera Rubin ; AWS, Google Cloud, Microsoft et OCI déploieront des instances basées sur Vera Rubin en 2026

Benzinga·01/05/2026 22:30:07
Diffusion vocale
  • La plate-forme Rubin exploite une conception conjointe extrême entre le matériel et les logiciels pour réduire jusqu'à 10 fois le coût des jetons d'inférence et 4 fois le nombre de GPU utilisés pour entraîner les modèles MoE, par rapport à la plate-forme NVIDIA Blackwell.
  • Les systèmes de commutateurs photoniques Ethernet NVIDIA Spectrum-X offrent une efficacité énergétique et une disponibilité 5 fois supérieures.
  • Nouvelle plateforme de stockage de mémoire contextuelle NVIDIA Inference avec processeur de stockage NVIDIA BlueField-4 pour accélérer le raisonnement agentique de l'IA.
  • Les superusines Fairwater AI de nouvelle génération de Microsoft, équipées de systèmes montés en rack NVIDIA Vera Rubin NVL72, seront équipées de centaines de milliers de superpuces NVIDIA Vera Rubin.
  • CoreWeave est parmi les premiers à proposer NVIDIA Rubin, géré via CoreWeave Mission Control pour plus de flexibilité et de performances.
  • Collaboration étendue avec Red Hat afin de fournir un stack d'IA complet optimisé pour la plateforme Rubin avec Red Hat Enterprise Linux, Red Hat OpenShift et Red Hat AI.

LAS VEGAS, 05 janvier 2026 (GLOBE NEWSWIRE) -- CES -- NVIDIA a lancé aujourd'hui la prochaine génération d'IA avec le lancement de la plateforme NVIDIA Rubin, composée de six nouvelles puces conçues pour fournir un incroyable supercalculateur IA. NVIDIA Rubin établit une nouvelle norme en matière de création, de déploiement et de sécurisation des systèmes d'IA les plus importants et les plus avancés au monde au moindre coût afin d'accélérer l'adoption de l'IA par le grand public.

La plateforme Rubin utilise une conception conjointe extrême des six puces (processeur NVIDIA Vera, GPU NVIDIA Rubin, commutateur NVIDIA NVLink™ 6, NVIDIA ConnectX® -9 SuperNIC, NVIDIA BlueField® -4 DPU et commutateur Ethernet NVIDIA Spectrum™ -6) afin de réduire le temps de formation et les coûts des jetons d'inférence.

« Rubin arrive exactement au bon moment, alors que la demande en informatique basée sur l'IA en matière de formation et d'inférence ne cesse de croître », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Grâce à notre cadence annuelle de production d'une nouvelle génération de superordinateurs dotés d'intelligence artificielle et à une conception conjointe extrême de six nouvelles puces, Rubin fait un pas de géant vers la prochaine frontière de l'IA. »

Nommée en l'honneur de Vera Florence Cooper Rubin, la pionnière de l'astronomie américaine dont les découvertes ont transformé la compréhension de l'univers par l'humanité, la plateforme Rubin intègre la solution en rack NVIDIA Vera Rubin NVL72 et le système NVIDIA HGX Rubin NVL8.

La plateforme Rubin introduit cinq innovations, dont les dernières générations de technologie d'interconnexion NVIDIA NVLink, Transformer Engine, Confidential Computing et RAS Engine, ainsi que le processeur NVIDIA Vera. Ces avancées accéléreront l'IA agentique, le raisonnement avancé et l'inférence de modèles mixtes d'experts (MoE) à grande échelle à un coût par jeton jusqu'à 10 fois inférieur à celui de la plateforme NVIDIA Blackwell. Par rapport à son prédécesseur, la plateforme NVIDIA Rubin entraîne des modèles MoE avec 4 fois moins de GPU afin d'accélérer l'adoption de l'IA.

Support d'un écosystème étendu

Parmi les principaux laboratoires d'IA, fournisseurs de services cloud, fabricants d'ordinateurs et startups du monde entier qui devraient adopter Rubin figurent Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexi ity, Runway, Supermicro, Thinking Machines Lab et XiaI.

Sam Altman, PDG d'OpenAI : « L'intelligence évolue avec le calcul. Lorsque nous ajoutons plus de capacité de calcul, les modèles deviennent plus performants, résolvent des problèmes plus complexes et ont un impact plus important pour les utilisateurs. La plateforme NVIDIA Rubin nous aide à poursuivre ces progrès afin que l'intelligence avancée profite à tous. »

Dario Amodei, cofondateur et PDG d'Anthropic : « Les gains d'efficacité de la plateforme NVIDIA Rubin représentent le type de progrès en matière d'infrastructure qui permet d'allonger la mémoire, de mieux raisonner et de rendre les résultats plus fiables. Notre collaboration avec NVIDIA contribue à renforcer nos recherches en matière de sécurité et nos modèles avant-gardistes. »

Mark Zuckerberg, fondateur et PDG de Meta : « La plateforme Rubin de NVIDIA promet d'apporter le changement radical en termes de performances et d'efficacité requis pour déployer les modèles les plus avancés auprès de milliards de personnes. »

Elon Musk, fondateur et PDG de xAI : « NVIDIA Rubin sera un moteur-fusée pour l'IA. Si vous souhaitez entraîner et déployer des modèles de pointe à grande échelle, c'est l'infrastructure que vous utilisez, et Rubin rappellera au monde entier que NVIDIA est la référence absolue. »

Satya Nadella, président exécutif et PDG de Microsoft : « Nous construisons les superusines d'IA les plus puissantes au monde pour répondre à toutes les charges de travail, en tout lieu, avec des performances et une efficacité maximales. Avec l'ajout des GPU NVIDIA Vera Rubin, nous permettrons aux développeurs et aux organisations de créer, de raisonner et d'évoluer de manière totalement inédite. »

Mike Intrator, cofondateur et PDG de CoreWeave : « Nous avons créé CoreWeave pour aider les pionniers à accélérer leurs innovations grâce aux performances inégalées de notre plateforme d'IA spécialement conçue, qui associe la bonne technologie aux bonnes charges de travail au fur et à mesure de leur évolution. La plateforme NVIDIA Rubin représente une avancée importante en matière de raisonnement, d'agentisme et de charges de travail d'inférence à grande échelle, et nous sommes ravis de l'ajouter à notre plateforme. Avec CoreWeave Mission Control comme standard d'exploitation, nous pouvons intégrer rapidement de nouvelles fonctionnalités et les exploiter de manière fiable à l'échelle de la production, en étroite collaboration avec NVIDIA. »

Matt Garman, PDG d'AWS : « AWS et NVIDIA stimulent ensemble l'innovation en matière d'IA dans le cloud depuis plus de 15 ans. La plateforme NVIDIA Rubin sur AWS représente notre engagement continu à fournir une infrastructure d'IA de pointe qui offre aux clients un choix et une flexibilité inégalés. En combinant la technologie d'IA avancée de NVIDIA avec l'évolutivité, la sécurité et les services complets d'IA éprouvés d'AWS, les clients peuvent créer, former et déployer leurs applications d'IA les plus exigeantes plus rapidement et de manière plus rentable, accélérant ainsi leur passage de l'expérimentation à la production à n'importe quelle échelle. »

Sundar Pichai, PDG de Google et Alphabet : « Nous sommes fiers de notre relation étroite et de longue date avec NVIDIA. Pour répondre à la forte demande des clients concernant les GPU NVIDIA, nous nous efforçons de fournir le meilleur environnement possible pour leur matériel sur Google Cloud. Notre collaboration se poursuivra alors que nous mettrons les capacités impressionnantes de la plateforme Rubin à la disposition de nos clients, en leur offrant l'échelle et les performances nécessaires pour repousser les limites de l'IA. »

Clay Magouyrk, PDG d'Oracle : « Oracle Cloud Infrastructure est un cloud hyperscale conçu pour offrir les meilleures performances. En collaboration avec NVIDIA, nous repoussons les limites de ce que les clients peuvent créer et faire évoluer grâce à l'IA. Avec des usines d'IA à grande échelle alimentées par l'architecture NVIDIA Vera Rubin, OCI fournit à ses clients l'infrastructure de base dont ils ont besoin pour repousser les limites de la formation des modèles, de l'inférence et de l'impact réel de l'IA. »

Michael Dell, président-directeur général de Dell Technologies : « La plateforme NVIDIA Rubin représente une avancée majeure en matière d'infrastructure d'IA. En intégrant Rubin à l'usine Dell AI avec NVIDIA, nous créons une infrastructure capable de gérer d'énormes volumes de jetons et un raisonnement en plusieurs étapes, tout en offrant les performances et la résilience dont les entreprises et les néoclouds ont besoin pour déployer l'IA à grande échelle. »

Antonio Neri, président et PDG de HPE : « L'IA redéfinit non seulement les charges de travail, mais aussi les fondements mêmes de l'informatique, ce qui nous oblige à réimaginer chaque couche de l'infrastructure, du réseau au calcul. Avec la plateforme NVIDIA Vera Rubin, HPE construit la prochaine génération d'infrastructure sécurisée native à l'IA, transformant les données en intelligence et permettant aux entreprises de devenir de véritables usines d'IA. »

Yuanqing Yang, président-directeur général de Lenovo : « Lenovo adopte la plateforme NVIDIA Rubin de nouvelle génération, en tirant parti de notre solution de refroidissement liquide Neptune ainsi que de notre envergure mondiale, de notre efficacité de fabrication et de notre portée de service, pour aider les entreprises à construire des usines d'IA qui servent de moteurs intelligents et accélérés pour la compréhension et l'innovation. Ensemble, nous construisons un futur piloté par l'IA où l'IA efficace et sécurisée deviendra la norme pour chaque organisation. »

Conçu pour développer l'intelligence L'IA

agentique et les modèles de raisonnement, ainsi que les charges de travail de génération vidéo de pointe, redéfinissent les limites du calcul. La résolution de problèmes en plusieurs étapes nécessite des modèles capables de traiter, de raisonner et d'agir sur de longues séquences de jetons. Conçues pour répondre aux exigences des charges de travail complexes liées à l'IA, les cinq technologies révolutionnaires de la plateforme Rubin incluent :

  • NVIDIA NVLink de sixième génération : fournit la communication GPU à GPU rapide et fluide requise pour les modèles MoE massifs d'aujourd'hui. Chaque GPU offre 3,6 To/s de bande passante, tandis que le rack Vera Rubin NVL72 fournit 260 To/s, soit plus de bande passante que l'ensemble d'Internet. Avec un calcul intégré au réseau pour accélérer les opérations collectives, ainsi que de nouvelles fonctionnalités pour une facilité de maintenance et une résilience améliorées, le commutateur NVIDIA NVLink 6 permet une formation et une inférence à grande échelle de l'IA plus rapides et plus efficaces.
  • Processeur NVIDIA Vera : Conçu pour un raisonnement agentique, le processeur NVIDIA Vera est le processeur le plus économe en énergie pour les grandes usines d'IA. Le processeur NVIDIA est construit avec 88 cœurs Olympus personnalisés NVIDIA, une compatibilité totale avec Armv9.2 et une connectivité NVLink-C2C ultrarapide. Vera offre des performances, une bande passante et une efficacité de pointe exceptionnelles pour prendre en charge une gamme complète de charges de travail de centres de données modernes.
  • GPU NVIDIA Rubin : doté d'un moteur Transformer de troisième génération avec compression adaptative accélérée matériellement, le GPU Rubin fournit 50 pétaflops de calcul NVFP4 pour l'inférence par IA.
  • Informatique confidentielle NVIDIA de troisième génération : Vera Rubin NVL72 est la première plateforme montée en rack à proposer l'informatique confidentielle NVIDIA, qui assure la sécurité des données dans les domaines du processeur, du GPU et du NVLink, protégeant ainsi les plus grands modèles propriétaires au monde, ainsi que les charges de travail de formation et d'inférence.
  • Moteur RAS de deuxième génération : la plate-forme Rubin, qui couvre le GPU, le processeur et NVLink, propose des contrôles de santé en temps réel, une tolérance aux pannes et une maintenance proactive pour optimiser la productivité du système. La conception modulaire et sans câble du plateau du rack permet un assemblage et un entretien jusqu'à 18 fois plus rapides que ceux du Blackwell.

Stockage natif de l'IA et infrastructure sécurisée définie par logiciel

NVIDIA Rubin présente la plateforme de stockage de mémoire NVIDIA Inference Context, une nouvelle catégorie d'infrastructure de stockage native pour l'IA conçue pour faire évoluer le contexte d'inférence à l'échelle du gigascule.

Basée sur NVIDIA BlueField-4, la plateforme permet de partager et de réutiliser efficacement les données de cache à valeur clé au sein de l'infrastructure d'IA, améliorant ainsi la réactivité et le débit tout en permettant une mise à l'échelle prévisible et économe en énergie de l'IA agentique.

Alors que les usines d'IA adoptent de plus en plus des modèles de déploiement « bare metal » et multi-locataires, il devient essentiel de maintenir un contrôle et une isolation solides de l'infrastructure.

BlueField-4 introduit également l'architecture Advanced Secure Trusted Resource Architecture, ou ASTRA, une architecture de confiance au niveau du système qui fournit aux constructeurs d'infrastructures d'IA un point de contrôle unique et fiable pour provisionner, isoler et exploiter en toute sécurité des environnements d'IA à grande échelle sans compromettre les performances.

Les applications d'IA évoluant vers un raisonnement agentique à tours multiples, les organisations natives de l'IA doivent gérer et partager des volumes bien plus importants de contexte d'inférence entre les utilisateurs, les sessions et les services.

Différentes formes pour différentes charges de travail La

NVIDIA Vera Rubin NVL72 propose un système unifié et sécurisé qui combine 72 GPU NVIDIA Rubin, 36 processeurs NVIDIA Vera, NVIDIA NVLink 6, NVIDIA ConnectX-9 SuperNICS et NVIDIA BlueField-4 DPU.

NVIDIA proposera également la plateforme NVIDIA HGX Rubin NVL8, une carte serveur qui relie huit GPU Rubin via NVLink pour prendre en charge les plateformes d'IA générative basées sur x86. La plateforme HGX Rubin NVL8 accélère la formation, l'inférence et le calcul scientifique pour les charges de travail liées à l'IA et au calcul haute performance.

NVIDIA DGX SuperPod ™ sert de référence pour le déploiement de systèmes basés sur Rubin à grande échelle, en intégrant des systèmes NVIDIA DGX Vera Rubin NVL72 ou DGX Rubin NVL8 avec des DPU NVIDIA BlueField-4, des cartes SuperNIC NVIDIA ConnectX-9, un réseau NVIDIA InfiniBand et le logiciel NVIDIA Mission Control™.

Réseau Ethernet de nouvelle génération Le réseau et le stockage Ethernet

avancés sont des composants de l'infrastructure d'IA essentiels au fonctionnement à pleine vitesse des centres de données, à l'amélioration des performances et de l'efficacité et à la réduction des coûts.

L'Ethernet NVIDIA Spectrum-6 est la nouvelle génération d'Ethernet pour les réseaux d'IA, conçue pour faire évoluer les usines d'IA basées sur Rubin avec une efficacité et une résilience accrues, et rendue possible par des circuits de communication SerDes 200G, des optiques co-packagées et des structures optimisées pour l'IA.

Basés sur l'architecture Spectrum-6, les systèmes de commutateurs optiques co-packagés Spectrum-X Ethernet Photonics offrent une fiabilité 10 fois supérieure et une disponibilité 5 fois plus longue pour les applications d'IA, tout en atteignant une efficacité énergétique 5 fois supérieure, maximisant ainsi les performances par watt par rapport aux méthodes traditionnelles. La technologie Ethernet Spectrum-XGS, qui fait partie de la plate-forme Ethernet Spectrum-X, permet à des installations séparées par des centaines de kilomètres et plus de fonctionner comme un environnement d'IA unique.

Ensemble, ces innovations définissent la prochaine génération de la plate-forme Ethernet NVIDIA Spectrum-X, conçue avec une conception conjointe extrême pour Rubin afin de permettre des usines d'IA à grande échelle et d'ouvrir la voie aux futurs environnements à millions de processeurs graphiques.

Rubin Readiness

NVIDIA Rubin est en pleine production et les produits basés sur Rubin seront disponibles auprès de nos partenaires au cours du second semestre 2026.

Parmi les premiers fournisseurs de cloud à déployer des instances basées sur Vera Rubin en 2026 figurent AWS, Google Cloud, Microsoft et OCI, ainsi que les partenaires cloud NVIDIA CoreWeave, Lambda, Nebius et Nscale.

Microsoft déploiera les systèmes en rack NVIDIA Vera Rubin NVL72 dans le cadre de centres de données d'IA de nouvelle génération, y compris les futurs sites de superusines d'IA Fairwater.

Conçue pour offrir une efficacité et des performances sans précédent pour les charges de travail de formation et d'inférence, la plateforme Rubin jettera les bases des capacités d'IA cloud de nouvelle génération de Microsoft. Microsoft Azure proposera une plateforme parfaitement optimisée permettant aux clients d'accélérer l'innovation dans les applications d'entreprise, de recherche et grand public.

CoreWeave intégrera des systèmes basés sur NVIDIA Rubin dans sa plateforme cloud d'IA à partir du second semestre 2026. CoreWeave est conçu pour faire fonctionner plusieurs architectures côte à côte, permettant aux clients d'intégrer Rubin dans leurs environnements, où il aura le plus grand impact sur les charges de travail de formation, d'inférence et d'agent.

En collaboration avec NVIDIA, CoreWeave aidera les pionniers de l'IA à tirer parti des avancées de Rubin en matière de raisonnement et de modèles MoE, tout en continuant à fournir les performances, la fiabilité opérationnelle et l'évolutivité requises pour l'IA de production tout au long du cycle de vie grâce à CoreWeave Mission Control.

En outre, Cisco, Dell, HPE, Lenovo et Supermicro devraient fournir une large gamme de serveurs basés sur les produits Rubin.

Les laboratoires d'IA tels qu'Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab et xAI se tournent vers la plateforme NVIDIA Rubin pour développer des modèles plus grands et plus performants et pour servir des systèmes multimodaux à long contexte avec une latence et un coût inférieurs à ceux des générations de GPU précédentes.

Les partenaires en matière de logiciels d'infrastructure et de stockage AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data et WEKA collaborent avec NVIDIA pour concevoir des plateformes de nouvelle génération pour l'infrastructure Rubin.

La plateforme Rubin constitue l'architecture rack de troisième génération de NVIDIA, avec plus de 80 partenaires de l'écosystème NVIDIA MGX™.

Pour débloquer cette densité, Red Hat a annoncé aujourd'hui une collaboration élargie avec NVIDIA afin de fournir une pile d'IA complète optimisée pour la plateforme NVIDIA Rubin avec le portefeuille de cloud hybride de Red Hat, y compris Red Hat Enterprise Linux, Red Hat OpenShift et Red Hat AI. Ces solutions sont utilisées par la grande majorité des entreprises du Fortune Global 500.