NVIDIA a dat startul astăzi următoarei generații de inteligență artificială odată cu lansarea platformei NVIDIA Rubin, care cuprinde șase cipuri noi concepute pentru a oferi un supercomputer AI incredibil.
NVIDIA Rubin stabilește un nou standard pentru construirea, implementarea și securizarea celor mai mari și mai avansate sisteme AI din lume la cel mai mic cost, pentru a accelera adoptarea AI în masă.
Platforma Rubin utilizează un cod-design extrem pe cele șase cipuri – procesorul NVIDIA Vera, placa grafică NVIDIA Rubin, comutatorul NVIDIA NVLink™ 6, NVIDIA ConnectX®-9 SuperNIC, unitatea de procesare grafică NVIDIA BlueField®-4 și comutatorul Ethernet NVIDIA Spectrum™-6 – pentru a reduce timpul de antrenament și costurile cu token-urile de inferență.
„Rubin ajunge exact la momentul potrivit, deoarece cererea de calcul AI, atât pentru antrenament, cât și pentru inferență, crește vertiginos”
„Cu ritmul nostru anual de livrare a unei noi generații de supercomputere AI – și cod-design extrem pe șase cipuri noi – Rubin face un salt uriaș către următoarea frontieră a AI.” – a declarat Jensen Huang, fondator și CEO al NVIDIA.
Numită după Vera Florence Cooper Rubin — astronoma americană deschizătoare de drumuri ale cărei descoperiri au transformat înțelegerea universului de către umanitate — platforma Rubin include soluția rack-scale NVIDIA Vera Rubin NVL72 și sistemul NVIDIA HGX Rubin NVL8.
Platforma Rubin introduce cinci inovații, inclusiv cele mai recente generații ale tehnologiei de interconectare NVIDIA NVLink, Transformer Engine, Confidential Computing și RAS Engine, precum și procesorul NVIDIA Vera.
Aceste descoperiri vor accelera inteligența artificială agentică, raționamentul avansat și inferența modelelor de tip mix-of-experts (MoE) la scară masivă, la un cost per token de până la 10 ori mai mic decât platforma NVIDIA Blackwell.
Comparativ cu predecesoarea sa, platforma NVIDIA Rubin antrenează modele MoE cu 4 ori mai puține GPU-uri pentru a accelera adoptării inteligenței artificiale.
Suport extins pentru ecosisteme
Printre cele mai importante laboratoare de inteligență artificială din lume, furnizorii de servicii cloud, producătorii de computere și startup-urile care se așteaptă să adopte Rubin se numără Amazon Web Services (AWS), Anthropic, Black Forest Labs, Cisco, Cohere, CoreWeave, Cursor, Dell Technologies, Google, Harvey, HPE, Lambda, Lenovo, Meta, Microsoft, Mistral AI, Nebius, Nscale, OpenAI, OpenEvidence, Oracle Cloud Infrastructure (OCI), Perplexity, Runway, Supermicro, Thinking Machines Lab și xAI.
„Inteligența se scalează odată cu puterea de calcul. Când adăugăm mai multă putere de calcul, modelele devin mai capabile, rezolvă probleme mai dificile și au un impact mai mare asupra oamenilor. Platforma NVIDIA Rubin ne ajută să continuăm să scalăm acest progres, astfel încât inteligența avansată să fie în beneficiul tuturor.” – a declarat Sam Altman, CEO al OpenAI
„Câștigurile de eficiență din platforma NVIDIA Rubin reprezintă tipul de progres al infrastructurii care permite o memorie mai lungă, un raționament mai bun și rezultate mai fiabile. Colaborarea noastră cu NVIDIA ajută la susținerea cercetării noastre în domeniul siguranței și a modelelor noastre de frontieră.” – a declarat Dario Amodei, cofondator și CEO al Anthropic
„Platforma Rubin de la NVIDIA promite să ofere schimbarea radicală în performanță și eficiență necesară pentru a implementa cele mai avansate modele către miliarde de oameni.” – a declarat Mark Zuckerberg, fondator și CEO al Meta
„💚🎉🚀 🤖NVIDIA Rubin va fi un motor rachetă pentru AI. Dacă doriți să antrenați și să implementați modele de frontieră la scară largă, aceasta este infrastructura pe care o utilizați – iar Rubin va reaminti lumii că NVIDIA este standardul de aur.💚🎉🚀 🤖” – a declarat Elon Musk, fondator și CEO al xAI
„Construim cele mai puternice super-fabrici de AI din lume pentru a deservi orice sarcină de lucru, oriunde, cu performanță și eficiență maxime. Prin adăugarea GPU-urilor NVIDIA Vera Rubin, vom permite dezvoltatorilor și organizațiilor să creeze, să raționeze și să scaleze în moduri complet noi.” – a declarat Satya Nadella, președinte executiv și CEO al Microsoft
„Am construit CoreWeave pentru a ajuta pionierii să își accelereze inovațiile cu performanța de neegalat a platformei noastre de inteligență artificială special concepute, combinând tehnologia potrivită cu sarcinile de lucru potrivite pe măsură ce acestea evoluează. Platforma NVIDIA Rubin reprezintă un progres important pentru sarcinile de lucru în domeniul raționamentului, agentivității și inferenței la scară largă și suntem încântați să o adăugăm la platforma noastră. Cu CoreWeave Mission Control ca standard de operare, putem integra rapid noi capabilități și le putem rula în mod fiabil la scară de producție, lucrând în strânsă colaborare cu NVIDIA.” – a declarat Mike Intrator, cofondator și CEO al CoreWeave
„AWS și NVIDIA au impulsionat împreună inovația în domeniul inteligenței artificiale în cloud de peste 15 ani. Platforma NVIDIA Rubin pe AWS reprezintă angajamentul nostru continuu de a oferi o infrastructură de inteligență artificială de ultimă generație, care oferă clienților opțiuni și flexibilitate de neegalat. Prin combinarea tehnologiei avansate de inteligență artificială a NVIDIA cu scalabilitatea, securitatea și serviciile complete de inteligență artificială ale AWS, clienții pot construi, instrui și implementa cele mai solicitante aplicații de inteligență artificială mai rapid și mai rentabil – accelerându-și parcursul de la experimentare la producție la orice scară.” – a declarat Matt Garman, CEO al AWS
„Suntem mândri de relația noastră strânsă și de lungă durată cu NVIDIA. Pentru a satisface cererea substanțială a clienților pentru GPU-urile NVIDIA, ne concentrăm pe furnizarea celui mai bun mediu posibil pentru hardware-ul lor pe Google Cloud. Colaborarea noastră va continua pe măsură ce aducem capacitățile impresionante ale platformei Rubin clienților noștri, oferindu-le scalabilitatea și performanța necesare pentru a depăși limitele AI.” – a declarat Sundar Pichai, CEO al Google și Alphabet
„Oracle Cloud Infrastructure este un cloud hiperscalabil construit pentru cea mai înaltă performanță și, împreună cu NVIDIA, împingem limitele a ceea ce clienții pot construi și scala cu AI. Cu fabrici de AI la scară gigantică, alimentate de arhitectura NVIDIA Vera Rubin, OCI oferă clienților fundația infrastructurii de care au nevoie pentru a depăși limitele antrenării modelelor, inferenței și impactului AI în lumea reală.” – a declarat Clay Magouyrk, CEO al Oracle
„Platforma NVIDIA Rubin reprezintă un salt major înainte în infrastructura AI. Prin integrarea Rubin în Dell AI Factory împreună cu NVIDIA, construim o infrastructură care poate gestiona volume masive de tokenuri și raționament în mai mulți pași, oferind în același timp performanța și reziliența de care întreprinderile și neocloud-urile au nevoie pentru a implementa AI la scară largă.” – a declarat Michael Dell, președinte și CEO al Dell Technologies
„AI remodelează nu doar sarcinile de lucru, ci chiar fundamentele IT-ului, necesitând o reimaginare a fiecărui strat al infrastructurii, de la rețea la sistemul de calcul. Cu platforma NVIDIA Vera Rubin, HPE construiește următoarea generație de infrastructură sigură, nativă pentru AI, transformând datele în inteligență și permițând întreprinderilor să devină adevărate fabrici de AI.” – a declarat Antonio Neri, președinte și CEO al HPE
„Lenovo adoptă platforma NVIDIA Rubin de generație următoare, valorificând soluția noastră de răcire cu lichid Neptune, precum și scara noastră globală, eficiența producției și acoperirea serviciilor, pentru a ajuta întreprinderile să construiască fabrici de inteligență artificială care servesc drept motoare inteligente și accelerate pentru informații și inovație. Împreună, construim un viitor bazat pe inteligență artificială, în care inteligența artificială eficientă și sigură devine standardul pentru fiecare organizație.” – a declarat Yuanqing Yang, președinte și CEO al Lenovo
Proiectată pentru a scala inteligența
Inteligența artificială agentică și modelele de raționament, împreună cu sarcinile de lucru de generare video de ultimă generație, redefinesc limitele calculului.
Rezolvarea problemelor în mai mulți pași necesită ca modelele să proceseze, să raționeze și să acționeze pe secvențe lungi de token-uri. Concepute pentru a satisface cerințele sarcinilor de lucru complexe de inteligență artificială, cele cinci tehnologii inovatoare ale platformei Rubin includ:
- NVIDIA NVLink de a șasea generație: Oferă comunicarea rapidă și fără probleme GPU-GPU necesară pentru modelele masive MoE de astăzi. Fiecare GPU oferă o lățime de bandă de 3,6 TB/s, în timp ce rack-ul Vera Rubin NVL72 oferă 260 TB/s – o lățime de bandă mai mare decât întregul internet. Cu o capacitate de calcul încorporată, în rețea, pentru a accelera operațiunile colective, precum și cu funcții noi pentru service și reziliență îmbunătățite, switch-ul NVIDIA NVLink 6 permite antrenament și inferență AI mai rapide și mai eficiente la scară largă.
- Procesor NVIDIA Vera: Conceput pentru raționament agentiv, NVIDIA Vera este cel mai eficient procesor din punct de vedere energetic pentru fabricile de AI la scară largă. Procesorul NVIDIA este construit cu 88 de nuclee Olympus personalizate NVIDIA, compatibilitate completă cu Armv9.2 și conectivitate NVLink-C2C ultrarapidă. Vera oferă performanțe excepționale, lățime de bandă și eficiență de vârf în industrie pentru a suporta o gamă completă de sarcini de lucru moderne din centrele de date.
- Procesor GPU NVIDIA Rubin: Dispunând de un motor Transformer de a treia generație cu compresie adaptivă accelerată hardware, GPU Rubin oferă 50 petaflops de calcul NVFP4 pentru inferență AI.
- NVIDIA Confidential Computing de a treia generație: Vera Rubin NVL72 este prima platformă rack-scală care oferă NVIDIA Confidential Computing — care menține securitatea datelor în domeniile CPU, GPU și NVLink — protejând cele mai mari modele proprietare, sarcini de lucru pentru antrenament și inferență din lume.
- Motor RAS de a doua generație: Platforma Rubin — care cuprinde GPU, CPU și NVLink — oferă verificări de stare în timp real, toleranță la erori și întreținere proactivă pentru a maximiza productivitatea sistemului. Designul modular, fără cabluri al tăvii rack-ului permite o asamblare și o întreținere de până la 18 ori mai rapide decât Blackwell.
Stocare nativă bazată pe inteligență artificială și infrastructură securizată, definită de software
NVIDIA Rubin introduce platforma de stocare NVIDIA Inference Context Memory, o nouă clasă de infrastructură de stocare nativă bazată pe inteligență artificială, concepută pentru a scala contextul de inferență la scară giga.
Susținută de NVIDIA BlueField-4, platforma permite partajarea și reutilizarea eficientă a datelor din memoria cache cheie-valoare în cadrul infrastructurii AI, îmbunătățind timpul de răspuns și debitul, permițând în același timp scalarea previzibilă și eficientă din punct de vedere energetic a AI agentică.
Pe măsură ce fabricile de inteligență artificială adoptă din ce în ce mai mult modele de implementare bare-metal și multi-tenant, menținerea unui control puternic al infrastructurii și a izolării devine esențială.
BlueField-4 introduce, de asemenea, Advanced Secure Trusted Resource Architecture, sau ASTRA, o arhitectură de încredere la nivel de sistem care oferă constructorilor de infrastructură AI un punct de control unic și de încredere pentru a furniza, izola și opera în siguranță medii AI la scară largă, fără a compromite performanța.
Pe măsură ce aplicațiile AI evoluează către raționament agentic multi-turn, organizațiile native AI trebuie să gestioneze și să partajeze volume mult mai mari de context de inferență între utilizatori, sesiuni și servicii.
Forme diferite pentru sarcini de lucru diferite
NVIDIA Vera Rubin NVL72 oferă un sistem unificat și securizat care combină 72 de GPU-uri NVIDIA Rubin, 36 de procesoare NVIDIA Vera, NVIDIA NVLink 6, NVIDIA ConnectX-9 SuperNIC-uri și DPU-uri NVIDIA BlueField-4.
NVIDIA va oferi, de asemenea, platforma NVIDIA HGX Rubin NVL8, o placă de bază pentru servere care conectează opt GPU-uri Rubin prin NVLink pentru a suporta platforme AI generative bazate pe x86. Platforma HGX Rubin NVL8 accelerează instruirea, inferența și calculul științific pentru sarcini de lucru AI și de calcul de înaltă performanță.
NVIDIA DGX SuperPOD™ servește drept referință pentru implementarea sistemelor bazate pe Rubin la scară largă, integrând fie sistemele NVIDIA DGX Vera Rubin NVL72, fie DGX Rubin NVL8 cu DPU-uri NVIDIA BlueField-4, NVIDIA ConnectX-9 SuperNIC-uri, rețele NVIDIA InfiniBand și software-ul NVIDIA Mission Control™.
Rețele Ethernet de generație următoare
Rețelele Ethernet și stocarea avansată sunt componente ale infrastructurii AI esențiale pentru menținerea centrelor de date funcționând la viteză maximă, îmbunătățirea performanței și eficienței și reducerea costurilor.
NVIDIA Spectrum-6 Ethernet este următoarea generație de Ethernet pentru rețele AI, construită pentru a scala fabricile AI bazate pe Rubin cu o eficiență mai mare și o rezistență sporită și activată de circuite de comunicații SerDes 200G, optică co-ambalată și structuri optimizate pentru AI.
Construite pe arhitectura Spectrum-6, sistemele de comutare optică co-ambalate Spectrum-X Ethernet Photonics oferă o fiabilitate de 10 ori mai mare și un timp de funcționare de 5 ori mai lung pentru aplicațiile AI, atingând în același timp o eficiență energetică de 5 ori mai bună, maximizând performanța per watt în comparație cu metodele tradiționale. Tehnologia Ethernet Spectrum-XGS, parte a platformei Ethernet Spectrum-X, permite instalațiilor separate de sute de kilometri și mai mult să funcționeze ca un singur mediu AI.
Împreună, aceste inovații definesc următoarea generație a platformei Ethernet NVIDIA Spectrum-X, proiectată cu un cod-design extrem pentru Rubin, pentru a permite fabrici de AI la scară largă și a deschide calea pentru viitoare medii cu milioane de GPU.
Pregătirea Rubin
NVIDIA Rubin este în plină producție, iar produsele bazate pe Rubin vor fi disponibile la parteneri în a doua jumătate a anului 2026.
Printre primii furnizori de cloud care vor implementa instanțe bazate pe Vera Rubin în 2026 se vor număra AWS, Google Cloud, Microsoft și OCI, precum și partenerii NVIDIA Cloud CoreWeave, Lambda, Nebius și Nscale.
Microsoft va implementa sisteme NVIDIA Vera Rubin NVL72 la scară rack ca parte a centrelor de date AI de generație următoare, inclusiv viitoarele superfabrici de AI Fairwater.
Concepută pentru a oferi eficiență și performanță fără precedent pentru sarcinile de lucru în domeniul antrenamentului și inferenței, platforma Rubin va oferi fundația pentru capabilitățile de inteligență artificială în cloud de generație următoare de la Microsoft.
Microsoft Azure va oferi o platformă strict optimizată, permițând clienților să accelereze inovația în aplicațiile pentru întreprinderi, cercetare și consumatori.
CoreWeave va integra sistemele bazate pe NVIDIA Rubin în platforma sa cloud de inteligență artificială începând cu a doua jumătate a anului 2026. CoreWeave este construit pentru a opera mai multe arhitecturi în paralel, permițând clienților să aducă Rubin în mediile lor, unde va avea cel mai mare impact asupra sarcinilor de lucru în domeniul antrenamentului, inferenței și agenției.
Împreună cu NVIDIA, CoreWeave va ajuta pionierii inteligenței artificiale să profite de progresele Rubin în ceea ce privește raționamentul și modelele MoE, continuând în același timp să ofere performanța, fiabilitatea operațională și scalabilitatea necesare pentru inteligența artificială de producție pe întregul ciclu de viață cu CoreWeave Mission Control.
În plus, se așteaptă ca Cisco, Dell, HPE, Lenovo și Supermicro să livreze o gamă largă de servere bazate pe produse Rubin.
Laboratoare de inteligență artificială, printre care Anthropic, Black Forest, Cohere, Cursor, Harvey, Meta, Mistral AI, OpenAI, OpenEvidence, Perplexity, Runway, Thinking Machines Lab și xAI, apelează la platforma NVIDIA Rubin pentru a antrena modele mai mari și mai capabile și pentru a deservi sisteme multimodale, cu context lung, la o latență și un cost mai mici decât generațiile anterioare de GPU.
Partenerii de software și stocare pentru infrastructură AIC, Canonical, Cloudian, DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, Supermicro, SUSE, VAST Data și WEKA colaborează cu NVIDIA pentru a proiecta platforme de generație următoare pentru infrastructura Rubin.
Platforma Rubin marchează arhitectura rack-scală de a treia generație a NVIDIA, cu peste 80 de parteneri în ecosistemul NVIDIA MGX™.
Pentru a debloca această densitate, Red Hat a anunțat astăzi o colaborare extinsă cu NVIDIA pentru a oferi un stack complet de inteligență artificială optimizat pentru platforma NVIDIA Rubin cu portofoliul de cloud hibrid Red Hat, inclusiv Red Hat Enterprise Linux, Red Hat OpenShift și Red Hat AI. Aceste soluții sunt utilizate de marea majoritate a companiilor din Fortune Global 500.

Lasă un răspuns