NVIDIA onthult Vera Rubin-platform voor agentic AI
NVIDIA heeft het Vera Rubin-platform gepresenteerd, een nieuwe generatie AI-infrastructuur die specifiek is ontworpen voor de schaalvergroting van 'agentic AI'. Met zeven nieuwe chips die inmiddels in volledige productie zijn, zet het bedrijf in op de bouw van grootschalige 'AI-fabrieken' die alle fasen van kunstmatige intelligentie ondersteunen: van pre-training tot real-time interactie door autonome agents.
Een geïntegreerd supercomputer-ecosysteem
Het Vera Rubin-platform is niet slechts een verzameling losse componenten, maar een samenhangend systeem. De architectuur combineert de nieuwe Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU en de Spectrum-6 Ethernet-switch. Opvallend is de integratie van de onlangs verworven NVIDIA Groq 3 LPU, die specifiek is toegevoegd om de latentie bij complexe redeneertaken te minimaliseren.
"Vera Rubin is een generatiesprong," verklaarde Jensen Huang, oprichter en CEO van NVIDIA. "Zeven baanbrekende chips, vijf racks, één gigantische supercomputer. Met dit platform begint de grootste infrastructuur-uitbouw in de geschiedenis."
Strategische partnerschappen: OpenAI en Anthropic
De aankondiging wordt ondersteund door prominente spelers uit de sector. Sam Altman, CEO van OpenAI, gaf aan dat het platform essentieel is voor het draaien van krachtigere modellen op massale schaal. Ook Dario Amodei, CEO van Anthropic, benadrukte dat de toenemende complexiteit van hun Claude-modellen vraagt om infrastructuur die de veiligheid en betrouwbaarheid kan garanderen bij bedrijfskritische beslissingen.
De vijf zuilen van de AI-fabriek
NVIDIA introduceert een verschuiving van losse servers naar volledig geïntegreerde rack-scale systemen (POD-scale). Het platform bestaat uit vijf gespecialiseerde racks:
| Rack Type | Kernfunctie | Belangrijkste Kenmerk |
| Vera Rubin NVL72 | GPU-rekenkracht | Traint modellen met 4x minder GPU's dan de Blackwell-generatie. |
| Vera CPU Rack | Logica & Validatie | 256 vloeistofgekoelde CPU's voor reinforcement learning. |
| Groq 3 LPX | Ultrasnelle Inference | Tot 35x hogere doorvoer per megawatt voor redeneertaken. |
| BlueField-4 STX | AI-Native Opslag | Vergroot GPU-geheugen over het hele netwerk voor agents. |
| Spectrum-6 SPX | Netwerkverbinding | 10x hogere veerkracht door geavanceerde optische verbindingen. |
Efficiëntie en energiebeheer
Een centraal thema van de presentatie was de noodzaak voor energie-efficiëntie. NVIDIA lanceerde het DSX-platform, inclusief DSX Max-Q, waarmee datacenters tot 30% meer infrastructuur kunnen plaatsen binnen een vastgesteld stroombudget. De DSX Flex-software moet AI-fabrieken bovendien flexibeler maken in hun interactie met het energienet.
De techniek achter de BlueField-4 STX-opslag, genaamd DOCA Memos, is specifiek ontwikkeld om de context van AI-gesprekken (het KV-cache) efficiënter op te slaan. Volgens Mistral AI-CTO Timothée Lacroix is dit cruciaal om agents sneller te laten redeneren over enorme datasets zonder verlies van coherentie.
Beschikbaarheid
Producten gebaseerd op de Vera Rubin-architectuur zullen vanaf de tweede helft van 2026 beschikbaar zijn via grote cloudproviders zoals AWS, Google Cloud, Microsoft Azure en Oracle Cloud. Wereldwijde hardwarepartners, waaronder Dell Technologies, HPE, Lenovo en Supermicro, bereiden inmiddels de levering van de eerste systemen voor.