Witold Kepinski - 30 mei 2025

NVIDIA en Google Cloud versnellen aanbod met Blackwell en Gemini Innovaties

De strategische samenwerking tussen NVIDIA en Google Cloud wint significant aan momentum, zo bleek uit recente aankondigingen die de inzet van NVIDIA's Blackwell-platformen en Gemini-modellen van Google verder uitdiepen. De partnerschappen zijn gericht op het optimaliseren van AI-innovatie en het empoweren van de wereldwijde ontwikkelaarsgemeenschap.

De langdurige relatie tussen NVIDIA en Google strekt verder dan alleen infrastructuur; het omvat een diepgaande technische samenwerking om de gehele computing stack te optimaliseren. Recente innovaties die hieruit voortvloeien, zijn onder andere belangrijke bijdragen aan community software-initiatieven zoals JAX, OpenXLA, MaxText en llm-d. Deze fundamentele optimalisaties ondersteunen direct de levering van Google's geavanceerde Gemini-modellen en de Gemma-familie van open modellen.

Bovendien zijn prestatiegeoptimaliseerde NVIDIA AI-software zoals NVIDIA NeMo, NVIDIA TensorRT-LLM, NVIDIA Dynamo en NVIDIA NIM microservices strak geïntegreerd in Google Cloud, inclusief Vertex AI, Google Kubernetes Engine (GKE) en Cloud Run. Dit heeft als doel de prestaties te versnellen en AI-implementaties te vereenvoudigen.

NVIDIA Blackwell in Productie op Google Cloud

Google Cloud was de eerste cloudserviceprovider die zowel NVIDIA HGX B200 als NVIDIA GB200 NVL72 aanbood via zijn A4- en A4X virtuele machines (VM's). Deze nieuwe VM's, aangedreven door Google Cloud's AI Hypercomputer-architectuur, zijn toegankelijk via beheerde services zoals Vertex AI en GKE. Dit stelt organisaties in staat om de juiste weg te kiezen voor het ontwikkelen en grootschalig implementeren van 'agentic AI'-toepassingen. De A4 VM's van Google Cloud, versneld door NVIDIA HGX B200, zijn nu algemeen beschikbaar.

De A4X VM's van Google Cloud leveren meer dan één exaflop aan rekenkracht per rack en ondersteunen naadloze schaling naar tienduizenden GPU's, mogelijk gemaakt door Google's Jupiter-netwerk en geavanceerde netwerken met NVIDIA ConnectX-7 NIC's. Google's derde generatie vloeistofkoelingsinfrastructuur levert consistente, efficiënte prestaties, zelfs voor de grootste AI-workloads.

Google Gemini nu On-Premises inzetbaar met NVIDIA Blackwell op Google Distributed Cloud

De geavanceerde redeneercapaciteiten van Gemini zijn reeds de drijvende kracht achter cloudgebaseerde 'agentic AI'-toepassingen. Echter, sommige klanten in de publieke sector, gezondheidszorg en financiële dienstverlening met strikte dataresidency-, regelgevings- of beveiligingseisen konden tot nu toe geen gebruik maken van deze technologie.

Met de komst van NVIDIA Blackwell-platformen naar Google Distributed Cloud — Google Cloud's volledig beheerde oplossing voor on-premises, air-gapped omgevingen en de 'edge' — kunnen organisaties nu Gemini-modellen veilig in hun eigen datacenters implementeren. Dit opent de deur voor 'agentic AI' voor deze specifieke klantengroepen.

De unieke combinatie van baanbrekende prestaties en vertrouwelijke computing-mogelijkheden van NVIDIA Blackwell maakt dit mogelijk, door ervoor te zorgen dat gebruikersprompts en 'fine-tuning'-gegevens beschermd blijven. Dit stelt klanten in staat om te innoveren met Gemini, terwijl ze volledige controle behouden over hun informatie en voldoen aan de hoogste normen voor privacy en compliance. Google Distributed Cloud vergroot het bereik van Gemini, waardoor meer organisaties dan ooit kunnen profiteren van de volgende generatie 'agentic AI'.

Optimalisatie van AI-inferentieprestaties voor Google Gemini en Gemma

De Gemini-modellen, ontworpen voor het 'agentic era', vertegenwoordigen de meest geavanceerde en veelzijdige AI-modellen van Google tot nu toe, uitblinkend in complexe redenering, codering en multimodale begrip. NVIDIA en Google hebben samengewerkt aan prestatieoptimalisaties om ervoor te zorgen dat Gemini-gebaseerde inferentieworkloads efficiënt draaien op NVIDIA GPU's, met name binnen Google Cloud's Vertex AI-platform. Dit stelt Google in staat om een aanzienlijke hoeveelheid gebruikersvragen voor Gemini-modellen te verwerken op NVIDIA-versnelde infrastructuur in Vertex AI en Google Distributed Cloud.

Bovendien is de Gemma-familie van lichtgewicht, open modellen geoptimaliseerd voor inferentie met behulp van de NVIDIA TensorRT-LLM-bibliotheek en zal naar verwachting worden aangeboden als eenvoudig te implementeren NVIDIA NIM microservices. Deze optimalisaties maximaliseren de prestaties en maken geavanceerde AI toegankelijker voor ontwikkelaars om hun workloads uit te voeren op verschillende implementatie-architecturen, van datacenters tot lokale, door NVIDIA RTX aangedreven pc's en werkstations.

Opbouw van een sterke ontwikkelaarsgemeenschap en ecosysteem

NVIDIA en Google Cloud ondersteunen ook de ontwikkelaarsgemeenschap door open-source frameworks zoals JAX te optimaliseren voor naadloze schaling en baanbrekende prestaties op Blackwell GPU's, waardoor AI-workloads efficiënt kunnen draaien op tienduizenden knooppunten. De samenwerking strekt verder dan technologie, met de lancering van een nieuwe gezamenlijke Google Cloud en NVIDIA ontwikkelaarsgemeenschap die experts en vakgenoten samenbrengt om cross-skilling en innovatie te versnellen.

Door technische excellentie, open-source leiderschap en een levendig ontwikkelaars-ecosysteem te combineren, maken de bedrijven het eenvoudiger dan ooit voor ontwikkelaars om de volgende generatie AI-toepassingen te bouwen, te schalen en te implementeren.

EGP 06/05/2025 t/m 03/06/2025 BW Digital Realty 28/05/2025 t/m 25/06/2025 BN + BW
Gartner BN tm 12-11-2025 - 3

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!