Witold Kepinski - 27 maart 2024

Google Cloud en NVIDIA breiden hun AI partnerschap uit

Google Cloud en NVIDIA hebben een partnerschap aangekondigd om de machine learning (ML)-gemeenschap te voorzien van technologie die hun inspanningen versnelt om eenvoudig generatieve systemen te bouwen, te schalen en te beheren AI-toepassingen.

Google Cloud en NVIDIA breiden hun AI partnerschap uit image

Om AI-doorbraken naar zijn producten en ontwikkelaars te blijven brengen, heeft Google de adoptie aangekondigd van het nieuwe NVIDIA Grace Blackwell AI-computerplatform, evenals de NVIDIA DGX Cloud-service op Google Cloud. Bovendien is het door NVIDIA H100 aangedreven DGX Cloud-platform nu algemeen beschikbaar op Google Cloud.

Voortbouwend op hun recente samenwerking om de Gemma- familie van open modellen te optimaliseren, zal Google ook NVIDIA NIM- inferentiemicroservices adopteren om ontwikkelaars een open, flexibel platform te bieden om te trainen en te implementeren met behulp van hun favoriete tools en frameworks. De bedrijven kondigden ook ondersteuning aan voor JAX op NVIDIA GPU's en Vertex AI-instanties aangedreven door NVIDIA H100 en L4 Tensor Core GPU's.

"De kracht van onze langdurige samenwerking met NVIDIA begint op hardwareniveau en strekt zich uit over ons portfolio - van de modernste GPU-versnellers tot het software-ecosysteem en ons beheerde Vertex AI-platform", aldus Google Cloud CEO Thomas Kurian . "Samen met NVIDIA streeft ons team ernaar een zeer toegankelijk, open en uitgebreid AI-platform voor ML-ontwikkelaars te bieden."

“Bedrijven zijn op zoek naar oplossingen die hen in staat stellen om binnen enkele weken en maanden in plaats van jaren volledig te profiteren van generatieve AI”, zegt Jensen Huang, oprichter en CEO van NVIDIA. "Met een uitgebreid infrastructuuraanbod en nieuwe integraties met NVIDIA's full-stack AI blijft Google Cloud klanten een open, flexibel platform bieden om generatieve AI-applicaties eenvoudig te schalen."

De nieuwe integraties tussen NVIDIA en Google Cloud bouwen voort op de jarenlange inzet van de bedrijven om de AI-gemeenschap toonaangevende mogelijkheden te bieden op elke laag van de AI-stack. Belangrijke componenten van de uitbreiding van het partnerschap zijn onder meer:

  • Overname van NVIDIA Grace Blackwell: Met het nieuwe Grace Blackwell- platform kunnen organisaties realtime inferentie bouwen en uitvoeren op grote taalmodellen met biljoen parameters. Google adopteert het platform voor verschillende interne implementaties en zal een van de eerste cloudproviders zijn die door Blackwell aangedreven instances aanbiedt.
  • Door Grace Blackwell aangedreven DGX Cloud komt naar Google Cloud: Google zal NVIDIA GB200 NVL72-systemen, die 72 Blackwell GPU's en 36 Grace CPU's combineren die met elkaar zijn verbonden door NVLink van de vijfde generatie, naar de zeer schaalbare en performante cloudinfrastructuur brengen. Ontworpen voor energiezuinige training en gevolgtrekking in een tijdperk van LLM's met biljoen parameters, zal het ook beschikbaar zijn via DGX Cloud, een AI-platform dat een serverloze ervaring biedt voor bedrijfsontwikkelaars die LLM's bouwen en bedienen. DGX Cloud is nu algemeen beschikbaar op Google Cloud A3 VM-instanties, mogelijk gemaakt door NVIDIA H100 Tensor Core GPU's.
  • Ondersteuning voor JAX op GPU's: Google Cloud en NVIDIA hebben samengewerkt om de voordelen van JAX naar NVIDIA GPU's te brengen, waardoor de toegang tot grootschalige LLM-training voor de bredere ML-gemeenschap wordt vergroot. JAX is een raamwerk voor krachtige machine learning dat compilergericht en Python-native is, een eenvoudig te gebruiken en performant raamwerk voor LLM-training. AI-beoefenaars kunnen JAX nu gebruiken met NVIDIA H100 GPU's op Google Cloud via MaxText en Accelerated Processing Kit ( XPK ) .
  • NVIDIA NIM op Google Kubernetes Engine (GKE): NVIDIA NIM-inferentiemicroservices, een onderdeel van het NVIDIA AI Enterprise-softwareplatform, zullen worden geïntegreerd in GKE. Gebouwd op inferentie-engines, waaronder TensorRT-LLM, helpt NIM de generatieve AI-implementatie in ondernemingen te versnellen, ondersteunt een breed scala aan toonaangevende AI-modellen en zorgt voor naadloze, schaalbare AI-inferentie.
  • Ondersteuning voor NVIDIA NeMo: Google Cloud heeft het eenvoudiger gemaakt om het NVIDIA NeMo-framework op zijn platform te implementeren via Google Kubernetes Engine (GKE) en Google Cloud HPC Toolkit . Hierdoor kunnen ontwikkelaars de training en het aanbieden van generatieve AI-modellen automatiseren en schalen, en kunnen ze snel kant-en-klare omgevingen implementeren via aanpasbare blauwdrukken die het ontwikkelingsproces een vliegende start geven. NVIDIA NeM, onderdeel van NVIDIA AI Enterprise, is ook beschikbaar in de Google Marketplace en biedt klanten een andere manier om eenvoudig toegang te krijgen tot NeMo en andere raamwerken om de AI-ontwikkeling te versnellen.
  • Vertex AI en Dataflow breiden de ondersteuning voor NVIDIA GPU's uit: Om datawetenschap en -analyse te bevorderen, ondersteunt Vertex AI nu Google Cloud A3 VM's aangedreven door NVIDIA H100 GPU's en G2 VM's aangedreven door NVIDIA L4 Tensor Core GPU's. Dit biedt MLOps-teams een schaalbare infrastructuur en tools om met vertrouwen AI-applicaties te beheren en te implementeren. Dataflow heeft ook de ondersteuning voor versnelde gegevensverwerking op NVIDIA GPU's uitgebreid.

Google Cloud biedt al lang GPU VM-instanties aan, mogelijk gemaakt door de geavanceerde hardware van NVIDIA, gekoppeld aan toonaangevende Google-innovaties. NVIDIA GPU's vormen een kerncomponent van de Google Cloud AI Hypercomputer - een supercomputerarchitectuur die voor prestaties geoptimaliseerde hardware, open software en flexibele consumptiemodellen verenigt. Dankzij het holistische partnerschap kunnen AI-onderzoekers, wetenschappers en ontwikkelaars de grootste en meest geavanceerde AI-modellen trainen, verfijnen en bedienen - nu met nog meer van hun favoriete tools en raamwerken die gezamenlijk zijn geoptimaliseerd en beschikbaar zijn op Google Cloud.

"Het tekst-naar-videoplatform van Runway wordt aangedreven door AI Hypercomputer. Aan de basis gaven A3 VM's, aangedreven door NVIDIA H100 GPU's, onze training een aanzienlijke prestatieverbetering ten opzichte van A2 VM's, waardoor grootschalige training en gevolgtrekking voor ons Gen-2-model mogelijk werd Door GKE te gebruiken om onze trainingstaken te orkestreren, kunnen we opschalen naar duizenden H100 GPU's in één enkele fabric om aan de groeiende vraag van onze klanten te voldoen."

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!