AMD presenteert visie voor Open AI-Ecosysteem
AMD heeft tijdens zijn jaarlijkse 'Advancing AI 2025'-evenement zijn uitgebreide, end-to-end geïntegreerde AI-platformvisie onthuld. Het bedrijf introduceerde daarbij open en schaalbare rack-scale AI-infrastructuur die is gebouwd op industriestandaarden.

Dr. Lisa Su, voorzitter en CEO van AMD, benadrukte de rol van het bedrijf in het versnellen van AI-innovatie. "We treden de volgende fase van AI binnen, gedreven door open standaarden, gedeelde innovatie en AMD's groeiende leiderschap binnen een breed ecosysteem van hardware- en softwarepartners die samenwerken om de toekomst van AI te definiëren," aldus Su.
Open AI-oplossingen
AMD kondigde een breed portfolio van hardware, software en oplossingen aan die het hele spectrum van AI moeten aandrijven:
AMD Instinct MI350 Serie GPU's: Deze nieuwe serie, bestaande uit de Instinct MI350X en MI355X GPU's en platforms, zet een nieuwe standaard voor prestaties, efficiëntie en schaalbaarheid in generatieve AI en high-performance computing. De MI350-serie biedt een 4x generatie-op-generatie toename in AI-rekenkracht en een 35x generatiesprong in inferentie, wat volgens AMD de weg vrijmaakt voor transformatieve AI-oplossingen in diverse sectoren. De MI355X levert tevens aanzienlijke prijs-prestatieverbeteringen, met tot 40% meer 'tokens-per-dollar' vergeleken met concurrerende oplossingen.
Open-standaard Rack-Scale AI-infrastructuur: AMD demonstreerde end-to-end, open-standaard rack-scale AI-infrastructuur, die al wordt uitgerold bij hyperscale implementaties zoals Oracle Cloud Infrastructure (OCI) met AMD Instinct MI350 Serie accelerators, 5e Gen AMD EPYC processors en AMD Pensando Pollara NIC's. Deze oplossingen worden breed beschikbaar verwacht in de tweede helft van 2025.
Volgende Generatie AI-rack "Helios": AMD gaf ook een voorproefje van zijn volgende generatie AI-rack, genaamd "Helios". Dit zal worden gebouwd op de AMD Instinct MI400 Serie GPU's, die naar verwachting tot 10x meer inferentieprestaties zullen leveren op Mixture of Experts-modellen, gecombineerd met de "Zen 6"-gebaseerde AMD EPYC "Venice" CPU's en AMD Pensando "Vulcano" NIC's.
ROCm 7 Open-Source AI-Software Stack: De nieuwste versie van AMD's open-source AI-softwarestack, ROCm 7, is ontworpen om te voldoen aan de groeiende eisen van generatieve AI- en high-performance computing-workloads en de ontwikkelaarservaring te verbeteren. ROCm 7 biedt verbeterde ondersteuning voor industriestandaard frameworks, uitgebreide hardwarecompatibiliteit en nieuwe ontwikkelingstools, drivers, API's en bibliotheken.
Energie-efficiëntie: De Instinct MI350 Serie heeft AMD's vijfjarige doel om de energie-efficiëntie van AI-training en high-performance computing-nodes met 30x te verbeteren, overtroffen, door een verbetering van 38x te realiseren. AMD onthulde ook een nieuw doel voor 2030: een 20x toename in rack-scale energie-efficiëntie ten opzichte van 2024, waardoor een typisch AI-model dat vandaag meer dan 275 racks vereist, in minder dan één volledig benut rack kan worden getraind, met 95% minder elektriciteit.
AMD Developer Cloud: De brede beschikbaarheid van de AMD Developer Cloud werd aangekondigd voor de wereldwijde ontwikkelaars- en open-sourcegemeenschappen. Deze cloudomgeving is specifiek gebouwd voor snelle, high-performance AI-ontwikkeling en biedt gebruikers toegang tot een volledig beheerde omgeving met tools en flexibiliteit.
Brede partnerondersteuning in het AI-ecosysteem
Tijdens het evenement deelden diverse partners, waaronder Meta, OpenAI, Microsoft, xAI, Oracle, Cohere, HUMAIN, Red Hat, Astera Labs en Marvell, hun ervaringen met het gebruik van AMD-oplossingen voor AI:
Meta lichtte toe hoe Instinct MI300X breed wordt ingezet voor Llama 3- en Llama 4-inferentie en sprak zijn enthousiasme uit over de MI350 en de prestaties, prestatie-per-TCO en geheugen van de volgende generatie. Meta werkt nauw samen met AMD aan AI-roadmaps, inclusief plannen voor de Instinct MI400 Serie platforms.
OpenAI CEO Sam Altman besprak het belang van holistisch geoptimaliseerde hardware, software en algoritmen en de nauwe samenwerking van OpenAI met AMD aan AI-infrastructuur, met onderzoek en GPT-modellen op Azure in productie op MI300X, evenals diepgaande ontwerpbetrokkenheid bij MI400 Serie platforms.
Oracle Cloud Infrastructure (OCI) is een van de eerste die de open rack-scale AI-infrastructuur van AMD met AMD Instinct MI355X GPU's zal implementeren. OCI kondigde aan zettascale AI-clusters aan te bieden, versneld door de nieuwste AMD Instinct-processors met tot 131.072 MI355X GPU's.
HUMAIN detailleerde zijn overeenkomst met AMD voor het bouwen van open, schaalbare, veerkrachtige en kostenefficiënte AI-infrastructuur.
Microsoft kondigde aan dat Instinct MI300X nu zowel eigen als open-source modellen in productie op Azure aandrijft.
Cohere gaf aan dat zijn krachtige, schaalbare Command-modellen zijn geïmplementeerd op Instinct MI300X, waardoor enterprise-grade LLM-inferentie mogelijk is met hoge doorvoer, efficiëntie en dataprivacy.
Red Hat beschreef hoe de uitgebreide samenwerking met AMD productieklare AI-omgevingen mogelijk maakt, met AMD Instinct GPU's op Red Hat OpenShift AI die krachtige, efficiënte AI-verwerking bieden in hybride cloudomgevingen.
Astera Labs en Marvell benadrukten hun samenwerking binnen het UALink Consortium, gericht op de ontwikkeling van een open interconnect voor AI-infrastructuur.