Redactie - 17 november 2023

Fujitsu wil gebruik van CPU's en GPU's optimaliseren oog op tekort

Fujitsu zet in op het optimaliseren van het gebruik van CPU's en GPU's. Het wijst in real-time resources toe, waarbij het prioriteit geeft aan processen met een hoge efficiëntie. Met de technologie wil Fujitsu een oplossing bieden voor het tekort aan GPU's door de snelgroeiende GPU-vraag door de opkomst van generatieve AI, deep learning en andere toepassingen.

Fujitsu wil gebruik van CPU's en GPU's optimaliseren oog op tekort image

Het bedrijf presenteert onder meer een nieuwe technologie voor parallelle verwerking, die de verwerking van meerdere programma's in realtime schakelt zonder te wachten op de voltooiing van een actief programma in een HPC-systeem. Deze technologie maakt het mogelijk om onmiddellijk de verwerking uit te voeren van applicaties die veel resources en realtime prestaties vereisen. Denk daarbij aan digital twin- en generatieve AI-toepassingen.

De meest geschikte resources berekenen

Fujitsu levert de nieuw ontwikkelde technologie leveren als onderdeel van een toekomstige computer workload broker, een software-initiatief dat momenteel in ontwikkeling is. Deze brokers stelt AI in staat automatisch de meest geschikte resources te berekenen en te selecteren voor een probleem dat klanten willen oplossen op basis van hun vereisten. Dit inclusief rekentijd, rekennauwkeurigheid en kosten.

Ook presenteert Fujitsu een technologie die onderscheid maakt tussen programma's die een GPU nodig hebben en programma's die door een CPU kunnen worden verwerkt, zelfs als er meerdere programma's worden verwerkt. Dit doet het bedrijf door de versnellingssnelheid te voorspellen en door GPU's in realtime toe te wijzen voor hoge prestaties.

Verwerking prioriteren

Indien de gebruiker bijvoorbeeld drie toepassingen efficiënt wil verwerken met één CPU en twee GPU's is het mogelijk om GPU's toe te wijzen aan toepassingen 1 en 2 op basis van de beschikbaarheid van GPU's. Vervolgens wordt, in reactie op het verzoek van programma 3, de GPU-toewijzing gewijzigd van programma 1 naar programma 3 voor prestatiemeting, en wordt de mate van verwerkingsversnelling op de GPU gemeten.

Uit deze meting kan bijvoorbeeld blijken dat de totale verwerkingstijd wordt verminderd door de GPU toe te wijzen aan programma 3 in plaats van aan programma 1. Daarom zou de GPU worden toegewezen aan programma 3 en de CPU zou worden toegewezen aan programma 1 gedurende die tijd. Nadat programma 2 is voltooid, wordt de GPU vrij. De GPU wordt opnieuw toegewezen aan programma 1. Op deze manier worden de rekenbronnen zo toegewezen dat de programmaverwerking in de kortst mogelijke tijd wordt voltooid.

Deze technologie maakt het mogelijk om snel modellen te trainen voor het verwerken van grafische AI-gegevens bij de ontwikkeling van toepassingen zoals AI met behulp van GPU's en geavanceerde beeldherkenning.

Realtime schakelen tussen meerdere toepassingen op een HPC-systeem

Daarnaast introduceert Fujitsu een technologie voor real-time schakelen tussen meerdere toepassingen die kunnen worden gebruikt, zonder te wachten tot het huidige toepassingen is afgelopen in een HPC-systeem dat meerdere computers met elkaar verbindt. Dit maakt het mogelijk HPC-systemen in te zetten voor toepassingen die real-time prestaties vereisen.

Omdat de conventionele besturingsmethode gebruik maakt van unicast-communicatie waarbij de programma-uitvoering één voor één naar elke server wordt geschakeld, treden er variaties in de schakeltiming op. Dit maakt het lastig om batchgewijs de programma-uitvoering in realtime uit te voeren. Door omroepcommunicatie toe te passen die gelijktijdig kan worden verzonden naar de communicatie die de programma-uitvoering schakelt, maakt Fujitsu real-time batchschakeling van de programma-uitvoering mogelijk door het interval tussen programmaverwerkingsschakelaars die de programmaprestaties beïnvloeden te verkleinen van enkele seconden naar 100 milliseconden in een 256-node HPC-omgeving.

Deze technologie maakt toepassingen die real-time prestaties vereisen zoals digital twins en generatieve AI mogelijk in HPC-omgevingen.

Integratie in Fujitsu Kozuchi

Fujitsu wil op termijn de CPU/GPU-bronoptimalisatietechnologie gebruiken voor verwerkingen waarvoor GPU's nodig zijn voor zijn Fujitsu Kozuchi (codenaam) AI Platform, waarmee gebruikers geavanceerde AI-technologieën kunnen testen. De HPC-optimalisatietechnologie wordt toegepast op Fujitsu's 40 qubit kwantumcomputersimulator voor collaboratief computergebruik met behulp van een groot aantal knooppunten.

Fujitsu overweegt ook toepassingen voor Fujitsu Computing as a Service HPC, dat gebruikers de mogelijkheid biedt om applicaties te ontwikkelen en uit te voeren voor simulatie-, AI- en combinatorische optimalisatieproblemen evenals de Composable Disaggregated Infrastructure (CDI)-architectuur. CDI-architectuur maakt het mogelijk om hardwareconfiguraties tussen servers te veranderen.

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!