Technologies Driving The Future Of HPC

Asian Scientist Magazine (17. oktober 2022) – Ligesom FIFAs verdensrangliste over de bedste fodboldhold eller sangene, der springer op og ned på musiklisterne hver uge, er de mest kraftfulde computere over hele kloden også indekseret i det, der kaldes Top500-listen. I to år i træk dominerede Japans Fugaku supercomputing-kortene med en computerhastighed på 442 petaFLOPS. Men en ny udfordrer – 1.1-exaFLOPS Frontier-systemet ved Oak Ridge National Laboratory i USA – har fået sin debut på toppen af ​​de seneste ranglister, der blev udgivet i maj 2022, og rykker Fugaku ned til nummer to.

Udover topplaceringerne har resten af ​​Top500 også set masser af blande rundt under listens halvårlige udgivelse. Sådanne bevægelser på ranglisten er et vidnesbyrd om det rivende tempo i teknologiske fremskridt inden for high performance computing-sektoren (HPC). Ved at levere højhastighedsberegninger på enorme mængder data, står HPC-systemer ikke kun ved grænserne for den teknologiske industri, men tjener også som muliggørende værktøjer til at tackle komplekse problemer på mange andre områder. For eksempel kan forskere bruge sådanne teknologier til at afdække biomedicinske gennembrud fra kliniske data eller modellere egenskaberne af nye materialer mere effektivt og præcist.

I betragtning af den stadigt voksende værdi af disse innovationer kommer det ikke som nogen overraskelse, at både forskere og industriledere fortsætter med at udfordre loftet for supercomputing – fra komponenter til klynger, mindre justeringer til væsentlige opgraderinger af ydeevnen. Da HPC’s lovende potentiale er afhængig af mange bevægelige dele, er her de teknologier og trends, der lægger grunden til at bygge endnu mere kraftfulde og tilgængelige supercomputing-systemer.

Revolutionerende maskinintelligens

Med den bølge af data, der produceres dagligt, bliver kunstig intelligens (AI) og dataanalyseværktøjer i stigende grad brugt til at udtrække relevant information og bygge modeller, som derefter kan bruges til at vejlede beslutningstagning eller optimere systemer. HPC er afgørende for at forbedre AI-teknologier, herunder maskinlæring (ML) og deep learning (DL)-systemer bygget på neurale netværk, der efterligner den menneskelige hjernes behandlingsmønstre.

I stedet for at analysere data i henhold til et forudbestemt sæt regler, registrerer DL-algoritmer mønstre og lærer af et sæt træningsdata og anvender senere disse indlærte regler på nye data eller endda på et helt nyt problem. DL-ydeevne afhænger ofte af mængden og kvaliteten af ​​tilgængelige data – hvilket gør det beregningsmæssigt dyrt og tidskrævende – men supercomputere kan accelerere disse indlæringsfaser og gennemsøge flere data for at forbedre den resulterende model.

På den medicinske sfære simulerer beregningsmodeller for eksempel, hvordan indviklede molekylære netværk interagerer for at drive sygdomsprogression. Sådanne opdagelser kan derefter udløse nye måder at opdage og behandle komplekse lidelser såsom cancer og kardiometabolske tilstande.

For at undersøge terapeutiske mål mod SARSCoV-2, den virus, der forårsager COVID-19, udførte forskere fra Chulalongkorn University i Thailand molekylær dynamik-simuleringer ved hjælp af TARA, 250-teraFLOPS supercomputing-klyngen, der ligger i National Science and Technology Development Agencys Supercomputer Center. Gennem disse simuleringer kortlagde holdet interaktionerne mellem en klasse af inhibitorer og et protein, der vides at være vigtigt for viral replikation, og genererede ny indsigt i, hvordan sådanne lægemidler bedre kan designes til at binde til proteinet og potentielt undertrykke SARS-CoV-2.

Kraften fra HPC kan også udnyttes til vejrforudsigelser og overvågning af klimaændringer, hvor Sydkorea bygger prognosemodeller med høj opløsning og høj nøjagtighed gennem sit National Center for Meteorological Supercomputer. Korea Meteorological Administration opfriskede sine HPC-ressourcer netop sidste år for at imødekomme de omfattende beregningsmæssige krav til klimamodellering og AI-analyse ved at installere Lenovo ThinkSystem SD650 V2-servere bygget på tredjegenerations Intel Xeon-skalerbare processorer. Med 50 petaFLOPS er den nye klynge otte gange hurtigere og fire gange mere energieffektiv end sin forgænger.

Selvom supercomputing uden tvivl muliggør AI-arbejdsbelastninger, kan disse smarte systemer igen være nyttige til at optimere HPC-datacentre, såsom ved at evaluere netværkskonfigurationer for øget sikkerhed. Ved at overvåge servertilstanden kan forudsigende algoritmer også advare brugere om potentielle udstyrsfejl, hvilket hjælper med at reducere nedetid og forbedre effektiviteten for at understøtte kontinuerlige HPC-opgaver.

En matrix af chips

HPC-drevet AI dækker muligvis softwaresiden af ​​supercomputing, men hardwaren er lige så vigtig. Fremskridt på dette område afhænger af innovationer inden for udvikling af processorer eller chips – hvilket skubber grænserne for, hvor mange operationer, der kan gennemføres på så kort en tidsramme som muligt.

Den måske mest kendte af disse chips er de centrale behandlingsenheder (CPU’er), som nemt kan køre simple modeller, der behandler en relativt mindre mængde data. De har typisk adgang til mere hukommelse og er designet til at udføre flere mindre opgaver samtidigt, hvilket gør dem nyttige til hyppigt gentagne opgaver, men ikke til komplekst og langvarigt arbejde som træningsmodeller.

Pakning i flere CPU-noder øger computerkapaciteten, men blot at tilføje flere enheder til systemet er næppe effektivt eller praktisk. For at håndtere tunge ML-arbejdsbelastninger er acceleratorer i form af grafiske behandlingsenheder (GPU’er) og tensorbehandlingsenheder (TPU’er) afgørende for at opskalere HPC-ressourcer – og faktisk er de definerende komponenter, der adskiller supercomputere fra deres modparter med lavere ydeevne.

Som navnet antyder, udmærker GPU’er sig ved at gengive grafik – ingen hakkende videoer eller forsinkende billedhastigheder i sigte. Men mere end det, de er bygget til at udføre beregninger i løbet af tiden, da udjævning af de geometriske figurer og overgange afhænger af at gennemføre successive operationer så hurtigt som muligt. Denne hastighed gør det muligt for GPU’er at behandle større modeller og udføre dataintensive ML-opgaver.

TPU’er skubber disse computeregenskaber et skridt videre ved at tage sig af matrixberegninger, der er mere almindeligt forekommende i neurale netværk til DL-modeller end i grafisk gengivelse. De er integrerede kredsløb, der består af to enheder, der hver er designet til at køre forskellige typer operationer. Enheden til matrixmultiplikationer bruger et blandet præcisionsformat, der skifter mellem 16 bits til beregningerne og 32 bits til resultaterne.

Operationer kører meget hurtigere på 16 bit og bruger mindre hukommelse, men at holde nogle dele af modellen på 32 bit kan hjælpe med at reducere fejl ved udførelse af algoritmen. Med en sådan arkitektur kan matrixberegninger udføres på kun én TPU-kerne i stedet for at blive spredt ud på flere GPU-noder – hvilket fører til et betydeligt løft i computerhastighed og -kraft uden at ofre nøjagtigheden.

I kapløbet om at designe bedre processorer udforsker chipfremstillingsvirksomheder fra hele verden konstant nye ingeniørmetoder og anvender den nyeste forskning inden for materialevidenskab for at højne ydeevnen af ​​disse kritiske HPC-komponenter.

Få adgang til HPC-ressourcer efter behov

Supercomputing-systemer er næppe billige – det kræver betydelige økonomiske, rumlige og energimæssige ressourcer at bygge og vedligeholde, for ikke at nævne den tekniske knowhow til at bruge dem effektivt. Disse omkostninger kan vise sig at være en barriere for udbredt HPC-adoption. Selvom HPC-infrastruktur typisk er installeret som interne datacentre, er de også blevet implementeret i skyen i de senere år for at øge adgangen til disse innovationer.

Cloud computing involverer levering af tekniske tjenester over internettet, lige fra analytiske processer til lagerplads. Kaldet HPC as a Service (HPCaaS), denne fordeling af supercomputing-ressourcer på tværs af cyberspace giver øget fleksibilitet og skalerbarhed sammenlignet med on-site centre alene.

Med supercomputing, der skifter fra den akademiske verden til industrien, kan HPCaaS fungere som en vigtig bro til at placere disse kraftfulde ressourcer inden for rækkevidde af flere slutbrugere, fra finans til olie og gas til bilindustrien. Gennem optimerede planlægningsstrategier og allokering af ressourcer kan disse systemer rumme så forskellige branchespecifikke arbejdsbelastninger og tilskynde til stærkere samarbejder over delte HPC-kapaciteter.

I april i år lancerede det japanske infocomms-firma Fujitsu – som i fællesskab udviklede Fugaku sammen med forskningsinstituttet RIKEN – sin HPCaaS-portefølje med en vision om yderligere at anspore til teknologisk disruption på tværs af industrier. Gennem skyen kan kommercielle organisationer få adgang til beregningsressourcerne på Fujitsus Supercomputer PRIMEHPC FX1000-servere, som kører på ARM A64X-processorer og er suppleret med software til AI- og ML-arbejdsbelastninger. Disse chips, som også findes i Fugaku-systemet, er ikke kun high-end performers, men er også meget energieffektive.

For yderligere at fremme partnerskaber mellem den akademiske verden og industrien arbejder Fujitsu igen med forskningsinstituttet RIKEN for at sikre kompatibilitet mellem HPCaaS-porteføljen og Fugaku-systemet, hvilket giver flere brugere og organisationer mulighed for at bruge regionens mest kraftfulde supercomputer.

HPC-tjenestens officielle udgivelse på det japanske marked er planlagt til oktober i år, og en international udrulning er også planlagt i den nærmeste fremtid. På det tidspunkt ville Fujitsu også blive landets første HPCaaS-løsningsleverandør nogensinde, og konkurrere med infrastrukturtilbuddene fra globale virksomheder, herunder Google Cloud og IBM.

Fleksible HPC-forbrugsmodeller vil være nøglen til at bygge bro over den digitale kløft, især i Asien, hvor den teknologiske udvikling er ujævn og heterogen. Ved at dele førsteklasses ressourcer kan grænseoverskridende samarbejder og demokratisering af supercomputing bringe innovative ideer ud i livet og udstikke nye forskningsretninger med større smidighed.

Til exaskalaen og videre

Ankomsten af ​​Frontier markerer en spændende milepæl for HPC-samfundet – at bryde den exascale barriere. Før Frontier levede verdens bedste supercomputere i petaskalaen, når de blev målt med 64-bit præcision, med en petaFLOPS svarende til en kvadrillion (1015) beregninger pr. sekund.

Disse systemer kan udføre ekstremt kompleks modellering og har avancerede videnskabelige opdagelser i et hurtigt tempo. Fugaku er for eksempel blevet brugt til at kortlægge genetiske data og forudsige behandlingseffektivitet for kræftpatienter; simulere væskedynamikken i atmosfæren og oceanerne ved højere opløsninger; og udvikle en forudsigelsesmodel i realtid for tsunamioversvømmelser. Exascale computing kunne bane vejen for endnu større gennembrud og tilbyde mere realistiske simuleringer og hurtigere hastigheder med en kvintillion beregninger i sekundet – det er 18 nuller! Dette løft i hastighed kan drive en bred vifte af applikationer og grundlæggende forskningsbestræbelser, såsom forståelse af de komplekse fysiske og nukleare kræfter, der former, hvordan universet fungerer.

Fra bæredygtighed til avanceret fremstilling kan forskere også bruge disse HPC-ressourcer til at bygge mere nøjagtige modeller af Jordens vandområder eller dykke dybt ned i nanopartiklerne og de optiske og kemiske egenskaber af nye materialer.

Det kemiske rum er et særligt spændende område at udforske, idet det fungerer som det konceptuelle territorium, der indeholder alle mulige kemiske forbindelser. Estimater er knyttet til 10180 forbindelser – mere end det dobbelte af antallet af atomer, der beboer vores univers, og et fristende tal i forhold til de 260 millioner stoffer, der hidtil er dokumenteret i American Chemical Society’s CAS Registry.

Exascale computing kan udstyre videnskabsmænd med kraftfulde nye midler til at søge i alle afkroge af dette kemiske rum, uanset om det er for at opdage potentielle lægemiddelmolekyler, lysabsorberende forbindelser til solceller eller nanomaterialer til mere effektive vandfiltre.

Flere computerressourcer kan også understøtte mere distribueret adgang og øget anvendelse af HPC, der følger i fodsporene på, hvordan petascale-systemerne blev delt inden for og på tværs af grænser.

Mens Asien måske endnu ikke har en exascale supercomputer på sin jord, har både Fugaku og Kinas Sunway ramt exaFLOPS benchmark med 32 bit. Med innovative hoveder i spidsen for regionens teknologisektor er det i horisonten at opnå den samme bedrift på 64-bit niveau, hvilket lover godt for fremtiden for HPC og dets applikationer i Asien og videre.

Denne artikel blev først offentliggjort i den trykte version af Supercomputing Asia, juli 2022.
Klik her for at abonnere på Asian Scientist Magazine på tryk.

Copyright: Asian Scientist Magazine. Billede: Shelly Liew

William

Leave a Reply

Your email address will not be published. Required fields are marked *