Szerző: Asztalos Olivér

2017. október 3. 17:30

2021-ben jöhet az USA első exascale szuperszámítógépe

Az évtizedfordulóra kicsúcsosodni látszik a szuperszámítógépes fegyverkezés, ki éri el elsőként az 1000 petaflopsot?

Amerika várhatóan első exascale szuperszámítógépéről beszélt az ország Energiaügyi Minisztérium Tudományos Hivatala. A 2021-re datált, Chicago mellett található Argonne Nemzeti Laboratórium épülő rendszer az USA-ban először érheti el a ma még igencsak távolinak tűnő 1000 petaflopsos számítási teljesítményt. Mindez különösen annak fényében tűnik hipertérugrásnak, hogy a rendszer eredetileg jövőre állt volna munkába a jelenlegi ambiciózus célérték kevesebb mint ötödével, 180 petaflopsszal. A sietséget nagy részt minden bizonnyal a nemzetek közti egyre élesebb verseny generálja, a világ első exascale rendszerének címére ugyanis többen pályáznak, az ígéretek alapján pedig jelenleg Japán tűnik a legesélyesebbnek, amely ország 2020-re ígéri saját megoldását.

Amerika terveinek újragondolása mögött ugyanakkor más okok is állhatnak, az említett számítási tempóval ugyanis vélhetően nem sokáig rúghatott volna komolyan labdába a szuperszámítógépekre szakosodott Cray és az Intel közös tervezése. A tavalyi év első felében bemutatott kínai Sunway TaihuLight ugyanis ennek nagyjából már 70 százalékára képes, a távol-keleti ország pedig folyamatosan dolgozik a számítási teljesítmény még feljebb tornászásán.

Az eredeti tervek szerint a Cray "Shasta" szuperszámítógép Intel Xeon CPU-kkal és Xeon Phi "Knights Hill" gyorsítókból állt volna, ám a legújabb, egyelőre nem hivatalos hírek szerint a 180 petaflopsos célértékkel együtt a komponensek is a kukában végezték, már ami legalábbis a szóban forgó rendszert illeti. A The Next Platform értesülései szerint a szuperszámítógép egy teljesen más megoldást vet majd be, amely a számítási teljesítményben tetemes ugrást eredményez. Egy egyedi architektúra ugyanakkor számos kockázatot is rejt, ám ahogy az épp feljebb említett kínai gép példája is mutatja, ebből optimális esetben sokat lehet nyerni. Ahogy korábban részleteztük, a Sunway TaihuLight egyedi architektúrát alkalmaz, amellyel kimagasló, 6 gigaflops/watt teljesítmény/fogyasztás mutatót értek el a tervezők.

A spekulációk szerint az Argonne Nemzeti Laboratóriumban épülő rendszer a kínai konkurenshez hasonló egy "újragondolt" irányt vesz, azaz a kvázi tucathardverek helyett speciális, egyedi fejlesztéseket készítenek a rendszerhez. Ez vélhetően egy központi egység (CPU mag) köré rendezett (AVX?) vektorprocesszoros felépítést jelent majd, ahol előbbi vezénylése alatt utóbbiak végzik el a különféle vektorműveleteket, a lehető legnagyobb mennyiségben. A megközelítés nem lenne új, például hasonló elven épült fel az IBM Cell processzora is, amelyben egy 64 bites IBM Power architektúrájú központi egységhez (PPE) összesen nyolc egyszerűbb, vektorprocesszorokként funkcionáló társelemeket (SPE) kapcsoltak a tervezők.

Toxikus vezetők szivárványa

Az IT munkakörülményeket, a munkahelyi kultúrát alapjaiban határozzák meg a vezetők, főleg ha még toxikusak is.

Toxikus vezetők szivárványa Az IT munkakörülményeket, a munkahelyi kultúrát alapjaiban határozzák meg a vezetők, főleg ha még toxikusak is.

Elméleti teljesítményét tekintve az IBM fejlesztése megelőzte korát, a megjelenés időszakában kiugrónak számított 230,4 GFLOPS-os tempója, amely nagyjából 3-4 szerverprocesszor teljesítményét jelentette. Első hallásra mindez igen meggyőző lehet, ugyanakkor több fejlesztő egybehangzó véleménye szerint rendkívül nehéz volt kihasználni az amúgy nagy potenciállal kecsegtető egységeket, az egyedi, nagy számítási kapacitású processzor egy relatíve nagy része parlagon hevert.

A pletykák másik része szerint az egyik cél a node-ok csökkentése, amely kevesebb, erős processzort jelentene, vélhetően igen széles, 1024 bites vagy akár még szélesebb vektorokkal. Ez ismételten csak nem lenne forradalmi, az irányon már például az ARM is elindult, amely bő egy éve jelentette be kifejezetten HPC-s környezetbe, szuperszámítógépekhez tervezett utasításkészletét. Az SVE (Scalable Vector Extensions) flexibilis megoldást kínál a tervezőknek, a SIMD ugyanis 128-tól egészen 2048 bitig skálázódik, 128 bites lépcsőkben. Az első SVE-t kihasználó rendszer épp a már említett Japán rendszer, a Fujitsu "Post-K" lehet. Ezzel együtt valószínűleg a már szinte szuperszámítógép nagyhatalomnak számító Kína is feljebb teszi a lécet, mindezek együttese pedig komoly ugrást eredményezhet a TOP500-as lista összteljesítményében.

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról