Szerző: Bizó Dániel

2009. november 24. 15:37

Leállította a szuperszámítógépes Cellek fejlesztéseit az IBM

Nem fejleszt ki több Cell chipet HPC-felhasználásra az IBM, közölte a német heise online-nal a cég szuperszámítógépes tevékenységéért felelős alelnöke. Ez azt jelenti, hogy az eredetileg jövőre ígért következő generációs architektúrát törölte. A vállalat ugyanakkor tovább dolgozik a Sonyval egy másik Cell generáción.

Nincs több HPC Cell

David Turek a múlt héten megrendezett szuperszámítógépes konferencián, az SC09-en közölte a német lappal, hogy nem jelenik meg az egyszerűen csak következő generációs Cellként ismert új chip. A döntés némileg váratlan, ugyanis az elmúlt időszakban növekedett a platform támogatottsága, az IBM mellett egyre több alternatív hardverszállító is bekapcsolódott a chipekre alapuló megoldások kidolgozásába. Az IBM tavaly még világszerte megállapodásokat kötött egyetemekkel többek közt a Cellek hosszútávú továbbfejlesztésével kapcsolatban, így a munkába bekapcsolódott a Budapesti Műszaki Főiskola is.

A jövőre várt új Cellt már az IBM 45 nanométeres SOI-eljárására tervezték a mérnökök, és a fejlesztések legalább 2007 óta zajlottak, amit akkor maga Pete Hofstee, az első Cell vezető tervezője is megerősített a HWSW-nek. A cél egy kifejezetten szuperszámítógépes architektúra megalkotása volt. Turek szerint azonban a Cell architektúrája nem veszik teljesen kárba, és egyes részeit a cég újra felhasználja majd jövőbeni HPC-chipek tervezésekor, ami valószínűleg a BlueGene PowerPC családban bukkan majd fel. - hogy ez mit jelent, nem tudni. Mindenesetre az IBM Turek nyilatkozatának hatására hivatalosan közölte, hogy továbbra is gyárt és fejleszt Cellt a Sony számára, amivel gyakorlatilag hivatalosan elismerte, hogy Cell-derivatíva lesz a PlayStation következő generációjában is (köszönjük az észrevételt P1ella nevű kommentelőnknek).

Tekintve, hogy a fejlesztőcsapatnak az első Cell befejezését követően elegendő idő állt rendelkezésre, és többé nem a PlayStation 3 gazdaságossági és műszaki adottságaihoz kellett igazítani a paramétereket, ezért egy sokkal agresszívebb felépítés mellett döntöttek.

Az új chip 45 nanométeres csíkszélességen kettő PowerPC magot és összesen 32 darab vektoros egységet integráltak volna, amivel 1 teraflops nyers számítási csúcsteljesítményt célzott meg kétszeres pontosságú, 64 bites számítások esetén. Ez azt sejteti, hogy a vektoros egységeket, vagyis SPE-ket (Synergestic Processing Element) duplázott erőforrásokkal látták el az elődhöz képest, ugyanis csak az SPE-k megnégyszerezése 0,5 teraflopsra lenne csak elég - a 3,2 gigahertzes órajel megduplázása valószínűtlen.

\"\"

Publikus magyarázattal a lépésre Turek nem szolgált, ugyanakkor a weben már hetek óta keringő spekulációk alapján valószínűleg a bizonytalanság vagy a döntés szele már korábban megszellőztette, hogy az IBM-nek egyszerűen nem éri meg évi több tízmillió dollárt ölnie egy olyan termékcsaládba, melynek nincs látható megtérülése. Úgy tűnik, előnyei ellenére a Cell rétegtermék maradt, bár pontos számokkal senki nem szolgál penetrációjával kapcsolatban. A döntés kétségtelenül leginkább azokat érinti kellemetlenül, akik jelentős időt és pénzt öltek abba, hogy kódjukat portolják és optimalizálják a Cellre, és számoltak a jövőbeni, sokkal erősebb Cell megjelenésével.

A Cell bár kimagasló teljesítménysűrűséget és energiahatékonyságot kínál, korlátozott hozzáférhetősége és hibrid architekturális felépítéséből fakadóan viszonylag nehéz programozhatósága gátolhatta meg leginkább abban, hogy tömegtermékké váljon a HPC-vevők körében. A Top500 szuperszámítógépes listán a kezdeti áttörést követően nem nőtt a Cellek jelenléte.

Ígéretes volt

Cell Broadband Engine

A Sonyval és a Toshibával együttműködésben kifejlesztett Cell Broadband Engine architektúrában egy általános célú PowerPC mag vezérli a valós munkát végző SPE vektoregységeket, melyeket nagy sávszélességű belső körbusz köt össze.
A vektorprocesszorok önálló közvetlen memóriakéréseket (bevásárlólistákat) állítanak össze a számítások végzésével egyidőben, ami más architektúráknál korábban nem látott memóriaszintű párhuzamosságot, és ezen keresztül teljesítmény jelent. A heterogén, fejlett statikus ütemezést és vektorizációt igénylő felépítése miatt azonban drasztikusan megváltozott a programozási modell is, amivel a kritikák középpontjába került.
A 2001-ben elkezdődött munkában végül összesen 400 ember vett részt, a koncepciótól a szilíciumig pedig 4 év telt el, a költségvetés pedig 400 millió dollárra tehető.

Pedig a Cell kurrens iterációja, a PowerXCell 8i (65 nanométer, 64 bites számításokra optimalizált 8 aktív SPE) az alapja napjaink leginkább energiahatékony szuperszámítógépeinek, egészen pontosan a Green500 Top 10-ből az első hat helyet foglalják el ezek a rendszerek. A nagyméretű HPC-rendszereknél az energiaköltségek a rendszer teljes élettartama alatt hatalmassá duzzadhatnak, nem beszélve az esetleges adatközpont-beruházási igényekről, melyeket a betáplálással és hűtéssel szemben támasztanak.

A kvantumfizikai számításokhoz speciálisan egy német tudományos klaszter számára épített három IBM szuperszámítógép wattonként 723 megaflopsot ad le, amivel toronymagasan veri a mezőnyt, de saját testvéreit is - a kommersz IBM BladeCenter QS22 blade gépeket alkalmazó fürtök \"mindössze\" 444-458 megaflops/wattot érnek el. A leghatékonyabb x86-os rendszer Opteronra épül, wattonként 341 megaflopsot produkál, míg a legjobb Nehalem 299-et. Azonos tejlesítményhez a Cell ráadásul kevesebb csomópontot igényelt, vagyis jóval kevesebb hellyel és olcsóbb hálózattal is beéri.

A foglalatonként nagyjából 100 DP GFlops kapacitást kínáló PowerXCell 8i ráadásul skálázhatóságát is bebizonyította, a világ jelenleg második legnagyobb szuperszámítógépes klaszterében több mint 12 ezer ilyen chip dolgozik, hogy a rendszer mátrixműveleti csúcsteljesítménye meghaladhassa az 1 petaflopsot. A Roadrunner néven ismert installáció történelmet írt, beüzemelésekor az első szuperszámítógép volt, mely hivatalosan is áttörte az 1 petaflopsos lélektani határt. A Cell igazi erőssége nem is a hagyományos szuperszámítógépes aréna, hanem sokszor az alacsonyabb, 32 bites pontossággal is megelégedő valósidejű vagy gyors elemzést igénylő adatfeldolgozások, áramlástani szimulációk, vizualizációs feladatok, grafikai manipulációk.

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról