Szerző: Bizó Dániel

2009. október 13. 17:39

Komolytalan a Sun-Oracle új TPC-C rekordja

Hozzáférhető a TPC oldalán a Sun OLTP világrekordja, mely felülmúlja az IBM eddigi legerősebb eredményét. A legnagyobb szépséghiba, hogy a Sun és az Oracle klasztert használt, ami teljes irrelevánssá teszi a mérést.

Fürtözni nem menő

A hivatalosan a Sun által szponzorált, ugyanakkor az Oracle által motivált mérés szerint percenként 7,72 millió TPC-C online tranzakciót ért el a rendszer, méghozzá 18 millió dollárból (2,34 dollár/tpmC), míg a legyőzött IBM 6,09 millió tranzakciót kezelt le 17,1 millióért (2,81 dollár/ tpmC). A Sunnak mindezt 12 darab Victoria Falls rendszer összefogásával sikerült elérnie Oracle 11g Enterprise, RAC és particionálás bevetése révén.

A négyutas SPARC Enterprise T5440 rendszerek 1,6 gigahetzes UltraSPARC T2   chipekkel voltak felszerelve, Solaris 10-et futtattak 512 gigabájt memóriával - ez összesen 384 processzormagot és 3072 szálat jelent. Ezzel szemben a trónról letaszítani kívánt IBM Power 595/DB2 9.5 rendszer 64 magból és 128 szálból oldotta meg a saját produkcióját, vagyis magonként 4,7-szeres teljesítményt ad le, szálanként pedig 19-szeres a különbség. A Sun fürtje extrém, teljesen irreális műveleti párhuzamossággal sajtolt ki mintegy negyedével nagyobb teljesítményt.

A rekord gyakorlatilag nem elfogadható, mivel a szakma már évekkel ezelőtt kivetette magából a fürtözött TPC-C eredményeket, hiszen a teszt túlságosan könnyen fürtözhető és érhető el vele lineáris skálázódás, szemben a valódi OLTP-rendszerekkel. Ennek eredményeként gyakorlatilag nem releváns a valódi feladatok nézve, mire képes egy rendszer fürtözött TPC-C alatt, ami olyannyira igaz, hogy a gyártók közel hat éve nem is készítettek ilyen mérést - az utolsót a HP, még 2003 decemberében. A TPC-C adatbázis közel 250 méréséből a Sun-Oracle eredménye a második, mely fürtözött. Mindez azt üzeni, hogy a Sun legnagyobb gépe, az M9000 nem versenyképes TPC-C alatt, amit valószínűleg a rendszerarchitektúra I/O korlátossága magyaráz.

Azonos SAN háttérrel egy Nehalem alapú RAC fürt sokkal kevesebb pénzből hozná ugyanezt a teljesítményt, mivel az egy T5440-re eső tpmC (~643k) nagyjából megegyezik egy HP ProLiant DL370 G6 teljesítményével (~632k) - még akkor is, ha valamivel több node-ra lett volna szükség a kisebb memóriakapacitás miatt. Nem csak a hardver lenne olcsóbb, de legfeljebb harmadannyi Oracle licencre volna szükség. Innentől kezdve lényegében csak azon múlna az elsőség, hogy ki mennyi pénzt szán arra, hogy a lehető legnagyobb fürtöt összerakja, így célja, hogy képet mutasson az OLTP-teljesítményről, teljességgel értelmét vesztené. A  többi vállalat remélhetőleg meg bírja állni, hogy ne lépjen rá erre az útra.

Nem nagy flash

Tekintve, hogy az Oracle 11g Enterprise, RAC és Partitioning licencek közel 7,9 millió dollárba kerülnek, ami több mint 5,5 millió dolláros árazási hátrányt jelent, a Sunnak más utat is kellett találnia annak érdekében, hogy ár-teljesítményben is meg tudja verni az IBM rendszerét - ráadásul az Oracle lényegében ennek a tesztnek a kedvéért csökkentette nemrég az T2 chipek processzor faktorát harmadával, 0,5-re, amivel közel 4 millió dollárt spórolt.  A válasz kézenfekvő módon az SSD, mely lényegében éppen az ilyen feladatokra a leginkább alkalmas - apró lemezműveleteket kell a lehető legnagyobb sebességgel végrehajtani.

A Sun ennek érdekében vetette be a rackelhető Storage F5100 Flash Arrayt, mely akár 80 darab 24 gigabájtos SSD-t képes fogadni, melyek összesen 1,6 millió random 4k-s olvasási, és 1,2 millió írási műveletre képesek. A Sun TPC-C klasztere ebből a tömbből alkalmazott 60 darabot, vagyis összesen 4800 SSD vette fel a küzdelmet 10 992 darab 15 ezres fordulatú Fibre Channel HDD-vel - utóbbiaknak ebben a versenyszámban esélyük sincs sem teljesítményben, sem költségben. A Sun listaáron mintegy 12 millió dollárnyi SAN-t vonultatott fel, míg az IBM-nek egy 20 millió dolláros tárolórendszert használt.

Mindez természetesen teljesen legitim a Sun részéről, ugyanakkor az is belátható, hogy SSD-k alkalmazásával az IBM is könnyen racionalizálhatná saját mérését, amivel már jóval kevesebbe kerülne saját rendszere is, és ár-teljesítményben is vissza tudná szerezni az elsőséget. Mindez azonban nem bír jelentőséggel a fürtözés miatt, hiszen a valóságban ez kevéssé reprodukálható, ugyanis a tapasztalatok szerint a valódi feladatokat nem lehet ilyen hatékonyan particionálni és skálázni. Ráadásul maga a rekord sem lesz hosszú életű, ugyanis jövő év első felében érkeznek az új Power és Itanium rendszerek, melyek könnyedén áttörik majd a 10 milliós lélektani határt - SMP-konfigurációban.

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról