Szerző: Bizó Dániel

2004. augusztus 11. 10:49

On-demand computing: álom vagy valóság?

A nagy informatikai szállítók, mint például az IBM, a HP, a Sun Microsystems, a Microsoft, az Oracle vagy az EMC egyes részleteiben hasonlatos, részben pedig különböző megoldásokat igyekeznek kidolgozni, melyeket aztán hangzatos névvel ellátva próbálnak a piacon eladni.

A számítástechnika és informatika hajnalán az ezernyi és ezernyi elektroncsőből épült számítógépek hatalmas és megfizethetetlen monstrumokat alkottak. A többnyire kormányzati pénzekből finanszírozott projektek keretein belül megépített gépek kapacitásán az egyes kutatócsoportok időszeletekben voltak kénytelenek egymás között osztozni. A számítógépek ideje rendkívül drága volt, ezért jól fel kellett mérni az elvégzendő feladathoz szükséges műveletek számát, amit a kapacitástervezők végeztek.


Az ENIAC 1946-ban

Az első általános célú számítógépek között számon tartott ENIAC építői közül Presper Eckert és John Mauchly a mai Unisys elődjének létrehozásával megalapozták a számítástechnikai ipart. A nagyméretű és sérülékeny elektroncsöveket felváltó tranzisztor 1948-as megjelenését követően forradalmi változások indultak meg, a méretek rohamosan csökkenni kezdtek.

Miután Ted Hoff, az Intel egyik mérnöke 1968-ban, még a vállalat alapításának évében feltalálta az általános célú processzort, a szintén Intel-fejlesztésű dinamikus memória segítségével megkezdődhetett a mai, Neumann-elven működő számítógépek történelmi léptékkel nézve rohamos térhódítása. Az első, 4004 jelölésű mikroprocesszor még csak 2108 tranzisztort tartalmazott, szemben a mai legmodernebb PC-processzorok százmilliós számánál. Az 1971-es, 3,2 milliméter hosszú és 1,6 milliméter széles lapka teljesítménye a 30 tonnás és 85 légköbméteres helyiségben elterülő 1946-os ENIAC-éhoz volt hasonló.

A számítógépek még sokáig rendkívül drága eszköznek számítottak, így a főként kormányzati és nagyvállalati ügyfelek többnyire néhány darab nagyteljesítményű kiszolgálót (mainframe) vásároltak, melyekhez az alkalmazottak terminálokon férhettek hozzá. A mai szemmel nézve rossz minőségű kijelzőkön karakteres parancssor várta az engedéllyel rendelkező felhasználókat.

A félvezetőipar rohamos fejlődésével az egységnyi számítási teljesítmény és tárolási kapacitás ára folyamatos zuhanást mutat napjainkig, aminek következtében a számítógépek egyre szélesebb körben -- kezdetben természetesen vállalatok számára -- váltak elérhetővé. A központosított, mainframe-terminál számítógéprendszerek idővel egyre jobban háttérbe szorultak, mely folyamatot erősítette a számítógépes hálózatok, kifejezetten a Ethernet 1973-as és a '90-es évek elején az internet elterjedésének kezdete. Megjelentek az asztali PC-k, később a notebookok, a kézi számítógépek, az olcsó szerverek. Az informatikai infrastruktúra építőelemei napjainkra tömegcikké váltak, elárasztva a világot. Mára mikrochipek milliárdjai találhatóak meg elektronikai berendezésekben világszerte, mélyreható változásokat eredményezve mindennapi életvitelünkben, miközben több mint 5 millió kiszolgáló és 170 millió személyi számítógép talál gazdára évente, nem számítva a kézi számítógépeket. Ez a szám pedig a fejlődő országok éhségével egyre csak növekedni fog a jövőben.

A számítási teljesítmény és tárolókapacitások további srófolása azonban a gazdasági racionalitás fényében egyre több területen kérdőjeleződik meg. Az elmúlt évek keserű tapasztalatait és recessziós hangulatát követően a vállalatok egyre szigorúbban kezelik az informatikai költekezést, az IT-beruházásokat igazoló tőkemegtérülési mutatókat kérve számon a technológiai és informatikai vezetőkön. A ma már szinte megszokásból folytatott teljesítményfokozás, az újabb és újabb processzorok, PC-k és szerverek szükségtelenségének felismerését követően egyre több szervezet támaszt az informatikai rendszerek egyes részeivel, főként az alapvető hardver- és szoftverinfrastruktúra építőelemeivel szemben szigorú költséggazdálkodást.

Az elszabadult költségek kordában tartására, sőt számottevő lefaragására napjaink trendjei alapján a jelenleginél jobban centralizált számítástechnikai modellekhez való visszatérés és az informatikai tevékenységek kiszervezése, az ún. outsourcing adják meg a választ. A következőkben főként a régi-új modelleket tárgyaljuk, míg az outsourcing egy következő írás témáját fogja képezni.

Az elosztott (és együtt nem működő) számítástechnika fő hátulütője, hogy pazarlóan bánik az egyébként is túlméretezett erőforrásokkal. Az otthonokban és vállalatok irodáiban világszerte megtalálható több százmillió PC és kiszolgáló garmadája átlagosan igen alacsony kihasználtsággal működik, miközben sok esetben elégtelen számítási teljesítményt nyújtanak, mikor a felhasználónak csúcskapacitásra lenne szüksége. Jelen cikk írása közben egy mára kövületnek számító 1 GHz-es Pentium III kihasználtsága 10 százalék körül alakul, rengeteg megnyitott böngészőablak és OpenOffice.org irodai programcsomag futtatása közben. A Tilos rádión megszólaló indiai zene online lejátszása ezt akár 25 százalékra is srófolhatja. A ma kapható legolcsóbb PC-k ennek a teljesítménynek akár többszörösével is rendelkezhetnek.

Az internet elterjedésével lehetővé vált, hogy ezek a parlagon heverő kapacitások hasznosulhassanak. Számtalan olyan elosztott projekt létezik, melyhez önkéntesen csatlakozva az emberek rendelkezésre bocsátják számítógépük felesleges erőforrásait. A legnagyobbak között található a földönkívüli intelligencia rádiós felkutatásával foglalkozó SETI@home, a rákkutatást végző United Devices és a részben politikai töltetű, kódfeltörést célzó Distributed.net. Szintén az internetre csatlakozó több százmillió PC hatalmas tárolókapacitására épülnek a médiavállalatok mumusának számító, híres-hírhedt peer-to-peer file-cserélők, melyek köztudatba kerülését az előbb a Bertelsmann, majd a Roxio által felvásárolt és vergődő Napster hozta el. Manapság a direct connect hálózatok hódítanak, amelyek működése egyáltalán nem igényel semmilyen nyilvános központi szervert sem, kizárólag egy szabadon fejlesztett és hozzáférhető kliensprogram szükséges.

[oldal:Le az asztali gépekkel]

Az egyes számítógépek erőforrásainak összekapcsolására épülnek az ún. fürtözött rendszerek. A főként a tudományos élet és a nagyvállalati szereplők által alkalmazott modell a kedvező mértékben párhuzamosítható, egymástól nagy mértékben függetleníthető számítási feladatok esetében megfelelő megoldás lehet. Fürtözés segítségével lehetővé válik, hogy tömegesen hozzáférhető, olcsó építőelemekből nagyteljesítményű rendszert építsünk. A Google például ilyen olcsó szerverek tízezreivel szolgál ki havonta 82 millió látogatót, akik több mint 4 milliárd weboldal és 880 millió kép között kutatnak világszerte.

A fürtözés szintén jó válasz azon feladatokra, melyek számítási tömege oly' mértékben haladják meg a ma elérhető legnagyobb számítógép-konfigurációk teljesítményét, hogy a végrehajtás ideje elfogadhatatlan méreteket ölt. A fürtözés által ráadásul rendkívül rugalmasan csoportosíthatóak erőforrások egyes feladatokra, miközben a rendszer kimagasló rendelkezésre állást biztosít. A modell előnyeit szemlélteti, hogy a világ 500 legerőteljesebb szuperszámítógépe közül a legfrissebb adatok alapján már 58,2 százalék fürtözött.

A terjedésével párhuzamosan egyre olcsóbbá váló informatika most nem részletezett nyilvánvaló üzleti és makrogazdasági áldásain túl azonban a tények tanúsága szerint tagadhatatlanul pazarláshoz is vezetett. Éppen a viszonylagos olcsóság következtében hoznak a szervezetek gazdaságilag kevéssé megalapozott beszerzési döntéseket. A számítógépparkok üzemeltetése, karbantartása és folyamatos korszerűsítése jelentős összegeket emészt fel. Az elburjánzott infrastruktúra sok esetben erősen heterogén, tovább növelve az üzemeltetés költségeit. Az ilyen jellegű kiadásokat alábecsülni komoly hiba, éves léptékben a eszközök összértékével összemérhető, de a kiesett működés értéke ennek többszöröse is lehet.

Ezen (explicit és rejtett) költségek visszaszorítására jelentek meg például a vékony kliensek, a blade PC-k és blade kiszolgálók, melyek jelenleg kis hányadát képezik ugyan az összes eladott számítógépnek, de terjedésük rohamos léptékű. A blade számítógépek jelentősen kisebb fogyasztással és méretekkel rendelkezhetnek hagyományos társaiknál, így adott adatközpontban sokkal nagyobb sűrűség érhető el velük, miközben a mára jelentős tényezővé vált teljesítményarányos energiafogyasztásuk lényegesen kedvezőbb képet is mutathat. A blade kiszolgálók ilyen előnyei révén az IDC piackutató vállalat becslése szerint 4 év múlva már az eladott szerverek 29 százalékát fogják képezni, 9 milliárd dollárt hasítva ki az addigra már több mint 60 milliárdosra duzzadt globális szerverpiacon.


Húsz blade PC negyed négyzetméteren

A blade PC-rendszerek jelentős költségmegtakarítást kínálnak a vállalatok számára azzal, hogy a blade PC-k központosítva, egy külön helyiségben (adatközpont) állványokon találhatóak, miközben a felhasználók asztalán csak egy olcsó, kis méretű és halk vékony kliens ((thin client) található, mely segítségével a hálózaton keresztül férnek hozzá a blade PC-khez. Ráadásul további rugalmasságot és megtakarítást biztosít, hogy a kliensekhez dinamikusan rendelt blade PC-k erőforrásai is megoszthatóak és egybe szervezhetőek. Ezáltal egy-egy meghibásodott blade PC cseréje nem okoz fennakadást, illetve a felhasználás eloszlását figyelembe véve a hagyományos megoldáshoz képest a blade PC-k száma jelentősen csökkenthető a normál PC-kkel összevetve. Kutatások rámutattak, hogy egyidejűleg jellemzően az összes felhasználó legfeljebb 70 százaléka foglal le egy-egy PC-t.

A vékony kliens-blade PC modell valódi előnye azonban hosszabb távon, pontosan az előbb tárgyalt üzemeltetési költségekkel kapcsolatban bontakozik ki. A HP Consolidated Client Infrastructure (CCI) vékony kliens-blade PC megoldása például 4 éves időtávon 54 százalékos megtakarítást ígér, igaz, a számítások 10 000 felhasználóra készültek. Figyelemre méltó azonban, hogy a HP becslése szerint ekkora gépparknál a felügyeleti költségek és energia-fogyasztás a korábbi 30 százalékára, a javítással és frissítéssel kapcsolatos kiadások pedig tizedére csökkenthetőek, miközben azok (korábbi) összege egy év alatt meghaladja a gépek beszerzési árát. A vékony kliens-blade PC modell implementálásának kezdeti költsége jelenleg ugyan lényegesen, több mint másfélszer is magasabb lehet a hagyományos PC-k beszerzésénél, a befektetés azonban már egy éven belül is megtérülhet. A vékony kliens-blade PC rendszerek értékesítési volumenének felfutásával pedig, aminek igazi kezdete az év második felére várható, idővel a beszerzési árak is közelíteni fogják a hagyományos PC-két. Nem beszélve a lényegesen ergonomikusabb irodai környezet kialakításának lehetőségéről, ahol a zajtalan, minimális mennyiségű hőt termelő gépek sokkal kellemesebbé tehetnének sok, PC-kkel zsúfolt irodát, számítógéptermet.

Innen már csak egy lépésre vagyunk a virtuális PC-ktől. A kiszolgáló(ko)n futó virtuális PC-t a felhasználó nagy sebességű -- ma már gigabites vagy még gyorsabb -- Ethernet hálózaton érheti el. A jövőben egyre több operációs rendszer és processzor párosításával fog fejlett logikai particionálás rendelkezésre állni, lehetővé téve az erőforrások kihasználtságának optimalizálását. A processzorok hardverszintű virtualizációs képességével egyidejűleg több operációs rendszer is futhat egy processzoron, egymástól függetlenül, miközben az operációs rendszerek is képesek lesznek az egyes alkalmazásokhoz processzorokat rendelni.

A processzortervezést jelenleg uraló, a sokmagos felépítésű lapkák felé mutató trend a szerverek ilyen irányú alkalmazhatóságát fogja erősíteni a jövőben. Az ígéretek szerint 2007-ben megjelenő, Tukwilla kódnéven fejlesztett Itanium processzor valószínűleg már 8 magot tartalmaz, valamint rendelkezni fog virtualizációs képességgel. A Sun "throughput computing" szellemében megtervezett Niagara processzora szintén 8 maggal lesz felvértezve 2006-ban, míg az IBM Power processzor jelenleg kétmagos architektúrája, válaszként a riválisok lépésére, várhatóan szintén újabb magokkal fog bővülni. A processzorok mellett a particionálási és virtualizációs képességekkel felruházott operációs rendszerek (Windows, Linux és Unix-változatok) a következő 3-4 éven belül teljesen általánossá fognak válni, ami alapvető technikai előfeltétele a konszolidáció racionális kivitelezésének.

Tovább fokozva a kérdést, homogén felhasználási környezetben, például átlagos irodai munkavégzés esetén -- mikor nincs szükség egy teljes értékű PC-környezetre -- még a virtuális PC-k megléte is elhagyható. Egy központi alkalmazás-szerver segítségével a szoftverek egyszerűen a hálózaton keresztül töltődnek a vékony kliensekbe, így a ritkábban használt szoftverekből szükségtelenné válik minden egyes felhasználó gépére licencet vásárolni -- ami persze igaz a korábban tárgyalt megoldásokra is. Léteznek olyan szoftverek, melyek segítségével az ilyen irányú támogatást nem tartalmazó alkalmazások is futtathatóvá válnak hálózaton keresztül.

A fentiekben vázolt PC-infrastruktúra modellek megfelelnek egy vállalaton belül megvalósult informatikai közműnek. A közép- és nagyvállalatok informatikai részlegei ily módon a hardverek, szoftverek használatát és szolgáltatásokat nyújtanak a többi részleg számára, pontosan kimutatva az egyes egységek számítási, tárolási és támogatási igényeit, valamint azok költségvonzatait. Jelen cikk keretei nem alkalmasak minden részlet taglalására, de fontos megemlíteni, hogy a fenti modellekkel nagy mértékben javítható az informatikai rendszer biztonsága a támadható pontok számának drasztikus csökkentésével és a központilag tárolt szoftverkörnyezet vékony kliensek felőli sérthetetlenségével.

[oldal:Az Ön múlt havi fogyasztása: 25,7 processzor és 14 276 gigabyte]

A PC-infrastruktúra konszolidálása sok cég életében jelentőségteljes lenne, a problémáknak azonban csak egy részét oldja meg. Sok társaság informatikai kapacitásigénye nagy fokú ingadozást mutat, akár napi, akár szezonális léptékben szemlélve azt. A jelenség főként az erőteljes szezonalitást mutató szektorokban, mint például a kereskedelem, az utazás, egyes pénzügyi szolgáltatások vagy a nagy mértékű szezonalitást mutató termékek gyártói esetében jelentkezik. A néhány hétig vagy hónapig tartó keresleti csúcs támasztotta feldolgozási teljesítmény akár több nagyságrenddel meghaladhatja az év nagyobbik része során fellépő mértéket. A csúcsidőszak megfelelő lekezelésére alkalmas kiszolgálók, tárolórendszerek és hálózati kapacitás beszerzése hatalmas költségeket jelentenek, miközben az év nagy részében kihasználatlanok maradnak. Alulméretezett rendszer esetében pedig a vállalat ügyfelek elvesztését és megrendelések elmaradását kockáztatja.

A probléma orvoslására a nagy informatikai szállítók, mint például az IBM, a HP, a Sun Microsystems, a Microsoft, az Oracle vagy az EMC egyes részleteiben hasonlatos, részben pedig különböző megoldásokat igyekeznek kidolgozni, melyeket aztán hangzatos névvel ellátva próbálnak a piacon eladni. A közös motívum minden esetben az egyszeri értékesítésektől a felhasználás mértékétől függő előfizetési, használati díjak, lízing és a szolgáltatástartalom növelése felé való elmozdulás. Az ügyfelek szempontjából a haszon a rugalmasan méretezhető feldolgozási és adattárolási teljesítmény és az informatikai költségek, befektetések csökkentése illetve azok struktúrájának a nagyobb hozzáadott érték felé való átformálása.

A külföldi szaksajtóban on-demand computingként megismert modell fő evangélistája az IBM. Az IBM promóciós kampányának eredményességét mutatja, hogy a Computerworld magazin által megkérdezett 765 informatikai szakember körülbelül fele a Kék Óriáshoz köti nemcsak az on-demand, hanem a témával kapcsolatos összes többi, így például a utility, a grid (hálózati) vagy az adaptive (alkalmazkodó) számítástechnikai modellt is. Az egyes fogalmak meghatározásában sajnos egyelőre nem igazán alakult ki konszenzus sem az iparág, sem az ügyfelek részéről. Sztenderdizált fogalmak nélkül pedig nehezen hasonlíthatóak össze az egyes beszállítók ajánlatai, valamint gondokat okozhat a saját igényeinknek megfelelő megoldások feltárása is.

Fogalmak
On-demand alatt hardverek és szoftverek igény szerinti dinamikus allokálását és felhasználás alapú díjazását értjük, legyen szó akár vállalaton belül vagy külső szolgáltató által biztosított erőforrásokról.
Utility computing az on-demand szinte teljes mértékű kiszervezése, így az informatikai erőforrásokat, alkalmazásokat és a támogató szolgáltatásokat egy külső vállalat biztosítja.
A grid computing a számítógépek jelentős tömegének hálózaton keresztül való összekapcsolódását és erőforrás megosztását takarja. Míg a fürtözött rendszereket egy számítógéprendszernek is lehet tekinteni, addig a grideket inkább erőforrásaikat megosztó számítógépek összességének. A grid modellnek felel meg például a korábban említett SETI@home is.
Az adaptive computing pedig a nagy mértékben autonóm, rugalmasságot mutató önfelügyelő és öngyógyító rendszerek, valamint azok a vállalat működésének hatékonyságához, eredményességéhez és alkalmazkodó képességéhez hozzájárulását vizsgálja.

A szoftveripar szereplői (de akár a hardverszállítók) esetében jelentős mozgatóerőt képez az egyszeri értékesítésekből származó bevételek növekedésének vagy szinten tartásának fokozódó nehézségei. Az elmúlt évek során egyre több üzleti szoftvergyártó kénytelen bevételcsökkenéssel szembenézni, mivel egyre kevesebben fejlesztik, frissítik meglévő szoftvereiket. A vevők elmondása alapján az újabb és újabb verziójú alkalmazások nem vonultatnak fel olyan képességeket, melyek igazolnák a további befektetéseket. Ehelyett a cégek inkább megpróbálják meglévő rendszereiket minél jobban kiaknázni. A vezető szállítók közül ezért egyre többen kínálnak előfizetéses konstrukciót, mely egyes esetekben már nem is a számítógépek és az azokban található processzorok számát veszi alapul, hanem például az alkalmazottakét. Ilyen fizetési konstrukcióval rendelkezik például a Sun Java Enterprise System is, mely alkalmazottanként évi 100 dollárt kér a cégektől.

Az egyes vállalatok on-demand ajánlatai közötti fő különbségek a részletekben rejlenek. Míg egyes szállítók már automatizált hozzáférést és számlázást kínálnak, mások telefonos rendszeren keresztül bocsátják rendelkezésre a további processzorokat vagy gigabyte-okat. Egy amerikai kórház StorageTek L700e szalagos háttértárolója maximális kapacitásának csak mintegy 40 százalékának használatáért fizet, miközben a további 60 százalékhoz szükség esetén licenckulcsok igénylésével, kazettahelyenként fér hozzá. Az EMC, a HP és a Sun is kínál fogyasztás alapú tárolórendszereket, nem csak a felsőkategóriában. A mérőszoftverek általában a havi átlaghasználat alapján díjaznak. Az IBM on-demand Shark és FAStT tárolórendszereit ezzel szemben a megrendeltnél nagyobb, megállapodás szerinti kapacitással szállítja, melyet az ügyfél az előre rögzített áron használhat fel.

A háttértárhoz hasonló módon vásárolható on-demand számítási kapacitás is. Speciális lízing keretein belül a vállalatok hozzájuthatnak tartalék processzorokhoz vagy szerverekhez, melyek processzoronként skálázhatóak, a szükséges teljesítmény függvényében. A díj alapját itt is a havi átlagos használat képezi. Egy telefonos vagy webes igénylést követően hozzájuthatunk az igényelt processzorok aktiválásához szükséges kódhoz vagy firmware-hez.

[oldal:Sok lúd disznót győz]

Napjainkban még alig néhány vállalat alkalmaz on-demand megoldást. Merőben más szemléletmódot követel a vállalat vezetésétől, mint amelyet az utóbbi évtizedben megszoktunk. Sok esetben egyáltalán nem triviális feladat az on-demand kínálta lehetőségek felismerése és kiaknázásuk, nem utolsó sorban pedig hatalmas összegek fekszenek a jelenlegi vállalati infrastruktúrákban. A beszállítói oldalt górcső alá véve viszont az is kiderül, hogy néhány nagy informatikai szállítón kívül a többség ajánlatai, elsősorban a szoftvergyártók licencei alkalmatlanok az on-demand modell megvalósítására. Jelenleg sok vállalati szoftver licence a processzorok száma alapján képezi az árat, miközben a licenc egyszeri értékesítésre lett kidolgozva, így utólagos, főleg dinamikus változtatásokra alkalmatlan. A legtöbb társaság rengeteg különböző cég szoftvereit használja, így egy on-demand modell megvalósítása komoly tervezést, párbeszédet, hardver- és szoftverkonszolidációt, így migrációt követel. Ezt ugyan a HP-hoz, az IBM-hez és a Sunhoz hasonló nagyok képesek segíteni, a Szent Grálnak azonban ők sem birtokosai. Az operációs rendszerek már korábban említett particionálási képessége úgy tűnik, elengedhetetlen feltétele lesz az on-demand szerverkonszolidációnak.

Az on-demand alkalmazásának további gátja, hogy a folyamatok, alkalmazások közötti erőforrás elosztás és -hozzáférés egyelőre kis mértékben vagy egyáltalán nem automatizált, ami egyrészt az optimálistól messze elmaradó kihasználtságot eredményez, másrészt komoly költségeket jelentő emberi erőforrásokat köt le. A felügyeleti szoftverek fejlődése által és a szállítók valódi felhasználás alapú számlázási rendszereinek megjelenésével ez a kérdés a jövőben megoldódni látszik. Az operáció kutatás és statisztika a felügyeleti szoftverek fejlesztőinek és az ügyfelek kezébe megfelelő eszköztárat ad az informatikai erőforrások üzleti folyamatokhoz való optimális hozzárendelésének megvalósításához. Az on-demand és az abból kifejlődő, külső szolgáltatásként jelentkező utility computing egy régi informatikai szakterületet fog újra létrehozni, ahogyan egyre több vállalatnak és informatikai szolgáltatónak lesz szükséges az igényelt kapacitások megtervezésére.

A Sun N1 Grid bíztató képességekkel kecsegtet a probléma egy megoldására. Az N1 (mely elnevezés az n számítógép üzemeltetése 1-ként elvet takarja) hálózatba kötött számítógépek erőforrásainak virtualizált és részben automatizált megosztásának lehetőségét kínálja. Az N1 szoftverkészlet előnye, hogy segítségével meglévő gépparkunkat is összefoghatjuk az erőforrások on-demand csoportosítására. Az N1 képes felhasználás mértékének naplózására és jelentések automatizált készítésére. Az egyes alkalmazásokhoz rendelt erőforrások elosztása azonban egyelőre itt is kézi beállítás alapján történik.

Az IBM Amerikában és Európában már megnyitotta Deep Computing Capacity on Demand központjait, ahol a vállalatok az IBM üzemeltette szuperszámítógépek számítási kapacitását köthetik le. Ez rendkívül előnyös olyan tudományos vagy műszaki kutatások számára, ahol adott feladat végrehajtása szükséges a lehető legrövidebb időn belül.

A Computerworld megkérdezéses vizsgálata azonban arra is rámutatott, hogy a szakmabeliek mintegy fele szkeptikus az új modellekkel szemben -- nem alaptalanul. Az on-demand bár hosszútávon kínálhat költségcsökkenést és hatékonysága következtében utat nyithat jelentős, informatikailag támogatott üzletfejlesztésre is, kivitelezésének komplexitása sok esetben tárgytalanná teszi komolyabb megfontolását. Minél kevésbé számítás- vagy kapacitás intenzív egy vállalat működése és minél nagyobb az általa megtermelt érték, annál kevésbé válik vonzóvá az alkalmazhatósági korlátokkal küszködő on-demand és utility computing. Sok vállalat van azon a véleményen, hogy a mai hardverárak mellett nem tényező néhány már jól ismert extra (nyilván x86-os) szervert csatasorba állítani és felesleges a drága, komplex és ismeretlen rendszerekkel foglalkozni.

További aggályokat vet fel a rendelkezésre állás, adatvédelem és a beszállítótól való függőség is. Túlzott szerverkonszolidációval hiba esetén növekszik az üzleti folyamatok megszakadásának veszélye, ez azonban a Sun N1-hez hasonló, virtualizációs grid technikákkal orvosolható. Hasonló megfontolások miatt a utility computing, azaz közmű-informatika elterjedésének jelenleg elégtelen technológiai és gazdasági feltételein túl a jövőben korlátozó tényezőt fog képezni a kritikus rendelkezésre állást megkövetelő tevékenységek szolgáltatóhoz való kiszervezése. Hasonlóan kényes téma a kritikus, főként az ügyfelekkel és a piaccal kapcsolatos adatok tárolásának kiszervezése. Sok évnek kell még eltelnie, mire olyan informatikai szolgáltatók jelennek meg, melyek kimagasló rendelkezésre állásukkal és biztonságukkal alkalmasak lesznek akár például pénzügyi ügyfeleket is szerezni tranzakcióik kiszervezésére. Jelenleg nincsenek olyan szolgáltatók, melyek rendelkeznek a megfelelő mérettel, automatizált infrastruktúrával és szabványosított szolgáltatásokkal, hogy elégséges költségelőnyt tudjanak felmutatni a vállalatok többsége számára.

Az eddigiekben tárgyaltak alapján téves következtetés lenne azonban az on-demand computingot kizárólag az informatika keretei között értelmezni és a megoldásokat ezen keretek között kutatni és értékelni. Az informatikai tevékenységeket az üzleti folyamatok, a vállalati hatékonyság és eredményesség szolgálatába kell állítani, nemcsak költségcsökkentés és a ritmus felgyorsításának, hanem az általa létrehozott új üzleti lehetőségek kiaknázásának céljából is. Az on-demand computing feladata nem más, mint az on-demand business megalkotásának támogatása. Az egyre turbulensebb és komplexebb piaci környezet egyre magasabb fokú alkalmazkodó-képességet és innovativitást követel meg az üzleti élet szereplőitől. Az on-demand vállalat a megfelelő embereknek megfelelő terméket kínál megfelelő időben, helyen és áron. Mindennek a létrehozásához kifinomult, magas fokon automatizált és rendkívül hatékony informatikai alapok szükségesek, melytől jelenleg igen messze állunk. Az a vállalat, amely pazarlóan bánik informatikai erőforrásaival és lehetőségeivel, rövid távon jelentős költség-, míg hosszútávon komoly piaci hátrányba kerülhet, miközben a helyes úton élen járók számottevő, piaci részesedésben és pénzben mérhető előnyre tehetnek szert.

Szólj hozzá a fórumban!

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról