Szerző: Barna József

2000. november 6. 12:03

Gasztronómiai rovat: NVIDIA GeForce2 Ultra

A mai menü, kedves olvasó, nem más, mint az NVIDIA jelenlegi zászlóshajója: az NVIDIA GeForce2 Ultra 64 MB. Az NVIDIA konyha krémjét desszertként fogyasztottuk el, megkoronázva ezzel a GeForce2 MX előételből valamint a GeForce2 GTS-ből álló fenséges lakománkat. Mindenkinek jó étvágyat kívánok!

A tesztkártyát az NVIDIA Corporation bocsátotta rendelkezésünkre. Külön köszönet illeti Diane Vanasse-t, a cég szenior PR menedzserét, kinek szíves közbenjárása révén a kártya először juthatott el egy Európai Unión kívüli országba, s kizárólagosan a HWSW szerkesztőségébe.

Ó, drága olvasóim, (most, amikor gourmand lennék végre) nincs szavam arra, hogy leírjam, mily rettenetesen megülte a gyomromat az az ételnek nevezett tárgy, melynek nyálkás textúrája leginkább a Tibet ormaim honos hegyi gilisztára emlékeztetett, s melyet legutóbbi megbízatásom alkalmával rossz szerencsém egy egyébiránt csinosnak mondott pincérnő kacsói által helyezett asztalomra egy távoli vidéki fogadóban. Ám alighogy sikerült kihevernem e szörnyű gyötrelmet és regenerálnom ízlelőbimbóim elpusztult millióit - néhány tisztes félangolos chateubriand elfogyasztása révén -, amikor főszerkesztőmtől egy olyan megbízást kaptam, mely már hónapok óta álmaim netovábbja volt. Ezúttal ugyanis egy felettébb előkelő és elegáns étterembe voltam hivatalos: az NVIDIA-ba! Számos kollégám lelkes beszámolója, valamint saját korábbi tapasztalataim alapján is joggal várhattam, hogy ezúttal valami igazi ínyencséggel áld meg a sors. Mondanom sem kell, hogy leginkább a ház legújabb specialitása: a GeForce2 Ultra á la NVIDIA ígérkezett nekem való kihívásnak. Így tehát már jó előre elhatároztam, hogy az étlapon szereplő számos, igazi gasztronómiai kéjutazással kecsegtető étel közül a következőkkel lepem meg magam: GeForce2 MX előételnek, GeForce2 GTS főételnek - s mindezt megkoronázandó: egy kiadós GeForce2 Ultra desszert.


A régen áhított desszertem elsődleges hozzávalója

Nos, magát az éttermet mind külső méreteit, mind pedig enteriőrjét tekintve már-már barokkosan túlzó pompa jellemezte. Az ember tekintete egyszerűen nem kerülhette el az olyan hatalmas reklámfeliratokat, melyek színes betűkkel hirdették: "A világ leggyorsabb GPU-ja" vagy "MCPX" meg miazmás. Őszintén megvallva számomra úgy tűnt, hogy a hely legutóbbi látogatásom óta jókorát nőtt; mi több, méretei olyan gigantikusak voltak, hogy eleinte egy kissé kellemetlenül is éreztem magam. Ám minthogy (sokak beszámolóival ellentétben) nem voltak erőskezű kidobók a bejáratnál, rossz közérzetem némileg múlóban volt, hogy aztán végképp a megszokott kellemes érzésnek adja át a helyét, mihelyst egy felettébb mutatós, mosolygós pincérnő (talán Diane lehetett a neve; nem emlékszem pontosan) előre lefoglalt asztalomhoz kísért. Nem is haboztam sokáig, s rögtön megrendeltem háromfogásos kis gasztronómiai bombámat. Étlapot csupán azért kértem, hogy közelebbről is szemügyre vehessem: milyen hozzávalók dukálnak már régóta várt desszertemhez. A következőket olvastam:

GeForce2 Ultra
  • Második generációs Transform & Lighting motor, mely 31 millió háromszög feldolgozására képes másodpercenként
  • 250 MHz magsebesség
  • 64 MB 460 MHz 4ns DDR memória 7.36GB/Sec memória sávszélességgel
  • 4 független renderelő pipeline 1 milliárd pixels/sec vagy 2 milliárd texels/sec kitöltési kapacitással
  • NVIDIA Shading Rasterizer (NSR), mely per-pixel shading műveletek egylépéses végrehajtására képes
  • High-Definition Video Processor (HDVP)
  • AGP 4X/2X átviteli mód AGP textúrázás és Fast Writes funkció támogatással
  • egyesített driver-architektúra
  • 32 bites Z/Stencil Buffer
  • MicrosoftŽ DirectX 7 és OpenGL optimalizáció és támogatás
Mindez 0,18 mikronon elkészítve... Hmm, az étel valóban igen vonzónak tűnt, még akkor is, ha azon túl, hogy az Ultra némi extra frekvenciával volt megbolondítva, más újdonságot a GeForce2 GTS-hez képest aligha fedeztem fel. Sebaj, végül is igazi gourmand vacsorának néztem elébe!

[oldal:Az Anti-Aliased desszert]

Nos, be kell vallanom, hogy vajmi keveset törődtem előételem és a GTS nagy felbontású textúráival valamint sziporkázó színkölteményeivel: mohón faltam őket, s alig tudtam kivárni, hogy végre asztalomon lássam a vacsora és egyben az NVIDIA konyhájának remekművét, mely végül meg is érkezett teljes pompájában:

Érdemes közelebbről szemügyre venni a kártyát nagy felbontásban is
Az NVIDIA mesterkonyha krémje

E csábító látványt szemlélve nem volt szívem megtörni e harmóniát csupán azért, hogy eltávolítva az ízletes rikító zöld hűtőbordákat felfedjem, vajon milyen márkájú 4ns-os DDR memóriamodulok rejtőznek alattuk. Inkább gyengéden a kóstolásba fogtam, először annak próbálva utána járni, hogy az FSAA néven elhíresült új fűszer, mennyiben járulhat hozzá az új étel ízösszetételéhez. Meg is próbálom bemutatni, mire jutottam:


Q3:A 640x480x32 2x2 (LOD bias) FSAA bekapcsolása mellett

Nagyítsd ki a képet!
Q3:A 1280x1024x32 Full-Scene Anti-Aliasing kikapcsolva

Amint az mára már széles körben ismertté vált, az NVIDIA chipjei az ún. supersampling eljárást használják az élsimított képek renderelésére. Ez alapvetően nem jelent mást, mint hogy a chip az adott képkockát magasabb felbontásban rendereli le, majd - különféle filterező eljárások után - a beállított felbontásban jeleníti meg. Ám noha e megoldás hardveresen támogatott, igen komoly teljesítménycsökkenéssel jár, mely 40 és 50 százalék között mozog a felbontástól és a színmélységtől függően. Csupán a teljesítményt nézve ez tehát azt jelenti, hogy OpenGL alatt gyengébb fps értékeket mértem 640x480x32 felbontás mellett FSAA (2x LOD bias) bekapcsolása mellett, mint 1280x1024x32 esetében FSAA nélkül. Továbbá, amint azt a fenti képek mutatják, alig látható bármiféle képminőségbeli különbség egy 640x480-as Anti-Aliased scene és egy 1280x1024-es nem élsimított kép között (miközben az utóbbi esetekben sokkal játszhatóbb frame rate az eredmény). Mindezt figyelembe véve úgy döntöttem, hogy inkább maradok az FSAA kikapcsolása mellett, mely fűszer - úgy gondolom - jelenlegi formájában még nem eléggé ízletes ahhoz, hogy megérje vele elrontani e valóban isteni fogás mennyei élvezetét.

[oldal:További keserű ízek]

Miután tehát félretettem e némileg fantáziátlanul FSAA névre keresztelt fűszert, igyekeztem jó étvággyal tovább fogyasztani az ételt. Ám ismét ráharaptam valamire: mint amikor az ember elharapja a borsot. Pedig valljuk be, éppen azért, hogy az FSAA által hátrahagyott keserű ízt kimossam a számból, egy egyszerű rutinfeladat végrehajtásába kezdtem. Feltettem (nem magamban, hanem a gépre) a Cyberlink Corporation által írt igen népszerű PowerDVD szoftveres DVD lejátszó program legújabb verzióját (ver. 2.55). Tettem mindezt azért, mert - ugyan a legkülönfélébb köpönyegben - többnyire ezt a programot mellékelik a legtöbb NVIDIA chipre épülő videokártya mellé (például így tesz az ASUS és a Hercules is). Ám legnagyobb meglepetésemre azt kellett látnom, hogy a szoftver - annak ellenére, hogy a Cyberlink honlapján ezzel büszkélkedik - nem képes kihasználni a GeForce2 Ultra hardveres Motion Compensation támogatását a legújabb hivatalos Detonator 3-as driverekkel (ver. 6.31).


Használatban az MC?

A probléma természetesen a GeForce termékcsalád összes tagjánál fennállt. Eleinte arra gyanakodtam, hogy nyilvánvaló meghajtó-problémáról van szó, hiszen a Detonator 3 előtti driverekkel minden zökkenésmentesen működött. Ám miután hirtelen ötlettől indíttatva a WinDVD programmal is próbát tettem, csalatkoznom kellett elhamarkodott ítéletemben. A WinDVD ugyanis tökéletesen lekezelte a hardveres MC-t. Minthogy azonban a Motion Compensation mellőzése látható hatással van a DVD lejátszás minőségére (alkalmanként bizony szembe kell néznünk a frame drop jelenségével), őszintén remélem, hogy mind a Cyberlink Corporation, mind pedig az NVIDIA mindent megtesz majd annak érdekében, hogy e zavaró probléma minél hamarabb megoldódjon.


What you see is what you get

Az vaskapu még mindig zárva

Minthogy sosem mulasztom el, hogy az új ételspecialitásokat más és más nemesfémből készült evőeszközökkel is megízleljem, gyorsan ezüstre cseréltem eredetileg aranyból készült késem és villám. El nem tudják képzelni, milyen különbségek adódhatnak az étel és a különböző fémek interakciójából. Sajnos, ez esetben is adódtak különbségek. Ezüst szervizem az AMD Irongate alaplapi lapkakészlete lévén kíváncsian vártam, vajon mit adhat hozzá a legújabb NVIDIA specialitáshoz. Nos, az eredmény keserű: ez a kombináció még mindig csupán arra jó, hogy elrontsa szájízünket. Feltehetően biztonsági okokból (a számos panasznak betudhatóan) az NVIDIA Ultra továbbra is AGP 1x átviteli sebességre konfigurálja magát alapértelmezés szerint. Nagyon jól tudom, hogy ez már szakállas történet, ám minthogy Direct3D használata esetén AGP 1x módban a potenciális teljesítmény 10-25%-a veszendőbe megy, felettébb bosszantónak tartom, hogy sem az AMD, sem pedig az NVIDIA - immár lassan egy éve - nem tett semmit annak érdekében, hogy e probléma megszűnjön. Továbbra is valamiféle videokártya-buheráló szoftverre (mint a PowerStrip vagy az NVMax) van szükség ahhoz, hogy az AGP 2x átviteli módot beállíthassuk, s így növeljük a teljesítményt. OpenGL alatt természetesen nincs ekkora különbség; ám ez érthető is, hiszen a GeForce sorozat nem támogatja az AGP textúrázást ezen API alatt.

S3TC problémák

Bizony volt még egy zavaró dolog, mely inkább negatívan befolyásolta az NVIDIA legújabb főztjéről alkotott átfogó képemet. Új driverek ide, friss patch-ek oda, az NVIDIA által OpenGL alatt alkalmazott textúratömörítési eljárás továbbra is elégséges minősítéssel illethető csupán. Amint az alább jól látható, a módszer csúnya hibákkal működik:

Klikkelj ide!
Tégla a falban...

Természetesen a 64 MB memóriával felszerelt Ultra esetében akár nyugodtan kikapcsolhatjuk az S3TC-t anélkül, hogy a képminőségbeli látványos javulás a teljesítmény rovására menne. Ám a 32 MB-os kártyák továbbra is küszködnek egyes nagyfelbontású textúrák kezelésével - főként magasabb felbontásokban és színmélységben.

[oldal:Nyalánkságok]

A szájpadlásomat ért ily gasztronómiai támadások után végül úgy döntöttem, hogy az ízlelgetés helyett immár elfogyasztom a desszertet, hogy végre teljes képet alkothassak annak erényeiről és hiányosságairól. A következő segédeszközök voltak szolgálatomra abban, hogy a titkos recept rejtett bugyrait kifürkészhessem:

1. tesztrendszer
  • ABIT SE6 alaplap
  • Intel Pentium III 733 MHz CPU
  • 128 MB SyncMax PC133 SDRAM
  • Maxtor 52049H4 20 GB UATA/100 HDD
  • Diamond MX300 hangkártya
  • Panasonic 5x DVD-ROM
  • LG Studioworks 77i monitor
2. tesztrendszer
  • MSI MS-6167 alaplap
  • AMD Athlon 800 MHz CPU
  • 128 MB SyncMax PC133 SDRAM
  • Maxtor 52049H4 20 GB UATA/100 HDD
  • Diamond MX300 hangkártya
  • Panasonic 5x DVD-ROM
  • LG Studioworks 77i monitor
A menü:
  • ASUS V7100 32 MB - 175 MHz mag- és 166 MHz memóriasebesség
  • Visiontek GeForce2 GTS 32 MB - 200 MHz mag- és 333 MHz DDR memóriasebesség
  • NVIDIA GeForce2 Ultra 64 MB - 250 MHz mag- és 460 MHz DDR memóriasebesség
A teszteléshez a következő programokat használtam:
  • 3DMark2000 ver. 1.1 (MadOnion.com)
  • Quake3: Arena ver. 1.17 (id Software)
  • Experience demó (WXP3D)
  • Detonator 3 (6.31)
Immár minden készen áll ahhoz, hogy a következő oldalakon a titkos receptet megosszam olvasóimmal...

[oldal:Zamatok Direct3D alatt - PIII 733]

Nézzük tehát, hogyan teljesít desszertem 3DMark 2000 alatt*:

640x480

800x600

1024x768

1280x1024

Be kell vallanom, igen meglepett, hogy mily konzisztens eredményeket produkált a kártya 16 bites színmélységben. Érdemes megfigyelni, hogy az Ultra 1280x1024x32-es felbontás mellett kénytelen először elszenvedni jelentős sebességcsökkenést. Ez azt jelenti tehát, hogy a kártya ezen a ponton kezd kifogyni teljesítmény-tartalékaiból. E diagramok - csakúgy, mint az elkövetkezendőek - jól mutatják, hogy az NVIDIA milyen körültekintően szegmentálta különböző GPU-it a különféle vásárlói rétegek számára.

A valóban szemet gyönyörködtető Experience demót csupán azért vettem fel a benchmark programok közé, mert az maximálisan kihasználja az NVIDIA GPU-inak T&L motorját. Ennek révén, amint az itt jól látható, egyértelműen kiütköznek a három fogás közti nyers fill rate-beli és memória-sávszélességbeli különbségek:

Azt hiszem, e diagramhoz nem kell kommentár.

*Megjegyzés: a legjobb eredményeket a táblázatban megadott jelmagyarázattól eltérően a vörös szín különböző árnyalataival jelöltem.

[oldal:Zamatok Direct3D alatt - Athlon 800]

S íme a 3DMark 2000 eredmények az AMD rendszerén:

640x480

800x600

1024x768

1280x1024

Érdekes tanulság, hogy az Athlon nyers ereje mennyivel jobb teljesítményre sarkallja a kártyát, míg az alaplapi lapkakészlet hendikepje láthatóan hatással van a kártya által magasabb felbontásban és színmélységben nyújtott eredményekre. Az összes fogásnál megfigyelhető, hogy a felbontás és a színmélység növelésével egyenes arányban csökken a teljesítmény, szemben a Pentiumos rendszer viszonylag konzisztens eredményeivel.

Experience alatt ugyanazt tapasztaljuk, mint a Pentium III rendszer esetében. Az egyetlen érdekesség, hogy az MX kártya gyengébben teljesít az igen erőteljes Athlon processzor mellett:

[oldal:Zamatok OpenGL alatt - PIII 733]

Az OpenGL alatti teljesítmény mérésére a már szinte kötelező Quake3: Arena timedemóját (demo001) használtam*:

640x480

800x600

1024x768

1280x1024

Itt valójában semmi meglepőt nem tapasztalhatunk: az Ultra minden tekintetben jobb teljesítményt nyújt - s előnye a felbontás és a színmélység növelésével egyre szembetűnőbb. Bár annyit azért érdemes megjegyezni, hogy a GTS 16 biten alig-alig marad el a nagy vetélytárstól.

* Megjegyzés: a játékban minden lehetséges értéket a maximumra állítottam, mind a Video Setup, mind pedig a Game Options menüben.

[oldal:Zamatok OpenGL alatt - Athlon 800]

Az Athlon 800 MHz-es CPU Quake3: Arena alatt:

640x480

800x600

1024x768

1280x1024

Maximális beállítások mellett bizony a 90+ fps értékek igen impresszívnek mondhatóak, s jól láthatóan hajazzák a PIII-as rendszer teljesítményét. Érdekes továbbá, hogy 800x600-as felbontásig, 16 bites színmélységben a GTS fej-fej mellett halad nagyobb testvérével.

Részben tehát nem igazolódtak be azon elvárásaim, melyek szerint a legújabb Pentium III 733 MHz-es rendszer a maga 133 MHz-es FSB-jével és az AGP 4x átviteli mód támogatásával legalább méltó vetélytársa lesz a mára már elavult és nem támogatott AMD 750 chipkészletre épülő Athlon 800-as rendszernek. Hiszen a fent említett Irongate problémák ellenére, a kétségkívül erőteljesebb Athlon CPU nyers ereje szinte minden tesztkörnyezetben jobb eredményeket produkált. Nyilvánvalóan az i815E lapkakészlet fejlettebb architektúrájának köszönhető az, hogy - egyedül Direct3D-ben, és ott is elsősorban magasabb felbontásokban és 32 bites színmélységben - a Pentium III az Athlon rendszer fölé tudott kerekedni. Ám, amint az a fenti ábrákon is jól látható, OpenGL alatt az AMD rendszere az abszolút befutó.

[oldal:A végszó]

A pincérek kedvessége és figyelmessége sem volt elég ahhoz, hogy a desszert keserű utóízét feledtesse velem. Kétségtelenül talán kevesebb keserűséggel találkoztam volna, ha valamely VIA KX/KT 133 lapkakészletre épülő alaplapot állítok vetélytársként az Intel i815E-re épülő ABIT SE6-al szemben. Ám sajnos, minthogy szegény az eklézsia, erre nem volt módom. Valójában a fair play jegyében az i820E illetőleg az AMD 760 ringbe állítása lett volna a leginkább megfelelő; ám azt hiszem, jelen vacsoránk sem volt tanulság nélküli. Nézzük tehát, milyen benyomást tett rám e kétségtelenül ígéretesnek tetsző étkezés!

Ami a desszertet illeti, a következő sebtében felállított kategóriák szerint így látom nyomorúságos helyzetét:

Innováció: 1/10

A jól sikerült chipek kiválogatása, úgy gondolom, nemigen tekinthető valódi technológiai újításnak. Ha ezek mellé a vásárlók pénztárcáját igen erősen megterhelő, s ma még ritkaságszámba menő méregdrága DDR SDRAM modulokat társítunk - ez szintén nem a fejlesztőket dicséri. Az NVIDIA marketingpolitikáját ismerve azonban belátható, hogy az Ultra piacra dobása elkerülhetetlen volt - a termékek piaci szegmentálása szempontjából kulcsfontosságú lépés.

Egyetlen kérdés marad számomra megválaszolatlanul: hogy a cég által állítólag bejelenteni kívánt GeForce2 Pro chipnek hol is lesz a helye ebben a valóban jól kigondolt piaci stratégiában...

Teljesítmény: 9/10

A GeForce2 Ultra minden kétséget kizáróan a leggyorsabb 3D-gyorsító kártya a mai piacon. A tízes osztályozásban csupán azért érdemelt ki 9-est nálam, mert bizony a GTS gyakran ott liheg a nyomában, egyes esetekben fej-fej mellett haladva vele.

Ár: 5/10

Ár szempontjából a kártya bizony csak közepes pontszámot kaphat. 500 USD-s fogyasztói ára valóban elrettentő. A fentiek tükrében pedig ár/teljesítmény viszonya sem mondható közepesnél jobbnak.

Összpontszám: 5/10

Összességében talán azt mondhatjuk, hogy ez a kártya valóban csupán desszert, méghozzá méregdrága desszert, ínyenceknek. Kizárólag a legmegszállottabb játékosoknak ajánlható. Az MX 800x600-as, a GTS 1024x768-as, míg az Ultra 1280x1024-es felbontásig remekül teljesít. Mindenki saját pénztárcája és igényei alapján kell, hogy eldöntse: megéri-e az a jó néhány tízezer forint azt a néhány fps többletet. Érdemes tehát a diagramokat alaposan tanulmányozni...

A tesztek többnyire a FreeSector Számítástechnika tesztlaborjában készültek. Köszönjük a segítséget!

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról