:

Szerző: Koi Tamás

2026. március 17. 09:26

LPU-k, egybillió dollár és az űr - emeli a tétet az Nvidia

A mesterséges intelligencia megoldásokat működtető rendkívül összetett rendszerek fejlődésük új szakaszába léphetnek, a technológia elért a következtetéses (inferencia) inflexiós ponthoz, az adatközponti beszállítók pedig ennek megfelelően alakítják át kínálatukat - élükön a világ legértékesebb cégének számító Nvidia-val.

Hétfőn kezdetét vette az Nvidia éves fejlesztői konferenciája, a GTC, melynek nyitóelőadását szokás szerint a cég bőrdzsekis vezérigazgatója, Jensen Huang tartotta. A majd kétórásra nyúlt keynote-on Huang mintegy 18 ezer, helyszínen tartózkodó néző előtt világossá tette, hogy az Nvidia jövőképe - és legfőképpen bevételtermelő képessége - sziklaszilárd alapokon nyugszik, a cég emellett idén először tett le olyan terméket az asztalra, mely a tradícióktól eltérően nem egy grafikus feldolgozóegységre épül.

A gyorsítóprocesszort gyorsító processzor


Ez a termék a Groq 3 nyelvfeldolgozó egység (language processing unit, azaz LPU), mely az Nvidia fennállásának eddigi legnagyobb, mintegy 20 milliárd dollár értékű akvizíciója révén jöhetett létre. A Google házon belül fejlesztett tensor chipjeinek tervezői által alapított startup terméke segít átvinni az Nvidia-t a mesterséges intelligencia tanítási korszakából a következtetéses (inferencia) korszakba, mely a GPU-khoz képest egészen eltérő architektúrájú adatfeldolgozást igényel a hatékony működéshez.

A várhatóan az idei harmadik negyedévben érkező Groq 3 LPU-kból álló Groq 3 LPX rackalapú rendszerek 256 ilyen feldolgozóegységet tartalmaznak majd és a Vera Rubin rackek kiegészítéseként, kvázi azokkal párban alkotnak majd egy rendkívül nagy teljesítményű, komplex rendszert.

Az LPU-k egyenként 4 GB, 1200 TB/s sávszélességű SRAM-mal rendelkeznek majd (ez a Vera GPU-k integrált memória-sávszélességének az 55-szöröse), feladatuk pedig nagyon leegyszerűsítve a rendszerek válaszidejének radikális csökkentése lesz. 

Huang szerint a Groq 3 LPX rackek képesek lehetnek arra, hogy Rubin GPU-k egy wattra jutó token teljesítményét a 35-szörösére emeljék.

A Groq 3 mellett viszonylag kevés szó esett a GTC nyitóelőadásán az újabb GPU-architektúrákról, az idei konferencia tehát végleg elmozdulni látszik abból az irányból, hogy a Santa Clara-i cég minden évben bemutat egy, az előző évinél nagyobb teljesítményű számítási egységet.

huang_space
Jensen huang a GTC 2026 keynote-ján (fotó: getty)

Fejleszd tudásod security, ethical hacker, pentester irányba! (x)

NIS2-nek megfelelő CyberSecurity képzés az automatizált sérülékenységvizsgálatról. Scope meghatározás, felderítés, validálás, dokumentálás és riportálás. Jelentkezz most!

Fejleszd tudásod security, ethical hacker, pentester irányba! (x) NIS2-nek megfelelő CyberSecurity képzés az automatizált sérülékenységvizsgálatról. Scope meghatározás, felderítés, validálás, dokumentálás és riportálás. Jelentkezz most!

Ezzel együtt Huang megmutatta a közönségnek a Kyber nevű új rack architektúrát, melyek 144 GPU-t rendeznek vertikális egységekbe, mely a gyártó szerint hozzájárulhat a racksűrűség növeléséhez és a késleltetés csökkentéséhez. A Kyber a Vera Rubin Ultra GPU-kkal együtt válhat elérhetővé valamikor 2027-ben.

Csak ezt követően, 2028-ban érkezhetnek a Feynman kódnevű egységek, melyekről még kevesebb részletet árult el az Nvidia első embere, az ütemtervben ugyanakkor az új GPU-k mellett számos új hálózati chip is szerepel.

Az űr, a végtelen határ


Egy nem teljesen új, mégis egészen új célterületre vagy inkább terepre szánt termékkel is előállt az Nvidia az idei GTC-n. Ez a világűrben működő adatközpontokba szánt Vera Rubin Space-1 modul, melynek méretét, tömegét és energiafogyasztását kifejezetten az orbitális pályán való működéshez, illetve az oda történő hatékony feljuttatáshoz optimalizálták.

A cég most több partnerrel, így az Axiom Space-szel, a Starclouddal és a Planettel együtt dolgozik azon, hogy a merőben új működési környezet jelentette kihívásokra, így elsősorban a sugárzásra megfelelő választ tudjanak adni a mérnökök.

A partneri listáról feltűnően hiányzik Elon Musk űripari cége, a SpaceX, mely amellett, hogy az Nvidia immár egyik legnagyobb partnere azáltal, hogy a céget bekebelezte múlt hónapban az xAI, januárban kért engedélyt az amerikai hírközlésszabályozó szervtől egymillió, adatközponti feladatokhoz használt műhold felbocsátására.

Az Nvidia vezérigazgatója a konferencián üzent a befektetőknek és a tőzsdének is: Huang közölte, hogy a vállalat a jelenlegi megrendelés-előrejelzés alapján arra számít, hogy 2027-re egybillió dollár értékben ad majd el Blackwell és Vera Rubin rendszereket, ami duplája a korábbi várakozásoknak.

Áprilisban és májusban 8 alkalmas, 24 órás online Agentic AI Software Engineering és AI Engineering képzéseket indítunk, melyek real-time követik le az aktuális technológiákat.

a címlapról