Eljött az Nvidia-OpenAI barátság első próbatétele
Bár a nyilatkozatok ennek éppen az ellenkezőjét láttatják, a színfalak mögött mégsem lehet olyan felhőtlen az AI-szegmens két meghatározó szereplőjének, az OpenAI-nak és az Nvidia-nak a viszonya. A jelenség mögött az iparág evolúciója állhat, mely az eddig abszolút domináns beszállítónak számító Nvidia-t erősödő intenzitású verseny elé állítja.
Az Nvidia és az OpenAI, a mesterséges intelligencia bumm két legnagyobb katalizátora - és főleg előbbi esetén haszonélvezője - hosszú évek óta egymás elválaszthatatlan partnerei, ám mint a legtöbb házasságban, úgy a két cég kapcsolatában is megjelentek idővel az első ellentétek, melyek próbára tehetik az iparág két meghatározó szereplőjének a partnerségét.
A százmilliárd dolláros bébi
Az, hogy az Nvidia és az OpenAI kívülről makulátlannak tűnő kapcsolatával valami nem stimmel, január végén kezdett komolyabban körvonalazódni. Ekkor jelent meg a Wall Street Journal iparági bennfentesekre hivatkozó riportja, melyben a lap azt írta, hogy az Nvidia és az OpenAI között tavaly ősszel kötött, 100 milliárd dollárt elérő befektetési megállapodás tető alá hozása megfeneklett.
A WSJ értesülései szerint az Nvidia vezérigazgatója, Jensen Huang a színfalak mögött komoly kritikával illette az OpenAI üzleti stratégiáját, illetve bennfentes üzleti körökben többször igyekezett hangsúlyozni, hogy a százmilliárd dolláros befektetésről szóló megállapodás valójában nem is kötelező érvényű és a végleges kondíciók még nincsenek kidolgozva.

Megélhetési IT: krónikus tünet vagy új normalitás? Amikor a szerelem, a hivatás megélhetéssé szelídül, a billentyűzet pedig szerszám lesz.
Egy nappal később Huang Tajpejben nonszensznek nevezte a fenti értesüléseket, méltatta az OpenAI-t, illetve annak vezetését, továbbá megerősítette, hogy az Nvidia jelentős tőkeinjekciót készül adni Sam Altman cégének - noha a százmilliárd dolláros konkrét összeget itt is cáfolta cégvezető.
A sajtóban megjelentekre Altman is reagált az X-en, kijelentve, hogy az Nvidia gyártja a világ legjobb AI-processzorait és reméli, hogy az OpenAI hosszú ideig "gigantikus" ügyfele maradhat a cégnek.
Nem értem, honnan jön ez a sok őrültség
-tette hozzá Altman a cikkben szereplő állításokra hivatkozva.
A Reuters exkluzív riportja szerint a csupa pozitív töltetű nyilatkozat mögött igenis húzódnak bizonyos érdekellentétek, melyek ha - egyelőre - nem is drámaiak, de mindenképpen feszültséget okoznak a két cég viszonyában, illetve ebből következnek az Nvidia befektetése körüli bizonytalanságok is.
A lapnak több forrás egybehangzóan állította, hogy a feszültség elsődleges okozója, hogy az OpenAI stratégiaváltása új (verseny)helyzet elé állítja az Nvidia-t, mely a mesterséges intelligencia modellek tanításához optimalizálta a nagy számítási kapacitású, grafikus feldolgozóegységekből átalakított processzorait.
Csakhogy a modellek tanítása után az OpenAI-hoz hasonló rendszerüzemeltetők az inferencia, azaz következtetési és érvelési folyamatokra helyezték, illetve helyezik át fokozatosan a hangsúlyt, vagyis arra a műveletre, amikor a mesterséges intelligencia modell a rendelkezésére álló hatalmas ismerethalmazból megpróbálja a kérdésekre adott válaszokat a lehető leggyorsabban és legpontosabban kihámozni.
A nyers erő nem minden
A Reutersnek névtelenül nyilatkozó források szerint az Nvidia hardverei előbbiben, vagyis a gyors inferenciában nem jeleskednek különösen, melyek bizonyos AI-specifikus feladatoknál, így például a programkódok fejlesztésében hátrányt jelenthet.
Bennfentesek szerint az OpenAI-n belül többen hangot adtak annak az aggodalmuknak, hogy ez a Codex platform üzemeltetése során potenciális hátrányt jelenthet, míg az átlagos ChatGPT-felhasználók esetében ez kevésbé probléma, mivel ők nem annyira időérzékenyek a válaszadás tempóját illetően.
Az OpenAI ezért már a tavalyi évben megpróbált megkörnyékezni több olyan céget is, melyek termékei az inferencia-műveletek elvégzésében jobb teljesítményt nyújthatnak az Nvidia nyers erőre hagyatkozó megoldásainál. Ezek a rendszerek jellemzően nagyobb mértékben támaszkodnak a számítási egységbe integrált SRAM-okra, és mivel az inferencia a tanításhoz képest memóriaigényesebb folyamat, jobb eredménnyel is képesek azt futtatni.

A ChatGPT versenytársai, élükön a Geminivel már részben túlvannak ezen a szemlélet-, vagy korszakváltáson, mivel a Google jelentős mennyiségben használja adatközpontjaiban az inferencia-számításokra optimalizált, házon belül fejlesztett Tensor chipeket (TPU). Ez pedig részben hozzájárulhatott ahhoz, hogy a Gemini az utóbbi hónapokban érezhetően elhúzott a piac mellett a mesterséges intelligencia modellek számos metrikáját illetően.
Az OpenAI számára két piaci szereplő, a Cerebras és a Groq megkörnyékezése tűnt kézenfekvő válasznak a problémára - közülük előbbivel sikerült is megállapodást kötniük Altmanéknak, a Groq-kal tervezett üzlet azonban kútba esett, mivel az Nvidia decemberben egy jelentős összegű licencmegállapodást kötött a céggel.
Bár a felek közt létrejött megállapodás nem biztosít exkluzivitást az Nvidia-nak, hozzájárult ahhoz, hogy a Santa Clara-i cég a Groq szinte összes chiptervező mérnökét magához csábíthassa, ezzel kihúzva a céget az OpenAI potenciális partnereinek listájáról.