:

Szerző: Koi Tamás

2023. december 8. 09:19

Az Nvidia nyakán az AMD az adatközpontokban

Nem dőlhet hátra kényelmesen az Nvidia, mely a mesterséges intelligencia modellekhez használt adatközponti gyorsítók legnagyobb gyártója ma a világon, mivel az AMD ismét tanúbizonyságát tette annak, hogy az adatközponti megoldások szegmensében képes rendkívül versenyképes megoldásokkal előállni.

Komoly szerepet szán magának az AMD az adatközponti processzorok (AI-modellek feltanítására optimalizált gyorsítók és általánosabb célú feldolgozóegységek) szegmensében, ahol jelenleg ezeken a területeken szinte egyeduralkodónak számít az Nvidia, a vállalat egyik legősibb riválisa. A két cég egyaránt elsősorban a gaming szegmens növekedése, illetve a grafikus feldolgozóegységek piacán folytatott fejlesztéseknek köszönhetően érkezett el oda, hogy ma brutális teljesítményű célprocesszorokat szállít adatközpontokba, az AMD megoldásainak teljesítménye ugyanakkor többnyire nem érte el a riválisét - egészen mostanáig.

Egy szerdai befektetői rendezvényen az AMD fellebbentette a fátylat új adatközponti gyorsítóiról, az AI-modellek feltanítására optimalizált AMD Instinct MI300X-ről és az Instinct MI300A APU-ról, melyek elődjeikhez képest az iparági trendeknek megfelelően nagyobb számítási teljesítményt nyújtanak energiahatékonyabb működés mellett.

amd_instinct_mi300_01

Nyerd meg az 5 darab, 1000 eurós Craft konferenciajegy egyikét!

A kétnapos, nemzetközi fejlesztői konferencia apropójából a HWSW kraftie nyereményjátékot indít.

Nyerd meg az 5 darab, 1000 eurós Craft konferenciajegy egyikét! A kétnapos, nemzetközi fejlesztői konferencia apropójából a HWSW kraftie nyereményjátékot indít.

Az AMD CDNA 3 architektúrára épülő MI300X a HBM3 memóriakezelésnek köszönhetően a közvetlen elődnek számító MI250X-hez képest másfélszer annyi memóriát képes kezelni, memória-sávszélessége pedig 1,7-szeresére nőtt (a gyakorlatban ez 192 GB maximális memóriakapacitást és 5,3 TB/s sávszélességet takar). Ezzel az MI300X memóriakezelése és memóriasávszélessége nem csak a kurrens Nvidia H100-as gyorsítót előzi meg, hanem a november közepén bejelentett, csak jövőre érkező H200-at is. 

Az AMD Instinct Platformmal a cég platformszintű megoldást is kínál a megrendelőknek, mely hasonlóan épül fel, mint az Nvidia H100 HGX - a nyolc MI300X processzort integráló platform 1,5 TB memóriát kezel.

A processzorgyártó most bemutatott megoldásaira a nagyobb adatközpont-üzemeltetők és iparági szereplők szinte kivétel nélkül leadták már megrendeléseiket, így az MI300X és MI300A processzorokat egyaránt használja majd a Meta, a Microsoft, az Oracle és az OpenAI is a saját adatközpontjaiban. 

A gyártó egyelőre ugyanakkor eladásokban még nem fogja az Nvidia-t utolérni, a cég legalábbis jövőre összesen mintegy kétmilliárd dollárnyi árbevétellel számol az adatközponti termékek piacán, míg az Nvidia csak a legutóbbi negyedévben 14 milliárd dollár értékben értékesített ilyen megoldásokat (igaz, ez nem kizárólag az AI gyorsítókból származott).

A siker egyik kulcsa a termékek árazása lehet, melyről az AMD nem árult el semmilyen konkrétumot a szerdai rendezvényen, azt leszámítva, hogy az újdonságok olcsóbbak lesznek, mint az Nvidia megoldásai (egyetlen H100-as chip jelenleg körülbelül 40 ezer dollárba kerül).

Milyen technológiai és munkaerőpiaci hatások érhetik a backendes szakmát? Május 8-án végre elindul az idei kraftie! meetup-sorozat is (helyszíni vagy online részvétellel).

a címlapról

Hirdetés

Security témákkal folyatódik az AWS hazai online meetup-sorozata!

2024. április 28. 19:59

A sorozat május 28-i, harmadik állomásán az AWS-ben biztonsági megoldásait vesszük nagyító alá. Átnézzük a teljes AWS security portfóliót a konténerbiztonságtól a gépi tanulásos alkalmazások védelmén át, egészen az incidenskezelésig.