Szerző: Koi Tamás

2023. november 14. 10:03

Sokat javít AI-célprocesszorának teljesítményén az Nvidia

Tovább gyorsulnak az Nvidia AI-szuperszámítógépekbe szánt célprocesszorai, melyek ezúttal az elődök egyik legtöbbet bírált hiányosságát, a memória-sávszélességet és a kezelhető memóra mennyiségét bővítik számottevően.

Bejelentette következő generációs AI-gyorsítóchipjeit az Nvidia, mely a piacot az elmúlt években valósággal letarolta a mesterséges intelligencia-megoldások feltanításához és egyéb deep learning feladatokhoz elengedhetetlen célprocesszoraival. 

A Hopper architektúrára épülő H200 GPU a manapság rendkívül keresett (olyannyira, hogy a gyártó a mai napig képtelen lépést tartani a kereslettel) H100 közvetlen utódja lesz, a legfontosabb, gyakorlatilag egyetlen különbség pedig a HBM3e memóriák támogatása lehet majd. Ez azonban önmagában óriási teljesítménynövekedést hozhat, tekintve, hogy a korábbi rendszerek teljesítményét kivétel nélkül a memória sávszélessége fogta vissza.

nvidia-h200-overview

A senior horizonton túl: a staff meg a többiek

Senior tapasztalati szint fölött van még pár egzotikus lépcsőfok, illetve a mögöttük rejtőző elvárások.

A senior horizonton túl: a staff meg a többiek Senior tapasztalati szint fölött van még pár egzotikus lépcsőfok, illetve a mögöttük rejtőző elvárások.

Csak az új memóriakezelési-alegységnek köszönhetően a chip memória-sávszélessége 4,8 terabájt/másodpercre nő, ami a H100-hoz képest 1,4-szeres gyorsulásnak felel meg, miközben az egy processzor által maximálisan kezelt memória mennyisége 80-ról 141 GB-ra nő. A korábbi technológiát képviselő, ám szintén széles körben elterjedt A100-as gyorítóhoz a sávszélesség-növekedés még szembetűnőbb, 2,4-szeres.

Az új gyorsítóchipek jövőre, a második negyedévben kerülhetnek piacra, hogy mennyiért, azt egyelőre nem közölte az Nvidia, ugyanakkor a H100-as processzorokat ma volumentől és egyéb kedvezményektől függően darabonként 25 és 40 ezer dollár közötti áron lehet beszerezni - elemzők szerint aligha valószínű, hogy ettől az árszinttől lényegesen eltérne az Nvidia a H200 esetében.

Az Nvidia már augusztusban bejelentette a szintén HBM3e-memóriakezeléssel újító GH200 "szuperchipet", mely a H200 mellett egy ARM-alapú Grace CPU-t is tartalmaz. A kifejezetten szuperszámítógépekbe, tudományos kutatásokhoz szánt platform a H200-zal egy időben kerül majd forgalomba a jövő év derekán.

A sorozat május 28-i, harmadik állomásán az AWS-ben biztonsági megoldásait vesszük nagyító alá. Átnézzük a teljes AWS security portfóliót a konténerbiztonságtól a gépi tanulásos alkalmazások védelmén át, egészen az incidenskezelésig.

a címlapról

GENERATÍV

0

A Stack Overflow adataival okosodik a ChatGPT

2024. május 9. 14:00

A Google után a másik legmeghatározóbb piaci szereplővel is együttműködést írt alá a világ legnagyobb fejlesztői közösségi platformja.