NVIDIA lëshon platformën e re harduerike të zgjidhjes së AI

2024-12-27 18:03
 154
Më 19 nëntor, prodhuesi i çipave të inteligjencës artificiale (AI) NVIDIA lançoi zyrtarisht dy platforma të reja harduerike për zgjidhjen e AI, konkretisht Blackwell GB200 NVL4 dhe Hopper H200 NVL. Midis tyre, NVIDIA GB200 NVL4 është një modul krejt i ri, i cili është një zgjerim më i madh i bazuar në zgjidhjen origjinale GB200 Grace Blackwell Superchip AI. Moduli GB200 NVL4 konfiguron dy GPU Blackwell GB200 në një motherboard më të madh, domethënë ka dy CPU Grace dhe katër GPU Blackwell B200. Moduli është projektuar si një zgjidhje e vetme serveri me domene 4-GPU NVLINK dhe memorie koherente 1.3T. Për sa i përket performancës, moduli do të përmirësojë performancën e simulimit me 2.2 herë dhe performancën e trajnimit dhe konkluzionit me 1.8 herë. Partnerët e NVIDIA do të ofrojnë zgjidhje NVL4 në muajt e ardhshëm. Për më tepër, Hopper H200 NVL me bazë PCIe tani është përgjithësisht i disponueshëm dhe këto karta mund të lidhin deri në 4 GPU përmes domenit NVLINK, duke ofruar gjerësi bande deri në 7x më të shpejtë se zgjidhjet standarde PCIe. Nvidia thotë se zgjidhja H200 NVL mund të përshtatet në çdo qendër të dhënash dhe ofron një sërë konfigurimesh fleksibël të serverëve të optimizuar për ngarkesa të përziera HPC dhe AI. Për sa i përket specifikimeve, zgjidhja Hopper H200 NVL ofron 1.5x memorie HBM, 1.7x performancë konkluzionesh LLM dhe 1.3x performancë HPC. Ju merrni 114 SM për një total prej 14592 bërthamash CUDA, 456 bërthama tensor dhe deri në 3 performancë FP8 TFLOP (FP16 kumulative). GPU përmban memorie 80 Gb HBM2e të konfiguruar në ndërfaqen 5120-bit dhe ka një TDP prej 350 Watts. Sa i përket TDP, meqenëse moduli Superchip është rreth 2700 W, prisni që zgjidhja më e madhe GB200 NVL4 të konsumojë më afër 6000 W energji.