NVIDIA izlaiž jaunu AI risinājumu aparatūras platformu

2024-12-27 18:03
 154
19. novembrī mākslīgā intelekta (AI) mikroshēmu ražotājs NVIDIA oficiāli atklāja divas jaunas mākslīgā intelekta risinājumu aparatūras platformas, proti, Blackwell GB200 NVL4 un Hopper H200 NVL. Tostarp NVIDIA GB200 NVL4 ir pavisam jauns modulis, kas ir lielāks paplašinājums, kura pamatā ir oriģinālais GB200 Grace Blackwell Superchip AI risinājums. GB200 NVL4 modulis konfigurē divus Blackwell GB200 GPU uz lielākas mātesplates, tas ir, tam ir divi Grace CPU un četri Blackwell B200 GPU. Modulis ir izveidots kā viena servera risinājums ar 4-GPU NVLINK domēniem un 1.3T koherento atmiņu. Runājot par veiktspēju, modulis uzlabos simulācijas veiktspēju 2,2 reizes un apmācību un secinājumu veiktspēju 1,8 reizes. NVIDIA partneri nākamajos mēnešos nodrošinās NVL4 risinājumus. Turklāt tagad ir vispārēji pieejams uz PCIe balstīts Hopper H200 NVL, un šīs kartes var savienot līdz pat 4 GPU, izmantojot NVLINK domēnu, nodrošinot līdz pat 7 reizēm lielāku joslas platumu nekā standarta PCIe risinājumi. Nvidia saka, ka H200 NVL risinājums var ietilpt jebkurā datu centrā un piedāvā virkni elastīgu servera konfigurāciju, kas optimizētas jauktām HPC un AI darba slodzēm. Runājot par specifikācijām, Hopper H200 NVL risinājums nodrošina 1,5x HBM atmiņu, 1,7x LLM secinājumu veiktspēju un 1,3x HPC veiktspēju. Jūs saņemat 114 SM s kopā ar 14592 CUDA kodoliem, 456 tenzoru kodoliem un līdz pat 3 FP8 TFLOP (FP16 kumulatīvā) veiktspēju. GPU ir 80 Gb HBM2e atmiņa, kas konfigurēta 5120 bitu interfeisā, un tā TDP ir 350 vati. Kas attiecas uz TDP, tā kā Superchip modulis ir aptuveni 2700 W, sagaidiet, ka lielākais GB200 NVL4 risinājums patērēs tuvāk 6000 W.