NVIDIA verëffentlecht nei AI Léisung Hardware Plattform

154
Den 19. November huet kënschtlech Intelligenz (AI) Chip Hiersteller NVIDIA offiziell zwou nei AI Léisung Hardware Plattformen gestart, nämlech Blackwell GB200 NVL4 an Hopper H200 NVL. Ënnert hinnen ass NVIDIA GB200 NVL4 e fuschneie Modul, deen eng méi grouss Expansioun baséiert op der ursprénglecher GB200 Grace Blackwell Superchip AI Léisung. De GB200 NVL4 Modul konfiguréiert zwee Blackwell GB200 GPUs op engem gréissere Motherboard, dat heescht, et huet zwee Grace CPUs a véier Blackwell B200 GPUs. De Modul ass entworf als eenzeg Server Léisung mat 4-GPU NVLINK Domainen an 1.3T kohärent Erënnerung. Wat d'Performance ugeet, wäert de Modul d'Simulatiounsleistung ëm 2,2 Mol verbesseren an d'Ausbildung an d'Inferenzleistung ëm 1,8 Mol. D'NVIDIA Partner wäerten an den nächste Méint NVL4 Léisungen ubidden. Zousätzlech ass PCIe-baséiert Hopper H200 NVL elo allgemeng verfügbar, an dës Kaarte kënne bis zu 4 GPUs iwwer den NVLINK Domain verbannen, bis zu 7x méi séier Bandbreedung liwweren wéi Standard PCIe Léisungen. Nvidia seet datt d'H200 NVL-Léisung an all Datenzenter passt a bitt eng Rei vu flexiblen Serverkonfiguratiounen optimiséiert fir gemëschte HPC an AI Workloads. Wat d'Spezifikatioune ugeet, bitt d'Hopper H200 NVL Léisung 1.5x HBM Memory, 1.7x LLM Inferenzleistung, an 1.3x HPC Leeschtung. Dir kritt 114 SMs fir insgesamt 14592 CUDA Cores, 456 Tensor Cores a bis zu 3 FP8 TFLOPs (FP16 kumulativ) Leeschtung. D'GPU huet 80 Gb HBM2e Memory konfiguréiert iwwer 5120-Bit Interface an huet en TDP vun 350 Watt. Wat den TDP ugeet, well de Superchip Modul ongeféier 2700W ass, erwaarden datt déi méi grouss GB200 NVL4 Léisung méi no bei 6000W Kraaft verbraucht.