NVIDIA frigiver ny AI-løsnings hardwareplatform

154
Den 19. november lancerede kunstig intelligens (AI)-chipproducenten NVIDIA officielt to nye AI-løsningshardwareplatforme, nemlig Blackwell GB200 NVL4 og Hopper H200 NVL. Blandt dem er NVIDIA GB200 NVL4 et helt nyt modul, som er en større udvidelse baseret på den originale GB200 Grace Blackwell Superchip AI-løsning. GB200 NVL4-modulet konfigurerer to Blackwell GB200 GPU'er på et større bundkort, det vil sige, at det har to Grace CPU'er og fire Blackwell B200 GPU'er. Modulet er designet som en enkelt serverløsning med 4-GPU NVLINK domæner og 1.3T sammenhængende hukommelse. Med hensyn til ydeevne vil modulet forbedre simuleringsydelsen med 2,2 gange og trænings- og slutningsevnen med 1,8 gange. NVIDIAs partnere vil levere NVL4-løsninger i de kommende måneder. Derudover er PCIe-baseret Hopper H200 NVL nu generelt tilgængelig, og disse kort kan forbinde op til 4 GPU'er via NVLINK-domænet, hvilket leverer op til 7 gange hurtigere båndbredde end standard PCIe-løsninger. Nvidia siger, at H200 NVL-løsningen kan passe ind i ethvert datacenter og tilbyder en række fleksible serverkonfigurationer, der er optimeret til blandede HPC- og AI-arbejdsbelastninger. Med hensyn til specifikationer giver Hopper H200 NVL-løsningen 1,5x HBM-hukommelse, 1,7x LLM-inferensydelse og 1,3x HPC-ydelse. Du får 114 SM'er for i alt 14592 CUDA-kerner, 456 tensorkerner og op til 3 FP8 TFLOP'er (FP16 kumulativ) ydeevne. GPU'en har 80 Gb HBM2e-hukommelse konfigureret på tværs af 5120-bit interface og har en TDP på 350 watt. Med hensyn til TDP, da Superchip-modulet er omkring 2700W, kan du forvente, at den større GB200 NVL4-løsning vil forbruge tættere på 6000W strøm.