NVIDIA lanserer ny maskinvareplattform for AI-løsninger

2024-12-27 18:03
 154
Den 19. november lanserte brikkeprodusenten for kunstig intelligens (AI) NVIDIA offisielt to nye maskinvareplattformer for AI-løsninger, nemlig Blackwell GB200 NVL4 og Hopper H200 NVL. Blant dem er NVIDIA GB200 NVL4 en helt ny modul, som er en større utvidelse basert på den originale GB200 Grace Blackwell Superchip AI-løsningen. GB200 NVL4-modulen konfigurerer to Blackwell GB200 GPUer på et større hovedkort, det vil si at den har to Grace CPUer og fire Blackwell B200 GPUer. Modulen er designet som en enkelt serverløsning med 4-GPU NVLINK-domener og 1,3T sammenhengende minne. Når det gjelder ytelse, vil modulen forbedre simuleringsytelsen med 2,2 ganger og trenings- og slutningsytelsen med 1,8 ganger. NVIDIAs partnere vil levere NVL4-løsninger i løpet av de kommende månedene. I tillegg er PCIe-baserte Hopper H200 NVL nå generelt tilgjengelig, og disse kortene kan koble til opptil 4 GPUer via NVLINK-domenet, og leverer opptil 7 ganger raskere båndbredde enn standard PCIe-løsninger. Nvidia sier at H200 NVL-løsningen kan passe inn i ethvert datasenter og tilbyr en rekke fleksible serverkonfigurasjoner optimalisert for blandede HPC- og AI-arbeidsbelastninger. Når det gjelder spesifikasjoner, gir Hopper H200 NVL-løsningen 1,5x HBM-minne, 1,7x LLM-slutningsytelse og 1,3x HPC-ytelse. Du får 114 SM-er for totalt 14592 CUDA-kjerner, 456 tensorkjerner og opptil 3 FP8 TFLOP-er (FP16 kumulativ) ytelse. GPUen har 80 Gb HBM2e-minne konfigurert over 5120-bits grensesnitt og har en TDP på ​​350 watt. Når det gjelder TDP, siden Superchip-modulen er på rundt 2700W, kan du forvente at den større GB200 NVL4-løsningen bruker nærmere 6000W strøm.