NVIDIA veröffentlicht neue Hardwareplattform für KI-Lösungen

154
Am 19. November stellte NVIDIA, Hersteller von Chips für künstliche Intelligenz (KI), offiziell zwei neue Hardwareplattformen für KI-Lösungen vor, nämlich Blackwell GB200 NVL4 und Hopper H200 NVL. Darunter ist NVIDIA GB200 NVL4 ein brandneues Modul, das eine größere Erweiterung basierend auf der ursprünglichen GB200 Grace Blackwell Superchip AI-Lösung darstellt. Das GB200 NVL4-Modul konfiguriert zwei Blackwell GB200-GPUs auf einem größeren Motherboard, das heißt, es verfügt über zwei Grace-CPUs und vier Blackwell B200-GPUs. Das Modul ist als Einzelserverlösung mit 4-GPU-NVLINK-Domänen und 1,3T kohärentem Speicher konzipiert. In Bezug auf die Leistung wird das Modul die Simulationsleistung um das 2,2-fache und die Trainings- und Inferenzleistung um das 1,8-fache verbessern. Die Partner von NVIDIA werden in den kommenden Monaten NVL4-Lösungen bereitstellen. Darüber hinaus ist der PCIe-basierte Hopper H200 NVL jetzt allgemein verfügbar. Diese Karten können bis zu 4 GPUs über die NVLINK-Domäne verbinden und bieten so eine bis zu 7-mal schnellere Bandbreite als Standard-PCIe-Lösungen. Laut Nvidia passt die H200 NVL-Lösung in jedes Rechenzentrum und bietet eine Reihe flexibler Serverkonfigurationen, die für gemischte HPC- und KI-Workloads optimiert sind. In Bezug auf die Spezifikationen bietet die Hopper H200 NVL-Lösung 1,5-fache HBM-Speicherleistung, 1,7-fache LLM-Inferenzleistung und 1,3-fache HPC-Leistung. Sie erhalten 114 SMs für insgesamt 14592 CUDA-Kerne, 456 Tensorkerne und bis zu 3 FP8 TFLOPs (FP16 kumulativ) Leistung. Die GPU verfügt über 80 GB HBM2e-Speicher, der über eine 5120-Bit-Schnittstelle konfiguriert ist, und hat eine TDP von 350 Watt. Da das Superchip-Modul eine TDP von etwa 2700 W hat, ist davon auszugehen, dass die größere GB200 NVL4-Lösung eine Leistung von etwa 6000 W verbraucht.