NVIDIA が新しい AI ソリューション ハードウェア プラットフォームをリリース

154
11 月 19 日、人工知能 (AI) チップ メーカー NVIDIA は、Blackwell GB200 NVL4 と Hopper H200 NVL という 2 つの新しい AI ソリューション ハードウェア プラットフォームを正式に発表しました。その中で、NVIDIA GB200 NVL4 は新しいモジュールであり、オリジナルの GB200 Grace Blackwell Superchip AI ソリューションをベースにした大規模な拡張です。 GB200 NVL4 モジュールは、より大きなマザーボード上に 2 つの Blackwell GB200 GPU を構成します。つまり、2 つの Grace CPU と 4 つの Blackwell B200 GPU を備えています。このモジュールは、4 GPU NVLINK ドメインと 1.3T コヒーレント メモリを備えた単一サーバー ソリューションとして設計されています。パフォーマンスの面では、このモジュールによりシミュレーションのパフォーマンスが 2.2 倍、トレーニングと推論のパフォーマンスが 1.8 倍向上します。 NVIDIA のパートナーは今後数か月以内に NVL4 ソリューションを提供する予定です。さらに、PCIe ベースの Hopper H200 NVL が一般提供され、これらのカードは NVLINK ドメイン経由で最大 4 つの GPU に接続でき、標準の PCIe ソリューションよりも最大 7 倍高速な帯域幅を実現します。 Nvidia によれば、H200 NVL ソリューションはあらゆるデータセンターに適合し、HPC と AI の混合ワークロードに最適化された幅広い柔軟なサーバー構成を提供します。仕様に関しては、Hopper H200 NVL ソリューションは 1.5 倍の HBM メモリ、1.7 倍の LLM 推論パフォーマンス、1.3 倍の HPC パフォーマンスを提供します。合計 14592 CUDA コア、456 テンソル コア、および最大 3 FP8 TFLOP (FP16 累積) のパフォーマンスに対して 114 個の SM が得られます。 GPU は、5120 ビット インターフェイスにわたって構成された 80 Gb HBM2e メモリを備え、TDP は 350 ワットです。 TDP に関しては、Superchip モジュールは約 2700W であるため、より大きな GB200 NVL4 ソリューションは 6000W 近くの電力を消費すると予想されます。