Az NVIDIA új AI-megoldó hardverplatformot ad ki

154
November 19-én a mesterséges intelligencia (AI) chipeket gyártó NVIDIA hivatalosan is elindította két új mesterséges intelligencia-megoldás hardverplatformját, a Blackwell GB200 NVL4-et és a Hopper H200 NVL-t. Közülük az NVIDIA GB200 NVL4 egy vadonatúj modul, amely az eredeti GB200 Grace Blackwell Superchip AI megoldáson alapuló nagyobb bővítmény. A GB200 NVL4 modul két Blackwell GB200 GPU-t konfigurál egy nagyobb alaplapon, vagyis két Grace CPU-val és négy Blackwell B200 GPU-val rendelkezik. A modul egyetlen szerveres megoldásnak készült, 4 GPU NVLINK tartományokkal és 1.3T koherens memóriával. A teljesítményt tekintve a modul 2,2-szeresére javítja a szimulációs teljesítményt, a képzési és következtetési teljesítményt pedig 1,8-szorosára. Az NVIDIA partnerei az elkövetkező hónapokban NVL4 megoldásokat fognak kínálni. Ezenkívül a PCIe-alapú Hopper H200 NVL már általánosan elérhető, és ezek a kártyák akár 4 GPU-t is csatlakoztathatnak az NVLINK tartományon keresztül, így akár hétszer gyorsabb sávszélességet biztosítanak, mint a szabványos PCIe megoldások. Az Nvidia szerint a H200 NVL megoldás bármilyen adatközpontba beilleszthető, és rugalmas szerverkonfigurációkat kínál vegyes HPC és AI munkaterhelésre optimalizálva. A specifikációkat tekintve a Hopper H200 NVL megoldás 1,5x HBM memóriát, 1,7x LLM következtetési teljesítményt és 1,3x HPC teljesítményt biztosít. 114 SM-et kap összesen 14592 CUDA magért, 456 tenzormagért és akár 3 FP8 TFLOP (FP16 kumulatív) teljesítményért. A GPU 80 Gb HBM2e memóriával rendelkezik, 5120 bites interfészen keresztül, TDP-je pedig 350 Watt. Ami a TDP-t illeti, mivel a Superchip modul 2700 W körüli teljesítményű, a nagyobb GB200 NVL4 megoldás várhatóan 6000 W-ot fog fogyasztani.