NVIDIA yeni AI həlli aparat platformasını buraxır

2024-12-27 18:03
 154
Noyabrın 19-da süni intellekt (AI) çip istehsalçısı NVIDIA rəsmi olaraq iki yeni AI həlli aparat platformasını, yəni Blackwell GB200 NVL4 və Hopper H200 NVL-ni təqdim etdi. Onların arasında NVIDIA GB200 NVL4, orijinal GB200 Grace Blackwell Superchip AI həllinə əsaslanan daha böyük bir genişləndirmə olan tamamilə yeni moduldur. GB200 NVL4 modulu daha böyük anakartda iki Blackwell GB200 GPU-nu konfiqurasiya edir, yəni iki Grace CPU və dörd Blackwell B200 GPU-ya malikdir. Modul 4-GPU NVLINK domenləri və 1.3T koherent yaddaşı olan tək server həlli kimi dizayn edilmişdir. Performans baxımından modul simulyasiya performansını 2,2 dəfə, təlim və nəticə çıxarma performansını isə 1,8 dəfə yaxşılaşdıracaq. NVIDIA-nın tərəfdaşları yaxın aylarda NVL4 həlləri təqdim edəcəklər. Əlavə olaraq, PCIe əsaslı Hopper H200 NVL indi ümumiyyətlə mövcuddur və bu kartlar NVLINK domeni vasitəsilə 4-ə qədər GPU-ya qoşula bilər və standart PCIe həllərindən 7 dəfə daha sürətli bant genişliyi təmin edir. Nvidia deyir ki, H200 NVL həlli istənilən məlumat mərkəzinə uyğunlaşa bilər və qarışıq HPC və AI iş yükləri üçün optimallaşdırılmış bir sıra çevik server konfiqurasiyaları təklif edir. Spesifikasiyalar baxımından Hopper H200 NVL həlli 1.5x HBM yaddaşı, 1.7x LLM nəticə çıxarma performansı və 1.3x HPC performansını təmin edir. Siz cəmi 14592 CUDA nüvəsi, 456 tensor nüvəsi və 3 FP8 TFLOP (FP16 məcmu) performansı üçün 114 SM əldə edirsiniz. GPU 5120-bit interfeys üzərində konfiqurasiya edilmiş 80 Gb HBM2e yaddaşa malikdir və 350 Vatt TDP-yə malikdir. TDP-yə gəlincə, Superchip modulu təxminən 2700W olduğundan, daha böyük GB200 NVL4 həllinin 6000W-a yaxın güc sərf edəcəyini gözləyin.