NVIDIA выпускает новую аппаратную платформу для решений искусственного интеллекта

154
19 ноября производитель чипов искусственного интеллекта (ИИ) NVIDIA официально представил две новые аппаратные платформы для решений ИИ, а именно Blackwell GB200 NVL4 и Hopper H200 NVL. Среди них NVIDIA GB200 NVL4 — это совершенно новый модуль, который представляет собой более крупное расширение, основанное на оригинальном AI-решении GB200 Grace Blackwell Superchip. Модуль GB200 NVL4 включает два графических процессора Blackwell GB200 на материнской плате большего размера, то есть он имеет два процессора Grace и четыре графических процессора Blackwell B200. Модуль спроектирован как единое серверное решение с доменами NVLINK из 4 графических процессоров и когерентной памятью 1,3 Тб. С точки зрения производительности модуль улучшит производительность моделирования в 2,2 раза, а производительность обучения и вывода — в 1,8 раза. Партнеры NVIDIA предоставят решения NVL4 в ближайшие месяцы. Кроме того, теперь общедоступна карта Hopper H200 NVL на базе PCIe, и эти карты могут подключать до 4 графических процессоров через домен NVLINK, обеспечивая пропускную способность в 7 раз выше, чем стандартные решения PCIe. Nvidia заявляет, что решение H200 NVL может вписаться в любой центр обработки данных и предлагает ряд гибких конфигураций серверов, оптимизированных для смешанных рабочих нагрузок HPC и AI. Что касается технических характеристик, решение Hopper H200 NVL обеспечивает увеличение производительности памяти HBM в 1,5 раза, производительность вывода LLM в 1,7 раза и производительность HPC в 1,3 раза. Вы получаете 114 SM, в общей сложности 14592 ядер CUDA, 456 тензорных ядер и производительность до 3 FP8 TFLOP (в совокупности FP16). Графический процессор оснащен памятью HBM2e объемом 80 ГБ, настроенной через 5120-битный интерфейс, и имеет TDP 350 Вт. Что касается TDP, поскольку мощность модуля Superchip составляет около 2700 Вт, можно ожидать, что более крупное решение GB200 NVL4 будет потреблять около 6000 Вт мощности.