NVIDIA lança nova plataforma de hardware para solução de IA

154
Em 19 de novembro, a fabricante de chips de inteligência artificial (IA) NVIDIA lançou oficialmente duas novas plataformas de hardware de solução de IA, nomeadamente Blackwell GB200 NVL4 e Hopper H200 NVL. Entre eles, NVIDIA GB200 NVL4 é um módulo totalmente novo, que é uma expansão maior baseada na solução original GB200 Grace Blackwell Superchip AI. O módulo GB200 NVL4 configura duas GPUs Blackwell GB200 em uma placa-mãe maior, ou seja, possui duas CPUs Grace e quatro GPUs Blackwell B200. O módulo foi projetado como uma solução de servidor único com domínios NVLINK de 4 GPU e memória coerente de 1,3T. Em termos de desempenho, o módulo melhorará o desempenho da simulação em 2,2 vezes e o desempenho do treinamento e inferência em 1,8 vezes. Os parceiros da NVIDIA fornecerão soluções NVL4 nos próximos meses. Além disso, o Hopper H200 NVL baseado em PCIe já está disponível para o público geral, e essas placas podem conectar até 4 GPUs por meio do domínio NVLINK, oferecendo largura de banda até 7x mais rápida do que as soluções PCIe padrão. A Nvidia afirma que a solução H200 NVL pode caber em qualquer data center e oferece uma variedade de configurações de servidor flexíveis otimizadas para cargas de trabalho mistas de HPC e IA. Em termos de especificações, a solução Hopper H200 NVL oferece 1,5x de memória HBM, 1,7x de desempenho de inferência LLM e 1,3x de desempenho de HPC. Você obtém 114 SMs para um total de 14.592 núcleos CUDA, 456 núcleos tensores e desempenho de até 3 FP8 TFLOPs (FP16 cumulativo). A GPU possui memória HBM2e de 80 Gb configurada em interface de 5120 bits e tem um TDP de 350 Watts. Quanto ao TDP, como o módulo Superchip tem cerca de 2.700 W, espera-se que a solução GB200 NVL4 maior consuma cerca de 6.000 W de energia.