NVIDIA lanza una nueva plataforma de hardware para soluciones de IA

154
El 19 de noviembre, el fabricante de chips de inteligencia artificial (IA) NVIDIA lanzó oficialmente dos nuevas plataformas de hardware de soluciones de IA, a saber, Blackwell GB200 NVL4 y Hopper H200 NVL. Entre ellos, NVIDIA GB200 NVL4 es un módulo completamente nuevo, que es una expansión más grande basada en la solución de inteligencia artificial GB200 Grace Blackwell Superchip original. El módulo GB200 NVL4 configura dos GPU Blackwell GB200 en una placa base más grande, es decir, tiene dos CPU Grace y cuatro GPU Blackwell B200. El módulo está diseñado como una solución de servidor único con dominios NVLINK de 4 GPU y memoria coherente de 1,3 T. En términos de rendimiento, el módulo mejorará el rendimiento de la simulación 2,2 veces y el rendimiento del entrenamiento y la inferencia 1,8 veces. Los socios de NVIDIA proporcionarán soluciones NVL4 en los próximos meses. Además, Hopper H200 NVL basado en PCIe ya está disponible de forma generalizada y estas tarjetas pueden conectar hasta 4 GPU a través del dominio NVLINK, lo que ofrece un ancho de banda hasta 7 veces más rápido que las soluciones PCIe estándar. Nvidia afirma que la solución H200 NVL puede adaptarse a cualquier centro de datos y ofrece una gama de configuraciones de servidor flexibles optimizadas para cargas de trabajo mixtas de HPC e IA. En términos de especificaciones, la solución Hopper H200 NVL proporciona memoria HBM 1,5 veces, rendimiento de inferencia LLM 1,7 veces y rendimiento HPC 1,3 veces. Obtiene 114 SM para un total de 14592 núcleos CUDA, 456 núcleos tensoriales y hasta 3 rendimiento FP8 TFLOP (FP16 acumulativo). La GPU cuenta con una memoria HBM2e de 80 Gb configurada en una interfaz de 5120 bits y tiene un TDP de 350 vatios. En cuanto al TDP, dado que el módulo Superchip tiene alrededor de 2700 W, se espera que la solución GB200 NVL4 más grande consuma cerca de 6000 W de energía.