NVIDIA เปิดตัวแพลตฟอร์มฮาร์ดแวร์โซลูชัน AI ใหม่

154
เมื่อวันที่ 19 พฤศจิกายน ผู้ผลิตชิปปัญญาประดิษฐ์ (AI) NVIDIA ได้เปิดตัวแพลตฟอร์มฮาร์ดแวร์โซลูชัน AI ใหม่อย่างเป็นทางการสองแพลตฟอร์ม ได้แก่ Blackwell GB200 NVL4 และ Hopper H200 NVL ในบรรดานั้น NVIDIA GB200 NVL4 เป็นโมดูลใหม่ล่าสุด ซึ่งเป็นส่วนขยายที่ใหญ่กว่าโดยอิงจากโซลูชัน GB200 Grace Blackwell Superchip AI ดั้งเดิม โมดูล GB200 NVL4 กำหนดค่า GPU Blackwell GB200 สองตัวบนมาเธอร์บอร์ดขนาดใหญ่ กล่าวคือ มี Grace CPU สองตัวและ GPU Blackwell B200 สี่ตัว โมดูลนี้ได้รับการออกแบบให้เป็นโซลูชันเซิร์ฟเวอร์เดียวที่มีโดเมน 4-GPU NVLINK และหน่วยความจำเชื่อมโยงกัน 1.3T ในแง่ของประสิทธิภาพ โมดูลจะปรับปรุงประสิทธิภาพการจำลอง 2.2 เท่า และประสิทธิภาพการฝึกอบรมและการอนุมาน 1.8 เท่า พันธมิตรของ NVIDIA จะนำเสนอโซลูชั่น NVL4 ในอีกไม่กี่เดือนข้างหน้า นอกจากนี้ Hopper H200 NVL ที่ใช้ PCIe มีวางจำหน่ายทั่วไปแล้ว และการ์ดเหล่านี้สามารถเชื่อมต่อ GPU ได้สูงสุด 4 ตัวผ่านโดเมน NVLINK ซึ่งให้แบนด์วิดท์ที่เร็วกว่าโซลูชัน PCIe มาตรฐานถึง 7 เท่า Nvidia กล่าวว่าโซลูชัน H200 NVL สามารถติดตั้งกับศูนย์ข้อมูลใดก็ได้และมีการกำหนดค่าเซิร์ฟเวอร์ที่ยืดหยุ่นหลากหลายซึ่งปรับให้เหมาะสมสำหรับปริมาณงาน HPC และ AI แบบผสม ในแง่ของข้อมูลจำเพาะ โซลูชัน Hopper H200 NVL มอบหน่วยความจำ HBM 1.5 เท่า ประสิทธิภาพการอนุมาน LLM 1.7 เท่า และประสิทธิภาพ HPC 1.3 เท่า คุณจะได้รับ 114 SM สำหรับแกน CUDA ทั้งหมด 14592 คอร์, เทนเซอร์คอร์ 456 คอร์ และประสิทธิภาพ FP8 TFLOP สูงสุด 3 ตัว (สะสม FP16) GPU มีหน่วยความจำ HBM2e ขนาด 80 Gb ที่กำหนดค่าไว้ทั่วทั้งอินเทอร์เฟซ 5120 บิต และมี TDP ที่ 350 วัตต์ สำหรับ TDP เนื่องจากโมดูล Superchip อยู่ที่ประมาณ 2,700W คาดว่าโซลูชัน GB200 NVL4 ที่ใหญ่กว่าจะกินไฟเกือบถึง 6,000W