NVIDIA משחררת פלטפורמת חומרה חדשה של פתרונות AI

154
ב-19 בנובמבר, יצרנית שבבי הבינה המלאכותית (AI) NVIDIA השיקה רשמית שתי פלטפורמות חומרה חדשות של פתרונות AI, כלומר Blackwell GB200 NVL4 ו- Hopper H200 NVL. ביניהם, NVIDIA GB200 NVL4 הוא מודול חדש לגמרי, שהוא הרחבה גדולה יותר המבוססת על פתרון ה-AI המקורי GB200 Grace Blackwell Superchip. מודול GB200 NVL4 מגדיר שני Blackwell GB200 GPUs על לוח אם גדול יותר, כלומר יש לו שני CPUs Grace וארבעה Blackwell B200 GPUs. המודול מתוכנן כפתרון שרת יחיד עם דומיינים של 4-GPU NVLINK וזיכרון קוהרנטי של 1.3T. מבחינת ביצועים, המודול ישפר את ביצועי הסימולציה פי 2.2 ואת ביצועי האימון וההסקות פי 1.8. השותפים של NVIDIA יספקו פתרונות NVL4 בחודשים הקרובים. בנוסף, Hopper H200 NVL מבוסס PCIe זמין כעת באופן כללי, וכרטיסים אלה יכולים לחבר עד 4 GPUs דרך תחום NVLINK, ומספקים עד פי 7 רוחב פס מהיר יותר מפתרונות PCIe סטנדרטיים. Nvidia אומרת שפתרון H200 NVL יכול להשתלב בכל מרכז נתונים ומציע מגוון של תצורות שרת גמישות המותאמות לעומסי עבודה מעורבים של HPC ו-AI. מבחינת מפרטים, פתרון ה-Hopper H200 NVL מספק 1.5x זיכרון HBM, 1.7x ביצועי מסקנות LLM וביצועים של 1.3x HPC. אתה מקבל 114 SMs עבור סך של 14592 ליבות CUDA, 456 ליבות טנזור ועד 3 FP8 TFLOPs (FP16 מצטבר). ה-GPU כולל זיכרון HBM2e של 80 ג'יגה-בתים המוגדר על פני ממשק 5120 סיביות ויש לו TDP של 350 וואט. באשר ל-TDP, מכיוון שמודול ה-Superchip הוא סביב 2700W, צפו שהפתרון הגדול יותר של GB200 NVL4 יצרוך קרוב יותר ל-6000W של חשמל.