NVIDIA បញ្ចេញវេទិកាផ្នែករឹងដំណោះស្រាយ AI ថ្មី។

2024-12-27 18:03
 154
កាលពីថ្ងៃទី 19 ខែវិច្ឆិកា ក្រុមហ៊ុនផលិតបន្ទះឈីប NVIDIA របស់ Intelligence Intelligence (AI) បានដាក់ដំណើរការជាផ្លូវការនូវវេទិកាផ្នែករឹងដំណោះស្រាយ AI ថ្មីចំនួនពីរគឺ Blackwell GB200 NVL4 និង Hopper H200 NVL ។ ក្នុងចំនោមពួកគេ NVIDIA GB200 NVL4 គឺជាម៉ូឌុលថ្មីម៉ាកដែលជាការពង្រីកធំជាងមុនដោយផ្អែកលើដំណោះស្រាយ AI GB200 Grace Blackwell Superchip ដើម។ ម៉ូឌុល GB200 NVL4 កំណត់រចនាសម្ព័ន្ធ Blackwell GB200 GPUs ពីរនៅលើ motherboard ធំជាង ពោលគឺវាមាន CPU Grace ពីរ និង Blackwell B200 GPUs ចំនួនបួន។ ម៉ូឌុលនេះត្រូវបានរចនាឡើងជាដំណោះស្រាយម៉ាស៊ីនមេតែមួយជាមួយនឹងដែន 4-GPU NVLINK និងអង្គចងចាំជាប់គ្នា 1.3T ។ នៅក្នុងលក្ខខណ្ឌនៃការអនុវត្ត ម៉ូឌុលនឹងធ្វើឱ្យប្រសើរឡើងនូវការអនុវត្តការក្លែងធ្វើដោយ 2.2 ដង និងការបណ្តុះបណ្តាល និងការអនុវត្តការសន្និដ្ឋាន 1.8 ដង។ ដៃគូរបស់ NVIDIA នឹងផ្តល់ដំណោះស្រាយ NVL4 ក្នុងប៉ុន្មានខែខាងមុខនេះ។ លើសពីនេះទៀត Hopper H200 NVL ដែលមានមូលដ្ឋានលើ PCIe ឥឡូវនេះមានជាទូទៅ ហើយកាតទាំងនេះអាចភ្ជាប់រហូតដល់ 4 GPUs តាមរយៈដែន NVLINK ដោយផ្តល់នូវកម្រិតបញ្ជូនលឿនជាងដំណោះស្រាយ PCIe ស្តង់ដាររហូតដល់ 7 ដង។ Nvidia និយាយថាដំណោះស្រាយ H200 NVL អាចបញ្ចូលទៅក្នុងមជ្ឈមណ្ឌលទិន្នន័យណាមួយ និងផ្តល់នូវការកំណត់រចនាសម្ព័ន្ធម៉ាស៊ីនមេដែលអាចបត់បែនបានដែលត្រូវបានធ្វើឱ្យប្រសើរឡើងសម្រាប់បន្ទុកការងារ HPC និង AI ចម្រុះ។ នៅក្នុងលក្ខខណ្ឌនៃលក្ខណៈជាក់លាក់ ដំណោះស្រាយ Hopper H200 NVL ផ្តល់នូវអង្គចងចាំ 1.5x HBM, 1.7x LLM inference performance និង 1.3x HPC performance។ អ្នកទទួលបាន 114 SMs សម្រាប់សរុប 14592 CUDA cores 456 tensor cores និងរហូតដល់ 3 FP8 TFLOPs (FP16 cumulative)។ GPU មានអង្គចងចាំ 80 Gb HBM2e ដែលបានកំណត់រចនាសម្ព័ន្ធឆ្លងកាត់ចំណុចប្រទាក់ 5120 ប៊ីត និងមាន TDP នៃ 350 វ៉ាត់។ សម្រាប់ TDP ចាប់តាំងពីម៉ូឌុល Superchip មានប្រហែល 2700W រំពឹងថាដំណោះស្រាយ GB200 NVL4 ធំជាងនឹងប្រើប្រាស់ថាមពលជិត 6000W ។