Główny model H100 w 2024 r. będzie wyposażony w 80 GB pamięci HBM3, a główny model w 2025 r. ma być wyposażony w 288 GB pamięci HBM3e

111
Model H100 z 2024 r. będzie wyposażony w pamięć HBM3 o pojemności 80 GB. Oczekuje się, że do 2025 roku popularne układy scalone, takie jak Blackwell Ultra firmy NVIDIA czy MI350 firmy AMD, zostaną wyposażone w nawet 288 GB pamięci HBM3e, co potroi wykorzystanie tej pamięci. Biorąc pod uwagę wciąż duży popyt na rynku serwerów AI, szacuje się, że całkowita podaż HBM wzrośnie dwukrotnie do 2025 r., co również wpłynie na wzrost popytu na CoWoS i HBM.