O H100 convencional em 2024 será equipado com 80 GB HBM3, e o chip convencional em 2025 deverá ser equipado com 288 GB HBM3e

111
O H100 de 2024 será equipado com HBM3 de 80 GB. Espera-se que até 2025, chips convencionais como o Blackwell Ultra da NVIDIA ou o MI350 da AMD sejam equipados com até 288 GB de HBM3e, triplicando o uso da unidade. Com a forte demanda contínua no mercado de servidores de IA, espera-se que o fornecimento geral de HBM dobre até 2025, o que também impulsionará a demanda por CoWoS e HBM.