Ang mainstream H100 sa 2024 ay magkakaroon ng 80GB HBM3, at ang mainstream chip sa 2025 ay inaasahang magkakaroon ng 288GB HBM3e

111
Ang 2024 mainstream H100 ay nilagyan ng 80GB HBM3. Sa pamamagitan ng 2025, ang mga mainstream chips gaya ng NVIDIA's Blackwell Ultra o AMD's MI350 ay inaasahang magkakaroon ng hanggang 288GB ng HBM3e, na tripling ang unit usage. Sa patuloy na malakas na demand sa AI server market, ang kabuuang supply ng HBM ay inaasahang magdodoble sa 2025, na magtutulak din sa demand para sa CoWoS at HBM.