Le H100 grand public en 2024 sera équipé de 80 Go de HBM3, et la puce grand public en 2025 devrait être équipée de 288 Go de HBM3e

2024-07-22 11:30
 111
Le H100 grand public 2024 sera équipé d'un HBM3 de 80 Go. D'ici 2025, les puces grand public telles que le Blackwell Ultra de NVIDIA ou le MI350 d'AMD devraient être équipées jusqu'à 288 Go de HBM3e, triplant ainsi l'utilisation de l'unité. Avec la forte demande continue sur le marché des serveurs d'IA, l'offre globale de HBM devrait doubler d'ici 2025, ce qui stimulera également la demande de CoWoS et de HBM.