Le Hopper H100 de Nvidia sur la photo, dispose de 80 Go de mémoire HBM3 et d’un VRM impressionnant

En bout de ligne : Nvidia a dévoilé son architecture Hopper au GTC 2022, annonçant l’accélérateur de serveur H100 mais n’en montrant que des rendus. Nous avons enfin quelques photos en main de la variante SXM de la carte, qui présente un TDP époustouflant de 700 W.
Cela fait un peu plus d’un mois que Nvidia a dévoilé son accélérateur de serveur H100 basé sur l’architecture Hopper, et jusqu’à présent, nous n’en avons vu que des rendus. Cela change aujourd’hui, car ServirLaMaison vient de partager des photos de la carte dans son facteur de forme SXM5.
Le GPU de calcul GH100 est fabriqué sur le nœud de processus N4 de TSMC et a une taille de matrice de 814 mm2. La variante SXM comprend 16896 cœurs FP32 CUDA, 528 cœurs Tensor et 80 Go de mémoire HBM3 connectés à l’aide d’un bus 5120 bits. Comme on peut le voir sur les images, il y a six piles de mémoire de 16 Go autour du GPU, mais l’une d’entre elles est désactivée.
Nvidia a également cité un TDP stupéfiant de 700 W, 75 % supérieur à son prédécesseur, il n’est donc pas surprenant que la carte soit livrée avec une solution VRM extrêmement impressionnante. Il comporte 29 inducteurs, chacun équipé de deux étages de puissance et de trois inducteurs supplémentaires avec un étage de puissance. Refroidir tous ces composants étroitement emballés sera probablement un défi.
Un autre changement notable est la disposition des connecteurs pour SXM5. Il existe désormais un connecteur mezzanine court et long, alors que les générations précédentes comportaient deux connecteurs plus longs de taille identique.
Nvidia commencera à expédier des systèmes équipés de H100 au troisième trimestre de cette année. Il convient de mentionner que la version PCIe du H100 est actuellement listé au Japon pour 4 745 950 yens (36 300 $) après taxes et expédition, bien qu’il ait moins de cœurs CUDA, une mémoire HBM2e déclassée et la moitié du TDP de la variante SXM.