Les premiers représentants devraient être les GPU GH100 et GH102 gravés en 5 nm par TSMC.
La GTC 2022 débute dans quelques heures et se tiendra tout au long de la semaine. Jensen Huang, le PDG de NVIDIA, s’exprimera demain en fin d’après-midi, à 16 heures. Les détails de l’intervention de Jensen Huang restent bien sûr incertains. Cependant, un article publié sur le site de NVIDIA et titré “Hopped Up: NVIDIA CEO, AI Leaders to Discuss Next Wave of AI at GTC” présage l’annonce de la nouvelle architecture graphique pour les cGPU, nom de code Hopper.
Ce nom d’architecture GPU doit vous être familier : nous l’avons évoqué pour la toute première fois en novembre 2019. À l’époque, nous pensions que Hopper succéderait à Ampere. Ce sera bien le cas, mais uniquement sur le secteur du HPC (High Performance Computing), autrement dit des accélérateurs GPU. Sur celui des cartes graphiques grand public GeForce, l’architecture pressentie pour succéder à Ampere est plutôt Ada Lovelace.
Les données dérobées à NVIDIA révèlent les prochaines architectures GPU : Ada, Hopper et Blackwell
N5, et un GPU MCM
Selon les données divulguées ces dernières semaines, les GPU Hopper bénéficieront d’une gravure en 5 nm par TSMC ; certaines pièces s’appuieraient sur une conception multi-die. Jusqu’ici, les fuites mentionnent essentiellement deux GPU, le GH100 et le GH102. Le GH100 serait basé sur un design monolithique, tandis que le GH102 serait construit à partir de deux GH100. D’ailleurs, dans un article publié aujourd’hui, VideoCardz désigne ce GPU MCM sous un autre nom : GH202.
Concernant les spécifications, elles sont très floues à ce stade. Des fuites ont annoncé 140 milliards de transistors et 17 152 cœurs CUDA pour le GPU GH100. Or, vous le constaterez grâce au tableau ci-dessous, de telles valeurs marquent un saut générationnel énorme par rapport au GPU A100. De notre côté, nous pensons qu’elles correspondent au GPU GH202/GH102 ; une fois divisées par deux (70 milliards de transistors et 8576 cœurs CUDA), elles paraissent plus cohérentes pour le GH100.
Série cGPU | NVIDIA H100 | NVIDIA A100 | NVIDIA Tesla V100 | NVIDIA Tesla P100 |
GPU | GH100 | GA100 | GV100 | GP100 |
Transistors | 140 milliards | 54,2 milliards | 21,1 milliards | 15,3 milliards |
Surface die | ~858+ mm² | 828 mm² | 815 mm² | 610 mm² |
Architecture | Hopper | Ampere | Volta | Pascal |
Noeud de fabrication | TSMC N5 | TSMC N7 | 12nm FFN | 16nm FinFET+ |
GPU Clusters | ~134 | 108 | 80 | 56 |
Coeurs CUDA | ~17152 | 6912 | 5120 | 3584 |
Coeurs Tensor | À déterminer | 432 | 320 | – |
L2 Cache | 48 Mo | 40 Mo | 6 Mo | 4 Mo |
Mémoire | 128 Go HBM3 (?) | 40/80 Go HBM2e | 16/32 Go HBM2 | 16 Go HBM2 |
Bus mémoire | 6144-bit (?) | 5120-bit | 4096-bit | 4096-bit |
TDP | 250-500W (?) | 250W/300W/400W | 250W/300W/450W | 250W/300W |
Interface | SXM4/PCIe (?) | SXM3/PCIe | SXM2/PCIe | SXM/PCIe |
Année de lancement | 2022 | 2020 | 2017 | 2016 |
Sources : NVIDIA, Tom’s Hardware US, VideoCardz