Les prochaines GeForce RTX 4000 Series pourraient rester sur du PCI-Express 4.0 et ne pas utiliser la nouvelle version de l’interface.
Si le PCI-Express 5.0 a fait son apparition il y a quelques mois déjà sur le marché avec la plateforme Z690 d’Intel destinée aux processeurs Alder Lake, il semblerait que les futures GeForce RTX 4000 Series de NVIDIA n’utilisent pas cette nouvelle version de l’interface, supportant “seulement” le PCI-Express 4.0.
Le PCI-Express 4.0 serait suffisant
C’est d’autant plus surprenant que le constructeur a dévoilé en mars dernier son architecture Hopper, supportant elle le PCI-Express 5.0. La norme offre pour rappel une bande passante maximale de 128 Go/s avec 16 lignes (64 Go/s dans chaque direction), contre la moitié pour le PCI-Express 4.0. Il s’agit pour le moment de simple rumeurs, mais cela pourrait indiquer deux choses : tout d’abord, la bande passante actuelle d’un port PCI-Express 4.0 16x serait a priori suffisante pour la future GeForce RTX 4090 et son chipset AD102. NVIDIA pourrait également estimer que l’interface PCI-Express 5.0 n’est pas encore assez implantée sur le marché, malgré le lancement des Ryzen 7000 d’AMD qui devraient eux aussi prendre en charge cette nouvelle norme.
GeForce RTX 40 Series | Radeon RX 7900 – Class | |
---|---|---|
Gravure | TSMC N5 | TSMC N5/N6 |
Architecture | NVIDIA Ada Lovelace | AMD RDNA3 |
Packaging | Monolithique | Multi-Chip-Module (MCM) |
Taille GPU | ~600mm² | ~800mm² |
Dies | 1 | 2 GCD + 4 MCD + 1 IOD |
Mega Clusters | 12 Graphics Processing Clusters (GPC) | 2×3 Shader Engines |
Super Clusters | 72 Texture Processing Clusters (TPC) | 2×30 RDNA Workgroups (WGP) |
GPU Clusters | 144 Streaming Multiprocessors (SM) | – |
Coeurs FP32 | 18432 CUDA Cores | 15360 Stream Processors |
Fréquence GPU | ~ 2.2 GHz | ~ 2.5 GHz |
Mémoire | 24 Go GDDR6X | GDDR6 |
Bus | 384-bit | 256-bit |
Cache | 96 Mo | 256 or 512MB Infinity Cache |
Interface | PCIe Gen4 (?) | ? |
Consommation | 600W (TDP) | 500W (TBP) |
Date lancement | T3/T4 2022 | T3/T4 2022 |
Rappelons toutefois que même si la prochaine génération de cartes graphiques grand public de NVIDIA reste sur du PCI-Express 4.0 côté interface, elle utilisera en revanche bel et bien le nouveau connecteur PCI-Express 5.0 16-pins capable de délivrer jusqu’à 600W en continu.
Source : VideoCardz
Avant de parler de PCIE avec un GPU il faut savoir et connaître son utilité de base.
Sachant que le 3.0 était à 8GT/s environ 64GB/s et que le 4.0 est le double soit 16GT/s donc 128GB/s.
L’utilité d’une telle bande passante a tout d’abord été désignée pour le traitement de données et non pas pour un gain de performances de vos GPU ça n’a absolument rien à voir. N’oubliez pas qu’au final, la vitesse max exportée de votre GPU à l’écran est selon votre câble qui est limitée entre 48GB/s pour HDMI 2.1 et 80GB/s pour DisplayPort 2.0 pour autant que l’écran soit capable d’en recevoir le débit en fonction de la résolution/taux de rafraîchissement/profondeur de couleurs.
En outre, vos jeux même si vous avez du PCIE 4.0 avec la dernière bestiole 3090 Ti ne dépasseront pas les limites de 80GB/s même si votre carte graphique est en théorie capable d’aller plus loin. Donc oui pour aller en PCIE 4.0 mais pas suffisant pour du 5.0.
Avant de parler du PCIe 5.0, déjà, il faut évoluer nos écrans, câbles et pourquoi pas aussi rajouter un disque dur embarqué dans le GPU qui lui serait dédié. Là oui, le slot pourrait éventuellement impacter les performances maximales de votre GPU.
Aucun rapport.
La bande passante pour l’affichage ne sert (globalement, c’est un peu à nuancer suivant les modes de transferts) qu’à… afficher. 3840 pixels x 2160 pixels x 10-bit par couleur x 3 couleurs x 120 images dessinées par seconde = quasiment 30 Gbps (non compressé) rien que pour afficher des pixels en 4K 10-bit à 120 Hz.
La bande passante du bus système entre le GPU/VRAM et le CPU/RAM/autre sert à transférer des données “brutes” qui vont être traitées par le GPU. Autrement dit, de manière caricaturale et extrême, tu peux avoir besoin de 200 Go de données diverses et variées (assets, maps, textures,…) pour n’afficher à la fin qu’un seul pixel, dont t’as tout intérêt à ce que le bus système ne représente pas un goulot d’étranglement pour éviter au maximum que le GPU “se tourne les pouces” en attendant que les données dont il a besoin soient présentes en VRAM.
Quant à l’idée de coller un disque dur sur une carte graphique, au delà de l’inutilité du truc, ce n’est surement pas ça qui va saturer le bus PCI-Express 😀