Le GPU GA102 des RTX 3090 et RTX 3080 \u00e9tudi\u00e9 via une photographie infrarouge<\/a><\/strong><\/p>\n\n\n\nDu 5 nm, mais pas de MCM<\/h2>\n\n\n\n Le tableau comparatif \u00e9labor\u00e9 par VideoCardz met en avant l’\u00e9volution entre Turing et Ampere. Bien s\u00fbr, les valeurs pour Lovelace ne sont, \u00e0 ce stade, que sp\u00e9culatives.<\/p>\n\n\n\nGPU<\/td> Lovelace AD102<\/td> Ampere GA102<\/td> Turing TU102<\/td><\/tr> N\u0153ud de fabrication<\/td> 5 nm Samsung ?<\/td> 8 nm Samsung<\/td> 12 nm TSMC<\/td><\/tr> Graphics Processing Clusters (GPC)<\/td> 12<\/td> 7<\/td> 6<\/td><\/tr> Texture Processing Cluster (TPC)<\/td> 72<\/td> 42<\/td> 36<\/td><\/tr> Streaming Multiprocessors (SM)<\/td> 144<\/td> 84<\/td> 72<\/td><\/tr> C\u0153urs CUDA (FP32)<\/td> 18432<\/td> 10752<\/td> 4608<\/td><\/tr> Performance FP32 \u00e0 1,8 GHz<\/td> 66,4 TFLOPS<\/td> 38,7 TFLOPS<\/td> 16,6 TFLOPS<\/td><\/tr> Bus m\u00e9moire<\/td> 384-bit?<\/td> 384-bit<\/td> 384-bit<\/td><\/tr> Type m\u00e9moire<\/td> GDDR6X ?<\/td> GDDR6X<\/td> GDDR6<\/td><\/tr><\/tbody><\/table><\/div><\/figure>\n\n\n\nL\u2019architecture GPU Lovelace serait synonyme d\u2019une gravure non plus en 8 nm, mais en 5 nm. En revanche, contrairement \u00e0 Hooper, Ada Lovelace s\u2019appuierait toujours sur une architecture dite monolithique plut\u00f4t que MCM (Multi-Chip Module<\/em>).<\/p>\n\n\n\nRecevez ces pr\u00e9dictions avec la prudence de rigueur. Toutefois, si deux ans se sont \u00e9coul\u00e9s entre Turing et Ampere, certains observateurs pensent que le d\u00e9lai entre Ampere et Lovelace serait plus court. La raison : la puissance “inattendue” des GPU RDNA 2 d\u2019AMD, et la n\u00e9cessit\u00e9 pour NVIDIA de passer rapidement \u00e0 une nouvelle g\u00e9n\u00e9ration encore plus comp\u00e9titive pour maintenir son leadership. De fait, il est probable que la soci\u00e9t\u00e9 ait d\u00e9j\u00e0 eu \u00e0 recomposer sa gamme RTX 3000 en tenant compte de l\u2019arriv\u00e9e des GPU Big Navi. De l\u00e0 \u00e0 carr\u00e9ment envisager une architecture GPU impr\u00e9vue…<\/p>\n\n\n\n