{"id":61287,"date":"2008-06-16T13:22:22","date_gmt":"2008-06-16T11:22:22","guid":{"rendered":"https:\/\/cms.galaxiemedia.fr\/tomshardware\/2008\/06\/16\/geforce-gtx-260-et-280-les-nouvelles-references\/"},"modified":"2023-07-30T23:59:36","modified_gmt":"2023-07-30T21:59:36","slug":"geforce-gtx-260-et-280-les-nouvelles-references","status":"publish","type":"post","link":"https:\/\/www.tomshardware.fr\/geforce-gtx-260-et-280-les-nouvelles-references\/","title":{"rendered":"GeForce GTX 260 et 280 : les nouvelles r\u00e9f\u00e9rences ?"},"content":{"rendered":"\n

Introduction<\/h2>\n\n\n\n

\nPlus d\u2019un an et demi : c\u2019est la p\u00e9riode durant laquelle la 8800 GTX<\/a> sera rest\u00e9e ce que l\u2019on peut qualifier de haut de gamme de NVIDIA. Oh bien s\u00fbr, six mois apr\u00e8s sa sortie et, heureuse co\u00efncidence, juste avant l\u2019arriv\u00e9e du R600, on a bien vu d\u00e9barquer une 8800 Ultra offrant des fr\u00e9quences l\u00e9g\u00e8rement sup\u00e9rieures, mais rien de folichon. Il y a deux mois et demi, l\u2019arriv\u00e9e de la 9800 GTX laissait pr\u00e9sager d\u2019une augmentation substantielle de performance mais au final cette carte n\u2019offrait qu\u2019un gain limit\u00e9 sur notre bonne vieille GTX et restait derri\u00e8re la version Ultra. Si les possesseurs de ces cartes pouvaient se r\u00e9jouir de leur investissement, il \u00e9tait quand m\u00eame temps de proposer mieux que quelques MHz grappill\u00e9s de ci de l\u00e0 ou de recourir \u00e0 des associations de deux GPU sur une m\u00eame carte.<\/p>\n

<\/span><\/span><\/p>\n

Enfin NVIDIA nous a entendus : la GTX 280 offre le premier v\u00e9ritable remaniement de l\u2019architecture G8x. On conna\u00eet maintenant le mode de fonctionnement de la firme Californienne : introduire une nouvelle architecture sur un proc\u00e9d\u00e9 de gravure \u00e9prouv\u00e9. En effet, du fait du nombre souvent tr\u00e8s \u00e9lev\u00e9 de transistors la puce est co\u00fbteuse \u00e0 produire et les cartes l\u2019utilisant restent ch\u00e8res mais cela permet d\u2019occuper le terrain. Pendant les ann\u00e9es qui suivent NVIDIA d\u00e9rive son architecture sur tout le segment de la gamme en utilisant une gravure plus fine mais moins optimis\u00e9es pour les hautes fr\u00e9quences. Enfin lorsque le nouveau proc\u00e9d\u00e9 est ma\u00eetris\u00e9 NVIDIA en fait b\u00e9n\u00e9ficier son haut de gamme qui devient ainsi beaucoup plus abordable. On a connu \u00e7a avec le G70\/G71, le G80\/G92 et l\u2019histoire se r\u00e9p\u00e8te : voici donc le GT200, v\u00e9ritable monstre de 1.4 milliard de transistors grav\u00e9s en 0.65\u00b5m.<\/p>\n

<\/span><\/span><\/p>\n\n\n\n

Les GeForce GTX 200<\/h2>\n\n\n\n

\n\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n\n\n\n\n

<\/p>\n\n

A nouvelle g\u00e9n\u00e9ration, nouvelle d\u00e9nomination. Le passage par la case \u00ab\u00a010 000\u00a0\u00bb g\u00eane visiblement les constructeurs. L\u00e0 o\u00f9 ATI a r\u00e9solu son souci en introduisant les chiffres Romains, NVIDIA change pour sa part compl\u00e8tement sa fa\u00e7on de nommer ses cartes. D\u00e9sormais il faudra parler de GeForce GTX 200. Mais une question nous brule les l\u00e8vres\u00a0: qu\u2019est il arriv\u00e9 aux GeForce GTX 100\u00a0?<\/p>\n\n\n\n\n\n

<\/p>\n\n

\n
Sp\u00e9cifications th\u00e9oriques<\/caption>\n
Carte<\/strong> <\/th> 260 GTX<\/strong> <\/th> 280 GTX<\/strong> <\/th><\/tr>
Fr\u00e9quence GPU<\/i> <\/td> 576 MHz <\/td> 602 MHz <\/td><\/tr>
Fr\u00e9quence ALU<\/i> <\/td> 1242 MHz <\/td> 1296 MHz <\/td><\/tr>
Fr\u00e9quence RAM<\/i> <\/td> 999 MHz <\/td> 1107 MHz <\/td><\/tr>
ALU<\/i> <\/td> 192 <\/td> 240 <\/td><\/tr>
Unit\u00e9s de texture<\/i> <\/td> 64 <\/td> 80 <\/td><\/tr>
ROP (Raster OPeration unit)<\/i> <\/td> 28 <\/td> 32 <\/td><\/tr>
Contr\u00f4leur m\u00e9moire<\/i> <\/td> 448 bits (7 canaux 64 bits) <\/td> 512 bits (8 canaux 64 bits) <\/td><\/tr>
Type de RAM<\/i> <\/td> GDDR3 <\/td> GDDR3 <\/td><\/tr><\/tbody><\/table><\/div><\/div>\n\n\n\n\n\n

<\/p>\n\n

Comme nous le verrons plus loin, NVIDIA pr\u00e9sente une nouvelle architecture mais pas question pour autant de repartir de z\u00e9ro\u00a0: si la gen\u00e8se du G80 \u00e9tait partie d\u2019une page blanche, cette architecture s\u2019est av\u00e9r\u00e9e d\u2019une redoutable efficacit\u00e9. L\u2019objectif du GT200 \u00e9tait donc de corriger toutes les petites erreurs de jeunesse de l\u2019architecture et de mieux armer la puce pour les exigences des jeux \u00e0 venir. Un peu \u00e0 l\u2019image de ce qu\u2019avait \u00e9t\u00e9 le G70 pour le NV40, on se retrouve donc avec tout un tas de petites am\u00e9liorations mais surtout un gros gain en puissance de calcul.<\/p>\n\n\n\n\n\n

<\/p>\n\n

Ainsi l\u00e0 o\u00f9 la 8800 GTX offrait une puissance de calcul flottant de 518 GFlops, la GTX 280 flirte pour sa part avec le Teraflop en affichant un impressionnant 933 GFlops. En r\u00e9alit\u00e9 l\u2019\u00e9cart est encore plus important car ce chiffre de 518 GFlops pour le G80 repose sur l\u2019ex\u00e9cution de 3 op\u00e9rations flottantes par cycle (1 MAD et 1 MUL) qu\u2019il est, du fait des limitations du G80, quasiment impossible d\u2019obtenir en pratique. Avec le GT200 NVIDIA assure tests \u00e0 l\u2019appui que ce souci est r\u00e9solu. Pour quasiment doubler la performance de calcul de son pr\u00e9c\u00e9dent GPU, NVIDIA a augment\u00e9 de fa\u00e7on substantielle le nombre de multiprocesseurs\u00a0: de 16 on passe d\u00e9sormais \u00e0 30.<\/p>\n\n\n\n\n\n

<\/p>\n\n

NVIDIA et AMD s\u2019accordent \u00e0 dire que les jeux du futur auront un besoin nettement plus \u00e9lev\u00e9 en puissance arithm\u00e9tique qu\u2019en puissance de texturing, par cons\u00e9quent dans le m\u00eame temps on ne sera pas surpris de constater que le nombre d\u2019unit\u00e9s de textures augmente de fa\u00e7on beaucoup plus mesur\u00e9e. Ainsi de 64 sur la 9800 GTX on passe modestement \u00e0 80 sur la GTX 280 (et si l\u2019on compare la 8800 GTX \u00e0 la 280 GTX cette fois, on passe d\u2019un rapport th\u00e9orique instructions arithm\u00e9tiques \/ nombre de texels filtr\u00e9s de 14,1:1 \u00e0 19,4:1). Sans plus attendre, illustrons ce point.<\/p>\n\n\n\n

Puissance arithm\u00e9tique (tests)<\/h2>\n\n\n\n

\nPour ce faire, les tests synth\u00e9tiques utilisant les textures proc\u00e9durales (tr\u00e8s calculatoires) sont g\u00e9n\u00e9ralement indiqu\u00e9s. Bien s\u00fbr, NVIDIA met pour cela en avant 3DMark Vantage et son Bruit de Perlin, sur lequel nous avons effectivement mesur\u00e9 une augmentation de 129 % des performances entre la 9800 GTX et la 280 GTX. Mais vu l\u2019importance qu\u2019accorde toujours le constructeur \u00e0 ce test et la facilit\u00e9 avec laquelle il est possible d\u2019optimiser de nouveaux drivers (diff\u00e9rents pour la 280 GTX et la 9800 GTX du reste) de mani\u00e8re \u00e0 faire ressortir ce que l\u2019on veut de ce test (voir notre article), voyons tout d\u2019abord ce que nous indique une version oubli\u00e9e de RightMark 3D avec ses Pixel Shaders 2.0 (Direct3D 9.0). Les valeurs des diff\u00e9rents tests \u00e9tant tr\u00e8s variables, nous avons exprim\u00e9 les r\u00e9sultats en diff\u00e9rence de performance pour les faire figurer sur le m\u00eame graphe, la r\u00e9f\u00e9rence \u00e9tant la 9800 GTX.<\/p>\n

<\/span><\/p>\n

L\u2019am\u00e9lioration est nettement plus mesur\u00e9e, bien que r\u00e9elle : elle reste en fait mod\u00e9r\u00e9e su les shaders proc\u00e9duraux et nettement plus marqu\u00e9e avec les \u00e9clairages complexes, avec jusqu\u2019\u00e0 78 % de mieux. Passons maintenant \u00e0 la version 2 de RIghtmark et ses shaders arithm\u00e9tiques 4.0 (Direct3D 10.0).<\/p>\n

<\/span><\/p>\n

Ici aussi les gains, sans \u00eatre inexistants, sont plus proches de l\u2019augmentation du ratio puissance de calcul flottant :textures que les chiffres obtenus sous 3DMark Vantage\u2026<\/p>\n\n\n\n

ROP<\/h2>\n\n\n\n

\nBonne surprise au niveau des ROP, leur nombre augmente lui aussi, passant de 24 sur les G80 (16 sur le G92) \u00e0 32. Pour \u00eatre s\u00fbr de pouvoir les exploiter correctement NVIDIA introduit \u00e0 son tour un bus 512-bit qui sera, vu les caract\u00e9ristiques de son GPU, certainement plus utile que sur le R600.<\/p>\n

<\/span><\/p>\n

Avec 78 % de gain mesur\u00e9 entre la 280 GTX et la 9800 GTX, nous retombons donc exactement sur le chiffre th\u00e9orique, puisque le doublement de ROP est impact\u00e9 de la baisse de la fr\u00e9quence (qui atteint 675 MHz sur la 9800 GTX).<\/p>\n

Puisque nous \u00e9voquions AMD soulignons qu\u2019il devient de plus en plus urgent pour ce dernier de revoir ses GPU haut de gamme qui restent d\u00e9sesp\u00e9r\u00e9ment fig\u00e9s \u00e0 16 unit\u00e9s de texture et 16 ROP depuis les X800 en 2004 ! Alors que ses GPU restent comp\u00e9titifs sur le plan de la puissance de calcul brute, sur ces points en revanche l\u2019\u00e9cart ne cesse de se creuser avec NVIDIA qui les am\u00e9liore \u00e0 chaque g\u00e9n\u00e9ration. Esp\u00e9rons que la nouvelle architecture d\u2019AMD qui ne devrait pas tarder corrigera ces lacunes.<\/p>\n

Ceci \u00e9tant dit le r\u00e9sultat de la HD 3870 X2 nous permet de rappeler que si ATI est effectivement largement d\u00e9pass\u00e9 du c\u00f4t\u00e9 du nombre d\u2019unit\u00e9s par puce, n\u2019oublions pas que la nouvelle strat\u00e9gie du constructeur est d\u2019opposer des cartes bi-GPU aux cartes single-GPU de NVIDIA ! Ce point coupl\u00e9 \u00e0 une fr\u00e9quence GPU toujours sup\u00e9rieure (825 MHz pour rappel) permet \u00e0 la 3870 X2 de rester devant sur ce test tr\u00e8s synth\u00e9tique mais r\u00e9el.<\/p>\n\n\n\n

Et Direct 3D 10.1 ?<\/h2>\n\n\n\n

\n<\/span><\/span>Au vu de la campagne men\u00e9e depuis quelques temps par NVIDIA sur l\u2019inutilit\u00e9 de cette API ce n\u2019est pas vraiment une surprise d\u2019apprendre que les GTX 200 ne supportent pas cette r\u00e9vision de l\u2019API de Microsoft. Pas de surprise donc mais une d\u00e9ception malgr\u00e9 tout. D\u2019apr\u00e8s NVIDIA le support de l\u2019API a \u00e9t\u00e9 initialement envisag\u00e9 mais selon les d\u00e9veloppeurs qu\u2019ils ont interrog\u00e9s ce n\u2019\u00e9tait \u00ab pas important \u00bb. Certes Direct 3D 10.1 n\u2019apporte pas de nouveaut\u00e9s r\u00e9volutionnaires comme nous le disions lors de la sortie des Radeon HD 38×0, il s\u2019agit essentiellement de correction de failles laiss\u00e9es dans les sp\u00e9cifications de Direct3D 10. Mais au milieu de tout \u00e7a on trouve quelques nouvelles fonctions int\u00e9ressantes et qui pourraient s\u2019av\u00e9rer utiles aux moteurs de rendu de type deferred shading<\/i> qui sont de plus en plus populaires, ou \u00e0 des algorithmes de rendu de surface transparentes sans tri.<\/p>\n

Alors oui tout \u00e7a peut sembler un peu superflu \u00e0 l\u2019heure o\u00f9 Direct 3D 10 ne montre toujours pas une sup\u00e9riorit\u00e9 flagrante sur la version 9 mais \u00e7a ressemble quand m\u00eame \u00e0 une excuse un peu facile de la part de NVIDIA. Dire que Direct 3D 10.1 est inutile \u00e0 l\u2019heure actuelle n\u2019est pas totalement faux (encore qu\u2019Assassin\u2019s Creed prouve le contraire) mais c\u2019est un peu un cercle vicieux : sans le support de NVIDIA il est clair que l\u2019API ne peut pas vraiment \u00eatre utilis\u00e9e s\u00e9rieusement par les d\u00e9veloppeurs. On a d\u00e9j\u00e0 connu une situation de ce type mais invers\u00e9e : \u00e0 la sortie du NV40 quels d\u00e9veloppeurs utilisaient le Shader Model 3 ? Surtout sur les premi\u00e8res GeForce 6 o\u00f9 les principales fonctions comme le Vertex Texture Fetch ou les branchements dynamiques dans les shaders n\u2019\u00e9taient pas des plus performants. Et pourtant \u00e0 cette \u00e9poque la firme se vantait d\u2019\u00eatre \u00e0 l\u2019avant-garde des API 3D.<\/p>\n

Notre avis n\u2019a donc pas chang\u00e9 par rapport \u00e0 cette \u00e9poque : m\u00eame si ce n\u2019est pas utile imm\u00e9diatement, nous sommes favorables \u00e0 l\u2019inclusion des derni\u00e8res technologies dans les nouvelles puces 3D pour permettre aux d\u00e9veloppeurs de se familiariser avec. Nous en tenions rigueur \u00e0 l\u2019\u00e9poque \u00e0 ATI et cette fois c\u2019est \u00e0 NVIDIA que nous d\u00e9cernons ce petit coup de gueule.<\/p>\n\n\n\n

Une architecture SIMT ?<\/h2>\n\n\n\n

\n<\/span><\/span>Vous connaissiez les termes SIMD et MIMD, mais avec le GT200 NVIDIA d\u00e9crit ses Shader Multiprocessors comme des unit\u00e9s SIMT. Qu\u2019est ce que \u00e7a signifie ? Tout d\u2019abord l\u2019acronyme signifie Single Instruction Multiple Threads<\/i>, la principale diff\u00e9rence avec le mode SIMD est que la taille des vecteurs trait\u00e9s n\u2019a pas une largeur pr\u00e9d\u00e9finie. Concr\u00e8tement avec un nombre suffisant de threads le processeur se comporte comme un processeur scalaire. Pour bien comprendre la diff\u00e9rence rappelons la mani\u00e8re dont fonctionnaient les unit\u00e9s de pixel shaders dans les architectures pr\u00e9c\u00e9dentes.<\/p>\n

Le rasterizer g\u00e9n\u00e9rait des quads, des carr\u00e9s de 2×2 pixels, chaque pixel \u00e9tant pour sa part compos\u00e9 d\u2019un vecteur de 4 valeurs flottantes simple pr\u00e9cision (R,G, B, A) ou (X, Y, Z, W) qui sont les formats les plus utilis\u00e9s dans les calculs 3D. Ces quads passaient ensuite dans une ALU qui travaillait de fa\u00e7on SIMD \u00e0 16 voies : appliquant la m\u00eame instruction aux 16 nombres flottants. Ceci est une simplification pour illustrer le principe, en pratique les GeForce 6 et 7 offrait un mode appel\u00e9 co-issue pour ex\u00e9cuter deux instructions par vecteur.<\/p>\n

Depuis le G80 ce mode de fonctionnement a \u00e9t\u00e9 remani\u00e9 : le rasterizer g\u00e9n\u00e8re toujours des quads, qui sont plac\u00e9s dans un buffer. Lorsque 8 quads (32 pixels, un \u00ab warp \u00bb en terminologie CUDA \u2013 voir notre article pour plus de d\u00e9tails) sont pr\u00e9sents dans le buffer ils peuvent \u00eatre ex\u00e9cut\u00e9s par un multiprocesseur de fa\u00e7on SIMD. Quelle diff\u00e9rence alors ? La fa\u00e7on dont les donn\u00e9es sont organis\u00e9es : au lieu de travailler sur 4 vecteurs de 4 nombres flottants organis\u00e9s de cette fa\u00e7on (R, G, B, A, R, G, B, A, R, G, B, A, R, G, B, A), les multiprocesseurs travaillent sur des vecteurs de 32 flottants form\u00e9s d\u2019une seule composante de chacun des 32 threads :<\/p>\n

(R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R, R) puis<\/p>\n

(G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G, G) etc\u2026<\/p>\n

En programmation SIMD, le premier agencement des donn\u00e9es s\u2019appelle AoS (Array Of Structure), le second s\u2019appelle SoA (Structure of Array). Cette deuxi\u00e8me organisation permet de meilleures performances : en effet pour peu que l\u2019on dispose de suffisamment de donn\u00e9es pour remplir un vecteur le processeur se comporte du point de vue du programmeur comme un processeur scalaire : les unit\u00e9s SIMD sont toujours utilis\u00e9es \u00e0 100% quelle que soit la largeur des donn\u00e9es qu\u2019il manipule. A l\u2019inverse la premi\u00e8re organisation obtient sa performance de cr\u00eate uniquement lorsqu\u2019on applique la m\u00eame instruction aux 4 composantes de chaque vecteur.<\/p>\n\n\n\n

Scalable Processor Array<\/h2>\n\n\n\n

\n<\/span><\/span><\/p>\n

Pas de bouleversement de l\u2019architecture qui repose toujours sur ce que NVIDIA appelle Scalable Processor Array (ou Streaming Processor Array selon votre interlocuteur). Le SPA du G80 \u00e9tait organis\u00e9 ainsi :<\/p>\n

<\/span><\/span><\/p>\n

8 TPC (Texture Processor Clusters) chacun \u00e9quip\u00e9 d\u2019une unit\u00e9 de texture et deux Streaming Multiprocessor (SM). Avec le GT200 NVIDIA a revu le nombre d\u2019unit\u00e9s \u00e0 la hausse :<\/p>\n

<\/span><\/span><\/p>\n

10 TPC, chacun toujours \u00e9quip\u00e9 d\u2019une unit\u00e9 de texture mais d\u00e9sormais de trois multiprocesseurs. Ce changement traduit bien l\u2019orientation des shaders modernes qui mettent l\u2019accent sur les instructions arithm\u00e9tiques.<\/p>\n

Les unit\u00e9s de texture de chaque TPC reprennent le mod\u00e8le de celles utilis\u00e9es pour le G84 ou le G92 : on retrouve donc autant de capacit\u00e9 d\u2019adressage que de capacit\u00e9 de filtrage contrairement au G80 qui offrait deux fois plus de capacit\u00e9 de filtrage que d\u2019adressage. Dans un mode de filtrage simple et sur des textures RGBA8 (nearest ou bilinear) les unit\u00e9s de texture du G84\/G92\/GT200 sont donc deux fois plus performantes que celles du G80. Avec des modes de filtrage plus \u00e9volu\u00e9s ou des textures RGBA16 cette modification n\u2019apporte rien.<\/p>\n

Am\u00e9lioration plus sp\u00e9cifique au GT200, NVIDIA affirme employer d\u00e9sormais un ordonnanceur plus efficace pour g\u00e9rer les op\u00e9rations de texturing permettant de se rapprocher plus pr\u00e8s de la performance de cr\u00eate qu\u2019un G92. V\u00e9rifions cela sous Fillrate Tester :<\/p>\n

<\/span><\/p>\n

Le passage de 64 \u00e0 80 unit\u00e9s de texturing coupl\u00e9 \u00e0 la diff\u00e9rence de fr\u00e9quence GPU devrait conf\u00e9rer \u00e0 la 280 GTX un avantage de seulement 11 % sur la 9800 GTX. Nous mesurons pourtant 43 % en quad texturing, et jusqu\u2019\u00e0 118 % en dual texturing ! L\u2019am\u00e9lioration de l\u2019ordonnanceur ne peut expliquer \u00e0 elle seule cette \u00e9volution cependant, l\u2019augmentation du nombre de ROP (doubl\u00e9s) jouant \u00e9galement. Il est cependant clair que la 280 GTX est nettement plus proche des valeurs th\u00e9oriques du fillrate en single ou dual texturing (97%) que la 9800 GTX (entre 80 et 91%), les am\u00e9liorations de NVIDIA \u00e0 ce niveau ont donc port\u00e9 leurs fruits en pratique. Comme nous l\u2019avons expliqu\u00e9 pr\u00e9c\u00e9demment, la carte bi-GPU d\u2019AMD, cadenc\u00e9e plus rapidement par ailleurs que celles de NVIDIA ne s\u2019av\u00e8re que 32 % derri\u00e8re la 280 GTX en quad texturing.<\/p>\n

Voyons maintenant ce qui se passe avec les shaders 4.0 de texturing de RightMark3D 2.0, qui testent les texture lookups.<\/p>\n

<\/span><\/p>\n

Le r\u00e9sultat sur le premier shader (Fur) est surprenant : 14 % de gain, c\u2019est peu vu les optimisations sur le blending, les geometry shaders et le fillrate, tout d\u00e9pendant l\u00e0 encore de l\u2019impl\u00e9mentation du shader encore une fois. En revanche les 59 % de gain observ\u00e9s en Steep Parallax Mapping sont plus spectaculaires et attendus, et de bon augure.<\/p>\n\n\n\n

Des Streaming Multiprocessors remani\u00e9s<\/h2>\n\n\n\n

\nOutre leur nombre plus important chaque multiprocesseur a b\u00e9n\u00e9fici\u00e9 de plusieurs optimisations. En premier lieu le nombre de threads actifs par multiprocesseur a augment\u00e9 : de 768 on passe \u00e0 1024 (de 24 warps de 32 threads on passe \u00e0 32). Un plus grand nombre de threads est particuli\u00e8rement utile pour masquer la latence des op\u00e9rations de texturing. Sur l\u2019ensemble du GPU on passe donc de 12 288 threads actifs \u00e0 30 720.<\/p>\n

Le nombre de registres par multiprocesseur a pour sa part \u00e9t\u00e9 doubl\u00e9 : de 8192 registres on passe \u00e0 16384. Etant donn\u00e9 que le nombre de threads a augment\u00e9 dans le m\u00eame temps, le nombre de registres utilisables simultan\u00e9ment par un thread passe de 10 registres \u00e0 16. Comme nous l\u2019avons vu dans notre article sur CUDA la limite des 10 registres par thread peut \u00eatre rapidement d\u00e9pass\u00e9e. Sur les G8x\/G9x notre algorithme a une utilisation de 67% des unit\u00e9s de calcul, sur un GT200 il aurait une utilisation de 100%. Coupl\u00e9 aux deux unit\u00e9s de texture les performances devraient \u00eatre substantiellement plus \u00e9lev\u00e9es que sur le G80 que nous avions utilis\u00e9 pour notre test. Malheureusement CUDA 2.0 impose l\u2019utilisation d\u2019un driver encore en version beta qui ne reconna\u00eet pas les GeForce GTX 200. D\u00e8s que la branche principale des drivers introduira ce support nous ne manquerons pas de refaire le test.<\/p>\n

<\/span><\/p>\n

Ce n\u2019est pas la seule am\u00e9lioration dont ont b\u00e9n\u00e9fici\u00e9 les multiprocesseurs, NVIDIA nous annonce avoir optimis\u00e9 le mode dual-issue. Pour rappel depuis le G80 les multiprocesseurs sont cens\u00e9s pouvoir ex\u00e9cuter deux instructions par cycle : un MAD et un MUL flottant. Nous pr\u00e9cisons \u00ab cens\u00e9s \u00bb car \u00e0 l\u2019\u00e9poque nous n\u2019\u00e9tions pas parvenus \u00e0 voir ce comportement dans nos benchs synth\u00e9tiques, sans savoir si c\u2019\u00e9tait une limitation du hardware ou des drivers. Plusieurs mois et quelques r\u00e9visions de drivers plus tard force est de constater que le MUL n\u2019est toujours pas facile \u00e0 isoler sur le G80 ce qui laissait supposer un probl\u00e8me au niveau du hardware.<\/p>\n

Mais comment fonctionne ce mode dual-issue ? A l\u2019\u00e9poque du G80 NVIDIA ne donnait pas de d\u00e9tails mais depuis un brevet nous renseigne un peu plus sur la fa\u00e7on dont sont ex\u00e9cut\u00e9s les instructions par les multiprocesseurs. Tout d\u2019abord le brevet sp\u00e9cifie clairement que les multiprocesseurs ne peuvent d\u00e9marrer l\u2019ex\u00e9cution que dune seule instruction \u00e0 chaque cycle GPU (la fr\u00e9quence \u00ab lente \u00bb). Alors o\u00f9 est ce fameux mode dual-issue ? Et bien il s\u2019agit d\u2019une particularit\u00e9 du hardware : une instruction prendra 2 cycles GPU (4 cycles ALU) pour \u00eatre ex\u00e9cut\u00e9e sur un warp (32 threads ex\u00e9cut\u00e9s par des unit\u00e9s SIMD 8 voies) mais le front-end du multiprocesseur peut cependant lancer l\u2019ex\u00e9cution d\u2019une instruction \u00e0 chaque cycle pour peu qu\u2019il s\u2019agisse d\u2019instructions de types diff\u00e9rents : MAD dans un cas, SFU dans l\u2019autre.<\/p>\n\n\n\n

Streaming Multiprocessors (suite, test)<\/h2>\n\n\n\n

\nOutre les op\u00e9rations transcendantales et l\u2019interpolation des valeurs de chaque sommet, l\u2019unit\u00e9 SFU est aussi capable d\u2019ex\u00e9cuter une multiplication flottante. En alternant l\u2019ex\u00e9cution d\u2019instructions MAD et d\u2019instructions MUL on obtient un recouvrement de la dur\u00e9e des instructions. Ainsi on obtient \u00e0 chaque cycle GPU le r\u00e9sultat d\u2019un MAD ou un MUL sur un warp c\u2019est-\u00e0-dire sur 32 valeurs scalaires. Alors que d\u2019apr\u00e8s la description de NVIDIA on pourrait penser obtenir le r\u00e9sultat d\u2019un MAD et d\u2019un MUL tous les deux cycles GPU. En pratique \u00e7a revient au m\u00eame mais d\u2019un point de vue hardware \u00e7a simplifie grandement le front-end qui se charge de lancer l\u2019ex\u00e9cution des instructions vu qu\u2019une seule d\u00e9marre \u00e0 chaque cycle.<\/p>\n

<\/span><\/p>\n

Qu\u2019est ce qui limitait cette capacit\u00e9 sur les G8x\/G9x et a \u00e9t\u00e9 corrig\u00e9 sur le GT200 ? NVIDIA ne nous donne malheureusement pas d\u2019indication pr\u00e9cise : ils pr\u00e9cisent juste qu\u2019ils ont revu des points comme l\u2019allocation de registres, l\u2019ordonnancement des instructions ou leur lancement. En tout cas comptez sur nous pour poursuivre nos investigations.<\/p>\n

Essayons maintenant de voir si les modifications apport\u00e9es par NVIDIA se r\u00e9v\u00e8lent utiles en pratique dans un test synth\u00e9tique : GPUbench.<\/p>\n

<\/span><\/p>\n

A titre de comparaison nous avons ajout\u00e9 les scores de la 9800 GTX sur le graphe. Cette fois c\u2019est net : on observe bien un d\u00e9bit plus \u00e9lev\u00e9 dans le cas d\u2019instructions MUL comparativement aux instructions MAD. On est encore loin du double toutefois puisqu\u2019on observe un gain d\u2019environ 32% par rapport au d\u00e9bit obtenus dans le cas d\u2019instructions MAD mais c\u2019est toujours bon \u00e0 prendre. Au passage il ne faut pas tenir compte des r\u00e9sultats obtenus avec les instructions DP3 ou DP4 dont les scores ne sont pas coh\u00e9rents. De la m\u00eame fa\u00e7on le r\u00e9sultat des instructions POW doit r\u00e9sulter d\u2019un probl\u00e8me de driver.<\/p>\n

Derni\u00e8re modification apport\u00e9e aux Streaming Multiprocessors : le support de la double pr\u00e9cision (nombre flottants sur 64 bits au lieu de 32). Soyons clairs, la pr\u00e9cision suppl\u00e9mentaire n\u2019a qu\u2019une utilit\u00e9 toute relative dans les algorithmes graphiques. Mais on le sait le GPGPU devient de plus en plus important pour NVIDIA et dans certaines applications scientifiques sans double pr\u00e9cision point de salut !<\/p>\n

NVIDIA n\u2019est pas le premier \u00e0 faire ce constat : IBM a r\u00e9cemment modifi\u00e9 son processeur Cell pour rendre les SPU plus performantes sur ce type de donn\u00e9es. En termes de performance l\u2019impl\u00e9mentation du GT200 laisse en revanche un peu \u00e0 d\u00e9sirer : les flottants double pr\u00e9cision sont g\u00e9r\u00e9s par une unit\u00e9 d\u00e9di\u00e9e des Streaming Multiprocessors. Avec une unit\u00e9 capable d\u2019effectuer un MAD double pr\u00e9cision par cycle on obtient donc une performance de cr\u00eate de : 1.296 x 10 (TPC) x 3 (SM) x 2 (Multiply+Add) = 77.78 GFlops soit entre 1\/8\u00e8me et 1\/12\u00e8me de la performance simple pr\u00e9cision. AMD a pour sa part introduit ce support en utilisant les m\u00eames unit\u00e9s de calcul pendant plusieurs cycles et obtient des r\u00e9sultats nettement meilleurs : entre 2 et 4 fois plus lents que les calculs simple pr\u00e9cision.<\/p>\n\n\n\n

ROP : performances<\/h2>\n\n\n\n

\nComme nous l\u2019avons vu le nombre de ROP a augment\u00e9 mais ils n\u2019ont pas gagn\u00e9 en fonctionnalit\u00e9s. Il faut dire que les ROP du G8x \u00e9taient d\u00e9j\u00e0 particuli\u00e8rement complets : support des frame buffers flottants 16 et 32 bits avec blending et antialiasing, antialiasing jusqu\u2019\u00e0 8x ou 16x en mode CSAA, rendu Z 8 fois plus rapides\u2026 Il n\u2019y avait pas grand-chose \u00e0 ajouter. NVIDIA s\u2019est donc attard\u00e9 \u00e0 optimiser les performances. Ainsi en cas de blending dans des framebuffers RGBA8 les G8x\/G9x voyaient leurs performances divis\u00e9es par deux avec 12 pixels par cycle. Sur le GT200 cette limitation a \u00e9t\u00e9 lev\u00e9e, coupl\u00e9 \u00e0 un bus de 512 bit offrant une bande passante de plus de 140 Go\/s les nouveaux ROP devraient faire des nouvelles GeForce de v\u00e9ritables monstres de fillrate. A ce sujet, voyons ce qu\u2019est devenu le Z pixel rate :<\/p>\n

<\/span><\/p>\n

C\u00f4t\u00e9 performances brutes, les r\u00e9sultats sont effectivement l\u00e0 avec un nouveau record atteint, 75 537 Mpixels\/s \u00e0 battre ! Pourtant, ce score reste d\u00e9cevant dans la mesure o\u00f9 il ne constitue qu\u2019une multiplication par 4 et non par 8 du fillrate de base. Sur la 9800 GTX, nous retrouvons la valeur de 5,2 que nous avions mesur\u00e9e lors du test de la 8800 GTX<\/a>, et qui est donc un peu meilleure tout en restant l\u00e0 encore nettement en-dessous de la th\u00e9orie.<\/p>\n\n\n\n

Geometry Shader, autres<\/h2>\n\n\n\n

\nLes performances des pr\u00e9c\u00e9dents GPU Direct3D 10 de NVIDIA en Geometry Shading n\u2019\u00e9taient pas particuli\u00e8rement impressionnantes, la faute \u00e0 des buffers internes sous dimensionn\u00e9s. Rappelons le selon Direct3D 10 un Geometry Shader est capable de g\u00e9n\u00e9rer jusqu\u2019\u00e0 1024 valeurs flottantes simple pr\u00e9cision par sommet entrant. En cas d\u2019amplification importante de la g\u00e9om\u00e9trie ces buffers \u00e9taient donc vite satur\u00e9s et emp\u00eachaient les unit\u00e9s de continuer \u00e0 calculer. Avec le GT200 ces buffers ont vu leur taille multipli\u00e9e par six augmentant sensiblement les performances dans certains cas comme nous allons le voir. Pour b\u00e9n\u00e9ficier de l\u2019augmentation de taille de ces buffers, NVIDIA a aussi du revoir l\u2019ordonnancement des threads de Geometry Shading.<\/p>\n

<\/span><\/p>\n

Sur le premier shader Galaxy, l\u2019am\u00e9lioration reste tr\u00e8s mod\u00e9r\u00e9e : 4 % de mieux. En revanche, celle-ci atteint pas moins de 158 % sur Hyperlight et montre bien l\u2019am\u00e9lioration potentielle sur ce type de shaders, tout d\u00e9pendant de leur impl\u00e9mentation et de leur gourmandise (nombre de flottants g\u00e9n\u00e9r\u00e9s par sommet entrant). La 280 GTX comble donc son retard et d\u00e9passe l\u00e9g\u00e8rement la 3870 X2 sur ce m\u00eame shader.<\/p>\n

Voyons maintenant le test Point Sprites (en Vertex Shading 2.0) de Rightmark 3D.<\/p>\n

<\/span><\/p>\n

Pourquoi traitons-nous ce test dans la partie li\u00e9e aux Geometry Shaders ? Tout simplement parce que depuis Direct3D 10, les point sprites passent par les Geometry Shaders, ce qui explique le doublement de performances entre 9800 GTX et 280 GTX !<\/p>\n

Am\u00e9liorations diverses<\/b><\/p>\n

NVIDIA a \u00e9galement optimis\u00e9 divers points de son architecture. La m\u00e9moire cache de post-transformation a vu sa taille augment\u00e9e. Le r\u00f4le de ce cache est d\u2019\u00e9viter de devoir retransformer plusieurs fois le m\u00eame sommet dans le cas de primitives index\u00e9es ou de triangles strips en sauvegardant le r\u00e9sultat des vertex shaders.<\/p>\n

Du fait de l\u2019augmentation du nombre de ROP, les performances en Early-Z rejection ont \u00e9t\u00e9 am\u00e9lior\u00e9es : le GT200 est capable de rejeter jusqu\u2019\u00e0 32 pixels masqu\u00e9s par cycle avant d\u2019appliquer un pixel shader. NVIDIA annonce enfin avoir optimis\u00e9 les communications des donn\u00e9es et des commandes entre le driver et le front-end du GPU.<\/p>\n\n\n\n

Performances Vertex\/Pixel Shading<\/h2>\n\n\n\n

\nDevant tirer partie ne serait-ce que du quasi-doublement du nombre d\u2019ALU, voyons d\u2019abord comment se comportent les cartes sous les vertex shaders de Rightmark (donnant tous les m\u00eames performances).<\/p>\n

<\/span><\/p>\n

De fa\u00e7on surprenante et malgr\u00e9 diff\u00e9rents r\u00e9glages et tests successifs, la 280 GTX n\u2019est non seulement pas plus performante que la 9800 GTX, mais s\u2019av\u00e8re 12 % moins performante ! Des r\u00e9sultats que NVIDIA a \u00e9galement obtenu et n\u2019est parvenu qu\u2019\u00e0 inverser en activant l\u2019antialiasing 4X, surprenant pour un test de g\u00e9om\u00e9trie. Soulignons toutefois que si la puissance de calcul (et donc de transformation) a fortement augment\u00e9, le setup engine n\u2019a pour sa part pas \u00e9t\u00e9 modifi\u00e9. Il n\u2019est, comme sur la 9800 GTX, capable que de g\u00e9n\u00e9rer un triangle par cycle. Or cette derni\u00e8re conservant un avantage de fr\u00e9quence (675 MHz contre 600 MHz) cela peut expliquer la diff\u00e9rence observ\u00e9e.<\/p>\n

<\/span><\/p>\n

Comme d\u2019habitude sur Rightmark 2.0, le premier shader ne montre aucune am\u00e9lioration avec la nouvelle carte, alors que le second permet d\u2019observer un gain de 25 %.\nSi nous avons d\u00e9j\u00e0 largement \u00e9voqu\u00e9s les pixels shaders \u00e9volu\u00e9s via les tests pr\u00e9c\u00e9dents (arithm\u00e9tiques notamment), voyons des shaders plus simples, avec celui d\u2019\u00e9clairage par pixel de FillrateTester que nous utilisons depuis 4 ans maintenant (et qui donnait 188 Mpixels\/s sur une\u2026 9700 Pro !).<\/p>\n

<\/span><\/p>\n

Que de chemin parcouru depuis ! Toutefois, avec seulement 40 % de gain, on pouvait l\u00e9gitimement attendre mieux de la 280 GTX. De m\u00eame et sans repr\u00e9senter tous les r\u00e9sultats, assez lourds, de ShaderMark (qui utilise des Pixel Shaders 3.0), les gains restent born\u00e9s entre 20 et 26 % sur les 6 derniers shaders, et n\u2019atteignent au mieux que 43 %.<\/p>\n

Tous les r\u00e9sultats de cette page restent surprenants et montrent en tout cas l\u2019\u00e9cart entre l\u2019augmentation th\u00e9orique de la puissance (qui devrait notamment se mesurer sur les Vertex et Pixel shaders m\u00eame anciens) et le gain obtenu effectivement dans des applications. Gageons que les drivers ne sont pas encore enti\u00e8rement optimis\u00e9s et n\u2019oublions pas que m\u00eame en utilisant un bench tr\u00e8s sp\u00e9cifique il reste toujours difficile d\u2019isoler un point pr\u00e9cis sans \u00eatre influenc\u00e9 par le reste du pipeline, a fortiori avec les architectures actuelles.<\/p>\n\n\n\n

Sp\u00e9cifications : mieux !<\/h2>\n\n\n\n

\nComme souvent, NVIDIA rend disponible deux cartes pour son lancement : une version tr\u00e8s haut de gamme, la GeForce 280 GTX, et une carte l\u00e9g\u00e8rement plus abordable mais toujours haut de gamme, la GeForce 260 GTX. Voyons les autres caract\u00e9ristiques de ces cartes compar\u00e9es \u00e0 leurs concurrentes.<\/p>\n

\n
\n\n
Sp\u00e9cifications des principales cartes<\/caption>\n
GPU<\/strong> <\/th> HD 3870 X2<\/strong> <\/th> 9800 GX2<\/strong> <\/th> 8800 Ultra<\/strong> <\/th> 260 GTX<\/strong> <\/th> 280 GTX<\/strong> <\/th><\/tr><\/thead>\n
Fr\u00e9quence GPU<\/i> <\/td> 825 MHz <\/td> 600 MHz <\/td> 612 MHz <\/td> 576 MHz <\/td> 602 MHz <\/td><\/tr>\n
Fr\u00e9quence ALU<\/i> <\/td> 825 MHz <\/td> 1500 MHz <\/td> 1512 MHz <\/td> 1242 MHz <\/td> 1296 MHz <\/td><\/tr>\n
Fr\u00e9quence m\u00e9moire<\/i> <\/td> 900 MHz <\/td> 1000 MHz <\/td> 1080 MHz <\/td> 999 MHz <\/td> 1107 MHz <\/td><\/tr>\n
Largeur du bus m\u00e9moire<\/i> <\/td> 2×256 bits <\/td> 2×256 bits <\/td> 384 bits <\/td> 448 bits <\/td> 512 bits <\/td><\/tr>\n
Type de m\u00e9moire<\/i> <\/td> GDDR3 <\/td> GDDR3 <\/td> GDDR3 <\/td> GDDR3 <\/td> GDDR3 <\/td><\/tr>\n
Quantit\u00e9 de m\u00e9moire<\/i> <\/td> 2 x 512 Mo <\/td> 2×512 Mo <\/td> 768 Mo <\/td> 896 Mo <\/td> 1024 Mo <\/td><\/tr>\n
Nombre d\u2019ALU<\/i> <\/td> 640 <\/td> 256 <\/td> 128 <\/td> 192 <\/td> 240 <\/td><\/tr>\n
Nombre d\u2019unit\u00e9s de texturing<\/i> <\/td> 32 <\/td> 128 <\/td> 32 <\/td> 64 <\/td> 80 <\/td><\/tr>\n
Nombre de ROP<\/i> <\/td> 32 <\/td> 32 <\/td> 24 <\/td> 28 <\/td> 32 <\/td><\/tr>\n
Puissance shading<\/i> <\/td> 1 TFlops <\/td> (1152) GFlops <\/td> (581) GFlops <\/td> 715 GFlops <\/td> 933 GFlops <\/td><\/tr>\n
Bande passante m\u00e9moire<\/i> <\/td> 115,2 Go\/s <\/td> 128 Go\/s <\/td> 103,7 Go\/s <\/td> 111,9 Go\/s <\/td> 141,7 Go\/s <\/td><\/tr>\n
Nombre de transistors<\/i> <\/td> 1334 millions <\/td> 1010 millions <\/td> 754 millions <\/td> 1400 millions <\/td> 1400 millions <\/td><\/tr>\n
Process<\/i> <\/td> 0.055\u00b5 <\/td> 0.065\u00b5 <\/td> 0.080\u00b5 <\/td> 0.065\u00b5 <\/td> 0.065\u00b5 <\/td><\/tr>\n
Surface du die<\/i> <\/td> 2 x 196 mm\u00b2 <\/td> 2 x 324 mm\u00b2 <\/td> 484 mm\u00b2 <\/td> 576 mm\u00b2 <\/td> 576 mm\u00b2 <\/td><\/tr>\n
G\u00e9n\u00e9ration<\/i> <\/td> 2008 <\/td> 2008 <\/td> 2007 <\/td> 2008 <\/td> 2008 <\/td><\/tr>\n
Shader Model support\u00e9<\/i> <\/td> 4.1 <\/td> 4.0 <\/td> 4.0 <\/td> 4.0 <\/td> 4.0 <\/td><\/tr>\n<\/tbody>\n<\/table><\/div>\n<\/div><\/p>\n

<\/span><\/span> Premi\u00e8re sp\u00e9cification qui saute aux yeux : avec 1400 millions de transistors et surtout 576 mm\u00b2, NVIDIA a encore cr\u00e9\u00e9 un ogre, le plus gros GPU jamais produit, parvenant \u00e0 battre le record pourtant impressionnant obtenu avec le G80 (16 % plus petit) ! Cette valeur devant pourtant rester constante au fil des g\u00e9n\u00e9rations (elle est m\u00eame en diminution ces derniers temps chez les CPU \u00ab grand public \u00bb), il est clair que la production du GT200 est extr\u00eamement co\u00fbteuse pour NVIDIA bien que la conservation d\u2019une finesse de gravure conservatrice ait permis l\u2019existence de cette puce \u00e0 la date actuelle.<\/p>\n

Autre fait remarquable : en conservant de la GDDR3, ce n\u2019est plus une mais deux g\u00e9n\u00e9rations de retard qu\u2019accuse d\u00e9sormais NVIDIA sur ce plan vu que la GDDR5 ferra son introduction avec la toute proche Radeon HD 4870. La remarque ne va pas au-del\u00e0 du simple constat toutefois, puisque gr\u00e2ce au bus de 512 bits l\u2019augmentation de bande passante m\u00e9moire atteint 64 % face aux 86,4 Go\/s de la 8800 GTX. Et enfin, nous assistons \u00e0 l\u2019arriv\u00e9e d\u2019une carte haut de gamme d\u00e9passant les 512\/768 Mo de m\u00e9moire effectivement utilisable ! Avec 1 Go (et tout de m\u00eame 896 Mo pour la 260 GTX, une bonne chose), les performances en 2560*1600 devraient donc cesser de s\u2019effondrer anormalement !<\/p>\n

Derni\u00e8re remarque : les fr\u00e9quences retenues restent assez conservatrices, surtout en ce qui concerne les ALU qui sont plus lentes que sur la 8800 Ultra notamment.<\/p>\n\n\n\n

280 GTX ou 260 GTX ?<\/h2>\n\n\n\n

\nAvec 30 % de puissance de calcul flottant en plus et 27 % de bande passante m\u00e9moire, l\u2019\u00e9cart th\u00e9orique entre les deux nouvelles cartes de NVIDIA est donc r\u00e9el. En pratique, les cartes sont physiquement proches l\u2019une de l\u2019autre, et rappellent \u00e9galement les derni\u00e8res GeForce 9 haut de gamme du constructeur, ce qui est une cons\u00e9quence un peu dommage de la g\u00e9n\u00e9ralisation de la jupe noire englobant l\u2019ensemble des derni\u00e8res cartes du cam\u00e9l\u00e9on. Seuls en ressort le large ventilateur radial de 8 cm, toujours l\u00e9g\u00e8rement inclin\u00e9 de fa\u00e7on \u00e0 souffler au plus pr\u00e8s de la base, ainsi que les in\u00e9vitables connecteurs d\u2019alimentation suppl\u00e9mentaires. Deux connecteurs PCI Express 6 broches ou un connecteur 6 broches + un connecteur 8 broches : voila ce qu\u2019il en co\u00fbtera \u00e0 votre alimentation pour avoir l\u2019outrecuidance d\u2019installer une GeForce 260 GTX ou 280 GTX. Rien de r\u00e9ellement nouveau cependant, ATI nous ayant habitu\u00e9 \u00e0 ces r\u00e9quisitions depuis plus d\u2019un an avec sa 2900 XT.<\/p>\n

<\/span><\/span><\/p>\n

Les connecteurs SLI et l\u2019entr\u00e9e S\/PDIF, toujours pr\u00e9sents, sont pour leur part cach\u00e9s derri\u00e8re des protections amovibles. Seule vraie diff\u00e9rence par rapport \u00e0 une GeForce 9800 GTX : bien que double-slot et dot\u00e9s d\u2019une grille sur l\u2019\u00e9querre, une partie de l\u2019air chaud des deux cartes est \u00e9vacu\u00e9e via une seconde grille situ\u00e9e sur la tranche sup\u00e9rieure des cartes et se verra donc recycl\u00e9e dans le bo\u00eetier, une mauvaise nouvelle. La taille des cartes atteint toujours 26,7 cm, devenu le point commun des cartes graphiques haut de gamme depuis 2 ans maintenant, et le poids reste tout juste en dessous du kilo et de la HD 3870 X2 avec 915 g et 940 g.<\/p>\n

<\/span><\/span><\/p>\n

Comme toujours pour le tr\u00e8s haut de gamme au moment du lancement, les cartes Leadtek que nous avons re\u00e7ues et test\u00e9es dans cet article se conforment au design de r\u00e9f\u00e9rence, deux autocollants \u00e0 l\u2019effigie de la marqu\u00e9 \u00e9tant simplement appos\u00e9s sur leurs faces. Sachez n\u00e9anmoins que la bo\u00eete de la 280 GTX inclura le jeu NeverWinter Nights 2 (pas forc\u00e9ment le plus r\u00e9cent ni le plus r\u00e9v\u00e9lateur de la puissance de la carte), l\u2019adaptateur DVI->VGA, le c\u00e2ble HDTV (YUV et S-Vid\u00e9o), 2 adaptateurs molex vers PCI-Express 6 broches ainsi qu\u2019un adaptateur molex vers PVI Express 8 broches.<\/p>\n\n\n\n

Le test<\/h2>\n\n\n\n

Pour ce test, nous avons utilis\u00e9 notre configuration de r\u00e9f\u00e9rence, et avons comme \u00e0 notre habitude test\u00e9 les jeux exclusivement avec Fraps et en conditions r\u00e9elles de jeu. La plupart des jeux pr\u00e9c\u00e9demment utilis\u00e9s ont \u00e9t\u00e9 repris et comme toujours mis \u00e0 jour (derniers patchs install\u00e9s), mais deux nouveaut\u00e9s font toutefois leur apparition\u00a0: Mass Effect, le RPG space opera de Bioware qui malgr\u00e9 son origine Xbox 360 a fait l\u2019objet d\u2019un portage r\u00e9ussi sur le plan technique et nous est tout simplement apparu comme incontournable de par son int\u00e9r\u00eat (venant combler le manque de jeu de r\u00f4le dans notre protocole depuis l\u2019abandon de Fable). N\u2019oublions pas non plus Race Driver GRID, qui malgr\u00e9 son interface toujours aussi horripilante pour le testeur (la m\u00eame que le pr\u00e9c\u00e9dent Mac Rae Dirt du m\u00eame Codemasters), reste extr\u00eamement r\u00e9ussi visuellement et inaugure la derni\u00e8re version de l\u2019Ego Engine.<\/p>\n\n\n\n\n\n

<\/p>\n\n

Tous les tests synth\u00e9tiques DirectX 9 ont \u00e9t\u00e9 ex\u00e9cut\u00e9s sous Windows XP vu leur instabilit\u00e9 sous Vista (Fillrate Tester, Rightmark 1050, ShaderMark 2.1, SPECViewPerf 10). Rightmark 3D 2.0 (DirectX 10) a en revanche bien s\u00fbr \u00e9t\u00e9 ex\u00e9cut\u00e9 sous Windows Vista (non SP1 vu son instabilit\u00e9 avec), contre Vista SP1 pour l\u2019ensemble des jeux, tests CUDA, mesures environnementales et l\u2019overclocking. Rappelons que l\u2019UAC, Aero, Superftech et l\u2019indexation ont \u00e9t\u00e9 d\u00e9sactiv\u00e9s pour assurer la stabilit\u00e9 des r\u00e9sultats.<\/p>\n\n\n\n\n\n

<\/p>\n\n

Nous n\u2019avons enfin retenu que deux r\u00e9solutions pour ce test, le 1920*1200 (23-27″), et bien s\u00fbr le 2560*1600 propre aux 30″, ici sur le Samsung 305T. Nous estimons qu\u2019il s\u2019agit en effet des deux seules r\u00e9solutions que ce type de carte tr\u00e8s haut de gamme est amen\u00e9 \u00e0 ex\u00e9cuter\u00a0: en dessous (soit jusqu\u2019au 22″), inutile de mettre autant dans la carte 3D pour disposer d\u2019un affichage fluide sur la majorit\u00e9 des jeux actuels comme nous l\u2019avons l\u00e0 aussi constat\u00e9 lors des derniers tests.<\/p>\n\n\n\n\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n\n\n\n\n

<\/p>\n\n

Configuration de test\u00a0:<\/i><\/p>\n\n\n\n\n\n

<\/p>\n\n