{"id":76737,"date":"2014-01-15T10:10:00","date_gmt":"2014-01-15T09:10:00","guid":{"rendered":"https:\/\/cms.galaxiemedia.fr\/tomshardware\/2014\/01\/15\/g-sync-la-solution-que-les-joueurs-attendaient\/"},"modified":"2023-09-20T14:08:26","modified_gmt":"2023-09-20T12:08:26","slug":"g-sync-la-solution-que-les-joueurs-attendaient","status":"publish","type":"post","link":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/","title":{"rendered":"G-SYNC : LA solution que les joueurs attendaient ?"},"content":{"rendered":"
Outre le fait d\u2019afficher un gabarit massif et un poids consid\u00e9rable,\u00a0les moniteurs CRT renfermaient plusieurs composants au nom exotique comme par exemple un tube cathodique ou encore un canon \u00e0 \u00e9lectrons. Ce dernier envoyait un faisceau d\u2019\u00e9lectrons vers l\u2019\u00e9cran pour \u00e9clairer les points lumineux que l\u2019on appelle pixels. Le balayage \u00e9tait conduit pixel par pixel de la gauche vers la droite, ligne par ligne du sommet de l\u2019\u00e9cran jusqu\u2019\u00e0 sa base. A l\u2019\u00e9poque, il \u00e9tait d\u00e9licat de modifier la vitesse du canon \u00e0 \u00e9lectron apr\u00e8s chaque rafra\u00eechissement complet et cela ne s\u2019imposait pas comme une n\u00e9cessit\u00e9, vu que les premiers jeux 3D sont sortis plusieurs dizaines d\u2019ann\u00e9es apr\u00e8s les premiers moniteurs CRT. Les CRT et standards vid\u00e9o analogiques associ\u00e9s ont donc \u00e9t\u00e9 con\u00e7us avec des fr\u00e9quences de rafra\u00eechissement fixes.<\/p>\n\n
<\/p>\n\n
D\u00e9but 2000, les LCD ont commenc\u00e9 \u00e0 remplacer progressivement les CRT, de m\u00eame que les connexions num\u00e9riques (DVI, HDMI et DisplayPort) ont pris la suite des connexions analogiques (VGA). Cependant, les organismes charg\u00e9s de d\u00e9finir les signaux vid\u00e9o (\u00e0 commencer par le VESA) en sont rest\u00e9s \u00e0 des fr\u00e9quences de rafra\u00eechissement fixes. Apr\u00e8s tout, les programmes TV comme les films s\u2019appuient encore aujourd\u2019hui sur un signal d\u2019entr\u00e9e dont le d\u00e9bit d\u2019images est fixe. Encore une fois, le rafra\u00eechissement variable n\u2019est pas apparu comme une n\u00e9cessit\u00e9.<\/p>\n\n
<\/p>\n\n
D\u00e9bit d\u2019image variable et fr\u00e9quences fixes ne font pas bon m\u00e9nage<\/strong><\/p>\n\n <\/p>\n\n <\/a><\/span><\/span><\/span><\/span><\/p>\n\n <\/p>\n\n Le fait que les \u00e9crans aient une fr\u00e9quence de rafra\u00eechissement fixe n\u2019a donc jamais pos\u00e9 probl\u00e8me jusqu\u2019\u00e0 l\u2019av\u00e8nement des jeux 3D. Le probl\u00e8me s\u2019est r\u00e9v\u00e9l\u00e9 \u00e0 partir du moment o\u00f9 nous avons commenc\u00e9 \u00e0 avoir des GPU puissants\u00a0: la cadence \u00e0 laquelle ils rendent les images (le nombre d\u2019ips) n\u2019est pas constante. Un carte graphique<\/a> peut par exemple g\u00e9n\u00e9rer 30 ips au cours d\u2019une sc\u00e8ne particuli\u00e8rement charg\u00e9e pour atteindre 60 ips quelques instants plus tard lorsque l\u2019on regarde un ciel d\u00e9gag\u00e9 par exemple.<\/p>\n\n <\/p>\n\n <\/a><\/span><\/span><\/span><\/span><\/p>\n\n <\/p>\n\n Le d\u00e9bit d\u2019images irr\u00e9gulier d\u2019une carte graphique et la fr\u00e9quence de rafra\u00eechissement fixe d\u2019un moniteur ne font pas bon m\u00e9nage\u00a0: on assiste \u00e0 un ph\u00e9nom\u00e8ne de d\u00e9chirement de l’image, le tearing,<\/em> lorsque deux images ou plus sont rendues lors d\u2019un seul cycle de rafra\u00eechissement du moniteur. Concr\u00e8tement, les deux portions de l\u2019image apparaissent alors comme \u00e9tant mal align\u00e9es, une anomalie qui r\u00e9sulte du mouvement.<\/p>\n\n <\/p>\n\n <\/a><\/span><\/span><\/span><\/span><\/p>\n\n <\/p>\n\n L\u2019image ci-dessus montre deux anomalies bien connues et assez courantes, mais pourtant pas \u00e9videntes \u00e0 illustrer. \u00c9tant donn\u00e9 qu\u2019il s\u2019agit d\u2019anomalies d\u2019affichage, on ne les voit pas sur les captures d\u2019\u00e9cran r\u00e9alis\u00e9es en cours de partie.<\/em> Elles sont en revanche bien perceptibles sur un moniteur.<\/em> Il faut un appareil photo tr\u00e8s rapide pour capturer ces anomalies et les isoler, \u00e0 moins d\u2019avoir une carte d\u2019acquisition vid\u00e9o comme celle que nous utilisons pour nos benchmarks FCAT<\/a>\u00a0: on peut alors enregistrer un flux vid\u00e9o non compress\u00e9 depuis le port DVI et clairement voir la transition d\u2019une image \u00e0 l\u2019autre. Quoi qu\u2019il en soit, le meilleur moyen d\u2019appr\u00e9cier le ph\u00e9nom\u00e8ne est de l\u2019observer \u00e0 l\u2019\u0153il nu.<\/p>\n\n <\/p>\n\n On peut voir cet effet de tearing<\/em> sur les deux images ci-dessus, prises avec un appareil photo (ou bien celle qui figure ci-dessous, captur\u00e9e avec une carte d\u2019acquisition). L\u2019image est coup\u00e9e \u00e0 l\u2019horizontale et semble mal align\u00e9e. L\u2019image de gauche est obtenue avec un moniteur Sharp 60 Hz tandis que celle de droite est g\u00e9n\u00e9r\u00e9e par un \u00e9cran Asus 120 Hz. Naturellement, le tearing<\/em> est moins prononc\u00e9 sur le second gr\u00e2ce \u00e0 une fr\u00e9quence de rafra\u00eechissement deux fois plus \u00e9lev\u00e9e. Cependant, l\u2019anomalie reste perceptible dans les deux cas. Elle est par ailleurs caract\u00e9ristique du fait que les captures ont \u00e9t\u00e9 r\u00e9alis\u00e9es sans V-sync.<\/p>\n\n <\/p>\n\n <\/a><\/span><\/span><\/span><\/span><\/p>\n\n <\/p>\n\n L\u2019autre probl\u00e8me rencontr\u00e9 avec BioShock: Infinite<\/em> est le ghosting<\/em>, particuli\u00e8rement apparent dans le coin inf\u00e9rieur gauche de l\u2019image. Le ph\u00e9nom\u00e8ne est d\u00fb \u00e0 la r\u00e9activit\u00e9 de l\u2019\u00e9cran\u00a0: pour r\u00e9sumer, les pixels sont trop longs \u00e0 changer de couleur, provoquant ainsi une train\u00e9e. Cette anomalie est nettement plus d\u00e9rangeante en conditions de jeu que par le biais d\u2019une image. Une dalle proposant un temps de r\u00e9ponse gris \u00e0 gris de 8 ms, comme celle de Sharp, provoquera des effets de flou d\u00e8s lors que l\u2019on a des mouvements rapides \u00e0 l\u2019\u00e9cran. De ce fait, ces dalles ne sont g\u00e9n\u00e9ralement pas recommand\u00e9es pour jouer aux fps.<\/p>\n\n <\/p>\n\n V-sync\u00a0: r\u00e9soudre un probl\u00e8me par un autre<\/strong><\/p>\n\n <\/p>\n\n La synchronisation verticale (V-sync) est une vieille solution au probl\u00e8me de tearing. Pour r\u00e9sumer, cette technologie demande \u00e0 la carte vid\u00e9o de se synchroniser avec la fr\u00e9quence de rafra\u00eechissement de l\u2019\u00e9cran, \u00e9liminant donc compl\u00e8tement le tearing<\/em>. Cependant, si la carte graphique en question n\u2019arrive pas \u00e0 maintenir un minimum de 60 ips (sur un \u00e9cran 60 Hz), le nombre d\u2019ips affich\u00e9es \u00e0 l\u2019\u00e9cran ne cesse de varier sur la base de multiples entiers de la fr\u00e9quence de l\u2019\u00e9cran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter<\/em>).<\/p>\n\n <\/p>\n\n <\/a><\/span><\/span><\/span><\/span><\/p>\n\n <\/p>\n\n La carte vid\u00e9o \u00e9tant contrainte d\u2019attendre et parfois de s\u2019appuyer sur un troisi\u00e8me tampon m\u00e9moire, la V-sync peut engendrer \u00e9galement du retard dans l’affichage, le fameux input lag<\/em> qui peut vous couter la vie dans les FPS multijoueurs. Cette technologie peut donc \u00eatre soit une excellente solution soit un rem\u00e8de pire que le mal, vu que l\u2019on \u00e9limine le tearing au prix de deux nouveaux probl\u00e8mes. Apr\u00e8s avoir r\u00e9alis\u00e9 un sondage rapide au sein de la r\u00e9daction, il est apparu que la majorit\u00e9 d\u2019entre nous n\u2019active la V-sync qu\u2019\u00e0 partir du moment o\u00f9 le tearing<\/em> devient insupportable.<\/p>\n\n <\/p>\n\n NVIDIA lance G-SYNC<\/strong><\/p>\n\n <\/p>\n\n <\/a><\/span><\/span><\/span><\/span><\/p>\n\n <\/p>\n\n Lors du lancement de la GTX 680, NVIDIA a ajout\u00e9 une fonctionnalit\u00e9 dans ses pilotes r\u00e9pondant au nom d\u2019Adaptative V-sync. Cette derni\u00e8re tente de r\u00e9duire les d\u00e9fauts de la V-sync classique en s\u2019activant lorsque le nombre d\u2019ips est sup\u00e9rieur \u00e0 la fr\u00e9quence de l\u2019\u00e9cran pour se d\u00e9sactiver rapidement dans le cas contraire. Bien que cette technologie ait rempli son office, il s\u2019agit plus d\u2019un contournement du probl\u00e8me qu\u2019autre chose vu que le tearing<\/em> n\u2019est pas compl\u00e8tement \u00e9limin\u00e9 lorsque le nombre d\u2019ips est inf\u00e9rieur \u00e0 la fr\u00e9quence de l\u2019\u00e9cran.<\/p>\n\n <\/p>\n\n L\u2019arriv\u00e9e de G-SYNC est bien plus int\u00e9ressante\u00a0: NVIDIA nous montre qu\u2019au lieu de forcer les cartes graphiques \u00e0 afficher les jeux sur des moniteurs \u00e0 fr\u00e9quence constante, il est possible de faire fonctionner certains \u00e9crans avec une fr\u00e9quence de rafra\u00eechissement variable.<\/strong><\/p>\n\n <\/p>\n\n <\/a><\/span><\/span><\/span><\/span><\/p>\n\n <\/p>\n\n Le DisplayPort, plus particuli\u00e8rement son protocole de transmission de donn\u00e9es par micro-paquets, a offert une opportunit\u00e9. En utilisant les VBI (Vertical Blanking Interval) du signal vid\u00e9o DisplayPort et en rempla\u00e7ant le contr\u00f4leur du moniteur par un module capable de fonctionner avec un signal \u00e0 VBI, il est possible de faire varier la fr\u00e9quence de ce moniteur pour l\u2019aligner sur le d\u00e9bit d\u2019images de la carte graphique (dans la limite des fr\u00e9quences g\u00e9r\u00e9es par l\u2019\u00e9cran bien entendu). En pratique, NVIDIA a opt\u00e9 pour une approche cr\u00e9ative en utilisant des possibilit\u00e9s offertes par le DisplayPort, faisant ainsi d\u2019une pierre deux coups.<\/p>\n\n <\/p>\n\n Avant m\u00eame de passer aux tests, soulignons le caract\u00e8re particuli\u00e8rement innovant de cette approche, puisqu\u2019elle vise \u00e0 r\u00e9soudre un probl\u00e8me tr\u00e8s concret qui touche globalement les jeux PC. Mais comment G-SYNC fonctionne-t-il en pratique\u00a0?<\/p>\n\n <\/p>\n\n NVIDIA nous a envoy\u00e9 un prototype de l’\u00e9cran Asus VG248QE dont le contr\u00f4leur a \u00e9t\u00e9 remplac\u00e9 par le module G-SYNC. Ce moniteur est bien connu puisqu\u2019il s\u2019agit d\u2019un des meilleurs mod\u00e8les qui soit pour jouer \u00e0 l\u2019heure actuelle gr\u00e2ce \u00e0 son excellente r\u00e9activit\u00e9.<\/p>\n En parcourant la documentation fournie par NVIDIA \u00e0 la presse, nous nous sommes pos\u00e9 plusieurs questions vis-\u00e0-vis de la technologie G-SYNC \u00e0 l\u2019heure actuelle, ainsi que son r\u00f4le \u00e0 l\u2019avenir. Une visite chez la firme au cam\u00e9l\u00e9on nous a permis de trouver quelques r\u00e9ponses.<\/p>\n\n <\/p>\n\n G-SYNC et 3D LightBoost<\/strong><\/p>\n\n <\/p>\n\n La premi\u00e8re chose que nous avons remarqu\u00e9e tient au mat\u00e9riel qui nous a \u00e9t\u00e9 envoy\u00e9, \u00e0 savoir un moniteur Asus VG248QE modifi\u00e9 pour prendre en charge G-SYNC. Ce mod\u00e8le g\u00e8re \u00e9galement ce que NVIDIA appelle 3D LightBoost, une technologie lanc\u00e9e pour am\u00e9liorer la luminosit\u00e9 des contenus en 3D st\u00e9r\u00e9oscopique qui est depuis longtemps \u00e9galement utilis\u00e9e (de mani\u00e8re non-officielle) en 3D \u00ab\u00a0classique\u00a0\u00bb. Dans le second cas, le r\u00e9tro\u00e9clairage de la dalle par impulsions lumineuses sert \u00e0 r\u00e9duire le ghosting<\/em> (ou motion blur<\/em>) que nous avons \u00e9voqu\u00e9 sur la page pr\u00e9c\u00e9dente. Bien entendu, nous voulions savoir s\u2019il serait possible d\u2019associer les deux technologies.<\/p>\n\n <\/p>\n\n NVIDIA nous a r\u00e9pondu par la n\u00e9gative. Cette utilisation simultan\u00e9e a beau \u00eatre id\u00e9ale sur le papier, un r\u00e9tro\u00e9clairage de la dalle par impulsions \u00e0 des fr\u00e9quences de rafra\u00eechissement variables engendre pour l\u2019instant des probl\u00e8mes de scintillement et de luminosit\u00e9. La situation est tr\u00e8s compliqu\u00e9e puisqu\u2019il s\u2019agit d\u2019ajuster la luminance tout en contr\u00f4lant les impulsions lumineuses. NVIDIA travaille donc sur le probl\u00e8me mais il faut pour l\u2019instant faire un choix entre LightBoost et G-SYNC.<\/p>\n\n <\/p>\n\n <\/p>\n\n La m\u00e9moire embarqu\u00e9e du module G-SYNC<\/strong><\/p>\n\n <\/p>\n\n Comme nous le savons d\u00e9j\u00e0, G-SYNC \u00e9limine la latence additionnelle caus\u00e9e par la V-sync, \u00e9tant donn\u00e9 qu\u2019il n\u2019est plus n\u00e9cessaire d\u2019attendre que la dalle effectue un balayage. Ceci \u00e9tant dit, nous avons remarqu\u00e9 que le module G-SYNC dispose de m\u00e9moire embarqu\u00e9e. Mettrait-il lui-m\u00eame les images en tampon\u00a0? Si tel est le cas, quel est le temps n\u00e9cessaire \u00e0 une image pour qu\u2019elle traverse int\u00e9gralement le nouveau circuit de rendu\u00a0?<\/p>\n\n <\/p>\n\n D\u2019apr\u00e8s NVIDIA, les images ne sont jamais mises en tampon dans la m\u00e9moire de G-SYNC. Les donn\u00e9es arrivent, elles sont affich\u00e9es \u00e0 l\u2019\u00e9cran tandis que la m\u00e9moire est sollicit\u00e9e pour d\u2019autres t\u00e2ches. Le temps de traitement induit par G-SYNC est nettement inf\u00e9rieur \u00e0 une milliseconde, au point de s\u2019av\u00e9rer similaire \u00e0 celui que l\u2019on rencontre sans V-sync suivant l\u2019environnement (jeu, pilote graphique, souris et ainsi de suite).<\/p>\n\n <\/p>\n\n G-SYNC sera-t-il standardis\u00e9 un jour\u00a0?<\/strong><\/p>\n\n <\/p>\n\n Cette question a \u00e9t\u00e9 r\u00e9cemment soulev\u00e9e lors d\u2019une s\u00e9ance de questions\/r\u00e9ponses avec AMD, par un lecteur qui voulait connaitre la r\u00e9action de la firme de Sunnyvale par rapport \u00e0 G-SYNC. Nous voulions \u00e9galement avoir une r\u00e9action directe de NVIDIA pour savoir si l\u2019entreprise comptait mettre en avant sa technologie pour qu\u2019elle devienne un standard industriel. En th\u00e9orie, NVIDIA pourrait proposer G-SYNC comme une \u00e9volution du standard DisplayPort avec fr\u00e9quence de rafra\u00eechissement variable. Apr\u00e8s tout, NVIDIA est membre du VESA, principal organisme charg\u00e9 de la d\u00e9finition des standards vid\u00e9o.<\/p>\n\n <\/p>\n\n Le fait est que l\u2019ajout d\u2019une nouvelle fonctionnalit\u00e9 au DisplayPort, HDMI ou DVI n\u2019est pas \u00e0 l\u2019ordre du jour. G-SYNC est d\u00e9j\u00e0 fonctionnel avec le DisplayPort 1.2, ce qui veut dire qu\u2019un changement de standard n\u2019est pas n\u00e9cessaire.<\/p>\n\n <\/p>\n\n Comme nous l\u2019avons d\u00e9j\u00e0 \u00e9voqu\u00e9, NVIDIA travaille \u00e0 la compatibilit\u00e9 de G-SYNC avec ce qui s\u2019appelle pour l\u2019instant 3D LightBoost (la technologie changera bient\u00f4t de nom). La firme au cam\u00e9l\u00e9on tente \u00e9galement de faire baisser les co\u00fbts du module pour rendre G-SYNC plus accessible.<\/p>\n\n <\/p>\n\n <\/p>\n\n G-SYNC en Ultra HD<\/strong><\/p>\n\n <\/p>\n\n La foire aux questions sur le site de NVIDIA nous promet des moniteurs G-SYNC allant jusqu\u2019\u00e0 une d\u00e9finition de 3840×2160. Cependant, le moniteur dont nous faisons un aper\u00e7u aujourd\u2019hui est en 1920×1080. \u00c0 ce jour, les rares moniteurs Ultra HD s\u2019appuient sur un contr\u00f4leur STMicro Athena, lequel utilise deux \u00ab\u00a0scalers\u00a0\u00bb pour cr\u00e9er une image en \u00ab\u00a0tuiles\u00a0\u00bb, comme l\u2019Asus PQ321Q que nous avons vu en octobre dernier<\/a>. Ceci a piqu\u00e9 notre curiosit\u00e9\u00a0: le module G-SYNC peut-il prendre en charge une configuration MST (Multi-Stream Transport)\u00a0?<\/p>\n\n <\/p>\n\n A vrai dire, il va falloir attendre un bon moment avant de voir des \u00e9crans 4K avec fr\u00e9quence de rafra\u00eechissement variable\u00a0: il n\u2019y a pour l\u2019instant aucun contr\u00f4leur mono-puce capable de g\u00e9rer des d\u00e9finitions 4K. Dans le meilleur des cas, les premi\u00e8res annonces seront faites ce trimestre pour un d\u00e9but de commercialisation dans le courant du second semestre. Etant donn\u00e9 que le module G-SYNC remplace le contr\u00f4leur, les dalles compatibles avec la technologie de NVIDIA ne commenceraient donc \u00e0 voir le jour qu\u2019apr\u00e8s cette p\u00e9riode. Fort heureusement, il g\u00e8re nativement l\u2019Ultra HD.<\/p>\n\n <\/p>\n\n Que se passe-t-il \u00e0 moins de 30 Hz\u00a0?<\/strong><\/p>\n\n <\/p>\n\n La fr\u00e9quence de rafra\u00eechissement variable permise par G-SYNC descend jusqu\u2019\u00e0 30 Hz. Ceci s\u2019explique par le fait qu\u2019avec une fr\u00e9quence tr\u00e8s basse, l\u2019image produite par une dalle LCD finit par se d\u00e9t\u00e9riorer et engendrer des anomalies. Si la source descend en dessous de 30 ips, le module G-SYNC sait g\u00e9rer automatiquement la fr\u00e9quence de rafra\u00eechissement pour \u00e9viter ces probl\u00e8mes. Ceci peut amener \u00e0 afficher la m\u00eame image plus d\u2019une fois, mais le seuil est donc d\u00e9fini \u00e0 30 Hz pour garantir la meilleure exp\u00e9rience visuelle possible.<\/p>\n La technologie est-elle r\u00e9serv\u00e9e aux dalles les plus r\u00e9actives\u00a0?<\/strong><\/p>\n\n <\/p>\n\n On remarque que le premier moniteur accueillant G-SYNC apr\u00e8s modification disposait d\u00e9j\u00e0 d\u2019une fr\u00e9quence de rafra\u00eechissement tr\u00e8s \u00e9lev\u00e9e (laquelle d\u00e9passe largement la plage optimale pour la technologie de NVIDIA) ainsi qu\u2019une d\u00e9finition de 1920×1080. L\u2019\u00e9cran d\u2019Asus a cependant ses propres limites, comme par exemple une dalle TN 6 bits. Nous voulions donc savoir si NVIDIA pr\u00e9voyait de limiter G-SYNC aux moniteurs les plus r\u00e9actifs, ou bien si l\u2019on pourrait \u00e9galement voir cette technologie sur des mod\u00e8les 60 Hz plus courants. Par ailleurs, nous souhaitons pouvoir acc\u00e9der \u00e0 des moniteurs en 2560×1440 le plus rapidement possible.<\/p>\n\n <\/p>\n\n NVIDIA a de nouveau insist\u00e9 sur le fait que G-SYNC donne le meilleur de lui-m\u00eame lorsque la carte graphique d\u00e9bite entre 30 et 60 ips. En cons\u00e9quence, la technologie peut r\u00e9ellement b\u00e9n\u00e9ficier aux moniteurs 60 Hz \u00e9quip\u00e9s a posteriori<\/em> d\u2019un module G-SYNC.<\/p>\n\n <\/p>\n\n Pourquoi donc commencer avec un moniteur 144 Hz\u00a0? Il semble que bon nombres de marques veulent activer la fonctionnalit\u00e9 qui limite le flou de mouvement (3D LightBoost), laquelle n\u00e9cessite<\/em> des fr\u00e9quences de rafra\u00eechissement \u00e9lev\u00e9es. Mais pour tous ceux qui sont pr\u00eats \u00e0 faire sans cette fonctionnalit\u00e9 (pourquoi pas, d\u2019autant plus qu\u2019elle est de toute mani\u00e8re incompatible avec G-SYNC pour le moment), il est th\u00e9oriquement possible d\u2019obtenir un moniteur avec G-SYNC pour un co\u00fbt nettement inf\u00e9rieur.<\/p>\n\n <\/p>\n\n Pour ce qui est de la d\u00e9finition,\u00a0le premier moniteur 2560\u00d71440 pixels G-SYNC a \u00e9t\u00e9 annonc\u00e9 la semaine derni\u00e8re\u00a0: il s\u2019agit de l\u2019Asus ROG SWIFT PG278Q, lequel est pr\u00e9vu pour le d\u00e9but du deuxi\u00e8me trimestre. Notons qu\u2019il s\u2019agit d\u2019une dalle TN \u00ab\u00a0120+ Hz\u00a0\u00bb.<\/p>\n\n <\/p>\n\n SLI et G-SYNC sont-ils compatibles\u00a0?<\/strong><\/p>\n\n <\/p>\n\n La foire aux questions de NVIDIA pr\u00e9cise clairement que G-SYNC et SLI sont compatibles, une bonne nouvelle quand on pense aux futurs moniteurs 1440p orient\u00e9s vers le jeu. La carte graphique reli\u00e9e au moniteur est alors celle qui g\u00e8re la technologie de rafra\u00eechissement variable.<\/p>\n\n <\/p>\n\n Ce point m\u00e9rite toutefois quelques explications suppl\u00e9mentaires. Nous avons longuement discut\u00e9 avec AMD au sujet du Frame Pacing (technologie permettant de corriger le probl\u00e8me de micro-saccades) que la firme de Sunnyvale a impl\u00e9ment\u00e9 dans ses Catalyst. NVIDIA traite le probl\u00e8me diff\u00e9remment, par le biais d\u2019un circuit logique au sein de l\u2019architecture Kepler. Quoi qu\u2019il en soit, cette m\u00eame technologie qui permet d\u2019afficher les images \u00e0 un rythme r\u00e9gulier sans V-sync en SLI est n\u00e9cessaire pour que G-SYNC puisse fonctionner correctement. Aucune t\u00e2che suppl\u00e9mentaire n\u2019est n\u00e9cessaire\u00a0: les images sont affich\u00e9es depuis le GPU \u00ab\u00a0ma\u00eetre\u00a0\u00bb, lequel g\u00e8re \u00e9galement G-SYNC.<\/p>\n\n <\/p>\n\n Quelles sont les conditions n\u00e9cessaires pour b\u00e9n\u00e9ficier de G-SYNC en Surround\u00a0?<\/strong><\/p>\n\n <\/p>\n\n L\u2019id\u00e9e d\u2019associer plusieurs cartes graphiques pour jouer sur un moniteur 1080p n\u2019a pas vraiment d\u2019int\u00e9r\u00eat\u00a0: m\u00eame une carte milieu de gamme bas\u00e9e sur Kepler devrait parvenir \u00e0 un d\u00e9bit d\u2019image suffisant pour l\u2019immense majorit\u00e9 des jeux avec cette d\u00e9finition. Par ailleurs, il est actuellement impossible d\u2019utiliser un SLI compos\u00e9 de deux cartes graphiques avec trois moniteurs G-SYNC en Surround.<\/p>\n\n <\/p>\n\n Ceci est une limitation inh\u00e9rente \u00e0 la connectique des cartes NVIDIA, laquelle inclut g\u00e9n\u00e9ralement deux ports DVI, un HDMI et un DisplayPort. G-SYNC n\u00e9cessite du DisplayPort 1.2 sachant qu\u2019un adaptateur ou un r\u00e9partiteur DisplayPort MST ne permettent pas de contourner le probl\u00e8me.\u00a0La seule mani\u00e8re d\u2019acc\u00e9der au Surround consiste donc \u00e0 utiliser trois cartes graphiques, chacune reli\u00e9e \u00e0 son propre moniteur. Cependant, il nous semble que les partenaires de NVIDIA sont susceptibles de commercialiser \u00e0 moyen terme des GeForce \u00ab\u00a0G-SYNC Edition\u00a0\u00bb mieux \u00e9quip\u00e9es en connectique DisplayPort.<\/p>\n\n <\/p>\n\n G-SYNC et Triple Buffering<\/strong><\/p>\n\n <\/p>\n\n L\u2019activation du triple-buffering est-elle n\u00e9cessaire pour avoir un rendu aussi fluide que possible avec G-SYNC, de mani\u00e8re comparable \u00e0 ce que l\u2019on fait avec la V-sync\u00a0? La r\u00e9ponse est n\u00e9gative\u00a0: G-SYNC n\u2019a pas besoin du triple-buffering parce que le circuit de rendu n\u2019est jamais encombr\u00e9. Au contraire, l\u2019association des deux est m\u00eame contre-productive puisque l\u2019on cr\u00e9e ainsi une latence suppl\u00e9mentaire sans gain de performances. Malheureusement, le triple-buffering est souvent param\u00e9tr\u00e9 par les jeux eux-m\u00eames sans que l\u2019on ait la possibilit\u00e9 de le d\u00e9sactiver manuellement.<\/p>\n\n <\/p>\n\n Qu\u2019en est-il des jeux qui r\u00e9agissent mal \u00e0 l\u2019absence de V-sync\u00a0?<\/strong><\/p>\n\n <\/p>\n\n Des titres comme Skyrim<\/em>, lequel fait partie de notre suite de tests, sont con\u00e7us pour \u00eatre jou\u00e9s avec V-sync sur une dalle 60 Hz (malgr\u00e9 le fait que certains parmi nous s\u2019arrachent les cheveux face \u00e0 l\u2019input lag ainsi engendr\u00e9). Pour tester ces jeux, il faut donc modifier quelques fichiers .ini. Comment G-SYNC se comporte avec des jeux bas\u00e9s sur les moteurs Gamebryo ou Creation, lesquels sont sensibles \u00e0 la V-sync\u00a0? La fr\u00e9quence est-elle plafonn\u00e9e \u00e0 60 Hz\u00a0?<\/p>\n\n <\/p>\n\n Etant donn\u00e9 qu\u2019il s\u2019agit d\u2019une caract\u00e9ristique du jeu, G-SYNC ne la change pas, tout comme le fait de jouer sur un moniteur 120 ou 144 Hz avec V-sync n\u2019a pas d\u2019influence. Toutefois, NVIDIA affirme que sa technologie devrait bien cohabiter avec des jeux comme Skyrim sous r\u00e9serve qu\u2019ils soient limit\u00e9s au d\u00e9bit d\u2019images attendu par leur moteur. Dans ce genre de cas, il convient de d\u00e9finir une fr\u00e9quence de 60 Hz puis d\u2019activer G-SYNC afin que la fonctionnalit\u00e9 se conforme au d\u00e9bit d\u2019images maximal ad\u00e9quat.<\/p>\n\n <\/p>\n\n Quelle est la disponibilit\u00e9 et le prix de G-SYNC\u00a0?<\/strong><\/p>\n\n <\/p>\n\n A ce stade, NVIDIA s\u2019attend \u00e0 ce que ses partenaires commencent \u00e0 commercialiser les premiers moniteurs G-SYNC au cours du premier trimestre 2014. A en croire la firme au cam\u00e9l\u00e9on, le prix sera moins probl\u00e9matique que ce \u00e0 quoi l\u2019on s\u2019attendait compte tenu du fait que le module G-SYNC remplace le scaler du moniteur. Si l\u2019on envisage les choses de mani\u00e8re strictement rationnelle, le delta entre ces deux composants devrait donc correspondre \u00e0 l\u2019\u00e9cart tarifaire.<\/p>\n\n <\/p>\n\n Mieux vaut avoir une souris rapide<\/strong><\/p>\n\n <\/p>\n\n Enfin, NVIDIA attire notre attention sur le fait qu\u2019une souris rapide est vivement conseill\u00e9e pour une configuration avec G-SYNC. Une fr\u00e9quence d\u2019\u00e9chantillonage du positionnement de la souris (polling rate) \u00e0 1000 Hz permet de s\u2019assurer que le p\u00e9riph\u00e9rique n\u2019influe pas n\u00e9gativement sur les temps de r\u00e9action.<\/p>\n G-SYNC ne fait donc partie d\u2019aucun standard et NVIDIA ne pr\u00e9voit pas de militer pour inclure sa technologie dans une prochaine r\u00e9vision du DisplayPort. En cons\u00e9quence, G-SYNC n\u00e9cessite quelques pr\u00e9requis avant de pouvoir fonctionner.<\/p>\n\n <\/p>\n\n En premier lieu, il faut une carte NVIDIA et plus sp\u00e9cifiquement une GeForce GTX 650 Ti ou mieux. Kepler est la premi\u00e8re architecture graphique munie d\u2019un contr\u00f4leur d\u2019affichage qui peut \u00eatre programm\u00e9 pour G-SYNC, ce qui veut dire que la technologie sera tout simplement incapable de fonctionner avec une carte bas\u00e9e sur Fermi, aussi puissante soit-elle. L\u2019architecture Maxwell ayant \u00e9t\u00e9 sp\u00e9cifiquement con\u00e7ue pour prendre en charge G-SYNC, toutes les cartes \u00e0 venir seront compatibles.<\/p>\n\n <\/p>\n\n Le second pr\u00e9requis est un moniteur \u00e9quip\u00e9 du module G-SYNC. Etant donn\u00e9 que ce dernier remplace le contr\u00f4leur de l\u2019\u00e9cran, il est impossible d\u2019ajouter G-SYNC \u00e0 un moniteur Ultra HD en tuiles par exemple. Dans l\u2019imm\u00e9diat, nous utilisons un prototype bas\u00e9 sur l\u2019Asus VG248QE capable d\u2019atteindre 1920×1080 \u00e0 144 Hz, mais il faut imaginer l\u2019\u00e9cho que pourrait trouver G-SYNC si les constructeurs commencent \u00e0 associer le module \u00e0 des dalles 60 Hz moins co\u00fbteuses.<\/p>\n\n <\/p>\n\n Enfin, il faut n\u00e9cessairement utiliser un c\u00e2ble DisplayPort 1.2\u00a0: DVI et HDMI ne sont tout simplement pas pris en charge. Pour le moment, cela signifie qu\u2019il faut une carte graphique par \u00e9cran lorsque l\u2019on veut b\u00e9n\u00e9ficier de G-SYNC en Surround puisque les GeForce ont au mieux une seule sortie DisplayPort.<\/p>\n\n <\/p>\n\n Ajoutons \u00e0 cela qu\u2019il faut \u00e9galement une prise en charge au niveau des pilotes, ce qui est le cas depuis les 331.93 beta.<\/p>\n\n <\/p>\n\n Configuration du test<\/strong><\/p>\n\n <\/p>\n\n3D LightBoost, m\u00e9moire embarqu\u00e9e, standards et 4K<\/h2>\n
<\/a><\/span><\/span><\/span><\/span><\/h3>\n\n
<\/a><\/span><\/span><\/span><\/span><\/h3>\n\n
Dalles 60 Hz, SLI, Surround et disponibilit\u00e9<\/h2>\n
Pr\u00e9requis mat\u00e9riel et configuration du test<\/h2>\n