{"id":76737,"date":"2014-01-15T10:10:00","date_gmt":"2014-01-15T09:10:00","guid":{"rendered":"https:\/\/cms.galaxiemedia.fr\/tomshardware\/2014\/01\/15\/g-sync-la-solution-que-les-joueurs-attendaient\/"},"modified":"2023-09-20T14:08:26","modified_gmt":"2023-09-20T12:08:26","slug":"g-sync-la-solution-que-les-joueurs-attendaient","status":"publish","type":"post","link":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/","title":{"rendered":"G-SYNC : LA solution que les joueurs attendaient ?"},"content":{"rendered":"

Introduction<\/h2>\n

Outre le fait d\u2019afficher un gabarit massif et un poids consid\u00e9rable,\u00a0les moniteurs CRT renfermaient plusieurs composants au nom exotique comme par exemple un tube cathodique ou encore un canon \u00e0 \u00e9lectrons. Ce dernier envoyait un faisceau d\u2019\u00e9lectrons vers l\u2019\u00e9cran pour \u00e9clairer les points lumineux que l\u2019on appelle pixels. Le balayage \u00e9tait conduit pixel par pixel de la gauche vers la droite, ligne par ligne du sommet de l\u2019\u00e9cran jusqu\u2019\u00e0 sa base. A l\u2019\u00e9poque, il \u00e9tait d\u00e9licat de modifier la vitesse du canon \u00e0 \u00e9lectron apr\u00e8s chaque rafra\u00eechissement complet et cela ne s\u2019imposait pas comme une n\u00e9cessit\u00e9, vu que les premiers jeux 3D sont sortis plusieurs dizaines d\u2019ann\u00e9es apr\u00e8s les premiers moniteurs CRT. Les CRT et standards vid\u00e9o analogiques associ\u00e9s ont donc \u00e9t\u00e9 con\u00e7us avec des fr\u00e9quences de rafra\u00eechissement fixes.<\/p>\n\n

<\/p>\n\n

D\u00e9but 2000, les LCD ont commenc\u00e9 \u00e0 remplacer progressivement les CRT, de m\u00eame que les connexions num\u00e9riques (DVI, HDMI et DisplayPort) ont pris la suite des connexions analogiques (VGA). Cependant, les organismes charg\u00e9s de d\u00e9finir les signaux vid\u00e9o (\u00e0 commencer par le VESA) en sont rest\u00e9s \u00e0 des fr\u00e9quences de rafra\u00eechissement fixes. Apr\u00e8s tout, les programmes TV comme les films s\u2019appuient encore aujourd\u2019hui sur un signal d\u2019entr\u00e9e dont le d\u00e9bit d\u2019images est fixe. Encore une fois, le rafra\u00eechissement variable n\u2019est pas apparu comme une n\u00e9cessit\u00e9.<\/p>\n\n

<\/p>\n\n

D\u00e9bit d\u2019image variable et fr\u00e9quences fixes ne font pas bon m\u00e9nage<\/strong><\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Le fait que les \u00e9crans aient une fr\u00e9quence de rafra\u00eechissement fixe n\u2019a donc jamais pos\u00e9 probl\u00e8me jusqu\u2019\u00e0 l\u2019av\u00e8nement des jeux 3D. Le probl\u00e8me s\u2019est r\u00e9v\u00e9l\u00e9 \u00e0 partir du moment o\u00f9 nous avons commenc\u00e9 \u00e0 avoir des GPU puissants\u00a0: la cadence \u00e0 laquelle ils rendent les images (le nombre d\u2019ips) n\u2019est pas constante. Un carte graphique<\/a> peut par exemple g\u00e9n\u00e9rer 30 ips au cours d\u2019une sc\u00e8ne particuli\u00e8rement charg\u00e9e pour atteindre 60 ips quelques instants plus tard lorsque l\u2019on regarde un ciel d\u00e9gag\u00e9 par exemple.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Le d\u00e9bit d\u2019images irr\u00e9gulier d\u2019une carte graphique et la fr\u00e9quence de rafra\u00eechissement fixe d\u2019un moniteur ne font pas bon m\u00e9nage\u00a0: on assiste \u00e0 un ph\u00e9nom\u00e8ne de d\u00e9chirement de l’image, le tearing,<\/em> lorsque deux images ou plus sont rendues lors d\u2019un seul cycle de rafra\u00eechissement du moniteur. Concr\u00e8tement, les deux portions de l\u2019image apparaissent alors comme \u00e9tant mal align\u00e9es, une anomalie qui r\u00e9sulte du mouvement.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

L\u2019image ci-dessus montre deux anomalies bien connues et assez courantes, mais pourtant pas \u00e9videntes \u00e0 illustrer. \u00c9tant donn\u00e9 qu\u2019il s\u2019agit d\u2019anomalies d\u2019affichage, on ne les voit pas sur les captures d\u2019\u00e9cran r\u00e9alis\u00e9es en cours de partie.<\/em> Elles sont en revanche bien perceptibles sur un moniteur.<\/em> Il faut un appareil photo tr\u00e8s rapide pour capturer ces anomalies et les isoler, \u00e0 moins d\u2019avoir une carte d\u2019acquisition vid\u00e9o comme celle que nous utilisons pour nos benchmarks FCAT<\/a>\u00a0: on peut alors enregistrer un flux vid\u00e9o non compress\u00e9 depuis le port DVI et clairement voir la transition d\u2019une image \u00e0 l\u2019autre. Quoi qu\u2019il en soit, le meilleur moyen d\u2019appr\u00e9cier le ph\u00e9nom\u00e8ne est de l\u2019observer \u00e0 l\u2019\u0153il nu.<\/p>\n\n

<\/p>\n\n

On peut voir cet effet de tearing<\/em> sur les deux images ci-dessus, prises avec un appareil photo (ou bien celle qui figure ci-dessous, captur\u00e9e avec une carte d\u2019acquisition). L\u2019image est coup\u00e9e \u00e0 l\u2019horizontale et semble mal align\u00e9e. L\u2019image de gauche est obtenue avec un moniteur Sharp 60 Hz tandis que celle de droite est g\u00e9n\u00e9r\u00e9e par un \u00e9cran Asus 120 Hz. Naturellement, le tearing<\/em> est moins prononc\u00e9 sur le second gr\u00e2ce \u00e0 une fr\u00e9quence de rafra\u00eechissement deux fois plus \u00e9lev\u00e9e. Cependant, l\u2019anomalie reste perceptible dans les deux cas. Elle est par ailleurs caract\u00e9ristique du fait que les captures ont \u00e9t\u00e9 r\u00e9alis\u00e9es sans V-sync.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

L\u2019autre probl\u00e8me rencontr\u00e9 avec BioShock: Infinite<\/em> est le ghosting<\/em>, particuli\u00e8rement apparent dans le coin inf\u00e9rieur gauche de l\u2019image. Le ph\u00e9nom\u00e8ne est d\u00fb \u00e0 la r\u00e9activit\u00e9 de l\u2019\u00e9cran\u00a0: pour r\u00e9sumer, les pixels sont trop longs \u00e0 changer de couleur, provoquant ainsi une train\u00e9e. Cette anomalie est nettement plus d\u00e9rangeante en conditions de jeu que par le biais d\u2019une image. Une dalle proposant un temps de r\u00e9ponse gris \u00e0 gris de 8 ms, comme celle de Sharp, provoquera des effets de flou d\u00e8s lors que l\u2019on a des mouvements rapides \u00e0 l\u2019\u00e9cran. De ce fait, ces dalles ne sont g\u00e9n\u00e9ralement pas recommand\u00e9es pour jouer aux fps.<\/p>\n\n

<\/p>\n\n

V-sync\u00a0: r\u00e9soudre un probl\u00e8me par un autre<\/strong><\/p>\n\n

<\/p>\n\n

La synchronisation verticale (V-sync) est une vieille solution au probl\u00e8me de tearing. Pour r\u00e9sumer, cette technologie demande \u00e0 la carte vid\u00e9o de se synchroniser avec la fr\u00e9quence de rafra\u00eechissement de l\u2019\u00e9cran, \u00e9liminant donc compl\u00e8tement le tearing<\/em>. Cependant, si la carte graphique en question n\u2019arrive pas \u00e0 maintenir un minimum de 60 ips (sur un \u00e9cran 60 Hz), le nombre d\u2019ips affich\u00e9es \u00e0 l\u2019\u00e9cran ne cesse de varier sur la base de multiples entiers de la fr\u00e9quence de l\u2019\u00e9cran (60, 30, 20, 15 ips et ainsi de suite), provoquant ainsi des saccades (stutter<\/em>).<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

La carte vid\u00e9o \u00e9tant contrainte d\u2019attendre et parfois de s\u2019appuyer sur un troisi\u00e8me tampon m\u00e9moire, la V-sync peut engendrer \u00e9galement du retard dans l’affichage, le fameux input lag<\/em> qui peut vous couter la vie dans les FPS multijoueurs. Cette technologie peut donc \u00eatre soit une excellente solution soit un rem\u00e8de pire que le mal, vu que l\u2019on \u00e9limine le tearing au prix de deux nouveaux probl\u00e8mes. Apr\u00e8s avoir r\u00e9alis\u00e9 un sondage rapide au sein de la r\u00e9daction, il est apparu que la majorit\u00e9 d\u2019entre nous n\u2019active la V-sync qu\u2019\u00e0 partir du moment o\u00f9 le tearing<\/em> devient insupportable.<\/p>\n\n

<\/p>\n\n

NVIDIA lance G-SYNC<\/strong><\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Lors du lancement de la GTX 680, NVIDIA a ajout\u00e9 une fonctionnalit\u00e9 dans ses pilotes r\u00e9pondant au nom d\u2019Adaptative V-sync. Cette derni\u00e8re tente de r\u00e9duire les d\u00e9fauts de la V-sync classique en s\u2019activant lorsque le nombre d\u2019ips est sup\u00e9rieur \u00e0 la fr\u00e9quence de l\u2019\u00e9cran pour se d\u00e9sactiver rapidement dans le cas contraire. Bien que cette technologie ait rempli son office, il s\u2019agit plus d\u2019un contournement du probl\u00e8me qu\u2019autre chose vu que le tearing<\/em> n\u2019est pas compl\u00e8tement \u00e9limin\u00e9 lorsque le nombre d\u2019ips est inf\u00e9rieur \u00e0 la fr\u00e9quence de l\u2019\u00e9cran.<\/p>\n\n

<\/p>\n\n

L\u2019arriv\u00e9e de G-SYNC est bien plus int\u00e9ressante\u00a0: NVIDIA nous montre qu\u2019au lieu de forcer les cartes graphiques \u00e0 afficher les jeux sur des moniteurs \u00e0 fr\u00e9quence constante, il est possible de faire fonctionner certains \u00e9crans avec une fr\u00e9quence de rafra\u00eechissement variable.<\/strong><\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Le DisplayPort, plus particuli\u00e8rement son protocole de transmission de donn\u00e9es par micro-paquets, a offert une opportunit\u00e9. En utilisant les VBI (Vertical Blanking Interval) du signal vid\u00e9o DisplayPort et en rempla\u00e7ant le contr\u00f4leur du moniteur par un module capable de fonctionner avec un signal \u00e0 VBI, il est possible de faire varier la fr\u00e9quence de ce moniteur pour l\u2019aligner sur le d\u00e9bit d\u2019images de la carte graphique (dans la limite des fr\u00e9quences g\u00e9r\u00e9es par l\u2019\u00e9cran bien entendu). En pratique, NVIDIA a opt\u00e9 pour une approche cr\u00e9ative en utilisant des possibilit\u00e9s offertes par le DisplayPort, faisant ainsi d\u2019une pierre deux coups.<\/p>\n\n

<\/p>\n\n

Avant m\u00eame de passer aux tests, soulignons le caract\u00e8re particuli\u00e8rement innovant de cette approche, puisqu\u2019elle vise \u00e0 r\u00e9soudre un probl\u00e8me tr\u00e8s concret qui touche globalement les jeux PC. Mais comment G-SYNC fonctionne-t-il en pratique\u00a0?<\/p>\n\n

<\/p>\n\n

NVIDIA nous a envoy\u00e9 un prototype de l’\u00e9cran Asus VG248QE dont le contr\u00f4leur a \u00e9t\u00e9 remplac\u00e9 par le module G-SYNC. Ce moniteur est bien connu puisqu\u2019il s\u2019agit d\u2019un des meilleurs mod\u00e8les qui soit pour jouer \u00e0 l\u2019heure actuelle gr\u00e2ce \u00e0 son excellente r\u00e9activit\u00e9.<\/p>\n

3D LightBoost, m\u00e9moire embarqu\u00e9e, standards et 4K<\/h2>\n

En parcourant la documentation fournie par NVIDIA \u00e0 la presse, nous nous sommes pos\u00e9 plusieurs questions vis-\u00e0-vis de la technologie G-SYNC \u00e0 l\u2019heure actuelle, ainsi que son r\u00f4le \u00e0 l\u2019avenir. Une visite chez la firme au cam\u00e9l\u00e9on nous a permis de trouver quelques r\u00e9ponses.<\/p>\n\n

<\/p>\n\n

G-SYNC et 3D LightBoost<\/strong><\/p>\n\n

<\/p>\n\n

La premi\u00e8re chose que nous avons remarqu\u00e9e tient au mat\u00e9riel qui nous a \u00e9t\u00e9 envoy\u00e9, \u00e0 savoir un moniteur Asus VG248QE modifi\u00e9 pour prendre en charge G-SYNC. Ce mod\u00e8le g\u00e8re \u00e9galement ce que NVIDIA appelle 3D LightBoost, une technologie lanc\u00e9e pour am\u00e9liorer la luminosit\u00e9 des contenus en 3D st\u00e9r\u00e9oscopique qui est depuis longtemps \u00e9galement utilis\u00e9e (de mani\u00e8re non-officielle) en 3D \u00ab\u00a0classique\u00a0\u00bb. Dans le second cas, le r\u00e9tro\u00e9clairage de la dalle par impulsions lumineuses sert \u00e0 r\u00e9duire le ghosting<\/em> (ou motion blur<\/em>) que nous avons \u00e9voqu\u00e9 sur la page pr\u00e9c\u00e9dente. Bien entendu, nous voulions savoir s\u2019il serait possible d\u2019associer les deux technologies.<\/p>\n\n

<\/p>\n\n

NVIDIA nous a r\u00e9pondu par la n\u00e9gative. Cette utilisation simultan\u00e9e a beau \u00eatre id\u00e9ale sur le papier, un r\u00e9tro\u00e9clairage de la dalle par impulsions \u00e0 des fr\u00e9quences de rafra\u00eechissement variables engendre pour l\u2019instant des probl\u00e8mes de scintillement et de luminosit\u00e9. La situation est tr\u00e8s compliqu\u00e9e puisqu\u2019il s\u2019agit d\u2019ajuster la luminance tout en contr\u00f4lant les impulsions lumineuses. NVIDIA travaille donc sur le probl\u00e8me mais il faut pour l\u2019instant faire un choix entre LightBoost et G-SYNC.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/h3>\n\n

<\/p>\n\n

La m\u00e9moire embarqu\u00e9e du module G-SYNC<\/strong><\/p>\n\n

<\/p>\n\n

Comme nous le savons d\u00e9j\u00e0, G-SYNC \u00e9limine la latence additionnelle caus\u00e9e par la V-sync, \u00e9tant donn\u00e9 qu\u2019il n\u2019est plus n\u00e9cessaire d\u2019attendre que la dalle effectue un balayage. Ceci \u00e9tant dit, nous avons remarqu\u00e9 que le module G-SYNC dispose de m\u00e9moire embarqu\u00e9e. Mettrait-il lui-m\u00eame les images en tampon\u00a0? Si tel est le cas, quel est le temps n\u00e9cessaire \u00e0 une image pour qu\u2019elle traverse int\u00e9gralement le nouveau circuit de rendu\u00a0?<\/p>\n\n

<\/p>\n\n

D\u2019apr\u00e8s NVIDIA, les images ne sont jamais mises en tampon dans la m\u00e9moire de G-SYNC. Les donn\u00e9es arrivent, elles sont affich\u00e9es \u00e0 l\u2019\u00e9cran tandis que la m\u00e9moire est sollicit\u00e9e pour d\u2019autres t\u00e2ches. Le temps de traitement induit par G-SYNC est nettement inf\u00e9rieur \u00e0 une milliseconde, au point de s\u2019av\u00e9rer similaire \u00e0 celui que l\u2019on rencontre sans V-sync suivant l\u2019environnement (jeu, pilote graphique, souris et ainsi de suite).<\/p>\n\n

<\/p>\n\n

G-SYNC sera-t-il standardis\u00e9 un jour\u00a0?<\/strong><\/p>\n\n

<\/p>\n\n

Cette question a \u00e9t\u00e9 r\u00e9cemment soulev\u00e9e lors d\u2019une s\u00e9ance de questions\/r\u00e9ponses avec AMD, par un lecteur qui voulait connaitre la r\u00e9action de la firme de Sunnyvale par rapport \u00e0 G-SYNC. Nous voulions \u00e9galement avoir une r\u00e9action directe de NVIDIA pour savoir si l\u2019entreprise comptait mettre en avant sa technologie pour qu\u2019elle devienne un standard industriel. En th\u00e9orie, NVIDIA pourrait proposer G-SYNC comme une \u00e9volution du standard DisplayPort avec fr\u00e9quence de rafra\u00eechissement variable. Apr\u00e8s tout, NVIDIA est membre du VESA, principal organisme charg\u00e9 de la d\u00e9finition des standards vid\u00e9o.<\/p>\n\n

<\/p>\n\n

Le fait est que l\u2019ajout d\u2019une nouvelle fonctionnalit\u00e9 au DisplayPort, HDMI ou DVI n\u2019est pas \u00e0 l\u2019ordre du jour. G-SYNC est d\u00e9j\u00e0 fonctionnel avec le DisplayPort 1.2, ce qui veut dire qu\u2019un changement de standard n\u2019est pas n\u00e9cessaire.<\/p>\n\n

<\/p>\n\n

Comme nous l\u2019avons d\u00e9j\u00e0 \u00e9voqu\u00e9, NVIDIA travaille \u00e0 la compatibilit\u00e9 de G-SYNC avec ce qui s\u2019appelle pour l\u2019instant 3D LightBoost (la technologie changera bient\u00f4t de nom). La firme au cam\u00e9l\u00e9on tente \u00e9galement de faire baisser les co\u00fbts du module pour rendre G-SYNC plus accessible.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/h3>\n\n

<\/p>\n\n

G-SYNC en Ultra HD<\/strong><\/p>\n\n

<\/p>\n\n

La foire aux questions sur le site de NVIDIA nous promet des moniteurs G-SYNC allant jusqu\u2019\u00e0 une d\u00e9finition de 3840×2160. Cependant, le moniteur dont nous faisons un aper\u00e7u aujourd\u2019hui est en 1920×1080. \u00c0 ce jour, les rares moniteurs Ultra HD s\u2019appuient sur un contr\u00f4leur STMicro Athena, lequel utilise deux \u00ab\u00a0scalers\u00a0\u00bb pour cr\u00e9er une image en \u00ab\u00a0tuiles\u00a0\u00bb, comme l\u2019Asus PQ321Q que nous avons vu en octobre dernier<\/a>. Ceci a piqu\u00e9 notre curiosit\u00e9\u00a0: le module G-SYNC peut-il prendre en charge une configuration MST (Multi-Stream Transport)\u00a0?<\/p>\n\n

<\/p>\n\n

A vrai dire, il va falloir attendre un bon moment avant de voir des \u00e9crans 4K avec fr\u00e9quence de rafra\u00eechissement variable\u00a0: il n\u2019y a pour l\u2019instant aucun contr\u00f4leur mono-puce capable de g\u00e9rer des d\u00e9finitions 4K. Dans le meilleur des cas, les premi\u00e8res annonces seront faites ce trimestre pour un d\u00e9but de commercialisation dans le courant du second semestre. Etant donn\u00e9 que le module G-SYNC remplace le contr\u00f4leur, les dalles compatibles avec la technologie de NVIDIA ne commenceraient donc \u00e0 voir le jour qu\u2019apr\u00e8s cette p\u00e9riode. Fort heureusement, il g\u00e8re nativement l\u2019Ultra HD.<\/p>\n\n

<\/p>\n\n

Que se passe-t-il \u00e0 moins de 30 Hz\u00a0?<\/strong><\/p>\n\n

<\/p>\n\n

La fr\u00e9quence de rafra\u00eechissement variable permise par G-SYNC descend jusqu\u2019\u00e0 30 Hz. Ceci s\u2019explique par le fait qu\u2019avec une fr\u00e9quence tr\u00e8s basse, l\u2019image produite par une dalle LCD finit par se d\u00e9t\u00e9riorer et engendrer des anomalies. Si la source descend en dessous de 30 ips, le module G-SYNC sait g\u00e9rer automatiquement la fr\u00e9quence de rafra\u00eechissement pour \u00e9viter ces probl\u00e8mes. Ceci peut amener \u00e0 afficher la m\u00eame image plus d\u2019une fois, mais le seuil est donc d\u00e9fini \u00e0 30 Hz pour garantir la meilleure exp\u00e9rience visuelle possible.<\/p>\n

Dalles 60 Hz, SLI, Surround et disponibilit\u00e9<\/h2>\n

La technologie est-elle r\u00e9serv\u00e9e aux dalles les plus r\u00e9actives\u00a0?<\/strong><\/p>\n\n

<\/p>\n\n

On remarque que le premier moniteur accueillant G-SYNC apr\u00e8s modification disposait d\u00e9j\u00e0 d\u2019une fr\u00e9quence de rafra\u00eechissement tr\u00e8s \u00e9lev\u00e9e (laquelle d\u00e9passe largement la plage optimale pour la technologie de NVIDIA) ainsi qu\u2019une d\u00e9finition de 1920×1080. L\u2019\u00e9cran d\u2019Asus a cependant ses propres limites, comme par exemple une dalle TN 6 bits. Nous voulions donc savoir si NVIDIA pr\u00e9voyait de limiter G-SYNC aux moniteurs les plus r\u00e9actifs, ou bien si l\u2019on pourrait \u00e9galement voir cette technologie sur des mod\u00e8les 60 Hz plus courants. Par ailleurs, nous souhaitons pouvoir acc\u00e9der \u00e0 des moniteurs en 2560×1440 le plus rapidement possible.<\/p>\n\n

<\/p>\n\n

NVIDIA a de nouveau insist\u00e9 sur le fait que G-SYNC donne le meilleur de lui-m\u00eame lorsque la carte graphique d\u00e9bite entre 30 et 60 ips. En cons\u00e9quence, la technologie peut r\u00e9ellement b\u00e9n\u00e9ficier aux moniteurs 60 Hz \u00e9quip\u00e9s a posteriori<\/em> d\u2019un module G-SYNC.<\/p>\n\n

<\/p>\n\n

Pourquoi donc commencer avec un moniteur 144 Hz\u00a0? Il semble que bon nombres de marques veulent activer la fonctionnalit\u00e9 qui limite le flou de mouvement (3D LightBoost), laquelle n\u00e9cessite<\/em> des fr\u00e9quences de rafra\u00eechissement \u00e9lev\u00e9es. Mais pour tous ceux qui sont pr\u00eats \u00e0 faire sans cette fonctionnalit\u00e9 (pourquoi pas, d\u2019autant plus qu\u2019elle est de toute mani\u00e8re incompatible avec G-SYNC pour le moment), il est th\u00e9oriquement possible d\u2019obtenir un moniteur avec G-SYNC pour un co\u00fbt nettement inf\u00e9rieur.<\/p>\n\n

<\/p>\n\n

Pour ce qui est de la d\u00e9finition,\u00a0le premier moniteur 2560\u00d71440 pixels G-SYNC a \u00e9t\u00e9 annonc\u00e9 la semaine derni\u00e8re\u00a0: il s\u2019agit de l\u2019Asus ROG SWIFT PG278Q, lequel est pr\u00e9vu pour le d\u00e9but du deuxi\u00e8me trimestre. Notons qu\u2019il s\u2019agit d\u2019une dalle TN \u00ab\u00a0120+ Hz\u00a0\u00bb.<\/p>\n\n

<\/p>\n\n

SLI et G-SYNC sont-ils compatibles\u00a0?<\/strong><\/p>\n\n

<\/p>\n\n

La foire aux questions de NVIDIA pr\u00e9cise clairement que G-SYNC et SLI sont compatibles, une bonne nouvelle quand on pense aux futurs moniteurs 1440p orient\u00e9s vers le jeu. La carte graphique reli\u00e9e au moniteur est alors celle qui g\u00e8re la technologie de rafra\u00eechissement variable.<\/p>\n\n

<\/p>\n\n

Ce point m\u00e9rite toutefois quelques explications suppl\u00e9mentaires. Nous avons longuement discut\u00e9 avec AMD au sujet du Frame Pacing (technologie permettant de corriger le probl\u00e8me de micro-saccades) que la firme de Sunnyvale a impl\u00e9ment\u00e9 dans ses Catalyst. NVIDIA traite le probl\u00e8me diff\u00e9remment, par le biais d\u2019un circuit logique au sein de l\u2019architecture Kepler. Quoi qu\u2019il en soit, cette m\u00eame technologie qui permet d\u2019afficher les images \u00e0 un rythme r\u00e9gulier sans V-sync en SLI est n\u00e9cessaire pour que G-SYNC puisse fonctionner correctement. Aucune t\u00e2che suppl\u00e9mentaire n\u2019est n\u00e9cessaire\u00a0: les images sont affich\u00e9es depuis le GPU \u00ab\u00a0ma\u00eetre\u00a0\u00bb, lequel g\u00e8re \u00e9galement G-SYNC.<\/p>\n\n

<\/p>\n\n

Quelles sont les conditions n\u00e9cessaires pour b\u00e9n\u00e9ficier de G-SYNC en Surround\u00a0?<\/strong><\/p>\n\n

<\/p>\n\n

L\u2019id\u00e9e d\u2019associer plusieurs cartes graphiques pour jouer sur un moniteur 1080p n\u2019a pas vraiment d\u2019int\u00e9r\u00eat\u00a0: m\u00eame une carte milieu de gamme bas\u00e9e sur Kepler devrait parvenir \u00e0 un d\u00e9bit d\u2019image suffisant pour l\u2019immense majorit\u00e9 des jeux avec cette d\u00e9finition. Par ailleurs, il est actuellement impossible d\u2019utiliser un SLI compos\u00e9 de deux cartes graphiques avec trois moniteurs G-SYNC en Surround.<\/p>\n\n

<\/p>\n\n

Ceci est une limitation inh\u00e9rente \u00e0 la connectique des cartes NVIDIA, laquelle inclut g\u00e9n\u00e9ralement deux ports DVI, un HDMI et un DisplayPort. G-SYNC n\u00e9cessite du DisplayPort 1.2 sachant qu\u2019un adaptateur ou un r\u00e9partiteur DisplayPort MST ne permettent pas de contourner le probl\u00e8me.\u00a0La seule mani\u00e8re d\u2019acc\u00e9der au Surround consiste donc \u00e0 utiliser trois cartes graphiques, chacune reli\u00e9e \u00e0 son propre moniteur. Cependant, il nous semble que les partenaires de NVIDIA sont susceptibles de commercialiser \u00e0 moyen terme des GeForce \u00ab\u00a0G-SYNC Edition\u00a0\u00bb mieux \u00e9quip\u00e9es en connectique DisplayPort.<\/p>\n\n

<\/p>\n\n

G-SYNC et Triple Buffering<\/strong><\/p>\n\n

<\/p>\n\n

L\u2019activation du triple-buffering est-elle n\u00e9cessaire pour avoir un rendu aussi fluide que possible avec G-SYNC, de mani\u00e8re comparable \u00e0 ce que l\u2019on fait avec la V-sync\u00a0? La r\u00e9ponse est n\u00e9gative\u00a0: G-SYNC n\u2019a pas besoin du triple-buffering parce que le circuit de rendu n\u2019est jamais encombr\u00e9. Au contraire, l\u2019association des deux est m\u00eame contre-productive puisque l\u2019on cr\u00e9e ainsi une latence suppl\u00e9mentaire sans gain de performances. Malheureusement, le triple-buffering est souvent param\u00e9tr\u00e9 par les jeux eux-m\u00eames sans que l\u2019on ait la possibilit\u00e9 de le d\u00e9sactiver manuellement.<\/p>\n\n

<\/p>\n\n

Qu\u2019en est-il des jeux qui r\u00e9agissent mal \u00e0 l\u2019absence de V-sync\u00a0?<\/strong><\/p>\n\n

<\/p>\n\n

Des titres comme Skyrim<\/em>, lequel fait partie de notre suite de tests, sont con\u00e7us pour \u00eatre jou\u00e9s avec V-sync sur une dalle 60 Hz (malgr\u00e9 le fait que certains parmi nous s\u2019arrachent les cheveux face \u00e0 l\u2019input lag ainsi engendr\u00e9). Pour tester ces jeux, il faut donc modifier quelques fichiers .ini. Comment G-SYNC se comporte avec des jeux bas\u00e9s sur les moteurs Gamebryo ou Creation, lesquels sont sensibles \u00e0 la V-sync\u00a0? La fr\u00e9quence est-elle plafonn\u00e9e \u00e0 60 Hz\u00a0?<\/p>\n\n

<\/p>\n\n

Etant donn\u00e9 qu\u2019il s\u2019agit d\u2019une caract\u00e9ristique du jeu, G-SYNC ne la change pas, tout comme le fait de jouer sur un moniteur 120 ou 144 Hz avec V-sync n\u2019a pas d\u2019influence. Toutefois, NVIDIA affirme que sa technologie devrait bien cohabiter avec des jeux comme Skyrim sous r\u00e9serve qu\u2019ils soient limit\u00e9s au d\u00e9bit d\u2019images attendu par leur moteur. Dans ce genre de cas, il convient de d\u00e9finir une fr\u00e9quence de 60 Hz puis d\u2019activer G-SYNC afin que la fonctionnalit\u00e9 se conforme au d\u00e9bit d\u2019images maximal ad\u00e9quat.<\/p>\n\n

<\/p>\n\n

Quelle est la disponibilit\u00e9 et le prix de G-SYNC\u00a0?<\/strong><\/p>\n\n

<\/p>\n\n

A ce stade, NVIDIA s\u2019attend \u00e0 ce que ses partenaires commencent \u00e0 commercialiser les premiers moniteurs G-SYNC au cours du premier trimestre 2014. A en croire la firme au cam\u00e9l\u00e9on, le prix sera moins probl\u00e9matique que ce \u00e0 quoi l\u2019on s\u2019attendait compte tenu du fait que le module G-SYNC remplace le scaler du moniteur. Si l\u2019on envisage les choses de mani\u00e8re strictement rationnelle, le delta entre ces deux composants devrait donc correspondre \u00e0 l\u2019\u00e9cart tarifaire.<\/p>\n\n

<\/p>\n\n

Mieux vaut avoir une souris rapide<\/strong><\/p>\n\n

<\/p>\n\n

Enfin, NVIDIA attire notre attention sur le fait qu\u2019une souris rapide est vivement conseill\u00e9e pour une configuration avec G-SYNC. Une fr\u00e9quence d\u2019\u00e9chantillonage du positionnement de la souris (polling rate) \u00e0 1000 Hz permet de s\u2019assurer que le p\u00e9riph\u00e9rique n\u2019influe pas n\u00e9gativement sur les temps de r\u00e9action.<\/p>\n

Pr\u00e9requis mat\u00e9riel et configuration du test<\/h2>\n

G-SYNC ne fait donc partie d\u2019aucun standard et NVIDIA ne pr\u00e9voit pas de militer pour inclure sa technologie dans une prochaine r\u00e9vision du DisplayPort. En cons\u00e9quence, G-SYNC n\u00e9cessite quelques pr\u00e9requis avant de pouvoir fonctionner.<\/p>\n\n

<\/p>\n\n

En premier lieu, il faut une carte NVIDIA et plus sp\u00e9cifiquement une GeForce GTX 650 Ti ou mieux. Kepler est la premi\u00e8re architecture graphique munie d\u2019un contr\u00f4leur d\u2019affichage qui peut \u00eatre programm\u00e9 pour G-SYNC, ce qui veut dire que la technologie sera tout simplement incapable de fonctionner avec une carte bas\u00e9e sur Fermi, aussi puissante soit-elle. L\u2019architecture Maxwell ayant \u00e9t\u00e9 sp\u00e9cifiquement con\u00e7ue pour prendre en charge G-SYNC, toutes les cartes \u00e0 venir seront compatibles.<\/p>\n\n

<\/p>\n\n

Le second pr\u00e9requis est un moniteur \u00e9quip\u00e9 du module G-SYNC. Etant donn\u00e9 que ce dernier remplace le contr\u00f4leur de l\u2019\u00e9cran, il est impossible d\u2019ajouter G-SYNC \u00e0 un moniteur Ultra HD en tuiles par exemple. Dans l\u2019imm\u00e9diat, nous utilisons un prototype bas\u00e9 sur l\u2019Asus VG248QE capable d\u2019atteindre 1920×1080 \u00e0 144 Hz, mais il faut imaginer l\u2019\u00e9cho que pourrait trouver G-SYNC si les constructeurs commencent \u00e0 associer le module \u00e0 des dalles 60 Hz moins co\u00fbteuses.<\/p>\n\n

<\/p>\n\n

Enfin, il faut n\u00e9cessairement utiliser un c\u00e2ble DisplayPort 1.2\u00a0: DVI et HDMI ne sont tout simplement pas pris en charge. Pour le moment, cela signifie qu\u2019il faut une carte graphique par \u00e9cran lorsque l\u2019on veut b\u00e9n\u00e9ficier de G-SYNC en Surround puisque les GeForce ont au mieux une seule sortie DisplayPort.<\/p>\n\n

<\/p>\n\n

Ajoutons \u00e0 cela qu\u2019il faut \u00e9galement une prise en charge au niveau des pilotes, ce qui est le cas depuis les 331.93 beta.<\/p>\n\n

<\/p>\n\n

Configuration du test<\/strong><\/p>\n\n

<\/p>\n\n

Composants
<\/th><\/tr>
Processeur
<\/th>
Intel Core i7-3970X (Sandy Bridge-E)<\/strong> 3,5 GHz par d\u00e9faut, O\/C @ 4,3 GHz, LGA 2011, 15 Mo partag\u00e9s de cache L3, Hyper-Threading et \u00e9conomies d’\u00e9nergie activ\u00e9es
<\/td><\/tr>
Carte m\u00e8re
<\/th>
MSI X79A-GD45 Plus <\/strong>(LGA 2011) chipset X79 Express, BIOS 17.5
<\/td><\/tr>
DRAM
<\/th>
G.Skill 32 Go (8 x 4 Go) DDR3-2133<\/strong>, deux kits F3-17000CL9Q-16GBXM @ 9-11-10-28 pour 1,65 V
<\/td><\/tr>
Stockage
<\/th>
SSD <\/strong>Samsung 840 Pro <\/strong>256 Go SATA 6Gb\/s
<\/td><\/tr>
Cartes graphiques
<\/th>
Nvidia GeForce GTX 780 Ti 3 Go<\/strong>
<\/td><\/tr>

<\/th>
Nvidia GeForce GTX 770 2 Go<\/strong>
<\/td><\/tr>
Alimentation
<\/th>
Corsair AX860i 860 Watts<\/strong>
<\/td><\/tr>
Logiciels et pilotes
<\/th><\/tr>
OS
<\/th>
Windows 8 Professionnel 64 bits<\/strong>
<\/td><\/tr>
DirectX
<\/th>
Version 11
<\/td><\/tr>
Graphiques<\/th>NVIDIA GeForce 331.93 Beta
<\/td><\/tr><\/tbody><\/table><\/div>\n\n

A ce stade, il est important de bien saisir quel est le champ d\u2019activit\u00e9 sur lequel G-SYNC se montre le plus efficace. La majorit\u00e9 d\u2019entre nous utilise des \u00e9crans 60 Hz et bien qu\u2019il existe des \u00e9crans 120 et 144 Hz sp\u00e9cifiquement destin\u00e9s aux jeux, NVIDIA estime (\u00e0 raison) que son plus gros march\u00e9 est constitu\u00e9 par tous ceux qui sont bloqu\u00e9s \u00e0 60 Hz.<\/p>\n\n

<\/p>\n\n

A 60 Hz avec V-sync, les anomalies les plus d\u00e9rangeantes se produisent lorsque le d\u00e9bit en ips varie brusquement entre 30 et 60 plut\u00f4t que de se stabiliser \u00e0 60. C\u2019est dans ce contexte que l\u2019on rencontre un ph\u00e9nom\u00e8ne prononc\u00e9 de micro-saccades. Sans V-sync, les sc\u00e8nes particuli\u00e8rement dynamiques ou comptant de nombreux mouvements horizontaux accentuent le tearing. Ce ph\u00e9nom\u00e8ne est parfois tellement d\u00e9rangeant que l\u2019on active la V-sync imm\u00e9diatement quitte \u00e0 devoir supporter les micro-saccades et l\u2019augmentation d\u2019input lag qui en r\u00e9sulte.<\/p>\n\n

<\/p>\n\n

En passant \u00e0 120 ou 144 Hz avec un d\u00e9bit d\u2019images plus cons\u00e9quent, le moniteur se rafra\u00eechit plus r\u00e9guli\u00e8rement et r\u00e9duit donc le temps pass\u00e9 \u00e0 balayer plusieurs fois une m\u00eame image dans le cas o\u00f9 les performances ne suivent pas. Cependant, les probl\u00e8mes li\u00e9s \u00e0 l\u2019activation\/d\u00e9sactivation de la V-sync persistent. Par souci d\u2019exhaustivit\u00e9, nous avons conduit des tests \u00e0 60 et 144 Hz, avec et sans G-SYNC.<\/p>\n

G-SYNC contre V-sync<\/h2>\n

Ici, sortir la carte d\u2019acquisition vid\u00e9o et le Raid de SSD pour commencer les benchmarks serait une erreur. En effet, il n\u2019est pas question de performances mais de qualit\u00e9. <\/p>\n\n

<\/p>\n\n

Les benchmarks ne peuvent nous renseigner que sur un point\u00a0: quel est le nombre d\u2019ips \u00e0 tel moment du benchmark. Rien ne nous dit \u00e0 quel point G-SYNC influe positivement ou pas sur l\u2019exp\u00e9rience de jeu. Il faut donc expliquer le ressenti avec des mots plut\u00f4t que de faire une d\u00e9monstration chiffres \u00e0 l\u2019appui.<\/p>\n\n

<\/p>\n\n

Pourquoi ne pas avoir tout simplement enregistr\u00e9 une vid\u00e9o sur laquelle chacun aurait pu se faire son propre avis\u00a0? Car une cam\u00e9ra enregistre g\u00e9n\u00e9ralement \u00e0 une fr\u00e9quence fixe de 60 Hz, tout comme les moniteurs actuels g\u00e9n\u00e8rent un affichage sans variation de fr\u00e9quence. G-SYNC \u00e9tant par d\u00e9finition variable, on ne verrait rien \u00e0 l\u2019\u00e9cran.<\/p>\n\n

<\/p>\n\n

Avec un nombre de jeux suffisant, les possibilit\u00e9s de tests semblent sans fin\u00a0: avec\/sans V-sync, avec\/sans G-SYNC, 60 Hz, 120 Hz, 144 Hz et ainsi de suite. Commen\u00e7ons par r\u00e9gler notre moniteur sur une fr\u00e9quence de 60 Hz avec V-sync.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Le test le plus facile \u00e0 r\u00e9aliser s\u2019appuie sur la d\u00e9mo fournie par NVIDIA, \u00e0 savoir une pendule qui effectue des mouvements aller-retour, sachant que ce dernier peut \u00eatre r\u00e9gl\u00e9 pour reproduire un d\u00e9bit de 60, 50 ou 40 ips. Il est \u00e9galement possible de param\u00e9trer des fluctuations entre 40 et 60 ips. Quel que soient les r\u00e9glages effectu\u00e9s \u00e0 ce stade, il est alors possible d\u2019activer\/d\u00e9sactiver V-sync et G-SYNC. Bien que ce test puisse \u00eatre particuli\u00e8rement artificiel, il s\u2019agit probablement du meilleur exemple possible pour mettre en avant la technologie de NVIDIA. On peut commencer le test \u00e0 50 ips avec V-sync et penser qu\u2019il y a franchement pire\u00a0: on d\u00e9c\u00e8le ce qui ressemble \u00e0 une micro-saccade de temps \u00e0 autre mais il n\u2019y a pas mort d\u2019homme. Apr\u00e8s cela, on active G-SYNC et le discours change radicalement\u00a0: c\u2019est le jour et la nuit, au point que l\u2019on se demande comment on a a pu se contenter des compromis consentis jusqu\u2019ici.<\/p>\n\n

<\/p>\n\n

A ce stade, il faut rester mesur\u00e9\u00a0: il s\u2019agit juste d\u2019une d\u00e9monstration technique apr\u00e8s tout. Pour en avoir le c\u0153ur net, mieux vaut se faire un avis avec de vrais jeux que l\u2019on sait gourmands, comme par exemple Arma III.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Sur ce titre, on peut se contenter d\u2019une GeForce GTX 770 pour jouer avec les r\u00e9glages graphiques au maximum sur notre configuration de test. On obtient alors entre 40 et 50 ips sans V-sync. En revanche, on plonge aux alentours de 30 ips avec V-sync. Les performances sont alors trop faibles pour r\u00e9guli\u00e8rement fluctuer entre 30 et 60 ips\u00a0: c\u2019est un cas de bridage s\u00e9v\u00e8re.<\/p>\n\n

<\/p>\n\n

Etant donn\u00e9 qu\u2019il n\u2019y avait pas de micro-saccades, le rendu avec G-SYNC ne change pas radicalement si ce n\u2019est que l\u2019on gagne 10 \u00e0 20 ips suppl\u00e9mentaires. L\u2019input lag doit \u00e9galement diminuer vu que le moniteur ne balaye plus \u00e0 plusieurs reprises des images identiques. Pr\u00e9cisons cependant qu\u2019Arma III nous semblait moins saccad\u00e9 que bon nombre de jeux, raison pour laquelle nous n\u2019avons pas per\u00e7u de latence.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Metro: Last Light est un jeu qui met G-SYNC plus en valeur. Avec une GTX 770, il est possible d\u2019y jouer en 1920×1080 avec un niveau de d\u00e9tails tr\u00e8s \u00e9lev\u00e9, AF 16x, tessellation et motion blur en normal. A partir de l\u00e0, on peut r\u00e9gler le SSAA sur 1x, 2x ou 3x pour voir le nombre d\u2019ips baisser proportionnellement.<\/p>\n\n

<\/p>\n\n

Le fait que le jeu d\u00e9marre dans un couloir dans lequel les mouvements lat\u00e9raux sont forc\u00e9ment limit\u00e9s aide \u00e0 pr\u00e9server les performances. Nous avons donc charg\u00e9 une partie avec V-sync \u00e0 60 Hz pour nous rendre \u00e0 la surface\u00a0: Fraps rapportait alors des performances inf\u00e9rieures \u00e0 30 ips avec SSAA 3x et proches de 60 ips sans anti-aliasing. Les micro-saccades comme le lag \u00e9taient insignifiants. Le fait de d\u00e9sactiver le SSAA permet de se d\u00e9placer avec un d\u00e9bit d\u2019image parfaitement fluide puisque l\u2019on reste \u00e0 60 ips. Avec SSAA 2x, les fluctuations entre 30 et 60 ips font ressentir une saccade \u00e0 chaque fois qu\u2019une image est r\u00e9p\u00e9t\u00e9e. Ce fps fait partie donc partie des jeux sur lesquels nous avons l\u2019habitude de d\u00e9sactiver la V-sync tout en faisant abstraction du tearing. Il s\u2019agit d\u2019une habitude que nous avons prise depuis des ann\u00e9es.<\/p>\n\n

<\/p>\n\n

G-SYNC \u00e9limine compl\u00e8tement ce compromis. On ne se surprend plus \u00e0 regarder les chiffres affich\u00e9s par Fraps, guettant les creux en dessous de 60 ips qui poussent \u00e0 baisser les r\u00e9glages graphiques. A vrai dire, on peut m\u00eame les augmenter<\/em>\u00a0: quand bien m\u00eame on descend \u00e0 50 ou 40 ips, on ne ressent plus de micro-saccades. L\u2019alternative consiste \u00e0 d\u00e9sactiver la V-sync, choix qui n\u2019est pas sans cons\u00e9quences comme nous allons le voir maintenant.<\/p>\n

G-SYNC contre V-sync d\u00e9sactiv\u00e9e<\/h2>\n

Apr\u00e8s avoir fait un petit sondage non-officiel parmi les r\u00e9dacteurs du site et quelques amis accessibles par Skype (autrement dit, l\u2019\u00e9chantillon est tr\u00e8s r\u00e9duit), il s\u2019est av\u00e9r\u00e9 que la majorit\u00e9 qui comprend le principe de la V-sync et surtout ses effets secondaires pr\u00e9f\u00e8re la d\u00e9sactiver. Les sond\u00e9s ne l\u2019activent que par contrainte, c\u2019est-\u00e0-dire lorsque le tearing devient insupportable.<\/p>\n\n

<\/p>\n\n

Comme on peut l\u2019imaginer, on remarque tout de suite l\u2019absence de V-sync m\u00eame si l\u2019effet est largement conditionn\u00e9 par le jeu et les d\u00e9tails graphiques choisis.\u00a0 <\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Prenons Crysis 3 par exemple. On a tr\u00e8s vite fait de mettre sa carte graphique \u00e0 genoux avec les r\u00e9glages graphiques au maximum. Fps oblige, Crysis n\u00e9cessite \u00e9norm\u00e9ment de mouvements rapides, ce qui peut faire apparaitre un tearing assez consid\u00e9rable. L\u2019image ci-dessus est un extrait de la capture vid\u00e9o depuis FCAT entre deux images\u00a0: les branches sont compl\u00e8tement disjointes.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

En revanche, la d\u00e9sactivation forc\u00e9e de la V-sync dans Skyrim provoque un tearing nettement moins prononc\u00e9. Pr\u00e9cisons tout de m\u00eame que nous avons un d\u00e9bit d\u2019image extr\u00eamement \u00e9lev\u00e9\u00a0: plusieurs images parviennent \u00e0 l\u2019\u00e9cran \u00e0 chaque balayage. La quantit\u00e9 de mouvement par image est donc relativement faible. Skyrim pose encore quelques probl\u00e8mes dans ce cas de figure, signe que les r\u00e9glages ne sont pas optimum. Il faut surtout retenir que sans V-sync, l\u2019exp\u00e9rience de jeu varie d\u2019un titre \u00e0 l\u2019autre.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Voici un troisi\u00e8me exemple avec Tomb Raider, sur lequel l\u2019\u00e9paule de Lara est franchement mal align\u00e9e (tout comme ses cheveux et la bretelle de son haut). Accessoirement, Tomb Raider est l\u2019un des rares jeux de notre suite de test \u00e0 laisser le choix entre double et triple-buffering quand on utilise la V-sync.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

On peut voir sur ce dernier graphique que les performances de Metro\u00a0: Last Light avec G-SYNC \u00e0 144 Hz sont \u00e0 peu pr\u00e8s les m\u00eames que sans V-sync. Cependant, G-SYNC a l\u2019avantage d\u2019\u00e9liminer le tearing. A 60 Hz, G-SYNC limite les performances \u00e0 60 ips tout en \u00e9liminant les micro-saccades et l\u2019input lag qu\u2019engendrerait la V-Sync.<\/p>\n\n

<\/p>\n\n

Pour toute personne ayant pass\u00e9 des heures et des heures devant les m\u00eames benchmarks tournant en boucle, l\u2019exercice n\u2019a rien d\u2019inhabituel\u00a0: c\u2019est de cette mani\u00e8re que nous testons les performances absolues des cartes graphiques. Il peut donc \u00eatre assez p\u00e9nible de r\u00e9p\u00e9ter ces m\u00eames s\u00e9quences avec G-SYNC pour appr\u00e9cier une fluidit\u00e9 similaire \u00e0 la V-Sync activ\u00e9e, sans les inconv\u00e9nients ou encore le tearing inh\u00e9rent \u00e0 la d\u00e9sactivation de cette derni\u00e8re. Nous souhaitions publier une vid\u00e9o pour illustrer les diff\u00e9rences, mais le r\u00e9sultat n\u2019est pas probant. Le mieux est encore de se faire un avis en face d\u2019un \u00e9cran.<\/p>\n

Compatibilit\u00e9 : tr\u00e8s satisfaisante la plupart du temps<\/h2>\n

Outre Arma III et Metro\u00a0: Last Light, nous avons pass\u00e9 du temps avec Crysis 3, Tomb Raider, Skyrim, Bioshock\u00a0: Infinite et Battlefield 4. A l\u2019exception de Skyrim, tous ces jeux tirent parti de G-SYNC. Le ressenti a beau \u00eatre diff\u00e9rent d\u2019un titre \u00e0 l\u2019autre, une fois que l\u2019on a vu G-SYNC en action, les ph\u00e9nom\u00e8nes inconsciemment occult\u00e9s auparavant sautent aux yeux.<\/p>\n\n

<\/p>\n\n

Il peut cependant y avoir des effets secondaires. L\u2019aliasing est nettement plus perturbant lorsque le mouvement est fluide, raison pour laquelle on finit par augmenter l\u2019anti-aliasing autant que possible pour s\u2019\u00e9pargner les effets d\u2019escaliers qui n\u2019\u00e9taient pas aussi p\u00e9nibles jusque-l\u00e0.<\/p>\n\n

<\/p>\n\n

Skyrim\u00a0: un cas particulier<\/strong><\/p>\n\n

<\/p>\n\n

Le Creation Engine sur lequel s\u2019appuie le dernier Elder Scrolls a la particularit\u00e9 d\u2019activer la V-sync par d\u00e9faut. Il faut donc rajouter manuellement une ligne \u00ab\u00a0iPresentInterval=0\u00a0\u00bb \u00e0 l\u2019un des fichiers .ini du jeu pour pouvoir ex\u00e9cuter les benchmarks \u00e0 plus de 60 ips.<\/p>\n\n

<\/p>\n\n

Il y a donc trois mani\u00e8res de tester les performances sous Skyrim\u00a0: par d\u00e9faut en laissant le pilote NVIDIA \u00ab\u00a0utiliser le param\u00e8tre d\u2019application 3D\u00a0\u00bb, en for\u00e7ant G-SYNC via le pilote sans modifier le jeu et enfin en for\u00e7ant G-SYNC tout en d\u00e9sactivant la V-sync par le fichier .ini du jeu.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

Apr\u00e8s avoir r\u00e9gl\u00e9 notre \u00e9cran prototype sur 60 Hz, le premier essai a rapport\u00e9 sans surprise un d\u00e9bit constant de 60 ips en Ultra avec une GeForce GTX 770. En cons\u00e9quence, les mouvements sont compl\u00e8tement fluides. En revanche, les commandes souffrent d\u2019un input lag \u00e9pouvantable, de m\u00eame que l\u2019on constate beaucoup de motion blur en d\u00e9placement lat\u00e9ral. Soulignons tout de m\u00eame que la majorit\u00e9 d\u2019entre nous a jou\u00e9 \u00e0 Skyrim sur PC dans ces conditions. Le fait de passer \u00e0 144 Hz \u00e9limine le motion blur, mais vu que la GTX 770 d\u00e9bite entre 90 et 100 ips, on se retrouve avec des micro-saccades sensibles vu que le moteur du jeu fait du yo-yo entre 144 et 72 ips.<\/p>\n\n

<\/p>\n\n

A 60 Hz, G-SYNC se montre nuisible, vraisemblablement parce que la V-sync est forc\u00e9e alors que la technologie de NVIDIA a \u00e9t\u00e9 con\u00e7ue pour fonctionner sans. Les d\u00e9placements lat\u00e9raux (tout particuli\u00e8rement le long des murs) engendrent des micro-saccades assez cons\u00e9quentes. Cette situation est donc probl\u00e9matique pour tous les \u00e9crans G-SYNC limit\u00e9s \u00e0 60 Hz, tout du moins sur des titres comme Skyrim. Fort heureusement, un moniteur comme l\u2019Asus VG248Q permet de passer \u00e0 144 Hz et malgr\u00e9 le fait que la V-sync soit encore active, G-SYNC semble fonctionner avec un nombre d\u2019ips \u00e9lev\u00e9 sans micro-saccades.<\/p>\n\n

<\/p>\n\n

La d\u00e9sactivation de la V-sync par le fichier .ini rend le contr\u00f4le \u00e0 la souris bien plus r\u00e9actif sur ce titre, au prix d\u2019un peu de tearing (sans parler d\u2019autres anomalies graphiques comme l\u2019eau scintillante). Avec G-SYNC, on souffre de micro-saccades \u00e0 60 Hz qui s\u2019estompent \u00e0 144 Hz. Si nous effectuons la totalit\u00e9 des benchmarks sans V-sync pour les tests de cartes graphiques, nous d\u00e9conseillons de la d\u00e9sactiver dans ce cas particulier.<\/p>\n\n

<\/p>\n\n

Pour Skyrim, l\u2019approche la plus propre est donc de d\u00e9sactiver G-SYNC tout en restant \u00e0 60 Hz, \u00e0 condition de ne jamais descendre sous le seuil de 60 ips (ce qui n\u2019est pas difficile compte tenu des ressources GPU qu\u2019il n\u00e9cessite).<\/p>\n

Conclusion<\/h2>\n

Avant m\u00eame de commencer les tests avec le moniteur G-SYNC prototype d\u2019Asus, nous \u00e9tions satisfaits de voir NVIDIA s\u2019attaquer \u00e0 un r\u00e9el probl\u00e8me des jeux PC qui n\u2019avait pas de solution jusqu\u2019ici. En effet, nous \u00e9tions limit\u00e9s \u00e0 l\u2019activation\/d\u00e9sactivation de la V-sync sachant que dans les deux cas, il fallait consentir \u00e0 un compromis nuisible \u00e0 l\u2019exp\u00e9rience de jeu. Lorsque l\u2019on est r\u00e9duit \u00e0 jouer sans V-sync, \u00e0 moins que le tearing ne soit insupportable sur un titre en particulier, il nous semble que l\u2019on se contente de choisir non pas la meilleure solution mais la moins mauvaise.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/p>\n\n

<\/p>\n\n

G-SYNC vise \u00e0 r\u00e9soudre le probl\u00e8me en donnant au moniteur la capacit\u00e9 de se rafra\u00eechir \u00e0 fr\u00e9quence variable. Ce genre d\u2019innovation est indispensable \u00e0 l\u2019univers des jeux PC pour sortir de sa routine et tirer parti de sa sup\u00e9riorit\u00e9 technique sur les consoles et autres plateformes de jeu. Il ne fait aucun doute que NVIDIA est critiquable pour avoir choisi une approche propri\u00e9taire plut\u00f4t qu\u2019un standard ouvert, laissant ainsi la libert\u00e9 \u00e0 d\u2019autres marques de l\u2019adopter. Cependant, cette m\u00eame approche a le m\u00e9rite de s\u2019appuyer sur le DisplayPort 1.2, une connectique d\u2019ores et d\u00e9j\u00e0 disponible. En cons\u00e9quence, G-SYNC est disponible deux mois apr\u00e8s son annonce.<\/p>\n\n

<\/p>\n\n

La vraie question devient la suivante\u00a0: les promesses sont-elles tenues\u00a0?<\/p>\n\n

<\/p>\n\n

Il est naturellement difficile de r\u00e9pondre au-del\u00e0 du buzz quand quatre des plus grands d\u00e9veloppeurs John Carmack, Tim Sweeney, Johan Anderson et Mark Rein, excusez du peu\u00a0! communiquent sans d\u00e9tour sur les m\u00e9rites d\u2019une technologie que l\u2019on n\u2019a pas encore pu voir en action. Si l\u2019on commence par le test de la pendule pour se faire un avis, on en vient \u00e0 se demander si l\u2019\u00e9norme diff\u00e9rence est r\u00e9aliste ou bien s\u2019il s\u2019agit d\u2019un cas particulier trop beau pour \u00eatre vrai.<\/p>\n\n

<\/p>\n\n

Bien entendu, le constat est plus nuanc\u00e9 quand on passe \u00e0 des conditions de jeu r\u00e9elles. Les r\u00e9actions varient entre \u00e9merveillement et simple perception du changement. C\u2019est en passant d\u2019un \u00e9cran 60 Hz \u00e0 un moniteur 144 Hz avec G-SYNC que la diff\u00e9rence est la plus spectaculaire, mais nous avons tout de m\u00eame essay\u00e9 de faire des tests \u00e0 60 Hz pour se faire une id\u00e9e du rendu sur les moniteurs plus accessibles (on l\u2019esp\u00e8re) \u00e0 venir. Dans certains cas, le passage de 60 \u00e0 144 Hz est l\u2019\u00e9volution la plus marquante, a fortiori quand on a la\/les carte(s) graphique(s) capable de maintenir un excellent d\u00e9bit d\u2019ips.<\/p>\n\n

<\/p>\n\n

A l\u2019heure actuelle, on sait d\u00e9j\u00e0 qu\u2019Asus souhaite proposer G-SYNC sur une nouvelle version de son VG248QE, laquelle est annonc\u00e9e \u00e0 400 $ avec une date de sortie dans les mois \u00e0 venir. Sa dalle propose une d\u00e9finition native de 1920×1080 avec une fr\u00e9quence maximale de 144 Hz. Le ROG SWIFT PG278Q poussera la d\u00e9finition \u00e0 2560×1440 sur une diagonale de 27 pouces, avec une fr\u00e9quence maximale de 120 Hz (au minimum) pour 799 $. Cependant, il s\u2019agit de dalles TN 6 bits dans les deux cas, ce qui pose probl\u00e8me \u00e0 nos yeux. Nous attendons avec impatience les premiers mod\u00e8les 1440p en IPS, quitte \u00e0 se contenter de 60 Hz si n\u00e9cessaire pour qu\u2019ils soient propos\u00e9s \u00e0 un prix raisonnable.<\/p>\n\n

<\/p>\n\n

\"Image<\/a><\/span><\/span><\/span><\/span><\/p>\n\n

<\/p>\n\n

CES oblige, les constructeurs commencement \u00e0 communiquer sur leurs mod\u00e8les \u00e0 venir, leur prix ainsi que leur disponibilit\u00e9 qui parait globalement cal\u00e9e sur le second trimestre 2014. En revanche, la commercialisation du module G-SYNC en France n\u2019est pas encore acquise, ce qui serait fort regrettable vu que NVIDIA estime \u00e0 20 minutes le temps n\u00e9cessaire pour faire \u00e9voluer un Asus VG248QE premi\u00e8re version.<\/p>\n\n

<\/p>\n\n

On peut cependant dire que l\u2019attente sera r\u00e9compens\u00e9e. G-SYNC saute aux yeux sur certains jeux et se montre un peu moins sur d\u2019autres, mais cette technologie a le m\u00e9rite de r\u00e9soudre ce vieux dilemme quant \u00e0 l\u2019activation de la V-sync.<\/p>\n\n

<\/p>\n\n

Autre point int\u00e9ressant, la r\u00e9ponse d\u2019AMD avec FreeSync. Les premi\u00e8res d\u00e9monstrations sont convaincantes sur portable, mais qu\u2019en est-il sur un moniteur reli\u00e9 \u00e0 une tour\u00a0? Entre Battlefield 4 optimis\u00e9 par Mantle, l\u2019architecture Maxwell \u00e0 venir chez NVIDIA, G-SYNC, le CrossFire g\u00e9r\u00e9 par le moteur xDMA d\u2019AMD ainsi que les rumeurs quant \u00e0 la sortie de nouvelles cartes bi-GPU, le d\u00e9but de l\u2019ann\u00e9e s’annonce particuli\u00e8rement int\u00e9ressant ! <\/p>\n","protected":false},"excerpt":{"rendered":"

Aujourd'hui, m\u00eame avec la plus puissante des cartes graphiques et un \u00e9cran de gamer, il est courant de constater des d\u00e9fauts d'affichage en cours de jeu. Ils sont dus \u00e0 une mauvaise synchronisation entre la\u2026<\/p>","protected":false},"author":82,"featured_media":76738,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[487,4072,4080],"tags":[538],"hubs":[],"class_list":["post-76737","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-actualite","category-cartes-graphiques","category-ecrans","tag-nvidia"],"acf":{"post_show_excerpt":false,"post_source":{"title":"Tom's Hardware US","url":"https:\/\/www.tomshardware.com","target":""}},"yoast_head":"\nG-SYNC : LA solution que les joueurs attendaient ?<\/title>\n<meta name=\"description\" content=\"Aujourd'hui, m\u00eame avec la plus puissante des cartes graphiques et un \u00e9cran de gamer, il est courant de constater des d\u00e9fauts d'affichage en cours de jeu. Ils sont dus \u00e0 une mauvaise synchronisation entre la carte et l'\u00e9cran. Nvidia aurait la solution !\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"G-SYNC : LA solution que les joueurs attendaient ?\" \/>\n<meta property=\"og:description\" content=\"Aujourd'hui, m\u00eame avec la plus puissante des cartes graphiques et un \u00e9cran de gamer, il est courant de constater des d\u00e9fauts d'affichage en cours de jeu. Ils sont dus \u00e0 une mauvaise synchronisation entre la carte et l'\u00e9cran. Nvidia aurait la solution !\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/\" \/>\n<meta property=\"og:site_name\" content=\"Tom\u2019s Hardware\" \/>\n<meta property=\"article:publisher\" content=\"https:\/\/www.facebook.com\/TomsHardwareFrance\/\" \/>\n<meta property=\"article:author\" content=\"https:\/\/www.facebook.com\/david.allenzo\" \/>\n<meta property=\"article:published_time\" content=\"2014-01-15T09:10:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-09-20T12:08:26+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"280\" \/>\n\t<meta property=\"og:image:height\" content=\"210\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Bernard David Corroy\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@malibard\" \/>\n<meta name=\"twitter:site\" content=\"@tomshardware_fr\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/\"},\"author\":{\"name\":\"Bernard David Corroy\",\"@id\":\"https:\/\/www.tomshardware.fr\/#\/schema\/person\/7e879b8ff19551713f6055fd98dccf18\"},\"headline\":\"G-SYNC : LA solution que les joueurs attendaient ?\",\"datePublished\":\"2014-01-15T09:10:00+00:00\",\"dateModified\":\"2023-09-20T12:08:26+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/\"},\"wordCount\":6713,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/www.tomshardware.fr\/#organization\"},\"image\":{\"@id\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg\",\"keywords\":[\"NVIDIA\"],\"articleSection\":[\"Actualit\u00e9\",\"Cartes graphiques\",\"Ecrans\"],\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/\",\"url\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/\",\"name\":\"G-SYNC : LA solution que les joueurs attendaient ?\",\"isPartOf\":{\"@id\":\"https:\/\/www.tomshardware.fr\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg\",\"datePublished\":\"2014-01-15T09:10:00+00:00\",\"dateModified\":\"2023-09-20T12:08:26+00:00\",\"description\":\"Aujourd'hui, m\u00eame avec la plus puissante des cartes graphiques et un \u00e9cran de gamer, il est courant de constater des d\u00e9fauts d'affichage en cours de jeu. Ils sont dus \u00e0 une mauvaise synchronisation entre la carte et l'\u00e9cran. Nvidia aurait la solution !\",\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#primaryimage\",\"url\":\"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg\",\"contentUrl\":\"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg\",\"width\":280,\"height\":210},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.tomshardware.fr\/#website\",\"url\":\"https:\/\/www.tomshardware.fr\/\",\"name\":\"Tom\u2019s Hardware\",\"description\":\"Toute l'info hardware et gaming !\",\"publisher\":{\"@id\":\"https:\/\/www.tomshardware.fr\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.tomshardware.fr\/?s={search_term_string}\"},\"query-input\":\"required name=search_term_string\"}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/www.tomshardware.fr\/#organization\",\"name\":\"Tom\u2019s Hardware\",\"url\":\"https:\/\/www.tomshardware.fr\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/www.tomshardware.fr\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2023\/06\/th.png\",\"contentUrl\":\"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2023\/06\/th.png\",\"width\":1000,\"height\":1000,\"caption\":\"Tom\u2019s Hardware\"},\"image\":{\"@id\":\"https:\/\/www.tomshardware.fr\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/www.facebook.com\/TomsHardwareFrance\/\",\"https:\/\/x.com\/tomshardware_fr\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.tomshardware.fr\/#\/schema\/person\/7e879b8ff19551713f6055fd98dccf18\",\"name\":\"Bernard David Corroy\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/www.tomshardware.fr\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/a08bb358c2a9fc36265e8f3225c5de08?s=64&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/a08bb358c2a9fc36265e8f3225c5de08?s=64&d=mm&r=g\",\"caption\":\"Bernard David Corroy\"},\"description\":\"Passionn\u00e9 par l'univers du num\u00e9rique et fondateur des plateformes influentes Phonandroid, PaperGeekFr et PlusDeBonsPlans, je suis un geek de la premi\u00e8re heure depuis 1998 et un expert en SEO depuis 2004. Mon parcours refl\u00e8te mon engagement pour l'innovation et ma qu\u00eate constante d'optimisation dans le domaine du seo et de l\u2019intelligence artificielle\",\"sameAs\":[\"https:\/\/www.facebook.com\/david.allenzo\",\"https:\/\/www.linkedin.com\/in\/bernard-david-corroy\/\",\"https:\/\/x.com\/malibard\"],\"knowsAbout\":[\"seo\",\"sea\",\"wordpress\",\"management\"],\"jobTitle\":\"Traffic manager\",\"url\":\"https:\/\/www.tomshardware.fr\/author\/david\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"G-SYNC : LA solution que les joueurs attendaient ?","description":"Aujourd'hui, m\u00eame avec la plus puissante des cartes graphiques et un \u00e9cran de gamer, il est courant de constater des d\u00e9fauts d'affichage en cours de jeu. Ils sont dus \u00e0 une mauvaise synchronisation entre la carte et l'\u00e9cran. Nvidia aurait la solution !","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/","og_locale":"fr_FR","og_type":"article","og_title":"G-SYNC : LA solution que les joueurs attendaient ?","og_description":"Aujourd'hui, m\u00eame avec la plus puissante des cartes graphiques et un \u00e9cran de gamer, il est courant de constater des d\u00e9fauts d'affichage en cours de jeu. Ils sont dus \u00e0 une mauvaise synchronisation entre la carte et l'\u00e9cran. Nvidia aurait la solution !","og_url":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/","og_site_name":"Tom\u2019s Hardware","article_publisher":"https:\/\/www.facebook.com\/TomsHardwareFrance\/","article_author":"https:\/\/www.facebook.com\/david.allenzo","article_published_time":"2014-01-15T09:10:00+00:00","article_modified_time":"2023-09-20T12:08:26+00:00","og_image":[{"width":280,"height":210,"url":"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg","type":"image\/jpeg"}],"author":"Bernard David Corroy","twitter_card":"summary_large_image","twitter_creator":"@malibard","twitter_site":"@tomshardware_fr","schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#article","isPartOf":{"@id":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/"},"author":{"name":"Bernard David Corroy","@id":"https:\/\/www.tomshardware.fr\/#\/schema\/person\/7e879b8ff19551713f6055fd98dccf18"},"headline":"G-SYNC : LA solution que les joueurs attendaient ?","datePublished":"2014-01-15T09:10:00+00:00","dateModified":"2023-09-20T12:08:26+00:00","mainEntityOfPage":{"@id":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/"},"wordCount":6713,"commentCount":0,"publisher":{"@id":"https:\/\/www.tomshardware.fr\/#organization"},"image":{"@id":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#primaryimage"},"thumbnailUrl":"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg","keywords":["NVIDIA"],"articleSection":["Actualit\u00e9","Cartes graphiques","Ecrans"],"inLanguage":"fr-FR","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#respond"]}]},{"@type":"WebPage","@id":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/","url":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/","name":"G-SYNC : LA solution que les joueurs attendaient ?","isPartOf":{"@id":"https:\/\/www.tomshardware.fr\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#primaryimage"},"image":{"@id":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#primaryimage"},"thumbnailUrl":"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg","datePublished":"2014-01-15T09:10:00+00:00","dateModified":"2023-09-20T12:08:26+00:00","description":"Aujourd'hui, m\u00eame avec la plus puissante des cartes graphiques et un \u00e9cran de gamer, il est courant de constater des d\u00e9fauts d'affichage en cours de jeu. Ils sont dus \u00e0 une mauvaise synchronisation entre la carte et l'\u00e9cran. Nvidia aurait la solution !","inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/www.tomshardware.fr\/g-sync-la-solution-que-les-joueurs-attendaient\/#primaryimage","url":"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg","contentUrl":"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2014\/01\/teaser-1.jpg","width":280,"height":210},{"@type":"WebSite","@id":"https:\/\/www.tomshardware.fr\/#website","url":"https:\/\/www.tomshardware.fr\/","name":"Tom\u2019s Hardware","description":"Toute l'info hardware et gaming !","publisher":{"@id":"https:\/\/www.tomshardware.fr\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.tomshardware.fr\/?s={search_term_string}"},"query-input":"required name=search_term_string"}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/www.tomshardware.fr\/#organization","name":"Tom\u2019s Hardware","url":"https:\/\/www.tomshardware.fr\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/www.tomshardware.fr\/#\/schema\/logo\/image\/","url":"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2023\/06\/th.png","contentUrl":"https:\/\/www.tomshardware.fr\/content\/uploads\/sites\/3\/2023\/06\/th.png","width":1000,"height":1000,"caption":"Tom\u2019s Hardware"},"image":{"@id":"https:\/\/www.tomshardware.fr\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/www.facebook.com\/TomsHardwareFrance\/","https:\/\/x.com\/tomshardware_fr"]},{"@type":"Person","@id":"https:\/\/www.tomshardware.fr\/#\/schema\/person\/7e879b8ff19551713f6055fd98dccf18","name":"Bernard David Corroy","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/www.tomshardware.fr\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/a08bb358c2a9fc36265e8f3225c5de08?s=64&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a08bb358c2a9fc36265e8f3225c5de08?s=64&d=mm&r=g","caption":"Bernard David Corroy"},"description":"Passionn\u00e9 par l'univers du num\u00e9rique et fondateur des plateformes influentes Phonandroid, PaperGeekFr et PlusDeBonsPlans, je suis un geek de la premi\u00e8re heure depuis 1998 et un expert en SEO depuis 2004. Mon parcours refl\u00e8te mon engagement pour l'innovation et ma qu\u00eate constante d'optimisation dans le domaine du seo et de l\u2019intelligence artificielle","sameAs":["https:\/\/www.facebook.com\/david.allenzo","https:\/\/www.linkedin.com\/in\/bernard-david-corroy\/","https:\/\/x.com\/malibard"],"knowsAbout":["seo","sea","wordpress","management"],"jobTitle":"Traffic manager","url":"https:\/\/www.tomshardware.fr\/author\/david\/"}]}},"_links":{"self":[{"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/posts\/76737"}],"collection":[{"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/users\/82"}],"replies":[{"embeddable":true,"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/comments?post=76737"}],"version-history":[{"count":0,"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/posts\/76737\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/media\/76738"}],"wp:attachment":[{"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/media?parent=76737"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/categories?post=76737"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/tags?post=76737"},{"taxonomy":"hubs","embeddable":true,"href":"https:\/\/www.tomshardware.fr\/wp-json\/wp\/v2\/hubs?post=76737"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}