Le porte-étendard des RTX 3000 de NVIDIA carbure à presque 100 % de ses capacités, mais ce n’est pas suffisant.
Demain n’est pas seulement le jour de sortie de la Xbox Series X/S de Microsoft ; c’est aussi celui du nouveau jeu de la franchise Assassin’s Creed, Valhalla. Si vous choisissez de vivre les aventures d’Eivor sur PC, et que vous aviez fait l’acquisition d’une GeForce RTX 3090 de NVIDIA en espérant pouvant profiter du titre en 4K/Ultra à 60 images par seconde, cela semble mal parti.
Un certain GameGPU a en effet partagé une vidéo sur YouTube dans laquelle il fait tourner le jeu d’Ubisoft dans les conditions susmentionnées. Outre la carte graphique de NVIDIA, sa configuration s’appuie sur un processeur Intel Core i9-10900K, un 10 cœurs / 20 threads, porte-étendard de la gamme Comet Lake-S d’Intel. La quantité de RAM n’est pas précisée. Dans le benchmark intégré, la fréquence moyenne est de 56 ips ; il y a des chutes à 32 ips. Notez que le jeu n’occupe que 6 816 Mo de mémoire vidéo dédiée : les RTX 3080 et RTX 3070, munies respectivement de 10 Go de GDDR6X et 8 Go de GDDR6 ne seront donc pas déficitaires sur ce segment ; idem pour les RX 6000 Big Navi d’AMD, toutes bardées de 16 Go de VRAM.
PlayStation 5 vs Xbox Series X : l’heure du match a sonné
Du 4K/60 ips sur consoles, mais avec quels réglages ?
Dans les séquences de gameplay, grâce à l’outil de monitoring utilisé, on constate que c’est bien la carte graphique le facteur limitant. Le titre sollicite le processeur Intel à 60-65 % de ses capacités environ ; la RTX 3090, à 97-98 %.
La RTX 3090 se frotte à Watch Dogs Legion en 4K
Ces chiffres sont intéressants pour trois raisons. Premièrement, la recommandation d’Ubisoft d’une RTX 2080 ou d’une RX 5700 XT pour du 4K/30 ips en Ultra semble assez optimiste. Deuxièmement, ils attestent qu’une carte aussi haut de gamme qu’une RTX 3090 ne permet pas d’obtenir du 60 ips en 4K/Ultra sur un jeu pourtant intergénérationnel ; certes, de manière général, les Assassin’s Creed ne figurent pas parmi les titres les mieux optimisés du marché, loin de là. Néanmoins, les résultats de la RTX 3090 sont un peu inquiétants en prévision des softs qui seront vraiment “nouvelle génération”. Enfin, on voit mal comment les consoles peuvent tenir les 4K à 60 ips promis par Ubisoft même avec des réglages moins exigeants. Comme pressenti, l’upscale semble assez inévitable. Réponse dans les prochains jours !
C’est surtout amusant de voir que sa 3090 fait moins bien qu’une 3080. https://youtu.be/Yfb4c5kB4As
Après ils activent toutes les merdes possible aussi, y compris l’AA qui est inutile en Ultra HD.
Jeu ubi + activation de fonctionnalités useless bouffeuses de perf. Rien de nouveau. A quoi sert cette news ?
Ahh les fanboys …
C’est marqué , si tu veux jour en 4K/60FPS en mode ULTRA la 3090 ne sera pas suffisante , c’est ECRIT , tu peux jouer en 4K/60fps en désactivant quelques options , mais ce ne serait pas le mode ULTRA.
si tu comptes mettre 1500 boules dans une carte graphique , tu ne t’attends pas à ce qu’un jeu sorti la meme année que ta carte graphique la met à terre.
Cela fait au moins 4 ou 5 générations de GPU qu’on tente de nous laver le cerveau avec l’UHD pour tous.
A chaque fois qu’une carte arrive à bien faire tourner des jeux pas trop anciens avec un framerate et des réglages corrects en UHD/4K bim les jeux les plus gourmands qui sortent à ce moment-là s’avèrent souvent injouables à cette définition, sauf en sacrifiant une bonne partie des options graphiques.
c’est juste une bouse programmée avec les pieds, le hardware fait ce qu’il peut 😀 😀 😀
c’est ce que ça donne quand on utilise des générateur de code au lieu de programmer : ça marche, mais ça court pas…
Alors, tout ça ne me semble pas exact.
Le jeu stutter beaucoup, on voit que le GPU n’est pas tout à fait à 100%, et on a un Thread CPU à 97/98% tout au long du test.
Ce sont des signes que le config est limité non pas par la puissance GPU, mais CPU ! Du coup un OC du CPU ou un up vers les tout récents Zen 3 pourra certainement aider.
On sait que c’est un jeu Ubisoft, donc pas optimisé et avec sa ribambelle de protection DRM en tout genre (Denuvo+VMProtect+Steam/UPlay) qui n’aident pas non plus à ce que le jeu tourne correctement.
Une autre information très récente vient du leak du code source de WD Legion, ou il a été relevé que la manière de travailler et de coder les jeux par les équipes de Ubisoft est très loin d’être optimale ! Une forte utilisation d’outils de scripts visuels type Scratch, qui ont l’avantage de permettre à des personnes peu expérimentées de fournir un travail rapidement pour moins cher, qu’un développeur plus expérimenté et plus cher en terme de salaire, l’autre problème étant que ces outils fournissent un code beaucoup moins “propre” et optimisé.
Qu’en penser?
Ce test nous montre que comme d’habitude de la part d’Ubisoft, on aura un jeu PC très mal optimisé (surtout en terme CPU et répartition de la charge entre les coeurs/threads), et qu’il faudra patienter plusieurs semaines/mois avant que des patchs excessivement lourds (compression? kézako? Un asset à changer? Re-télécharge tout le packet !) corrigent le jeu, comme des rustines.
Intéressé par ce jeu? Prenez la version console ! Pas de console? Attendez 6 mois qu’il soit patché et en promo !
Hahaha la version Xbox série x n est pas vraiment en 4k ! Pour tenir les 6o FPS ! Il ya un comparatif avec Xbox x qui elle est en 4k3o fps . Mettez cette vidéo ( youtube ) sur pause ! Pour voir que les deux consoles ne tourne pas sur la même résolution ! Tellement visible sur les textures …
J’ai le jeu est j’ai remarquer une chose, c’est qu’en 20xx résolution a fond ça fonctionne, si si. Je vous jures , ça s’appel “profiter d’un jeux vidéo” en vrai enfaite on s’en branle de votre 4k pour kéké teuber, on joue pas pour ça, on joue pour le jeu lui-même. Oui oui je sais c’est qu’un article, mais on vois bien que tout les gogoles on Mis entre 1500euro et 2000balle pour au final la prendre bien profond dans le trou de balle. J’ai une rtx 2060super de 8go en 4k donc 30xx résolution, parce que 40xx c’est 8ndisponible, et le jeu est constamment à fond même en ips, donc oui désoler de vous le dire. Vous vous êtes fait avoir avec vos 3090 de bonhomme, en même temps si les joueurs pc étaient futé ça se saurait, ils fond comme les joueurs console, tu leur vend une 3090 à 1200ghz 24gb et loin d’être plus fiable que les 2060super ils achèteront quand même XD, bizarre ça me rappel des joueurs console, qu’on traite de pigeon, tu parle vous êtes aussi teuber. Va peut-être falloir comprendre que les journaliste et les vendeurs pousse à la consommation parce que vous êtes naïf à toujours vouloir avoir soit disant plus fort plus cher. Sans compter que vos gentil youtuber influencer de merde, sont des vendus et vendent bien les produits qu’on leur offres… Là couche que vous tenez tous
La solution est simple, ne pas avoir un écran 4Kk donc pas de jeu en 4k et plus e soucis d’optimisation !
OSEF un ecran 4k pour mettre sur un bureau à 50 cm en 32 pouces !
A moins d’avoir une loupe dans la main, mais dans un jeu ça sert à rien
C’est bien beau, mais les développeurs optimisent leurs jeux pour le plus grand panel graphique.
Or, peu de gens vont se munir de 3090, donc les drivers et optimisations sont moins bons/inexistants, pour le moment.
C’est beau de faire des benchmarks, mais quand c’est fait à l’arrache, ça sert strictement à rien.
Et puis il y a des options graphiques activées qui bouffent de la mémoire et qui sont inutiles.
Si les mecs qui font les benchmarks ont 2 neurones aussi, normal que la carte ne tourne pas à son plein potentiel..