Globalement meilleur, mais peut encore mieux faire !
Le site DSOGaming publie plusieurs images montrant le résultat visuel d’une nouvelle version du DLSS appliquée au jeu Metro Exodus. Le résultat, beaucoup trop flou à l’origine, est désormais bien meilleur, mais laisse percevoir cette fois une impression d’effet “dessin animé”.
Plus de piqué
DSOGaming explique que les performances sont toujours en hausse grâce au DLSS, et que cette fois, l’image est presque aussi nette qu’en définition native. Le jeu est censé être plus performant aussi au niveau du ray tracing. Remarquez toutefois que le DLSS s’améliore sans mise à jour des pilotes de NVIDIA, et donc sans nouvelle version de l’IA NGX côté GPU…
Etes-vous sûr que c’est moins flou avec le DLSS ? Selon vos screens, c’est l’inverse… Le TAA me semble offrir plus d’informations.
moins flou que la première version du DLSS pour ce jeu, pas moins flou que la version TAA 🙂
Ha ! Ok, merci. Étrange le choix des images…
ce ne sont pas nos screens, la source est citée en première ligne de l’actu.
je ne comprends pas l’interet du dlss perso…
forcement que c’est plus performant, vue comment sa rend l’image dégueulasse XD
l’idée de base est bonne mais visiblement le système d’apprentissage n’est pas encore au point et nvidia aurait du prolongé les tests avant de sortir cette techno.
Ce qui compte c’est le rendu video avec le framerate pas seulement les sreens fixes de détails grossi que personnes ne regarde…
Ça me parait logique que ça apparaisse cartoon. Vu que ça vient d’une résolution inférieure. Alors automatiquement un réseau de neurone entrainé va faire de son mieux pour faire l’upscaling, mais il ne peut pas inventer de détail inexistant, donc là ou il y a des aplats de couleurs, ceux-ci sont simplement agrandit et là ou il y a un genre de bruit de couleur qui pourrait être de l’aliaising l’effet est un moyennage. Donc pleins d’applat de couleur par petite touche avec des contours assez nettes = cartoon.
Si justement, l’idée du DLSS c’est de nourrir un réseau de neurones avec des images en très très haute définition pour qu’il arrive à reconstruire (à réinventer) les informations manquantes (les détails inexistants) dans des images avec une définition plus faible. Sinon, autant utiliser de l’upscaling classique…