Soit presque 120 Mo par minute. Le test a été réalisé sur le jeu Red Dead Redemption 2.
Si hier, on a pu voir ce que donnait Google Stadia avec une latence réseau asthmatique, voici aujourd’hui une idée de la consommation de données. Sur Red Dead Redemption 2, en 1080p et 60 ips, le service de streaming pompe en moyenne 119 Mo chaque minute (sur un test de 13 minutes). Ramené sur une heure, cela donne environ 7,14 Go. Soit un débit d’environ 16 Mbit/s.
Sachant qu’il faut bien entre quarante et cinquante heures pour terminer le titre de Rockstar, le calcul est vite fait : de 280 à 350 Go. Rappelons qu’installé sur une machine, le jeu nécessite 150 Go d’espace disque.
À lire aussi : Test de Stadia, le cloud gaming de Google |
20 Go par heure en 4K selon Google
Ces données proviennent de chez VentureBeat. Malheureusement, le site ne fournit pas d’informations pour la 4K. Toutefois, Google a déjà indiqué que dans cette définition, Stadia peut consommer jusqu’à 20 Go de données par heure, soit environ 45 Mbits/s. Mais en considérant le fait que la 4K est environ quatre fois plus gourmande que le Full HD, ce nombre pourrait être sous-estimé.
À titre de comparaison, Netflix nécessite environ 3 Go par heure en streaming HD, et 7 Go par heure en 4K.
conclusion et comme prévu, le jeu en streaming consomme beaucoup plus de bandes passante sur la durée qu’un jeu DL une seul fois (patch inclus). Certains utilisateurs de la solution passant par une cnx 4G non illimitée risquent d’avoir de sacré surprise.
le streaming de jeu est d’une debilité absolue…. sans dec…. ok. ca parait genial pour l’utilisateur bla bla bla… mais d’un point de vue technique, et environnemental c’une catastrophe de plus….. pourquoi faire tourner une machine a echelle mondiale, alors que une petite boite qui consomme 150w sous ma tv peut faire le job sans probleme….
deja que la TV par internet ( et pas le replay / vod hein! ) sature internet pour rien…, alors que la TNT HD fait tout a fait le job !!!
quelque soit le domaine on reproduit le meme schema…. :
d’un moyen de CONNECTION , on en fait qqch de totalement absurde avec des flux enormes dans tout les sens….
c’est le meme principe que les transport : on exporte des denrees, pour faire venir les memes de l’endroit meme ou on a envoyé les notres……
bref…. un usage déraisonnable et irresponsable de la technologie… encore une fois…. dommage.
1) Si on veut jouer avec les options graphiques toutes activées, c’est plutôt une petite boîte de 300 W qu’il faut sous la TV.
2) La consommation ayant un coût bien établi pour les serveurs de Google, on peut tout à fait penser que celle ci sera optimisée au maximum (haute efficacité des alims et refroidissement, mutualisation du hardware..). A comparer avec ‘la petite boîte sous la TV’ auquel s’ajoutera peut-être même le surcoût de la climatisation durant nos périodes estivales toujours plus chaude.
3) Le standard d’image 4K 120 FPS suffira encore très longtemps car proche de la limite de perception humaine. Donc la quantité de Data nécessaire n’augmentera pas vraiment, alors que la consommation/Gbit va décroître encore et encore avec les progrès technologique (et accessoirement les techniques de compression d’images).
On appréciera cependant votre amalgame avec le libéralisme économique, point de vue sûrement aussi peu renseigné que votre connaissance des technologies de l’information..
Dans le cas présent, ce que pointe leo n’est pas tant la conso des datacenter Google que celle de toute l’interface réseau entre le joueur et ces datacenters.
Ne considérer que ces derniers dans l’équation, c’est ne vouloir prendre en compte que la moitié du problème.
Il faudrait idéalement rajouter les serveurs d’interfaces + la box internet.
Mais dire que ceci représentent la moitié du problème, non.