Un écran de gamer de 4k en 2021 – cela en vaut-il la peine ?

Nous ne sommes pas vraiment surpris lorsque les clients nous demandent quelles sont les possibilités du 4K, surtout avec la popularité croissante du 4K dans les services de cinéma, de télévision et de streaming. De plus, avec les consoles de la prochaine génération qui se profilent à l’horizon, la notion de jeu n’a jamais été aussi importante qu’aujourd’hui. Au cours des dernières semaines, on m’a posé un certain nombre de questions sur le type d’écran qu’une personne devrait se procurer pour une nouvelle installation, et plus précisément, si elle devrait envisager l’option d’un écran à résolution 4K.

J’ai donc pensé essayer de couvrir l’ensemble du débat dans le post d’aujourd’hui, et de peser tous les différents éléments de la réponse – parce que surprise, surprise, ce n’est pas aussi simple qu’un oui ou un non. Comme toujours, il y a différentes considérations à faire, et quel meilleur endroit pour commencer qu’en couvrant un des points les plus négligés (et peut-être controversés) quand il s’agit de résolutions plus élevées, puisque c’est la chose qui variera le plus d’une personne à l’autre ?

Peut-on même faire la différence ?

Une chose qui m’étonne encore aujourd’hui, c’est le nombre de personnes qui ne vont pas vraiment voir à quoi pourrait ressembler un nouvel écran pour elles-mêmes. Dans la société actuelle, où la culture du clic en ligne est si répandue, il est facile d’oublier que de nombreux points de vente proposent des modèles d’écrans que vous pouvez voir par vous-même. Si vous n’avez jamais vu un écran 4K auparavant, vous devriez aller en trouver quelques-uns pour les comparer aux écrans standard 1080p et 1440p. La plupart des gens pourront voir une différence, mais il y a quelques personnes qui ne peuvent pas toujours le dire. C’est une notion étonnante pour ceux d’entre nous qui remarquent une amélioration substantielle de la qualité de l’image, mais si vous tombez dans la première catégorie, il n’y a vraiment pas beaucoup d’intérêt à s’éclabousser sur un écran 4K.

L’autre chose à prendre en compte est la taille de l’écran que vous souhaitez acheter. Même les personnes aux yeux perçants auront parfois du mal à faire la différence entre une image 4K sur un écran de 32 pouces et une image 1440p sur un écran de 24 pouces. Cela s’explique tout simplement par le fait que plus l’écran est petit, plus la densité de pixels par pouce carré est élevée, ce qui signifie une meilleure qualité perçue dans l’ensemble. C’est pourquoi le 4K a décollé beaucoup plus rapidement dans l’industrie du cinéma et de la télévision (ainsi que sur les consoles à venir), car la plupart des gens ont tendance à avoir des écrans beaucoup plus grands dans leur salon qu’à leur bureau. Ces écrans plus grands étirent davantage les pixels, ce qui diminue la qualité d’image perçue dans l’ensemble, mais est ensuite contrebalancé par l’augmentation du nombre de pixels offerte par les résolutions 4K.

Bien sûr, tout cela n’a aucune importance même si vous n’avez pas le matériel nécessaire pour générer une image 4K…

De quel type de matériel avez-vous besoin pour faire tourner des jeux à 4K ?

Eh bien, vous pourriez être surpris de constater que, techniquement, vous pourriez vous en sortir très bien avec un RTX 2060 Super, couplé soit à un Ryzen 5 3600, soit à un i5 10600K, qui permettrait de faire tourner la plupart des grands jeux à des résolutions de 4K. Mais il y a un hic. L’inconvénient est que vous serez probablement fixé à environ 40 images par seconde, maximum. Maintenant, comme nous l’avons vu plus haut à propos de la résolution par rapport à la taille de l’écran, si la fréquence d’images est quelque chose que vous ne remarquez généralement pas, alors cela sera probablement plus que suffisant, car dans l’ensemble, vous pourrez maintenir 30 images par seconde au minimum (ce qui est souvent souligné comme étant le maximum que l’œil humain peut voir). Cependant, si comme beaucoup d’entre nous au bureau, vous êtes sensible à la fréquence d’image, alors 30 images par seconde ne suffiront pas et vous voudrez atteindre un minimum de 60 images par seconde.

C’est souvent là que le rêve du 4K commence à s’effriter – à mesure que vous augmentez la fréquence d’images ou la résolution, vous augmentez également la demande sur votre matériel. Ainsi, l’augmentation des deux simultanément accentue une courbe déjà exponentielle. Avec le matériel disponible aujourd’hui, même un RTX 2080 Ti associé à un processeur aussi puissant que le Ryzen 9 3900X ou le i9 10900K peut avoir du mal à maintenir cette cible de 60 images/seconde à 4K. Cela dit, avec l’annonce de la très attendue série de GPU RTX 3000, qui sera commercialisée dès le 17 septembre, cela pourrait bien changer – mais nous y reviendrons plus tard.

En supposant que vous ne soyez pas en mesure de vous procurer un PC tout neuf dans un avenir proche, mais que vous envisagez toujours la possibilité d’un moniteur 4K, vous pourriez faire valoir qu’il existe d’autres moyens de récupérer ces précieuses images sans diminuer la résolution ou mettre à niveau votre matériel, ce qui nous amène à notre prochaine considération…

Optimiser les paramètres du jeu

Tout le monde n’a pas l’argent nécessaire pour se payer quelque chose d’aussi extravagant qu’un RTX 2080 Ti, ou peut-être même ces nouvelles cartes RTX 3000 d’ailleurs, sans parler d’un processeur bien adapté pour les coupler. Alors que faire d’autre pour atteindre 60 images par seconde à 4K sur du matériel bas de gamme moins performant ? Le moyen le plus simple ? Ajustez les paramètres des jeux auxquels vous jouez.

Si vous avez l’habitude de jouer à des titres avec des paramètres élevés ou ultra élevés à une fréquence d’images tout aussi élevée en 1080p, vous pouvez passer à 4K si vous êtes prêt à réduire certains de ces paramètres dans le jeu, comme les ombres, l’anticrénelage, la floraison et divers autres effets de post-traitement, entre autres. S’il est bien optimisé et testé de manière approfondie, il est possible de récupérer une bonne quantité de fps, jusqu’à 30 ou 40 images. Le problème, cependant, est que la fidélité graphique du jeu commencera naturellement à se dégrader, et sera beaucoup plus perceptible dans certains titres que dans d’autres, ce qui signifie que vous devrez constamment micro-gérer les paramètres des différents jeux. Cela signifie essentiellement beaucoup de maux de tête et d’évanouissement, qui peuvent ou non en valoir la peine.

En fin de compte, si le fait d’augmenter la résolution donne au jeu une apparence plus nette et plus détaillée, mais que le fait de diminuer les paramètres graphiques diminue la fidélité, à quoi bon ? Une image nette qui ressemble à des déchets ressemble toujours à des déchets, mais une image « plus douce » qui a l’air fantastique a toujours l’air fantastique.

Cependant, cela pourrait potentiellement changer avec la nouvelle série RTX 3000 de NVIDIA. En plus d’offrir des gains de performances matérielles significatifs de la prochaine génération, ces cartes arriveront en même temps que le nouveau DLSS (Deep Learning Super-Sampling) amélioré de NVIDIA. Le DLSS est une fonctionnalité très intelligente offerte par certains titres (et potentiellement par beaucoup d’autres à l’avenir) qui utilise l’IA et le Deep Learning pour permettre aux utilisateurs de jouer à des résolutions « artificielles » élevées sans subir d’énormes pertes de performances. En fait, de nombreuses personnes rapportent que le DLSS peut en fait produire des résolutions 4K sur du matériel bas de gamme, avec une qualité d’image perçue meilleure que l’original à 4K natif. C’est impressionnant.

Donc, du point de vue matériel, le 4K sur des paramètres élevés à 60 images/seconde minimum pourrait devenir beaucoup plus facile à réaliser dans un avenir proche, mais est-ce la seule alternative au 1080p ?

Le compromis 1440p – s’agit-il d’un compromis ?

Certains disent que le 1440p est le compromis parfait pour les 4K. Et j’aurais tendance à être d’accord, si ce n’était du fait que je ne pense pas que ce soit un compromis du tout – j’ai une télévision 4K dans mon salon, et un moniteur 1440p sur mon bureau. Mais comme l’écran fait environ un cinquième de sa taille, la densité de pixels ajoutée permet d’obtenir une qualité d’image globale qui n’est pas très éloignée de la résolution native de ce téléviseur.

En fait, en ce qui concerne les jeux en particulier, le téléviseur ne fait qu’améliorer la netteté de l’image de mon écran. Mais, contrairement à ce qui se passe lorsque je regarde simplement quelque chose, que ce soit un film, une série ou une vidéo YouTube (où, pour moi, la différence de résolution est la plus importante), lorsque je joue à un jeu et que je suis complètement immergé dans l’environnement du jeu vidéo, l’accent mis sur l’interactivité détourne mon attention des petites différences de résolution. Les images sont toujours beaucoup plus claires et la qualité beaucoup plus élevée que celle de mon ancien moniteur 1080p, et je n’ai pas non plus eu besoin de payer un bras et une jambe pour aller chercher le matériel capable de produire une image 1440p. Je n’ai pas non plus vu un seul titre descendre en dessous de 60 images par seconde dans les réglages les plus élevés du jeu (enfin, à l’exception de quelques cas marginaux où les jeux ont été mal optimisés par les développeurs, *cough* Ark : Survival Evolved *cough*). Et pour ma part, je suis particulièrement sensible aux baisses de fréquence d’images en dessous de 60 images par seconde, il serait donc préférable d’avoir une fréquence d’images stable juste au-dessus de ce chiffre pour m’assurer que je n’aurais pas constamment l’impression que mes jeux bégaient ou traînaient. Mais, en fin de compte, c’est moi qui suis concerné, pas vous.

Le verdict

Au moment où j’écris ces lignes, étant donné les limites actuelles du matériel, la nouvelle génération de matériel qui reste à prouver et les coûts associés lorsque l’on vise 60fps à 4K, je dirais que le 1440p n’est pas du tout un compromis, mais plutôt une évidence. C’est la prochaine étape logique pour quiconque souhaite passer du 1080p, car, pour moi personnellement, je pense que le passage du 1080p au 1440p est bien plus visible que, disons, du 1440p au 4K, surtout si l’on considère les jeux sur des moniteurs standard ou même ultra-larges.

De plus, avec la sortie de ces nouveaux GPU à la fin de cette année, qui devraient offrir des gains de performance substantiels sur le matériel existant, cela signifie que les limites du matériel existant devraient enfin être réduites et, en tant que tel, je pense que les jeux sur des ultra-stations 1440p à haute résolution deviendront probablement la norme. Le coût des cartes graphiques capables de réaliser cela a considérablement chuté, tant pour le nouveau matériel que pour la série RTX 2000, et avec elles, nous pourrions bien voir baisser les coûts associés au 1440p, et peut-être même au 4K.

Cela dit, si vous avez l’intention de jouer sur un téléviseur ou un écran géant et que vous souhaitez investir vos économies dans du nouveau matériel, alors le 4K est probablement la solution qu’il vous faut. Mais si vous recherchez une mise à jour substantielle et abordable du 1080p qui vous fera sourire pendant quelques années (d’ici là, le 4K pourrait bien s’avérer encore plus réalisable et abordable), alors je vous recommande vivement et je peux personnellement me porter garant de la voie du 1440p.

Author: J.Cardano

Rédacteur et responsable de la publication pour le site Job'Innovation - News

Share This Post On