Recherche

19 mai 2023

CARTON ROUGE - Pourquoi la consommation électrique des composants informatiques est en forte hausse ?

Ca va chauffer dans le monde informatique ! En effet, les futurs cartes graphiques et processeurs seront performants mais consommeront d'avantage d'énergie qui favorisera chauffe et hausse de la facture d'électricité.

La perspective de l'arrivée de cartes graphiques de nouvelle génération chez AMD et Nvidia dans les mois à venir a enthousiasmé de nombreux joueurs qui s'attendent à de nouvelles performances. En revanche, ils sont moins nombreux à s'inquiéter de l'augmentation de la consommation d'énergie pour tous les modèles, en particulier pour les cartes Nvidia. AMD a répondu à cette préoccupation lors d'une récente interview avec Tom's Hardware, confirmant une consommation d'énergie plus élevée pour les cartes graphiques RDNA 3, en mettant l'accent sur l'efficacité accrue qui en résultera.

Le média s'est entretenu avec un cadre d'AMD, Sam Naffziger, qui travaille chez AMD depuis plus d'une décennie et qui a été fortement impliqué dans de nouveaux designs innovants concernant les puces de CPU et de GPU. Naffziger a abordé un certain nombre d'aspects de l'architecture RDNA 3, y compris une vue d'ensemble de la conception de base, des fréquences plus élevées évolutives, une efficacité accrue par watt et la façon dont les nouveaux GPU se comporteront face à la concurrence.

Lors d'une récente interview, AMD a évoqué l'avenir de ses produits, notamment les GPU haute performance. Dans ce secteur, le fabricant prédit à juste titre qu'à mesure que les capacités des cartes graphiques augmentent, leur consommation d'énergie augmente également.

Comme le veut la tradition, M. Naffziger s'est montré très confiant dans la conception du RDNA 3, et peut-être à juste titre, puisqu'il s'agira des premières cartes graphiques grand public à utiliser des chiplets. En d'autres termes, les cartes graphiques haut de gamme de la série Radeon 7000 utiliseront des techniques d'emballage avancées pour "rassembler" plusieurs GPU grâce à la technologie brevetée Infinity Cache à large bande passante d'AMD. Il s'agira essentiellement d'une nouvelle façon de fabriquer les cartes graphiques, qui permettra d'améliorer l'échelle des performances et l'efficacité énergétique par rapport aux conceptions traditionnelles à un seul GPU.

Il va sans dire qu'AMD semble confiant dans le fait que sa prochaine génération de produits donnera du fil à retordre à Nvidia. La prochaine série RTX 40 n'utilisera qu'un seul GPU. C'est une simplification excessive de dire simplement que deux vaut mieux qu'un, mais c'est l'essentiel.

AMD prévoit que nous pourrions commencer à voir des GPU avec un TDP de 700 watts - soit l'équivalent d'un frigo américain - avant même la fin de l'année 2024. L'entreprise a également parlé d'optimisations supplémentaires en termes de performance par watt, ce qui pourrait potentiellement lui donner une longueur d'avance sur Nvidia.

Cette prédiction est tirée d'un entretien accordé par Venture Beat à Sam Naffziger, vice-président senior, chargé de mission et architecte en technologie des produits d'AMD. M. Naffziger est spécialisé dans l'efficacité énergétique et les performances par watt, deux aspects importants de la stratégie d'AMD pour l'ensemble de ses gammes de produits, y compris les cartes graphiques et les processeurs. Cela s'applique aux produits d'entreprise, tels que les centres de données, et aux produits grand public, tels que les meilleurs GPU pour les joueurs.

Dans l'interview, M. Naffziger évoque le fait que la consommation d'énergie de la plupart des matériels informatiques a récemment suivi une courbe ascendante très marquée, qui s'applique aussi bien aux produits destinés aux charges de travail massives de calcul à haute performance (HPC) qu'aux PC de jeu que nous utilisons à la maison.

C'est vrai, l'augmentation des performances s'accompagne d'une augmentation de la consommation d'énergie. Comme le montre la diapositive ci-dessus, AMD prévoit que les GPU haute performance atteindront un TDP de 700 watts avant même 2025, ce qui témoigne d'une tendance continue à la hausse qui semble s'être accélérée au cours des dernières années.

Plusieurs rumeurs concernant les besoins en énergie monstrueux de la prochaine Nvidia GeForce RTX 4090 nous montrent que le problème est plus proche que nous ne le pensons. Après tout, certains fuites prédisent que l'association du GPU de nouvelle génération avec un processeur Intel Raptor Lake correspondant nécessitera un bloc d'alimentation (PSU) massif de 1 200 watts. Les cartes graphiques se transforment peu à peu en bêtes gourmandes en énergie, et bientôt, il pourrait devenir de plus en plus difficile de les suivre.

Le zonage d'AMD sur l'efficacité énergétique n'est pas nouveau. En 2014, le fabricant a lancé une initiative baptisée "25×20" qui l'a conduit à multiplier par 25 l'efficacité de ses processeurs mobiles d'ici à la fin de 2020. Aujourd'hui, AMD a lancé une initiative similaire, baptisée "30×25". Cette fois-ci, Team Red prévoit de multiplier par 30 l'efficacité de ses plateformes accélérées pour centres de données d'ici 2025. En mettant l'accent sur la performance par watt, AMD continue d'essayer d'améliorer ses produits sans entraîner une augmentation désastreuse de la consommation d'énergie.

Bien que l'initiative 30×25 se concentre sur le HPC, il semble qu'AMD fasse des choix architecturaux qui auront un impact positif à la fois sur les cartes graphiques RDNA 3 de nouvelle génération et sur celles qui suivront - RDNA 4.

À propos des prochains GPU, M. Naffziger a déclaré : "Nous nous sommes publiquement engagés à améliorer encore de 50 % les performances par watt. Cela représente trois générations de gains d'efficacité composés, soit 1,5 ou plus. Nous ne parlons pas de tous les détails de la manière dont nous allons y parvenir, mais l'un des éléments consiste à tirer parti de notre expertise en matière de chiplets pour débloquer toutes les capacités du silicium que nous pouvons acheter."

Cela implique clairement qu'AMD vise une amélioration de 50 % des performances par watt pour les GPU RDNA 3 par rapport à la génération actuelle de cartes. AMD est actuellement le seul fabricant qui possède une grande expertise dans la création de cartes graphiques et de processeurs grand public, et en tant que tel, il est capable d'utiliser certaines de ses idées de CPU dans la création de nouveaux GPU - la réduction des largeurs de bus et l'ajout d'un grand Infinity Cache viennent à l'esprit.

Jusqu'à présent, il s'est avéré qu'AMD est souvent plus économe en énergie que ses concurrents. Par exemple, la GeForce RTX 3090 Ti de Nvidia a un TDP de 450 watts, tandis que la Radeon RX 6950 XT d'AMD reste plus raisonnable avec 335 watts. La prochaine génération de GPU des deux fabricants fait encore l'objet de spéculations, mais il ne serait pas surprenant qu'AMD continue à améliorer l'efficacité de ses produits, même si c'est parfois au détriment des performances.

L'un des avantages évidents des conceptions multi-GPU est que chaque GPU peut être réglé sur une fréquence d'horloge plus basse et plus élevée dans la courbe d'efficacité des performances par watt. AMD a également fait allusion à d'autres ajustements pour améliorer l'efficacité, y compris la contribution des ingénieurs des processeurs Ryzen sur la façon de maintenir des fréquences d'horloge plus élevées tout en conservant des tensions plus basses.

Nvidia devra essentiellement overclocker ses conceptions de GPU uniques pour obtenir plus de performances au prix d'une efficacité décroissante afin de conserver l'avantage de conception d'AMD. Nvidia n'a encore rien dit d'officiel au sujet de la série RTX 40, mais AMD revendique une amélioration de 50 % des performances par watt pour RDNA 3 par rapport à RDNA 2. Toutefois, Naffziger a confirmé que la consommation d'énergie globale augmentera pour cette génération.

Les GPU RDNA 3 devraient être commercialisés dans le courant de l'année et concurrencer instantanément les cartes graphiques de la série RTX 40 de Nvidia. Espérons que l'accent mis par AMD sur l'efficacité énergétique évitera à de nombreux clients d'acheter un nouveau bloc d'alimentation.

  • ANALYSE - L'essor de la performance : Les CPU et les GPU deviennent-ils trop gourmands en énergie ?

Tous les deux ans, une nouvelle génération de processeurs informatiques est lancée. Pendant longtemps, les processeurs ont semblé rester au même niveau de puissance, tandis que les GPU n'augmentaient que relativement peu. Mais aujourd'hui, il semble que les modèles haut de gamme de tous les constructeurs sortent des modèles qui requièrent d'énormes quantités d'énergie.

250 W pour un processeur (CPU) et 450 W pour un processeur graphique (GPU), est-ce trop élevé ? Les fabricants s'en préoccupent-ils au moins ? Dans cet article, nous allons retirer les dissipateurs thermiques pour découvrir la vérité derrière les chiffres de puissance et voir exactement ce qui se passe. 

Pourquoi les puces ont besoin d'énergie et chauffent autant ?

Les CPU et les GPU sont considérés comme des circuits d'intégration à très grande échelle (VLSI) - d'énormes ensembles de transistors, de résistances et d'autres composants électroniques, tous de taille microscopique.

Ces puces ont besoin d'être traversées par l'électricité pour effectuer les tâches pour lesquelles elles ont été conçues. Les unités logiques arithmétiques effectuent des opérations mathématiques en commutant une multitude de transistors, afin de modifier diverses tensions ailleurs dans le circuit.

Les processeurs modernes utilisent un type de transistor appelé FinFET (Fin Field-Effect Transistor). Imaginez ces transistors comme un pont entre deux îles, où l'application d'une petite tension abaisse une route, permettant au courant de passer d'un endroit à l'autre.

Il est évident qu'un courant passe à travers les îles et le pont, d'où la nécessité d'une alimentation électrique : sans elle, les puces ne feraient tout simplement rien. Mais pourquoi chauffent-elles alors ?

Malheureusement, tous ces composants opposent une résistance à ce flux d'électricité. La quantité réelle est vraiment minime, mais étant donné que le nombre de transistors dans les CPU et les GPU se chiffre en milliards, l'effet cumulatif est très prononcé.

Un CPU typique peut n'avoir qu'une résistance interne totale d'une douzaine de milliohms, mais lorsqu'elle est traversée par un courant de 80 A ou plus, l'énergie dissipée en raison de la résistance est de plus de 90 joules par seconde (ou watts, W).

Cette énergie est transférée aux matériaux qui composent l'ensemble de la puce, ce qui explique pourquoi tous les processeurs chauffent lorsqu'ils fonctionnent. Les grosses puces doivent être activement refroidies pour éviter que leur température n'augmente trop, de sorte que toute cette chaleur doit aller ailleurs.

D'autres facteurs influent sur la quantité de chaleur dissipée, comme les fuites de courant, mais si un processeur "perd" de l'énergie (sous forme de chaleur), il devra constamment en "consommer" pour rester fonctionnel.

En d'autres termes, la quantité de chaleur perdue correspond à peu près à la puissance nominale de la puce. Commençons donc par examiner l'unité centrale de traitement et voir comment ses besoins en énergie ont évolué au fil des ans.

La vérité cachée derrière les chiffres de puissance des unités centrales de traitement

Depuis de nombreuses années, les fournisseurs d'unités centrales de traitement indiquent la consommation d'énergie de leurs processeurs à l'aide d'un simple chiffre : Thermal Design Power ou TDP. Ce chiffre a malheureusement fait l'objet de plusieurs définitions au fur et à mesure de l'évolution de la conception des puces.

La définition actuelle d'Intel est la suivante :

"La dissipation d'énergie moyennée dans le temps que le processeur est validé pour ne pas dépasser pendant la fabrication tout en exécutant une charge de travail de haute complexité spécifiée par Intel à la fréquence de base et à la température de jonction maximale"
En d'autres termes, si votre processeur Intel a une fréquence de base de 3,4 GHz et une température maximale de 95 °C, sa puissance nominale sera égale au TDP tant que la puce fonctionnera dans ces limites.

Jetons donc un coup d'œil à quelques exemples de CPU des 17 dernières années. Nous avons pris les modèles de bureau les plus gourmands en énergie sortis chaque année au cours de cette période, en ignorant ceux qui étaient destinés aux stations de travail et autres.

Hormis quelques cas isolés, comme le FX-9590 d'AMD datant de 2013 (avec un TDP de 220 W !), les processeurs semblent avoir été très constants dans leurs exigences en matière de puissance.

À première vue, ils ne semblent pas devenir de plus en plus gourmands en énergie, ce qui est évidemment une bonne chose. Les progrès réalisés dans la fabrication des semi-conducteurs, ainsi que la conception optimale des circuits intégrés, doivent en être la cause.

Le seul problème, c'est que presque tous les processeurs du marché peuvent tourner à des vitesses bien supérieures à leur fréquence de base. Le FX-9590 mentionné ci-dessus a une fréquence de base de 4,7 GHz, mais peut augmenter la fréquence d'horloge jusqu'à 5,0 GHz. Que se passe-t-il alors ?

On pourrait penser que la réponse est simple : il dissipera plus d'énergie, en tirant une plus grande quantité de courant de la carte mère. Malheureusement, ce n'est pas toujours le cas, car cela dépend des paramètres activés dans les paramètres de la carte mère (BIOS).

Tant Intel qu'AMD disposent d'un certain nombre d'options, qui peuvent toutes être activées ou désactivées (en fonction de l'existence ou non d'une option dans le BIOS) et qui permettent au processeur de gérer sa propre puissance et sa propre fréquence.

Si l'on s'en tient à Intel pour l'instant, le principal système utilisé à cette fin s'appelle la technologie Turbo Boost. Mis à part le nom datant des années 1980, ce système permet de contrôler activement la quantité d'énergie que le processeur peut dissiper pour une charge donnée, sur une certaine période de temps.

Les processeurs d'Intel ont généralement deux limites de puissance, PL1 (alias TDP) et PL2, bien que d'autres soient disponibles...

Notez que la courbe de puissance orange peut atteindre des niveaux nettement supérieurs à PL1 et s'élever à PL2 pendant un certain temps. Dans ce cas, le processeur fonctionne au-dessus de sa fréquence de base, mais pas nécessairement à sa fréquence d'horloge maximale.

Étant donné qu'Intel désactive PL3 et PL4 par défaut, nous pouvons considérer PL2 comme la consommation d'énergie maximale réelle du processeur - il se peut qu'elle ne dure que quelques secondes (ou, selon les paramètres du BIOS, qu'elle dure indéfiniment), mais il s'agit toujours de la consommation d'énergie la plus élevée possible.

Quelle est donc la différence entre PL2 et PL1 ? Cette valeur a fluctué avec chaque nouveau modèle de processeur, mais nous nous contenterons d'examiner ceux des dernières années de notre tableau TDP ci-dessus.

Il y a sept ans, avec des processeurs comme le Core i7-8700K, il n'y avait qu'une différence de 30 W entre PL1 et PL2, alors qu'aujourd'hui elle est de plus de 100 W, ce qui revient à doubler la puissance requise dans certains cas.

AMD n'utilise pas les mêmes étiquettes et définitions qu'Intel, mais ses processeurs peuvent également dissiper plus d'énergie que la limite du TDP.

La limite supérieure est indiquée sous la forme d'un suivi de la puissance du paquet (PPT), c'est-à-dire la puissance maximale que le processeur peut dissiper sous une charge donnée. Pour tous les processeurs de bureau Ryzen avec un TDP de 95W ou plus, le PPT est égal à 1,34 x TDP.

Une chose est donc claire : les CPU haut de gamme ont définitivement augmenté leur consommation maximale absolue au cours des dernières années, bien que le TDP soit relativement statique.

Les fabricants de cartes mères ne font qu'aggraver la situation en ignorant les limites de puissance et les contraintes temporelles par défaut d'Intel et en fixant leurs propres valeurs dans le BIOS. En d'autres termes, le processeur d'une carte mère peut plafonner à 120 W, mais atteindre 200 W sur une autre carte.

Il convient toutefois de faire le point à ce stade, car tous les chiffres présentés jusqu'à présent concernent les modèles haut de gamme, c'est-à-dire ceux qui présentent les vitesses d'horloge les plus élevées et le plus grand nombre de cœurs.

Les processeurs de milieu et de bas de gamme ont heureusement très peu évolué, tout simplement parce qu'ils ont toujours eu beaucoup moins de cœurs que les modèles haut de gamme.

En bas du marché des processeurs de bureau, le populaire Core i3-12100F d'Intel a un TDP de 58 W (et un PL2 de 89 W), tandis que le Ryzen 3 4100 d'AMD a un TDP de 65 W, ce qui correspond à peu près à ce que ces gammes de produits ont toujours été.

Cependant, le dernier modèle de milieu de gamme Ryzen 7600X d'AMD a un TDP de 105 W, soit quarante de plus que son prédécesseur immédiat, le 5600X. Quant au Core i5-12600K d'Intel, son TDP est celui d'une puce haut de gamme : 125 W.

Tout cela indique une nette augmentation de la consommation d'énergie, principalement vers les modèles haut de gamme, mais pas exclusivement. Si vous voulez un processeur avec le plus grand nombre de cœurs et les vitesses d'horloge les plus élevées, cela implique une demande d'énergie importante.

Malheureusement, les personnes qui souhaitent passer au dernier produit de milieu de gamme risquent de devoir accepter une hausse notable de la consommation d'énergie.

C'est là qu'entrent en scène les hippopotames affamés de consommation d'énergie : les GPU

Alors que les processeurs ont été relativement économes en énergie, même en tenant compte du récent relèvement de la limite maximale, il y a une puce dans les ordinateurs de bureau qui devient de plus en plus grosse et affamée à chaque nouvelle génération. La puce de traitement graphique (GPU) est de loin le dispositif semi-conducteur le plus grand et le plus complexe que la plupart des gens posséderont jamais, en termes de nombre de transistors, de taille de la puce et de capacité de traitement.

Le niveau de fidélité graphique des jeux d'aujourd'hui est d'une ampleur dont on ne pouvait que rêver il y a 17 ans, mais le coût énergétique de tous ces polygones, textures et pixels fait paraître les unités centrales légères, en comparaison.

Nous avons procédé de la même manière pour ce graphique que pour celui du CPU : nous avons pris les cartes graphiques grand public les plus gourmandes en énergie des principaux constructeurs, pour chaque année.

Les cartes comme la Ryzen 9 7950X d'AMD peuvent atteindre 230 W, mais les GPU haut de gamme dissipaient ce niveau de puissance il y a près de 15 ans.

Et comme le montre le graphique, rien n'indique que la tendance des cartes graphiques les plus puissantes à nécessiter des quantités d'énergie toujours plus importantes va diminuer, car les tendances pour les deux constructeurs sont clairement non décroissantes, même si la corrélation n'est pas très forte.

Avec le lancement par Nvidia de la GeForce RTX 4090, dotée d'une puce de 76 milliards de transistors et d'un TDP de 450 W, la barre a été placée bien plus haut.

Les constructeurs de GPU ne se soucient-ils donc vraiment pas des exigences en matière de consommation d'énergie ?

Le graphique ci-dessus montre l'évolution des mêmes puces en termes de nombre de transistors dans chaque millimètre carré de la puce, par rapport au TDP de la carte graphique.

L'échelle de densité des puces est logarithmique parce que la densité a fait un bond colossal au cours des dernières années - une échelle linéaire aurait regroupé presque tous les points de données dans une petite région.

Nous pouvons constater qu'à mesure que les GPU intègrent de plus en plus de commutateurs nanométriques dans leurs circuits, les besoins en énergie augmentent régulièrement, mais pas de manière constante (oui, la ligne AMD semble droite, mais n'oubliez pas l'échelle logarithmique).

Les tendances non linéaires sont toutes deux à la hausse, mais le taux d'augmentation lui-même a diminué chaque année. Cette tendance entre la densité et le TDP est due au fait que les constructeurs sortent de nouvelles puces qui sont fabriquées sur un nœud de processus amélioré.

Il s'agit du nom donné à la méthode de fabrication utilisée par une fonderie de semi-conducteurs pour fabriquer les puces. Chaque nouveau nœud offre une série d'avantages par rapport à son prédécesseur : densité plus élevée, consommation plus faible, meilleures performances, etc.

Toutes ces améliorations ne peuvent pas être appliquées en même temps, mais dans le cas des GPU, elles ont permis aux constructeurs de créer des processeurs vraiment énormes, avec des niveaux de calcul exceptionnels, pour une puissance requise raisonnable.

Par exemple, si le Navi 21 était fabriqué en utilisant le même nœud que celui utilisé pour le R520, la puissance requise serait de l'ordre du kW. Ainsi, même si les niveaux d'énergie sont assez élevés à l'heure actuelle, ils pourraient être bien pires.

Les avantages des nouveaux nœuds de traitement et des nouvelles conceptions de GPU ne se limitent pas à la réduction des niveaux de puissance.

La capacité de calcul, par unité de puissance, de tous les GPU haut de gamme a connu une augmentation quasi constante, à un rythme étonnant, depuis l'apparition des premiers modèles de shaders unifiés en 2006.

Si l'on prend les chiffres ci-dessus, l'augmentation moyenne du TDP depuis 2006 a été doublée, tandis que l'augmentation des performances FP32 par watt a été démultipliée, ce qui est stupéfiant

Bien que le débit de traitement FP32 ne soit pas la qualité déterminante d'une carte graphique, il s'agit de l'une des capacités les plus importantes pour les jeux et les graphiques 3D. Si nous disposons aujourd'hui de jeux aux graphismes et aux fonctionnalités incroyables, c'est parce que les meilleurs GPU sont devenus plus grands et plus complexes.

Mais même si les processeurs graphiques sont plus performants que jamais et que leur niveau de consommation n'est pas aussi mauvais qu'il pourrait l'être, leur niveau de consommation d'énergie continue d'augmenter. Même les GPU ultra-budget, qui consomment normalement 30 W ou moins, ont vu leur TDP augmenter de manière significative au cours des dernières années.

Si l'on souhaite acheter une carte graphique Nvidia capable de tirer tout son courant uniquement via le port PCI Express, il faut alors se passer de l'ensemble de l'inventaire Ampère. La GeForce RTX 3050 a un TDP de 100W et comme le slot a une limite de 75W, des connecteurs d'alimentation supplémentaires sont nécessaires.

Ces cartes, comme leurs grandes sœurs, ont beaucoup plus de puissance de traitement qu'auparavant, mais pour les personnes qui veulent construire des systèmes à très faible consommation, il y a de moins en moins d'options à choisir en ce qui concerne la carte graphique.

Et il ne semble pas y avoir de signes de ralentissement, voire de diminution, de l'augmentation de la demande d'énergie. Par exemple, la dernière incursion d'Intel sur le marché des cartes graphiques, la série Arc, est actuellement dirigée par la carte A770.

Cette carte est dotée d'une puce de 21,4 milliards de transistors, de 16 Go de GDDR6 et d'un TDP de 225W. Bien qu'elle soit destinée au secteur du milieu de gamme, cette demande de puissance est identique à celle des plus grosses puces d'AMD et de Nvidia d'il y a quatre ans.

C'est un peu mieux pour les cartes GeForce et Radeon de milieu de gamme, la RTX 3060 nécessitant 170 W et la RX 6600 XT 160 W, mais la demande énergétique a augmenté dans tous les secteurs, bien plus que pour les CPU.

Sans une meilleure ingénierie, cette demande serait évidemment beaucoup plus élevée, mais une question importante à laquelle il faut vraiment répondre est de savoir si les CPU et les GPU demandent trop d'énergie pour ce qu'ils offrent.

Qu'entend-on par "trop" ?

Deux des plaintes les plus courantes concernant l'augmentation de la demande en énergie des CPU et des GPU sont le coût de l'électricité et la quantité de chaleur générée.

Supposons que vous disposiez d'un PC de jeu très sophistiqué, équipé des meilleurs composants que l'on puisse s'offrir. Supposons également que vous utilisiez un AMD Ryzen 9 5950X, soutenu par un Nvidia GeForce RTX 3090 Ti légèrement overclocké.

Naturellement, il y aura aussi d'autres éléments (au minimum, une carte mère, de la RAM et un disque de stockage), mais nous pouvons les laisser de côté car leur consommation d'énergie combinée sera bien inférieure à celle du CPU ou du GPU. Alors, quelle sera la puissance requise par ce PC au milieu d'une partie de jeu trépidante ? Que pensez-vous d'une puissance de 670W à 700W ?

Imaginez maintenant que vous utilisiez votre PC de cette manière pendant 2 heures, chaque jour, tous les jours de l'année. La quantité d'énergie consommée par l'ordinateur serait d'environ 500 kWh (0,7 x 2 x 365), ce qui équivaut à faire fonctionner une bouilloire électrique de 1,5 kW pendant près de deux semaines, sans interruption.

Selon l'endroit où vous vivez dans le monde et les tarifs que vous payez pour votre électricité, l'utilisation d'un tel PC peut coûter entre 70 et 280 dollars (taxes et frais supplémentaires non compris), chaque année.

Mais comparé au coût total de l'ordinateur lui-même, qui s'élève à plusieurs milliers de dollars, il s'agit d'un montant relativement faible. Si l'on prend la valeur la plus élevée et que l'on calcule le coût de l'électricité par heure de jeu, on obtient seulement 0,38 $ par heure.

Dans le pire des cas, un ordinateur équipé de la combinaison de CPU et de GPU la plus gourmande en énergie actuellement disponible (la carte ci-dessus et le Core i9-13900K d'Intel), fonctionnant tous deux à leurs limites de puissance par défaut les plus élevées, ne coûterait qu'environ 0,50 dollar par heure, pour la même routine de jeu.

Vous pourriez dire que 50 cents par heure de jeu est beaucoup trop élevé, et pour des millions de personnes dans le monde, c'est presque certainement vrai. Mais il est peu probable qu'ils disposent d'un tel PC.

Les consoles de salon sont plus populaires que les PC de jeu, en termes d'unités livrées par an, et elles contiennent du matériel bien moins performant que les exemples cités ci-dessus. Mais en termes de demande d'énergie, une console comme la Xbox Series X de Microsoft ne consommera que 153 W pendant un jeu actif.

Même si vous tenez compte d'un grand téléviseur OLED qui pourrait ajouter 100 W supplémentaires, les deux appareils combinés utiliseraient en fait 44 % d'énergie en moins que la GeForce RTX 4090 seule. Par conséquent, si le coût de l'électricité est une préoccupation réelle, les consoles constituent une bonne alternative pour les jeux.

Bien entendu, il n'est pas nécessaire d'utiliser les ordinateurs les plus récents ou les plus puissants pour profiter des jeux. Il existe de nombreux composants plus anciens ou de milieu de gamme qui ne sont pas trop gourmands en énergie et qui restent très performants.

Les cartes graphiques d'occasion Radeon RX 5700 XT, GeForce RTX 2060 Super ou même GeForce GTX 1080 Ti sont encore très performantes et ont toutes les trois un TDP de 250 W ou moins.

En bref, l'argument selon lequel l'augmentation de la puissance est un problème, uniquement en raison du coût de l'électricité, est quelque peu discutable - trop de choses dépendent du prix local d'une unité d'électricité, des habitudes de jeu, etc. pour résoudre de manière concluante un tel débat.

Mais qu'en est-il de la chaleur ?

Comme nous l'avons mentionné au début de cet article, pratiquement chaque joule d'énergie électrique finit par être dissipé sous forme de chaleur, transférée à l'environnement principalement par le mécanisme de la convection.

Un ordinateur d'une puissance de 900 W pourrait, en théorie, faire passer la température de 28 mètres cubes de 20°C à 40°C en seulement 17 minutes. Cela suppose naturellement un transfert de chaleur et une isolation parfaits, sans aucun mouvement de l'air chaud hors du volume en question.

Bien que cela ne soit pas aussi rapide, en réalité, toute cette chaleur finira toujours par être transférée dans l'environnement du PC, quel que soit le taux de transfert.

Les ventilateurs de refroidissement, quelle que soit leur quantité ou leur performance, n'y changeront rien, puisqu'ils ne font qu'abaisser la température des composants. Le seul moyen d'atténuer l'augmentation de la chaleur de l'environnement est de permettre à l'air chaud de se déplacer ailleurs, par l'ouverture d'une fenêtre, par exemple.

Si vous prévoyez de dépenser une grosse somme d'argent pour les processeurs et les processeurs graphiques les plus puissants, préparez-vous à ce qu'ils déversent une quantité importante d'énergie thermique dans votre salle de jeu.

Tout comme pour la question du coût de l'électricité, il s'agit en fin de compte d'une préoccupation individuelle - 900 W de chaleur peuvent être un problème chronique pour une personne, mais tout à fait acceptable pour une autre.

Les besoins du plus grand nombre l'emportent sur les besoins de quelques-uns

Il semblerait donc que les préoccupations relatives à la puissance calorifique et au coût de l'électricité soient essentiellement des questions individuelles. Cependant, tout cela devient beaucoup plus important à l'échelle de la planète.

Il y a des millions d'ordinateurs dans le monde, et bien que le nombre d'ordinateurs équipés de puces de plus de 250 W soit relativement faible, toutes ces machines seront un jour remplacées par des ordinateurs équipés de composants dont la demande d'énergie est plus élevée qu'aujourd'hui.

Pour s'en faire une idée, il suffit de considérer qu'environ 17 millions de consoles Xbox Series X et 50 millions de consoles Xbox One ont été vendues dans le monde. La première consomme environ 90 W de plus que la seconde.

Si nous supposons que toutes ces anciennes unités sont remplacées par les plus récentes, cela représente 3 GW supplémentaires de demande d'énergie accumulée et, en fin de compte, de chaleur dissipée. Il est évident que ces machines ne fonctionneront pas toutes en même temps, mais l'énergie supplémentaire requise n'est pas propre à cette console.

Avec l'arrivée de nouveaux processeurs pour les ordinateurs portables, les ordinateurs de bureau, les stations de travail et les serveurs, tous ces appareils nécessiteront plus d'énergie, que ce soit quelques watts ou une centaine. Cela signifie que l'industrie de l'énergie devra faire face à une demande de plus en plus forte par rapport à sa capacité de production.

Ce sera de toute façon le cas, en raison de la croissance démographique et économique, mais le problème ne fera que s'aggraver avec l'augmentation de la puissance des semi-conducteurs.

Même en tenant compte d'un déclin des ventes de PC, comme les prévisions l'indiquent pour un certain nombre d'années, il y a d'autres secteurs qui font le contraire : L'internet des objets (IdO), l'intelligence artificielle (IA) et l'analyse des données de masse (big data) affichent tous une forte croissance.

L'IA et le big data utilisent beaucoup de GPU haut de gamme pour effectuer les calculs nécessaires et si les nouveaux composants de ces machines ne montrent aucun signe de modération de leur demande d'énergie, ces industries ne feront qu'aggraver la situation énergétique.

Selon certaines estimations, la demande d'électricité à l'échelle mondiale pourrait être multipliée par trois d'ici à 2050, avec une croissance de 3 à 4 % par an. Il n'est toutefois pas certain que ces estimations tiennent compte de l'augmentation de la consommation d'énergie des processeurs.

Depuis 2005, la production mondiale d'électricité estimée est passée de 18 PWh (1 PWh = 1 000 000 GWh) à 28 PWh en 2021, soit une augmentation de 56 % en seulement 16 ans. Et cette hausse est entièrement due à l'augmentation de la demande. La croissance de l'utilisation des semi-conducteurs ne fera qu'aggraver la situation au cours des prochaines décennies.

Alors, que peut-on faire, si tant est que l'on puisse faire quelque chose ?

En tant que particulier, vous pouvez essayer de réduire la consommation d'énergie des principaux composants de votre ordinateur. Dans le cas des processeurs, la majorité des cartes mères disposent d'une variété d'options d'alimentation dans le BIOS qui obligent le processeur à réduire sa consommation d'énergie lorsqu'il est inactif.

L'interface ACPI (Advanced Configuration and Power Interface) est apparue dans les ordinateurs de bureau en 1996 et a été continuellement mise à jour depuis lors. Aujourd'hui, tous les processeurs grand public sont dotés de fonctions conformes à l'ACPI et, en ce qui concerne la consommation d'énergie, deux d'entre elles sont remarquables : Les états P et les états C.

Le premier fait référence à l'état de performance dans lequel le processeur fonctionne et, lorsqu'il est activé dans le BIOS, il permet à la puce de fonctionner à une fréquence et à une tension inférieures, afin d'économiser de l'énergie. Les états C ont un rôle similaire, mais ils contrôlent ce que le processeur est capable de faire (par exemple, conserver des données dans la mémoire cache ou la vider entièrement) tout en fonctionnant dans un format moins gourmand en énergie.

Pour les processeurs Ryzen plus récents d'AMD (à partir de la série 3000), l'activation du mode Eco dans le logiciel Ryzen Master forcera le processeur à fonctionner avec un TDP nettement inférieur, indépendamment de toute option ACPI activée.

Selon le système utilisé et les performances mesurées, l'impact de l'utilisation de la valeur de puissance la plus faible peut être étonnamment faible. Pour les utilisateurs de processeurs Intel, il est possible d'obtenir quelque chose de similaire en se plongeant dans les paramètres du BIOS et en recherchant la gestion interne de l'alimentation du processeur (tous les modèles n'en sont pas équipés).

Dans cette section, les valeurs de PL1 et PL2 peuvent être inférieures aux valeurs par défaut, bien qu'elles soient plus susceptibles d'être répertoriées sous des noms différents. Par exemple, Asus utilise Long/Short Package Duration Limit pour PL1/PL2.

Les cartes graphiques peuvent être réglées de la même manière, en utilisant des logiciels tels que MSI Afterburner. Cette application permet de contrôler la puissance maximale de la carte, exprimée en pourcentage, et ce chiffre peut facilement être abaissé.

Par exemple, la RTX 2080 Super de Nvidia a une limite de consommation de 250 W à 100 %. En abaissant cette limite à 70 %, la consommation d'énergie du GPU serait limitée à 175 W. Naturellement, cela réduira également les performances de la carte, mais comme pour le Ryzen Eco Mode, l'impact n'est pas aussi important qu'on pourrait le penser.

Il est possible d'obtenir un résultat similaire en abaissant la tension du cœur du GPU, ce qui nécessite généralement de réduire également la fréquence d'horloge. Par ailleurs, si un jeu offre la possibilité de plafonner la fréquence d'images, le fait de la fixer à une valeur inférieure réduira également la demande d'énergie.

Mais en termes de simplicité, l'ajustement de la limite de puissance à l'aide d'un simple curseur est imbattable.

Nous avons effectué quelques tests rapides avec Shadow of the Tomb Raider, avec la carte graphique susmentionnée (RTX 2080 Super) et un Intel Core i7-9700K. La résolution du jeu a été réglée sur 4K, tous les détails graphiques ont été réglés sur la valeur maximale, le mode DLSS Quality a été activé, mais le ray tracing a été désactivé.

Il peut sembler incroyable de diviser par 2 la puissance maximale disponible n'entraîne qu'une réduction de 10 % du taux de rafraîchissement moyen (les valeurs basses de 1 % ont chuté de moins de 5 %), mais il convient également de noter que ce jeu a une charge de CPU assez élevée.

L'utilisation de DLSS a aussi certainement aidé dans ce test, car le jeu rend à une résolution beaucoup plus basse que celle présentée, mais le GPU essaiera juste de rendre à un taux plus rapide, et atteindra toujours sa limite de puissance.

Il est évident que différents jeux et configurations matérielles produiront des résultats différents de ceux observés ci-dessus, mais dans Red Dead Redemption 2 (1440p, qualité maximale), une réduction de 50 % de la limite de puissance a produit une réduction de 15 % du taux de rafraîchissement moyen, et pour Far Cry 6, la baisse du taux de rafraîchissement n'a été que de 7 %.

Tout cela peut donc amener une question simple : pourquoi les constructeurs de matériel fixent-ils une limite de puissance aussi élevée alors qu'il semble qu'elle n'ait pas besoin de l'être ?

La raison la plus probable est liée au marketing et au statut du produit. AMD, Intel et Nvidia ont besoin que leurs modèles soient aussi clairement différenciés que possible, en particulier dans le haut de gamme.

Ces produits sont censés être les meilleurs que vous pouvez acheter, donc les puces utilisées seront sélectionnées à partir du processus de binning qui résulte en ceux qui peuvent fonctionner à la vitesse d'horloge la plus élevée, si on leur donne assez de puissance.

Mais cela peut conduire à des situations comme celle observée avec la GeForce RTX 3090 Ti - elle a un TDP 100W plus élevé que la 3090 (29% plus élevé), mais même à 4K, nos tests ont montré qu'elle n'était qu'environ 10% plus rapide dans les jeux.

Étant donné que tous les grands constructeurs voudront vendre sur toutes les puces possibles qui sont fabriquées pour eux, les modèles "quelques pourcents de mieux" ne vont pas disparaître, mais les concepteurs peuvent certainement réduire la demande de puissance.

Les constructeurs de composants informatiques doivent faire mieux

Les constructeurs tels qu'AMD mettent fortement en avant l'aspect performance par watt de leurs produits et l'utilisent généralement comme un argument de vente clé. Par exemple, pour leur prochaine architecture de GPU de bureau, RDNA 3, les prévisions d'amélioration sont substantielles. Toutefois, cela ne signifie pas que les cartes graphiques de la série Radeon RX 7000 auront soudainement un TDP beaucoup plus faible.

Pour RDNA 2, AMD a souligné qu'elle offrait jusqu'à 65 % de performances supplémentaires par watt par rapport à l'architecture précédente. Pourtant, le TDP de la Radeon RX 6800 était encore de 300 W.

Nos propres tests ont confirmé les affirmations d'AMD quant à l'amélioration des performances par unité de puissance, mais cela n'enlève rien au fait que les gains de puissance de rendu nécessitent une consommation d'énergie supplémentaire.

On pourrait dire que les constructeurs devraient faciliter la réduction de la demande d'énergie de leurs produits, voire les faire fonctionner par défaut dans une sorte de "mode écologique".

Les constructeurs diront peut-être qu'ils le font déjà, en faisant fonctionner leurs puces à différents niveaux d'horloge (mode Turbo, horloge Boost, horloge Gaming) et en les faisant baisser de manière significative leur tension lorsqu'elles sont inactives.

Mais lorsqu'Intel a lancé sa 12e génération de processeurs Core pour ordinateurs de bureau, les communiqués de presse étaient remplis d'affirmations sur les performances, mais une seule section osait mentionner la puissance. 

Le tout nouveau design du processeur, mélangeant deux architectures différentes dans la même puce, était clairement une amélioration par rapport au modèle équivalent de la 11ème génération. Comme le montre l'image ci-dessus, Intel aurait pu fixer le TDP à 95 W et le PL2 à 125 W, tout en affichant des performances supérieures.

Au lieu de cela, il a conservé les mêmes chiffres qu'auparavant et a simplement retranché 10 W à la valeur PL2. Tout cela au nom d'un produit qui est un peu plus rapide que la concurrence dans certains tests.

Bien sûr, vous n'êtes pas obligé d'acheter ces puces, mais lorsque vient le moment de faire une mise à niveau ou simplement d'acheter un nouvel ordinateur ou une nouvelle console, vous n'avez guère d'autre choix que d'accepter ces produits gourmands en énergie, car les anciens modèles ne sont plus en production.

Bien qu'il soit relativement facile d'ajuster les limites de puissance des processeurs et des processeurs graphiques, c'est quelque chose que l'utilisateur final ne devrait pas avoir à faire.

D'une manière générale, les gens changent de point de vue sur la production d'énergie, la demande et son impact sur le climat et leur porte-monnaie. Alors que les produits phares et leur appétit insatiable pour l'énergie font les gros titres, c'est la croissance constante des besoins en énergie dans l'ensemble du secteur qui est vraiment importante.

On pourrait dire que trop de constructeurs de semi-conducteurs sont bloqués dans un état d'esprit qui semble en contradiction avec le monde d'aujourd'hui : avoir les performances les plus élevées possibles, pour se démarquer de la concurrence, à presque n'importe quel prix.

Il y a cependant de la lumière au bout du tunnel. Apple, par exemple, a modifié la quasi-totalité de ses gammes Mac et MacBook pour utiliser ses propres processeurs M1/M2. Ces processeurs combinés CPU+GPU ont été conçus pour être aussi économes en énergie que possible et offrir des performances comparables à celles des offres x86 d'AMD et d'Intel, avec une demande d'énergie nettement inférieure (à l'exception des jeux).

Les serveurs et les stations de travail sont encore généralement équipés de processeurs Intel Xeon ou AMD Epyc, mais l'architecture Arm, très économe en énergie, utilisée par Apple, se répand également dans ce secteur. Les grands fournisseurs de services en nuage remplacent leurs serveurs par des modèles Altra d'Ampere.

Le changement arrive - lentement, parfois douloureusement, mais il arrive. Il faudra encore de nombreuses années avant que de nouveaux processeurs moins gourmands en énergie que leurs prédécesseurs ne soient lancés sur le marché, mais l'industrie s'oriente vers cet objectif.

En attendant, à titre personnel, nous pouvons faire un choix simple : accepter les exigences énergétiques du matériel le plus récent et l'utiliser tel quel (avec ou sans modifier certains paramètres), ou voter avec notre portefeuille et faire savoir aux constructeurs que des centaines de watts d'énergie sont un prix trop élevé à payer.

Article traduit sur PC Invasion, Tech Spot et Digital Trends

Aucun commentaire :