Recherche

Affichage des articles dont le libellé est CONSOMMATION. Afficher tous les articles
Affichage des articles dont le libellé est CONSOMMATION. Afficher tous les articles

15 juillet 2023

Survivre à un effondrement économique

QUAND TOUT SE CASSERA LA GUEULE ! Il existe d'innombrables catastrophes auxquelles nous devons nous préparer, et si la préparation "générale" est utile pour chacune d'entre elles, certaines nécessitent des actions ou des préparations spécifiques. Cet article en explore une en particulier : voici 12 façons de se préparer à  survivre à un effondrement économique

Il ne fait aucun doute que l'état actuel des États-Unis est propice à une catastrophe économique. Bien que les actions n'aient jamais été aussi élevées, notre dette actuelle est complètement instable. Nous avons accumulé plus de dettes au cours des dix dernières années que dans toute l'histoire des États-Unis. La dette américaine au moment où nous écrivons ces lignes est d'environ 27,3 trillions de dollars. Si la population américaine est de 330 610 031 personnes, cela équivaut à 82 606 dollars par personne.

L'économie américaine est dans une position très viable.

Il a déjà été dit que lorsque l'Amérique éternue, le monde entier s'enrhume. Si l'économie américaine s'effondre, c'est toute l'économie mondiale qui s'effondre. Rien que cela devrait être un motif d'hésitation.

Donc, si nous pouvons voir les signes avant-coureurs et qu'il semble bien que l'économie risque de s'effondrer dans un avenir proche ou immédiat, que pouvons-nous faire pour nous préparer ? Y a-t-il des mesures que nous pouvons prendre pour atténuer les effets d'une telle catastrophe mondiale sur nous-mêmes et sur nos familles ?

Dépressions économiques et effondrement

Pour commencer, je pense qu'il est important de faire la différence entre un effondrement économique et une dépression économique. Une dépression est une partie plutôt normale du cycle du marché. Comme Adam Smith le souligne dans La richesse des nations, elle survient occasionnellement lorsque le marché corrige des déséquilibres en son sein. Peut-être y a-t-il une forme de bulle semblable à la bulle des tulipes néerlandaises des années 1600, où le prix des bulbes de tulipes rares a atteint des niveaux absurdes avant que les gens ne perdent des fortunes entières lorsque le marché s'est corrigé. Qui sait ? Le fait est que la dépression économique est plutôt normale.

Nous avons tous été témoins des effets de la crise de 2009. Des milliers de personnes ont perdu des millions. Pourtant, s'ils avaient gardé leur argent dans ces actions en perdition plutôt que de se retirer, ils auraient aujourd'hui des rendements exponentiels pour leurs investissements initiaux. Pourquoi ? Parce que les marchés fluctuent.

Je ne crois pas non plus que des événements aussi graves que la Grande Dépression puissent vraiment être qualifiés d'effondrement dans tous les sens du terme.

Quand je parle d'effondrement, je fais référence à des situations telles que l'Allemagne de l'après-guerre, le Zimbabwe, le Venezuela, etc. Lorsque vous devez littéralement payer une miche de pain avec une brouette pleine de billets à cause de l'hyperinflation, ALORS vous avez un effondrement économique.

Comment se préparer à un effondrement économique ?

Heureusement, l'histoire peut nous donner quelques conseils à ce sujet.

Comme le souligne Ayn Rand tout au long de ses livres (en particulier dans "Capitalisme : un idéal inconnu"), c'est la production qui constitue la véritable richesse. La personne qui produit, que ce soit de l'alimentation, des chaussures, des étuis ou toute autre forme de bien tangible, est celle qui détient la vraie richesse. Elle apporte quelque chose à la société, crée quelque chose dont les autres ont besoin ou envie.

Dans le même esprit, je dirais que la personne qui peut fournir un service tangible possède également une véritable richesse. Un électricien qui peut fournir de la lumière à un bâtiment, un plombier qui peut s'assurer que l'hygiène personnelle est réduite, et un médecin qui peut réparer une blessure sont tous des exemples de personnes qui ne produisent pas nécessairement des biens tangibles (comme dans le cas des agriculteurs, des maroquiniers et des forgerons), mais qui sont néanmoins capables de produire un service qui est à la fois recherché et nécessaire.

Ainsi, l'une des premières choses que nous pouvons faire pour nous préparer à l'effondrement économique est de devenir capable de produire.

Cela peut se faire de deux manières principales : par l'apprentissage d'une nouvelle compétence ou en se lançant dans la production de marchandises.

Apprendre une nouvelle compétence

C'est en partie la raison pour laquelle je suis devenu serrurier. J'ai plus d'un emploi, mais je voulais avoir un plan de secours au cas où quelque chose arriverait à mon revenu principal. Les gens de métier sont à la fois nécessaires et (généralement) rares. L'apprentissage d'une compétence concrète me semblait pouvoir constituer une police d'assurance assez décente au cas où je devrais me rabattre sur autre chose. Et je suis content de l'avoir fait. Nous sommes une entreprise "clé".

Qu'il s'agisse de plomberie, de menuiserie, de maréchalerie ou de tout autre métier, le fait est que devenir compétent dans un métier, c'est devenir compétent dans quelque chose qui sera probablement toujours nécessaire. Pour prendre un exemple plutôt morbide, nous pouvons analyser ce que les Allemands ont fait aux Juifs pendant l'Holocauste. Que vous lisiez La liste de Schindler, Maus ou L'homme qui s'introduisit à Auschwitz, vous pouvez constater que ce sont les Juifs qui connaissaient un métier tel que le polissage des métaux, le travail mécanique ou l'usinage qui étaient (du moins pendant un certain temps) maintenus en vie. (Bien sûr, je ne dis nullement que les pianistes, les enseignants et les commerçants n'avaient aucune valeur).

Apprendre à fabriquer des produits

Le deuxième aspect serait l'investissement dans une marchandise particulière. Il s'agit de fabriquer des produits, de lancer une sorte d'activité secondaire, peut-être. Certes, cela nécessite souvent d'accroître ses connaissances dans un domaine particulier, mais il y a des régions où c'est simplement l'investissement qui permet à un homme de produire. Comme le dit le dicton, il faut de l'argent pour faire de l'argent.

C'est là qu'intervient un commerçant. C'est parce qu'un tel homme a investi du capital dans des fournitures qu'il est capable de produire de la richesse pour lui-même. Mais après l'effondrement économique, quelles fournitures permettront de produire de la richesse ? Eh bien, cela m'amène au sujet suivant : le troc.

La société de troc

Je pense que l'une des premières choses que les gens doivent réaliser lorsqu'il s'agit d'un effondrement économique est que les choses reviennent à une société de troc. Regardez l'histoire, et vous verrez que c'est le cas. Le monde ne part pas en vrille et un jour plus tard, les gens se promènent et échangent des pièces d'or entre eux. (Je crois que Joe Nobody illustre assez bien ce point dans sa série "Holding Their Own").

Non, les gens commencent par échanger des biens et des services contre d'autres biens et services nécessaires/désirés. La Grèce l'a prouvé avec son récent effondrement économique au cours des cinq dernières années environ. Les gens ont échangé des œufs, du lait et de la viande contre ce dont ils avaient besoin. Je pense qu'il est important de noter que l'agriculteur - un producteur - était celui qui était capable de fournir cela aux gens également. Il avait une vraie richesse tout au long de l'effondrement.

Encore une fois, au Venezuela, nous avons vu la même chose. Les gens ont eu recours à l'échange de bananes contre des coupes de cheveux. La PREMIÈRE chose qui prend de la valeur pendant un effondrement économique, ce sont les biens et les services. Il est vrai qu'il y aura une très courte période pendant laquelle l'argent liquide sera roi, jusqu'à ce que les gens réalisent que le papier auquel ils ont fait confiance pendant toutes ces années est désormais sans valeur dans tous les sens du terme, mais cette période est courte.

Biens et services échangeables

Êtes-vous prêt à faire du troc ?

Donc, après la fermeture de la brève période de cash, après que votre monde se soit tourné vers le troc, la question devient : "Ok, alors avec quoi je fais du troc ? Comment puis-je obtenir les choses dont ma famille a besoin ?"

En ce qui concerne les biens, je pense que la liste suivante est une bonne base de départ. Ce sont les choses dont les gens auront besoin, et qui conserveront une valeur intrinsèque après l'effondrement économique :

  • Eau - En particulier les bouteilles d'eau. Elles sont facilement transportables et ne sont pas si denses en valeur qu'elles ne soient pas pratiques pour le commerce.
  • Filtres à eau - La majorité des Américains ont moins de 3 jours de nourriture dans leur maison. Cela inclut l'eau. Si les gens n'ont pas les moyens de payer leur facture d'électricité après l'effondrement économique, ils auront besoin d'un accès à de l'eau potable, ce que permet un filtre à eau.
  • Munitions - Je crois sincèrement que ce sera l'une des formes de monnaie les plus pratiques et les plus largement acceptées. Elles ont déjà été utilisées comme monnaie, et elles le seront à nouveau.
  • Armes à feu - La valeur est élevée, mais il y aura des gens qui en voudront pour protéger leur famille de la violence post-effondrement. La demande d'armes à feu est montée en flèche cette année grâce aux émeutes et à l'action du gouvernement. À votre avis, à quoi ressemblera la demande après l'effondrement ?
  • Jerricans d'essence - Tout le monde en aura besoin, et très peu en ont.
  • Alimentation - Il y aura toujours un besoin de nourriture, et - comme en témoignent les files d'attente aux banques alimentaires - c'est l'un des premiers indicateurs de la récession économique.
  • Couches - Les parents en utilisent des milliers par an et ne disposeront pas d'un stock suffisant pour leurs enfants après l'effondrement. Je pense que les couches en tissu réutilisables seront importantes.
  • Gilets pare-balles - La valeur est élevée, mais les gens en voudront. Les ventes de gilets pare-balles ont atteint un niveau record cette année, et ce désir se poursuivra dans une économie violente après l'effondrement.
  • Café - Il crée une dépendance, et les effets de manque. Les gens vont vouloir du café, et il existe des moyens de le stocker pendant longtemps.
  • Bottes - Il y aura une augmentation de la quantité de marche de l'homme moyen grâce à l'indisponibilité de l'essence. Les chaussures s'useront et devront être remplacées.
  • Manteaux - Les vêtements s'usent, de nouvelles personnes sont toujours créées, les gens changent constamment de taille, et les gens en ont toujours besoin.
  • Gants - Il y aura une augmentation du travail en extérieur, et les gants s'usent.
  • Alcool - Une autre chose dont l'humanité ne semble pas pouvoir se passer. Je ne diffuserais pas la quantité de cette substance que vous avez. Les gens tuent pour ça.
  • Tabac - Une autre dépendance dont je ne diffuserais pas la quantité que vous avez. Les cigarettes étaient couramment utilisées comme monnaie d'échange parmi les prisonniers de guerre pendant la Seconde Guerre mondiale, et elles le sont encore dans les prisons du monde entier.
  • Formules pour bébés - Si l'allaitement n'est plus une option, les gens auront besoin de formules pour nourrir leurs bébés. Les parents nourriront leurs bébés, et il y aura un besoin pressant pour cela. Encore une fois, ce n'est pas quelque chose dont je ferais la publicité en disant que j'en ai un stock.
  • Essence - Elle sera toujours nécessaire pour les véhicules et les générateurs.
  • Sel - Nécessaire pour le stockage de la viande car il est très peu probable que les gens aient accès à une électricité constante pour la réfrigération.
  • Fournitures médicales - Les béquilles, les écharpes, la gaze, les divers équipements de premiers soins et autres seront en quantité limitée. Les gens se blessent toujours eux-mêmes, et très peu d'entre eux ont stocké pour leurs propres premiers soins.
  • Médicaments - Il y aura toujours un besoin de médicaments.
  • Pièces de rechange pour armes à feu - Les armes à feu se cassent et peu de gens ont des pièces de rechange en stock.
  • Préservatifs - Les gens vont se rendre compte que ce n'est probablement pas le meilleur moment pour tomber enceinte. Si tu en agrafes trois ensemble et que tu les vends en packs multiples, tu peux aussi créer un marché pour ton lait maternisé ! (Je plaisante, je plaisante.)
  • Etuis - Les milliers de personnes qui ont acheté des pistolets pour les garder dans leur table de nuit finiront par se rendre compte qu'ils ont besoin d'un moyen de transporter leur arme avec eux. Les choses seront trop dangereuses pour faire autrement, et beaucoup oublient d'acheter un étui à l'avance.

En ce qui concerne les services, ce sont les compétences qui, selon moi, seront les plus demandées après l'effondrement économique. Il serait sage d'apprendre au moins un certain degré de compétence dans l'une d'entre elles.

  • L'agriculture - La production de nourriture sera vitale, et l'homme possédant des ruches, des champs, un jardin, des poulets ou des animaux laitiers sera en mesure de produire un article dont les gens ont besoin quotidiennement.
  • Élevage en ranch - Très différent de l'agriculture. Que vous sachiez comment gérer le bétail pour quelqu'un d'autre ou que vous ayez les connaissances nécessaires pour l'élever vous-même, il faudra s'occuper du bétail, des moutons, des chèvres, etc. pour fournir de la viande, du cuir, des peaux, etc. aux gens.
  • Travail mécanique - Les véhicules, les générateurs, etc. tomberont en panne et les gens devront les réparer.
  • Travail électrique - Câblage solaire, pompes pour puits, etc. seront toujours nécessaires.
  • Usinage - Il est probable qu'il y aura encore des usines qui produiront, et les machinistes seront nécessaires pour cela.
  • Armurier - Les accidents arrivent, et peu de gens ont confiance en leurs propres capacités pour réparer une arme à feu. Les armuriers seront nécessaires pour de tels événements.
  • Travail du cuir - Principalement pour les étuis, les courroies d'armes et les vêtements.
  • Travail médical - Après l'effondrement économique, il y aura un besoin urgent de ce type de travailleurs. Les gens ne pourront plus se payer leurs médicaments ou les services de santé habituels, et il y aura donc une augmentation drastique des maladies graves. Des travailleurs médicaux seront nécessaires pour y remédier, même si c'est sur la base d'un troc individuel.
  • Protection - Les troupeaux, les entreprises, les quartiers et les résidences voudront une protection permanente et seront prêts à engager des hommes armés expérimentés pour ce faire. Savoir comment patrouiller, établir un périmètre et éliminer les menaces sera très demandé.
  • Boulangerie - Savoir comment faire du pain vous permettra de produire un article dont tout le monde aura besoin et envie après l'effondrement.
  • Création textile - Que ce soit sous la forme de tricot, de crochet, de couture, etc., il y aura un besoin d'articles en tissu car les vêtements s'usent progressivement, sont perdus, souillés ou volés.
N'oubliez pas que tout ce qui précède est une liste générale. Il ne fait aucun doute que vous serez en mesure de penser à des biens et des services qui auront une valeur post-effondrement économique et qui ne sont pas inclus ci-dessus. Ces listes sont simplement données pour vous faire réfléchir à des moyens sûrs de troquer ce dont vous avez besoin en cas d'effondrement économique.

Qu'en est-il des métaux précieux ?

Il y a deux raisons pour lesquelles l'or et l'argent ont été omis :

Premièrement, l'utilisation des métaux précieux ne semble être devenue courante que bien après la période des transactions de troc.

Deuxièmement, je crois que les métaux précieux sont beaucoup plus importants pour l'évacuation des richesses. Examinons ces deux points plus en détail.

Pour commencer, il est rare dans l'histoire que les métaux précieux soient instantanément utilisés comme monnaie après un effondrement économique. Pourquoi ? On ne peut pas les manger, on ne peut pas les boire, et peu de gens comprennent leur valeur intrinsèque (demandez à un ami quel est le prix actuel de l'or pour le savoir). Encore moins sont capables de dire si l'or ou l'argent que vous leur offrez est un vrai ou un faux.

Stocker des métaux précieux est maintenant un moyen de survivre à un effondrement économique. Les gens ne veulent pas d'or et d'argent après un effondrement économique. Ils veulent être en mesure de nourrir leurs familles. L'or et l'argent ne seront pas un moyen d'échange facile à utiliser dans un tel cas.

Pour compliquer encore les choses, l'or a une valeur incroyablement dense. Au moment où nous écrivons ces lignes, l'or vaut un peu plus de 2 000 dollars l'once. C'est beaucoup de valeur qui se trouve dans cette petite pièce. Si vous avez besoin de munitions et que vous allez les acheter à un petit rechargé, pensez-vous qu'il sera capable d'honorer l'équivalent d'une once d'or de munitions ? Il y a de fortes chances qu'il n'ait même pas cette quantité en stock. Si nous voulons vraiment examiner la question, je pense que l'argent serait une meilleure forme de monnaie, du point de vue des métaux précieux.

L'argent est actuellement à environ 25 dollars l'once. C'est une valeur beaucoup plus utilisable sur une base quotidienne. (Si vous voulez en savoir plus, lisez ce qui concerne le meilleur argent pour les préparateurs). Cependant, ce que nous voyons tout au long de l'histoire, c'est le retour au troc, pas à l'étalon-or.

L'exception de l'or - l'évacuation des richesses

Si vous devez partir de quelque part, et rapidement, alors je pense que l'or est la solution. L'argent est trop encombrant. Une poche pleine de pièces d'or vous permettrait de "repartir à zéro" dans un endroit un peu plus stable (si vous pouvez trouver un tel endroit). On peut même prendre l'exemple des États-Unis après la guerre civile. L'argent du Sud ne valait rien après la guerre. Cependant, ceux qui possédaient de l'or et de l'argent ont pu avoir quelque chose avec une valeur inhérente qui pouvait être échangé contre la nouvelle monnaie. 

Encore une fois, nous pouvons regarder les Juifs allemands de la fin des années 1930. C'était une époque très effrayante pour un Juif en Europe. La persécution était bien réelle, et les choses s'intensifiaient. L'homme qui a pu coudre des pièces d'or dans l'ourlet de sa veste et s'enfuir de Dodge au plus vite a pu arriver dans un nouveau climat politiquement plus amical avec au moins une partie de sa richesse intacte et sous le radar. Les bagages sont perdus et volés. Les vêtements le sont rarement. C'est pourquoi je pense que l'un des meilleurs objectifs de l'or est l'évacuation de la richesse.

Résumé de "Comment survivre à un effondrement économique"

Si vous aviez demandé à des gens il y a un an s'ils pensaient un jour que le monde entier allait décréter des lockdowns et jeter des gens à la poubelle pour ne pas avoir porté de masque chirurgical à Kroger, ils vous auraient dit que vous étiez fou. Pourtant, nous y sommes. Pourquoi est-il si improbable de penser qu'un effondrement économique ne pourrait pas être le prochain ? Tous les signes avant-coureurs sont là ? Est-il insensé de les ignorer et de prétendre que les choses continueront toujours à être "normales" ?

Je vous laisse tirer vos propres conclusions.

J'espère toutefois que cet article vous a aidé à prendre des décisions sur le sujet. J'espère qu'il vous a donné matière à réflexion. Y a-t-il d'autres facteurs d'effondrement économique que je n'ai pas abordés ? Y a-t-il d'autres compétences ou biens qui, selon vous, ont une valeur intrinsèque après l'effondrement économique ?

09 juillet 2023

ANALYSE - Comprendre l'austérité, les types de mesures d'austérité et des exemples

Qu’est-ce que l’austérité ? Le terme « austérité » désigne un ensemble de politiques économiques mises en œuvre par un gouvernement pour maîtriser la dette publique. Les gouvernements mettent en place des mesures d'austérité lorsque leur dette publique est si importante qu'elle expose le pays à un risque réel de défaut de paiement ou d'incapacité à honorer ses obligations. L'objectif de l'austérité est d'améliorer la santé financière d'un État. Le risque de défaut de paiement peut rapidement devenir incontrôlable et, à mesure qu'un particulier, une entreprise ou un pays s'endette davantage, les prêteurs exigeront un taux de rendement plus élevé pour les prêts futurs, ce qui compliquera la levée de capitaux pour l'emprunteur.

Points clés à retenir
  • L’austérité fait référence aux politiques économiques strictes imposées par un gouvernement pour contrôler la dette publique croissante, définie par une frugalité accrue.
  • Il existe trois principaux types de mesures d’austérité : la génération de recettes (impôts plus élevés) pour financer les dépenses, l’augmentation des impôts tout en réduisant les fonctions gouvernementales non essentielles, et la baisse des impôts et la réduction des dépenses gouvernementales.
  • L’austérité est controversée et les conséquences nationales des mesures d’austérité peuvent être plus dommageables que si elles n’avaient pas été utilisées.
  • De nombreux pays, dont les États-Unis et la Grèce, ont mis en place des mesures d’austérité en période d’incertitude économique.
Comment fonctionne l'austérité

Les gouvernements connaissent une instabilité financière lorsque leur dette dépasse leurs recettes , ce qui entraîne d'importants déficits budgétaires . Le niveau d'endettement augmente généralement avec la hausse des dépenses publiques. Comme mentionné précédemment, cela signifie que le risque de défaut de paiement des dettes des gouvernements fédéraux est plus élevé. Les créanciers, quant à eux, exigent des taux d'intérêt plus élevés pour éviter le risque de défaut de paiement. Afin de satisfaire leurs créanciers et de maîtriser leur endettement, ils peuvent être amenés à prendre certaines mesures.

L'austérité n'intervient que lorsque l'écart entre les recettes et les dépenses publiques se réduit. Cette situation se produit lorsque les gouvernements dépensent trop ou s'endettent excessivement. Un gouvernement peut donc être amené à envisager des mesures d'austérité lorsqu'il doit plus d'argent à ses créanciers qu'il n'en perçoit. La mise en œuvre de ces mesures contribue à restaurer la confiance dans l'économie tout en contribuant à rétablir un semblant d'équilibre budgétaire.

Les mesures d'austérité indiquent que les gouvernements sont disposés à prendre des mesures pour rétablir une certaine santé financière. Par conséquent, les créanciers peuvent être disposés à baisser les taux d'intérêt sur la dette lorsque des mesures d'austérité sont en place. Mais ces mesures peuvent être soumises à certaines conditions.

Par exemple, les taux d'intérêt de la dette grecque ont baissé après son premier plan de sauvetage. Cependant, les gains se sont limités à la réduction des charges d'intérêt du gouvernement. Bien que le secteur privé n'en ait pas bénéficié, les principales bénéficiaires de la baisse des taux sont les grandes entreprises. Les consommateurs n’ont bénéficié que marginalement de la baisse des taux, mais l’absence de croissance économique durable a maintenu les emprunts à des niveaux déprimés malgré la baisse des taux.

Considérations particulières

Une réduction des dépenses publiques ne se résume pas à de l'austérité. En effet, les gouvernements peuvent être amenés à mettre en œuvre ces mesures pendant certains cycles économiques.

Par exemple, la crise économique mondiale qui a débuté en 2008 a entraîné une baisse des recettes fiscales pour de nombreux gouvernements et a révélé des niveaux de dépenses jugés insoutenables par certains. Plusieurs pays européens, dont le Royaume-Uni, la Grèce et l'Espagne, ont eu recours à l'austérité pour apaiser leurs inquiétudes budgétaires.

L'austérité est devenue quasiment impérative pendant la récession mondiale en Europe, où les membres de la zone euro n'avaient pas la capacité de gérer leurs dettes croissantes en imprimant leur propre monnaie. Ainsi, face à l'augmentation de leur risque de défaut, les créanciers ont fait pression sur certains pays européens pour qu'ils s'attaquent résolument aux dépenses.

Généralisation des recettes par une hausse des impôts : cette méthode favorise souvent une augmentation des dépenses publiques. L'objectif est de stimuler la croissance par la dépense et d'en tirer profit par la fiscalité. Le modèle Angela Merkel : Nommé d’après la chancelière allemande, Angela Merkel, cette mesure vise à augmenter les impôts tout en réduisant les dépenses publiques non essentielles.

Baisser les impôts et diminuer les dépenses publiques : c’est la méthode privilégiée par les partisans du libre marché.

Impôts

Les économistes ne s'accordent pas sur l'effet de la politique fiscale sur le budget de l'État. Arthur Laffer, ancien conseiller de Ronald Reagan, a affirmé avec notoriété qu'une baisse stratégique des impôts stimulerait l'activité économique et, paradoxalement, générerait davantage de recettes.

Pourtant, la plupart des économistes et analystes politiques s'accordent à dire qu'une augmentation des impôts entraînerait une augmentation des recettes. C'est la tactique adoptée par de nombreux pays européens. Par exemple, la Grèce a porté le taux de la taxe sur la valeur ajoutée (TVA) à 23 % en 2010. Le gouvernement a augmenté les taux d'imposition des revenus les plus élevés, tout en instaurant de nouvelles taxes foncières.

Réduction des dépenses publiques

La mesure d'austérité inverse consiste à réduire les dépenses publiques. Beaucoup considèrent qu'il s'agit d'un moyen plus efficace de réduire le déficit. De nouveaux impôts génèrent de nouvelles recettes pour les responsables politiques, qui sont enclins à les dépenser pour leurs électeurs.

Les dépenses prennent de nombreuses formes : subventions, aides, redistribution des richesses, programmes sociaux, financement des services publics, financement de la défense nationale, prestations sociales aux fonctionnaires et aide étrangère. Toute réduction des dépenses constitue de facto une mesure d'austérité.

Dans sa forme la plus simple, un programme d'austérité, généralement adopté par voie législative, peut inclure une ou plusieurs des mesures suivantes :
  • Une baisse ou un gel, sans augmentation, des salaires et avantages sociaux de la fonction publique
  • Un gel des embauches et des licenciements de fonctionnaires
  • Une réduction ou une suppression des services publics, temporaire ou permanente
  • Une réduction des retraites publiques et une réforme des retraites
  • Les intérêts sur les titres d'État nouvellement émis peuvent être réduits, ce qui rend ces investissements moins attractifs pour les investisseurs, mais réduit les obligations d'intérêts de l'État
  • Des réductions des programmes de dépenses publiques précédemment prévus, tels que la construction et la réparation des infrastructures, les soins de santé et les prestations aux anciens combattants
  • Une augmentation des impôts, notamment de l'impôt sur le revenu, des impôts sur les sociétés, de l'impôt foncier, de l'impôt sur les ventes et des plus-values
  • Une réduction ou une augmentation de la masse monétaire et des taux d'intérêt par la Réserve fédérale, selon les circonstances, pour résoudre la crise
  • Le rationnement des produits de base essentiels, les restrictions de voyage, le gel des prix et d'autres mesures de contrôle économique, notamment en temps de guerre
Critiques de l'austérité

L'efficacité de l'austérité fait toujours l'objet d'un vif débat. Si ses partisans affirment que des déficits massifs peuvent étouffer l'économie dans son ensemble, limitant ainsi les recettes fiscales, ses opposants estiment que les programmes gouvernementaux sont le seul moyen de compenser la baisse de la consommation privée en période de récession. Réduire les dépenses publiques, selon beaucoup, conduit à un chômage massif. Des dépenses publiques importantes, affirment-ils, réduisent le chômage et augmentent donc le nombre de contribuables.
Important - Bien que les mesures d'austérité puissent contribuer à restaurer la santé financière d'une nation, la réduction des dépenses publiques peut entraîner une hausse du chômage.
Des économistes comme John Maynard Keynes, penseur britannique et père de l'école keynésienne, estiment que le rôle des gouvernements est d'augmenter les dépenses en période de récession pour compenser la baisse de la demande privée. La logique est la suivante : si la demande n'est pas soutenue et stabilisée par l'État, le chômage continuera d'augmenter et la récession économique se prolongera.

Mais l'austérité est en contradiction avec certaines écoles de pensée économique dominantes depuis la Grande Dépression. En période de ralentissement économique, la baisse des revenus privés réduit les recettes fiscales générées par l'État. De même, les caisses de l'État se remplissent de recettes fiscales en période de boom économique. L’ironie est que les dépenses publiques, telles que les allocations chômage, sont plus nécessaires en période de récession qu’en période de prospérité.

Exemples d'austérité

États-Unis - Un modèle d'austérité en réponse à une récession a été observé aux États-Unis entre 1920 et 1921. Le taux de chômage américain est passé de 4 % à près de 12 %. Le produit national brut (PNB) réel a chuté de près de 20 % au cours de cette période, soit une baisse supérieure à celle de n'importe quelle année de la Grande Dépression ou de la Grande Récession, à l'exception de 1931-1932, où il a reculé d'un peu plus de 25 %.

Dans un discours prononcé en 1920, le candidat à la présidence Warren Harding a déclaré que son administration « tenterait une déflation intelligente et courageuse, et s'attaquerait aux emprunts publics… [et] s'attaquerait au coût élevé de l'État avec toute l'énergie et les moyens possibles ». Après son accession à la présidence, Harding a mis en œuvre des réductions des dépenses fédérales et des baisses d'impôts pour lutter contre la récession, s'inscrivant dans la continuité des mesures d'austérité déjà mises en œuvre sous la présidence de Woodrow Wilson. Cependant, économistes et historiens s'interrogent sur la nécessité des mesures d'austérité, l'économie ayant déjà commencé à s'améliorer lorsque Harding a pris ses fonctions. Certains économistes se demandent également si les mesures de Harding peuvent être considérées comme des mesures d'austérité, car elles ont en réalité augmenté les recettes fiscales fédérales.

Grèce - En échange de renflouements après la Grande Récession, l'UE et la Banque centrale européenne (BCE) ont lancé un programme d'austérité visant à maîtriser les finances de la Grèce. Ce programme, qui a réduit les dépenses publiques et augmenté les impôts, souvent au détriment des fonctionnaires grecs, a été très impopulaire. Depuis, le déficit grec a considérablement diminué. Le programme d'austérité mis en place par le pays en 2010 n'a cependant apporté que des avantages mitigés à son économie.

Les mesures d'austérité n'ont pas réussi à améliorer la situation financière de la Grèce, car le pays a souffert par le passé d'une demande globale insuffisante. Or, la demande globale diminue avec l'austérité. Structurellement, la Grèce est un pays de petites entreprises plutôt que de grandes sociétés. Elle bénéficie donc moins des principes d'austérité, tels que la baisse des taux d'intérêt. Ces petites entreprises ne profitent pas d'une monnaie affaiblie, car elles ne peuvent pas exporter.

Alors que la majeure partie du monde a suivi la crise financière de 2008 avec des années de croissance atone et de hausse des prix des actifs, la Grèce est restée enlisée dans sa propre dépression. En 2010, son produit intérieur brut (PIB) s'élevait à 299,36 milliards de dollars. En 2014, son PIB était de 235,57 milliards de dollars selon les Nations Unies. Il s'agit d'une destruction vertigineuse de la situation économique du pays, comparable à la Grande Dépression aux États-Unis dans les années 1930.

Les problèmes de la Grèce ont commencé après la Grande Récession, le pays dépensant trop d'argent par rapport aux recettes fiscales. Alors que les finances du pays échappaient à tout contrôle et que les taux d’intérêt sur la dette souveraine explosaient, le pays a été contraint de recourir à des renflouements ou de faire défaut sur sa dette.

- Qu'est-ce qu'un déficit budgétaire ?

Un déficit budgétaire survient lorsque les dépenses sont supérieures aux recettes. Pour un pays, cela signifie que ses dépenses sont supérieures à ses recettes, généralement fiscales. Dans ce cas, les gouvernements doivent emprunter, généralement en émettant des obligations, ce qui augmente la dette nationale du pays.

- Que se passe-t-il en cas de défaut de paiement ?

Un défaut souverain survient lorsqu'un pays ne peut pas payer ses dettes. Contrairement au défaut d'un individu, un pays ne peut être contraint de payer ses dettes. Cependant, un défaut de paiement peut entraîner d'autres problèmes économiques. Il peut déclencher une récession ou entraîner une perte de valeur de la monnaie du pays. Un pays en défaut de paiement peut également avoir des difficultés à emprunter à l'avenir, car cela est considéré comme un risque économique important.

- Les mesures d'austérité sont-elles efficaces ?

Les économistes ne s'accordent pas sur l'efficacité des mesures d'austérité. Les partisans de ces mesures affirment que des déficits importants sont préjudiciables à l'économie dans son ensemble, ce qui peut limiter les recettes fiscales. Selon cet argument, l’austérité est efficace car elle réduit les dépenses publiques et les déficits. Les opposants soutiennent qu’en période de récession, l’austérité est néfaste car davantage de personnes ont besoin d’aide. Selon cet argument, les dépenses publiques réduisent le chômage, ce qui augmente les recettes fiscales et réduit les déficits.

L'essentiel

Les mesures d’austérité sont des politiques économiques strictes et frugales utilisées par les gouvernements pour gérer la dette publique. Il en existe trois types principaux : des impôts plus élevés (génération de revenus) pour financer les dépenses publiques, une génération de revenus plus une diminution des dépenses publiques, et une baisse des impôts plus une diminution des dépenses publiques.

L'austérité a été mise en œuvre dans de nombreux pays, comme les États-Unis et la Grèce. Mais cette politique est controversée. Selon la situation économique générale et ses causes, l'austérité peut améliorer l'économie ou la dégrader davantage.
Article traduit sur Investopedia

23 mai 2023

CARTON ROUGE - Le problème des personnes fictives - Quand l'IA déshumanisera la civilisation actuelle !

Les entreprises qui utilisent de l'IA pour générer de fausses personnes commettent un acte de vandalisme immoral, et devraient être tenues pour responsables.

La circulation de la monnaie existe depuis plusieurs milliers d'années et, dès l'origine, la contrefaçon a été reconnue comme un crime très grave, qui, dans de nombreux cas, appelle la peine capitale parce qu'il sape la confiance dont dépend la société. Aujourd'hui, pour la première fois dans l'histoire, grâce à l'intelligence artificielle (IA), il est possible pour quiconque de fabriquer des personnes fictives qui peuvent passer pour vraies dans un grand nombre des nouveaux environnements numériques que nous avons créés. Ces personnes fictives sont les artefacts les plus dangereux de l'histoire de l'humanité, capables de détruire non seulement les économies, mais aussi la liberté humaine elle-même. Avant qu'il ne soit trop tard (il est peut-être déjà trop tard), nous devons interdire à la fois la création de personnes fictives et la "transmission" de personnes fictives. Les peines encourues pour l'un ou l'autre de ces délits devraient être extrêmement sévères, étant donné que la civilisation elle-même est en danger.

Il est terriblement ironique que l'engouement actuel pour faire croire aux gens qu'ils interagissent avec une personne réelle soit né de la proposition innocente d'Alan Turing, en 1950, d'utiliser ce qu'il appelait "le jeu d'imitation" (aujourd'hui connu sous le nom de "test de Turing") comme point de référence de la pensée réelle. Cette proposition a engendré non seulement une industrie artisanale, mais aussi une industrie de haute technologie financée par des fonds publics et engagée dans la fabrication de produits qui tromperont même les interlocuteurs les plus sceptiques. Notre tendance naturelle à traiter comme une personne tout ce qui semble nous parler raisonnablement - en adoptant ce que j'ai appelé la "position intentionnelle" - s'avère facile à invoquer et presque impossible à résister, même pour les experts. Nous allons tous devenir des cibles faciles dans un avenir proche.

Le philosophe et historien Yuval Noah Harari, écrivant dans The Economist en avril, a terminé son avertissement opportun sur la menace imminente de l'IA pour la civilisation humaine par ces mots :
"Ce texte a été généré par un humain. Ou bien l'a-t-il été ?"
Il sera bientôt presque impossible de le savoir. Et même si (pour l'instant) nous sommes capables de nous enseigner mutuellement des méthodes fiables pour démasquer les personnes fictives, le coût de ces 'deepfakes' pour la confiance humaine sera énorme. Comment réagirez-vous si vos amis et votre famille vous posent des questions pièges à chaque fois que vous essayez de converser avec eux en ligne ?

La création de personnes fictives numériques risque de détruire notre civilisation. La démocratie repose sur le consentement informé (et non désinformé) des gouvernés. En permettant aux personnes, aux entreprises et aux gouvernements les plus puissants économiquement et politiquement de contrôler notre attention, ces systèmes nous contrôleront. Les personnes fictives, en nous distrayant, en nous déroutant et en exploitant nos peurs et nos angoisses les plus irrésistibles, nous conduiront à la tentation et, de là, à l'acceptation de notre propre assujettissement. Les personnes fictives nous amèneront à adopter des politiques et des convictions qui nous rendront vulnérables à d'autres manipulations. Ou bien nous détournerons simplement notre attention et deviendrons des pions passifs et ignorants. C'est une perspective terrifiante.

La principale innovation technologique qui fait de la perte de contrôle de ces systèmes une possibilité réelle est que, contrairement aux bombes nucléaires, ces armes peuvent se reproduire. L'évolution ne se limite pas aux organismes vivants, comme l'a démontré Richard Dawkins en 1976 dans Le gène égoïste. Les personnes fictives commencent déjà à nous manipuler pour que nous accouchions de leur progéniture. Ils apprendront les uns des autres, et les plus intelligents, les plus aptes, ne se contenteront pas de survivre, ils se multiplieront. L'explosion démographique des balais dans L'Apprenti sorcier a commencé, et nous ferions mieux d'espérer qu'il existe un moyen non magique de l'arrêter.

Il existe peut-être un moyen de retarder, voire d'éteindre cette évolution inquiétante, en s'inspirant du succès - limité mais impressionnant - obtenu par la plupart d'entre nous pour maintenir la fausse monnaie dans la catégorie des nuisances (ou bien examinez-vous attentivement chaque billet de 20 dollars que vous recevez ?)

Comme le dit Harari, nous devons "obliger l'IA à révéler qu'elle est une IA". Comment faire ? En adoptant un système de "filigrane" de haute technologie, comme la Constellation EURion, qui protège aujourd'hui la plupart des monnaies du monde. Bien qu'il ne soit pas infaillible, ce système est extrêmement difficile et coûteux à maîtriser, ce qui n'en vaut pas la peine pour presque tous les agents, même les gouvernements. Les informaticiens ont également la capacité de créer des modèles presque indélébiles qui crieront "FAKE !" dans presque toutes les conditions, à condition que les fabricants de téléphones portables, d'ordinateurs, de téléviseurs numériques et d'autres appareils coopèrent en installant le logiciel qui interrompra tout message fictif par un avertissement. Certains informaticiens travaillent déjà sur de telles mesures, mais si nous n'agissons pas rapidement, elles arriveront trop tard pour nous éviter de nous noyer dans le flot des contrefaçons.

Saviez-vous que les fabricants de scanners ont déjà installé des logiciels qui réagissent à la Constellation de l'EURion (ou à d'autres filigranes) en interrompant toute tentative de numérisation ou de photocopie de la monnaie légale ? La création de nouvelles lois dans ce sens nécessitera la coopération des principaux acteurs, mais ils peuvent être incités à le faire. Les mauvais acteurs peuvent s'attendre à des sanctions terribles s'ils sont pris en flagrant délit de désactivation des filigranes ou de transmission des produits de la technologie qui ont déjà été dépouillés d'une manière ou d'une autre de leurs filigranes. Les entreprises d'IA (Google, OpenAI et autres) qui créent des logiciels dotés de ces capacités de contrefaçon devraient être tenues pour responsables de toute utilisation abusive des produits (et des produits de leurs produits - n'oublions pas que ces systèmes peuvent évoluer d'eux-mêmes). Les entreprises qui créent ou utilisent l'IA - et leurs assureurs en responsabilité civile - devront donc faire preuve d'une grande agressivité pour s'assurer que les gens puissent facilement savoir s'ils conversent avec l'un de leurs produits d'IA.

Je ne suis pas favorable à la peine capitale pour quelque crime que ce soit, mais il serait rassurant de savoir que les principaux dirigeants, ainsi que leurs techniciens, risquent de passer le reste de leur vie en prison, en plus de devoir payer des milliards de dollars en dédommagement pour toute violation ou tout préjudice causé. Et les lois sur la responsabilité stricte, qui éliminent la nécessité de prouver la négligence ou l'intention malveillante, les maintiendraient sur le qui-vive. Les avantages économiques de l'IA sont considérables, et le prix à payer pour en profiter devrait être d'assumer le risque de condamnation et de faillite en cas de non-respect des obligations éthiques liées à l'utilisation de l'IA.

Il sera difficile, voire impossible, de nettoyer la pollution de nos moyens de communication qui s'est déjà produite, grâce à la course à l'armement des algorithmes qui propage l'infection à un rythme alarmant. Une autre pandémie s'annonce, qui s'attaque cette fois aux fragiles systèmes de contrôle de nos cerveaux - à savoir notre capacité à raisonner les uns avec les autres - que nous avons utilisés si efficacement pour nous maintenir relativement en sécurité au cours des derniers siècles.

Le moment est venu d'insister pour que tous ceux qui songent à contrefaire des personnes se sentent honteux et soient dûment dissuadés de commettre un tel acte de vandalisme antisocial. Si nous faisons savoir dès maintenant que de tels actes seront contraires à la loi dès que nous le pourrons, les gens n'auront plus aucune excuse pour persister dans leurs activités. De nos jours, de nombreux membres de la communauté de l'IA sont si impatients d'explorer leurs nouveaux pouvoirs qu'ils ont perdu de vue leurs obligations morales. Nous devrions leur rappeler, aussi brutalement que nécessaire, qu'ils risquent la liberté future de leurs proches et de nous tous.

Article traduit sur Atlantic

19 mai 2023

CARTON ROUGE - Pourquoi la consommation électrique des composants informatiques est en forte hausse ?

Ca va chauffer dans le monde informatique ! En effet, les futurs cartes graphiques et processeurs seront performants mais consommeront d'avantage d'énergie qui favorisera chauffe et hausse de la facture d'électricité.

La perspective de l'arrivée de cartes graphiques de nouvelle génération chez AMD et Nvidia dans les mois à venir a enthousiasmé de nombreux joueurs qui s'attendent à de nouvelles performances. En revanche, ils sont moins nombreux à s'inquiéter de l'augmentation de la consommation d'énergie pour tous les modèles, en particulier pour les cartes Nvidia. AMD a répondu à cette préoccupation lors d'une récente interview avec Tom's Hardware, confirmant une consommation d'énergie plus élevée pour les cartes graphiques RDNA 3, en mettant l'accent sur l'efficacité accrue qui en résultera.

Le média s'est entretenu avec un cadre d'AMD, Sam Naffziger, qui travaille chez AMD depuis plus d'une décennie et qui a été fortement impliqué dans de nouveaux designs innovants concernant les puces de CPU et de GPU. Naffziger a abordé un certain nombre d'aspects de l'architecture RDNA 3, y compris une vue d'ensemble de la conception de base, des fréquences plus élevées évolutives, une efficacité accrue par watt et la façon dont les nouveaux GPU se comporteront face à la concurrence.

Lors d'une récente interview, AMD a évoqué l'avenir de ses produits, notamment les GPU haute performance. Dans ce secteur, le fabricant prédit à juste titre qu'à mesure que les capacités des cartes graphiques augmentent, leur consommation d'énergie augmente également.

Comme le veut la tradition, M. Naffziger s'est montré très confiant dans la conception du RDNA 3, et peut-être à juste titre, puisqu'il s'agira des premières cartes graphiques grand public à utiliser des chiplets. En d'autres termes, les cartes graphiques haut de gamme de la série Radeon 7000 utiliseront des techniques d'emballage avancées pour "rassembler" plusieurs GPU grâce à la technologie brevetée Infinity Cache à large bande passante d'AMD. Il s'agira essentiellement d'une nouvelle façon de fabriquer les cartes graphiques, qui permettra d'améliorer l'échelle des performances et l'efficacité énergétique par rapport aux conceptions traditionnelles à un seul GPU.

Il va sans dire qu'AMD semble confiant dans le fait que sa prochaine génération de produits donnera du fil à retordre à Nvidia. La prochaine série RTX 40 n'utilisera qu'un seul GPU. C'est une simplification excessive de dire simplement que deux vaut mieux qu'un, mais c'est l'essentiel.

AMD prévoit que nous pourrions commencer à voir des GPU avec un TDP de 700 watts - soit l'équivalent d'un frigo américain - avant même la fin de l'année 2024. L'entreprise a également parlé d'optimisations supplémentaires en termes de performance par watt, ce qui pourrait potentiellement lui donner une longueur d'avance sur Nvidia.

Cette prédiction est tirée d'un entretien accordé par Venture Beat à Sam Naffziger, vice-président senior, chargé de mission et architecte en technologie des produits d'AMD. M. Naffziger est spécialisé dans l'efficacité énergétique et les performances par watt, deux aspects importants de la stratégie d'AMD pour l'ensemble de ses gammes de produits, y compris les cartes graphiques et les processeurs. Cela s'applique aux produits d'entreprise, tels que les centres de données, et aux produits grand public, tels que les meilleurs GPU pour les joueurs.

Dans l'interview, M. Naffziger évoque le fait que la consommation d'énergie de la plupart des matériels informatiques a récemment suivi une courbe ascendante très marquée, qui s'applique aussi bien aux produits destinés aux charges de travail massives de calcul à haute performance (HPC) qu'aux PC de jeu que nous utilisons à la maison.

C'est vrai, l'augmentation des performances s'accompagne d'une augmentation de la consommation d'énergie. Comme le montre la diapositive ci-dessus, AMD prévoit que les GPU haute performance atteindront un TDP de 700 watts avant même 2025, ce qui témoigne d'une tendance continue à la hausse qui semble s'être accélérée au cours des dernières années.

Plusieurs rumeurs concernant les besoins en énergie monstrueux de la prochaine Nvidia GeForce RTX 4090 nous montrent que le problème est plus proche que nous ne le pensons. Après tout, certains fuites prédisent que l'association du GPU de nouvelle génération avec un processeur Intel Raptor Lake correspondant nécessitera un bloc d'alimentation (PSU) massif de 1 200 watts. Les cartes graphiques se transforment peu à peu en bêtes gourmandes en énergie, et bientôt, il pourrait devenir de plus en plus difficile de les suivre.

Le zonage d'AMD sur l'efficacité énergétique n'est pas nouveau. En 2014, le fabricant a lancé une initiative baptisée "25×20" qui l'a conduit à multiplier par 25 l'efficacité de ses processeurs mobiles d'ici à la fin de 2020. Aujourd'hui, AMD a lancé une initiative similaire, baptisée "30×25". Cette fois-ci, Team Red prévoit de multiplier par 30 l'efficacité de ses plateformes accélérées pour centres de données d'ici 2025. En mettant l'accent sur la performance par watt, AMD continue d'essayer d'améliorer ses produits sans entraîner une augmentation désastreuse de la consommation d'énergie.

Bien que l'initiative 30×25 se concentre sur le HPC, il semble qu'AMD fasse des choix architecturaux qui auront un impact positif à la fois sur les cartes graphiques RDNA 3 de nouvelle génération et sur celles qui suivront - RDNA 4.

À propos des prochains GPU, M. Naffziger a déclaré : "Nous nous sommes publiquement engagés à améliorer encore de 50 % les performances par watt. Cela représente trois générations de gains d'efficacité composés, soit 1,5 ou plus. Nous ne parlons pas de tous les détails de la manière dont nous allons y parvenir, mais l'un des éléments consiste à tirer parti de notre expertise en matière de chiplets pour débloquer toutes les capacités du silicium que nous pouvons acheter."

Cela implique clairement qu'AMD vise une amélioration de 50 % des performances par watt pour les GPU RDNA 3 par rapport à la génération actuelle de cartes. AMD est actuellement le seul fabricant qui possède une grande expertise dans la création de cartes graphiques et de processeurs grand public, et en tant que tel, il est capable d'utiliser certaines de ses idées de CPU dans la création de nouveaux GPU - la réduction des largeurs de bus et l'ajout d'un grand Infinity Cache viennent à l'esprit.

Jusqu'à présent, il s'est avéré qu'AMD est souvent plus économe en énergie que ses concurrents. Par exemple, la GeForce RTX 3090 Ti de Nvidia a un TDP de 450 watts, tandis que la Radeon RX 6950 XT d'AMD reste plus raisonnable avec 335 watts. La prochaine génération de GPU des deux fabricants fait encore l'objet de spéculations, mais il ne serait pas surprenant qu'AMD continue à améliorer l'efficacité de ses produits, même si c'est parfois au détriment des performances.

L'un des avantages évidents des conceptions multi-GPU est que chaque GPU peut être réglé sur une fréquence d'horloge plus basse et plus élevée dans la courbe d'efficacité des performances par watt. AMD a également fait allusion à d'autres ajustements pour améliorer l'efficacité, y compris la contribution des ingénieurs des processeurs Ryzen sur la façon de maintenir des fréquences d'horloge plus élevées tout en conservant des tensions plus basses.

Nvidia devra essentiellement overclocker ses conceptions de GPU uniques pour obtenir plus de performances au prix d'une efficacité décroissante afin de conserver l'avantage de conception d'AMD. Nvidia n'a encore rien dit d'officiel au sujet de la série RTX 40, mais AMD revendique une amélioration de 50 % des performances par watt pour RDNA 3 par rapport à RDNA 2. Toutefois, Naffziger a confirmé que la consommation d'énergie globale augmentera pour cette génération.

Les GPU RDNA 3 devraient être commercialisés dans le courant de l'année et concurrencer instantanément les cartes graphiques de la série RTX 40 de Nvidia. Espérons que l'accent mis par AMD sur l'efficacité énergétique évitera à de nombreux clients d'acheter un nouveau bloc d'alimentation.

  • ANALYSE - L'essor de la performance : Les CPU et les GPU deviennent-ils trop gourmands en énergie ?

Tous les deux ans, une nouvelle génération de processeurs informatiques est lancée. Pendant longtemps, les processeurs ont semblé rester au même niveau de puissance, tandis que les GPU n'augmentaient que relativement peu. Mais aujourd'hui, il semble que les modèles haut de gamme de tous les constructeurs sortent des modèles qui requièrent d'énormes quantités d'énergie.

250 W pour un processeur (CPU) et 450 W pour un processeur graphique (GPU), est-ce trop élevé ? Les fabricants s'en préoccupent-ils au moins ? Dans cet article, nous allons retirer les dissipateurs thermiques pour découvrir la vérité derrière les chiffres de puissance et voir exactement ce qui se passe. 

Pourquoi les puces ont besoin d'énergie et chauffent autant ?

Les CPU et les GPU sont considérés comme des circuits d'intégration à très grande échelle (VLSI) - d'énormes ensembles de transistors, de résistances et d'autres composants électroniques, tous de taille microscopique.

Ces puces ont besoin d'être traversées par l'électricité pour effectuer les tâches pour lesquelles elles ont été conçues. Les unités logiques arithmétiques effectuent des opérations mathématiques en commutant une multitude de transistors, afin de modifier diverses tensions ailleurs dans le circuit.

Les processeurs modernes utilisent un type de transistor appelé FinFET (Fin Field-Effect Transistor). Imaginez ces transistors comme un pont entre deux îles, où l'application d'une petite tension abaisse une route, permettant au courant de passer d'un endroit à l'autre.

Il est évident qu'un courant passe à travers les îles et le pont, d'où la nécessité d'une alimentation électrique : sans elle, les puces ne feraient tout simplement rien. Mais pourquoi chauffent-elles alors ?

Malheureusement, tous ces composants opposent une résistance à ce flux d'électricité. La quantité réelle est vraiment minime, mais étant donné que le nombre de transistors dans les CPU et les GPU se chiffre en milliards, l'effet cumulatif est très prononcé.

Un CPU typique peut n'avoir qu'une résistance interne totale d'une douzaine de milliohms, mais lorsqu'elle est traversée par un courant de 80 A ou plus, l'énergie dissipée en raison de la résistance est de plus de 90 joules par seconde (ou watts, W).

Cette énergie est transférée aux matériaux qui composent l'ensemble de la puce, ce qui explique pourquoi tous les processeurs chauffent lorsqu'ils fonctionnent. Les grosses puces doivent être activement refroidies pour éviter que leur température n'augmente trop, de sorte que toute cette chaleur doit aller ailleurs.

D'autres facteurs influent sur la quantité de chaleur dissipée, comme les fuites de courant, mais si un processeur "perd" de l'énergie (sous forme de chaleur), il devra constamment en "consommer" pour rester fonctionnel.

En d'autres termes, la quantité de chaleur perdue correspond à peu près à la puissance nominale de la puce. Commençons donc par examiner l'unité centrale de traitement et voir comment ses besoins en énergie ont évolué au fil des ans.

La vérité cachée derrière les chiffres de puissance des unités centrales de traitement

Depuis de nombreuses années, les fournisseurs d'unités centrales de traitement indiquent la consommation d'énergie de leurs processeurs à l'aide d'un simple chiffre : Thermal Design Power ou TDP. Ce chiffre a malheureusement fait l'objet de plusieurs définitions au fur et à mesure de l'évolution de la conception des puces.

La définition actuelle d'Intel est la suivante :

"La dissipation d'énergie moyennée dans le temps que le processeur est validé pour ne pas dépasser pendant la fabrication tout en exécutant une charge de travail de haute complexité spécifiée par Intel à la fréquence de base et à la température de jonction maximale"
En d'autres termes, si votre processeur Intel a une fréquence de base de 3,4 GHz et une température maximale de 95 °C, sa puissance nominale sera égale au TDP tant que la puce fonctionnera dans ces limites.

Jetons donc un coup d'œil à quelques exemples de CPU des 17 dernières années. Nous avons pris les modèles de bureau les plus gourmands en énergie sortis chaque année au cours de cette période, en ignorant ceux qui étaient destinés aux stations de travail et autres.

Hormis quelques cas isolés, comme le FX-9590 d'AMD datant de 2013 (avec un TDP de 220 W !), les processeurs semblent avoir été très constants dans leurs exigences en matière de puissance.

À première vue, ils ne semblent pas devenir de plus en plus gourmands en énergie, ce qui est évidemment une bonne chose. Les progrès réalisés dans la fabrication des semi-conducteurs, ainsi que la conception optimale des circuits intégrés, doivent en être la cause.

Le seul problème, c'est que presque tous les processeurs du marché peuvent tourner à des vitesses bien supérieures à leur fréquence de base. Le FX-9590 mentionné ci-dessus a une fréquence de base de 4,7 GHz, mais peut augmenter la fréquence d'horloge jusqu'à 5,0 GHz. Que se passe-t-il alors ?

On pourrait penser que la réponse est simple : il dissipera plus d'énergie, en tirant une plus grande quantité de courant de la carte mère. Malheureusement, ce n'est pas toujours le cas, car cela dépend des paramètres activés dans les paramètres de la carte mère (BIOS).

Tant Intel qu'AMD disposent d'un certain nombre d'options, qui peuvent toutes être activées ou désactivées (en fonction de l'existence ou non d'une option dans le BIOS) et qui permettent au processeur de gérer sa propre puissance et sa propre fréquence.

Si l'on s'en tient à Intel pour l'instant, le principal système utilisé à cette fin s'appelle la technologie Turbo Boost. Mis à part le nom datant des années 1980, ce système permet de contrôler activement la quantité d'énergie que le processeur peut dissiper pour une charge donnée, sur une certaine période de temps.

Les processeurs d'Intel ont généralement deux limites de puissance, PL1 (alias TDP) et PL2, bien que d'autres soient disponibles...

Notez que la courbe de puissance orange peut atteindre des niveaux nettement supérieurs à PL1 et s'élever à PL2 pendant un certain temps. Dans ce cas, le processeur fonctionne au-dessus de sa fréquence de base, mais pas nécessairement à sa fréquence d'horloge maximale.

Étant donné qu'Intel désactive PL3 et PL4 par défaut, nous pouvons considérer PL2 comme la consommation d'énergie maximale réelle du processeur - il se peut qu'elle ne dure que quelques secondes (ou, selon les paramètres du BIOS, qu'elle dure indéfiniment), mais il s'agit toujours de la consommation d'énergie la plus élevée possible.

Quelle est donc la différence entre PL2 et PL1 ? Cette valeur a fluctué avec chaque nouveau modèle de processeur, mais nous nous contenterons d'examiner ceux des dernières années de notre tableau TDP ci-dessus.

Il y a sept ans, avec des processeurs comme le Core i7-8700K, il n'y avait qu'une différence de 30 W entre PL1 et PL2, alors qu'aujourd'hui elle est de plus de 100 W, ce qui revient à doubler la puissance requise dans certains cas.

AMD n'utilise pas les mêmes étiquettes et définitions qu'Intel, mais ses processeurs peuvent également dissiper plus d'énergie que la limite du TDP.

La limite supérieure est indiquée sous la forme d'un suivi de la puissance du paquet (PPT), c'est-à-dire la puissance maximale que le processeur peut dissiper sous une charge donnée. Pour tous les processeurs de bureau Ryzen avec un TDP de 95W ou plus, le PPT est égal à 1,34 x TDP.

Une chose est donc claire : les CPU haut de gamme ont définitivement augmenté leur consommation maximale absolue au cours des dernières années, bien que le TDP soit relativement statique.

Les fabricants de cartes mères ne font qu'aggraver la situation en ignorant les limites de puissance et les contraintes temporelles par défaut d'Intel et en fixant leurs propres valeurs dans le BIOS. En d'autres termes, le processeur d'une carte mère peut plafonner à 120 W, mais atteindre 200 W sur une autre carte.

Il convient toutefois de faire le point à ce stade, car tous les chiffres présentés jusqu'à présent concernent les modèles haut de gamme, c'est-à-dire ceux qui présentent les vitesses d'horloge les plus élevées et le plus grand nombre de cœurs.

Les processeurs de milieu et de bas de gamme ont heureusement très peu évolué, tout simplement parce qu'ils ont toujours eu beaucoup moins de cœurs que les modèles haut de gamme.

En bas du marché des processeurs de bureau, le populaire Core i3-12100F d'Intel a un TDP de 58 W (et un PL2 de 89 W), tandis que le Ryzen 3 4100 d'AMD a un TDP de 65 W, ce qui correspond à peu près à ce que ces gammes de produits ont toujours été.

Cependant, le dernier modèle de milieu de gamme Ryzen 7600X d'AMD a un TDP de 105 W, soit quarante de plus que son prédécesseur immédiat, le 5600X. Quant au Core i5-12600K d'Intel, son TDP est celui d'une puce haut de gamme : 125 W.

Tout cela indique une nette augmentation de la consommation d'énergie, principalement vers les modèles haut de gamme, mais pas exclusivement. Si vous voulez un processeur avec le plus grand nombre de cœurs et les vitesses d'horloge les plus élevées, cela implique une demande d'énergie importante.

Malheureusement, les personnes qui souhaitent passer au dernier produit de milieu de gamme risquent de devoir accepter une hausse notable de la consommation d'énergie.

C'est là qu'entrent en scène les hippopotames affamés de consommation d'énergie : les GPU

Alors que les processeurs ont été relativement économes en énergie, même en tenant compte du récent relèvement de la limite maximale, il y a une puce dans les ordinateurs de bureau qui devient de plus en plus grosse et affamée à chaque nouvelle génération. La puce de traitement graphique (GPU) est de loin le dispositif semi-conducteur le plus grand et le plus complexe que la plupart des gens posséderont jamais, en termes de nombre de transistors, de taille de la puce et de capacité de traitement.

Le niveau de fidélité graphique des jeux d'aujourd'hui est d'une ampleur dont on ne pouvait que rêver il y a 17 ans, mais le coût énergétique de tous ces polygones, textures et pixels fait paraître les unités centrales légères, en comparaison.

Nous avons procédé de la même manière pour ce graphique que pour celui du CPU : nous avons pris les cartes graphiques grand public les plus gourmandes en énergie des principaux constructeurs, pour chaque année.

Les cartes comme la Ryzen 9 7950X d'AMD peuvent atteindre 230 W, mais les GPU haut de gamme dissipaient ce niveau de puissance il y a près de 15 ans.

Et comme le montre le graphique, rien n'indique que la tendance des cartes graphiques les plus puissantes à nécessiter des quantités d'énergie toujours plus importantes va diminuer, car les tendances pour les deux constructeurs sont clairement non décroissantes, même si la corrélation n'est pas très forte.

Avec le lancement par Nvidia de la GeForce RTX 4090, dotée d'une puce de 76 milliards de transistors et d'un TDP de 450 W, la barre a été placée bien plus haut.

Les constructeurs de GPU ne se soucient-ils donc vraiment pas des exigences en matière de consommation d'énergie ?

Le graphique ci-dessus montre l'évolution des mêmes puces en termes de nombre de transistors dans chaque millimètre carré de la puce, par rapport au TDP de la carte graphique.

L'échelle de densité des puces est logarithmique parce que la densité a fait un bond colossal au cours des dernières années - une échelle linéaire aurait regroupé presque tous les points de données dans une petite région.

Nous pouvons constater qu'à mesure que les GPU intègrent de plus en plus de commutateurs nanométriques dans leurs circuits, les besoins en énergie augmentent régulièrement, mais pas de manière constante (oui, la ligne AMD semble droite, mais n'oubliez pas l'échelle logarithmique).

Les tendances non linéaires sont toutes deux à la hausse, mais le taux d'augmentation lui-même a diminué chaque année. Cette tendance entre la densité et le TDP est due au fait que les constructeurs sortent de nouvelles puces qui sont fabriquées sur un nœud de processus amélioré.

Il s'agit du nom donné à la méthode de fabrication utilisée par une fonderie de semi-conducteurs pour fabriquer les puces. Chaque nouveau nœud offre une série d'avantages par rapport à son prédécesseur : densité plus élevée, consommation plus faible, meilleures performances, etc.

Toutes ces améliorations ne peuvent pas être appliquées en même temps, mais dans le cas des GPU, elles ont permis aux constructeurs de créer des processeurs vraiment énormes, avec des niveaux de calcul exceptionnels, pour une puissance requise raisonnable.

Par exemple, si le Navi 21 était fabriqué en utilisant le même nœud que celui utilisé pour le R520, la puissance requise serait de l'ordre du kW. Ainsi, même si les niveaux d'énergie sont assez élevés à l'heure actuelle, ils pourraient être bien pires.

Les avantages des nouveaux nœuds de traitement et des nouvelles conceptions de GPU ne se limitent pas à la réduction des niveaux de puissance.

La capacité de calcul, par unité de puissance, de tous les GPU haut de gamme a connu une augmentation quasi constante, à un rythme étonnant, depuis l'apparition des premiers modèles de shaders unifiés en 2006.

Si l'on prend les chiffres ci-dessus, l'augmentation moyenne du TDP depuis 2006 a été doublée, tandis que l'augmentation des performances FP32 par watt a été démultipliée, ce qui est stupéfiant

Bien que le débit de traitement FP32 ne soit pas la qualité déterminante d'une carte graphique, il s'agit de l'une des capacités les plus importantes pour les jeux et les graphiques 3D. Si nous disposons aujourd'hui de jeux aux graphismes et aux fonctionnalités incroyables, c'est parce que les meilleurs GPU sont devenus plus grands et plus complexes.

Mais même si les processeurs graphiques sont plus performants que jamais et que leur niveau de consommation n'est pas aussi mauvais qu'il pourrait l'être, leur niveau de consommation d'énergie continue d'augmenter. Même les GPU ultra-budget, qui consomment normalement 30 W ou moins, ont vu leur TDP augmenter de manière significative au cours des dernières années.

Si l'on souhaite acheter une carte graphique Nvidia capable de tirer tout son courant uniquement via le port PCI Express, il faut alors se passer de l'ensemble de l'inventaire Ampère. La GeForce RTX 3050 a un TDP de 100W et comme le slot a une limite de 75W, des connecteurs d'alimentation supplémentaires sont nécessaires.

Ces cartes, comme leurs grandes sœurs, ont beaucoup plus de puissance de traitement qu'auparavant, mais pour les personnes qui veulent construire des systèmes à très faible consommation, il y a de moins en moins d'options à choisir en ce qui concerne la carte graphique.

Et il ne semble pas y avoir de signes de ralentissement, voire de diminution, de l'augmentation de la demande d'énergie. Par exemple, la dernière incursion d'Intel sur le marché des cartes graphiques, la série Arc, est actuellement dirigée par la carte A770.

Cette carte est dotée d'une puce de 21,4 milliards de transistors, de 16 Go de GDDR6 et d'un TDP de 225W. Bien qu'elle soit destinée au secteur du milieu de gamme, cette demande de puissance est identique à celle des plus grosses puces d'AMD et de Nvidia d'il y a quatre ans.

C'est un peu mieux pour les cartes GeForce et Radeon de milieu de gamme, la RTX 3060 nécessitant 170 W et la RX 6600 XT 160 W, mais la demande énergétique a augmenté dans tous les secteurs, bien plus que pour les CPU.

Sans une meilleure ingénierie, cette demande serait évidemment beaucoup plus élevée, mais une question importante à laquelle il faut vraiment répondre est de savoir si les CPU et les GPU demandent trop d'énergie pour ce qu'ils offrent.

Qu'entend-on par "trop" ?

Deux des plaintes les plus courantes concernant l'augmentation de la demande en énergie des CPU et des GPU sont le coût de l'électricité et la quantité de chaleur générée.

Supposons que vous disposiez d'un PC de jeu très sophistiqué, équipé des meilleurs composants que l'on puisse s'offrir. Supposons également que vous utilisiez un AMD Ryzen 9 5950X, soutenu par un Nvidia GeForce RTX 3090 Ti légèrement overclocké.

Naturellement, il y aura aussi d'autres éléments (au minimum, une carte mère, de la RAM et un disque de stockage), mais nous pouvons les laisser de côté car leur consommation d'énergie combinée sera bien inférieure à celle du CPU ou du GPU. Alors, quelle sera la puissance requise par ce PC au milieu d'une partie de jeu trépidante ? Que pensez-vous d'une puissance de 670W à 700W ?

Imaginez maintenant que vous utilisiez votre PC de cette manière pendant 2 heures, chaque jour, tous les jours de l'année. La quantité d'énergie consommée par l'ordinateur serait d'environ 500 kWh (0,7 x 2 x 365), ce qui équivaut à faire fonctionner une bouilloire électrique de 1,5 kW pendant près de deux semaines, sans interruption.

Selon l'endroit où vous vivez dans le monde et les tarifs que vous payez pour votre électricité, l'utilisation d'un tel PC peut coûter entre 70 et 280 dollars (taxes et frais supplémentaires non compris), chaque année.

Mais comparé au coût total de l'ordinateur lui-même, qui s'élève à plusieurs milliers de dollars, il s'agit d'un montant relativement faible. Si l'on prend la valeur la plus élevée et que l'on calcule le coût de l'électricité par heure de jeu, on obtient seulement 0,38 $ par heure.

Dans le pire des cas, un ordinateur équipé de la combinaison de CPU et de GPU la plus gourmande en énergie actuellement disponible (la carte ci-dessus et le Core i9-13900K d'Intel), fonctionnant tous deux à leurs limites de puissance par défaut les plus élevées, ne coûterait qu'environ 0,50 dollar par heure, pour la même routine de jeu.

Vous pourriez dire que 50 cents par heure de jeu est beaucoup trop élevé, et pour des millions de personnes dans le monde, c'est presque certainement vrai. Mais il est peu probable qu'ils disposent d'un tel PC.

Les consoles de salon sont plus populaires que les PC de jeu, en termes d'unités livrées par an, et elles contiennent du matériel bien moins performant que les exemples cités ci-dessus. Mais en termes de demande d'énergie, une console comme la Xbox Series X de Microsoft ne consommera que 153 W pendant un jeu actif.

Même si vous tenez compte d'un grand téléviseur OLED qui pourrait ajouter 100 W supplémentaires, les deux appareils combinés utiliseraient en fait 44 % d'énergie en moins que la GeForce RTX 4090 seule. Par conséquent, si le coût de l'électricité est une préoccupation réelle, les consoles constituent une bonne alternative pour les jeux.

Bien entendu, il n'est pas nécessaire d'utiliser les ordinateurs les plus récents ou les plus puissants pour profiter des jeux. Il existe de nombreux composants plus anciens ou de milieu de gamme qui ne sont pas trop gourmands en énergie et qui restent très performants.

Les cartes graphiques d'occasion Radeon RX 5700 XT, GeForce RTX 2060 Super ou même GeForce GTX 1080 Ti sont encore très performantes et ont toutes les trois un TDP de 250 W ou moins.

En bref, l'argument selon lequel l'augmentation de la puissance est un problème, uniquement en raison du coût de l'électricité, est quelque peu discutable - trop de choses dépendent du prix local d'une unité d'électricité, des habitudes de jeu, etc. pour résoudre de manière concluante un tel débat.

Mais qu'en est-il de la chaleur ?

Comme nous l'avons mentionné au début de cet article, pratiquement chaque joule d'énergie électrique finit par être dissipé sous forme de chaleur, transférée à l'environnement principalement par le mécanisme de la convection.

Un ordinateur d'une puissance de 900 W pourrait, en théorie, faire passer la température de 28 mètres cubes de 20°C à 40°C en seulement 17 minutes. Cela suppose naturellement un transfert de chaleur et une isolation parfaits, sans aucun mouvement de l'air chaud hors du volume en question.

Bien que cela ne soit pas aussi rapide, en réalité, toute cette chaleur finira toujours par être transférée dans l'environnement du PC, quel que soit le taux de transfert.

Les ventilateurs de refroidissement, quelle que soit leur quantité ou leur performance, n'y changeront rien, puisqu'ils ne font qu'abaisser la température des composants. Le seul moyen d'atténuer l'augmentation de la chaleur de l'environnement est de permettre à l'air chaud de se déplacer ailleurs, par l'ouverture d'une fenêtre, par exemple.

Si vous prévoyez de dépenser une grosse somme d'argent pour les processeurs et les processeurs graphiques les plus puissants, préparez-vous à ce qu'ils déversent une quantité importante d'énergie thermique dans votre salle de jeu.

Tout comme pour la question du coût de l'électricité, il s'agit en fin de compte d'une préoccupation individuelle - 900 W de chaleur peuvent être un problème chronique pour une personne, mais tout à fait acceptable pour une autre.

Les besoins du plus grand nombre l'emportent sur les besoins de quelques-uns

Il semblerait donc que les préoccupations relatives à la puissance calorifique et au coût de l'électricité soient essentiellement des questions individuelles. Cependant, tout cela devient beaucoup plus important à l'échelle de la planète.

Il y a des millions d'ordinateurs dans le monde, et bien que le nombre d'ordinateurs équipés de puces de plus de 250 W soit relativement faible, toutes ces machines seront un jour remplacées par des ordinateurs équipés de composants dont la demande d'énergie est plus élevée qu'aujourd'hui.

Pour s'en faire une idée, il suffit de considérer qu'environ 17 millions de consoles Xbox Series X et 50 millions de consoles Xbox One ont été vendues dans le monde. La première consomme environ 90 W de plus que la seconde.

Si nous supposons que toutes ces anciennes unités sont remplacées par les plus récentes, cela représente 3 GW supplémentaires de demande d'énergie accumulée et, en fin de compte, de chaleur dissipée. Il est évident que ces machines ne fonctionneront pas toutes en même temps, mais l'énergie supplémentaire requise n'est pas propre à cette console.

Avec l'arrivée de nouveaux processeurs pour les ordinateurs portables, les ordinateurs de bureau, les stations de travail et les serveurs, tous ces appareils nécessiteront plus d'énergie, que ce soit quelques watts ou une centaine. Cela signifie que l'industrie de l'énergie devra faire face à une demande de plus en plus forte par rapport à sa capacité de production.

Ce sera de toute façon le cas, en raison de la croissance démographique et économique, mais le problème ne fera que s'aggraver avec l'augmentation de la puissance des semi-conducteurs.

Même en tenant compte d'un déclin des ventes de PC, comme les prévisions l'indiquent pour un certain nombre d'années, il y a d'autres secteurs qui font le contraire : L'internet des objets (IdO), l'intelligence artificielle (IA) et l'analyse des données de masse (big data) affichent tous une forte croissance.

L'IA et le big data utilisent beaucoup de GPU haut de gamme pour effectuer les calculs nécessaires et si les nouveaux composants de ces machines ne montrent aucun signe de modération de leur demande d'énergie, ces industries ne feront qu'aggraver la situation énergétique.

Selon certaines estimations, la demande d'électricité à l'échelle mondiale pourrait être multipliée par trois d'ici à 2050, avec une croissance de 3 à 4 % par an. Il n'est toutefois pas certain que ces estimations tiennent compte de l'augmentation de la consommation d'énergie des processeurs.

Depuis 2005, la production mondiale d'électricité estimée est passée de 18 PWh (1 PWh = 1 000 000 GWh) à 28 PWh en 2021, soit une augmentation de 56 % en seulement 16 ans. Et cette hausse est entièrement due à l'augmentation de la demande. La croissance de l'utilisation des semi-conducteurs ne fera qu'aggraver la situation au cours des prochaines décennies.

Alors, que peut-on faire, si tant est que l'on puisse faire quelque chose ?

En tant que particulier, vous pouvez essayer de réduire la consommation d'énergie des principaux composants de votre ordinateur. Dans le cas des processeurs, la majorité des cartes mères disposent d'une variété d'options d'alimentation dans le BIOS qui obligent le processeur à réduire sa consommation d'énergie lorsqu'il est inactif.

L'interface ACPI (Advanced Configuration and Power Interface) est apparue dans les ordinateurs de bureau en 1996 et a été continuellement mise à jour depuis lors. Aujourd'hui, tous les processeurs grand public sont dotés de fonctions conformes à l'ACPI et, en ce qui concerne la consommation d'énergie, deux d'entre elles sont remarquables : Les états P et les états C.

Le premier fait référence à l'état de performance dans lequel le processeur fonctionne et, lorsqu'il est activé dans le BIOS, il permet à la puce de fonctionner à une fréquence et à une tension inférieures, afin d'économiser de l'énergie. Les états C ont un rôle similaire, mais ils contrôlent ce que le processeur est capable de faire (par exemple, conserver des données dans la mémoire cache ou la vider entièrement) tout en fonctionnant dans un format moins gourmand en énergie.

Pour les processeurs Ryzen plus récents d'AMD (à partir de la série 3000), l'activation du mode Eco dans le logiciel Ryzen Master forcera le processeur à fonctionner avec un TDP nettement inférieur, indépendamment de toute option ACPI activée.

Selon le système utilisé et les performances mesurées, l'impact de l'utilisation de la valeur de puissance la plus faible peut être étonnamment faible. Pour les utilisateurs de processeurs Intel, il est possible d'obtenir quelque chose de similaire en se plongeant dans les paramètres du BIOS et en recherchant la gestion interne de l'alimentation du processeur (tous les modèles n'en sont pas équipés).

Dans cette section, les valeurs de PL1 et PL2 peuvent être inférieures aux valeurs par défaut, bien qu'elles soient plus susceptibles d'être répertoriées sous des noms différents. Par exemple, Asus utilise Long/Short Package Duration Limit pour PL1/PL2.

Les cartes graphiques peuvent être réglées de la même manière, en utilisant des logiciels tels que MSI Afterburner. Cette application permet de contrôler la puissance maximale de la carte, exprimée en pourcentage, et ce chiffre peut facilement être abaissé.

Par exemple, la RTX 2080 Super de Nvidia a une limite de consommation de 250 W à 100 %. En abaissant cette limite à 70 %, la consommation d'énergie du GPU serait limitée à 175 W. Naturellement, cela réduira également les performances de la carte, mais comme pour le Ryzen Eco Mode, l'impact n'est pas aussi important qu'on pourrait le penser.

Il est possible d'obtenir un résultat similaire en abaissant la tension du cœur du GPU, ce qui nécessite généralement de réduire également la fréquence d'horloge. Par ailleurs, si un jeu offre la possibilité de plafonner la fréquence d'images, le fait de la fixer à une valeur inférieure réduira également la demande d'énergie.

Mais en termes de simplicité, l'ajustement de la limite de puissance à l'aide d'un simple curseur est imbattable.

Nous avons effectué quelques tests rapides avec Shadow of the Tomb Raider, avec la carte graphique susmentionnée (RTX 2080 Super) et un Intel Core i7-9700K. La résolution du jeu a été réglée sur 4K, tous les détails graphiques ont été réglés sur la valeur maximale, le mode DLSS Quality a été activé, mais le ray tracing a été désactivé.

Il peut sembler incroyable de diviser par 2 la puissance maximale disponible n'entraîne qu'une réduction de 10 % du taux de rafraîchissement moyen (les valeurs basses de 1 % ont chuté de moins de 5 %), mais il convient également de noter que ce jeu a une charge de CPU assez élevée.

L'utilisation de DLSS a aussi certainement aidé dans ce test, car le jeu rend à une résolution beaucoup plus basse que celle présentée, mais le GPU essaiera juste de rendre à un taux plus rapide, et atteindra toujours sa limite de puissance.

Il est évident que différents jeux et configurations matérielles produiront des résultats différents de ceux observés ci-dessus, mais dans Red Dead Redemption 2 (1440p, qualité maximale), une réduction de 50 % de la limite de puissance a produit une réduction de 15 % du taux de rafraîchissement moyen, et pour Far Cry 6, la baisse du taux de rafraîchissement n'a été que de 7 %.

Tout cela peut donc amener une question simple : pourquoi les constructeurs de matériel fixent-ils une limite de puissance aussi élevée alors qu'il semble qu'elle n'ait pas besoin de l'être ?

La raison la plus probable est liée au marketing et au statut du produit. AMD, Intel et Nvidia ont besoin que leurs modèles soient aussi clairement différenciés que possible, en particulier dans le haut de gamme.

Ces produits sont censés être les meilleurs que vous pouvez acheter, donc les puces utilisées seront sélectionnées à partir du processus de binning qui résulte en ceux qui peuvent fonctionner à la vitesse d'horloge la plus élevée, si on leur donne assez de puissance.

Mais cela peut conduire à des situations comme celle observée avec la GeForce RTX 3090 Ti - elle a un TDP 100W plus élevé que la 3090 (29% plus élevé), mais même à 4K, nos tests ont montré qu'elle n'était qu'environ 10% plus rapide dans les jeux.

Étant donné que tous les grands constructeurs voudront vendre sur toutes les puces possibles qui sont fabriquées pour eux, les modèles "quelques pourcents de mieux" ne vont pas disparaître, mais les concepteurs peuvent certainement réduire la demande de puissance.

Les constructeurs de composants informatiques doivent faire mieux

Les constructeurs tels qu'AMD mettent fortement en avant l'aspect performance par watt de leurs produits et l'utilisent généralement comme un argument de vente clé. Par exemple, pour leur prochaine architecture de GPU de bureau, RDNA 3, les prévisions d'amélioration sont substantielles. Toutefois, cela ne signifie pas que les cartes graphiques de la série Radeon RX 7000 auront soudainement un TDP beaucoup plus faible.

Pour RDNA 2, AMD a souligné qu'elle offrait jusqu'à 65 % de performances supplémentaires par watt par rapport à l'architecture précédente. Pourtant, le TDP de la Radeon RX 6800 était encore de 300 W.

Nos propres tests ont confirmé les affirmations d'AMD quant à l'amélioration des performances par unité de puissance, mais cela n'enlève rien au fait que les gains de puissance de rendu nécessitent une consommation d'énergie supplémentaire.

On pourrait dire que les constructeurs devraient faciliter la réduction de la demande d'énergie de leurs produits, voire les faire fonctionner par défaut dans une sorte de "mode écologique".

Les constructeurs diront peut-être qu'ils le font déjà, en faisant fonctionner leurs puces à différents niveaux d'horloge (mode Turbo, horloge Boost, horloge Gaming) et en les faisant baisser de manière significative leur tension lorsqu'elles sont inactives.

Mais lorsqu'Intel a lancé sa 12e génération de processeurs Core pour ordinateurs de bureau, les communiqués de presse étaient remplis d'affirmations sur les performances, mais une seule section osait mentionner la puissance. 

Le tout nouveau design du processeur, mélangeant deux architectures différentes dans la même puce, était clairement une amélioration par rapport au modèle équivalent de la 11ème génération. Comme le montre l'image ci-dessus, Intel aurait pu fixer le TDP à 95 W et le PL2 à 125 W, tout en affichant des performances supérieures.

Au lieu de cela, il a conservé les mêmes chiffres qu'auparavant et a simplement retranché 10 W à la valeur PL2. Tout cela au nom d'un produit qui est un peu plus rapide que la concurrence dans certains tests.

Bien sûr, vous n'êtes pas obligé d'acheter ces puces, mais lorsque vient le moment de faire une mise à niveau ou simplement d'acheter un nouvel ordinateur ou une nouvelle console, vous n'avez guère d'autre choix que d'accepter ces produits gourmands en énergie, car les anciens modèles ne sont plus en production.

Bien qu'il soit relativement facile d'ajuster les limites de puissance des processeurs et des processeurs graphiques, c'est quelque chose que l'utilisateur final ne devrait pas avoir à faire.

D'une manière générale, les gens changent de point de vue sur la production d'énergie, la demande et son impact sur le climat et leur porte-monnaie. Alors que les produits phares et leur appétit insatiable pour l'énergie font les gros titres, c'est la croissance constante des besoins en énergie dans l'ensemble du secteur qui est vraiment importante.

On pourrait dire que trop de constructeurs de semi-conducteurs sont bloqués dans un état d'esprit qui semble en contradiction avec le monde d'aujourd'hui : avoir les performances les plus élevées possibles, pour se démarquer de la concurrence, à presque n'importe quel prix.

Il y a cependant de la lumière au bout du tunnel. Apple, par exemple, a modifié la quasi-totalité de ses gammes Mac et MacBook pour utiliser ses propres processeurs M1/M2. Ces processeurs combinés CPU+GPU ont été conçus pour être aussi économes en énergie que possible et offrir des performances comparables à celles des offres x86 d'AMD et d'Intel, avec une demande d'énergie nettement inférieure (à l'exception des jeux).

Les serveurs et les stations de travail sont encore généralement équipés de processeurs Intel Xeon ou AMD Epyc, mais l'architecture Arm, très économe en énergie, utilisée par Apple, se répand également dans ce secteur. Les grands fournisseurs de services en nuage remplacent leurs serveurs par des modèles Altra d'Ampere.

Le changement arrive - lentement, parfois douloureusement, mais il arrive. Il faudra encore de nombreuses années avant que de nouveaux processeurs moins gourmands en énergie que leurs prédécesseurs ne soient lancés sur le marché, mais l'industrie s'oriente vers cet objectif.

En attendant, à titre personnel, nous pouvons faire un choix simple : accepter les exigences énergétiques du matériel le plus récent et l'utiliser tel quel (avec ou sans modifier certains paramètres), ou voter avec notre portefeuille et faire savoir aux constructeurs que des centaines de watts d'énergie sont un prix trop élevé à payer.

Article traduit sur PC Invasion, Tech Spot et Digital Trends