Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

lundi 13 janvier 2020

Economie et politique de la concentration des marchés

« La concentration des entreprises et les marges de profits se sont accrues dans la plupart des secteurs aux Etats-Unis au cours des vingt dernières années. Le graphique 1 illustre ces tendances ainsi que les déclins de la part du travail et de l’investissement privé. Le ratio profit des entreprises après impôts sur valeur ajoutée a augmenté, passant en moyenne de 7 % au cours de la période allant de 1970 à 2002 à une moyenne de 10 % dans la période consécutive à 2002. Les entreprises avaient auparavant tendance à réinvestir environ 30 cents de chaque dollar de profit ; désormais, elles investissent seulement 20 cents pour chaque dollar de profit.

La bonne concentration versus la mauvaise concentration


Une question cruciale pour la recherche est si ces tendances reflètent un pouvoir de marché et la recherche de rentes ou bien des facteurs plus bénins, tels qu’un changement vers les actifs immatériels avec des effets de rendements d’échelle. La principale difficulté est que la relation entre la concentration et la concurrence est ambiguë.

GRAPHIQUE 1a Ratio de concentration des marchés

Gutierrez_Philippon__Ratio_de_concentration_des_marches.png

La concentration et la concurrence sont positivement reliées l’une à l’autre quand les chocs touchant la concurrence ex post jouent un rôle dominant dans les données. Par exemple, une baisse des coûts de recherche complique la survie des producteurs inefficaces, les force à fusionner ou à sortir du marché et entraîne en définitive une plus forte concentration. Un creusement des écarts de productivité entre les entreprises, souvent en raison des actifs immatériels, peut jouer un rôle similaire. Si ces explications sont les bonnes, les entreprises restantes sur le marché doivent être les plus productives et la concentration doit aller main dans la main avec une forte croissance de la productivité et l’investissement immatériel.

GRAPHIQUE 1b Profits des entreprises après impôts (en % de la valeur ajoutée)

Gutierrez_Philippon__Profits_des_entreprises_apres_impots.png

La concentration et la concurrence sont négativement liées l’une à l’autre quand les chocs touchant les coûts d’entrée jouent un rôle dominant dans les données. Cela peut résulter des changements dans l’application de la législation antitrust, des barrières à l’entrée ou de la menace de comportements prédateurs de la part des entreprises en place. Si ces explications-là sont les bonnes, la concentration doit être négativement reliée à la productivité et à l’investissement.

GRAPHIQUE 1c Rémunérations des salariés (en % de la valeur ajoutée brute)

Gutierrez_Philippon__Remunerations_des_salaries.png

Certains secteurs collent à l’hypothèse de la concentration efficace, tandis que d’autres collent à celle de la recherche de rentes. Ali Hortaçsu et Chad Syverson affirment que l’essor des hypermarchés et du e-commerce reflète les gains d’efficacité dans le secteur de la grande distribution. Le secteur du commerce de gros semble aussi coller à ce schéma. Le secteur des télécommunications, d’un autre côté, colle au schéma de la quête de rentes. Il est devenu de plus en plus concentré et Germán Gutiérrez et moi avons montré que les consommateurs américains payent aujourd’hui deux fois plus pour les services de téléphonie mobile et de haut débit que les citoyens de quasiment tous les autres pays développés. Certains secteurs de haute technologie combinent les aspects des deux types de concentration. L’une des raisons, comme Nicolas Crouzet et Janice Eberly l’affirment, est que le capital immatériel génère simultanément de forts rendements et des rentes élevées.

GRAPHIQUE 1d Investissement net (en % de l'excédent net d'exploitation)

Gutierrez_Philippon__Investissement_net.png

Au cours des vingt dernières années, la concentration négative est cependant devenue relativement plus importante aux Etats-Unis. Les récentes hausses de la concentration ont été associées à une faible croissance de la productivité et à une baisse des taux d’investissement. Les entreprises dans les secteurs où la concentration augmente s’engagent dans des fusions et acquisitions plus profitables et dépensent davantage dans le lobbying. Les profits excessifs ne sont plus annulés par la libre entrée et la rotation des meneurs de chaque secteur a diminué.

L’économie politique de la concentration


Si la "mauvaise" concentration a fini par prévaloir, nous devons comprendre pourquoi. Quelles sont les barrières à l’entrée ? Quel est le rôle respectif de la politique et de la technologie ? Il est difficile d’obtenir une réponse convaincante en regardant seulement les Etats-Unis, mais la comparaison avec d’autres régions (l’Europe en particulier) est assez éclairante. Jusqu’aux années quatre-vingt-dix, les marchés américains étaient plus concurrentiels que les marchés européens. Aujourd’hui, cependant, beaucoup de marchés européens ont de moindres profits excessifs et de moindres barrières réglementaires à l’entrée. Deux secteurs américains illustrent très bien l’évolution de la concentration et des marges au cours du temps : les télécoms et le transport aérien.

Il y a vingt ans, l’accès à internet était moins cher aux Etats-Unis qu’en Europe. En 2018, le coût mensuel moyen d’un haut débit fixe est deux fois plus important aux Etats-Unis qu’en France ou en Allemagne. Le transport aérien est un autre secteur où les Etats-Unis ont reculé. La hausse de la concentration et des profits suit une vague de fusions controversées, notamment la fusion entre Delta et Northwest en 2008, celle entre United et Continental en 2010, celle entre Southwest et AirTran en 2011 ou encore celle entre American et US Airways en 2014. En Europe, au cours de la même période, la croissance des compagnies low cost a accentué la concurrence et poussé les prix à la baisse.

Les secteurs européens ne sont pas devenus moins chers et plus concurrentiels par hasard. Dans tous les cas que j’ai étudiés, il y a eu une action significative de la part des autorités, par exemple le retrait d’une barrière à l’entrée ou une action antitrust. Le secteur des télécoms français, par exemple, était en oligopole avec trois opérateurs historiques qui recouraient à un lobbying intense pour empêcher l’entrée d’un nouveau concurrent. L’oligopole fut remis en cause en 2011 lorsqu’un quatrième opérateur obtint une licence et les prix chutèrent de moitié dans les deux années suivantes.

Ces résultats sont surprenants. L’Europe, avec sa tradition de protection de champions nationaux, n’est pas le lieu où nous nous serions attendus à voir la concurrence s’intensifier. Les Etats-Unis, avec sa tradition de marchés libres, n’est pas le lieu où nous nous serions attendus à voir la concurrence refluer. Comment pouvons-nous alors expliquer ces évolutions ?

L’explication théorique pour l’Europe est en fait relativement simple. Quand les institutions du Marché unique de l’UE ont été conçues au début des années quatre-vingt-dix, les Etats-membres craignaient que chacun essaierait d’imposer son agenda domestique aux régulateurs communs. Gutiérrez et moi montrons que l’équilibre de Nash du jeu de la conception de la réglementation se déroule différemment au niveau de l’UE qu’au niveau national. Au niveau national, les politiciens jouissent de la possibilité d’influencer les régulateurs. Au niveau de l’UE, cependant, ils s’inquiètent de l’influence des autres Etats-membres. Par conséquent, les Etats-membres se sont accordés pour donner aux institutions européennes davantage d’indépendance qu’ils n’en donnent aux institutions nationales. C’est pourquoi l’Europe a fini avec la banque centrale et l’agence antitrust les plus indépendantes au monde. Au cours des vingt années suivantes, la logique du marché unique a peu à peu poussé l’Europe vers des marchés plus libres et plus concurrentiels.

Comprendre comment les marchés américains sont devenus moins concurrentiels est plus compliqué. Il y a plein d’explications possibles. Une partie de l’accroissement de la concentration s’explique par l’accroissement des rendements des actifs immatériels, comme Crouzet et Eberly l’expliquent. Le test crucial tient à la relation entre croissance de la productivité et concentration. Matias Covarrubias, Gutiérrez et moi constatons une corrélation positive entre changements de la concentration et croissance de la productivité dans les années quatre-vingt-dix. Cela suggère que la concentration était soit bénigne, soit le prix à payer pour atteindre une plus forte efficacité. Cependant, la corrélation est devenue négative dans les années deux mille, suggérant une plus forte prévalence de recherche de rentes. Malheureusement, c’est là où le manque de données (…) crée des défis empiriques. Il y a aussi des questions économétriques épineuses quand nous utilisons des données granulaires pour tester cette relation. Il faut reconnaître que nous n’avons pas de certitude ici.

Deux tendances qui sont spécifiques aux Etats-Unis dans les années deux mille nous aident à faire la lumière sur cette question. L’une est ce que Gutiérrez et moi avons qualifié d’échec de libre entrée. Quand les profits augmentent dans un secteur, de nouvelles entreprises doivent entrer dans ce dernier. Quand les profits diminuent, les firmes en place devraient sortir du marché ou se lancer dans des opérations de consolidation. La théorie économique prédit un surcroît d’entrées dans les secteurs où les valeurs boursières sont fortes relativement aux valeurs comptables, un indicateur connu sous le nom de ratio q de Tobin. Intuitivement, le q de Tobin mesure les profits attendus (tels qu’ils sont valorisés par le marché) par unité de coûts d’entrée (les valeurs comptables). Nous étudions si le nombre d’entreprises augmente dans les secteurs où le q de Tobin est élevé et diminue dans les secteurs où il est faible.

Le graphique 2 montre que la libre entrée était bien portante des années soixante aux années quatre-vingt-dix. L’élasticité positive implique, lorsque le q de Tobin médian d’un secteur augmentait, plus les entreprises entraient dans ce secteur. En l’occurrence, une hausse du q de Tobin d’une unité dans un secteur, par exemple de 1 à 2, coïncida avec une hausse du nombre d’entreprises dans ce secteur d’environ 10 % au cours des deux années suivantes. Ce qui est cohérent avec la libre entrée, les entreprises avaient tendance à entrer dans les secteurs à q élevé et à sortir des secteurs avec un faible q.

GRAPHIQUE 2 Élasticité des entrées nettes vis-à-vis du q de Tobin

Gutierrez_Philippon__elasticite_entrees_nettes_visa-vis_q_de_Tobin.png

Mais ce n’est plus le cas. L’élasticité a été quasiment nulle depuis 2000. Cela remet en cause le mécanisme de rééquilibrage fondamental qui était au cœur du raisonnement que développait l’école de Chicago pour conclure qu’il ne fallait pas s’inquiéter à propos de la domination de marché par une poignée de grandes entreprises. Si la libre entrée échoue, le raisonnement du laissez-faire s'écroule.

L’autre tendance frappante aux Etats-Unis durant les années deux mille est l’essor du lobbying de la part des entreprises et des contributions au financement des campagnes. Le lobbying et la réglementation peuvent expliquer l’échec de la libre entrée si les entreprises en place les utilisent pour altérer les règles du jeu. Les entreprises en place peuvent, par exemple, influencer l’application de la législation antitrust et de la législation relative aux fusions-acquisitions aussi bien que des réglementations allant des brevets et de la protection copyright à la réglementation financière, en passant par les accords de non-concurrence, la certification professionnelle et les échappatoires fiscales. Ce qui est cohérent avec ces idées, nous constatons que l’élasticité de l’entrée des entreprises au q de Tobin a davantage diminué dans les secteurs qui ont connu les plus forts accroissements de lobbying et de réglementations.

L’échec de la libre entrée a des implications négatives pour la productivité, l’égalité et le bien-être en général. Si le capital reste piégé dans les secteurs déclinants et n'est pas alloué vers les secteurs prometteurs, l’économie en souffre : la croissance de la productivité est faible, les salaires stagnent et les niveaux de vie peinent à s’améliorer. »

Thomas Philippon, « The economics and politics of market concentration », in NBER Reporter, n° 2019:4. Traduit par Martin Anota



aller plus loin...

« Les marchés européens sont plus concurrentiels que les marchés américains »

« Firmes stars, étoiles montantes ? »

« Faut-il s’inquiéter de la concentration des marchés aux Etats-Unis ? »

« Pourquoi les barrières à l’entrée se sont-elles renforcées aux Etats-Unis ? »

mardi 7 janvier 2020

Les nouveaux outils de la politique monétaire

« Depuis les années quatre-vingt, les taux d’intérêt autour du monde ont eu tendance à baisser, en conséquence d'une plus faible inflation, de forces démographiques et technologiques qui ont accru l’épargne désirée relativement à l’investissement désiré au niveau mondial, ainsi que d’autres facteurs. Bien que la faible inflation et de faibles taux d’intérêt puissent apporter certains bénéfices, le nouvel environnement suscite des problèmes pour les banques centrales. Ces dernières avaient traditionnellement eu recours aux baisses de taux d’intérêt de court terme pour stimuler des économies déprimées. Un niveau de taux d’intérêt généralement faible signifie que, face à une contraction économique ou une inflation indésirablement faible, les banques ont une moindre marge de manœuvre que par le passé pour procéder à une baisse conventionnelle des taux.

Cette contrainte sur la politique monétaire a beaucoup inquiété durant la crise financière mondiale et dans son sillage, comme la Réserve fédérale et d’autres banques centrales majeures ont réduit leurs taux de court terme à zéro ou quasiment. Avec leurs économies en chute libre et leurs méthodes traditionnelles épuisées, les banques centrales se sont tournées vers de nouveaux outils peu testés, notamment l’assouplissement quantitatif (quantitative easing) et le forward guidance. Les nouveaux outils de politique monétaire (leur fonctionnement, leur efficacité, leurs limites, leur capacité à accroître la marge de manœuvre dont disposent effectivement les autorités monétaires) sont le sujet de l’allocution présidentielle que j’ai donnée le 4 janvier à la conférence annuelle de l’American Economic Association à San Diego. Comme je l’explique ci-dessous, mon discours conclut que les nouveaux outils de politique monétaire sont efficaces et que, au vu des estimations actuelles du taux d’intérêt neutre, l’assouplissement quantitatif et le forward guidance peuvent fournir l’équivalent de 3 points de pourcentage additionnels de baisses de taux de court terme. L’article sur lequel mon discours s’est basé est disponible ici. Ci-dessous, je résume certaines de mes principales conclusions.

Les achats par la banque centrale d’actifs financiers de plus long terme, connus sous le nom d'assouplissement quantitatif (quantitative easing ou QE), se sont révélés être un outil efficace pour assouplir les conditions financiers et relancer l’activité économique lorsque les taux d’intérêt de court terme sont à leur borne inférieure. L’efficacité de l'assouplissement quantitatif ne dépend pas du fait qu’il soit ou non déployé durant une période de turbulences sur les marchés.

Le quantitative easing opère via deux principaux canaux : en réduisant l’offre nette d’actifs de plus long terme, ce qui accroît leurs prix et réduit leurs rendements ; et en signalant l’intention des autorités monétaires de maintenir les taux de court terme pendant une période prolongée. Ces deux canaux contribuèrent à assouplir les conditions financières dans l’ère d’après-crise.

Les premiers cycles de quantitative easing, comme le programme QE1 de la Fed au début de l’année 2009, ont eu un gros impact sur les marchés financiers quand ils furent annoncés, mais les annonces des cycles suivants, par exemple l’annonce du programme QE2 en novembre 2010, ont suscité une bien moindre réaction de la part des marchés. Cette différence amène à penser que le quantitative easing n’est efficace que lorsqu’il est déployé durant des périodes de turbulences sur les marchés, comme ce fut le cas au début de l’année 2009, mais pas à d’autres moments, ce qui amène douter de l’utilité du quantitative easing pour l’élaboration de la politique monétaire en temps normal. Cependant, comme le montre mon article, la plupart des études privilégie une autre explication en notant que ces derniers cycles de quantitative easing étaient largement anticipés par les participants de marché : du fait de cette anticipation, les effets attendus des programmes étaient déjà incorporés dans les cours des titres lorsqu’ils furent officiellement annoncés. Les études qui contrôlent les anticipations de marché quant au niveau et au contenu des achats d’actifs constatent que plusieurs programmes de QE se sont révélés puissants, avec des effets qui ne diminuent pas durant les périodes de calme sur les marchés ou lorsque la taille du bilan de la banque central augmente.

D’autres études, basées sur des modèles de structure des taux d’intérêt, constatent que les effets des achats d’actifs sur les rendements étaient durables et économiquement significatifs. Par exemple, une étude méticuleuse constate que l’effet cumulé des achats d’actifs de la Fed sur les rendements des bons du Trésor à dix ans a été supérieur à 120 points de base à l’instant où les achats nets stoppèrent. Les études des programmes d’achats d’actifs au Royaume-Uni et dans la zone euro constatent que les effets sur les marchés financiers sont quantitativement similaires à ceux observés aux Etats-Unis. Le canal de la signalisation (signaling channel) du quantitative easing était également important et il restait puissant. Comme je l’ai souligné lorsque j’étais président de la Fed, c’est ce que montrait en négatif l’"accès de colère" (taper tantrum) des marchés en 2013, la perspective que les achats d’actifs puissent ralentir amène les participants de marché à s’attendre à des hausses plus rapides du taux directeur.

Le forward guidance, bien qu’il ne soit pas particulièrement efficace dans l’immédiate période d’après-crise, est devenu de plus en plus puissant au cours du temps comme il a gagné en précision et en agressivité. Les changements dans le cadre de politique économique peuvent rendre le forward guidance efficace à l’avenir.

Le forward guidance est la communication de la banque centrale à propos de ses anticipations relatives à l’évolution de l’économie et de ses projets de politique monétaire. Il aide le public à comprendre comment les autorités monétaires vont répondre aux changements des perspectives économiques et permet aux autorités monétaires de s’engager à des politiques de taux "plus faibles plus longtemps". De telles politiques, en convainquant les participants au marché que les autorités monétaires vont retarder la hausse du taux directeur même si l’économie se renforce, peut aider à assouplir des conditions financières et relancer l’activité économique dans la période courante.

Le forward guidance de la Fed en 2009-2010 était qualitatif par nature et n’a pas réussi à convaincre les participants de marché que les taux resteraient plus faibles plus longtemps. Cependant, à partir de 2011, un guidage plus explicite qui lia tout d’abord le taux directeur à des dates spécifiques, puis au comportement du chômage et de l’inflation, persuada les marchés que les taux resteraient faibles. Le guidage devint également plus explicite, sophistiqué et agressif dans d’autres grandes banques centrales. Par exemple, la Banque d’Angleterre lia aussi le guidage aux conditions économiques, tandis que la BCE a utilisé le guidage pour aider le public à comprendre la relation dans sa boîte à outils de politique monétaire.

Le forward guidance pourrait gagner en efficacité s’il était incorporé dans le cadre formel de la banque centrale. Par exemple, l’idée de "politiques de compensation" (makeup policies) que considère actuellement la Fed, celle de compenser l’inflation inférieure à la cible au cours d’une période par une inflation supérieure à la cible au cours de la période suivante, revient à mettre le forward guidance en place avant la prochaine rencontre avec les taux nuls. Cette préparation rendrait le guidage plus clair, plus prévisible et plus crédible lorsqu’il sera nécessaire.

Certaines banques centrales étrangères majeures ont fait un usage efficace d’autres nouveaux outils de politique monétaire, tels que des achats de titres privés, les taux d’intérêt négatifs, le financement de programmes de prêt et de contrôle de courbe des taux.

Chacun de ces outils a des coûts et des bénéfices, mais ils se sont aussi révélés utiles dans certaines circonstances. La Fed n’a pas utilisé d'autres nouveaux outils que le quantitative easing et le forward guidance, mais, dans les limites juridiques de son action, elle ne doit pas exclure d’autres options. Par exemple, le contrôle de la courbe des taux (à un horizon plus court que la Banque du Japon, disons deux ans) peut être utilisé pour améliorer le forward guidance de la Fed, comme l’a récemment suggéré Lael Brainard, l’un des gouverneurs de la Fed. Le financement des programmes de prêts peut être utile dans des situations où les contraintes sur le prêt bancaire et sur la disponibilité du crédit nuisent à la transmission de la politique monétaire. La Fed doit aussi considérer l’idée de maintenir une ambiguïté constructive à propos de l’usage futur des taux négatifs, parce qu’il y a des situations où les taux de court terme négatifs peuvent fournir une marge utile à la politique monétaire ; et parce qu’exclure complètement les taux négatifs peut limiter la capacité future de la Fed à réduire les taux de long terme par le quantitative easing ou d’autres moyens en créant un plancher effectif pour les taux de long terme.

Pour la plus grande partie, les coûts et risques des nouveaux outils de politique monétaire se sont révélés être modestes. L’exception possible concerne les risques d’instabilité financière, qui requièrent de la vigilance.

L’incertitude à propos des coûts et des risques des nouveaux outils de politique monétaire rend les banques centrales prudentes à propos de leur usage, du moins initialement. Pour l’essentiel, ces coûts et risques (notamment les possibilités d’un dysfonctionnement des marchés, une forte inflation, la difficulté de sortir de ces politiques, la hausse des inégalités de revenu et les moins-values sur le portefeuille de la banque centrale) se sont révélés modestes. Par exemple, les inquiétudes à propos de la forte inflation découlaient d’un monétarisme crû qui ne considérait pas l’idée que la vitesse de circulation de la base monétaire chuterait avec de faibles taux d’intérêt. L’inflation a récemment été trop faible plutôt que trop élevée. La littérature internationale sur les effets distributionnels de la politique monétaire constate que, lorsque tous les canaux de l’influence de la politique monétaire sont pris en compte, l’assouplissement monétaire a des effets distributionnels faibles et peut-être même progressifs. Le risque de moins-values sur le portefeuille de la Fed n’a jamais été élevé, mais au cours de la dernière décennie la Fed a remis plus de 800 milliards de dollars en profits au Trésor, trois fois plus qu’avant-crise.

Il y a plus d’incertitude à propos des liens entre l’argent facile et les taux faibles, d’un côté, et les risques d’instabilité financière, de l’autre. L’assouplissement monétaire fonctionne en partie en accroissant la propension des investisseurs financiers et des prêteurs à prendre des risques, ce que l’on appelle le canal de la prise de risque (risk-taking channel). En périodes de récession et de turbulences financières, encourager les investisseurs financiers et les prêteurs à prendre des risques raisonnables est un objectif approprié pour la politique monétaire. Les problèmes surviennent quand, à cause d’un comportement qui n’est pas parfaitement rationnel ou de mauvaises incitations institutionnelles, la prise de risque devient excessive. La vigilance et des politiques appropriées, notamment les politiques macroprudentielles et réglementaires, sont essentielles.

Une question connexe est si les nouveaux outils de politique monétaire font peser de plus grands risques d’instabilité que les politiques traditionnelles ou que l’environnement de faible taux qui perdurerait si la banque centrale se contentait d'actions conventionnelles. Il n’y a pas beaucoup de preuves empiriques suggérant que ce serait le cas. Par exemple, le quantitative easing aplatit la courbe des taux, ce qui réduit l’incitation pour une transformation de maturités risquée ; il écarte le risque de duration, ce qui accroît la capacité de prise de risque nette du secteur privé ; et il accroît l’offre d’actifs sûrs, liquides.

Le supplément de marge de manœuvre que les nouveaux outils peuvent donner à la politique monétaire dépend crucialement du niveau du taux d’intérêt nominal neutre. Si ce dernier est compris entre 2 et 3 %, comme le suggèrent les estimations pour les Etats-Unis, alors les simulations de modèle suggèrent que le quantitative easing et le forward guidance peuvent fournir un supplément de marge de manœuvre équivalent à 3 points de pourcentage, ce qui compenserait largement les effets de la borne inférieure sur les taux. Pour cet éventail du taux neutre, il est préférable d’utiliser les nouveaux outils de politique monétaire que de relever la cible d’inflation pour accroître la marge de manœuvre de la politique monétaire.

Le taux d’intérêt neutre est le taux d’intérêt compatible avec le plein emploi et l’inflation à la cible à long terme. A long terme, au taux d’intérêt neutre la politique monétaire n’est ni expansionniste, ni restrictive. La plupart des estimations actuelles pour le taux nominal neutre pour les Etats-Unis sont compris entre 2 et 3 %. Par exemple, la prévision médiane des participants du comité de politique monétaire de la Fed pour le taux des fonds fédéraux à long terme est de 2,5 %. Les modèles basés sur les données macroéconomiques et financières donnent actuellement des estimations du taux neutre américain entre 2,5 et 3 %.

Mon étude rapporte des résultats tirés de simulations réalisées à partir de FRB/US, le principal modèle macro-économétrique du comité de la Réserve fédérale, afin de comparer les performances à long terme de diverses politiques monétaires alternatives. Quand le taux nominal neutre est faible, les politiques traditionnelles (qui dépendent de la gestion du taux d’intérêt de court terme et n’utilisent pas les nouveaux outils) réalisent de mauvaises performances dans les simulations, ce qui est cohérent avec les précédentes études. Le problème avec les politiques traditionnelles est qu’elles n’ont plus de marge de manœuvre lorsque le taux de court terme bute sur zéro.

Je compare les politiques traditionnelles aux politiques couplées à une combinaison de quantitative easing et de forward guidance. (…) Quand le taux nominal neutre est compris entre 2 et 3 %, alors les simulations suggèrent que cette combinaison de nouveaux outils de politique monétaire peut fournir un supplément de marge de manœuvre équivalent à 3 points de pourcentage. Autrement dit, avec l’aide du quantitative easing et du forward guidance, la politique monétaire réalise d’aussi bonnes performances qui si le taux neutre nominal était compris entre 5 et 6 %. Dans les simulations, le supplément de 3 points de pourcentage de la marge de manœuvre de la politique monétaire compense les effets de la borne inférieure zéro (zero lower bound) sur les taux de court terme.

Une autre façon de gagner en marge de manœuvre consiste à relever la cible d’inflation de la Fed, puisque cela devrait en définitive relever le taux d’intérêt nominal neutre. Cependant, pour obtenir un supplément de marge de manœuvre équivalent à 3 points de pourcentage comme permettent de le faire le quantitative easing et le forward guidance, cela nécessiterait de relever la cible d’inflation d’au moins 3 points de pourcentage, c’est-à-dire de 2 à 5 %. Cette approche aurait d’importants coûts de transition (notamment l’incertitude et la volatilité associées au désancrage des anticipations d’inflation et à leur réancrage à un niveau plus élevé), ainsi que les coûts d’une inflation en permanence plus élevée. Tant que le taux d’intérêt neutre est supérieur à 2 %, il semble préférable d’utiliser activement les nouveaux outils de politique monétaire plutôt que de relever la cible d’inflation. Il y a cependant une réserve : Si le taux d’intérêt nominal neutre est bien inférieur à 2 %, alors les nouveaux outils n’ajoutent pas assez de marge de manœuvre de politique monétaire pour compenser les effets de la borne inférieure. Dans ce cas, d’autres mesures pour accroître la marge de politique monétaire, notamment le relèvement de la cible d’inflation, peuvent s’avérer nécessaire.

Mes conclusions relativement optimistes à propos des nouveaux outils monétaires dépendent crucialement du maintien du taux d’intérêt neutre au-delà de 2 %. Dans les simulations, quand le taux nominal neutre est bien inférieur à 2 %, toutes les stratégies monétaires deviennent significativement moins efficaces. Dans ce cas, bien que le quantitative easing et le forward guidance permettent de donner un supplément de marge de manœuvre à la politique, les nouveaux outils peuvent ne pas parvenir à compenser les effets de la borne inférieure. En outre, dans ce cas, toute approche de politique monétaire, utilisant ou non les nouveaux outils, est susceptible d’impliquer des périodes prolongées au cours desquelles les taux de court terme sont à leur borne inférieure, aussi bien que des rendements de plus long terme souvent nuls ou négatifs, une situation qui génère des risques d’instabilité financière ou d’autres coûts.

Actuellement, les taux d’intérêt de court terme et de long terme aux Etats-Unis sont inférieurs à 2 %. Or, comme je l’ai noté, les estimations du taux d’intérêt neutre sont comprises entre 2 et 3 %, ce qui implique que la politique monétaire est aujourd’hui légèrement accommodante. Mes résultats de simulations dépendent du taux neutre, non du niveau courant des taux d’intérêt. Il y a néanmoins une forte incertitude à propos des niveaux courants et futurs du taux nominal neutre. S’il s’avère qu’ils sont inférieurs à 2 %, alors cela plaiderait en faveur d’un relèvement modeste de la cible d’inflation et peut-être d’une plus grande intervention de la politique budgétaire pour faire face aux contractions de l’activité économique. Pour l’instant, une approche prudente consisterait à accroître la contracyclicité de la politique budgétaire, par exemple en accroissant l’usage des stabilisateurs automatiques.

Il y a une leçon à retenir pour toutes les banques centrales : il est crucial de maintenir l’inflation et les anticipations d’inflations à proximité de la cible.

Mes simulations ne s’appliquent qu’aux Etats-Unis et les conclusions quantitatives ne peuvent être directement étendues à d’autres pays. Deux conclusions s’appliquent toutefois ailleurs : (1) les nouveaux outils de politique monétaire, notamment le quantitative easing et le forward guidance, doivent faire partie intégrante de la boîte à outils de la politique monétaire ; (2) la politique monétaire en général est d’autant moins efficace que le taux d’intérêt neutre est faible. En Europe et au Japon, où la politique monétaire ne parvient pas à atteindre ses objectifs, l’essentiel du problème découle des anticipations d’inflation qui ont trop chuté, ce qui a déprimé les taux d’intérêt nominaux neutres et limité la marge de manœuvre dont disposent les banques centrales. Dans ces juridictions, la politique budgétaire est nécessaire pour relever les anticipations d’inflation. Si elle peut effectivement être utilisée, alors la politique monétaire, complétée par les nouveaux outils monétaires, devrait retrouver l’essentiel de sa puissance.

Dans les dernières décennies du vingtième siècle, les principaux défis pour les banques centrales étaient l’inflation élevée et l’instabilité des anticipations d’inflation. Les présidents de la Fed Paul Volcker et Alan Grenspan ont gagné la guerre en ramenant l’inflation à de faibles niveaux et en ancrant les anticipations d’inflation. L’inflation bénigne a promu à son tour la croissance économique et la stabilité, notamment en donnant aux autorités monétaires plus de marge de manœuvre pour répondre aux fluctuations de l’emploi et de la production sans s’inquiéter d’une forte inflation. Nous avons presque bouclé la boucle : dans un monde où de faibles d’intérêt nominaux neutres menacent la capacité des banques centrales à répondre aux récessions, la faible inflation peut être dangereuse. En conformité avec les cibles d’inflations "symétriques" qu’elles ont indiqué suivre, la Fed et d’autres banques centrales doivent s’attaquer à une inflation trop faible au moins aussi vigoureusement qu’elles résistent à une inflation trop élevée. Bien que les nouveaux outils monétaires ont montré leur utilité et peuvent gagner en efficacité dans le futur, il est crucial de maintenir l’inflation et les anticipations d’inflation proches de la cible pour préserver ou accroître la marge de manœuvre des banques centrales. »

Ben Bernanke, « The new tools of monetary policy », 4 janvier 2020. Traduit par Martin Anota



aller plus loin...

Quelle est l’efficacité de l’assouplissement quantitatif ?

La stratégie de forward guidance

Quelle est l’efficacité du forward guidance à la borne inférieure zéro ?

A zéro et en-deçà. Que nous enseigne la récente expérience avec les taux d’intérêt négatifs ?

Comment la politique monétaire non conventionnelle affecte les inégalités ?

jeudi 2 janvier 2020

L’héritage de l’austérité destructrice

« Il y a une décennie, le monde sortait à peine de la pire crise économique qu'il ait connue depuis les années 1930. Les marchés financiers étaient stabilisés, mais l’économie réelle était encore dans un état lamentable, avec environ 40 millions de chômeurs en Europe et en Amérique du Nord. Malheureusement, les responsables de la politique économique des deux côtés de l’Atlantique ont passé la première moitié des années 2010 à faire exactement ce que la théorie et l’Histoire leur a dit de ne pas faire. Et cette mauvaise orientation de la politique économique a eu des conséquences durables tant au niveau économique qu’au niveau politique. En l’occurrence, l’obsession vis-à-vis des déficits entre 2010 et 2015 prépara le terrain pour la crise actuelle de la démocratie.

Pourquoi l’austérité dans une économie déprimée est-elle une mauvaise idée ? Parce qu’une économie n’est pas comme un ménage, dont le revenu et les dépenses sont deux choses séparées. Dans l’économie dans son ensemble, mes dépenses constituent votre revenu et vos dépenses constituent mon revenu. Que se passe-t-il si tout le monde essaye de réduire ses dépenses au même instant, comme ce fut le cas dans le sillage de la crise financière ? Les revenus de chacun diminuent. Donc, pour éviter la dépression, vous avez besoin que quelqu’un (à savoir le gouvernement) maintienne ou, mieux, accroisse ses dépenses, alors que tous les autres réduisent les leurs. C’est pour cela qu’en 2009 la plupart des gouvernements s’étaient engagés pour un minimum de relance budgétaire.

En 2010, cependant, le discours politique a été accaparé par des personnes insistant sur l’idée que nous devions réduire immédiatement les déficits sous peine de connaître le même sort que la Grèce, ainsi que sur l’idée que les baisses de dépenses publiques ne nuiraient pas à l’économie dans la mesure où elles nourriraient la confiance. Les fondements intellectuels pour ces affirmations ont toujours été fragiles ; la poignée d’articles académiques plaidant en faveur de l’austérité n’a pas tenu bon à un examen méticuleux. Et les événements confirmèrent rapidement la macroéconomie de base : les Etats-Unis ne sont pas devenus la Grèce et les pays qui embrassèrent une austérité brutale souffrirent de sévères contractions de l’activité économique.

Mais pourquoi le monde politique et les faiseurs d’opinion ont plaidé pour l’austérité alors qu’ils auraient dû combattre le chômage ? Une réponse, qui ne doit pas être ignorée, est que fulminer contre les malheurs des déficits publics vous fait paraître responsable, du moins aux yeux de ceux qui n’ont pas étudié la question ou qui n’ont pas assez suivi l’état de la recherche économique. C’est pourquoi je me suis souvent moqué des centristes et des grandes figures des médias qui prêchèrent en faveur de l’austérité en les qualifiant de "personnes très sérieuses" (very serious people). En effet, à ce jour, les milliardaires avec des ambitions politiques imaginent que s’alarmer à propos de la dette publique démontre leur sérieux.

En outre, l’élan pour l’austérité a toujours été impulsé en grande partie par des motifs cachés. En l’occurrence, les craintes autour de la dette ont été utilisées comme prétexte pour réduire les dépenses dans les programmes sociaux et aussi comme moyen pour réfréner les ambitions des gouvernements de centre-gauche.

Ici aux Etats-Unis, les Républicains ont passé leur temps durant les mandats d’Obama à se déclarer profondément inquiets à propos des déficits budgétaires, contraignant le pays à connaître plusieurs années de baisses de dépenses publiques qui ont freiné la reprise économique. A l’instant même où Donald Trump accéda à la Maison Blanche, toutes ces supposées inquiétudes s’évanouirent, donnant raison à tous ceux qui affirmaient depuis le début que les Républicains qui se présentaient comme des faucons anti-déficit ne croyaient pas ce qu’ils disaient.

Ce keynésianisme grossier est, par ailleurs, probablement la principale raison pour laquelle la croissance économique des Etats-Unis a été (non pas fabuleuse, mais) bonne au cours des deux dernières années, même si la baisse d’impôts de 2017 n’est absolument pas parvenue à délivrer la hausse promise de l’investissement privé : les dépenses fédérales ont augmenté à un rythme qui n’avait pas été vu depuis les premières années de la précédente décennie. Mais pourquoi est-ce que cette histoire importe-t-elle ? Après tout, aujourd’hui, les taux de chômage sont proches ou inférieurs à leurs niveaux d’avant-crise. Peut-être qu’il y a eu beaucoup de souffrances inutiles entretemps, mais ne sommes-nous pas dans une bonne situation à présent ?

Non, nous ne le sommes pas. Les années d’austérité ont laissé plusieurs cicatrices durables, en particulier au niveau politique. Il y a plusieurs explications pour la rage populiste qui déstabilise la démocratie dans le monde occidental, mais les effets pervers de l’austérité sont au début de la liste. En Europe de l’Est, les partis nationalistes sont arrivés au pouvoir après que les gouvernements de centre-gauche aient aliéné la classe laborieuse en se laissant aller aux politiques d’austérité. En Grande-Bretagne, le soutien en faveur des partis d’extrême-droite est plus fort dans les régions qui ont été les plus frappées par l’austérité budgétaire. Et aurions-nous eu Trump si plusieurs années d’austérité malavisée n’avaient pas retardé la reprise économique sous Barack Obama ?

En outre, je pense que cette manie de l’austérité a profondément endommagé la crédibilité des élites. Si les familles ordinaires ne croient plus que les élites traditionnelles sachent ce qu’elles font ou qu’elles s’inquiètent des gens comme elles, eh bien, ce qui s’est passé durant les années d’austérité suggère qu’ils ont raison. Certes, il est illusoire de s’imaginer que des gens comme Trump vont mieux servir leurs intérêts, mais il est bien plus difficile de dénoncer un arnaqueur quand vous avez vous-même passé plusieurs années à promouvoir des politiques destructrices simplement parce qu’elles semblaient sérieuses.

Bref, nous sommes dans le chaos dans lequel nous sommes en grande partie à cause de la mauvaise voie prise par les politiques il y a une décennie. »

Paul Krugman, « The legacy of destructive austerity », 30 décembre 2019. Traduit par Martin Anota



« La fée confiance ou le mythe de l’austérité expansionniste »

« Quelles ont été les répercussions de l’austérité dans le sillage de la Grande Récession ? »

« L’austérité nuit à la croissance de long terme »

mardi 17 décembre 2019

« Le manque de concurrence a fait perdre 1.250 milliards de dollars aux travailleurs américains »



« (…) ProMarket : Votre livre The Great Reversal est une étude minutieuse de la concentration des secteurs et des implications d’un pouvoir de marché des entreprises incontrôlé, mais il débute avec une question simple : "Pourquoi les forfaits de portables sont-ils bien plus chers aux Etats-Unis qu’en Europe ?"

Philippon : Ce fut l’une des questions fondamentales auxquelles je voulais répondre. Il y a beaucoup de biens et services qui étaient habituellement bien moins chers aux Etats-Unis qu’en Europe. Ils sont tous maintenant bien plus chers aux Etats-Unis. Je voulais comprendre ce qui s’est passé. Il y a une très bonne étude à ce sujet réalisée par Luigi Zingales et Mara Faccio. Ils ont utilisé données différentes de celles que je regardais initialement, mais ils sont arrivés à la même conclusion, à savoir que les prix sont 2,5 fois plus élevés aux Etats-Unis qu’en Europe. C’est fou. Ce n’est pas une différence de 10 % ; c’est une différence de 150 %. Ce n’est pas quelque chose que vous pouvez expliquer en disant que les Etats-Unis sont un peu plus riches et donc que certains biens et services sont plus chers ici.

Initialement, je ne pensais pas qu’il s’agissait d’un schéma large, systémique. Je pensais juste avoir trouvé quelques exemples. Mais ce que j’ai découvert à travers mes travaux avec Germán Gutiérrez, c’est qu’il y en a beaucoup. Il ne s’agit pas seulement des forfaits de portables. Les billets d’avions étaient aussi auparavant bien moins chers et ils sont aujourd’hui bien plus chers aux Etats-Unis qu’en Europe. Il s’agit aussi des télécommunications, un domaine où les Etats-Unis sont particulièrement mauvais : le coût du haut débit est de 68 dollars par mois en moyenne aux Etats-Unis. En France, il est de 31 dollars. En Allemagne et au Japon, il est de 35 dollars ; en Corée du Sud, il est de 32 dollars. Je trouve cela choquant. Je me souviens très bien lorsque j’étais venu aux Etats-Unis en 1999 et qu’il y était bien moins cher de s’y connecter à Internet qu’en Europe.

ProMarket : Qu’est-ce qui explique ce changement ?

Philippon : J’ai une immense dette envers la Brookings et Janice Eberly, qui m’avait demandé d’écrire un article sur les raisons pour lesquelles l’investissement des entreprises aux Etats-Unis a été très faible. C’est une énigme, car les taux de profit aux Etats-Unis sont extrêmement élevés, si bien que les entreprises gagnent beaucoup d’argent. Les taux d’actualisation sont très faibles, donc elles peuvent emprunter à de faibles coûts. Les cours boursiers reflètent cela en atteignant des niveaux très élevés. Ces facteurs tendent habituellement à prédire un investissement élevé, mais nous n’avons pas connu d’investissement élevé.

Il y a deux explications pour ce qui se passe. La première est qu’il y a davantage d’investissement dans les actifs immatériels, or un tel investissement est difficile à mesurer correctement, et cela explique effectivement une partie de la différence. Mais en fait c’est surtout parce que, ce que nous voyons dans les données, c’est que les profits élevés reflètent essentiellement des rentes de monopole. Une fois que vous comprenez cela, alors l’énigme disparaît. Par définition, un monopoleur réalise un taux de profit élevé, mais il ne désire pas accroître ses capacités de production. Cela peut facilement expliquer les fortes valorisations boursières, les flux de trésorerie élevés et le faible investissement. Alors ce qu’il faut alors se demander, c’est pourquoi il y a plus de pouvoir de monopole aujourd’hui qu’il y a vingt ans.

ProMarket : Les Etats-Unis, écrivez-vous, étaient d'habitude présentés comme un modèle pour les marchés concurrentiels, tandis que l’Europe était perçue comme désespérément monopolistique. Quand est-ce que cette relation a commencé à s’inverser ?

Philippon : Les Etats-Unis avaient des marchés hautement concurrentiels à la fin des années quatre-vingt-dix, mais ils allèrent dans la mauvaise direction, tandis que l’Europe partit d’un faible niveau de concurrence, mais alla dans la bonne direction. Quelque part à la fin des années deux mille, leurs niveaux de concurrence convergèrent. Aujourd’hui, beaucoup de marchés sont en fait plus chers et moins concurrentiels aux Etats-Unis qu’en Europe. D’où le "grand renversement" (great reversal).

L’ironie est que toutes les bonnes idées qui contribuèrent à libéraliser les marchés européens sont venues des Etats-Unis. La raison pour laquelle les billets d’avion sont moins chers en Europe est parce qu’il y a des compagnies low-cost en concurrence avec les vieilles grandes compagnies. Ces compagnies low-cost se sont en partie inspirées de ce que le Southwest faisait aux Etats-Unis. Les réglementations européennes en vigueur sur les marchés des biens se sont toutes inspirées des Etats-Unis à la fin des années quatre-vingt-dix. C’est pourquoi nous avons de moindres barrières à l’entrée et pourquoi le nombre de jours qu’il faut pour ouvrir une entreprise en Europe est passé de 30 à 5. Il y a vingt ans, les Etats-Unis étaient bien en avance sur l’Europe à ce niveau. C’est ainsi que nous avons rendu les marchés européens plus concurrentiels : essentiellement en nous inspirant de ce qui marchait aux Etats-Unis et en le reproduisant. L’idée que les marchés libres sont bons, que vous devez avoir de la concurrence, ce ne sont pas des idées propres à l’Europe. Elles viennent des Etats-Unis. (...)

ProMarket : Vous identifiez la période où cours de laquelle l’Europe et les Etats-Unis se sont "inversés" au début des années deux mille. D’autres estiment que la concurrence américaine a commencé à baisser à partir des années quatre-vingt.

Philippon : Je ne suis pas d’accord avec ceux qui affirment que les Etats-Unis ont commencé à perdre en concurrence dans les années quatre-vingt ou même quatre-vingt-dix. Je pense qu’ils se trompent, parce qu’ils oublient que la concentration n’est pas toujours une mauvaise chose. Vous pouvez avoir une bonne concentration et une mauvaise concentration. Nous trouvons de bons exemples de bonne concentration, où vous avez des marchés plus concurrentiels et des firmes meneuses plus efficaces qui accroissent leurs parts de marché. Si vous avez plus de concurrence, alors les producteurs les plus faibles sont évincés du marché et vous vous retrouvez avec un marché à la fois plus concurrentiel et plus concentré. C’est ce qui s’est passé dans une large mesure aux Etats-Unis dans les années quatre-vingt et quatre-vingt-dix. C’était un bon type de concentration.

ProMarket : Ce genre de raisonnement qui permit ce que vous appelez la bonne concentration n’est-il pas similaire au raisonnement qui permit à la mauvaise concentration de prendre le dessus ? N’est-ce pas la "bonne concentration" qui est à l’origine du relâchement du droit antitrust qui conduisit à la "mauvaise" concentration ?

Philippon : Oui. Je me réfère aux marchés effectifs, pas à l’idéologie sous-jacente. Pour le marché concret, je pense que le problème aux Etats-Unis commence à la fin des années quatre-vingt-dix ou au début des années deux mille. Avant, nous avions essentiellement une bonne concentration et aussi une régulation antitrust puissante. Le procès contre AT&T s’est déroulé dans les années quatre-vingt, sous Reagan, et il constitue le plus grand procès antitrust de l’histoire. A la fin des années quatre-vingt-dix, vous avez eu le procès Microsoft. Il n’est pas exact que la mise en application du droit antitrust était très lâche. (…)

Si vous regardez le cœur du raisonnement de l’école de Chicago, vous trouvez l’idée que les hauts profits attirent toujours une nouvelle concurrence. En conséquence, vous n’avez jamais à vous inquiéter du pouvoir de monopole. (…) Vous n’avez pas à vous inquiéter d’un éventuel excès de pouvoir de marché de la part des entreprises si celui-ci mène à des profits excessifs, parce que de nouveaux rivaux vont alors entrer sur le marché. Ces entrées vont maintenir le système à l’équilibre. C’est cela l’idée clé. Le problème est que les membres de l’école de Chicago ont misé sur cette idée sans prendre le temps de se demander si elle était vraiment exacte. Ce que les données montrent, c’est qu’elle était peut-être exacte dans les années soixante-dix et quatre-vingt, quand ils faisaient ce raisonnement, mais qu’elle ne l’est plus aujourd’hui. Depuis 2000, la corrélation entre l’entrée et le profit au niveau sectoriel a cessée de devenir positive pour devenir essentiellement nulle pendant les 15 dernières années. Dans un monde où les entrées n’équilibrent pas les profits excessifs, alors la vision de l’école de Chicago selon laquelle vous n’avez pas à vous inquiéter du pouvoir de marché des entreprises devient inexacte.

L’idée selon laquelle la libre entrée va toujours équilibrer le système était très naïve, je pense. D’un autre côté, l’une des raisons pour lesquelles nous n’avons pas de libre entrée dans plusieurs marchés américains aujourd’hui tient aux réglementations gouvernementales. L’école de Chicago a toujours fait part de ses craintes à l’idée que les politiciens et les régulateurs soient capturés par les lobbyistes. C’est sur ce point que l’école de Chicago a raison selon moi. (...)

ProMarket : Vous avez calculé que le manque de concurrence a appauvri les travailleurs américains de 1.250 milliards de dollars de revenu. Comment êtes-vous parvenu à ce chiffre ?

Philippon : Supposez que vous reveniez au niveau de concurrence que vous aviez aux Etats-Unis en 2000. En cherchant quel impact cela aurait directement sur les prix aujourd’hui, mon estimation est que cela aurait économisé environ 300 dollars par mois pour le ménage américain médian. Etant donné que beaucoup de ménages déclarent ne pas être capables de faire face à une facture inattendue de 500 dollars, c’est énorme. En termes d’économie directe par an pour l’ensemble des ménages américains, c’est quelque chose comme 500 à 600 milliards de dollars d’économie directe chaque année, juste en raison de prix plus faibles. Une fois que vous prenez en compte qu’un surcroît de concurrence et de moindres prix mènent à un surcroît d’activité, d’emploi et d’investissement, alors cela se traduit par une perte du PIB privé équivalente à 1.000 milliards de dollars. Bien sûr, ce ne serait pas neutre. Des prix plus faibles signifient que les profits seraient plus faibles, d’environ 250 milliards de dollars et que le revenu du travail croîtrait de 1.250 milliards de dollars. C’est beaucoup d’argent. (...)

ProMarket : vous consacrez une grande partie du livre à l’utilisation du lobbying par les entreprises en vue d’obtenir des régulations qui protègent leurs rentes de monopole. Quelles tendances que vous décrivez (le faible investissement, les prix élevés, la concentration croissante) résultent du lobbying des firmes contre la concurrence ?

Philippon : Je pense que cela en explique une grande partie, mais il est très difficile d’avoir une estimation précise dans la mesure où les données sur le lobbying ne sont pas très bonnes. Ce qui me frappe est que même avec les données dont nous disposons, les effets du lobbying sont toujours très manifestes au niveau étatique, au niveau fédéral, au niveau sectoriel : lorsque vous voyez une forte poussée du lobbying, les entreprises réussissent à obtenir les régulations qu’elles veulent ou à éviter des poursuites antitrust. Plus nous peaufinons les données, plus c’est cohérent avec cette idée. Mais, bien sûr, les entreprises en place peuvent aussi utiliser des stratégies qui limitent la concurrence sans recourir au lobbying : elles peuvent adopter des stratégies prédatrices ou menacer d’utiliser des stratégies prédatrices, elles peuvent acheter des concurrents naissants, etc. (...)

ProMarket : Vous semblez soutenir la déréglementation. Vous écrivez que la déréglementation stimule la créativité et l’innovation et accroît la demande de travailleurs qualifiés. Beaucoup affirmeraient que la déréglementation a aussi contribué à l’essor de la concentration et du pouvoir de marché.

Philippon : Cela dépend de ce que vous avez en tête quand vous parlez de réglementation et de déréglementation. Vous devez toujours considérer les choses en termes de bonnes et de mauvaises régulations. "Nous devons davantage réglementer", cela n’existe pas. Nous devons bien réglementer. Comme principe, toute nouvelle réglementation considérée aux Etats-Unis devrait être jugée en partie selon la question fondamentale suivante : "va-t-elle créer des barrières à l’entrée ?" Quand vous arrivez au point où le marché est aussi dominé par les grosses firmes, cela devrait être une priorité. Cela signifie qu’à certains moments vous allez vouloir tuer certaines réglementations et qu’à d’autres moments vous voudrez avoir une certaine réglementation à cause de cela. Je vais vous donner un exemple. Imaginons que vous forciez les banquez à avoir une interface que les gens pourraient utiliser pour partager leurs données bancaires. C’est une réglementation qui accroîtrait l’entrée parce que vous permettrez aux entreprises de fintech de concurrencer les banques pour fournir des conseils aux consommateurs. (...) »

Thomas Philippon, « The lack of competition has deprived American workers of $1.25 trillion of income », entretien in ProMarket, 9 décembre 2019. Traduit par Martin Anota



aller plus loin...

« Les marchés européens sont plus concurrentiels que les marchés américains »

« Firmes stars, étoiles montantes ? »

« Faut-il s’inquiéter de la concentration des marchés aux Etats-Unis ? »

« Pourquoi les barrières à l’entrée se sont-elles renforcées aux Etats-Unis ? »

dimanche 15 décembre 2019

Qu’y a-t-il de si mauvais avec l’incertitude ?

« La seule certitude en politique aujourd’hui est celle qu’elle est incertaine. D’un point de vue britannique, il y a le jeu d’échecs apparemment sans fin autour du Brexit (…). Je suis sûr qu’il ne m’est pas nécessaire d’évoquer la situation aux Etats-Unis.

L’idée répandue est que l’incertitude politique est une mauvaise nouvelle, du moins pour l’économie. Est-ce réellement le cas ? Et si c’est le cas, pourquoi ? (…)

Les preuves empiriques tirées de la recherche menée par plusieurs économistes suggèrent que l’incertitude est en effet un frein pour l’activité économique. Nuno Limão et ses collègues ont montré que l’incertitude à propos de la politique commerciale est elle-même un genre de barrière à l’échange. Meredith Crowley et ses collègues ont constaté que les entreprises britanniques étaient moins susceptibles d’entrer sur les marchés de l’UE et plus susceptibles d’en sortir, si ces marchés étaient plus exposés au risque d’un effondrement dans les négociations du Brexit. Et Nicholas Bloom a constaté que l’incertitude, mesurée de plusieurs façons, tend à être une cause des récessions aussi bien que leur conséquence. Donc le problème est réel, mais qu’est-ce qui provoque exactement cela ?

Une théorie est qu’il y a quelque chose de profondément dérangeant à propos de l’ambigüité. En 1961, un jeune économiste prometteur appelé Daniel Ellsberg a exploré cette question dans le Quarterly Journal of Economics. (Ellsberg a ensuite acquis une plus large notoriété en devenant le lanceur d’alerte qui fit fuiter les Pentagon Papers.)

Ellsberg imagina un jeu impliquant deux urnes. Vous savez que chaque urne contient une centaine de balles et que certaines sont rouges et les autres noires. Vous savez que la première urne contient 50 balles rouges et 50 balles noires. Vous ne connaissez par contre pas la répartition entre boules noires et rouges dans la seconde urne. Imaginons que je vous propose de recevoir 100 dollars si la boule que vous tirez d’une urne est rouge. Dans quelle urne allez-vous préférer piocher, la première ou seconde ? La plupart des gens préfèrent la première. Mais les gens préfèrent aussi la première urne si on leur propose 100 dollars pour une balle noire. Ce n’est pas parce qu’ils pensent que leurs chances sont meilleures (logiquement, la première urne ne peut possiblement être un meilleur choix à la fois pour les balles rouges et pour les balles noires). C’est juste que le risque connu semble moins inconfortable que le risque ambigu. L’aversion à l’inconnu peut expliquer en partie pourquoi l’incertitude semble corroder les fondations de l’économie. Mais je pense que le principal problème est quelque chose de bien moins éthéré.

Imaginez que vous soyez un entrepreneur avec des projets et des permis pour construire, disons, une usine de recyclage de cartons à Peterborough. S’il y a une Brexit assez doux ou aucun Brexit, vous pensez qu’une grande usine serait le plus rentable. S’il y a un Brexit dur ou aucun accord, vous pensez que vous pouvez faire le maximum de profit avec une plus petite installation. Qu’allez-vous faire ?

C’est simple : vous allez attendre. Vous attendez même si voulez construire dans tous les cas une usine. Vous attendez parce que vous prendriez une meilleure décision si l’incertitude autour du Brexit disparaissait. L’incertitude fait qu’il est plus rentable de retarder l’investissement.

C’est la théorie. Qu’est-ce que les données suggèrent ? Au Royaume-Uni, l’investissement du secteur privé est remarquablement faible, alors même que le Royaume-Uni n’est pas en récession. En fait, il est difficile de trouver une époque passée où une économie britannique en croissance a été accompagnée d’un investissement aussi faible. Cette faiblesse a persisté depuis à peu près l’époque du référendum en 2016. Il est faible, aussi bien historiquement qu’en comparaison avec la situation aux Etats-Unis et en Allemagne. Peut-être que c’est une coïncidence, mais j’en doute.

Face à l’incertitude, les firmes vont préférer la flexibilité. Les économistes Benjamin Nabarro et Christian Schulz (…) ont un raisonnement intéressant. Ils suggèrent qu’au vu de l’incertitude durable autour du Brexit, ce désir de flexibilité est satisfait par l’embauche de travailleurs plutôt que par d’amples investissements en capital. C’est une manière d’accroître la production sans faire quelque chose d’irréversible. C’est une bonne nouvelle pour l’emploi et une mauvaise nouvelle pour l’investissement et la productivité.

Mon exemple de l’usine de recyclage de cartons suggérait que l’incertitude va avoir tendance à déprimer l’investissement, mais l’incertitude n’est pas toujours un obstacle de cette façon. Si le permis de construction pour cette usine de recyclage a une date d’expiration, imposant de faire quelque chose aujourd’hui ou de se résigner à ne jamais rien faire, vous allez opter pour le scénario qui vous semble le plus probable sur l’instant et construire quelque chose en fonction de ce scénario. Si l’incertitude n’était pas résolue avant 2025, vous pourriez aussi vous dire que les coûts d’un retard sont trop importants et construiriez quelque chose immédiatement.

Il y a même des situations où l’incertitude encourage les investissements exploratoires : ne sachant pas ce qui va arriver, vous allez essayer de vous assurer d’avoir pied dans chaque scénario qui vous semble possible. Par exemple, la possibilité infime que le gouvernement d’un grand pays puisse s’engager sérieusement contre le changement climatique encourage la recherche dans les technologies à faible carbone.

Toute incertitude ne déprime pas forcément l’investissement alors. Mais il y a un scénario qui risque de geler les projets de tout le monde, c’est celui-ci : une décision majeure avec de lourdes conséquences qui se trouve continuellement retardée. Si cela vous rappelle quelque chose, vous n’êtes pas le seul. »

Tim Harford, « What exactly is so bad about uncertainty, anyway? », octobre 2019. Traduit par Martin Anota



aller plus loin... lire « Le rôle de l'incertitude dans les cycles d’affaires »

samedi 7 décembre 2019

L’austérité a provoqué le Brexit

« En décembre, la Grande-Bretagne retournera aux urnes pour élire un nouveau Parlement qui pourrait finaliser le Brexit. Plusieurs années tumultueuses se sont écoulées depuis que le référendum s’est conclu en faveur d’une sortie (Leave) du Royaume-Uni de l’Union européenne. Même si le gouvernement britannique parvient à se décider sur la façon par laquelle la sortie prendra forme, le pire pourrait encore survenir après.

Mais comment en sommes-nous arrivés là ? Qu’est-ce qui a provoqué la révolte populiste qui continue de diviser le Royaume-Uni ? Thiemo Fetzer a observé un ensemble spécifique de réformes qui ont joué un rôle décisif dans l’issue du référendum. Dans la revue American Economic Review, Fetzer montre que les baisses de dépenses publiques dans le cadre de plans d’austérité adoptés à partir de 2010 ont joué un rôle décisif dans la victoire du "Leave".

Fetzer a évoqué avec l’American Economic Association l’austérité au Royaume-Uni, la façon par laquelle celle-ci a alimenté le soutien en faveur de mouvements populistes comme le "parti pour l’indépendance du Royaume-Uni" (UKIP), les possibles retombées des réductions des programmes d’aide sociale et les prochaines élections parlementaires du 12 décembre. (…)

American Economic Association : J’aimerais évoquer spécifiquement de ce qui s’est passé en 2010 avec l’austérité. Quels genres de baisses ont touché les programmes de protection sociale au Royaume-Uni et qui en a été le plus affecté ?

Thiemo Fetzer : Il y a eu trois gros éléments derrière l’austérité. Le premier concerne les baisses de salaires pour tous ceux qui travaillaient dans le secteur public, si bien que les salaires n’ont pas augmenté avec l’inflation comme ils avaient l’habitude de le faire par le passé. Le deuxième élément est relatif à une réforme générale du système de protection sociale, qui affecta principalement les personnes (…) qui étaient employées dans des emplois à faible salaire et qui recevaient un coup de pouce de l’Etat via ce que l’on appelle le crédit d’impôt. Financièrement, cela constitua une part importante de l’austérité, puisque ce sont ces suppléments de revenu qui ont été réduits le plus vite.

Le troisième élément derrière l’austérité correspond aux baisses significatives de financements aux administrations locales, des ressources financières qui sont utilisées pour financer des services de base, la maintenance des routes locales et je pense que ces diverses dépenses ont été réduites d’environ 50 % en termes réels, ce qui est assez spectaculaire. Enfin il y a eu des baisses significatives des dépenses dans des choses comme l’éducation, des dépenses qui ont chuté de 20 % en termes réels.

AEA : Comment avez-vous fait pour connecter ces baisses des dépenses publiques avec la façon par laquelle les gens qui en ont été les plus affectés ont voté lors du référendum du Brexit ?

Fetzer : L’analyse s’est faite en deux parties. L’une d’entre elles est essentiellement basée sur la géographie des résultats électoraux au niveau des districts lors des élections européennes (…) et l’autre ensemble d’élections que j’ai regardé sont celles de Westminster (les élections parlementaires). Et lors de ces élections, j’ai étudié la performance électorale du parti politique au Royaume-Uni, en l’occurrence l’UKIP, qui préconisait dans son programme une sortie de l’Union européenne sur l’ensemble de la période de l’échantillon, de 2000 à 2015.

AEA : Comment avez-vous déterminé que ces baisses de dépenses publiques associées aux politiques d’austérité ont contribué à la victoire du "Leave" lors du référendum ?

Fetzer : Ce qui est assez remarquable est qu’après 2010, la structure de la population qui soutenait l’UKIP a fortement changé. L’UKIP a gagné environ 16 % du vote populaire lors des élections européennes en 2004 et 2009, donc ce n’était pas une force électorale négligeable. Mais en 2014, il y a eu une progression massive du soutien en faveur de l’UKIP. Et une grande partie du soutien en faveur du l’UKIP peut s’expliquer pour l’essentiel par l’exposition régionale ou individuelle aux baisses de dépenses publiques. Vous voyez que le soutien en faveur de l’UKIP augmente de 5 à 6 points de pourcentage dans les zones les plus exposées à l’austérité.

Cela peut ne pas sembler énorme, mais au fond pour chaque personne qui a effectivement voté pour l’UKIP, il y en avait une autre qui n’allait pas voter, mais qui présentait les mêmes préférences politiques. Si vous considérez cela, il apparaît une forte relation entre le soutien des individus pour l’UKIP et le soutien subséquent pour le Leave. Vous pouvez lier économétriquement ces deux schémas (l’austérité et le soutien en faveur de l’UKIP, puis le soutien en faveur de l’UKIP et le soutien en faveur du Leave), vous voyez que la hausse du soutien pour l’UKIP est associée à une hausse de 10 point de pourcentage du soutien en faveur du Leave en 2016. Le Leave a gagné au référendum avec environ 52 % des suffrages, donc un écart de 10 points de pourcentage fait une grosse différence et a contribué à faire basculer le référendum en faveur du Leave.

AEA : Il y a certains parlementaires qui ont initialement voté en faveur de ces réductions de revenus de transfert, mais qui ont aussi appelé quelques années plus tard à rester dans l’UE. Plusieurs d’entre eux, si ce n’est pas tous, ne pouvaient pas prédire le Brexit. Qu’aimeriez-vous qu’ils retiennent de cela, à propos des conséquences de leurs positions sur certaines politiques qui peuvent avoir des conséquences qu’ils ne peuvent pas prédire ?

Fetzer : Dans l’ensemble, vous pouvez considérer le Brexit comme une séquence de nombreuses erreurs et accidents au niveau politique, en partie facilitée par des institutions comme le système électoral du Royaume-Uni. En 2015, personne ne s’attendait à ce que le parti conservateur gagne avec une large majorité. Ce fut le fait qu’il gagna avec une large majorité qui a conduit à la tenue d’un référendum. Evidemment, en 2010, le pays émergeait d’une crise financière. Les déficits publics s’envolaient et, à un certain niveau, il était clair que certaines choses devaient être faites pour contenir les dépenses publiques. Le gouvernement de coalition de 2010 a cherché à contenir les dépenses d’une manière qui s’est révélée être très corrosive pour la cohésion sociale et au contrat social implicite.

L’austérité a été imposée… et fait que ce furent en définitive les mères célibataires, les personnes handicapées et la population adulte en âge de travailler qui payèrent pour les fautes lourdes du secteur financier. (...)

AEA : Que va-t-il se passer selon vous en décembre et concernant le sort final du Brexit ?

Fetzer : Les élections générales sont une très mauvaise façon de confirmer un sentiment public concernant une version du Brexit qui romprait radicalement les liens entre le Royaume-Uni et l’UE, un Brexit que personne n’a conseillé, ni même appelé à mettre en œuvre dans sa campagne en 2016. Ce que cette élection peut faire, c’est offrir une victoire aux conservateurs grâce à peut-être 35 % du vote populaire. Ce n’est pas un mandat démocratique pour mettre en œuvre un plan de Brexit et cela ne résoudra pas la crise démocratique et institutionnelle qui mijote.

Mon espoir pour cette élection est qu’elle produise exactement ce que la précédente élection avait produit, à savoir un Parlement sans majorité, puisque les politiciens se retrouveraient dans la même position pour résoudre le problème sous-jacent. D’une certaine manière, la chose la plus raisonnable serait d’aboutir à une solution de compromis entre les 48 % qui se sont prononcés en faveur du "Remain" et les 52 % qui se sont prononcés en faveur du "Leave", ce qui serait proche de ce qui avait été promis aux électeurs en 2016. Ce serait mon résultat idéal. »

American Economic Association, « Cutting off support », 22 novembre 2019. Traduit par Martin Anota



aller plus loin...

« Le Brexit, fruit d'une relation pernicieuse entre mondialisation et austérité »

« Les coûts ignorés de la crise financière »

samedi 30 novembre 2019

Le fléau des grosses entreprises



« Les titans des nouvelles technologies comme Amazon, Google, Facebook et Apple dominent leurs marchés respectifs et sont de plus en plus puissants. Maintenant, un chœur de critiques appelle à les démanteler. Nous avions connu un tel contexte par le passé. Il y a plus d’un siècle, c’était la Standard Oil qui fut accusée de pratiques anticoncurrentielles. Ensuite, il y a eu le secteur du conditionnement de viande, celui de la production de métal et celui des télécommunications. Chaque phase présenta des questions uniques à propos de la façon d’agir face aux sociétés puissantes. Naomi Lamoreaux pense qu’il est utile de revisiter cette histoire.

AEA : Quelles leçons l’histoire des entreprises comme la Standard Oil pourraient nous être utiles aujourd’hui ?

Naomi Lamoreaux : Il s’agissait d’entreprises très très grandes et elles suscitaient des craintes qui ressemblent à celles que suscitent les grandes entreprises aujourd’hui : des craintes à propos de possibles manipulations déloyales des opportunités économiques, des craintes à propos de leur influence politique, la crainte qu’une grande taille et un ample patrimoine puissent nuire à l’économie, à la société, à la politique de façons complexes et opaques.

AEA : Comment pouvez-vous brièvement décrire ce que la Standard Oil était et sa domination des marchés de l’énergie ?

Lamoreaux : La Standard Oil était un raffineur de pétrole brut. Initialement, son principal produit était le kérosène, qui était utilisé à des fins d’éclairage. Plus tard, elle devint un producteur de gazolène, mais son monopole était initialement un monopole dans l’éclairage, le kérosène. Initialement, elle ne représentait qu’environ 4 % des capacités de raffinage du pays. Cette part était de 4 % en 1870 ; elle s’élevait à 90 % une décennie après. Ainsi, cela effraya la population et fit sonner le signal d’alarme.

AEA : Comment est-elle devenue si grosse aussi rapidement ?

Lamoreaux : Fondamentalement, elle a été capable de s’approprier des avantages déloyaux sur ses rivales au moyen de rabais dans le transport ferroviaire. Une bonne partie du prix du pétrole tenait aux coûts de transport du pétrole et la Standard a été capable d’obtenir de moindres coûts de transport que ses rivales grâce au transport ferroviaire et d’utiliser ensuite cet avantage pour forcer ses rivales à quitter le marché ou à se vendre à elle.

AEA : Quand est-ce que les régulateurs commencèrent à s’attaquer à la Standard Oil ?

Lamoreaux : Les premiers régulateurs qui agirent opéraient au niveau des Etats fédérés. Les Etats répondirent à l’émergence de la Standard Oil et à d’autres imitateurs de la Standard Oil avec une législation que nous qualifierons aujourd’hui de législation antitrust à la fin des années 1880.

Le Congrès fit face à des pressions pour engager des actions, donc il adopta une loi en 1980 appelée le Sherman Antitrust Act, qui est la première loi antitrust au niveau fédéral qui transforma en crime toute tentative de monopoliser le commerce ou de s’engager dans la restriction des activités commerciales. Le problème avec cette loi était qu’elle était bien plus difficile de l’appliquer aux sociétés à charte d’Etat fédéré. Des sociétés comme la Standard Oil souscrivirent à la charte d’Etats bienveillants comme le New Jersey. La Standard pouvait être un monopole, mais elle opérait sous une charte du New Jersey et, selon la loi du New Jersey, c’était une entreprise légale. Cela posa des problèmes pour les régulateurs fédéraux. Il fallut attendre 1911 pour que les régulateurs trouvent comment agir avec une société comme la Standard. La Cour Suprême prit alors deux décisions, la première concernant la Standard Oil Company et la seconde concernant l’American Tobacco Company, celles de démanteler ces sociétés au motif qu’elles s’étaient engagées dans des activités anticoncurrentielles.

AEA : Il y a une ligne ténue entre les pratiques des entreprises qui s’avèrent anticoncurrentielles et dangereuses et celles qui améliorent l’efficience. Pouvez-vous décrire l’évolution dans notre façon de voir ce qui est dangereux et ce qui ne l’est pas ?

Lamoreaux : Il y avait d’un côté l’idée que ces grandes firmes qui émergeaient dans plusieurs secteurs de l’économie (…) avaient fait des choses bénéfiques, comme réduire le coût des biens pour les consommateurs, améliorer l’efficience et fournir de nouveaux biens aux consommateurs. Elles étaient grandes et connaissaient le succès et parce qu’elles connaissaient le succès elles disposaient d’un pouvoir de marché. Les gens voulaient trouver des façons de distinguer entre, d’un côté, ces firmes et, de l’autre, les firmes qui grossissaient en restreignant la concurrence en disposant d’avantages déloyaux. Le problème est qu’il est difficile de ranger clairement les entreprises dans l’une ou l’autre de ces catégories. Les entreprises les plus efficientes, les plus innovantes, peuvent faire des choses qui visaient à bloquer la concurrence future. Elles peuvent s’engager dans des pratiques que nous considérons comme déloyales et anticoncurrentielles.

Ensuite, au cours du vingtième siècle, les responsables de la politique publique cherchèrent tout d’abord à identifier ces types de comportements et à simplement stopper les mauvais comportements. Mais à la fin des années 1930, elles commencèrent à se dire qu’elles ne pouvaient vraiment pas faire cela. La grosse taille était mauvaise en soi et les régulateurs poursuivirent alors simplement des politiques qui visaient à réduire la part de marché des grosses firmes, que celles-ci se comportent mal ou non. Et cette vision de ce que doit faire la politique antitrust a vraiment émergé à la fin des années 1930 et elle a demeura jusqu’au début des années 1970. Ensuite, nous avons basculé à l’opposé et considéré que la grosse taille n’était pas un problème aussi longtemps que les entreprises offrent des gains aux consommateurs et qu’il n’y avait pas à s’inquiéter du tout de cela. Et maintenant les gens commencent à reconsidérer de nouveau les choses.

AEA : Vous faites référence ici à la tension entre l’Ecole de Chicago et ceux que l’on qualifie de "néo- brandeisiens" (New Brandeisians). Pouvez-vous expliquer en quoi tiennent les différences entre leurs raisonnements ?

Lamoreaux : La position de l’Ecole de Chicago était que la taille ne doit pas être un problème si la taille était le produit d’une plus grande efficience. Mon vieux collègue Harold Demsetz affirmait que les grandes entreprises avaient souvent un pouvoir de marché parce qu’elles avaient vraiment réussi et que vous ne voulez pas punir cela. Donc, fondamentalement, la taille n’était pas du tout considérée comme un problème et, aussi longtemps que les entreprises ne faisaient pas de choses qui nuisaient aux consommateurs, ne restreignaient pas la production, ne s’entendaient pas pour maintenir des prix élevés, il n’y avait pas de problème avec la taille.

Les "néo-brandeisiens" voient les choses très différemment. Ils se qualifient de néo-brandeisiens parce que leur vision du monde est très similaire à celle de Louis Brandeis. Pour ce dernier, les grandes entreprises étaient sources de menaces sur plusieurs plans. Si elles peuvent apporter des bénéfices aux consommateurs à court terme, elles peuvent étouffer l’innovation à long terme. Elles peuvent protéger leur position en recourant au lobbying pour empêcher le Congrès ou d’autres autorités de prendre des décisions susceptibles de réduire leur puissance. Et, bien sûr, les gens s’inquiètent à propos de plein d’autres choses relatives à la grande taille qui ne sont pas liées à la politique antitrust, mais sont des inquiétudes sociales comme le contrôle de l’information.

AEA : Quelle est la leçon la plus importante que, selon vous, l’Histoire a à offrir pour aujourd’hui ?

Lamoreaux : Je dirai deux choses. La première est que les inquiétudes à propos de la grande taille des entreprises ont toujours été multidimensionnelles et ne peuvent être réduites la simple question quant à savoir si les consommateurs en sont affectés dans une statique comparative. Le second point est qu’essayer de savoir si une grande entreprise fait du mal ou non, se comporte mal ou non, est en fait une tâche très épineuse. Parce que cette tâche est si difficile, nous avons (…) baissé les bras et dit que nous ne fixerions pas de limite.

C’est une illusion de penser qu’il n’y a qu’un seul principe qui nous permettrait d’échapper à ce genre de questions de jugement. Et les questions de jugement vont toujours être imparfaites. C’est intrinsèque aux systèmes politiques. C’est intrinsèque au système de régulation. Cela implique toujours un jugement. Et nous allons toujours nous tromper dans un sens ou un autre. Mais c’est là où nous devons travailler : chercher la bonne solution. Nous n’aurons jamais la bonne solution, mais nous devons essayer de l’avoir. »

American Economic Association, « The curse of bigness », 30 août 2019. Traduit par Martin Anota



aller plus loin...

« Le FMI s’inquiète du pouvoir de marché des firmes superstars »

« Quelles sont les répercussions macroéconomiques du plus grand pouvoir de marché des entreprises ? »

« Faut-il s’inquiéter de la concentration des marchés aux Etats-Unis ? »

dimanche 24 novembre 2019

La zone euro n’est pas (encore) prête pour la monnaie-hélicoptère

« Avec un menu d’options budgétaires et monétaires dangereusement réduit pour stimuler l’activité dans la zone euro en cas de récession, les responsables de la politique économique et les économistes ont commencé à discuter d’une proposition qui semble à la fois simple et exotique : si la consommation des ménages et l’investissement des entreprises sont trop faibles, pourquoi la banque centrale n’enverrait-elle pas, par exemple, 500 euros à chaque résident de la zone euro ? Les résidents dépenseraient cet argent et l’économie s’en trouverait stimulée.

Cette idée, dite de la "monnaie-hélicoptère" (helicopter money), a un bon pedigree et un nom mémorable. Milton Friedman a introduit le concept et lui a donné son nom, bien qu’il ne conseilla pas de la mettre en pratique. Peter Praet (2016), qui a été membre du conseil des gouverneurs de la Banque Centrale Européenne (BCE) jusqu’à récemment, a un jour indiqué que" toutes les banques peuvent le faire". Et un récent rapport Blackrock (Bartsch et alii, 2019), avec notamment Stanley Fischer et Philip Hildebrand comme coauteurs, s’est prononcé en faveur d’une version de la monnaie-hélicoptère.

De plus, le concept a un clair attrait politique. Il a été qualifié d’"assouplissement quantitatif pour le peuple" (quantitative easing for the people) (Muellbauer, 2014) : au lieu d’aider les banques ou d’enrichir les détenteurs d’obligations, la banque centrale devrait mieux donner de la monnaie à la population, une façon transparente d’accroître son pouvoir d’achat.

Qu’est-ce que la monnaie-hélicoptère ?


En fait, malgré son nom, la monnaie-hélicoptère n’est pas si exotique que cela. D’un point de vue économique, c’est l’équivalent d’une relance budgétaire combinée à une relance monétaire. On peut la considérer comme une sorte d’expansion budgétaire prenant la forme de transferts de revenus opérés par le gouvernement à la population, financée par les obligations publiques, titres que la banque centrale achèterait en échange de monnaie via une opération d’open market. Pour cette raison, Ben Bernanke (2016) l’a qualifiée de "programme budgétaire financée par création monétaire" (money-financed fiscal program), un nom plus précis, mais moins attrayant, et un nom effrayant pour ceux qui voient tout financement par création monétaire comme une route directe vers l’hyperinflation.

L’équivalence n’est cependant pas totale. Si la monnaie-hélicoptère est entreprise indirectement (avec des obligations émises par le gouvernement pour financer des transferts, puis achetée par la banque centrale), la dette résultante apparaît comme une dette du gouvernement central vis-à-vis de la banque centrale. Cette dernière connaît une hausse de son passif (via la hausse de l’offre de monnaie) et de son actif (les obligations publiques), sans changement dans ses fonds propres. Si elle est entreprise directement (avec la banque centrale transférant directement de la monnaie aux ménages), la dette du gouvernement central reste inchangée. La banque centrale, cependant, connaît alors une hausse de son passif (la hausse de l’offre de monnaie) sans hausse de son actif, ce qui se traduit par une détérioration de ses fonds propres.

La différence entre les deux scénarii n’est pas pertinente d’un point de vue purement économique. Ce qui importe pour l’économie est le changement du bilan consolidé du gouvernement (combinant les bilans du gouvernement central et de la banque centrale) et celui-ci est le même dans les deux cas. Si la hausse de la dette prend la forme d’une hausse du passif du gouvernement central ou une hausse du passif de la banque centrale n’est pas significative. Ce qui importe pour les finances publiques est la valeur actualisée des soldes budgétaires futurs, qui à nouveau ne change pas. Mais cette différence est importante d’un point de vue politique : les banquiers centraux s’inquiètent, à tort ou à raison, à l’idée qu’une baisse des fonds propres de la banque centrale (en particulier s’ils deviennent négatifs) puisse laisser paraître que la banque centrale est mal gérée, chose qui affaiblirait son pouvoir politique et amènerait le gouvernement à remettre en cause l’indépendance de la banque centrale.

Comment la monnaie-hélicoptère fonctionnerait


Supposons que la BCE soit encline à recourir à la monnaie-hélicoptère. Est-ce que ce serait une façon efficace de contrer une récession dans la zone euro d’un point de vue macroéconomique ?

Initialement, les transferts budgétaires financés par la banque centrale peuvent s’avérer bien efficaces, parce qu’ils stimuleraient directement les dépenses de consommation. Et contrairement au gouvernement, qui peut augmenter les impôts après coup, la banque centrale n’aurait aucun moyen d’annuler les transferts qu’elle a financés. Donc, les ménages seraient plus incités à les dépenser (la banque centrale peut décider ex post de compenser leur impact sur son bilan en réduisant la taille de son portefeuille d’obligations souveraines, mais cela n’affecterait pas directement les ménages).

Il y a davantage de questions à propos des conséquences à plus long terme. Supposons, contrairement à la situation actuelle de la zone euro, que le taux directeur soit initialement positif. Alors, si la production ou l’inflation sont trop faibles, la combinaison d’expansions budgétaire et monétaire irait clairement dans la bonne direction, à savoir une hausse de l’activité économique (Galí, 2019). Cependant, ce ne serait peut-être pas la bonne combinaison : la combinaison appropriée pourrait impliquer davantage d’action monétaire ou davantage d’action budgétaire. En effet, certains chiffres nous suggèrent que ce n’est pas la bonne combinaison. Dans la zone euro, le ratio de la monnaie qui ne rapporte pas d’intérêt sur le PIB est de pratiquement 10 %. Ce ratio implique qu’une hausse d’un point de pourcentage du déficit financée par la monnaie budgétaire pour une année se traduirait par une hausse de 10 % de la monnaie, donc finalement par une hausse de 10 % du niveau des prix. Même si l’on supposait que la BCE ait adopté une stratégie de ciblage du niveau des prix, le coût en termes d’inflation d’un tel plan de relance relativement modeste excèderait probablement ce qui serait acceptable étant donné l’actuelle insuffisance du niveau des prix. Pour le dire autrement, étant donné les limites de l’ampleur à laquelle le niveau des prix serait permis de s’accroître, la relance budgétaire associée serait trop faible pour être significative sur le plan macroéconomique.

Si, de façon plus réaliste, le taux directeur est déjà à zéro (ou légèrement en territoire négatif en raison de la borne inférieure effective), comme c’est le cas dans la zone euro, alors il n’y a pas de différence immédiate entre la monnaie et la dette. Toutes les deux rapportent zéro (ou quasiment zéro). Donc, dans ce cas, la monnaie-hélicoptère est-elle simplement l’équivalent d’une expansion budgétaire financée par voie de dette ? Pas vraiment. Cela dépend de ce que les investisseurs pensent qu’il surviendra une fois que les taux d’intérêt redeviendront positifs. Comme l’a observé Narayana Kocherlakota (2016), l’ancien président de la Réserve fédérale de Minneapolis, si les investisseurs s’attendent à ce que la monnaie rapporte des intérêts (comme c’est le cas pour les réserves bancaires aux Etats-Unis), alors il n’y a vraiment pas de différence entre le financement par création monétaire et le financement obligataire : tous les deux rapportent zéro aujourd’hui et tous deux vont rapporter des intérêts dans le futur. Si les investisseurs s’attendent à ce que la monnaie ne rapporte pas d’intérêt à l’avenir, ils s’attendent à ce que le niveau des prix finisse par être plus élevé et donc doivent s’attendre à davantage d’inflation à l’avenir. Pour le dire autrement, si la banque centrale s’engage de façon crédible à ne pas payer d’intérêts sur la monnaie à l’avenir, alors la monnaie-hélicoptère doit mener à une révision à la hausse des anticipations d’inflation, donc réduire les taux réels à long terme aujourd’hui. On peut bien douter de la force empirique de ce canal des anticipations. Mais dans la mesure où il est présent, le même résultat peut être atteint via le forward guidance, c’est-à-dire par l’engagement de la banque centrale à maintenir le taux directeur inchangé jusqu’à ce que le niveau des prix (et pas seulement l’inflation) ait atteint une certaine cible.

Cette analyse suggère que l’argumentaire général pour la monnaie-hélicoptère est fragile. Aux Etats-Unis, il y a une certaine marge de manœuvre pour utiliser les politiques monétaire et budgétaire et pour le faire avec la bonne combinaison. Dans la zone euro, où la politique monétaire dispose d’une moindre marge de manœuvre, l’action doit se concentrer sur la politique budgétaire. Qu’elle soit financée par les obligations ou par la création monétaire, cela fait peu de différence économique, à moins que l’on accepte une forte inflation.

Mais il y a quelque chose à prendre en compte concernant la zone euro. La politique budgétaire dans l’union monétaire européenne est fortement contrainte par les règles de l’UE et les règles nationales. En l’occurrence (…), si les règles sont respectées, la marge pour l’expansion budgétaire est extrêmement limitée et risque de ne pas suffire pour combattre une récession. Dans ce contexte, la monnaie-hélicoptère (des transferts directs de la BCE vers la population) peut être interprétée comme une façon de contourner les contraintes budgétaires. La dette apparaît dans le bilan de la BCE et non dans les bilans des gouvernements nationaux. Et, comme la dette de la BCE est une dette jointe, cela permet même aux pays-membres avec de plus fragiles situations budgétaires de participer implicitement et de partager également aux transferts. D’une certaine façon, la monnaie-hélicoptère peut être vue comme un substitut à une capacité budgétaire commune toujours manquante. Sa mise en œuvre, cependant, soulève des défis opérationnels, juridiques et politiques.

La BCE ferait face à d’importants risques et obstacles


Pour des raisons relatives à la gouvernance et des raisons pratiques, la BCE ne peut procéder sans l’approbation des gouvernements nationaux. La BCE manque de la capacité technique et de l’information nécessaires pour opérer les transferts. Elle aurait à s’appuyer sur les Trésors nationaux comme relais ou pour obtenir les informations pertinentes (telles que les identifications individuelles pour les destinataires). Si tous les Etats-membres de la zone euro considéraient les règles budgétaires en vigueur comme contreproductives, ils pourraient donner à la BCE leur bénédiction. M ais certains Etats-membres ne pourraient voir la monnaie-hélicoptère que comme une façon de contourner des règles qu’ils apprécient. Ils l’empêcheraient par des moyens constitutionnels (comme le fit la Cour constitutionnelle allemande pour essayer de bloquer le programme d’achats d’obligations souveraines de la BCE en 2017) ou simplement en refusant de participer à l’organisation des transferts.

Il faudrait également décider de la taille et de la répartition des transferts, entre les pays et au sein des différentes populations nationales. Faudrait-il les faire à destination des individus ou des ménages ? Est-ce que les gens en Allemagne et en Lituanie (un pays dont le PIB par tête est moitié moindre que celui de l’Allemagne) recevraient le même montant ? Si ce n’est pas le cas, qui déciderait ? Si c’est la BCE, elle aurait à faire d’importants choix distributifs, une tâche qui convient mieux aux autorités budgétaires et qui doit être soumise à l’approbation parlementaire.

Ces implications distributionnelles s’ajouteraient aux obstacles juridiques. Le système de l’UE a été construit sur la promesse d’une séparation étanche entre les politiques monétaire et budgétaire. Même si la BCE entreprenait de sa propre initiative un programme de transferts de liquidité de facto vers les ménages et le mettait en œuvre via le système bancaire, il serait certainement attaqué en justice. La Cour constitutionnelle de l’Allemagne et certainement celles d’autres pays définiraient probablement la monnaie-hélicoptère comme un programme de politique économique (et non monétaire) et considéreraient qu’un tel programme doit être de la responsabilité des gouvernements et parlements nationaux.

Finalement, la monnaie-hélicoptère n’est pas sans risques pour la BCE comme institution. Des questions de mandat et d’indépendance ont été mises en avant à propos des implications distributionnelles des mesures non conventionnelles et même standards de la politique monétaire (et en particulier de leur coût pour les "épargnants allemands"). Elles ont aussi été soulevées à propos du plus grand usage des politiques macroprudentielles, certaines d’entre elles ayant d’importantes implications distributionnelles. La monnaie-hélicoptère alimenterait ces controverses et soulèveraient de sérieuses questions à propos de la pertinence de l’indépendance de la banque centrale. Le risque nous semble trop important pour être ignoré.

Pourrait-il y avoir des circonstances où l’équilibre des risques et profits penche de l’autre côté et où la BCE procéderait à la monnaie-hélicoptère ? Nous croyons que ce n’est pas probable. S’il y avait une profonde récession, cela déclencherait les clauses dérogatoires des règles fiscales, rendant la monnaie-hélicoptère redondante. S’il y avait une légère récession ou une stagnation prolongée, c’est-à-dire des situations qui ne susciteraient pas de réaction budgétaire, il n’est pas probable que la BCE désire franchir le Rubicon. Et s’il n’y a pas de récession, il n’y a pas de besoin manifeste pour la monnaie-hélicoptère. Cela nous amène à être sceptiques à l’idée que nous devrions prochainement voir la monnaie-hélicoptère d’ici peu dans la zone euro. »

Olivier Blanchard & Jean Pisani-Ferry, « The euro area is not (yet) ready for helicopter money », in PIIE, Realtime Economic Issues (blog), 20 novembre 2019. Traduit par Martin Anota

vendredi 15 novembre 2019

Cessons d’exagérer la menace inflationniste

« A la lumière des conditions macroéconomiques en vigueur aux Etats-Unis, je me suis rappelé de ce qui s’est passé en septembre 2014. Le taux de chômage américain avait alors chuté en-deçà de 6 % et de nombreux commentateurs nous assuraient que l’inflation était en conséquence sur le point de fortement s’accélérer, comme le prédisait la courbe de Phillips. Bien sûr, le corollaire de cet argument était que la Réserve fédérale devait rapidement normaliser sa politique monétaire, en contractant sa base monétaire et en relevant ses taux d’intérêt vers une gamme "normale".

Aujourd’hui, le taux de chômage américain est inférieur de 2,5 points de pourcentage à ce qu’il était lorsque nous étions tous convaincus que l’économie avait atteint le taux de chômage "naturel". Quand j’étais assistant professeur dans les années quatre-vingt-dix, la règle empirique était qu’un chômage aussi faible devait entraîner une hausse de 1,3 point de pourcentage de l’inflation par an. Si le taux d’inflation était de 2 %, cela signifiait qu’il serait de 3,3 % l’année suivante. Et si le chômage restait au même niveau général, le taux d’inflation l’année suivante serait de 4,6 %, puis de 5,9 %, etc.

Mais la vieille règle ne s’applique plus. Le taux d’inflation aux Etats-Unis va rester à environ 2 % par an pendant les prochaines années et nos choix de politique monétaire doivent prendre en compte ce fait.

Certes, la croyance conventionnelle parmi les économistes durant les années quatre-vingt-dix était justifiée. Entre 1957 et 1988, l’inflation a répondu de façon prévisible aux fluctuations du taux de chômage. La pente de la courbe de Phillips la plus simple possible, lorsque l’on prend en compte les anticipations adaptatives, était de -0,54 : autrement dit, chaque baisse d’un point de pourcentage du chômage sous le taux de chômage naturel estimé se traduisait par une hausse de 0,54 point de pourcentage de l’inflation au cours de l’année suivante.

La pente estimée négative de la courbe de Phillips (ce chiffre de -0,54) entre la fin des années cinquante et la fin des années quatre-vingt était largement tirée de six observations importantes. En 1966, 1973 et 1974, l’inflation grimpa dans un contexte de chômage extrêmement faible. Ensuite, en 1975, 1981 et 1982, l’inflation chuta dans un contexte de chômage relativement élevé.

Depuis 1988, cependant, la pente de la courbe de Phillips la plus simple possible a été nulle, avec un coefficient de régression estimé de juste -0,03. Même avec un chômage bien en-deçà de ce que les économistes ont supposé être le taux naturel, l’inflation ne s’est pas accélérée. Inversement, même quand le chômage a dépassé ce que les économistes ont présumé était le taux naturel, entre 2009 et 2014, l’inflation n’a pas chuté et la déflation n’est pas apparue.

Bien que ces trente dernières années n’aient présenté aucune similarité avec les points de données fournis par la période allant des années cinquante aux années quatre-vingt, il y en a beaucoup qui croient toujours que les autorités monétaires devraient continuer de se focaliser sur le risque d’une inflation en forte accélération, impliquant que l’inflation pose une plus grande menace que la possibilité d’une récession. Pa exemple, trois économistes très réputés, en l’occurrence Peter Hooper, Frederic Mishkin et Amir Sufi, ont récemment publié une étude suggérant que la courbe de Phillips aux Etats-Unis est "juste en train d’hiberner" et que les estimations présentant une courbe presque plate au cours de la dernière génération ne sont pas fiables, en raison de "l’endogénéité de la politique monétaire et du manque de variation de l’écart de chômage".

Je ne comprends pas comment ils en sont arrivés à cette conclusion. Après tout, l’ordinateur nous dit que les estimations de 1988-2018 sont probablement trois fois plus précises que celles de 1957-1987. En outre, la fenêtre capturée dans les spécifications standards de la courbe de Phillips est trop brève pour permettre toute réponse substantielle de la politique monétaire.

Oui, une explosion de l’inflation reste un risque. Mais la focalisation excessive sur ce risque est le produit d’une autre époque. Elle vient d’une époque où les administrations successives (celles de Lyndon Johnson et de Richard Nixon) recherchaient une économie en permanence à haute pression et où le président de la Fed (Arthur Burns) était enclin à satisfaire les demandes du gouvernement. Alors, un cartel qui contrôlait l’intrant clé de l’économie mondiale (en l’occurrence le pétrole) a été capable de générer un choc d’offre négatif massif.

Si toutes ces conditions étaient valides, il serait peut-être justifié que nous nous inquiétons d’un retour de l’inflation à ses niveaux des années soixante-dix. Mais elles ne le sont pas.

Il est temps d’arrêter de dénier ce que les données nous disent. A moins que la structure de l’économie et la combinaison de politiques économiques changent, il y a peu de risque que les Etats-Unis fassent face à une inflation excessive au cours des prochaines années. Les responsables politiques feraient bien de focaliser leur attention sur d’autres problèmes entretemps. »

J. Bradford Delong, « Stop inflating the inflation threat », 29 octobre 2019. Traduit par Martin Anota



Allter plus loin...

« L’inflation est-elle au coin de la rue ? »

« Pourquoi l’inflation est-elle si faible dans le monde ? »]

« La courbe de Phillips est-elle bien morte ? (édition américaine) »

mardi 5 novembre 2019

La démocratie sur le fil du rasoir



« (…) Le message clé du nouveau livre de Daron Acemoglu et James Robinson, The Narrow Corridor: States, Societies, and the Fate of Liberty, (…) est que les perspectives de liberté et de prospérité tiennent sur un fil du rasoir entre, d’une part, l’oppression étatique et, d’autre part, l’anarchie et la violence qu’une société s’inflige si souvent. Donnez trop de poids à l’Etat par rapport à la société et vous vous retrouvez avec le despotisme. Affaiblissez l’Etat vis-à-vis de la société et vous obtenez l’anarchie.

Comme le signale le titre du livre, il n’y a qu’un "corridor étroit" entre ces deux dystopies, un mince sentier que seuls quelques pays, principalement situés dans l’Occident industrialisé, ont réussi à trouver. De plus, ce n’est pas parce qu’un pays parvient à atteindre ce sentier qu’il faut s’attendre à ce qu’il y reste. Acemoglu et Robinson soulignent qu’une régression autoritaire reste toujours une possibilité, à moins que la société civile reste vigilante et s’avère capable de mobiliser contre les potentiels autocrates.

Le nouveau livre d’Acemoglu et Robinson poursuit la réflexion qu’ils menèrent dans leur précédent blockbuster, Why Nations Fail. Dans cet ouvrage et dans d’autres écrits, ils identifiaient ce qu’ils qualifiaient d’"institutions inclusives" comme le principal facteur derrière le progrès économique et politique. Ces institutions, telles que les droits de propriété sécurisés et l’Etat de droit, ont pour caractéristique d’être accessibles à tous les citoyens (ou presque) et de ne pas avantager une minorité étroite d’élites au détriment du reste de la société.

Un pays qui a donné du fil à retordre à la thèse d’Acemoglu-Robinson est la Chine. La monopolisation du pouvoir politique par le parti communiste chinois, la corruption rampante du pays et la facilité avec laquelle les concurrents économiques et les opposants politiques du parti peuvent être dépouillés ne donnent pas l’image d’institutions inclusives. Pourtant, il est indéniable qu’au cours des quatre dernières décennies, le régime chinois a permis des taux de croissance économique sans précédents et la réduction de la pauvreté la plus impressionnante que l’humanité ait connue.

Dans Why Nations Fail, Acemoglu et Robinson affirmaient que la croissance économique chinoise s’épuiserait à moins que les institutions politiques extractives laissent la place à des institutions inclusives. Ils n’abandonnent pas cette thèse dans The Narrow Corridor. Ils estiment que la Chine est un pays où un Etat fort a dominé la société pendant plus de deux millénaires. Selon eux, parce que la Chine a passé autant de temps hors du corridor, il est improbable qu’elle puisse rejoindre facilement ce dernier. Ni la réforme politique, ni la poursuite de la croissance économique ne semblent probables.

Il y a un autre grand pays qui semble maintenant poser problème à la thèse originelle d’Acemoglu-Robinson : ce sont les Etats-Unis. A l’époque où Why Nations Fail a été écrit, beaucoup considéraient encore les Etats-Unis comme un exemple d’institutions inclusives : un pays qui s’est enrichi et est devenu démocratique via le développement des droits de propriété sécurisés et l’Etat de droit. Aujourd’hui, la répartition des revenus des Etats-Unis s’apparente à celle d’une ploutocratie. Et les institutions politiques représentatives du pays, sous les coups d’un démagogue, semblent manifestement friables.

The Narrow Corridor semble avoir été écrit en partie pour expliquer l’apparente fragilité des démocraties libérales. Les auteurs parlent d’"effet de Reine Rouge" (Red Queen effect) pour évoquer la lutte incessante pour préserver l’ouverture des institutions politiques. Comme le personnage du livre de Lewis Carroll, la société civile doit courir toujours plus vite pour repousser les dirigeants autoritaires et refreiner leurs tendances despotiques.

La capacité de la société civile à tenir face au "Léviathan" dépend quant à elle des divisions sociales et de leur évolution. La démocratie émerge typiquement soit de l’essor de groupes populaires qui peuvent remettre en cause le pouvoir des élites, soit des divisions entre les élites. Au cours des dix-neuvième et vingtième siècles, l’industrialisation, les guerres mondiales et la décolonisation ont été liés à la mobilisation de tels groupes. Les élites au pouvoir ont accédé aux demandes des opposants : que le droit de vote soit étendu, sans exigences en matière de propriété, (généralement) à tous les hommes. En retour, les groupes nouvellement affranchis acceptaient de se voir imposer des limites à leur capacité d’exproprier les propriétaires. Bref, les droits de vote ont été échangés contre des droits de propriété.

Mais comme je le discute dans un travail que je réalise avec Sharun Mukand, la démocratie libérale a besoin de plus : des droits qui protègent les minorités (ce que nous pouvons appeler des droits civiques). La caractéristique distinctive du cadre politique qui génère la démocratie est qu’il exclut le principal bénéficiaire des droits civiques (les minorités) de la table des négociations. Ces minorités ont ni les ressources (contrairement à l’élite), ni le nombre (contrairement à la majorité) avec eux. Le cadre politique favorise donc un genre appauvri de démocratie (ce que l’on peut appeler la démocratie électorale) par rapport à la démocratie libérale.

Cela contribue à expliquer pourquoi la démocratie libérale est un spécimen rare. L’échec à protéger les droits des minorités est une conséquence facilement compréhensible de la logique politique derrière l’émergence de la démocratie. Ce qui appelle une explication, ce n’est pas la rareté relative de la démocratie libérale, mais son existence. La surprise n’est pas qu’il y ait si peu de démocraties libérales, mais pourquoi il y en a tout court.

Ce n’est pas vraiment une conclusion réconfortante à une époque où la démocratie libérale semble très menacée, même dans ces parties du monde où elle semblait avoir été en permanence bien établie. Mais en prenant conscience de la fragilité de la démocratie libérale, nous pouvons peut-être éviter la lassitude qui nous afflige lorsqu’on la considère comme garantie. »

Dani Rodrik, « Democracy on a knife-edge », 9 octobre 2019. Traduit par Martin Anota

jeudi 31 octobre 2019

Non, nous n’avons pas « besoin » d’une récession

« J’ai récemment reçu un email de mon ami Mark Thoma de l’Université d’Oregon, me demandant si j’ai noté une hausse des commentaires suggérant qu’une récession pourrait être une purge bienvenue et saine pour l’économie (ou quelque chose allant dans ce sens). En fait, j’ai effectivement noté un surcroît de commentateurs exprimant l’idée que les "récessions, aussi douloureuses soient-elles, sont un intrant nécessaire pour la croissance". Cela me surprend.

Bien sûr, avant qu’éclate la crise financière mondiale de 2008-2010, il n’était pas inhabituel pour certains commentateurs d’affirmer qu’une récession pouvait s’avérer "nécessaire". Mais j’ai ensuite eu tendance à penser qu’une telle idée était depuis morte et enterrée. Qui, en 2019, pourrait dire sans sourcilier qu’une récession et un chômage de masse puissent être, dans un contexte de faible inflation, une bonne chose ?

Apparemment j’avais tort. Cette idée s’avère être un exemple de ce que le lauréat du prix Nobel Paul Krugman appelle une "idée zombie (…) qui devrait être morte depuis bien longtemps sous les coups des preuves empiriques ou de la logique, mais qui continue pourtant d’avancer en titubant, en mangeant le cerveau des gens". Il est clair que ceux qui se montrent satisfaits à l’idée qu’éclate une récession n’ont jamais regardé les données. S’ils l’avaient fait, ils auraient compris que les changements structurels qui sont bénéfiques à l’économie s’opèrent lors des expansions, non durant les récessions.

Il est évident que faire passer des travailleurs d’une activité à faible productivité marginale vers une activité à productivité marginale nulle ne constitue pas un progrès. Il n’y a pas non plus de raison théorique ou empirique amenant à penser que les gens et les ressources ne peuvent être réalloués directement des activités à faible productivité marginale vers les activités à forte productivité marginale lors des expansions. Il n’y a pas de raison de croire qu’il faille un énorme gâchis des ressources pour créer les conditions pour de tels mouvements. Ceux qui se réjouissent à l’idée que des récessions puissent survenir ne sont généralement pas les consommateurs, ni les travailleurs, ni les employeurs. Ce sont plus souvent des financiers. Après tout, les travailleurs eux-mêmes sont rarement malheureux de travailler durant les expansions.

Certes, durant les années soixante-dix, le lauréat du prix Nobel d’économie Robert Lucas avait émis l’hypothèse que, dans le sillage d’un boom, les travailleurs finissent par être déçus d’avoir travaillé durant les bons temps. Ayant mal perçu les prix des biens ils achetaient, affirma Lucas, les travailleurs finissent par découvrir qu’ils avaient sous-estimé leurs salaires réels (c’est-à-dire les salaires ajustés à l’inflation) ; ils n’ont pas gagné autant qu’ils pensaient gagner. Mais Lucas n’a jamais expliqué pourquoi les travailleurs auraient plus d’informations à propos des salaires qu’à propos des prix qu’ils payent lorsqu’ils font leurs courses, versent le loyer, etc. Même comme description abstraite d’un certain processus non précisé, l’hypothèse de Lucas semblait si peu sensée.

Dans le même ordre d’idées, les consommateurs se trompent rarement sur l’utilité des produits qu’ils achètent. Et les entreprises, de même, sont rarement déçues d’avoir produit ce qu’elles ont produit durant un boom. Elles ont aussi autant d’information à propos des prix des produits qu’elles achètent que les prix des produits qu’elles vendent. Elles seraient aussi sujettes à ce que Lucas a appelé "les mauvaises perceptions nominales". Le pouvoir de monopole (et de monopsone) peuvent creuser un écart entre les prix et les recettes marginales (et entre les salaires et les coûts du travail marginaux). Mais, d’une manière générale, les entreprises préfèrent embaucher plus de travailleurs et produire davantage, qu’importe le niveau des salaires et prix en vigueur. Elles vont saisir les opportunités de profit connues dans le présent plutôt que d’attendre un avenir inconnu.

Donc, qui est vraiment le plus aveuglé lors des booms ? Ce sont tous ceux qui ont investi dans des escroqueries comme Theranos et dans des paris risqués comme WeWork et le bitcoin. Ce sont ceux qui sont désolés après coup et qui auraient préféré que la banque centrale ait retiré le bol de punch bien plus tôt. (…) Si seulement ils n’avivaient pas été dérangés par l’exubérance irrationnelle, pas prêté l’oreille à ce qu’ils ont pu entendre dans la chambre d’échos des potins financiers. Comme l’avait déclaré en plaisantant l’historien économique du vingtième siècle Charles Kindleberger, "il n'y a rien qui trouble plus notre bien-être et notre jugement que de voir un ami s'enrichir".

L’envie et la cupidité sont les muses qui convainquent toujours certains d’acheter au pic d’une bulle. Ce n’est seulement qu’après que ces idiots se demandent pourquoi il n’y avait pas eu plus de signes de risques ou ils se trouvent un argument pour se convaincre d’être lucides. Pourtant, même de ce point de vue, la conviction qu’une période de liquidation et de contraction soit nécessaire après un boom reste incompréhensible. Les cycles d’affaires peuvent s’achever avec un rééquilibrage via lequel les prix d’actifs baissent pour refléter les fondamentaux sous-jacents ou ils peuvent finir en dépressions et le chômage de masse. Il n’y a jamais de bonne raison justifiant que la seconde option doive prévaloir. »

J. Bradford DeLong, « No, we don’t "need" a recession », 1er octobre 2019. Traduit par Martin Anota



aller plus loin...

La crise a-t-elle réduit la croissance potentielle ?

Quel est l'impact de la Grande Récession sur la production potentielle ?

Quel est l’impact des récessions sur la production potentielle ?

Booms, crises et reprises : n’est-il pas temps de changer de paradigme ?

lundi 28 octobre 2019

Le Chili, l’enfant modèle du néolibéralisme tombé en disgrâce

Il n’est pas habituel pour un pays de l’OCDE de tirer sur la population et de tuer 16 personnes en deux jours d’émeutes à caractère social. (Peut-être que seule la Turquie, dans son conflit incessant contre la guérilla kurde, se rapproche le plus d’un tel niveau de violence.) C’est cependant ce que le gouvernement chilien, l’enfant modèle du néolibéralisme et de la transition vers la démocratie, a fait au cours de la dernière semaine au début des protestations qui ne présentent pas de signes d’apaisement malgré les réformes cosmétiques proposées par le Président Sebastian Piñera.

La chute en disgrâce du Chili est symptomatique de tendances mondiales qui révèlent les dommages provoqués par les politiques néolibérales au cours des vingt dernières années, allant des privatisations en Europe de l’Est et en Russie (…) aux plans d’austérité imposés aux pays en difficulté de la zone euro. Le Chili était présenté (…) comme un succès exemplaire. Les politiques agressives adoptées après la chute de Salvador Allende en 1973 et les massacres qui s’ensuivirent ont été adoucies avec la transition vers la démocratie, mais leurs aspects essentiels furent préservés. En effet, le Chili a présenté de remarquables performances en termes de croissance économique et, tandis qu’au cours des années soixante et soixante-dix il se plaçait au milieu du classement des pays d’Amérique latine en termes de PIB par tête, il est désormais le pays le plus riche d’Amérique latine. Il a bien sûr été aidé par les prix élevés du principal produit de base qu’il exporte, le cuivre, mais son succès en termes de croissance est incontestable. Le Chili en a été "récompensé" en accédant à l’OCDE, le club de pays riches. Il a été le premier pays d’Amérique du Sud à y faire son entrée.

Là où le pays a échoué, c’est dans le domaine des politiques sociales, qui étaient bizarrement considérées par beaucoup comme une réussite. Dans les années quatre-vingt et quatre-vingt-dix, la Banque mondiale a fait les louanges des politiques chiliennes de flexibilisation du marché du travail, qui consistèrent à casser les syndicats et à imposer un modèle de négociations entre employeurs et salariés au niveau des branches plutôt que de permettre à une organisation syndicale de négocier pour l’ensemble des travailleurs. Le Chili a même été bizarrement présenté par la Banque mondiale comme un modèle de transparence et de bonne gouvernance, quelque chose que les pays en transition en Europe de l’Est étaient appelés à prendre comme exemple. Le frère de l’actuel Président chilien (tous deux sont les rejetons de l’une des familles les plus riches au Chili) est devenu célèbre pour avoir introduit, en tant que Ministre du Travail et de la Sécurité sociale sous Pinochet, un système de retraites où les salariés payent des cotisations obligatoires à partir de leurs salaires pour les placer dans l’un des divers fonds de pensions et où ils reçoivent, une fois à la retraite, des pensions basées sur la performance de tels fonds. Les pensions de retraite devinrent l’objet d’un capitalisme de roulette russe. Mais au cours du processus, les fonds de pensions, qui imposaient des frais élevés, et leurs gestionnaires s’enrichirent. José Piñera a essayé de "vendre" ce modèle à la Russie d’Eltsine et aux Etats-Unis de George Bush, mais il échoua malgré le soutien puissant (et assez compréhensible) des communautés financières dans ces deux pays. Aujourd’hui, la plupart des retraités chiliens gagnent entre 200 et 300 dollars par mois dans un pays où le niveau des prix est d’environ 80 % de celui des Etats-Unis (selon le Projet de Comparaisons Internationales, un projet mené conjointement par les Nations unies et la Banque mondiale pour comparer les niveaux des prix à travers le monde).

Alors que le Chili se démarque en Amérique latine par le niveau de son PIB par tête, il se singularise aussi en termes d’inégalités. En 2015, son niveau d’inégalités de revenu était plus élevé que dans n’importe quel autre pays d’Amérique latine, à l’exception de la Colombie et du Honduras. Il dépasse même le niveau d’inégalités en Brésil. Au Chili, les 5 % les plus pauvres ont un niveau de revenu qui est environ le même que celui des 5 % les plus pauvres en Mongolie, tandis que les 2 % les plus riches jouissent d’un niveau de revenu équivalent à celui des 2 % les plus riches en Allemagne. Ce sont Dortmund et les banlieues pauvres d’Ulan Bator qui ont été réunis.

La répartition du revenu au Chili est extrêmement inégale. Mais la répartition du patrimoine l’est davantage encore. Ici, le Chili est exceptionnel, même en comparaison avec le reste de l’Amérique latine. Selon les données de 2014 de Forbes à propos des milliardaires dans le monde, la richesse combinée des milliardaires chiliens (il y en a douze) était égale à 25 % du PIB chilien. Les pays suivants d’Amérique latine ayant des niveaux élevés de concentration des richesses sont le Mexique et le Pérou, où la part du patrimoine des milliardaires est d’environ la moitié de celui du Chili (en l’occurrence, 13 % du PIB). Mais encore mieux : le Chili est le pays où la part détenue par les milliardaires, en termes de PIB, est la plus élevée au monde (si nous excluons des pays comme le Liban et Chypre, où plusieurs milliardaires étrangers "parquent" simplement leur richesse pour des raisons fiscales). Le patrimoine des milliardaires du Chili, relativement au PIB de leur pays, dépasse même celui des Russes.

GRAPHIQUE Patrimoine détenu par les milliardaires de chaque pays, rapporté au PIB de ce dernier (en %)

Branko_Milanovic__patrimoine_des_milliardaires_rapporte_au_PIB_de_leur_pays.png

D’aussi amples inégalités de richesse et de revenu, combinées avec une pleine marchandisation de plusieurs services sociaux (l’eau, l’électricité, etc.) et des pensions de retraite qui dépendent des variations des cours boursiers, ont longtemps été "dissimulées" aux yeux des observateurs étrangers par la réussite du Chili à accroître son PIB par habitant. Mais les récentes protestations montrent que la hausse de ce dernier ne suffit pas. La croissance est indispensable pour le succès économique et la réduction de la pauvreté. Mais elle ne suffit pas : s’il n’y a pas de justice sociale et un minimum de cohésion sociale, les effets de la croissance se dissolvent en souffrances, en protestations et, oui, en tirs contre la population. »

Branko Milanovic, « Chile: The poster boy of neoliberalism who fell from grace », in globalinequality (blog), 26 octobre 2019. Traduit par Martin Anota

mardi 22 octobre 2019

L’énigmatique attrait de la globalisation financière

« Après s’en être protégée pendant des décennies, la Chine a finalement embrassé la globalisation financière, en annonçant récemment qu’elle éliminerait le contrôle des capitaux pour laisser circuler dans son économie les capitaux étrangers de court terme (les capitaux fébriles). A l’inverse, après plusieurs décennies de cycles de booms et d’effondrements, l’Argentine fait face à une autre crise macroéconomique et a finalement instauré un contrôle des capitaux pour empêcher un déclin catastrophique de sa devise.

Ces deux épisodes rappellent l’attrait intellectuel que la globalisation financière exerce toujours sur les responsables politiques, malgré son histoire remplie d’échecs. Pourquoi, après tout, la Chine abandonnerait-elle son contrôle des capitaux maintenant ? Et pourquoi l’Argentine a-t-elle tardé à adopter des mesures qui semblaient manifestement nécessaires ?

Le miracle économique chinois a plusieurs sources. En plus de l’ouverture aux marchés, la Chine a bénéficié des exportations et des investissements étrangers, de la migration interne et des systèmes éducatif et sanitaire laissés en héritage par l’ère maoïste. C’est aussi l’héritier civilisationnel d’un Etat fort, effectif avec des dirigeants éclairés, mais féroces. Sa population désire collectivement la stabilité. Mais un important facteur derrière l’essor de la Chine a été la décision de ne pas ouvrir l’économie aux flux de capitaux.

Considérons l’histoire contrefactuelle suivante. A la fin des années quatre-vingt-dix, quand le miracle économique chinois devenait évident, la Chine aurait pu facilement succomber à l’orthodoxie qui prévalait alors sur la globalisation financière. Si elle l’avait fait, cela se serait traduit par un essor des capitaux étrangers en quête de hauts rendements, une appréciation rapide du renminbi, une plus faible croissance des exportations et une perte en dynamisme. La machine à l’exportation chinoise ne serait pas devenue le poids lourd qu’elle est devenue et son économie aurait souffert davantage de volatilité en conséquence de la versatilité des capitaux étrangers. En fait, l’Argentine, avec sa volatilité macroéconomique périodique et ses crises financières récurrentes, offre une illustration parfaite de ces revers.

Presque chaque crise financière dans les pays émergents de ces dernières décennies a été précédée ou accompagnée d’une hausse des entrées de capitaux. Cela a été le cas de l’Amérique latine dans les années quatre-vingt, de l’Inde en 1991, du Mexique en 1994 et de l’Asie de l’Est et de la Russie à la fin des années quatre-vingt-dix. Cela a également été le cas du Brésil, de la Turquie et de l’Argentine au début des années deux mille ; des Baltiques, de l’Islande, de la Grèce et de l’Espagne à la fin des années deux mille et au début des années deux mille dix ; et le cas des cinq pays émergents "fragiles" (le Brésil, l’Inde, l’Indonésie, l’Afrique du Sud et la Turquie) en 2013. Et c’est vrai dans le cas de l’Argentine aujourd’hui.

Certes, les flux de capitaux ont souvent reflété des problèmes politiques ou des déséquilibres plus profonds dans un pays émergent donné. Mais ils sont aussi habituellement le mécanisme de transmission pour les crises et ils ont donc intensifié les coûts éventuels pour ces économies. Bien que la plupart des dogmes du consensus néolibéral (la privatisation, la déréglementation, l’intégration commerciale, l’immigration, la discipline budgétaire et la primauté de la croissance sur la répartition) soient maintenant remis en cause ou rejetés purement et simplement, la globalisation financière reste une exception criante.

La prépondérance des preuves empiriques suggère que la globalisation financière, en particulier les capitaux fébriles sans restriction, aggrave l’instabilité macroéconomique, crée les conditions pour les crises financières et atténue la croissance à long terme en rendant le secteur échangeable moins compétitif. Peu d’économistes évoqueraient la globalisation financière comme une pré-requis essentiel pour un développement soutenu à long terme ou pour la stabilité macroéconomique. Et les arguments avancés en sa faveur présument que chaque pays a déjà adopté certaines exigences réglementaires. La plupart des pays ne les ont pas adoptées et ne le peuvent probablement pas, sauf à long terme.

Alors que le FMI a commencé à avoir un avis plus nuancé sur les restrictions imposées aux flux de capitaux (tout du moins, il y voit un dernier recours à utiliser temporairement face aux entrées déstabilisatrices de capitaux), le dogme de la globalisation financière reste intact. L’une des raisons est peut-être que l’économie du développement n’a pas abandonné son fondamentalisme quant aux ressources et à l’épargne, ce fondamentalisme qui attribuait le sous-développement à un manque d’épargne domestique. L’implication de cette idée est que les pays en développement et émergents doivent attirer des ressources à travers l’aide étrangère ou, après que le scepticisme relatif à l’aide se soit généralisé, grâce aux capitaux privés étrangers.

La résilience de l’orthodoxie s’explique aussi par la puissance des intérêts financiers bien établis qui ont fait barrage à de nouveaux contrôles sur les flux de capitaux transfrontaliers. Les élites aisées dans plusieurs pays, en particulier en Amérique latine et en Afrique du Sud, ont rapidement embrassé la globalisation financière parce qu’elles y voyaient un moyen leur permettant de mettre à l’abri leur richesse. Dans ces cas-là, avec l’inertie politique et les coûts possibles en termes de réputation, il fut difficile de revenir en arrière. Les élites financières mondiales se sont pendant longtemps appuyées sur un récit qui présentait le contrôle de capitaux comme une forme d’expropriation et les décideurs politiques responsables ne voulaient pas être perçus comme susceptibles de remettre en question les droits de propriété.

Plus récemment, les restrictions sur les flux financiers apparaissaient moins comme un anathème, parce que plusieurs pays en développement ont réussi à surmonter le "péché originel" qu’elles commettaient en empruntant dans une devise étrangère. Dans la hiérarchie désormais acceptée, les flux financiers libellés dans la devise locale sont mieux classés que les flux libellés en dollar, parce qu’ils ne se traduisent pas par des fardeaux d’endettement explosifs lorsque le taux de change s’affaiblit excessivement. Les formes d’emprunt qui permettent d’éviter ces effets de bilan sont logiquement considérés comme moins problématiques.

Néanmoins, dans le contexte actuel de croissance anémique chronique et de taux d’intérêt de long terme faibles, voire même négatifs, dans les pays développés (la "japonification"), il y a le danger que les pays en développement soient tentés d’emprunter davantage en devises étrangères. Cette trajectoire va seulement mener à davantage de volatilité, à des crises plus fréquentes et à un moindre dynamisme global. Mais plus de pays choisissent néanmoins cette voie et cela ne semble pas troubler les partisans du nouveau révisionnisme intellectuel. »

Dani Rodrik et Arvind Subramanian, « The puzzling lure of financial globalization », 25 septembre 2019. Traduit par Martin Anota



« Pourquoi cette opposition viscérale aux contrôles des capitaux ? »

« L’ouverture financière stimule-t-elle la croissance économique ? »

« Le coût des larges entrées de capitaux »

lundi 14 octobre 2019

Prix Nobel 2019 : Banerjee, Duflo et Kremer cherchent à réduire la pauvreté dans le monde

Abhijit_Banerjee_Esther_Duflo_Michael_Kremer_Nobel.png

« Quelle est la meilleure façon de concevoir des mesures qui réduisent la pauvreté dans le monde ? En utilisant une recherche innovante basée sur des expériences de terrain (field experiments), Abhijit Banerjee, Esther Duflo et Michael Kremer ont jeté les bases pour répondre à cette question qui est si vitale pour l’humanité.

Au cours des deux dernières décennies, les niveaux de vie des populations se sont significativement améliorés presque partout dans le monde. Le bien-être économique (mesuré avec le PIB par tête) a doublé dans les pays les plus pauvres entre 1995 et 2018. La mortalité infantile a diminué de moitié par rapport à 1995 et la proportion d’enfants scolarisés est passée de 56 % à 80 %.

Malgré ces progrès, de gigantesques défis demeurent. Plus de 700 millions de personnes vivent toujours avec des revenus extrêmement faibles. Chaque année, cinq millions d’enfants meurent avant leur cinquième anniversaire, souvent en raison de maladies qui auraient pu être évitées ou soignées avec des traitements simples et relativement peu chers. La moitié des enfants dans le monde quittent toujours l’école sans maitriser la lecture et des notions en mathématique.

Une nouvelle approche pour réduire la pauvreté dans le monde


De façon à combattre la pauvreté dans le monde, nous devons identifier les formes d’action les plus efficaces. Abhijit Banerjee, Esther Duflo et Michael Kremer ont montré comment l’on pouvait s’attaquer au problème de la pauvreté dans le monde en le morcelant en plusieurs questions plus petites, mais plus précises, au niveau des groupes ou des individus. Ils ont ensuite répondu à chacune de ces questions en utilisant une expérience de terrain spécialement conçue. Au cours des vingt dernières années, cette approche a complètement refaçonné la recherche dans le domaine de l’économie du développement. Cette nouvelle recherche fournit désormais un flux régulier de résultats concrets, contribuant à réduire les problèmes de pauvreté dans le monde.

Cela fait longtemps que l’on a conscience des différences dans la productivité moyenne entre les pays riches et les pays pauvres. Cependant, comme Banerjee et Duflo l’ont noté, la productivité diffère fortement, pas seulement entre les pays riches et les pays pauvres, mais aussi au sein même des pays pauvres. Certains individus ou certaines entreprises utilisent la dernière technologie disponible, tandis que d’autres (qui produisent des biens ou services similaires) utilisent des moyens de production obsolètes. La faible productivité moyenne est donc largement due à certains individus ou certaines entreprises à la traîne. Est-ce que cela reflète un problème d’accès au crédit, à des politiques mal conçues ou au fait que les gens trouvent cela difficile de prendre des décisions d’investissement parfaitement rationnelles ? Cette approche de recherche conçue par les lauréats de cette année traite de ces questions.

Les premières expériences de terrain dans les écoles


Les premières études des lauréats ont examiné les problèmes relatifs à l’éducation. Quelles interventions accroissent les résultats éducationnels au coût le plus faible ? Dans les pays à faible revenu, les manuels sont rares et les enfants vont souvent à l’école en ayant faim. Est-ce que les résultats des élèves s’amélioreraient s’ils avaient accès à davantage de manuels ? Ou serait-il plus efficace de leur donner des repas gratuits à l’école ? Au milieu des années quatre-vingt-dix, Michael Kremer et ses collègues décidèrent de déplacer une partie de leur recherche de leurs universités au nord-est des Etats-Unis vers les campagnes à l’ouest du Kenya de façon à répondre à ce type de questions. Ils réalisent plusieurs expériences de terrain en partenariat avec une organisation local non gouvernementale (ONG).

Nobel_resume_2019.png

Pourquoi est-ce que ces chercheurs choisirent d’utiliser les expériences de terrain ? Eh bien, si vous voulez examiner l’effet de l’introduction de manuels supplémentaires sur les résultats scolaires des élèves, par exemple, comparer simplement les écoles avec différents accès aux manuels ne constitue pas une approche viable. Les écoles peuvent différer les unes des autres de plusieurs façons : les familles les plus riches achètent habituellement plus de livres pour leurs enfants, les notes sont généralement meilleures dans les écoles où moins d’enfants sont très pauvres, et ainsi de suite. Une façon de contourner ces difficultés est de s’assurer que les écoles qui font l’objet d’une comparaison aient les mêmes caractéristiques en moyenne. On peut y parvenir en laissant le hasard décider quelles écoles sont à placer dans tel ou tel groupe de comparaison, une vieille intuition qui sous-tend la longue tradition d’expérimentations dans les sciences naturelles et en médecine. Contrairement aux essais cliniques traditionnels, Banerjee, Duflo et Kremer ont utilisé les expériences de terrain dans lesquelles ils étudient comment les individus se comportent dans leurs environnements quotidiens.

Kremer et ses collègues sélectionnèrent de nombreuses écoles qui avaient besoin d’un soutien et les répartirent aléatoirement en différents groupes. Les écoles reçurent toutes des ressources supplémentaires, mais sous des formes différentes et en différents instants selon le groupe. Dans une étude, un groupe reçut plus de manuels, tandis qu’une autre étude examina les repas gratuits à l’école. Parce que le hasard avait déterminé quelles écoles recevraient telles ou telles ressources, il n’y avait pas de différences moyennes entre les différents groupes au début de l’expérience. Les chercheurs purent donc lier de façon crédible les différences dans les résultats en matière d’apprentissage aux différences dans l’attribution des soutiens. Les expériences montrèrent que ni un supplément de manuels, ni les repas gratuits à l’école ne firent une différence dans les résultats scolaires. Si les manuels présentaient un quelconque effet positif, cela ne s’appliquait qu’aux meilleures élèves.

Les dernières expériences de terrain ont montré que le principal problème dans beaucoup de pays à faible revenu n’est pas le manque de ressources. Le plus gros problème est que l’enseignement n’est pas suffisamment adapté aux besoins des élèves. Dans la première de ces expérimentations, Banerjee, Duflo et leurs coauteurs étudièrent les programmes de tutorat pour les élèves dans deux villes indiennes. Des écoles à Bombay et Vadodara reçurent un plus grand accès aux nouveaux auxiliaires pédagogiques qui soutinrent les enfants avec des besoins spécifiques. Ces écoles furent ingénieusement et aléatoirement placées dans différents groupes, permettant aux chercheurs de mesurer de façon crédible les effets des auxiliaires pédagogiques. L’expérience montra clairement que cibler les élèves les plus en difficulté était une mesure efficace à court terme comme à moyen terme.

Ces premières études au Kenya et en Inde furent suivies par plusieurs autres expériences de terrain dans d’autres pays, se focalisant sur d’importants domaines tels que la santé, l’accès au crédit et l’adoption de nouvelles technologies. Les trois lauréats furent en première ligne de cette recherche. Grâce à leurs travaux, les expériences de terrain sont devenues la méthode standard des économistes du développement lorsqu’il s’agit d’étudier les effets de mesures pour atténuer la pauvreté.

Des expériences de terrain liées à la théorie


Des expériences bien conçues sont particulièrement fiables ; elles ont une validité interne. Cette méthode a été fréquemment utilisée dans les essais cliniques traditionnels pour de nouveaux médicaments qui ont recruté spécialement des participants. La question a souvent été si un traitement particulier avait ou non un effet statistiquement significatif.

Les expériences conçues par Banerjee, Duflo et Kremer ont deux aspects distincts. Premièrement, les participants prenaient leurs décisions dans leur environnement quotidien, que ce soit dans le groupe d’intervention ou dans le groupe de contrôle. Cela signifie que les résultats de l’examen d’une nouvelle mesure de politique publique, par exemple, pouvaient souvent être appliqués sur place.

Deuxièmement, les lauréats s’appuyèrent sur l’intuition fondamentale que l’essentiel de ce qu’ils voulaient améliorer (par exemple les résultats scolaires) reflètent diverses décisions individuelles (par exemple de la part des élèves, de leurs parents ou des professeurs). Des améliorations soutenables requièrent donc une compréhension des raisons pour lesquelles les gens prennent les décisions qu’ils prennent, les forces motrices derrière leurs décisions. Non seulement Banerjee, Duflo et Kremer testèrent si une intervention donnée fonctionnait (ou non), mais ils cherchèrent aussi à savoir pourquoi.

Pour étudier les incitations, les restrictions et l’information qui motiva les décisions des participants, les lauréats utilisèrent la théorie des contrats et l’économie comportement qui furent respectivement récompensées par le prix de sciences économiques en 2016 et 2017.

La généralisation des résultats


Une question clé est si les résultats expérimentaux ont une validité externe ; en d’autres mots, si les résultats s’appliquent à d’autres contextes. Est-il possible de généraliser les résultats des expérimentations dans les écoles kényanes aux écoles indiennes ? Est-ce que cela fait une différence si c’est une ONG spécialisée plutôt qu’une administration publique qui procède à une intervention particulière visant à améliorer la santé ? Que se passe-t-il si une intervention expérimentale est menée sur une plus grande échelle, à partir d’un petit groupe d’individus pour inclure davantage de personnes ? Est-ce que l’intervention affecte aussi les individus en-dehors du groupe d’intervention, parce qu’ils sont évincés de l’accès aux ressources rares ou font face à des prix plus élevés ?

Banerjee, Duflo et Kremer ont aussi été en première ligne de la recherche sur la question de validité externe et développé de nouvelles méthodes qui considèrent les effets d’éviction et d’autres effets de débordement. Relier étroitement les expériences à la théorie économique accroît aussi les opportunités pour que les résultats soient généralisés, comme les schémas fondamentaux du comportement ont souvent une incidence dans des contextes élargis.

Les résultats concrets


Ci-dessous nous présentons quelques exemples de conclusions spécifiques tirées du type de recherche initié par Banerjee, Duflo et Kremer, en plaçant l’emphase sur leurs propres études.

L’éducation : Nous avons maintenant une bonne perspective sur les principaux problèmes dans les écoles de plusieurs pays pauvres. Les programmes et l’enseignement ne correspondent pas aux besoins des élèves. Il y a un fort niveau d’absentéisme parmi les enseignants et les institutions éducatives sont généralement défaillantes.

L’étude que nous avons mentionnée réalisée par Banerjee, Duflo et leurs coauteurs a montré que le soutien ciblé pour les élèves faibles avait de forts effets positifs, même à moyen terme. Cette étude était le départ d’un processus interactif, dans lequel les résultats de nouvelles études allèrent main dans la main avec des programmes menés sur des échelles de plus en plus grandes pour aider les élèves. Ces programmes ont concerné plus de 100.000 écoles indiennes.

D’autres expériences de terrain étudièrent le manque d’incitations claires et d’accountability pour les enseignants, qui se traduisait par un fort absentéisme. Une façon de stimuler la motivation des enseignants était de les employer sur des contrats de court terme qui pouvaient être prolongés s’ils obtenaient de bons résultats. Duflo, Kremer et leurs coauteurs comparèrent les effets de l’emploi des enseignants employés sur de tels contrats en réduisant le nombre d’élèves pour les enseignants employés de façon permanente. Ils constatèrent que les élèves qui avaient des enseignants employés sur des contrats courts avaient des résultats significativement meilleurs, mais que la réduction du nombre d’élèves par enseignant employé sur des contrats permanents n’avait pas d’effets significatifs.

Globalement, cette nouvelle recherche basée sur les expériences autour de l’éducation dans les pays à faible revenu montre que les ressources additionnelles sont, en général, de valeur limitée. Cependant, les réformes éducationnelles qui adaptent l’enseignement aux besoins des élèves sont de grande valeur. Améliorer la gouvernance des écoles et demander plus de responsabilité de la part des enseignants qui ne font pas leur boulot sont aussi des mesures efficaces en termes de coûts.

La santé : Un problème important est si la médecine et les soins de santé doivent être payants et, si c’est le cas, quel doit être leur prix. Une expérience de terrain réalisée par Kremer et ses coauteurs ont cherché comment la demande de comprimés de déparasitage était affectée par le prix. Ils constatèrent que 75 % des parents donnèrent à leurs enfants ces comprimés quand leur distribution était gratuite, contre 18 % quand ils coûtaient moins d’un dollar américain, ce qui était déjà fortement subventionné. En conséquence, plusieurs expériences similaires ont constaté la même chose : les pauvres sont extrêmement sensibles au prix en ce qui concerne les investissements dans la santé préventive.

Banerjee_Duflo__experience_vaccin_lentilles_cliniques_mobiles__1.png

Une faible qualité de service est une autre explication pourquoi les familles pauvres investissent si peu dans les mesures préventives. Un exemple est que le personnel dans les centres de santé qui sont responsables de la vaccination est souvent absent au travail. Banerjee, Duflo et leurs coauteurs cherchèrent à savoir si les cliniques de vaccination mobiles (où l’équipe soignante était toujours sur place) pouvaient régler le problème. Les taux de vaccination triplèrent dans les villages qui furent sélectionnés aléatoirement pour avoir accès à ces cliniques, à 18 % contre 6 %. Cette part augmenta davantage, à 39 %, lorsque les familles recevaient un sac de lentilles en bonus quand ils vaccinèrent leurs enfants. Parce que la clinique mobile avait un niveau élevé de coûts fixes, le coût total par vaccination diminua de moitié, malgré les dépenses additionnelles en lentilles.

Banerjee_Duflo__experience_vaccin_lentilles_cliniques_mobiles__2.png

La rationalité limitée : Dans l’étude sur la vaccination, les incitations et une plus grande disponibilité des soins ne résolvent pas complètement le problème, dans la mesure où 61 % des enfants restaient partiellement immunisés. Le faible taux de vaccination dans plusieurs pays pauvres a probablement d’autres causes, dont notamment le fait que les gens ne soient pas toujours complètement rationnels. Cette explication peut aussi éclairer d’autres observations qui, du moins initialement, apparaissent difficiles à comprendre.

L’une de ces observations est que beaucoup de gens sont réticents à adopter la technologie moderne. Dans une expérimentation de terrain intelligemment conçue, Duflo, Kremer et leurs coauteurs cherchèrent à comprendre pourquoi les petits exploitants (en particulier en Afrique subsaharienne) n’adoptaient pas des innovations relativement simples, telles que les engrais artificiels, alors même qu’ils en tireraient de grands bénéfices. Une explication est le biais vis-à-vis du présent : le présent prend une grande place dans la conscience des gens, si bien qu’ils tendent à reporter leurs décisions d’investissement. Le lendemain, ils font de nouveau face à la même décision et choisissent à nouveau de reporter l’investissement. La conséquence peut être un cercle vicieux où les individus n’investissent pas dans l’avenir, même si c’est dans leur intérêt à long terme de le faire.

La rationalité limitée a d’importantes implications pour la conception de la politique publique. Si les individus présentent un biais vis-à-vis du présent, alors les subventions temporaires sont plus efficaces que les subventions permanentes : une offre qui s’applique seulement ici et aujourd’hui réduit les incitations à retarder l’investissement. C’est exactement ce que Duflo, Kremer et leurs coauteurs ont découvert dans leur expérimentation : les subventions temporaires avaient un effet considérablement plus fort sur l’usage de l’engrais que les subventions permanentes.

Le microcrédit : Les économistes du développement ont aussi utilisé les expériences de terrain pour évaluer les programmes qui ont déjà été mis en œuvre à grande échelle. Un exemple est l’introduction massive de microprêts dans divers pays, chose qui avait été accueillie avec optimisme. Banerjee, Duflo et leurs coauteurs ont réalisé une étude initiale sur un programme de microcrédit qui se focalisa sur des ménages pauvres dans la métropole indienne d’Hyderabad. Leurs expériences de terrain montrèrent des effets positifs assez faibles sur les investisseurs des petites entreprises existantes, mais ils ne trouvèrent pas d’effets sur la consommation ou d’autres indicateurs de développement, que ce soit 18 ou 36 mois après. Des expériences similaires menées dans des pays comme la Bosnie-Herzégovine, l’Ethiopie, le Maroc, le Mexique et la Mongolie ont abouti à des résultats similaires.

L’influence sur la politique publique


Les travaux de Banerjee, Duflo et Kremer ont eu des effets clairs sur la politique publique, que ce soit directement ou indirectement. Naturellement, il est impossible de mesurer précisément dans quel mesure leurs recherches ont contribué façonner les politiques menées dans divers pays. Cependant, il est parfois possible de tirer une ligne droite de la recherche vers la politique.

Certaines des études que nous avons mentionnées ont en effet eu un impact direct sur la politique publique. Les études sur le tutorat ont fourni des arguments pour des programmes de soutien à grande échelle qui concernent désormais plus de cinq millions d’enfants en Inde. Les études sur le déparasitage ont non seulement montré que le déparasitage rapportait des bénéfices de santé manifestes pour les écoliers, mais aussi que leurs parents étaient très sensibles au prix. En accord avec ces résultats, l’OMS recommande que les soins médicaux soient fournis gratuitement à plus de 800 millions d’écoliers vivant dans les zones où plus de 20 % d’entre eux ont un type spécifique d’infection parasitaire.

Il y a aussi des estimations grossières du nombre de personnes qui ont été affectées par ces résultats d’études. L’une de ces estimations provient d’un réseau de recherche mondial que Banerjee et Duflo ont contribué à créer (J-PAL) ; les programmes qui ont été menés sur une plus grande échelle après évaluation par les chercheurs du réseau ont concerné plus de 400 millions de personnes. Cependant, cela sous-estime clairement l’impact total de la recherche parce que beaucoup d’économistes du développement ne sont pas affiliés à J-PAL. Les travaux pour combattre la pauvreté impliquent aussi de ne pas investir l’argent dans des mesures inefficaces. Les gouvernements et les associations ont libéré d’amples ressources pour des mesures plus efficaces en fermant plusieurs programmes qui furent évalués en utilisant des méthodes fiables et qui se révélèrent être inefficaces.

Les recherches de Banerjee, Duflo et Kremer ont aussi eu une influence indirecte, en changeant le fonctionnement des organisations publiques et privées. De façon à prendre de meilleures décisions, accroître le nombre d’organisations qui combattent la pauvreté mondiale a systématiquement commencé par une évaluation des nouvelles mesures, souvent en utilisant les expériences de terrain.

Les lauréats de cette année ont joué un rôle décisif pour refaçonner la recherche dans l’économie du développement. Au cours des vingt dernières années, le sujet est devenu une zone florissante, essentiellement expérimentale, de l’économie orthodoxe. Cette nouvelle recherche fondée sur l’expérimentation a déjà contribué à réduire la pauvreté dans le monde et a un grand potentiel pour améliorer davantage la vie des personnes les plus pauvres sur la planète. »

L'Académie royale des sciences de Suède, « Research to help the world’s poor. Popular science background », 14 octobre 2019. Traduit par Martin Anota

vendredi 11 octobre 2019

Martin Weitzman, cet économiste du changement climatique qui a bouleversé ma vision du monde

« J’ai lu beaucoup d’articles d’économie, mais je n’ai pas beaucoup lu d’articles d’économie qui me fassent réfléchir, qui me fassent dire "cela change tout". Mais Martin Weitzman en a écrit un. Je me souviens très bien de l’endroit où j’étais lorsque je l’ai lu. Même pour un intello comme moi, ce n’est pas habituel.

Le professeur Weitzman s’est donné la mort fin août. Il avait 77 ans et on dit qu’il s’inquiétait beaucoup de perdre sa lucidité.

La triste disparition de Weitzman m’a amené à réfléchir sur ce qui a pu, dans cet article, autant me frapper. C’était un commentaire à propos du rapport de Lord Nicholas Stern sur l’économie du changement climatique. Weitzman a gentiment démoli le rapport Stern ("exact pour de mauvaises raisons") et a présenté une vision alternative du problème.

Pour ceux d’entre nous qui pensent que le changement climatique nécessite une action ferme et urgente, il y a deux faits dérangeants à prendre en compte. Le premier est que ses répercussions les plus inquiétantes (notamment les déluges, les mauvaises récoltes et les maladies) vont mettre plusieurs décennies, voire plusieurs siècles, avant de pleinement se manifester. Le deuxième est que, dans la mesure où le monde s’est fortement enrichi, les générations futures sont susceptibles d’être bien plus riches que nous ne le sommes.

Ces deux faits dérangeants nous amènent à conclure qu’il ne faudrait pas faire quelque chose de trop cher à court terme.

Voici une petite analogie. Imaginez que je découvre un problème d’humidité encore naissant dans mon logement. Un expert me dit que si je dépense 1.000 euros aujourd’hui, cela économisera 5.000 euros à mes arrière-petits-enfants en travaux de réparation dans un siècle. A première vue, il semble que je devrais régler ce problème d’humidité. Après réflexion, il pourrait être égoïste que je dépense ainsi cette somme aujourd’hui. Il vaudrait mieux que je place 1.000 euros en Bourse pour le compte de mes arrière-petits-enfants. Avec un taux de rendement réel de 3 % par an, cette somme rapporterait 20.000 euros ; avec un rendement de 5 %, elle rapporterait 130.000 euros. Dans tous les cas, mes arrière-petits-enfants ne seraient-ils pas plus riches que je ne le suis, tout comme je suis bien plus riche que ne l’étaient mes arrière-grands-parents ? Pourquoi s’inquiéter ? Mes arrière-petits-enfants pourront facilement régler le problème.

Cette simplification excessive des complexités du changement climatique permet d’évoquer quelque chose d’important. L’appel à l’action lancé par Lord Stern dépend du fait que nos descendants très riches vivant dans un avenir très éloigné prennent un poids important dans nos calculs. Il est difficile (pas impossible, mais difficile), de concilier cela avec la façon par laquelle nous nous comportons concernant d’autres problèmes, personnels ou sociaux. Nous ne mettons tout simplement pas de côté les neuf dixièmes de notre revenu pour en faire bénéficier les générations futures.

Weitzman a été l’un des économistes les plus importants qui aient soulevé ce problème. Mais il nous a ensuite demandé d’envisager le risque d’effets d’emballement. Un exemple : à mesure que le permafrost arctique fond, un large volume de méthane, un puissant gaz à effet de serre, est susceptible de s’en échapper. D’autres économistes ont reconnu le problème des "risques extrêmes" (tail risks), qui ne sont pas pris en compte dans les scénarii considérés comme les plus probables, mais personne n’a autant réfléchi à ces risques que Weitzman.

Les estimations centrales peuvent nous tromper. Le scénario le plus probable est que le changement climatique va provoquer des dégâts significatifs, mais gérables, pour les générations futures. Par exemple, l’Organisation Mondiale de la Santé estime qu’entre 2030 et 2050, le changement climatique pourrait provoquer 250.000 morts supplémentaires chaque année, en raison de menaces comme la malaria, l’exposition aux fortes chaleurs et la malnutrition, un problème moins grave que la pollution de l’air locale et la pollution atmosphérique à l’intérieur des habitations, un problème qui tue 8 millions de personnes chaque année. Si nous nous focalisons sur la prévision centrale, c’est la pollution atmosphérique au niveau local qui devrait retenir l’essentiel de notre attention.

Ce n’est seulement que lorsque que nous prenons en compte le risque extrême que nous réalisons à quel point le changement climatique pourrait être dangereux. La pollution atmosphérique locale ne va pas éradiquer l’humanité. Le changement climatique ne le fera probablement pas non plus. Mais il le peut. Quand nous achetons une assurance, ce n’est pas parce que nous nous attendons au pire, mais parce que nous savons que le pire peut se produire.

La contribution qui ouvre vraiment les yeux (du moins pour moi) a été l’explication de Weitzman que le pire scénario possible doit avoir un poids important dans les calculs rationnels. S’il y a une chance infime que le problème d’humidité donne à mes arrière-grands-enfants une pneumonie fatale, je ne dois pas l’ignorer. Et mes arrière-grands-enfants ne voudraient pas que je l’ignore : probablement riches, ils seraient heureux de sacrifier une petite fraction de leur revenu pour éviter de mourir hâtivement. Mais ils n’ont pas le choix. C’est moi qui l’ai.

Weitzman a été un homme particulièrement ingénieux. D’autres de ses contributions célèbres ont étudié l’arbitrage entre les taxes des émissions polluantes et les permis d’émissions, le problème de l’"Arche de Noé" de ce sur quoi il faut se focaliser quand il s’agit de préserver la biodiversité et l’un des premiers arguments en faveur d’un partage des profits des entreprises avec leurs salariés.

"Si nous ne pensons pas qu’une idée mérite le prix Nobel, nous ne devrions pas travailler dessus", a-t-il dit à un collègue. Certains économistes diraient qu’il a atteint cette norme plus d’une fois. Et ils ont été surpris d’apprendre qu’il ne partageait pas le prix Nobel l’année dernière, lorsque William Nordhaus a été récompensé pour ses travaux dans le domaine de l’économie du changement climatique.

Néanmoins, le message des récents travaux de Weitzman a influencé les débats sur le changement climatique : il ne faut pas ignorer les scenarii extrêmes. Ce que nous ne savons pas à propos du changement climatique est bien plus important, et bien plus dangereux, que ce que nous en savons. »

Tim Harford, « How this climate change economist changed my world ». Traduit par Martin Anota

lundi 7 octobre 2019

Le retour de la politique budgétaire ?

« Alors que nous entrons dans le dernier trimestre de l’année 2019 (et de la décennie), les indicateurs conjoncturels suggèrent que l’économie mondiale ralentit, notamment en raison de plusieurs tendances structurelles. Il y a de nombreux problèmes qui retiennent notre attention, que ce soit le changement climatique, la résistance des microbes aux vaccins, le vieillissement démographique, le déficit des systèmes de soin et de santé, les niveaux élevés d’endettement et la guerre commerciale en cours.

Mais comme le dit le vieux proverbe, on ne doit jamais gâcher une crise. L’un des pays qui essuient le plus les contrecoups des tensions commerciales en cours est l’Allemagne, où les autorités semblent enfin prendre conscience de la nécessité d’adopter une relance budgétaire fondée sur les investissements favorables à la productivité. De même, en proie au chaos généré par le Brexit, le Royaume-Uni considère aussi l’option de la relance budgétaire. Tout comme la Chine, qui cherche des mesures pour réduire sa vulnérabilité aux perturbations du commerce international et des chaînes de valeur.

Les responsables tout autour du monde prennent conscience qu’il n’est ni sage, ni même possible de constamment se reposer sur les banques centrales pour stimuler l’économie. Dans l’environnement actuel caractérisé par des taux d’intérêt faibles, voire négatifs, l’opportunité de faire basculer la tâche du soutien conjoncturel de la politique monétaire à la politique budgétaire apparaît plus nettement.

Au début du moins de septembre, la BCE a décidé de poursuivre sa baisse des taux et d’amorcer un nouveau cycle d’assouplissement quantitatif (quantitative easing), une décision qui a semblé accélérer la brutale cession sur les marchés obligataires mondiaux. Pourtant, en annonçant la décision, Mario Draghi, le président de la BCE, a rejoint un chœur de plus en plus nombreux de personnes appelant à un usage plus actif de la politique budgétaire.

Il avait raison de faire ce qu’il a fait. Pourtant, on peut se demander quel bénéfice il s’attend à tirer d’un nouvel assouplissement, étant donné que les taux d’intérêt ultra-faibles ont déjà échoué à stimuler l’investissement ou la consommation. Comme pour l’assouplissement quantitatif, un retour aux politiques monétaires non conventionnelles qui commencèrent après la crise de 2008 risque d’aggraver certains maux sociaux et politiques affligeant déjà les démocraties occidentales. Après tout, il est bien connu que les bénéfices de telles politiques vont principalement aux ménages aisés qui possèdent déjà un ample patrimoine financier.

Parallèlement, les données mensuelles de la Chine tendent à confirmer l’idée qu’elle connaît un ralentissement, avec un essoufflement des exportations suggérant clairement que la guerre commercial avec les Etats-Unis n’est pas indolore. C’est peut-être pour cette raison que les autorités chinoises ont assoupli les mesures qu’elles avaient prises pour décourager l’endettement domestique (la priorité de l’année dernière) afin de soutenir la croissance économique.

Le ralentissement en Allemagne est également apparent. En raison de sa dépendance excessive vis-à-vis des exportations, l’économie allemande flirte avec la récession malgré une forte demande domestique (relativement aux faibles niveaux habituellement observés historiquement en Allemagne).

J’affirme depuis longtemps que l’économie allemande n’est pas aussi saine structurellement qu’elle ne laisse le paraître et qu’un changement de sa politique économique se fait attendre depuis longtemps attendre. Pendant une décennie, l’Allemagne a adhéré à un cadre budgétaire étroit et s’est constamment focalisée sur la réduction de la dette publique. Mais maintenant même les autorités allemandes semblent reconnaître le besoin d’un changement. Les rendements obligataires à dix ans du pays sont bien inférieurs à zéro, son ratio dette publique sur PIB est inférieur à 60 %, son excédent de compte courant est indécemment élevé (approchant les 8 % du PIB) et ses infrastructures se détériorent.

Depuis 2008, le déficit de compte courant des Etats-Unis a diminué de moitié, s’élevant désormais à moins de 3 % du PIB et l’excédent courant de la Chine est passé de 10 % du PIB à quasiment zéro. Mais le déséquilibre externe de l’Allemagne a continué à s’accroître, menaçant la stabilité de la zone euro dans son ensemble. Une ample expansion budgétaire allemande pourrait contribuer à inverser cette tendance. Elle aurait aussi probablement des effets multiplicateurs positifs pour l’investissement privé et la consommation, ce qui créerait des opportunités à l’exportation pour d’autres pays-membres en difficulté de la zone euro. En outre, un changement dans l’approche budgétaire suivie par l’Allemagne peut ouvrir la porte à un assouplissement des règles budgétaires de la zone euro. Les gouvernements européens doivent avoir l’opportunité de poursuivre un rôle plus actif dans l’économie, de façon à ce qu’ils puissent investir dans les sources de croissance à long terme et mener le processus de décarbonisation.

En ce qui concerne le Royaume-Uni, deux problèmes en plus du Brexit méritent de retenir notre attention. Premièrement, Boris Johnson, qui a récemment endossé la fonction de Premier Ministre, a déjà donné d’importants discours au nord de l’Angleterre, signalant son soutien au modèle de la "locomotive nordique" d’un développement géographiquement ciblé. Certes, beaucoup voient derrière l’attachement au nord affiché par Johnson comme une manœuvre stratégique pour conforter sa base électorale avant la prochaine élection. Mais peut-être que Johnson et ses conseillers ne sont pas idiots de supposer que les votes peuvent être facilement achetés. Surtout, la résolution des problèmes structurels de long terme que rencontre le nord et la stimulation de sa productivité sont même plus importants pour l’économie britannique que la relation commerciale qu’elle entretient avec l’UE, même si cette dernière n’est pas anecdotique.

Deuxièmement, le Chancelier de l’Echiquier Sajid Javid a récemment laissé augurer un changement de la politique budgétaire britannique lorsqu’il a commenté les dépenses publiques. En raison de la faiblesse des taux d’intérêt et d’une forte réduction du déficit budgétaire au cours de la dernière décennie, Javid croit qu’il est temps de commencer à répondre aux besoins massifs en infrastructures domestiques que rencontre le pays. Il a suggéré une nouvelle règle budgétaire qui diffèrerait selon le niveau de dette et exclurait les dépenses d’investissement. Au vu des circonstances actuelles, une telle règle ferait sens non seulement pour le Royaume-Uni, mais aussi pour l’UE, l’Allemagne en particulier et d’autres pays. »

Jim O’Neill, « The return of fiscal policy », 18 septembre 2019. Traduit par Martin Anota



aller plus loin...

« C’est le moment de relancer les infrastructures »

« Les taux neutres, la stagnation séculaire et le rôle de la politique budgétaire »

« L’hystérèse, ou comment la politique budgétaire a retrouvé sa légitimité »

vendredi 4 octobre 2019

C’est le moment pour l’Allemagne d’adopter une relance budgétaire

« Tant que l’économie allemande va bien, comme elle le fit de la reprise suite à la crise financière mondiale de 2008, il apparaît assez justifié que les autorités allemandes optent pour l’austérité budgétaire. L’engagement national à la discipline budgétaire s’est concrétisé en 2009 à travers le "frein à la dette", qui limite le déficit structurel fédéral à 0,35 % du PIB et en 2011 par la politique du "schwarze Null" (le "zéro noir") visant à pleinement équilibrer le Budget. En effet, le gouvernement d’Angela Merkel a réussi à atteindre un équilibre budgétaire en 2012 et des excédents entre 2014 et 2018.

Avec un faible chômage et une croissance relativement robuste, la peur de se retrouver avec une économie domestique en surchauffe constituait un contre-argument solide que l’Allemagne pouvait lancer aux pays qui l’appellent depuis longtemps à entreprendre une relance budgétaire. Ces pays voulaient plus de dépenses allemandes, ce qui aurait réduit l’excédent de son compte courant (un massif 8-9 % du PIB au cours des dernières années) et permit de créer un supplément de demande pour les autres pays-membres de la zone euro, en particulier ceux au sud.

Il est temps pour l’Allemagne d’adopter une relance budgétaire


Dans tous les cas, les inquiétudes à propos d’une surchauffe ne sont plus d’actualité, comme la croissance allemande a ralenti, en raison d’un secteur manufacturier très dépendant du commerce international. Le pays se retrouve au bord d’une récession : si les rapports allemands publiés en octobre indiquent que la croissance du PIB est négative au troisième trimestre, ce sera le deuxième trimestre consécutif où elle le sera et l’on pourra qualifier cela de récession.

Une baisse des revenus se traduit par une baisse des recettes fiscales et une baisse de l’excédent budgétaire. Berlin ne doit pas chercher à préserver son excédent. Au contraire, le gouvernement allemand doit répondre à une contraction de l’activité en augmentant ses dépenses ou en réduisant ses impôts. Le mieux serait qu’il accroisse ses dépenses dans les infrastructures, ces dernières ayant vraiment besoin d’être maintenues et rénovées en Allemagne, même si elles restent en meilleur état que les infrastructures aux Etats-Unis. Du côté des impôts, le gouvernement pourrait réduire les impôts sur les salaires.

Les contraintes légales du "frein sur la dette" peuvent limiter l’ampleur de la relance, mais elles laissent toujours une certaine marge de manœuvre, plus de marge que le gouvernement ne cherche à utiliser. Le « zéro noir » peut être laissé de côté dans le cas d’une récession. Ou il peut être réinterprété pour creuser le déficit pour financer des dépenses qui iraient à l’investissement (en particulier au niveau municipal), tout en équilibrant le Budget du gouvernement. Après tout, l’investissement dans les infrastructures ne constitue pas un emprunt contre l’avenir dans un sens économique. Le fait que les taux d’intérêt allemands soient négatifs (le gouvernement peut emprunter pour dix ans à -0,5 %) plaide pour investir dans les projets publics avec des rendements positifs, notamment les routes, les ponts et le réseau ferroviaire, sans oublier le réseau de la 5G.

Et le fait que les taux d’intérêt européens soient si faibles signifie aussi que la BCE ne peut guère en faire beaucoup plus, malgré les nouveaux efforts que Mario Draghi a déployés en quittant la présidence. Répondre à une récession dans de telles conditions est une tâche pour la politique budgétaire, comme Draghi l’a récemment suggéré.

Des politiciens procycliques

Comme l’a notoirement dit Keynes : "c’est lors de l’expansion, et non lors de la récession, que le Trésor doit adopter l’austérité".

Si l’Allemagne se convaincre par sa tradition philosophique d’ordolibéralisme qu’elle ne doit pas connaître un déficit budgétaire lors des récessions, ses dirigeants vont se retrouver dans le club des politiciens sottement procycliques. Ils ne manqueront pas de compagnie dans ce groupe. Historiquement, plusieurs pays en développement exportateurs de ressources naturelles ont longtemps suivi une politique budgétaire procyclique, en accroissant leurs dépenses publiques et en creusant leurs déficits budgétaires lors du boom des prix des matières premières, puis en étant forcés de réduire leurs dépenses publiques lorsque les prix des matières premières chutèrent. La Grèce le fit aussi, en creusant d’amples déficits budgétaires lors de ses années de croissance, entre 2003 et 2008, puis en les réduisant brutalement (sous la pression de ses créanciers) au cours de la dernière décennie. Les Républicains, aux Etats-Unis, l’ont également fait, en adoptant une relance budgétaire lorsque l’économie est déjà en expansion, comme avec la baisse d’impôts de Trump en 2017, et en redécouvrant le besoin de combatte le déficit budgétaire lorsque la récession frappe (ce qui fut le cas en 1990 et en 2008).

Alors que certains pays comme la Grèce passèrent d’une politique budgétaire contracyclique à la fin des années quatre-vingt-dix à une politique budgétaire procyclique déstabilisatrice après 2000, d’autres pays ont au contraire adopté une politique budgétaire de plus en plus contracyclique. Prenons deux exemples : le Chili et la Corée du Sud présentaient des dépenses publiques en moyenne procycliques entre 1960 et 1999, mais depuis le tournant du siècle leurs dépenses publiques apparaissent contracycliques. L’Allemagne prendre le chemin qu’avait emprunté la Corée du Sud : après vingt ans d’excédents budgétaires, la Corée su Sud accroît à présent substantiellement ses dépenses pour contenir le ralentissement de sa croissance économique (comme le font d’autres pays disposant d’une marge de manœuvre budgétaire, par exemple les Pays-Bas).

Oui, la responsabilité budgétaire est nécessaire à long terme


La politique budgétaire doit être globalement guidée par certains objectifs en plus de la contracyclicité. L’un de ces objectifs est de maintenir la dette publique sur une trajectoire soutenable à long terme. On peut reconnaître l’erreur qu’a été une austérité excessive dans certains pays au cours de la dernière récession sans pour autant affirmer que les Etats peuvent s’endetter sans limites, comme certains observateurs semblent maintenant le penser.

Les gouvernements doivent toujours vérifier si leur dette est trop importante, même lorsque les taux d’intérêt réels sont négatifs. Beaucoup de pays se sont engagés dans une trajectoire budgétaire qui semblait soutenable lorsque les taux d’intérêt étaient inférieurs au taux de croissance du PIB, mais se sont ensuite retrouvés piégés dans une trajectoire d’endettement insoutenable lorsque les conditions changèrent soudainement.

On peut comprendre l’attitude si décriée de l’Allemagne. Avant la création de l’euro en 1999, les citoyens allemands étaient sceptiques à propos des assurances qu’on leur proposait à travers les critères de Maastricht et la « clause de non-renflouement ». Leur scepticisme s’est révélé justifié. Ils ont affirmé que la crise grecque de 2010 ne se serait pas produite si, après avoir rejoint la zone euro, la Grèce avait maintenu la discipline budgétaire imposée par le Pacte de Stabilité et de Croissance et avait fait les mêmes réformes que celles adoptées par l’Allemagne entre 2003 et 2005 pour contenir ses coûts du travail. Mais éviter une trajectoire d’endettement public (relativement au PIB) qui soit explosive, cela ne signifie pas qu’il faille s’interdire de connaître un déficit à un moment ou à un autre. Il y a de nombreuses possibilités entre ces deux extrêmes.

Bien sûr, la façon par laquelle on dépense l’argent est importante

D’autres fonctions cruciales de la politique budgétaire impliquent la composition des dépenses et impôts. Ces deux leviers peuvent être utilisés pour répondre à des objectifs environnementaux, par exemple. Un nouvel engagement allemand pour atteindre les objectifs fixés à Paris pour réduire les émissions de carbone d’ici 2030 est perçu comme un bélier contre le schwarze Null. En effet, le 20 septembre, le gouvernement a annoncé dépenser près de 54 milliards d’euros pour réduire les émissions. Aux Etats-Unis, certains appelleraient cela un "New Deal vert".

Dépenser sur de telles priorités comme l’énergie et la recherche environnementale peut être utile. Mais en vérité, s’inquiéter du charbon et des autres objectifs environnementaux ne se traduit pas forcément par de plus amples déficits budgétaires. L’élimination des subventions aux énergies fossiles, l’accroissement des taxes sur les émissions et la limitation des permis d’émission peuvent renforcer le Budget, ce qui aurait été approprié au pic des cycles d’affaires américain et allemand. Ou les recettes qui en résultent peuvent être redistribuées pour atteindre d’autres objectifs tels que l’aide aux ménages pauvres, qui peuvent vivre dans le Midwest américain ou dans les länders à l’est de l’Allemagne. Le point important pour la politique climatique est d’accroître le prix du carbone. Le faire est orthogonal au choix à faire entre expansion budgétaire et austérité budgétaire.

Ce choix doit se fonder sur le critère de contracyclicité et la soutenabilité de la dette publique. Les Etats-Unis ont commis certaines erreurs, en réduisant les impôts pour les riches au pic du cycle d’affaires. L’Allemagne ne doit pas faire l’erreur symétrique qui serait de préserver son excédent budgétaire au risque de plonger dans la récession. »

Jeffrey Frankel, « It’s finally time for German fiscal expansion », in Econbrowser (blog), 3 octobre 2019. Traduit par Martin Anota



aller plus loin...

« Le cœur de la zone euro aiderait-il la périphérie en adoptant un plan de relance ? »

« Et si l'Allemagne adoptait un plan massif d'investissement public ? »

« L’Allemagne contre la zone euro »

lundi 30 septembre 2019

Et si les taux d'intérêt ultra-faibles pénalisaient l'activité ?

« Le rendement réel (c’est-à-dire ajusté à l’inflation) des bons du Trésor américain à dix ans est actuellement nul et il a été extrêmement faible pour l’essentiel des huit dernières années. Et plus récemment, la BCE a davantage réduit son taux de dépôt à -0,5 % dans le cadre des nouvelles mesures qu’elle a adoptées pour stimuler l’économie de la zone euro.

De faibles taux d’intérêt ont traditionnellement été perçus comme favorables à la croissance économique. Mais nos récents travaux suggèrent que cela pourrait ne pas être le cas. En effet, des taux d’intérêt extrêmement faibles peuvent entraîner une plus lente croissance en intensifiant la concentration des marchés. Si ce raisonnement est correct, il implique qu’une baisse supplémentaire des taux d’intérêt ne va pas sauver l’économie mondiale de la stagnation.

La vue traditionnelle suggère que lorsque les taux de long terme chutent, la valeur présente nette des flux de trésorerie futurs augmente, ce qui rend plus rentable pour les entreprises d’investir dans des technologies améliorant la productivité. De faibles taux d’intérêt devraient alors avoir un effet expansionniste sur l’économie via leur stimulation de la croissance de la productivité.

Mais si les faibles taux d’intérêt ont aussi un effet stratégique opposé, ils réduisent l’incitation des entreprises à investir pour stimuler l’activité. En outre, comme les taux de long terme se rapprochent de zéro, cet effet récessif domine. Donc, dans l’environnement de faibles taux d’intérêt d’aujourd’hui, une baisse supplémentaire des taux va probablement ralentir l’économie en freinant la croissance de la productivité.

Cet effet stratégique fonctionne via la concurrence sectorielle. Bien que de plus faibles taux d’intérêt encouragent toutes les entreprises dans un secteur à investir davantage, l’incitation à le faire est plus grande pour les meneurs du marché que pour les suiveurs. Par conséquent, les secteurs deviennent plus concentrés au cours du temps à mesure que les taux d’intérêt de long terme diminuent. Nos travaux indiquent que l’entreprise qui domine un secteur et une entreprise qui s’y trouve dominée interagissent stratégiquement dans le sens où chacune considère soigneusement la politique d’investissement de l’autre lorsqu’elle décide de la sienne. En particulier, parce que les meneurs d’un secteur répondent plus fortement à une baisse du taux d’intérêt, les suiveurs se découragent et arrêtent d’investir comme les meneurs sont trop en avance par rapport à eux. Et parce que les meneurs ne font alors plus face à une menace concurrentielle sérieuse, ils finissent aussi par cesser d’investir et deviennent ainsi des "monopoleurs paresseux".

Peut-être que la meilleure analogie est d’imaginer deux coureurs engagés dans une course perpétuelle sur un circuit. Le coureur qui finit chaque tour en tête gagne un prix. Et c’est la valeur présente actualisée de ces prix potentiels qui encourage les coureurs à améliorer leur position.

Maintenant, supposons que parfois au cours de la course, le taux d’intérêt utilisé pour actualiser les prix futurs chute. Alors les coureurs pourraient vouloir courir plus vite parce que les prix futurs valent plus qu’aujourd’hui. C’est l’effet économique traditionnel. Mais l’incitation à courir plus vite est plus grande pour celui qui mène la course, car il est plus proche des prix et a donc plus de chances de les obtenir. Celui qui mène la course accroît donc son avance sur le suiveur, qui se décourage parce qu’il a désormais moins de chances de le rattraper. Si cet effet de découragement est très important, alors le suiveur peut tout simplement abandonner. S’il abandonne, le meneur peut aussi ralentir, comme il ne fait plus face à une concurrence. Et nos travaux suggèrent que cet effet de découragement stratégique va dominer quand le taux d’intérêt utilisé pour actualiser la valeur des prix approche zéro.

Dans l’économie du monde réel, cet effet stratégique est susceptible d’être encore plus fort, parce que les firmes meneuses dans chaque secteur ne font pas face en pratique au même taux d’intérêt que les suiveuses. Il est typiquement plus élevé pour les secondes que pour les premières et cet écart tend à persister lorsque les taux d’intérêt chutent. Un avantage en termes de coût de financement comme celui-ci pour les meneuses renforcerait davantage l’impact stratégique récessif des taux d’intérêt réels.

Cet effet récessif contribue à expliquer de nombreuses dynamiques touchant l’économie mondiale. Premièrement, le déclin des taux d’intérêt qui commença au début des années quatre-vingt a été associé à une concentration accrue des marchés, une hausse des profits des entreprises, un moindre dynamisme des entreprises et un ralentissement de la croissance de la productivité. Tout cela est cohérent avec notre modèle. En outre, le calendrier des tendances agrégées colle aussi avec le modèle : les données montrent une hausse de la concentration des marchés et de la profitabilité des années quatre-vingt aux années deux mille, suivie par un ralentissement de la croissance de la productivité à partir de 2005.

Deuxièmement, le modèle fait quelques prédictions uniques que nous testons à partir des données empiriques. Par exemple, un portefeuille boursier qui contient de nombreux titres des firmes meneuses de chaque secteur et peu de titres des firmes suiveuses génère des rendements positifs quand les taux d’intérêt chutent. Plus important, cet effet devient plus puissant quand le taux est initialement faible. C’est cohérent avec ce que le modèle prédit.

L’effet récessif des taux d’intérêt ultra-faibles a d’importantes implications pour l’économie mondiale. Notre analyse suggère qu’avec des taux d’intérêt déjà extrêmement faibles, une nouvelle baisse des taux aura un impact économique négatif via la concentration accrue des marchés et une plus faible croissance de la productivité. Donc, loin de soulager l’économie, de plus faibles taux d’intérêt peuvent lui infliger plus de mal. »

Ernest Liu, Atif Mian et Amir Sufi, « Could ultra-low interest rates be contractionary? », 17 septembre 2019. Traduit par Martin Anota

vendredi 27 septembre 2019

Capitalism, Alone : quatre thèmes importants qui risquent de ne pas recevoir l'attention qu'ils méritent



« Je passe ici en revue quatre thèmes importants, mais peut-être pas immédiatement apparents, que je développe dans mon ouvrage Capitalism, Alone. Le livre contient plusieurs autres sujets qui sont davantage susceptibles d’attirer l’attention des lecteurs et des commentateurs que les questions quelque peu abstraites ou philosophiques sur lesquelles je vais me pencher ici.

1. Le capitalisme comme seul mode de production au monde. Durant le précédent point haut de la mondialisation tirée par la Grande-Bretagne, le capitalisme partageait le monde avec divers systèmes féodaux ou comparables à des systèmes féodaux avec un travail qui n’était pas libre : le travail forcé fut aboli en Autriche-Hongrie en 1848, le servage en Russie en 1861, l’esclavage s’arrêta aux Etats-Unis en 1865 et au Brésil seulement en 1888 (…). Ensuite, après 1917, le capitalisme devait partager le monde avec le communisme qui, à son pic, inclut presque un tiers de la population mondiale. C’est seulement après 1989 que le capitalisme n’est plus seulement un système dominant, mais aussi l’unique système organisant la production (chapitre 1).

2. Le rôle historique mondial du communisme. L’existence du capitalisme (la manière économique d’organiser la société) à travers le monde n’implique pas que les systèmes politiques soient organisés de la même manière partout. Les origines des systèmes politiques sont très différentes. En Chine et au Vietnam, le communisme était l’outil via lequel le capitalisme indigène était introduit (comme je l’explique ci-dessous). La différence dans la "genèse" du capitalisme, dans la façon par laquelle le capitalisme a été "créé" en divers pays explique pourquoi il y a au moins deux types de capitalisme aujourd’hui. Je doute qu’il y ait à un moment ou à un autre un seul type de capitalisme couvrant le monde entier.

Pour comprendre l’idée sur les différences d’origines, on a besoin de partir de la question du rôle du communisme dans l’histoire mondiale et donc de l’interprétation (l’histoire raisonnée) du vingtième siècle (chapitre 3).

Il y a deux récits majeurs du vingtième siècle : libéral et marxiste. Ce sont deux "Jérusalem" selon la terminologie du philosophe russe Berdiaff. Ils voient le monde comme passant de stades marqués par un faible développement vers des étapes marqués par un plus haut développement finissant à un terminus, celui d’une démocratie capitaliste libérale ou celui du communisme (la société d’abondance).

Les deux récits rencontrent de gros problèmes pour interpréter le vingtième siècle. Le récit libéral est incapable d’expliquer l’éclatement de la Première Guerre mondiale qui, selon les arguments libéraux à propos de la diffusion du capitalisme, du commerce (pacifique) et de l’interdépendance entre les pays (…), le conflit n’aurait jamais dû survenir et ne se serait certainement pas déroulé de la façon par laquelle il s’est déroulé, à savoir en incluant dans la guerre presque la totalité des pays capitalistes les plus développés. Deuxièmement, le récit libéral considère le fascisme et le communisme comme des "erreurs" (des culs-de-sacs) sur la route vers une démocratie libérale chiliastique sans vraiment parvenir à expliquer pourquoi ces deux "erreurs" sont survenues. Donc, les explications libérales de l’éclatement de la Première Guerre mondiale et des deux "culs-de-sacs" sont souvent ad hoc, mettant l’accent sur le rôle d’acteurs individuels ou d’événements idiosyncratiques.

L’interprétation marxiste du vingtième siècle est bien plus convaincante lorsqu’il s’agit d’expliquer la Première Guerre mondiale (l’impérialisme comme stade suprême du capitalisme) et le fascisme (une tentative par une bourgeoisie affaiblie de stopper les révolutions de gauche). Mais la vision marxiste est incapable d’expliquer 1989, la chute des régimes communistes et donc elle est incapable d’expliquer le rôle du communisme dans l’histoire mondial. La chute du communisme, dans une pure vision du monde marxiste, est une abomination, aussi inexplicable que l’aurait été une société féodale ayant connu une révolution bourgeoise des droits avant de "régresser" et d’imposer à nouveau le servage et une structure d’ordres tripartite. Le marxisme a par conséquent cessé de chercher à expliquer l’histoire du vingtième siècle.

La raison de cet échec tient au fait que le marxisme n’a jamais réussi à distinguer entre les schèmes marxistes standards concernant la succession des formations socio-économiques (ce que j’appelle la trajectoire occidentale du développement, "Western Path of Development") et l’évolution des pays plus pauvres et colonisés. Le marxisme classique ne s’est jamais sérieusement demandé si la trajectoire occidentale de développement est applicable dans leur cas. Il croyait que les pays les plus pauvres et colonisés suivraient simplement, avec un certain retard, les développements des pays développés et que la colonisation et l’impérialisme produiraient la transformation capitaliste de ces sociétés. C’était la vue qu’avait explicitement Marx sur le rôle du colonialisme anglais en Asie. Mais le colonialisme s’est révélé trop faible pour une telle tâche et il n’a réussir à introduire le capitalisme que dans de petites enclaves comme Hong-Kong, Singapour et des parties d’Afrique du Sud.

Permettre aux pays colonisés de connaître à la fois leurs libéralisations sociale et nationale (notez que les pays développés n’avaient pas à connaître de libération nationale) était le rôle du communisme dans l’histoire mondiale. Il n’y a que les partis communiste ou de gauche qui surent mener ces deux révolutions. La révolution nationale signifiait une indépendance politique. La révolution sociale signifiait l’abolition des institutions féodales inhibant la croissance (le pouvoir des propriétaires terriens usuraires, le travail enchaîné à la terre, la discrimination sexuelle, le manque d’accès à l’éducation pour les pauvres, la turpitude religieuse, etc.). Le communisme traça donc la voie au développement du capitalisme indigène. Fonctionnellement, dans les sociétés colonisées du tiers-monde, il joua le même rôle que les bourgeoisies domestiques jouèrent en Occident. Le capitalisme indigène ne put s’établir qu’une fois les institutions féodales détruites.

La définition concise du communisme est donc : le communisme est un système social qui a permis aux sociétés en retard et colonisées d’abolir le féodalisme, de retrouver leur indépendance économique et politique et de construire un capitalisme indigène.

3. La domination mondiale du capitalisme a été rendue possible grâce à certains traits humains (qu’il a en retour exacerbés et) qui, d’un point de vue éthique, sont discutables. Une plus grande commercialisation et une plus grande richesse nous ont rendus à maints égards plus polis dans nos manières (conformément à Montesquieu), mais elles l’ont fait en utilisant ce qui était traditionnellement considéré comme des vices, le désir de plaisir, de pouvoir et de profit (conformément à Mandeville). Les vices sont à la fois fondamentaux pour le capitalisme hypercommercialisé et ce dernier les renforce. Nous les acceptons, non pas parce qu’ils sont en eux-mêmes désirables, mais parce qu’en les acceptant nous pouvons imaginer un plus grand bien social : l’aisance matérielle.

Pourtant, le contraste entre le comportement acceptable dans un monde hyper-commercialisé et les concepts de justice traditionnels, l’éthique, la honte, l’honneur (…), creuse un fossé qui est rempli avec l’hypocrisie ; on ne peut ouvertement accepter que l’on ait vendu pour de l’argent son droit à la liberté de parole ou la capacité d’être en désaccord avec son chef, et donc on a besoin de dissimuler ce fait avec des mensonges ou une mauvaise représentation de la réalité.

Dans le chapitre 5 du livre : "La domination du capitalisme comme la meilleure ou plutôt la seule façon d’organiser la production et la répartition semble absolue. Pas de potentiel rival en vue. Le capitalisme a gagné cette position grâce à sa capacité, via l’appel à l’intérêt personnel et le désir de propriété personnelle, d’organiser la population de façon à ce qu’elle parvienne, d’une façon décentralisée, à créer de la richesse et à multiplier de plusieurs foi le niveau de vie d’un être humain moyen sur la planète, ce qui, il y a un siècle, était considérait presque comme utopique."

"Mais ce succès économique a rendu plus manifeste le décalage entre la capacité de vivre mieux et plus longtemps et l’absence de hausse significative de la moralité ou même du bonheur. La plus grande abondance matérielle a rendu meilleurs les manières et le comportement des gens vis-à-vis d’autrui : puisque les besoins élémentaires et même davantage étaient satisfaits les gens n’avaient plus besoin de s’engager dans une lutte hobbesienne de tous contre tous. Les manières devinrent plus polies, les gens mieux considérés."

"Mais ce vernis n’a pas été obtenu sans coûts. Les gens se sont de plus en plus laissés portés par leur intérêt personnel, même pour des choses ordinaires et des affaires personnelles. L’esprit capitaliste, un témoignage du succès généralisé du capitalisme, pénétra profondément la vie des gens. Puisque l’extension du capitalisme à la famille et à la vie intime s’opposait aux idées, enracinées depuis plusieurs siècles, relatives au sacrifice, à l’hospitalité, à l’amitié, aux liens familiaux et ainsi de suite, il ne fut pas facile d’accepter ouvertement que de telles normes avaient été supplantées par l’intérêt personnel. Ce trouble créa une large zone où l’hypocrisie régna. Donc, en définitive, le succès matériel du capitalisme finit par être associé au règne des demi-vérités dans nos vies privées."

4. Le système capitaliste ne peut être changé. La domination du capitalisme hyper-commercial s’est établi grâce à notre désir de continuer à jamais d’améliorer nos conditions matérielles, un désir que le capitalisme est le plus à même de satisfaire. Cela a conduit à la création d’un système de valeurs qui place le succès monétaire à son sommet. A maints égards, c’est une évolution désirable parce que "croire" seulement en l’argent fait passer à la trappe d’autres marqueurs traditionnels et discriminatoires imposant une hiérarchie.

Pour exister, le capitalisme doit croître et s’étendre à de nouvelles zones ou de nouveaux produits. Mais le capitalisme n’existe pas en-dehors de nous, comme un système externe. Ce sont les individus, c’est-à-dire nous, qui, dans leur vie de tous les jours, créent le capitalisme et lui fournissent de nouveaux champs d’action, tellement que nous avons transformé nos logements en capital et notre temps libre en ressource. Cette marchandisation de la quasi-totalité des activités, notamment de celles qui étaient jusqu’à présent très privées, a été rendu possible par notre internalisation d’un système de valeurs où l’obtention d’argent est porté au pinacle. Si ce n’était pas le cas, nous n’aurions pas marchandisé pratiquement tout ce qui peut l’être (…).

Le capitalisme, pour s’étendre, a besoin de la cupidité. Nous avons totalement accepté la cupidité. Notre acceptation d’un tel système de valeurs a permis au capitalisme hypercommercialisé de survivre, de se développer et de s’étendre. Il s’ensuit qu’aucun changement dans le système économique ne peut être imaginé sans un changement du système de valeurs qui le sous-tend, que le système promeut et qui nous satisfait dans nos activités quotidiennes. Mais il semble à présent impossible qu’un tel changement des valeurs se produise. Il a été tenté par le passé et il a fini dans l’échec le plus ignoble. Nous sommes donc coincés avec le capitalisme. Et dans nos activités, jour après jour, nous le soutenons et le renforçons. »

Branko Milanovic, « Capitalism, Alone: Four important--but somewhat hidden--themes », in globalinequality (blog), 24 septembre 2019. Traduit par Martin Anota

vendredi 20 septembre 2019

Le problème avec le capitalisme

« Les tares du capitalisme sont-elles guérissables ou sont-elles plutôt les symptômes d’une maladie chronique ? C’est la question posée par Martin Wolf : "Il semble de plus en plus que nous ayons… un capitalisme rentier instable, une concurrence affaiblie, une croissance de la productivité moribonde et, ce qui n’est pas une coïncidence, une démocratie de plus en plus dégradée".

Il y a beaucoup de bonnes choses dans cet article, mais je crains qu’il sous-estime le problème avec le capitalisme. La Banque d’Angleterre nous a donné un bon indice ici. Elle souligne que la hausse de la part du profit (le signe d’un monopole accru) est largement confinée aux Etats-Unis. Au Royaume-Uni, la part des profits dans le PIB s’est aplatie ces dernières années. Peu, cependant, affirmeraient que le capitalisme britannique est moins dysfonctionnel que le capitalisme américain. Ce qui suggère que le problème avec le capitalisme n’est pas une question de monopole.

Alors, de quoi s’agit-il ? Je recommanderais ici les travaux brillants de Michael Roberts. Beaucoup des dysfonctions qu’évoque Martin Wolf trouvent leur origine dans la baisse du taux de profit, une baisse qui devint aigue dans les années soixante-dix, mais qui n’a jamais été totalement renversée.

De nombreuses explications ont été avancées pour éclairer les causes de ce déclin et elles restent débattues : une suraccumulation du capital dans les années soixante et de nouveau lors de la bulle internet ; une plus ample mobilisation collective des travailleurs dans les années soixante et soixante-dix ; une plus grande concurrence des entreprises domestiques, aussi bien entre elles qu’avec les firmes étrangères (voir par exemple les travaux de William Nordhaus) ; un ralentissement du rythme de l’innovation dans plusieurs secteurs ; une incapacité des entreprises détenues par les actionnaires à exploiter les opportunités de profit ; une faible demande domestique, et ainsi de suite.

Certes, il est difficile de mesurer le taux de profit, en raison de nombreux problèmes dans la mesure du stock de capital. Mais le fait que les dépenses en capital aient été faibles pendant plusieurs années (avant le Brexit) suggère que les incitations à investir sont faibles ; cela pourrait s’expliquer par une faible profitabilité.

La crise financière en était un symptôme. Imaginez qu’il y ait eu une abondance de projets d’investissement rentables dans l’économie réelle au début des années deux mille. L’excès d’épargne et la chute des rendements obligataires les auraient financés si bien que l’on aurait assisté à un boom de l’investissement, de l’emploi et des revenus. Mais il n’y a pas eu une telle abondance de projets d’investissement, si bien que l’excès d’épargne a en fait financé une bulle sur les marchés de l’immobilier et les dérivés de crédit qui finit par entraîner une crise.

Plusieurs des choses que les sociaux-démocrates comme Martin déplorent à propos du capitalisme sont en fait des réponses adoptées depuis la fin des années soixante-dix à cette crise de profitabilité. Le pouvoir gestionnaire (dont un symptôme est le salaire élevé des PDG) s’est affirmé en cherchant à éradiquer la mobilisation des travailleurs et il parvint à l’éradiquer. Les privatisations sont une tentative pour repousser les limites dans lesquelles les capitalistes peuvent faire du profit. La financiarisation est le résultat d’un déplacement des activités à faible profit dans l’économie réelle. Et la chasse à la rente et le népotisme reflètent des tentatives visant à soutenir des profits face à la concurrence et à la crise.

La stagnation de la productivité nous dit que ces mesures n’ont pas totalement fonctionné, peut-être en partie parce que les inégalités qu’elles ont générées tendent à déprimer la croissance de la productivité.

Si tout cela est exact, ou à peu près exact, alors les problèmes que Martin décrit ne sont pas faciles à soigner. (…) Mais est-ce exact ? Une façon de le savoir est de voir si les tentatives visant à réformer le capitalisme ont réussi. Mirabile dictum, il y a même plusieurs propositions ici qui ne viennent pas de gauche. Malheureusement, l’un des effets de la crise du capitalisme a été, selon Martin, de dégrader la démocratie comme pour retirer de l’ordre du jour la politique économique intelligente. »

Chris Dillow, « The trouble with capitalism », in Stumbling & Mumbling (blog), 18 septembre 2019. Traduit par Martin Anota

- page 1 de 35