Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

lundi 17 juin 2019

La reprise américaine fête son dixième anniversaire

« Ce mois marque le dixième anniversaire de la reprise économique des Etats-Unis. Juin 2009 avait marqué le "creux", la fin de la Grande Récession de 2007-2009. (Mais attention, dire que la récession est finie signifie avant tout que l’économie a atteint "le fond".)

Qui ou quoi a eu le mérite d’avoir contribué à la durée de cette expansion ? Beaucoup de choses ont dû contribuer à mettre un terme à la chute libre que l’économie a connue en janvier 2009 (une chute qui se reflétait à travers une destruction d’emplois, une contraction de la production et un effondrement des marchés financiers) et le début de la reprise en juin 2009. Il y a aussi eu des choses qui ont contribué à freiner la reprise qui s’ensuivit (son rythme de croissance ayant été deux fois moindre que celui de l’expansion de 1991-2001).

Mais la meilleure réponse de la question de la durée de l’expansion de 2009-2019 est désespérément simple. La récession de 2007-2009 est la pire qu’ait connue l’économie américaine depuis celle des années trente. Plus le trou est profond, plus il faut du temps en pour ressortir. Certains diraient que Carmen Reinhart et Kenneth Rogoff ont prédit avec précision que la reprise qui suit une récession synchrone à une crise financière sévère prend plus de temps qu’une reprise suivant tout autre type de récession. Mais je dirais que leur prédiction la plus impressionnante concernait la profondeur de la récession elle-même ; la longueur de la reprise qui s’ensuivit découle essentiellement de la profondeur de la contraction.

La date du dixième anniversaire est particulièrement remarquable parce que (en supposant que les Etats-Unis ne soient pas déjà, sans le savoir, dans une nouvelle récession) l’actuelle expansion est en passe d’être la plus longue expansion qui ait été enregistrée aux Etats-Unis. Ce record est pour l’heure détenu par l’expansion longue de 10 ans que les Etats-Unis ont connue de mars 1991 à mars 2001. (Techniquement, les enregistrements de pics et creux de l’activité américaine remontent jusqu’à 1854.) L’expansion américaine longue de dix ans est cependant loin de constituer l’expansion la plus longue que les pays développés aient connue. L’honneur revient à l’expansion économique de l’Australie qui a débuté au milieu de l’année 1991 et qui est toujours en cours, si bien qu’elle arrive à sa vingt-huitième année.

La base pour la datation de l’expansion en Australie et presque tous les autres pays est la règle qui définit une récession comme une période de croissance négative du PIB au minimum de deux trimestres consécutifs. Les Etats-Unis sont presque les seuls à établir officiellement les dates de début et fin des récessions, non pas selon la règle des deux trimestres, mais par un processus moins mécanique qui prend en compte le chômage et divers autres indicateurs en plus du critère du PIB. (Le gouvernement du Japon utilise une procédure moins mécanique.)

Les creux et pics de l’économie américaine sont identifiés par le comité de datation du cycle d’affaires du National Bureau of Economic Research. Le NBER est une organisation de recherche privée non lucrative. (Je suis membre de ce comité, mais ne parle pas en son nom. J’écris cette colonne pour donner mon seul avis personnel.) Les dates du NBER sont officielles dans le sens où le Département du commerce et d’autres agences gouvernementales des Etats-Unis dépendent d’elles, par exemple, pour leurs graphiques. Dans certains autres pays, il existe des institutions qui s’écartent aussi de la règle automatique des deux trimestres et qui cherchent à dater les points de retournement du cycle d’affaires en se basant sur divers critères. Mais leurs chronologies ne sont pas reconnues par les autorités de leurs pays respectifs et tendent à recevoir moins d’attention de la part des médias. De tels organismes incluent notamment l’OCDE et le comité de datation du cycle d’affaires pour la zone euro du CEPR.

Le choix de la méthode utilisée pour dater les cycles d’affaires n’est pas neutre. Par exemple, l’économie italienne a connu plusieurs récessions distinctes depuis 2008 si l’on utilise la règle standard des deux trimestres, mais une unique longue récession si l’on appliquait une approche faisant davantage sens.

La règle des deux trimestres de croissance négative a clairement des avantages et des inconvénients relativement à l’approche du comité du NBER. Un avantage à la règle automatique est qu’elle apparaît généralement plus objective. Un autre avantage est que le public est mis au courant d’un point de retournement cyclique dans un délai de quelques mois, c’est-à-dire le temps de compiler les statistiques relatives au PIB. Le NBER, à l’inverse, attend typiquement un an ou plus encore, le temps de compiler toutes les données nécessaires, avant d’annoncer un point tournant. Ses annonces sont tournées en ridicule à cause de la longueur de ce délai.

Un désavantage majeur de la règle des deux trimestres est que les statistiques du PIB sont habituellement révisées après coup, ce qui peut nécessiter de réviser rétroactivement les points de retournement. Par exemple, une récession en 2011-2012 avait été annoncée au Royaume-Uni, avant de ne plus être considérée comme telle lorsque les données du PIB furent révisées en juin 2013. Par conséquent, les évocations de la récession dans les discours des politiciens britanniques ou les travaux des chercheurs, faites de bonne foi à l’époque, se révélèrent erronées après coup. La raison pour laquelle le NBER attend si longtemps avant d’annoncer un pic ou un creux est qu’ainsi il peut être raisonnablement sûr qu’il n’aura pas à réviser son jugement à l’avenir. De même, le gouvernement japonais attend une année ou même davantage.

Une raison relativement mineure plaidant en faveur d’alternatives à une procédure basée sur le seul PIB est que cette dernière ne permet pas de désigner des mois précis, puisque la plupart des pays ne compilent les statistiques relatives au PIB que sur une base trimestrielle. Certaines complications techniques nécessitent une interprétation même en ce qui concerne la mesure de la production domestique brute à utiliser. Le NBER met le revenu intérieur brut réel "sur un pied d’égalité" avec la mesure du produit intérieur brut basé sur les dépenses qui est plus largement connue. Les conséquences des différences méthodologies statistiques pour mesurer le PIB peuvent être énormes dans certains pays, par exemple l’Inde ces dernières années.

Une autre raison pour abandonner la règle des deux trimestres est plus fondamentale. Certains pays connaissent des ralentissements brutaux ou des périodes d’"activité économique diminuée" (…) et ils ont pourtant des taux de croissance tendanciels de long terme qui sont soit si élevés, soit si faibles que la règle de croissance négative ne capture pas ce qui est recherché. Considérons, tout d’abord, une situation où la règle rapporterait un nombre excessif de "récessions". Au Japon, la croissance de la population est négative et la croissance de la productivité est bien inférieure à ce qu’elle avait l’habitude d’être par le passé, si bien que la tendance de la croissance de sa production a été en moyenne de 1 % par an au cours des dernières décennies. En conséquence, même de petites fluctuations peuvent rendre la croissance du PIB négative. La règle des deux trimestres suggèrerait que le Japon bascule dans une nouvelle récession environ tous les 4 ans (7 ralentissements au cours des 26 années depuis 1993).

Maintenant, considérons le problème opposé, comment la règle des deux trimestres peut rapporter trop peu de récessions. Certes, le succès de l’Australie peut être attribué à l’adoption de réformes structurelles depuis les années quatre-vingt, telles que l’ouverture au commerce international et l’adoption d’un taux de change flottant. L’une des raisons expliquant pourquoi le PIB n’a pas connu de baisse au cours des 28 dernières années, cependant, est que ses taux de croissance de la population et de la main-d’œuvre sont substantiellement plus élevés que ceux des Etats-Unis et d’autres pays de l’OCDE, en particulier d’Europe et d’Asie de l’Est. La Chine constitue un autre exemple. Elle n’a pas eu de récession depuis 26 ans (depuis 1993). Bien sûr, la performance de son économie a été incroyable. Comme la plupart des pays, elle a souffert de la Grande Récession en 2008-2009, mais même avec une perte de croissance de 8 points de pourcentage (la croissance chinoise est passée de 14 % en 2007 à 6 % en 2008), ce ralentissement n’a pas suffi pour amener la croissance chinoise en territoire négatif. La raison, bien sûr, est que son taux de croissance potentielle était très élevé (due à la croissance de la productivité).

En supposant que l’expansion américaine se poursuive au moins jusqu’en juillet, elle obtiendra le record en termes de durée que détenait jusqu’à présent l’expansion (de 120 mois) qu’avait connue l’économie américaine entre 1991 et 2001. Mais il faut noter que si la datation des cycles d’affaires aux Etats-Unis se faisait sur la base de la règle qu’appliquent la plupart des autres pays, la récession de mars-novembre 2011 n’aurait pas été enregistrée comme telle. Elle n’inclut pas deux trimestres consécutifs de croissance négative du PIB, mais plutôt deux trimestres de croissance négative au milieu desquels était compris un trimestre de croissance positive. (…) Selon cette interprétation, le record des Etats-Unis serait détenu par une expansion longue de 17 ans allant du premier trimestre 1991 au quatrième trimestre 2007 et l’actuelle expansion serait bien loin de la détrôner. »

Jeffrey Frankel, « Tenth birthday of the june 2009 recovery », in Econbrowser (blog), 17 juin 2019. Traduit par Martin Anota



aller plus loin...

« Peut-on féliciter Trump pour la bonne santé de l’économie américaine ? »

« Pourquoi la reprise est-elle si lente aux Etats-Unis ? »

« Comment expliquer la faiblesse de la reprise ? »

« Dynamiques de reprises »

« Quelle reprise après une crise bancaire ? »

mercredi 12 juin 2019

Qu’est-ce qui contribue au ralentissement de la croissance mondiale ?

« (…) L’arrivée des signaux suggérant l’imminence d’une récession mondiale se fait plus pressante. (…) Le rythme de croissance ralentit dans pratiquement toutes les économies majeures du monde. Et cela est de mauvais augure pour le plus long terme, en particulier au vu de la marge de manœuvre limitée en termes de politiques conjoncturelles pour stimuler la croissance.

L’actuel ralentissement résulte essentiellement du pessimisme des entreprises et des ménages, d’incertitudes géopolitiques et de tensions commerciales. Ces facteurs ont freiné l’investissement des entreprises et peuvent aussi déprimer les perspectives de croissance future. Si le ralentissement persiste, les niveaux actuellement élevés de dette publique et la faiblesse des taux d’intérêt vont réduire la capacité des responsables de la politique économique des pays développés à fournir une relance budgétaire et monétaire suffisante. Les banques centrales peuvent certes adopter des mesures de politique monétaire moins conventionnelles, mais leurs gains sont incertains et leurs risques significatifs.

Aux Etats-Unis, l’expansion économique s'est essoufflé comme les effets de la relance budgétaire se dissipent et l’emploi et les ventes au détail s’affaiblissent. Les indicateurs relatifs à la confiance des entreprises et des ménages, d’une part, et une courbe des taux (yield curve) qui reste relativement plate malgré la possibilité de plus larges déficits budgétaires, d’autre part, suggèrent que l’avenir réserve de nouveaux problèmes. Avec des pressions salariales et inflationnistes toujours contenues, la Réserve fédérale a stoppé son cycle de relèvement des taux directeurs. Il est désormais question d’une possible baisse des taux et d’un arrêt de la contraction du bilan de la Fed.

La croissance se détériore aussi en Europe. La principale locomotive, l’Allemagne, perd manifestement de son énergie et des faiblesses émergent aussi bien dans le cœur qu’en périphérie de la zone euro. La confiance des entreprises et des ménages semble aussi atone, ce qui devrait continuer de freiner la croissance. Parallèlement, les incertitudes relatives au Brexit pénalisent le Royaume-Uni, qui a de faibles marchés boursiers et connait une stagnation du crédit. Mais malgré une contraction de l’investissement des entreprises, l’économie britannique s’est révélée être jusqu’à présent plus robuste qu’on ne l’attendait. Au Japon, les conditions financières s’affaiblissent, les risques déflationnistes persistent et les tensions commerciales mondiales menacent de faire dérailler les exportations et la croissance.

La croissance du PIB chinois semble se maintenir à un rythme soutenu, mais d’autres indicateurs tels que les ventes de détail, l’investissement en capital fixe et la production industrielle dessinent une image plus sombre. Les exportations et les importations sont plus faibles qu’il y a un an, ce qui reflète une demande mondiale modérée et une croissance domestique en perte de vitesse. Les efforts du gouvernement en vue d’atténuer cet affaiblissement de la croissance ont permis quelques améliorations selon certains indicateurs comme l’indice des directeurs des achats. Et avec un crédit bancaire qui reprend, il y a des signes suggérant que l’investissement commence à se relever. Mais la mauvaise allocation persistante du crédit accroît les risques pesant sur le système financier et freine la croissance de la productivité et de la production à long terme, en particulier dans le contexte de vieillissement de la population chinoise.

L’Inde croît toujours à un rythme robuste, aidée par une modeste relance budgétaire en amont des élections nationales (…), aussi bien que par les baisses de taux d’intérêt de la banque centrale indienne (…). De plus, les perspectives de taux d’intérêt américaines durablement faibles et de faibles prix du pétrole ont atténué les pressions de court terme sur l’inflation, les finances publiques et le déficit du compte courant. Mais un investissement privé atone et une forte contraction des volumes échangés laissent présager des problèmes à l’avenir. (...)

Les bienfaits que des pays émergents comme l’Indonésie peuvent retirer du ralentissement du resserrement de la politique monétaire de la Fed ont été annulés par le ralentissement de la croissance chinoise, qui a pénalisé les exportations. Le Brésil présente toutefois des signes de résiliences dans ses volumes échangés et ses marchés du travail. Le Brésil, le Mexique et la Russie peuvent croître à un rythme de 2 % en 2019, mais ces pays sont très vulnérables aux chocs susceptibles de toucher la demande mondiale et les prix des matières premières. La Turquie est quant à elle tombée dans une récession, avec un plongeon de la production industrielle et une détérioration de la confiance des consommateurs.

Un ralentissement de la croissance du commerce international peut s’ajouter aux maux dont souffre dans l’immédiat l’économie mondiale, empêchant la restauration d’une croissance plus ample. L’incertitude provoquée par les tensions commerciales peut aussi avoir un impact négatif à long terme, en sapant la confiance des entreprises et en déprimant l’investissement privé. Cela, à son tour, va nuire à la croissance de la productivité, qui a été faible durant la reprise consécutive à la crise financière mondiale de 2008, alors même qu'elle deviendra encore plus cruciale pour soutenir la croissance du PIB mondial à mesure que les populations vieilliront. (…) »

Eswar Prasad, « What’s driving the global slowdown? », 8 avril 2019. Traduit par Martin Anota



aller plus loin...

« L’inversion de la courbe des taux signale-t-elle l’imminence d’une récession aux Etats-Unis ? »

« Le coût de la guerre commerciale de Trump pour l’économie américaine »

« Quelles seront les répercussions à long terme du Brexit ? »

lundi 10 juin 2019

Quelles devraient être les qualifications du successeur de Mario Draghi ?

« (…) Le 28 mai, deux jours après que les élections du Parlement européen aient été tenues dans tous les Etats-membres, les chefs d’Etat et de gouvernement se sont rencontrés à Bruxelles pour commencer le processus d’attribution des postes clés à la tête de plusieurs institutions de l’UE. Beaucoup de ces postes (en l’occurrence ceux des présidents du Conseil européen et de la Commission européenne, tout comme le haut représentant de l’Union pour les affaires étrangères et la politique de sécurité) sont typiquement pourvus tous les cinq ans, quand le cycle politique européen s’achève pour laisser place à un nouveau. Cependant, comme le mandat de Mario Draghi s’achève le 31 octobre 2019, les dirigeants vont aussi discuter des candidats pour le remplacer à la présidence de la BCE au cours des huit prochaines années. (…)

La nomination à venir a donné lieu à un florilège de spéculations dans les médias sur la possible identité du nouveau président de la BCE. En laissant les noms de côté, ce billet essaye d’isoler les arguments à propos des qualifications que le nouveau président devrait avoir et les défis auxquels il risque d’être confronté.

Pour commencer, certains commentateurs se sont focalisés sur ce que la sélection ne doit pas être. Par exemple, Stefan Gerlach critique le fait que la course à la succession de Draghi ait pris "des allures (…) d’Eurovision". Il ajoute, "les gouvernements veulent qu’un candidat de leur pays gagne parce que cela leur donnerait une bonne image, non parce que leur candidat améliorerait l’élaboration de la politique monétaire de la BCE", il y aura des votes selon les lignes de blocs régionaux et, "de façon absurde, certains commentateurs affirment que c’est au tour de leur pays de gagner".

De même, le comité de rédaction du Financial Times appelle à minimiser l’effet des arbitrages à l’œuvre quand il s’agit de pourvoir les divers postes-clés de l’UE sur la sélection du prochain président de la BCE. Bien que les "dirigeants de l’UE chercheront à obtenir un équilibre entre nationalités, régions de l’Europe, affiliations partisanes et genre", les auteurs notent que "la présidence de la BCE est le seul boulot (…) qui ne doit pas être victime d’un marchandage".

Qu’y a-t-il de spécial à propos de la présidence de la BCE ? Les auteurs soulignent que techniquement le président de la BCE est certes "premier entre des égaux" au conseil des gouverneurs de la BCE, le rôle que joue en pratique le président a profondément changé et est devenu beaucoup plus important au fil du temps, la crise ayant agi comme un catalyseur. Alors que Wim Duisenberg, le premier président de la BCE de 1999 à 2003, se focalisait sur la recherche d’un consensus sur l’orientation de la politique monétaire au conseil des gouverneurs de la BCE, les présidents suivants eurent à assumer un rôle plus proéminent. Les auteurs affirment que le discours de juillet 2012 où Draghi dit que la BCE ferait "tout ce qui est nécessaire" (whatever it takes) "était un exemple de leadership et s’est révélé être un point tournant dans la crise » de l’euro. Ils poursuivent en décrivant la BCE comme "l’institution la plus efficace, irremplaçable" durant cette crise.

L’expérience de la crise sert comme une prémisse pour plusieurs arguments avancés en ce qui concerne les exigences que la BCE doit honorer. Stephen Gerlach, par exemple, maintient que, bien qu’un président de la BCE effectif doive refléter la diversité de la zone euro pour des raisons de légitimité, il doit aussi satisfaire deux critères supplémentaires. Premièrement, le nouveau président de la BCE doit agir comme un joueur d’équipe. "Le président de la BCE ne fixe pas la politique, mais plutôt préside les réunions du conseil des gouverneurs où les décisions de politique monétaire sont prises". Gerlach nous rappelle que les désaccords avec le reste du conseil des gouverneurs "compliquent l’obtention de larges accords dans le conseil des gouverneurs qui sont la marque d’une bonne élaboration de politique économique", en concluant que "se risquer d’avoir une BCE dysfonctionnelle ne semble pas constituer une sage décision en cet instant précis".

Deuxièmement, le prochain président de la BCE doit posséder un solide bagage en science économique, insiste Gerlach. En "temps normal", de simples références quantitatives comme la règle de Taylor peuvent suffire pour décider de l’orientation de la politique monétaire, affirme-t-il. Mais quand la crise économique et financière éclate, "les concepts économiques comme la relation inverse entre l’inflation et le chômage avancé par la courbe de Phillips sont rompues et les solutions des manuels ne s’appliquent plus". Dans de tels cas, quand "l’incertitude explose", le temps manque comme "les banques centrales doivent agir rapidement et de façon décisive pour empêcher que les problèmes soient aggravés par les anticipations". Le président de la BCE doit avoir "une vision claire de ce qui doit être fait et la confiance pour adopter l’action décisive".

Et "cela, à son tour, nécessite qu’il ait une compréhension de première main des problèmes qui peuvent survenir". Pour renforcer son argumentation, Gerlach cite l’exemple de Ben Bernanke, l’ancien président de la Réserve fédérale, en affirmant que son bagage en tant qu’économiste universitaire spécialisé de la question "des erreurs de politique monétaire commises durant la Grande Dépression" a permis à ce que la Fed réagisse en temps opportun et efficacement à l’effondrement de Lehman Brothers.

Lucas Guttenberg (…) affirme que les plus importantes exigences que devra respecter le prochain président de la BCE seront sa volonté et sa crédibilité à faire "tout ce qui est nécessaire" pour sauver l’euro. Cela reste le filet de sécurité le plus robuste que l’euro a, écrit-il, avant d’ajouter que les alternations sont soit indésirables, soit impopulaires. Echouer à maintenir cette promesse fait peser "une menace existentielle sur les pays potentiellement en difficulté, en particulier ceux qui sont trop gros pour bénéficier du Mécanisme Européen de Stabilité (MES)" et plus généralement reste "une question pour la stabilité de l’union monétaire dans son ensemble", alors qu’un "approfondissement considérable de l’union monétaire" reçoit peu de soutien en Allemagne. Par conséquent, Guttenberg croit que la plupart des Etats-membres vont insister sur ce critère plutôt que des questions moins importantes, telles que "la question de l’orientation colombe ou faucon qu’il faut avoir quand cela touche à la question de la politique monétaire normale" (…).

S’il faut s’engager à faire "tout ce qui est nécessaire" pour assurer que la zone euro n’éclate pas, il peut y avoir d’autres défis face auxquels le prochain président de la BCE devra toujours trouver une solution.

Pour sa part, Martin Sandbu ne croit pas que ce soit la question de ce que la boîte à outils comprend. Au contraire, il voit "un fort consensus sur la façon par laquelle la BCE fonctionne" comme un autre élément de l’héritage de Draghi : "le non-conventionnel est devenu convention" note-t-il, en se référant aux politiques monétaires non conventionnelles. Néanmoins, Sandbu se demande si la zone euro ne courrait pas un plus grand risque avec "une trajectoire économique non inspirée laissant de nombreux citoyens se laisser tenter par les politiciens anti-européens, convaincus que la zone euro ne fonctionne pas pour eux" qu’elle n’en court avec une "répétition de crise". Dans la réponse, il est positif, écrivant qu’"il ne faut pas se contenter de simplement éviter le pire dans une crise", "l’entreprise d’amélioration des capabilités de la BCE est loin d’être achevée" et "la tâche du prochain président sera d’améliorer l’influence de la politique monétaire sur l’économie réelle".

Enfin, Jacob, Kirkegaard (ici et ) considère un scénario différent pour le prochain président de la BCE quand viendra la prochaine récession. Kirkegaard explique que l’arsenal de la BCE "se limitera soit à acheter des actifs privés plus risqués, soit à repousser la limite auto-imposée de la banque centrale sur les détentions de titres publics". Adopter la première option "sur les marchés peu profonds de la zone euro sera critiquée au motif qu’elle se ramènerait à une sélection injuste de gagnants", alors que la seconde option "risque d’être jugée illégale par la Cour européenne de Justice". En concluant que "ces contraintes rendent cruciale la politique budgétaire pour combattre la prochaine récession", Kirkegaard affirme que "le prochain président de la BCE doit non seulement être enclin à utiliser la politique monétaire pour combattre les récessions, mais aussi pousser les Etats-membres à être plus agressifs dans l’usage de la politique budgétaire pour ce même objectif". »

Konstantinos Efstathiou, « The next ECB president », in Bruegel (blog), 27 mai 2019. Traduit par Martin Anota

vendredi 7 juin 2019

Comment saurons-nous qu'une récession est sur le point d'éclater aux Etats-Unis ?

« Cela peut sembler étonner de parler en cet instant précis de récessions. La croissance du PIB est forte et (selon les données du mois d’avril) le taux de chômage s’élève à 3,6 %, soit son plus faible niveau depuis 1969. Nous connaissons aussi une expansion économique inhabituellement longue. La Grande Récession a officiellement fini en juin 2009, avec une croissance de l’emploi privé continue reprenant à partir de mars 2010. Cela a permis à l’économie américaine de connaître la plus longue période ininterrompue de croissance de l’emploi de son histoire.

Alors que d’autres indicateurs de la santé du marché du travail ne sont pas aussi positifs et que les moyennes ne reflètent pas toujours la diversité des expériences sur le marché du travail que connaissent les individus ou les régions, le portrait général est celui d’un marché du travail solide. Pourtant, l’Histoire nous dit que la bonne conjoncture ne dure pas et les tensions internationales et divers indicateurs du marché financier ont récemment suscité certaines inquiétudes. Inévitablement, une nouvelle récession va arriver, ses conséquences seront douloureuses pour les travailleurs, les entreprises et les gouvernements. La durée de cette expansion soulève des questions urgentes : quand va-t-elle s’achever ? allons-nous voir en avance l’arrivée de la prochaine récession ?

Les approches les plus directes pour identifier les récessions (en attendant que le National Bureau of Economic Research n’annonce une récession ou en attendant avant de voir le PIB chuter pendant deux trimestres consécutifs) sont appropriées pour l’analyse historique, mais elles sont trop tardives pour être utiles pour la politique économique. Par exemple, le NBER a annoncé la Grande Récession en décembre 2008, soit un an après le début de la récession, soit bien trop tard pour amorcer une réponse monétaire ou budgétaire appropriée.

Alors qu’(…) une réponse en temps opportun peut atténuer les dommages, elle nécessite des indicateurs en temps réel qui puissant précisément identifier les récessions. Nous croyons que le taux de chômage est le plus important de ces indicateurs : des hausses rapides du taux de chômage, qu’importe son niveau, nous aident à rapidement observer les récessions. Bien sûr, les variations du taux de chômage national ne nous disent pas tout ce que nous aimerions savoir sur la santé des marchés du travail. En particulier, ils n’indiquent pas dans quelle mesure les travailleurs ont quitté la population active ou subissent du sous-emploi, deux situations importantes pour saisir le degré de mou sur le marché du travail. Mais les hausses du taux de chômage peuvent nous dire à propos de la détérioration du marché du travail en quasi-temps réel.

En fait, l’économiste Claudia Sahm a constaté (…) que si le taux de chômage (plus exactement, sa moyenne mobile sur trois mois) est au moins supérieur de 0,5 point de pourcentage au-dessus de son minimum des 12 mois précédents, alors l’économie américaine est déjà en récession. (…) L’indicateur a correctement signalé une récession 4-5 mois suite au début de la récession et n’a jamais annoncé par erreur une récession depuis 1970 (...) »

Ryan Nunn, Jana Parsons et Jay Shambaugh, « How will we know when a recession is coming? », in Brookings (blog), 6 juin 2019. Traduit par Martin Anota



Les choses pourraient ne pas être différentes cette fois-ci


« Estimer la probabilité qu’une récession éclate à court terme se révèle être un véritable défi pour les économistes. Chaque cycle semble légèrement différent du précédent et essayer de trouver des indicateurs avancés précis de crises nous mène soit à en annoncer erronément, soit à les manquer comme certains risques sont sous-estimés. Comme les Etats-Unis entrent dans la plus longue expansion qu’ils aient connue de leur histoire, nous nous demandons à nouveau s’il existe des indicateurs fiables qui pourraient nous aider à prévoir la date du prochain point de retournement.

Sans fournir une liste exhaustive de tous les candidats, mettons en avant l’interaction entre trois régularités statistiques et ce qu’ils nous informent (ou non) sur les risques à venir :

Trois régularités statistiques (liées):

1. La courbe des taux (yield curve) tend à s’inverser avant une récession.

GRAPHIQUE Courbe des taux aux Etats-Unis : taux des bons du Trésor à 10 ans moins taux des bons du Trésor à 3 mois

Antonio_Fatas__Etats-Unis_yield_curve_courbe_des_taux.png

2. Les Etats-Unis ne semblent pas être capables de soutenir un faible taux de chômage. A chaque fois que l’économie américaine atteint le "plein emploi" (ou même avant qu’elle l’atteigne), le chômage remonte comme nous atteignons un point de retournement. J’ai déjà écrit sur cette régularité dans mon précédent billet.

GRAPHIQUE Ecart du taux de chômage par rapport à son niveau au début des récessions américaines (en points de %)

Antonio_Fatas__taux_de_chomage_Etats-Unis_autour_des_recessions.png

3. Aucune expansion américaine n’a duré plus de 120 mois. En utilisant les datations des cycles d’affaires du NBER, nous sommes sur le point d’entrer dans la plus longue expansion depuis que leurs données ont commencé en 1857.

Ces trois régularités statistiques sont liées. A mesure qu’une expansion se poursuit, nous voyons une baisse graduelle du taux de chômage et un aplatissement de la courbe des taux. Cela ne devrait pas être surprenant, dans la mesure où les banques centrales relèvent les taux de court terme à mesure que le chômage diminue. Mais ce qui est intéressant, c’est que les Etats-Unis (jusqu’à présent) n’ont pas été capables d’atteindre un état où la courbe des taux reste plate pendant une longue période de temps ou, de façon équivalente, un état où le taux de chômage reste faible pendant de nombreuses années. La pente de la courbe des taux et le taux de chômage suivent des trajectoires en forme de V. Et c’est probablement lié à la durée de l’expansion : quand la reprise commence, le taux de chômage et la pente de la courbe des taux baissent à partir de niveau élevés et, lorsqu’ils atteignent leur plus faible niveau possible, ils rebondissent en fixant une limite pour la durée des expansions. Dans l’actuelle expansion, et après 10 ans, même si nous commencions avec un chômage élevé (comme en 2009), nous devons être très proches du plein emploi (et la courbe des taux est plate ou inversée).

Mais ne s’agit-il pas de simples régularités statistiques sans argument causal évident ? C’est vrai, mais le fait que cette régularité statistique soit robuste et régulière signifie que si les Etats-Unis poursuivent leur expansion pendant quelques années, c’est que "cette fois les choses auront été différentes".

Les choses pourraient-elles être différentes cette fois-ci ?

Est-il possible que les risques ou déséquilibres qui avaient entraîné les précédentes récessions ne soient pas présents ou soient mieux gérés aujourd’hui ? Peut-être. Il est vrai que les cours boursiers ne semblent pas aussi élevés qu’à la veille de la récession de 2001. Il est vrai que les prix de l’immobilier ne semblent pas aussi élevés aujourd’hui que l’année précédant la Grande Récession de 2008. Mais nous ne devons pas oublier qu’au cours de ces années nous avions sous-estimé la pertinence de tels risques. En 2007, les responsables de la Réserve fédérale vantaient la résilience du système financier américain face à une possible chute des prix de l’immobilier. Est-il possible que nous ayons échoué à voir des risques pertinents aujourd’hui ?

Et n’oublions pas que, même ex post, certaines récessions ne sont pas clairement précédées par des déséquilibres excessifs. Ce fut par exemple le cas de la récession de 1990. Cette récession semble être davantage l’accumulation de petits risques combinés à des événements géopolitiques (tels que l’invasion du Koweït par l’Irak). Et alors que certains de ces risques politiques sont difficiles à prédire, il n’est pas difficile de produire une liste des menaces potentielles auxquels le monde fait face (du Brexit aux conflits commerciaux initiés par l’administration Trump en passant à l’instabilité potentielle de la zone euro, etc.)

En résumé, les régularités statistiques suggèrent qu’une récession est imminente. Est-ce que les choses pourraient être différentes cette fois-ci parce qu’il n’y a pas d’amples déséquilibres ? Peut-être. Mais n’oublions pas qu’au cours des dernières fois nous n’avions pas vu la taille et les implications des déséquilibres d’alors. Et n’ignorons pas la longue liste de risques potentiels qui pourraient se matérialiser et produire un ralentissement mondial qui pourrait facilement faire basculer les Etats-Unis et peut-être d’autres pays dans une récession. Les choses pourraient ne pas être différentes cette fois-ci. »

Antonio Fatás, « This time might not be different », in Antonio Fatás on the Global Economy (blog), 6 juin 2019. Traduit par Martin Anota



aller plus loin...

« L’inversion de la courbe des taux signale-t-elle l’imminence d’une récession aux Etats-Unis ? »

« L’insoutenabilité du plein emploi, ou pourquoi les Etats-Unis seront en récession l’année prochaine »

« L'expansion américaine va-t-elle mourir de vieillesse ? »

mercredi 29 mai 2019

La guerre commerciale reprend

« Le 5 mai, Donald Trump a soudainement révélé qu’un accord commercial avec la Chine n’était finalement pas imminent. Au contraire, l’administration Trump a relevé le 10 mai des droits de douane antérieurs de 10 % sur 200 milliards d’importations chinoises en les passant à 25 % et a menacé d’appliquer des droits de douane de 25 % au reste des importations chinoises d’ici fin juin (ce qui correspond à 300 milliards de biens). La Chine, bien sûr, a répliqué en annonçant des droits de douane de 25 % sur 60 milliards de dollars de biens américains à partir du 1er juin. Surpris, les marchés boursiers ont chuté en réponse, le S&P500 perdant 4 % la première semaine de cette nouvelle flambée de guerre commerciale.

Le mystère, c’est pourquoi les investisseurs financiers et d’autres ont pu croire les déclarations de la Maison blanche qu’un accord avec la Chine était sur point d’être signé. Pourquoi croire l’administration Trump sur une telle chose ? (…) Est-ce que quiconque s’attendait à ce que la Chine, si fière, accepte, sans concessions significatives en retour, de laisser les Etats-Unis écrire certaines de ses lois et juger de façon unilatérale si c’est convenable ?

Les contradictions dans le commerce de Trump


La politique commerciale des Etats-Unis est désormais une masse d’objectifs contradictoires :

  • D’un côté, les responsables et défenseurs de l’administration Trump défendent les droits de douane élevés en y voyant un expédient regrettable, mais temporaire, un moyen nécessaire pour atteindre un objectif stratégique, une arme permettant au négociateur en chef de forcer la Chine et d’autres partenaires à l’échange à faire des concessions. D’un autre côté, Donald Trump lui-même ne donne pas l’air de s’inquiéter à l’éventualité que les droits de douane restent à jamais en place. (Son "amour pour les droits de douane" remonte apparemment aux années quatre-vingt). Il persiste à affirmer que la Chine paiera le coût des droits de douane, en renvoyant de l’argent dans les bons du Trésor américains. Quoi de mieux ? Il semble aussi penser que ce serait bien s’il y avait à long terme un découplage des économies chinoise et américaine, mais ne pas s’alarmer des pertes de gains des échanges, notamment du démantèlement des chaînes de valeur desquelles dépendent crucialement de nombreuses entreprises des deux pays.
  • A nouveau, d’un côté une demande prioritaire est que la Chine permettre aux entreprises américaines de lancer plus facilement des opérations en Chine (en s’assurant plus scrupuleusement que les firmes n’aient pas à livrer un savoir technologique ou d’autres propriétés intellectuelles aux partenaires locaux). D’un autre côté, une autre demande absolument prioritaire pour Trump est l’accroissement des exportations nettes des Etats-Unis vers la Chine. Cela reviendrait à ce que les entreprises américaines produisent aux Etats-Unis plutôt qu’en Chine.
  • Une ancienne contradiction : les Etats-Unis demandent à la Chine d’arrêter d’intervenir sur le marché des changes, tout en lui demandant de maintenir la valeur du renminbi à un haut niveau. Ces deux demandes ont été en contradiction directe depuis 2014, quand les forces de marché tournaient dans le sens d’une dépréciation du renminbi.

Il est utile de notre d’autres incohérences commerciales de Trump.

Avons-nous à comprendre l’"incidence" d’un impôt ?


La bonne réponse à la question des coûts est que les Etats-Unis (et l’économie mondiale aussi) verront leur situation se détériorer si nous nous retrouvons indéfiniment avec ces plus hauts droits de douane, ce qui semble désormais possible.

La croyance enthousiaste de Trump que ses droits douanes amèneront la Chine à aider à financer le gouvernement américain est farfelue. Un droit de douane est un impôt et les consommateurs et entreprises américains sont ceux qui la supportent, pas la Chine. (La réduction estimée du revenu réel américain est de 1,4 milliards de dollars par mois.) En fait, dans la mesure où il peut y avoir une vérité derrière l’affirmation selon laquelle le gouvernement chinois subventionnait des produits tels que les panneaux solaires, les droits de douane instaurés depuis janvier 2018 empêchent désormais le gouvernement chinois de subventionner les Etats-Unis.

Il est vrai que, en théorie, les exportateurs chinois auraient pu connaître une perte de demande en conséquence de tous ces droits de douane suffisamment importante pour les forcer à réduire leurs prix. Les étudiants en cours de sciences économiques apprennent à réfléchir sur l’"incidence" d’une taxe, c’est-à-dire identifier qui en supporte en définitive le coût. Mais deux nouvelles études réalisées par d’éminents économistes examinent les données de 2018 et constatent que (1) les Chinois n’ont en effet pas réduit leur prix et que, par conséquent, (2) le fardeau de la hausse des prix a pesé sur les seules épaules des ménages américains. Donc, nous n’avons même pas besoin des cours d’économie : le simple bon sens nous donne la bonne réponse dans ce cas. (…)

Si Trump poursuit en mettant à exécution sa menace d’étendre les droits de douane à tous les produits importés de Chine, le coût pour un ménage américain typique serait de 300 à 800 dollars par an selon une première estimation et de 2.200 dollars selon une autre estimation. Ce coût supporté par les consommateurs ne prend pas en compte le coût que les exportations perdues feraient subir aux entreprises, travailleurs et fermiers américains. Des pertes sont occasionnées sur exportations non seulement via les représailles chinoises, mais aussi via d’autres canaux, notamment l’appréciation du dollar vis-à-vis du renminbi.

Au moins dans un domaine, les politiques commerciales de Trump nuisent actuellement au Budget américain. La Chine a répliqué en ciblant tout particulièrement le soja et d’autres produits agricoles américains. L’administration Trump, sensible aux Etats fermiers pour des questions électorales, cherche à compenser les fermiers avec des milliards de dollars de subventions fédérales, dont l’essentiel va entre les mains des plus riches fermiers. C’est encore un autre coup porté contre le contribuable américain.

Avons-nous à comprendre l’avantage comparatif ?


Les économistes ont depuis longtemps affirmé, avec dépit ou suffisance, que l’on ne peut s’attendre à ce que public comprenne le principe des gains du commerce sans qu’on lui ait enseigné le principe de l’avantage comparatif de David Ricardo. Paul Samuelson avait identifié le principe comme à la fois vrai et pourtant peu évident.

Mais nous n’avons en fait pas besoin d’assimiler le principe de l’avantage comparatif pour comprendre l’idée basique des gains mutuels du commerce. Si à la fois l’acheteur et le vendeur s’accordent volontairement pour procéder à un échange, alors tous les deux y gagnent. Cela suppose qu’ils soient de bons juges de ce qu’ils veulent ; meilleurs, du moins, que ne l’est le gouvernement. Cette hypothèse est habituellement correcte, avec quelques exceptions (comme l’achat d’opium).

La théorie de l’avantage comparatif permet de faire des prédictions utiles, en indiquant par exemple quel pays va choisir d’exporter quel bien ; bien elle n’est pas très importante pour comprendre la présomption basique que les deux côtés tirent un gain du commerce volontaire. A nouveau, le sens commun nous donne la bonne réponse.

Dire que les deux pays gagnent à commercer ensemble ne revient pas à affirmer que chaque résident de chaque pays y gagne. Bien sûr, un essor du commerce donne lieu à la fois à des « gagnants et des perdants » dans chaque pays. Comme le fait n’importe quel changement majeur. Les droits de douane créent également des gagnants et des perdants. Mais les gagnants tendent à être plus nombreux que les perdants quand le commerce est libéralisé, tandis que les perdants tendent à être plus nombreux que les gagnants quand les droits de douane sont relevés.

Des droits de douane sans gagnants


Donald Trump semble avoir mis en œuvre un exemple spectaculaire de cette généralisation : sa guerre commerciale a nui à presque chaque pan de l’économie américaine, avec très peu de gagnants. Les perdants incluent juste quelques consommateurs, mais aussi des entreprises et les travailleurs qu’elles emploient, que ce soit des fermiers qui perdent leurs marchés à l’exportation ou les industriels qui sont forcés de payer plus cher pour se fournir en intrants. Même l’industrie automobile américaine, qui ne demandait pas cette "protection", voit sa situation se détériorer sur tous les plans, ayant à payer plus cher pour s’approvisionner acier et obtenir les pièces des voitures.

Trump est proche d’accomplir quelque chose que l’aurait pu croire impossible : des droits de douane qui ne bénéficient à quasiment personne. Nous pourrions avoir à reconsidérer la théorie de l’économie politique qui considère que le protectionnisme est habituellement la conséquence d’intérêts particuliers qui détiennent un pouvoir disproportionné. Il ne suffit pas de remonter trente ans en arrière, aux critiques lancées contre le Japon des années quatre-vingt. Nous pourrions avoir à retourner il y a trois siècles, aux mercantilistes qui précédèrent Adam Smith (1776) et Les Lumières. Les mercantilistes n’aimaient pas le commerce parce qu’il favorisait les individus libres aux dépens de l’Etat. »

Jeffrey Frankel, « The trade war resumes », in Econbrowser (blog), 26 mai 2019. Traduit par Martin Anota



aller plus loin...

« Petite macroéconomie des droits de douane »

« Le coût de la guerre commerciale de Trump pour l’économie américaine »

samedi 25 mai 2019

Après Draghi



« Le mandat de Mario Draghi en tant que président de la Banque centrale européenne s’achève en octobre. Ce fut un mandat tumultueux. Entre autres, il a clairement sauvé l’euro de l’effondrement en 2012-2013, ce qui fait probablement de lui le plus grand banquier central des temps modernes. Mais je ne cherche pas à célébrer Draghi, mais plutôt à m’interroger à propos de l’état de l’euro comme l’ère de Draghi arrive à sa fin. Ce n’est pas une diatribe. J’ai longtemps été un eurosceptique et il y a eu beaucoup de souffrances en Grèce et, dans une moindre mesure, en Espagne et au Portugal. Mais la performance globale de l’Europe depuis la crise de 2008 a été meilleure que ce que pensent la plupart des observateurs américains.

Je dirais que le gros problème aujourd’hui est l’extrême fragilité face à tout choc futur. Dans les années qui ont suivi l’arrivée de Draghi, la zone euro a su étonnamment bien restaurer la croissance et combler ses pertes en termes d’emploi. Mais ce succès repose sur des taux d’intérêt extrêmement faibles et un euro sous-évalué. Cela signifie qu’en Europe la politique monétaire n’a essentiellement aucune marge de manœuvre : elle ne pourra rien faire de plus qu’elle ne fait déjà si quelque chose se passait mal. S’il y avait une récession chinoise ou si Trump imposait des droits de douane sur les voitures allemandes ou qu'il y ait un quelconque autre choc négatif, qu’est-ce que la zone euro pourrait faire ? La BCE ne peut pas assouplir significativement sa politique monétaire. L’expansion budgétaire peut aider, mais elle devra être menée par l’Allemagne, ce qui semble peu plausible.

Pourtant, il semble opportun de dire comment les choses se sont passées jusqu’à présent ; en l’occurrence, elles se sont mieux passées que ce que beaucoup imaginent. Commençons avec la croissance économique dans la zone euro. Je montre ici la croissance du PIB réel depuis 2007, comparée avec celle des Etats-Unis :

GRAPHIQUE PIB réel des Etats-Unis et de la zone euro (en indices, base 100 au quatrième trimestre 2007)

Paul_Krugman__PIB_reel_Etats-Unis_zone_euro.png

Trois choses semblent évidentes. Premièrement, la zone euro a subi un violent contrecoup en 2011, en partie à cause de la crise de la dette souveraine, en partie parce que la BCE de Jean-Claude Trichet a pris la mauvaise décision de répondre à la hausse des prix des matières premières en relevant ses taux d’intérêt malgré un chômage élevé. Deuxièmement, les choses se sont stabilisées une fois que Draghi déclara que la BCE fera "tout ce qu’il faudra" ("whatever it takes") et mit en œuvre une politique durable d’expansion monétaire. Troisièmement, la croissance européenne globale a néanmoins a été moindre que celle des Etats-Unis.

Finalement, alors que le chômage européen est régulièrement plus élevé qu’aux Etats-Unis, on prend de plus en plus conscience que le chômage mesuré est un indicateur bien imparfait, qu’il vaut mieux regarder l’emploi des personnes d’âge intermédiaire. Et selon cet indicateur, l’Europe a réalisé des performances quasiment aussi bonnes que celles des Etats-Unis :

GRAPHIQUE Taux d’emploi des 25-54 ans aux Etats-Unis et en zone euro (en %)

Paul_Krugman__taux_d__emploi_25-54_ans_zone_euro_Etats-Unis_Grande_Recession.png

Donc, l’Europe s’en est beaucoup mieux tirée que ce que la plupart des Américains pensent. Mais elle y est parvenue seulement grâce à deux choses : des taux d’intérêt incroyablement faibles (littéralement négatifs pour certains actifs) et un gros excédent commercial dû à cet euro sous-évalué.

A nouveau, que se passerait-il si quelque chose allait mal ? La situation des Etats-Unis n’est pas grandiose, mais face à une récession la Fed a une certaine marge pour réduire ses taux et le Congrès peut adopter une certaine relance budgétaire. La BCE ne dispose pas d'une telle marge ; l'excédent commercial ne peut probablement pas être plus élevé ; l'Europe n’a pas de gouvernement pour fournir de relance budgétaire. Il y a une certaine marge de manœuvre pour la politique budgétaire en Allemagne, mais elle pourrait aussi bien être sur la face cachée de la lune. Donc, quel avenir pour l’Europe après Draghi ? Le continent va bien pour l’heure, dans une grande mesure grâce aux actions de Draghi. Mais il n’y a pas de forces en réserve, pas de munitions à tirer, pour faire face à quelque chose de mauvais. Et les mauvaises choses arrivent. »

Paul Krugman, « After Draghi », 24 mai 2019. Traduit par Martin Anota



aller plus loin...

« Pourquoi la reprise a-t-elle été plus lente dans la zone euro qu’aux Etats-Unis ? »

« Pourquoi la reprise a tardé ? La crise de l'euro au prisme de la crise du SME »

« Dix ans après la crise financière, où en est la reprise ? »

mardi 14 mai 2019

La stagnation séculaire nous oblige à reconsidérer le rôle de la politique macroéconomique

« Les éditions MIT Press ont publié Evolution or Revolution? Rethinking Macroeconomic Policy after the Great Recession, un livre contenant les articles et des discussions que nous avons organisées à une conférence de la Peterson Institute il y a 18 mois. Alors que les choses sont toujours loin d’être claires, les événements qui se sont déroulés depuis nous amènent à considérer que la stagnation séculaire constitue une menace sérieuse pour les pays développés. A partir de points de vue quelque peu différents (Blanchard, 2019, et Rachel et Summers, 2019), nous en sommes de plus en plus venus à croire qu’il est nécessaire de reconsidérer en profondeur la politique macroéconomique et en particulier la politique budgétaire.

"Nous avions écrit (…) qu’au minimum, la politique monétaire doit rétablir sa marge de manœuvre. La politique budgétaire doit être réintroduite comme un outil de stabilisation majeur. Et les politiques financières doivent continuer d’être ajustées et renforcées. Nous pouvons qualifier cela d’évolution. Si, cependant, les taux neutres restent extrêmement faibles, peut-être même négatifs, ou si la régulation financière marque le pas, des changements plus profonds pourraient être nécessaires, allant du recours aux déficits budgétaires à des efforts actifs pour promouvoir la dépense privée, en passant par une plus forte inflation pour réduire davantage les taux d’intérêt réels ou encore un renforcement des contraintes sur le secteur financier. Nous pouvons qualifier cela de révolution. Seul le temps nous le dira.

Divers changements frappants des conditions économiques sont survenus depuis que nous avons écrit ce passage.

Les taux d’intérêt restent inhabituellement faibles


Les taux d’intérêt neutres, tels qu’ils sont jugés par les marchés ou les observateurs financiers, ne se sont pas accrus et ont probablement décliné, même quand nous sommes sortis de la Grande Récession. L’idée que les taux d’intérêt faibles constituaient un simple effet d’après-crise et que les taux remonteraient lentement s’est tout simplement révélée erronée. Aux Etats-Unis, les taux d’intérêt réels à 10 ans ont significativement diminué ces derniers mois et sont environ au niveau où ils étaient il y a 18 mois malgré le passage de fortes réductions d’impôts. En réponse aux inquiétudes à propos d’un possible affaiblissement de l’économie et de l’absence de pressions inflationnistes, la Réserve fédérale a signalé que l’actuel cycle de resserrement puisse s’arrêter avec des taux d’intérêt de court terme inférieurs à 2,5 %. Les marchés considèrent que la prochaine mesure de la banque centrale sera plus probablement une baisse plutôt qu’une hausse du taux directeur. En Europe, en réponse à la faiblesse économique, les autorités monétaires ont retardé de plusieurs années la date à laquelle les taux d’intérêt retourneront en territoire positif et elles se demandent si elles ne vont pas relancer l’assouplissement quantitatif (quantitative easing). En Allemagne et au Japon, les obligations indexées suggèrent que les taux d’intérêt réels négatifs constituent un aspect de la vie économique pour la prochaine génération.

Parallèlement, la politique budgétaire est restée expansionniste (au Japon, fortement aux Etats-Unis, timidement en zone euro) sans entraîner de surchauffe. Malgré cette relance budgétaire, l’inflation a à peine atteint la cible d’inflation de la Fed et les marchés anticipent que l’inflation américaine restera en-deçà de 2 %, même selon les prévisions sur 30 ans. Dans la zone euro et au Japon, l’inflation reste inférieure à sa cible, avec peu d’éléments suggérant que la cible puisse être bientôt atteinte. Cette faible inflation suggère que, malgré des politiques monétaire et budgétaire expansionnistes, l’inflation anticipée est toujours inférieure à la cible ou la production est toujours sous son potentiel, du moins dans ces deux économies.

La politique budgétaire doit jouer un rôle plus important dans les futures récessions


Ces deux développements nous amènent inévitablement à conclure que la politique budgétaire devra à l’avenir jouer un rôle plus important que par le passé. Il n’y a simplement pas assez de marge, même aux Etats-Unis, pour que la politique monétaire réponde adéquatement à une récession de taille standard. Rappelez-vous que la récession américaine typique a été associée à une baisse de 500 points de base des taux directeurs, une baisse deux fois plus importante que ne le permettent les taux aujourd’hui. Mais le problème peut aller au-delà des récessions et être plus récurrent et plus fondamental. La demande globale peut rester chroniquement faible, impliquant des taux neutres durablement faibles. La borne inférieure zéro peut être contraignante pour une longue période de temps, nécessitant un soutien de la part de la politique budgétaire et une redistribution plus profonde des rôles entre politique monétaire et politique budgétaire.

Soyons clairs : Une dette publique plus élevée a en soi des coûts en termes de bien-être (bien que les taux faibles soient un signal que ces coûts puissent être limités, comme le montre Blanchard, 2019), mais dans l’environnement actuel, dans la mesure où des déficits budgétaires plus importants peuvent contribuer à réduire ou éliminer l’écart de production (output gap), les bénéfices pourraient fortement dépasser ces coûts.

L’épisode de borne inférieure zéro du Japon plaide en faveur de l’utilisation de la relance budgétaire


L’épisode de borne inférieure zéro (zero lower bound) au Japon est très instructif. Depuis 1999, le taux directeur est resté à zéro ou proche de zéro et la taille du bilan de la Banque du Japon a été multipliée par cinq depuis. Du côté budgétaire, le Japon a généré un déficit moyen de 6 % du PIB et la dette nette a augmenté de l’équivalent de près de 90 % du PIB. Et, pourtant, un taux directeur nul, un assouplissement quantitatif agressif et une politique budgétaire fortement expansionniste n’ont pas réussi à ramener l’inflation à sa cible ou la production à son potentiel. Pendant longtemps, les économistes qui se sont penchés sur le Japon on souligné des erreurs de politique économique et un recours excessif aux déficits budgétaires. Il est maintenant clair que la forte réponse macroéconomique du Japon était en net la bonne.

On pourrait affirmer que ces mesures budgétaires extrêmes sont nécessaires seulement lorsqu’un pays est à la borne inférieure zéro et que les Etats-Unis sont maintenant hors de la zone de danger requérant de telles politiques. Ce serait une erreur, pour les raisons suivantes.

Premièrement, même lorsque les taux sont positifs, mais proches de zéro, le risque qu’une contraction de la demande globale puisse ramener l’économie à la borne inférieure zéro va inquiéter les ménages et les entreprises, ce qui déprimerait davantage la demande et accroîtrait la probabilité de se retrouver à la borne.

Deuxièmement, même si la borne inférieure zéro peut être quelque peu évitée, disons en supprimant la monnaie fiduciaire et en payant des taux d’intérêt négatifs sur les encaisses monétaires, de très faibles taux semblent souvent être associés à une prise de risque excessive, allant d’un endettement excessif à une hausse de la fréquence des bulles spéculatives.

Troisièmement, il y a de bonnes raisons nous amenant à croire que plus le taux d’intérêt est faible, plus ses effets sur la demande globale s’affaiblissent. En effet, l’argument a été avancé qu’il y a un "taux d’inversion" (reversal rate) en deçà duquel l’effet du taux change de signe, si bien qu’une baisse supplémentaire des taux est susceptible de réduire le prêt.

Quatrièmement, en regardant le long terme, de faibles taux d’intérêt peuvent amener des entreprises débitrices zombies à rester en vie trop longtemps, ralentissement la réallocation et freinant ainsi la croissance économique.

Les preuves empiriques pour chacun de ces arguments ne sont pas pléthores, mais ensemble elles plaident pour maintenir les taux neutres à un niveau raisonnablement élevé et, par implication, pour être enclins à adopter la politique budgétaire expansionniste appropriée pour soutenir la demande.

Cela soulève la question de la coordination des politiques budgétaire et monétaire. L’exemple des Etats-Unis montre qu’elles peuvent fonctionner dans des directions opposées : la Fed avait poussé les rendements des obligations à la baisse et le Trésor avait saisi l’opportunité pour allonger la maturité de la dette publique. La coordination entre la banque centrale et les autorités budgétaires n’est toutefois pas sans susciter des problèmes délicats. L’une des principales avancées pour la politique monétaire a été de rendre les banques centrales indépendantes, de les laisser fixer par elles-mêmes une cible d’inflation à atteindre. Est-ce que cela reste le cas si à la fois les responsables budgétaire et monétaire doivent travailler ensemble pour atteindre le plein emploi ? L’aplatissement de la courbe de Phillips rend cela très tentant d’opter pour des politiques temporellement incohérentes, de tenter la surchauffe au prix d’une inflation apparemment limitée à court terme. Ce danger peut-il être écarté ? (...) »

Olivier Blanchard & Lawrence H. Summers, « Secular stagnation requires rethinking macroeconomic policy, especially fiscal policy », PIIE (blog), 13 mars 2019. Traduit par Martin Anota



Aller plus loin…

« Larry Summers et la stagnation séculaire »

« Les taux neutres, la stagnation séculaire et le rôle de la politique budgétaire »

« Faut-il s'inquiéter de la dette publique lorsque les taux d’intérêt sont faibles ? »

jeudi 9 mai 2019

L’économie de Donald Keynes : l’austérité pour les démocrates, la relance pour les républicains

« J’ai fait un mauvais pronostic économique le soir des résultats des élections présidentielles en 2016 en prédisant une récession avec Trump. Mais j’ai rapidement réalisé que la déception politique avait obscurci mon jugement et suis revenu sur mon pronostic trois jours après. "Il est au moins possible", écrivais-je le 11 novembre 2016, "que de plus gros déficits budgétaires puissent brièvement renforcer l’économie". Ce que je ne savais pas à l’époque, c’était l’ampleur qu’atteindraient les déficits budgétaires. Depuis 2016, l’administration Trump a, en pratique, mis en œuvre le genre de forte relance budgétaire à laquelle les suiveurs de John Maynard Keynes appelaient lorsque le chômage était élevé, mais contre lequel les républicains se sont opposés.

Contrairement à ce que Donald Trump et ses partisans proclament, nous ne connaissons pas un boom sans précédents. L’économie américaine a crû de 3,2 % au cours de l’année dernière, un rythme de croissance que nous n’avions pas connu depuis… 2015. L’emploi a crû régulièrement depuis 2010, sans rupture de tendance après 2016. Cette longue séquence de croissance poussé le taux de chômage à des niveaux qui n’avaient pas été atteints depuis plusieurs décennies. Que s’est-il passé et qu’est-ce que cela nous enseigne ? La vigueur de l’économie ne reflète pas un redressement du déficit commercial américain, qui reste élevé. Elle ne reflète pas non plus un boom géant de l’investissement des entreprises, chose que les partisans de la réduction d’impôts de 2017 avaient promise et qui n’est pas survenue. Ce qui tire l’économie américaine aujourd’hui, c’est le déficit budgétaire.

Les économistes utilisent souvent le déficit budgétaire ajusté en fonction de la conjoncture (une estimation de ce que le déficit serait au plein emploi) comme une mesure approximative du degré de relance budgétaire qu’offre le gouvernement. Selon cette mesure, le gouvernement fédéral injecte actuellement autant d’argent dans l’économie qu’il y a sept ans, lorsque le taux de chômage était supérieur à 8 %.

L’explosion du déficit budgétaire n’est pas simplement une conséquence de cette baisse d’impôts. Après que les républicains aient pris le contrôle du Congrès en 2010, ils forcèrent le gouvernement fédéral à embrasser l’austérité budgétaire, en gelant les dépenses malgré un chômage élevé et de faibles coûts d’emprunt. Mais une fois que Trump se retrouva à la Maison blanche, les républicains n’eurent soudainement plus de problème avec les dépenses publiques (aussi longtemps qu’elles n’aident pas les pauvres). En particulier, les dépenses discrétionnaires réelles (les dépenses autres que celles de la sécurité sociale, de Medicare et d’autres programmes de filet de sécurité) ont explosé après plusieurs années de déclin.

Donc, il n’y a pas vraiment de mystère à propos de la vigueur persistante de l’économie : c’est une affaire keynésienne. Mais qu’avons-nous appris de cette expérience ?

Politiquement, nous avons appris que le parti républicain est profondément hypocrite. Après tous ces cris hystériques à propos des dangers de la dette publique et d’une menace inflationniste à l’époque d’Obama, le parti républicain ouvrit les robinets avec allégresse à l’instant même où l’un de ses hommes se retrouva à la Maison blanche. Vous voyez toujours des informations qui décrivent les républicains comme des "faucons du déficit" et s’interrogent sur leur indolence face au creusement du déficit budgétaire. Allez, tout le monde sait de quoi il s’agit.

Au-delà de cela, nous savons maintenant que la longue période de chômage élevé qui suivit la crise financière de 2008 pouvait facilement être écourtée. Ceux d’entre nous qui avertirent dès le début que la relance Obama était trop faible et excessivement temporaire et que l’austérité freinait la reprise avaient raison. Si nous avions été enclins à fournir le même genre de soutien budgétaire en 2013 que celui que nous fournissons aujourd’hui, le chômage cette année-là aurait certainement été inférieur à 6 %, et non de 7,4 %.

Mais, à l’époque, ceux que j’avais l’habitude d’appeler les gens très sérieux avancèrent plusieurs raisons pour soi-disant démontrer que nous ne pouvions pas faire ce que les manuels de base en économie nous disaient de faire. Les gens très sérieux disaient qu’il y aurait une crise de la dette, même si le gouvernement américain pouvait emprunter à des taux d’intérêt incroyablement bas. Ils disaient que le chômage était "structurel" et qu’il ne pouvait être réduit si nous accroissions la demande globale. En particulier, ils prétendaient que les chômeurs n’avaient pas les compétences que nécessitait une économie moderne. Aucune de ces affirmations n’était exacte. Mais avec l’obstructionnisme des républicains, elles contribuèrent à retarder pendant plusieurs années le retour au plein emploi.

Donc les déficits budgétaires de Trump sont une bonne chose ? Il s’avère qu’il y a deux ans l’économie américaine était bien plus éloignée du plein emploi que ne le pensaient la plupart des gens, donc il y avait même alors un argument en faveur de la relance budgétaire. Et les risques de la dette étaient bien moindres que ne le proclamaient les gens très sérieux.

Si nous nous endettons, cependant, cela doit être pour de bonnes raisons. Nous pouvons utiliser les déficits pour rebâtir nos infrastructures en déchéance. Nous pouvons investir dans nos enfants, nous assurer qu’ils aient une bonne santé et une bonne alimentation et les sortir de la pauvreté. Mais les républicains bloquent toujours tout type de dépenses utiles. Non seulement les républicains au Sénat se sont opposés à l’investissement dans les infrastructures, mais l’administration Trump propose de fortes réductions des aides aux enfants, en particulier les soins de santé et l’éducation. Les déficits ne sont apparemment une bonne chose que lorsqu’ils financent de fortes baisses d’impôts pour les entreprises, qui utilisent cette manne pour racheter leurs actions.

Voilà l’histoire de l’économie américaine en 2019. L’emploi est élevé et le chômage faible, parce que les républicains ont embrassé le genre de dépenses financées par déficit qui, selon leurs dires, allait détruire les Etats-Unis lorsque les démocrates détenaient le pouvoir. Mais nulle once de ces dépenses n’est utilisée pour aider ceux qui sont dans le besoin ou pour rendre l’économie plus forte à long terme. »

Paul Krugman, « The economics of Donald J. Keynes », 6 mai 2019. Traduit par Martin Anota

lundi 6 mai 2019

Le prix de tout, la valeur de l’économie : une médaille Clark pour Emi Nakamura



« C’est fantastique et mérité (…) que la médaille John Bates Clark soit décernée à Emi Nakamura, qui a récemment quitté Columbia pour Berkeley. C’est la première médaille Clark qui est décernée à un macroéconomiste au vingt-et-unième siècle. La Grande Récession, les changements massifs dans le commerce international, l’essor de zones monétaires comme la zone euro, le saving glut et ses effets sur les taux d’intérêt, le changement dans l’ouverture aux entrées fébriles de capitaux, etc. : il s’est passé énormément de choses au niveau macroéconomique au cours des deux décennies qui se sont écoulées depuis qu’Andrei Shleifer a gagné la médaille Clark. Il est difficile d’imaginer ce qui peut être plus important pour un économiste à comprendre que ces dynamiques.

Au cours des vingt dernières années, la macroéconomie a connu quelque chose d’inhabituel : elle est devenue semblable à l’organisation industrielle ! Un bref rappel historique pourrait être utile. Le terme "macroéconomie" est dû à Ragnar Frisch, dans l’article qu’il publia en 1933 sur la propagation des chocs économiques. Il écrivait : "L’analyse macrodynamique (…) essaye de donner un compte-rendu de l’ensemble du système économique pris dans son entièreté. Evidemment dans ce cas il est impossible de procéder à une analyse des détails. Bien sûr, il est toujours possible de réaliser une analyse macrodynamique en détail si nous nous confinons à une théorie purement formelle. En effet, il est toujours possible par un système adapté d’indices et d’exposants, etc., d’introduire pratiquement tous les facteurs que nous pouvons imaginer. (…) Une telle théorie, cependant, n’aurait qu’un intérêt limité. Il ne serait guère possible d’étudier des problèmes fondamentaux tels que la forme exacte de la solution (…). Ces derniers problèmes sont des problèmes majeurs dans l’analyse du cycle d’affaires. De façon à s’attaquer à ces problèmes sur une base macrodynamique (…), nous devons délibérément négliger une masse considérable de détails de l’image".

Et c’est ce que nous avons fait. Les keynésiens ont ramené les microfondations de la macroéconomie dans une poignée de paramètres globaux pertinents. La critique de Lucas affirma que nous pouvons simplifier certaines choses (plusieurs agents en un agent représentatif, par exemple), mais que nous devons toujours commencer notre analyse avec les paramètres fondamentaux que sont les préférences, les contraintes et les technologies. La synthèse néoclassique a combiné ces paramètres bruts avec les rigidités nominales (les prix visqueux, l’information limitée, et ainsi de suite). Mais le principal point de Frisch demeurait : à quoi servent ces paramètres théoriques plus profonds si nous ne pouvons estimer leur valeur et leurs effets macroéconomiques ? Comme Einstein nous l’a enseigné, le but du scientifique devrait être de simplifier le plus possible les choses, mais pas davantage.

Il y a deux choses qui ont récemment changé en macroéconomie. Premièrement, la puissance de calcul offre désormais la possibilité d’estimer ou de calibrer de très complexes modèles dynamiques et stochastiques, avec des agents tournés vers l’avenir, avec des trajectoires de prix à l’équilibre ou en dehors de l’équilibre, avec diverses frictions ; c’est en cela que la macroéconomie a commencé à ressembler un peu comme l’organisation industrielle, avec les paramètres microéconomiques à la base. Mais deuxièmement, et de nouveau de façon analogue à l’organisation industrielle, le montant de données disponibles pour le chercheur a crû énormément. Nous avons maintenant des données sur les prix qui nous disent exactement quand les prix changent et de quel montant, comment ces changements se propagent le long des chaines de valeur et d’un pays à l’autre, comment ils interagissent avec les impôts, et ainsi de suite. Le problème de Frisch a dans un sens été résolu : nous n’avons plus le même arbitrage entre utilité et profondeur lorsque nous étudions la macroéconomie.

Nakamura est surtout connue pour utiliser cette profonde combinaison de données et de théorie pour comprendre comment les entreprises fixent leurs prix. Les rigidités des prix jouent un rôle particulièrement important dans les théories de la macroéconomie qui impliquent potentiellement de l’inefficacité. Considérons une version (quelque peu expurgée) de la théorie des cycles d’affaires réels. Ici, des chocs touchent l’économie : par exemple, un cartel du pétrole réduit l’offre de pétrole pour des raisons politiques. Les entreprises doivent réagir à ce choc "réel" du côté de l’offre en réorganisant l’activité économique. Le choc réel se propage ensuite d’un secteur à l’autre. Le rôle de la politique monétaire dans un tel monde est limité : une récession reflète simplement la réaction des entreprises au changement réel dans l’environnement économique.

Cependant, quand les prix sont "visqueux", ce n’est plus vrai. La vitesse à laquelle les chocs réels se propagent et la distorsion que les prix visqueux introduisent peuvent être affectées par la politique monétaire, puisque les firmes vont réagir aux changements de leurs anticipations d’inflation en changeant la fréquence à laquelle ils révisent les prix. Golosov et Lucas dans le Journal of Political Economy affirmèrent, théoriquement et empiriquement, que les effets en termes de bien-être des "prix visqueux" ou de "coûts de menu" n’étaient pas très significatifs. L’extraction de ces effets de bien-être est assez sensible à plusieurs aspects des données et de la théorie. Dans quelle mesure y a-t-il une dispersion des prix à court terme plutôt qu’une chance exogène pour toutes les entreprises dans un secteur de changer leurs prix ? Notons que la dispersion des prix est difficile à maintenir à moins que nous ayons des coûts de recherche pour le consommateur (sinon chacun achèterait au vendeur le moins cher), donc la dispersion des prix ajoute un défi technique non trivial. De combien les prix changent-ils dans la réalité (…) ? Quand l’inflation est plus forte, est-ce que les entreprises ajustent aussi fréquemment, mais plus amplement, leurs prix (rappelons-nous du fameux doublement du prix du Coca-Cola), ou est-ce qu’elles ajustent les prix plus souvent en modifiant leurs prix dans la même proportion qu’elles le faisaient dans des environnements de faible inflation ? Combien d’hétérogénéité y a-t-il dans les pratiques de fixation des prix d’un secteur à l’autre et dans quelle mesure ces différences affectent les conséquences des prix en termes de bien-être étant donné les relations entre secteurs ?

Nakamura nous a amenés très loin dans ces questions. Elle a construit d’incroyables bases de données, proposé des stratégies d’identification très astucieuses pour séparer les modèles de fixation des prix et utilisé ces outils pour grandement améliorer notre compréhension de l’interaction entre rigidités des prix et cycle d’affaires. Son article sur les "cinq faits" utilise des microdonnées du Bureau of Labor Statistics pour montrer que les soldes représentent la moitié des "modifications de prix" que les chercheurs avaient précédemment estimées, que les prix changent plus vite lorsque l’inflation est plus forte et qu’il y a une forte hétérogénéité entre les secteurs dans le comportement de changement des prix. En faisant remonter ces données jusqu’aux années soixante-dix, Nakamura et ses coauteurs montrent aussi que les environnements à forte inflation ne provoquent pas plus de dispersion des prix : en fait, les entreprises révisent leurs prix plus souvent. Robert Lucas dans ses Macroeconomic Priorities avait fait valoir de façon convaincante que les coûts du cycle d’affaires en termes de bien-être étaient bien plus faibles que les coûts d’inflation et que les coûts d’inflation étaient eux-mêmes bien plus faibles que les coûts de distorsions fiscales. Comme Nakamura le souligne, si vous croyez cela, alors ne vous étonnez pas de donner la priorité à la stabilité des prix et à la politique fiscale ! (Beaucoup ont chipoté sur le raisonnement de Lucas, mais même en ajoutant des agents hétérogènes il est difficile de faire apparaître que les cycles d’affaires se traduisent par de larges coûts, cf. Krusell et alii (2009)). Mieux comprendre les vrais coûts de l’inflation, via l’effet retour de l’expansion monétaire sur la fixation des prix, va grandement aider les responsables de la politique économique pour calibrer les coûts et bénéfices de la stabilité des prix vis-à-vis des autres objectifs macroéconomiques.

Bien qu’elle soit généralement connue en tant que macroéconomiste empirique, Nakamura a aussi publié plusieurs articles (en l’occurrence notamment avec son mari Jon Steinsson) sur la théorie de la fixation des prix. Par exemple, pourquoi les prix sont-ils à la fois visqueux et impliquent aussi des soldes ? Dans un article astucieux publié dans le Journal of Monetary Economics, Nakamura et Steinsson modélisent une fixation des prix par les firmes face à des consommateurs sujets à des habitudes. Si la firme ne se contraint pas elle-même, elle a l’incitation à accroître les prix une fois que les consommateurs acquièrent leur habitude sur un produit (…). Pour éviter ces problèmes d’incohérence temporelle, les entreprises aimeraient s’engager à une trajectoire de prix avec une certaine flexibilité pour répondre aux changements de la demande. Un équilibre à ce modèle de type contrat relationnel implique un prix-plafond avec des soldes quand la demande chute : des prix rigides et des soldes, comme nous l’avons vu dans les données ! Dans un second article théorique avec Steinsson et Alisdair McKay, Nakamura observe dans quelle mesure la communication à propos des futurs taux d’intérêt nominaux peut affecter les comportements. En principe, beaucoup : si vous me dites que la Fed va garder les taux d’intérêt réels à un faible niveau pendant plusieurs années (de faibles taux dans le futur accroissent la consommation dans le futur, ce qui accroît l’inflation dans le futur, ce qui réduit les taux réels aujourd’hui), je vais emprunter. Mais le fait d’introduire les contraintes d’emprunt et le risque de revenu signifie que je ne vais jamais emprunter beaucoup d’argent : je peux connaître un mauvais choc demain et me retrouver à la rue. Donner cinq années au forward guidance à propos des taux d’intérêt plutôt qu’une année ne va par conséquent pas vraiment affecter mon comportement : c’est le désir de détenir de l’épargne de précaution qui limite mon emprunt, pas le taux d’intérêt.

Nakamura mérite le prix qu’elle a reçu, tant elle a joué un rôle de premier plan dans la réorientation de la macroéconomie qui l’a rendue, d’une part, plus empirique et, d’autre part, plus "microéconomique" sur le plan théorique. Sa focale est ciblée sur certaines des énigmes clés pour les responsables de la politique économique. Il est impossible de couvrir un aussi large champ dans un unique billet (…), mais heureusement il y a deux résumés faciles à lire et de qualité de ses principaux travaux. D’une part, dans l’Annual Review of Economics, elle a compilé les nouveaux faits empiriques sur les changements des prix, les tentatives pour identifier le lien entre politique monétaire et changements des prix et les implications pour la théorie du cycle d’affaires. D’autre part, dans le Journal of Economic Perspectives, elle discute de la façon par laquelle les macroéconomistes ont tenté d’identifier les paramètres théoriques de façon plus crédible. (…) J’hésite à m’arrêter ici tant Nakamura a publié de nombreux articles influents, mais je finirais en évoquant brièvement deux points que vous devriez davantage explorer. Du côté des dépenses publiques, elle a utilisé les chocs de dépenses locaux et un modèle robuste pour estimer le multiplicateur budgétaire national des dépenses publiques. Deuxièmement, elle a récemment suggéré que les récessions tendent à durer plus longtemps depuis que les femmes quittent moins massivement qu’auparavant la production domestique pour la vie active. »

Kevin Bryan, « The price of everything, the value of the economy: A Clark medal for Emi Nakamura », in A Fine Theorem (blog), 1er mai 2019.

mercredi 1 mai 2019

Démanteler les grandes firmes du numérique pour réduire leur pouvoir de marché ?

« La sénatrice Elizabeth Warren a proposé de démanteler les grosses entreprises du secteur des nouvelles technologies. Un rapport du gouvernement britannique a présenté une autre approche pour réguler l’économie digitale. Et une étude du FMI a rappelé que la concentration du pouvoir de marché va au-delà du numérique. Ce billet passe en revue le débat…

Le 8 mars, la sénatrice américaine Elizabeth Warren a publié un essai où elle développe sa proposition de démanteler les grosses compagnies de nouvelles technologies du pays, à savoir en particulier Amazon, Google et Facebook. Ces entreprises, affirme Warren, ont acquis un pouvoir excessif : "Près de la moitié de l’ensemble du commerce numérique passe par Amazon", tandis que "plus de 70 % de l’ensemble du trafic sur Internet passe par des sites possédés ou exploités par Google ou Facebook".

Surtout, ces firmes ont utilisé ce pouvoir pour étouffer leurs rivales et limiter l’innovation. Warren accuse "un relâchement de l’application de la loi antitrust" d’avoir entraîné "une réduction dramatique de la concurrence et de l’innovation" dans ce secteur, en notant que "le nombre de nouvelles entreprises de nouvelles technologies a baissé, qu’il y a moins de jeunes firmes à forte croissance typiques de l’industrie des nouvelles technologies et que les premiers tours de financement pour les startups de nouvelles technologies ont décliné de 22 % depuis 2012".

Cette réduction de la concurrence et de l’innovation, poursuit-elle, passe par deux canaux : l’acquisition par les grosses entreprises de potentiels rivaux ; et leur engagement dans un marché qu’elles possèdent. Donc, la proposition de démanteler les grosses firmes de nouvelles technologies repose en fait sur deux propositions distinctes de séparation. Premièrement, pour répondre au conflit d’intérêt, les entreprises qui "offrent au public sur un marché en ligne un échange ou une plateforme pour se connecter à des tiers" et génèrent des recettes annuelles globales supérieures à 25 milliards de dollars auraient à choisir entre posséder la plateforme ou y participer. Deuxièmement, pour rétablir un paysage concurrentiel, Warren nommerait des régulateurs ayant pour tâche de renverser les fusions anticoncurrentielles en utilisant les lois antitrust existantes. Elle fait explicitement mention aux fusions suivantes : Amazon avec Whole Foods et Zappos ; Facebook avec Whatsapp et Instagram ; Google avec Waze, Nest et DoubleClick.

"L'Amérique a une longue tradition de démantèlement des entreprises lorsqu’elles sont devenues trop grosses et dominantes", dit Warren. Elle rappelle que lorsque, dans les années quatre-vingt-dix, Microsoft "essayait de convertir sa position dominante dans les systèmes d’explorateurs en position dominante dans le nouveau domaine de la recherche internet", le gouvernement lança une procédure d’infraction à la réglementation antitrust contre cette firme qui "contribua à tracer la voie pour que des entreprises d’internet comme Google et Facebook puissent émerger".

Warren n’est pas la seule à évoquer des exemples de l’histoire antitrust américaine pour étayer son argumentation. Tyler Cowen, cependant, trouve plus de similarités avec la procédure d’infraction à la réglementation antitrust lancée contre IBM en 1969 et adopte le point de vue opposé. Le gouvernement américain essaya de démanteler cette entreprise lorsqu’elle "contrôlait près de 70 %" du marché des ordinateurs pour entreprises. "L’affaire dura 13 ans, coûtant des millions de dollars à IBM et au gouvernement, sans oublier qu’elle détourna l’attention des innovateurs d’IBM", écrit Cowen. Il ajoute que "la procédure d’infraction à la réglementation antitrust lancée contre IBM rendit cette dernière moins à même de percevoir la réorientation du marché vers les PC" et contribua à l’effondrement de la part de marché d’IBM et lui occasionna des pertes records.

Du point de vue de Cowen, les entreprises majeures de nouvelles technologies ont été des innovateurs très efficaces et le démantèlement pourrait de la même façon les distraire et les affaiblir, c’est-à-dire nuire en définitive à l’innovation. En fait, Cowen loue les grosses entreprises de nouvelles technologies pour ce que d’autres les accusent : plutôt que d’utiliser les acquisitions pour éliminer de potentiels concurrents qui pourraient les menacer, elles ont permis à leurs acquisitions de se développer en mettant à leur disposition leurs vastes ressources. Il cite comme exemple l’acquisition de YouTube et Android par Alphabet et l’investissement subséquent de cette dernière dans les premières et l’amélioration du contenu et des services de celles-ci.

Cowen remet également en cause l’idée que les grosses entreprises de nouvelles technologies soient en situation de monopole. Dans l’espace des réseaux sociaux, Facebook est toujours en concurrence avec de nombreux rivaux, numériques ou non, et il ajoute qu’"il est facile d’imaginer que Facebook devienne un acteur moins important à mesure que le temps passe". Dans la publicité, Google et Facebook peuvent être meneurs, mais ils sont toujours en concurrence l’un contre l’autre, aussi bien qu’avec d’autres acteurs plus traditionnels (par exemple la télévision). Cowen affirme aussi qu’en ce qui concerne la publicité, Google "est fondamentalement une institution réduisant les prix pour les petites entreprises et les entreprises de niche qui peuvent maintenant avoir plus de portée qu’elles n’auraient pu en avoir auparavant", ce qui contribue à la concurrence dans d’autres secteurs. Par conséquent, bien que Cowen ne "suggère pas que tout soit positif dans le monde en ligne et que certaines critiques soient valides sur certains points", "une réponse antitrust vigoureuse serait précipitée et nuisible".

A l’inverse, Kenneth Rogoff rejoint Warren en remarquant que "le débat sur la manière de réglementer le secteur nous rappelle étrangement le débat sur la réglementation financière au début des années deux mille". Comme dans le cas de la finance à l’époque, les partisans d’une régulation souple du secteur des nouvelles technologies évoquent la complexité de ce dernier comme motif pour ne pas resserrer sa régulation, les sociétés puissantes peuvent accorder de très hauts salaires qui leur permettent de détourner les talents des institutions de régulation et le rôle des régulateurs américains est "énorme" pour le reste du monde. Donc, bien que les "idées pour réguler les grosses entreprises de nouvelles technologies soient juste au stade de l’ébauche et qu’une analyse plus sérieuse soit bien sûr nécessaire", Rogoff est "tout à fait d'accord pour dire qu'il faut agir, en particulier en ce qui concerne la capacité des géants du Web à racheter leurs potentiels concurrents et à utiliser leur position dominante sur les plateformes pour investir d’autres branches d’activité".

Publié seulement cinq jours après l’essai de Warren, le "Rapport du panel d’experts de la concurrence digitale" (Report of the Digital Competition Expert Panel) avance d’autres propositions. La revue The Economist résume ce rapport qui a été préparé par le gouvernement britannique par une équipe menée par Jason Furman, l’ancien économiste en chef du Président Obama. Les auteurs du rapport affirment que la concentration est intrinsèque à l’économie numérique en raison des effets de réseau et qu’une position dominante soutenue peut entraîner des prix plus élevés, une moindre diversité de produits et moins d’innovations.

Cependant, ils rejettent l’idée de démanteler les entreprises du numérique ou de les réguler en limitant leurs profits ou en resserrant la supervision comme dans le cas des infrastructures d’eau ou d’électricité. Le rapport suggère plutôt que l’action publique se focalise sur la stimulation de la concurrence et du choix offert aux usagers. Cela peut passer par l’introduction d’un code de bonne conduite sur le comportement concurrentiel sur les grosses plateformes, faisant écho à un autre élément de la proposition de Warren. Ce code de bonne conduite "empêcherait par exemple un marché en ligne comme Amazon de favoriser ses propres produits vis-à-vis de ceux d’un rival dans un résultat de recherche soumis à un consommateur". Une autre mesure est la "mobilité des données", qui réduirait les coûts de changement de fournisseur pour les usagers. Avec la mobilité des données, "les consommateurs individuels pourraient déplacer leurs historiques de recherche et d’achats d’une plateforme à l’autre. Les utilisateurs de médias sociaux pourraient poster leurs messages à leurs amis, qu’importe le site qu’utilisent ces derniers. Et un amas anonymé de données aggloméré par une firme pourrait être rendu disponible aux nouveaux entrants tout en respectant la vie privée des individus".

L’article décrit le rapport comme "équilibré" et "de première qualité", mais nourrit aussi un certain scepticisme. Il se demande comment la "mobilité des données" va fonctionner en pratique. Il questionne aussi l’impact que le rapport peut avoir. (…) "Même si la Grande-Bretagne adoptait ses recommandations, les titans des nouvelles technologies sont mondiaux en termes d’échelle, mais américains en termes de nationalité. Au final, les Etats-Unis et l’Union européenne (que la Grande-Bretagne est susceptible de bientôt quitter) sont les puissances qui vont décider de leur destinée".

(…) La régulation des grosses entreprises de nouvelles technologies va au-delà de la question de la concurrence et de l’innovation et touche à la politique, aussi bien domestique qu’internationale. A travers sa proposition, Warren cherche notamment à "restaurer l’équilibre des pouvoirs dans notre démocratie" en s’assurant à ce que les données des utilisateurs restent dans le domaine privé et en réduisant le levier dont disposent les sociétés pour obtenir des administrations locales de "massives baisses d’impôts en échange de leur activité".

Pour le secteur des nouvelles technologies, Kenneth Rogoff pense que "pour surmonter ce problème, il faudra répondre aux questions fondamentales sur le rôle de l'État, sur les données personnelles et sur la façon dont les compagnies américaines peuvent soutenir la concurrence face à la Chine, dont le gouvernement utilise des entreprises technologiques nationales pour recueillir des données sur ses citoyens à un rythme exponentiel". Plus généralement, Joseph Stiglitz remarque que "dans la mesure où le pouvoir de marché des firmes mastodontes s’est accru, il en va de même de leur capacité à influencer une politique américaine si soumise au pouvoir de l’argent". Puisque "le défi, comme toujours, est politique", Stiglitz émet des doutes à l’idée que "le système politique américaine soit en mesure d’adopter la bonne réforme" et croit que "il est clair que l’Europe devra prendre l’initiative".

Cependant, la hausse de la concentration est un problème qui s’étend au-delà de l’économie numérique selon Federico Díez et Romain Duval au FMI. En regardant le ratio prix sur coût (le taux de marge) pour près d’un million d’entreprises de 27 pays développés et émergents, ils concluent que celui-ci s’est accru en moyenne de 6 % de 2000 à 2015. Cette hausse est plus prononcée dans les pays développés et en-dehors du secteur manufacturier, notamment l’économie numérique. Surtout, l’essentiel de la hausse des taux de marge provient des entreprises qui présentaient initialement les taux de marge les plus élevés. Ces 10 % des entreprises sont plus rentables, plus productives et utilisent plus d’actifs intangibles que les autres. Díez et Duval affirment que la hausse du pouvoir de marché des firmes les plus productives et innovantes s’explique par leur capacité supérieure à exploiter des actifs intangibles comme des droits de propriété, les effets de réseau et les économies d’échelle, créant une dynamique où "le gagnant rafle l’essentiel".

Les auteurs écrivent que cette hausse du pouvoir de marché a eu des effets significatifs en réduisant notamment l’investissement et la part du travail dans le revenu. "Si les marges étaient restées au niveau qu’elles atteignaient en 2000, le stock de biens de capital serait aujourd’hui en moyenne 3 % plus élevé et le PIB environ 1 % plus élevé". De plus, "la hausse du pouvoir de marché observé depuis 2000 explique aussi au moins 10 % de la baisse (0,2 de 2 points de pourcentage) de la part du revenu national versée aux travailleurs dans les pays développés".

(…) Díez et ses coauteurs identifient les plus faibles incitations à l’innovation et la possible tentative d’entreprises en position dominante sur leur marché pour ériger des barrières à l’entrée justifient que les responsables de la politique économique soient vigilants à l’avenir. Ils proposent une boîte à outils de politique économique diversifiée : un retrait des barrières à l’entrée, un retrait des barrières au commerce et à l’investissement direct à l’étranger dans les services, un resserrement de la loi et des politiques de la concurrence, une réforme de la fiscalité des entreprises et des droits de propriété intellectuelle qui "encouragent des innovations majeures plutôt que des innovations incrémentales". »

Konstantinos Efstathiou, « Breaking up big companies and market power concentration », in Bruegel (blog), 29 mars 2019. Traduit par Martin Anota



aller plus loin...

« Quelles sont les répercussions macroéconomiques du plus grand pouvoir de marché des entreprises ? »

« Les marchés européens sont plus concurrentiels que les marchés américains »

« Firmes stars, étoiles montantes ? »

mardi 23 avril 2019

Et si la croissance même des pays développés appauvrissait l’Afrique ?

Dans une étude qui vient d’être publiée (dans les Proceedings of the National Academy of Sciences) sur les effets du changement climatique sur la croissance économique, Noah Diffenbaugh et Marshall Burke affirment, en utilisant un modèle complexe, que le changement de température dû aux émissions de CO2 a principalement affecté les pays pauvres et réduit cumulativement leur PIB de 17 à 31 % (entre 1961 et 2010). Le changement climatique a eu par conséquent tendance à creuser les inégalités entre pays pondérées en fonction de la taille de la population. Le résultat clé de leur étude est un graphique (panel B) reproduit ci-dessous qui montre que, en comparaison avec la situation sans changement climatique, les 10 % les plus pauvres de la population mondiale (plus exactement, le décile le plus pauvre de la population mondiale si les gens étaient classés par ordre croissant selon le PIB par tête de leur pays) ont perdu un quart de leur production, tandis que les pays riches en ont gagné approximativement 25 %.

Diffenbaugh_Burke__rechauffement_climatique_PIB_par_tete_croissance.png

Il est impossible de comprendre tous les ressorts du modèle à partir d’un bref texte de quelques pages, mais d’après ce que je lis il se fonde sur trois liens clés. Premièrement, la hausse des émissions de carbone a provoqué une hausse des températures à travers le monde. Deuxièmement, la hausse de la température est inégale d’un pays à l’autre. Troisièmement, la hausse de la température est particulièrement mauvaise pour les pays situés au niveau des tropiques qui souffrent déjà d’un climat chaud et d’événements climatiques extrêmes comme les sécheresses, les tempêtes, etc. Comme les deux auteurs l’écrivent, "le réchauffement climatique a réduit la croissance économique et le PIB par tête" des pays pauvres parce que "la température moyenne de (…) plusieurs pays pauvres se situe dans l’extrémité supérieure de la répartition des températures" qui est trop élevée pour l’activité économique.

Entre les trois liens, le plus difficile à prouver est selon moi le troisième : le fait que le changement climatique (plus exactement, la hausse des températures) puisse être responsable du ralentissement de la croissance des pays pauvres (essentiellement en Afrique). Notez que si elle est exacte, cette affirmation impliquerait une théorie de la croissance largement tirée par la géographie et le climat. Si la récente hausse des températures en Afrique a davantage éloigné le continent de la température optimale pour l’activité économique (qui est de 13 degrés Celsius selon le modèle des auteurs), alors le fait que l’Afrique ait été plus chaude que la température optimale avant même que quiconque n’entende parler de changement climatique doit historiquement avoir eu des effets négatifs sur la croissance africaine.

Nous faisons donc face ici à une variante des théories de la croissance économique qui mette l’accent non seulement sur des facteurs exogènes et la géographique (comme les rivières navigables, les montagnes impassables), mais aussi sur des facteurs géographiques exogènes spécifiques comme le climat. La régression de la croissance (la troisième étape) rapportée dans l’étude frappe par sa simplicité. C’est une régression de panel à effets fixes de pays où le taux de croissance d’un pays dépend de sa température et de ses précipitations courantes (deux variables linéarisées et mises au carrée), des effets fixes de pays et temporels… et de rien d’autre ! Pas d’emploi, de capital, pas de taux d’épargne, pas d’institutions, pas de guerres civiles…

(…) Les explications climatologiques ont été utilisées pour plusieurs choses : de Montesquieu qui pensait que le climat expliquait les différences entre systèmes politiques à Paul Bairoch à propos de la non-transmission de la révolution agricole. Mais supposons que cette explication soit exacte et qu’en effet, comme l’affirment les auteurs, le changement climatique était responsable du ralentissement de la croissance des pays pauvres. Cela aurait d’énormes conséquences (que les auteurs ne mentionnent toutefois pas dans leur article). Puisque le changement climatique est impulsé par les émissions historiques des pays actuellement développés (l’effet stock) et par leurs émissions actuelles et celles de la Chine (l’effet flux), cela signifie que la croissance du Nord est directement responsable du manque de croissance dans le Sud. L’implication est assez extraordinaire. Par le passé, les théoriciens de la dépendance suggéraient que le "centre", le Nord, aggravait le sous-développement du Sud via une division du travail qui ne laissait au Sud que la possibilité de produire des biens agricoles ; ou que le Nord n’aidait que quelques régions du Sud à se développer tout en laissant le reste sous-développé. De telles théories voyaient la solution dans le découplage avec le Nord.

Mais le point important à noter est que dans ces théories l’intégration du Nord et du Sud a été mauvaise pour le Sud ; dans les nouvelles "théories climatiques", c’est simplement le fait que le Nord croisse qui est mauvais. Il n’a pas besoin d’interagir avec le Sud. La croissance du Nord appauvrit le Sud. C’est assez extraordinaire. Ce n’est pas le fait que j’exploite quelqu’un qui conditionne ma richesse ; c’est ma richesse en tant que telle (acquise sans interaction avec la partie lésée) qui est une mauvaise nouvelle pour quelqu’un d’autre (en l’occurrence ici, l’Afrique).

De plus, cela signifie que la croissance du Nord rend complique la réduction de la pauvreté africaine, voire rend impossible son élimination. Si nous croyions les auteurs, alors chaque point de pourcentage de PIB supplémentaire dans le Nord détériore les conditions en Afrique et complique davantage la réduction de la pauvreté.

Donc, pour l’élimination de la pauvreté mondiale, nous avons besoin d’une réduction drastique des émissions, ce qui signifie une réduction absolue des revenus dans le Nord, donc un taux de croissance négatif des pays riches.

Je laisse au lecteur l’opportunité de réfléchir sur la faisabilité politique d’une telle solution (j’ai déjà écrit sur ce sujet par le passé, ici et là), mais je pense qu’il est crucial de prendre conscience de l’énormité des implications de ces résultats. Maintenant, que les résultats fassent sens ou non, que le niveau de température en soi soit un facteur explicatif significatif du développement économique, sont des choses à vérifier. Peut-être faut-il davantage de régressions de panel de la croissance économique ? Je pensais que nous les avions laissées avec les années quatre-vingt-dix, mais peut-être que je me trompais. »

Branko Milanovic, « And if growth in the North by itself makes Africa poorer? », in globalinequality (blog), 22 avril 2019. Traduit par Martin Anota

lundi 15 avril 2019

Pourquoi le solde courant de la Chine se rapproche de zéro

On s’attend à ce que le compte courant de la Chine soit équilibré dans les prochaines années. Les observateurs sont en désaccord quant à savoir si cet équilibrage s’explique par des facteurs structurels ou par la politique économique de la Chine. Nous passons en revue leurs évaluations quant à la situation de l’épargne et de l’investissement de la Chine et aux implications de celle-ci pour le futur.

On peut considérer le compte courant depuis différents points de vue. Du point de vue commercial, le solde du compte courant est positif si la somme des exportations nettes et du revenu net tiré du reste du monde est positive. Le solde du compte courant est aussi positif si un pays épargne plus que ce qu’il dépense en investissement domestique.

Selon les prévisions que le FMI a récemment publiées dans ses Perspectives de l’économie mondiale, le solde du compte courant de la Chine devrait être d’environ 0,5 % du PIB en 2019, entrer en territoire négatif en 2022 et atteindre – 0,2 % en 2024. Mais durant les quinze dernières années, le solde du compte courant de la Chine, le moteur manufacturier du monde, a été régulièrement positif et en 2007, avant la crise financière mondiale, il atteignait 10 % du PIB. En conséquence, il y a grand débat quant à savoir si et à quelle vitesse le solde courant chinois deviendra négatif.

Un rapport de la banque d’investissement Morgan Stanley affirme que de telles prévisions sont trop conservatrices et que le déficit courant chinois apparaîtra dès 2019 et croîtra au cours de la prochaine décennie pour atteindre 1,6 % du PIB en 2030. Le rapport note que ce déficit est relativement faible, en particulier lorsque l’on prend en compte l’importance de la position extérieure nette de la Chine. Néanmoins, ses auteurs concluent que la Chine doit prendre des mesures pour ouvrir ses marchés financiers aux investisseurs étrangers afin de faciliter l’entrée de capitaux étrangers, ces derniers étant nécessaires pour financer les futurs déficits du compte courant.

Deux articles de la revue The Economist se penchent sur les forces sous-jacentes et les implications d’un compte courant chinois déficitaire. Ces articles soulignent que la tendance du compte courant à devenir déficitaire est due non seulement à des forces conjoncturelles, mais aussi à des forces structurelles. Les aspects conjoncturels sont mieux mis en évidence avec la perspective commerciale : les prix actuellement élevés des importations chinoises, par exemple du pétrole et des semi-conducteurs, tendent à dégrader le solde commercial. Une fois que ces prix reviendront à leur moyenne de long terme, la facture des importations de la Chine va s'alléger et son solde courant s’améliorera. Les facteurs structurels sont mieux perçus du point de vue financier dans la mesure où ils affectent les taux d’épargne et d’investissement de la Chine. Alors que les investissements en Chine sont restés autour de 40 % du PIB pendant un moment, la part du revenu domestique que les ménages (et certaines firmes) chinois épargnent a chuté, en passant de 50 % à 40 % du PIB. De ce point de vue, le solde courant devrait être plus proche de zéro.

Il y a diverses raisons susceptibles d’expliquer le déclin que l’on observe dans le taux d’épargne (pourtant toujours élevé) de la Chine selon The Economist. La première est que la population chinoise vieillit : il y a moins de jeunes épargnant pour leurs vieux jours et plus de personnes âgées vivant de leur épargne. La seconde raison est que les résidents chinois sont de plus en plus riches, si bien qu’ils consomment une part croissante de leurs revenus. Du point de vue commercial, les dépenses de consommation des touristes chinois à l’étranger (qui comptent comme une importation de biens et services) ont explosé depuis 2013. The Economist affirme que le déficit courant est l’inévitable nouvelle norme pour la Chine pour ces deux raisons-là. La revue rejoint le rapport de Morgan Stanley en concluant que "la Chine aura besoin d’attirer des capitaux en contrepartie de son déficit courant", ce qui n’est possible que si elle ouvre ses marchés des capitaux aux investisseurs étrangers.

Brad Setser voit la situation très différemment en soulignant non seulement l’importance de l’épargne, mais aussi des investissements. Premièrement, il doute que des facteurs structurels poussent le solde courant en territoire négatif. En s’appuyant sur une étude du FMI, Setser affirme que le vieillissement va réduire l’épargne de seulement 6 points de PIB d’ici 2030, si bien que les taux d’épargne resteront très élevés. De plus, il affirme que le niveau d’investissement de la Chine, qui est l’un des plus élevés parmi les grandes économies, est susceptible également de baisser, ce qui équilibrera à nouveau le compte courant. Qu’est-ce qui a alors entraîné la dégradation manifeste du compte courant ? Setser affirme que la Chine a "le même niveau d’épargne nationale que Singapour. Singapour génère un excédent de compte courant représentant 20 % de son PIB. Je pense que sans un déficit budgétaire augmenté de 10 % du PIB ou plus, la Chine génèrerait aussi un excédent courant substantiel". Donc, si le gouvernement chinois (…) adopte une consolidation budgétaire, le compte courant de la Chine deviendrait de nouveau excédentaire. En fait, il affirme que "le tournant de la relance en 2016 est la principale raison, avec la reprise partielle du prix du pétrole, expliquant pourquoi l’excédent a baissé ces deux dernières années, pas un quelconque changement structurel du côté de l’épargne chinoise".

Le second point où Setser exprime son désaccord concerne la nécessité de libéraliser le compte financier de la Chine. Setser affirme qu’il n’est pas certain qu’une libéralisation du secteur financier accroisse l’efficience, puisqu’il y a plusieurs garanties implicites et beaucoup d’institutions financières risquées, sous-capitalisées. "Ce qui semble le plus probable est qu’une ouverture du compte financier entraîne une réallocation plus rapide de l’épargne chinoise hors de Chine, par exemple davantage de fuite des capitaux". Par conséquent, un retrait des contrôles de capitaux entraînerait probablement des sorties des capitaux, ce qui pousserait alors le renminbi à la baisse. Au final, une dépréciation du renminbi conduirait à rendre le compte courant de nouveau excédentaire.

Zhang Jun a évalué les taux d’investissement et d’épargne de la Chine du point de vue de la croissance future. Des taux d’investissement élevés, financés par un taux d’épargne domestique élevés, ont permis à la Chine de connaître une croissance économique rapide au cours des dernières décennies. Cependant, Zhang, affirme que la Chine est arrivée au point de développement où les investissements deviennent sursaturés et où il lui apparaît par conséquent nécessaire de réduire ses taux d’épargne. Il rejoint Setser en affirmant que le solde du compte courant est proche de zéro en raison de politiques économiques plutôt que de facteurs structurels. En raison des pressions des partenaires à l’échange sur ses amples excédents extérieurs, la Chine a décidé d’"étendre substantiellement ses dépenses d’investissement dans les infrastructures et les logements domestiques et de laisser le renminbi s’apprécier". Le taux d’investissement plus élevé a réduit le solde du compte courant, mais aussi réduit les rendements marginaux sur le capital et la productivité globale des facteurs. Pour éviter des bulles sur les marchés d’actifs et une nouvelle détérioration de la productivité, Zhang affirme que les taux d’épargne de la Chine doivent chuter et donc que les secteurs protégés du secteur doivent s’ouvrir à la concurrence. Un tel scénario implique une transformation de l’économie chinoise où celle-ci abandonnerait une croissance tirée par les exportations pour une croissance tirée par la consommation, qui est bien plus focalisée sur le marché domestique. La fourniture de nouvelles opportunités de consommation pour les Chinois, en particulier dans les secteurs domestiques, va réduire l’épargne domestique. Zhang ne préconise pas une ouverture des comptes financiers de la Chine, mais plutôt une transformation purement domestique de son économie. »

Michael Baltensperger, « Why China’s current account balance approaches zero », in Bruegel (blog), 15 avril 2019. Traduit par Martin Anota

lundi 1 avril 2019

La stagnation séculaire et l’avenir de la stabilisation économique

« La récente étude de Larry Summers et Lukasz Rachel fait part d’une chute séculaire des taux d’intérêt neutres dans les pays développés. Selon les auteurs, cette chute aurait même été plus marquée en l’absence d’une compensation de la part des politiques budgétaires. Il peut être difficile de mener la politique économique dans un monde de taux d’intérêt durablement faibles peut être, en particulier en eaux troubles. Nous passons en revue ci-dessous ce que pensent les économistes sur cette question…

Dans le cadre de l’édition du printemps 2019 des Brookings Papers on Economic Activity, Larry Summers et Łukasz Rachel ont publié leur article "On falling neutral real rates, fiscal policy, and the risk of secular stagnation". Cet article estime le taux d’intérêt naturel, c’est-à-dire le taux d’intérêt compatible avec un équilibre entre épargne et investissement pour toutes les économies développées. Ce taux d’intérêt, constatent-ils, a chuté de trois points de pourcentage au cours de la dernière génération, et il aurait même pu avoir chuté de plus de sept points de pourcentage si les dépenses publiques n’avaient pas augmenté. La nouveauté de la méthode d’estimation est qu’elle traite les économies avancées comme une seule entité économique qui est pleinement intégrée et fonctionne comme une économie fermée.

Qu’est-ce qui peut expliquer les faibles taux d’intérêt malgré une décennie de larges déficits et dette publics ? La réponse, selon les auteurs, tient au secteur privé. "Les forces du secteur privé poussant les taux d’intérêt à la baisse sont plus puissantes que nous ne l’anticipions précédemment" et, par conséquent, pour que l’épargne et l’investissement s’équilibrent et que l’économie soit au plein emploi, un taux d’intérêt d’équilibre plus faible peut être nécessaire ces prochaines années. "Le cœur du problème est qu’il n’y a pas assez d’investissement privé pour absorber, à des taux d’intérêt normaux, toute l’épargne privée. Cela se traduit par des taux d’intérêt extrêmement faibles, une faible demande globale, une faible croissance économique et une faible inflation, le tout avec une hausse du prix des actifs en capital existants". Un corollaire de ce cadre est que "les fortes hausses de dettes publiques que nous avons connues au cours des dernières décennies sont moins une conséquence de l’irresponsabilité budgétaire qu’une réponse à un manque d’investissement privé relativement à l’épargne privée".

L’une des conséquences d’un taux d’intérêt réel neutre en territoire négatif est la possibilité que la politique économique ne parvienne pas à ramener les économies au plein emploi, même à long terme. "Une croissance satisfaisante pourrait, étant donné la structure actuelle de l’économie, dépendre de politiques insoutenables". La gamme des options en matière de politique économique est aussi plus étroite en cas de récession. En effet, comme le note Brad DeLong, "un petit choc négatif qui réduit un peu ce taux peut pousser l’économie dans un territoire où la banque centrale ne peut réussir sa mission".

Martin Wolf affirme que les banques centrales "délivrent les faibles taux réels dont l’économie a besoin", mais que "nous avons fini par nous reposer excessivement sur les banques centrales". Wolf appelle à utiliser davantage d’instruments de politique économique, en premier lieu la politique budgétaire. Selon lui, une façon d’utiliser « les déficits publiques de façon productive » serait d’utiliser l’investissement public pour compenser l’insuffisance que connaît l’investissement privé et stimuler ce dernier.

"Peut-être que notre stagnation est seulement aussi séculaire que la timidité de la politique macroéconomique". Martin Sandbu, contrairement à Wolf, ne pense pas que la politique monétaire soit à court de munitions. Sandbu note que, avec des rendements du Trésor américain à dix ans proches de 3 %, l’économie américaine est loin d’atteindre une borne inférieure (si "elle existe"), ce qui laisse une certaine marge de manœuvre pour utiliser des politiques non conventionnelles "comme cibler directement les taux d’intérêt à long terme".

David Leonhardt souligne aussi le besoin de nouvelles solutions suite à une décennie de "surprises économiques", mais les responsables de la politique économique doivent avoir conscience de la façon par laquelle une politique budgétaire expansionniste doit être menée. Leonhardt considère que la loi fiscale adoptée par l’administration Trump en 2017 offre une bonne étude de cas de la façon par laquelle la politique budgétaire peut ne stimuler que brièvement l’activité économique. La hausse du PIB étasunien de 2,9 % en 2018 consécutive aux baisses d’impôts était une expansion temporaire, comme le montre le ralentissement de la croissance américaine au cours du premier trimestre de l’année 2019. "Une meilleure réponse de la politique économique aurait été d’accorder la baisse d’impôts à la majorité des Américains, non aux seuls riches".

Un autre exemple, mis en avant par Michael Roberts, est le cas du Japon. Malgré des déficits budgétaires permanents et le plein emploi, ce pays fait toujours face à "une faible croissance des salaires et à des contrats temporaires et à temps partiel pour beaucoup (en particulier les femmes). La consommation réelle des ménages a augmenté de seulement 0,4 % par an depuis 2007, soit deux fois plus lentement qu’auparavant". En fait, Summers et Rachel soulignent l’éventualité que d’autres pays développés "connaissent la même expérience que le Japon, où le très faible taux d’intérêt d’équilibre semble être un aspect semi-permanent du paysage économique". (...) »

Inês Gonçalves Raposo, « Secular stagnation and the future of economic stabilisation », in Bruegel (blog), 1er avril 2019. Traduit par Martin Anota



Réponses de Summers aux critiques suscitées par son article


« Mon article avec Lukasz Rachel sur la stagnation séculaire et la politique budgétaire (…) a suscité plusieurs réponses intéressantes, notamment de la part de Martin Wolf, David Leonhardt, Martin Sandbu et Brad DeLong, ainsi que plusieurs participants à la conférence de la Brookings.

Je suis ravi de voir qu’il semble y avoir une acceptation générale de l’argument au cœur de ma thèse sur la stagnation séculaire. La politique "normale" de taux d’intérêts réel au niveau des 2 %, les budgets primaires équilibrés et les marchés financiers stables sont une prescription pour la stagnation et le chômage. Le succès économique dont le monde industriel a joui au cours des dernières décennies résulte d’une combinaison de taux d’intérêt réels très faibles, d’amples déficits budgétaires, d’endettement privé et de bulles d’actifs.

Je n’ai entendu personne émettre des doutes quant à la conclusion clé qu’une combinaison de taux d’intérêt réels significativement positifs et des budgets équilibrés serait une bonne prescription pour sortir d’une sévère récession, a fortiori d’une dépression, dans le monde industrialisé.

Notons que c’est un argument bien plus fondamental que l’idée que la borne inférieure effective sur les taux d’intérêt puisse empêcher de stabiliser l’économie. En raison d’une tendance chronique du secteur privé à générer trop d’épargne, les économistes peuvent être sujettes au chômage (…) en l’absence de réponses appropriées de la politique économique qui sont elles-mêmes problématiques.

C’est un argument bien plus dans l’esprit de Keynes, des premiers keynésiens et des postkeynésiens d’aujourd’hui que des nouveaux keynésiens qui ont fixé les termes pour l’essentiel des discours macroéconomiques contemporains, à la fois dans le champ universitaire et dans les banques centrales à travers le monde.

L’aspect centrale des modèles des nouveaux keynésiens est l’idée selon laquelle les économies ont un équilibre vers lequel elles retournent naturellement, indépendamment des politiques poursuivies. Les bonnes politiques de banque centrale permettent d’atteindre une cible d’inflation désirée (supposée être faisable), tout en minimisant l’amplitude des fluctuations autour de cet équilibre.

Au contraire, l’expérience contemporaine, où l’inflation a été inférieure à la cible dans l’essentiel du monde industriel pendant une décennie, où les marchés s’attendent à ce qu’elle reste sous la cible pendant plusieurs décennies et où la production n’est soutenue que par de larges déficits budgétaires ou des politiques monétaires extraordinairement accommodantes, suggère que les banques centrales agissant seules peuvent ne pas forcément atteindre leurs cibles d’inflation et qu’une politique inadéquate peut facilement non seulement accroître la volatilité de la production, mais aussi réduire son niveau moyen. (...)

Dès lors que l’on reconnaît que la stagnation séculaire est un problème, se pose la question de savoir quelle réponse adopter en termes de politique économique. La bonne réponse sera celle qui assure que le plein emploi soit maintenu avec un minimum de problèmes collatéraux. Sandbu rejette l’idée de stagnation séculaire, en partie parce qu’il croit que les questions de stagnation peuvent être facilement résolues par la baisse des taux. Wolf, s’appuyant sur la BRI, s’alarme des effets toxiques des taux très faibles sur la stabilité financière à court terme et la performance économique à long terme et il préfère le recours à la relance budgétaire. Leonhardt préfère un large menu de mesures pour absorber l’épargne et promouvoir l’investissement.

Je ne suis pas sûr de savoir quelle est la bonne approche et j’aimerais qu’il y ait plus de preuves empiriques pour éclairer la question. Je peux voir une certaine logique derrière l’idée que "le zéro est juste un chiffre", idée selon laquelle l’environnement actuel ne pose pas de nouveaux problèmes fondamentaux, mais qu’il peut juste requérir des changements techniques pour pousser davantage les taux d’intérêt en territoire négatif. Je suis sceptique à cette idée parce que (i) je ne suis pas sûr qu’une poursuite de la baisse des taux dans les négatifs stimule vraiment l’économie en raison des dommages qu’elle occasionne aux banques, du moindre flux d’intérêts que gagnent en conséquence les ménages, et parce que le coût du capital n’est déjà plus une barrière à l’investissement ; (ii) je doute de la qualité d’un investissement qui ne serait pas réalisé à un taux d’intérêt nul, mais qui le serait à un taux d’intérêt négatif ; et (iii) je pense qu’un monde où les taux d’intérêt sont significativement négatifs sur une longue période est un monde d’endettement, de prises de risque et de bulles. J’ai des difficultés à concernant le comportement dans des situations où les ménages et les entreprises sont payés pour emprunter !

Je suis enclin à préférer l’usage raisonné de politiques budgétaires pour répondre à la stagnation séculaire : l’emprunt public à des taux d’intérêts négatifs et l’investissement public semblent préconisés dans un monde où il y a de nombreux projets avec de hauts rendements sociaux. De plus, nous sommes habitués à penser en termes de niveaux de dette, mais il peut être plus approprié de réfléchir en termes de niveaux de service de la dette soutenus. Avec des taux proches de zéro, ils sont inférieurs à la moyenne dans la plupart des pays développés. Le contenu des politiques budgétaires est crucial. Les mesures qui accroissent l’endettement de l’Etat sans stimuler la demande comme l’essentiel des baisses d’impôts de Trump sont peu adéquates. A l’inverse, les mesures qui promeuvent l’investissement et accroissent l’assiette fiscale sont plus intéressantes.

Il y a bien sûr d’autres mesures outre les politiques de stabilisation comme la lutte contre les monopoles, la promotion d’une répartition des revenus moins inégalitaire et le renforcement de la sécurité des retraites, pour laquelle le désir de maintenir la stabilité macroéconomique trouve un argument supplémentaire. »

Lawrence Summers, « Responding to some of the critiques of our paper on secular stagnation and fiscal policy », 20 mars 2019. Traduit par Martin Anota



aller plus loin...

« Larry Summers et la stagnation séculaire »

« Les pays avancés font-ils face à une stagnation séculaire ? »

« La stagnation séculaire n'est-elle qu'un mythe ? »

jeudi 28 mars 2019

Alan Krueger est l’un des rares économistes dont les travaux ont amélioré la vie de millions de personnes

« Le lundi 18 mars, le monde a appris la disparition à 58 ans d'Alan Krueger, (…) professeur d’économie politique à l’Université Princeton et l’un des économistes les plus influents de notre époque. Peu de temps après avoir appris cette tragique nouvelle, un ami m’a demandé : "quand as-tu rencontré pour la première fois Alan ?" Sur le coup, je ne m’en souvenais plus. Cela semblait que cela remontait il y a très longtemps. Donc je suis retourné dans ma correspondance avec Alan et j’ai trouvé que nous nous sommes rencontrés pour la première fois en personne assez récemment, en l’occurrence à la conférence de la Society of Labor Economists qui s’est tenue à Vancover en 2011, où nous avions parlé d’une étude que j’avais présentée et qui mesurait l’impact des salaires minima sur la rotation du personnel. J’ai trouvé cela assez surprenant, dans la mesure où j’ai ressenti la présence intellectuelle d’Alan durant l’essentiel de ma vie d’adulte. En effet, peu de gens ont eu autant d’influence qu’Alan sur la façon par laquelle je m’attaque à la recherche économique. (…)

Alan a contribué aux efforts visant à faire de l’économie une science empirique, quelque chose qui a touché chaque pan de la discipline. Vous pouvez ne pas suivre étroitement les études autour du salaire minimum, les rendements de l’éducation, les monopsones sur le marché du travail, l’économie du rock’n’roll ou tout autre domaine spécifique où Alan a réalisé d’importantes contributions. Mais si vous croyez que l’économie comme discipline doit chercher à répondre aux questions relatives ai fonctionnement de l’économie via des études crédibles et sans jamais substituer sacrifier l’empirique à l’idéologie, vous avez une grande dette envers Alan Krueger.

Pour beaucoup des plus jeunes économistes aujourd’hui, c’est comme une seconde nature de se focaliser sur des cadres de recherche transparents pour rechercher des liens causaux. Cependant, ce n’était pas le cas quand j’ai commencé à étudier la science économique au début des années quatre-vingt-dix. La "révolution de la crédibilité" en science économique était un combat difficile à mener en vu de pousser la discipline dans une autre direction. Cela peut sembler surprenant pour certains ; après tout, pourquoi quelqu’un ne voudrait-il pas de preuves empiriques qui soient fiables ?

Comme Alan le savait, la révolution de la crédibilité était profondément sujette à controverses et l’est toujours dans une certaine mesure. "L’idée de faire de l’économie une véritable science empirique, où les théories centrales peuvent être rejetées, est une grande idée révolutionnaire", m’avait-il écrit sur Twitter l’année dernière. Le courage intellectuel d’Alan se retrouvait dans sa volonté de laisser l’empirique nous mener là où il peut nous mener, en toute liberté vis-à-vis de nos idées reçues. Et peut-être qu’aucun autre travail n’illustre mieux cette volonté que le livre qu’il a publié en 1995 avec David Card, Myth and Measurement, qui envoya des ondes de choc à l’ensemble de la communauté des économistes.

Dans ce livre, Card et Krueger soutiennent avec force que les preuves empiriques selon lesquelles le salaire minimum détruit des emplois (une idée largement acceptée jusqu’alors) étaient étonnamment fragiles. Leur propre étude de cas (déjà publiée dans la revue American Economic Review) comparait les restaurants de fast-food dans le New Jersey et en Pennsylvanie après une hausse du salaire minimum dans le New Jersey. Ils constatèrent que l’emploi avait augmenté dans le New Jersey après la hausse du salaire minimum. Ce résultat était cohérent avec celui d’une autre étude qu’Alan avait réalisée avec Lawrence Katz, un économiste de Harvard qui était l’un de ses collaborateurs de longue date. Mais Myth and Measurement était bien plus que cela. Ce livre fournissait un vaste éventail de preuves empiriques sur des questions plus larges relatives au travail et poursuivait en affirmant que la totalité des preuves empiriques suggéraient que le modèle simple d’offre et de demande était inadéquat pour comprendre le marché du travail des bas salaires. Card et Krueger affirmaient que les employeurs avaient un certain pouvoir pour décider de leurs politiques salariales et ne se voyaient pas entièrement dicter leurs décisions par les forces invisibles du marché. Ils peuvent augmenter leurs salaires pour améliorer leur capacité à recruter et retenir les travailleurs, même si cela se traduit par des coûts du travail plus élevés. Ils appelaient cela le modèle de monopsone dynamique et ils affirmaient que celui-ci collait mieux aux données que le modèle simple d’offre et de demande.

Globalement, le livre visait à utiliser les meilleures preuves empiriques disponibles pour tester les théories fondamentales relatives au marché du travail. Et c’était une chose courageuse à faire : aller contre de ce qui faisait consensus en science économique à l’époque. En effet, la réaction de la part de certains économistes a été incroyablement hostile. Cependant, elle apporta une nouvelle énergie à la discipline. L’idée selon laquelle les preuves empiriques peuvent être utilisées pour tester différentes théories sur le fonctionnement de l’économie m’a enthousiasmé lorsque j’avais lu, encore étudiant, Myth and Measurement au milieu des années quatre-vingt-dix et cet ouvrage m’emmena dans ce champ. Et c’était également le cas pour beaucoup d’autres.

Un quart de siècle riche en événements s’est écoulé depuis la publication de Myth and Measurement. Selon moi, ses principaux constats ont plutôt bien résisté à l’épreuve du temps et restent en accord avec l’essentiel des analyses empiriques réalisées dans les études ultérieures. Cependant, même si l’on est en désaccord avec les preuves empiriques concernant le salaire minimum et l’emploi, on ne peut contester le fait que Myth and Measurement a exercé une énorme influence sur la discipline et qu’il a permis de mettre en avant un programme de recherche fructueux. Premièrement, il a aidé à catapulter le cadre de recherche « quasi-expérimental » (une approche qui se focalise sur l’utilisation de modifications exogènes de politique et qui soigne particulièrement la constitution de groupes de contrôle) au devant de l’analyse économique. Deuxièmement, ce livre permit de considérer un ensemble plus large de modèles du marché du travail. En d’autres mots, il contribua à pousser la science économique dans la direction où nous considérons la théorie fondamentale comme vérifiable, et non comme quelque chose découlant de la seule déduction. Et si l’essor de la littérature sur la concurrence imparfaite au cours des dernières années est un guide, Myth and Measurement a été un franc succès.

Alan a réalisé d’autres contributions à la fois méthodologiques et de substance, qui ont permis à la science économique de progresser. Un thème commun connectant l’essentiel de ses travaux est la combinaison de sa curiosité intellectuelle avec sa capacité à glaner des preuves empiriques à partir de sources inattendues. En 1991, avec son collègue de Princeton Orley Ashenfelter, il visita le seizième festival annuel de la journée des jumeaux à Twinsburg, dans l’Ohio, pour collecter des données sur des jumeaux identiques avec différents niveaux d’éducation. Ce fut une façon ingénieuse de contrôler les différences de capacité qui pourraient biaiser les estimations du taux de rendement de l’éducation. Son article avec Alex Mas, un autre collègue de Princeton, utilisa les bandes de roulement des pneus Firestone produits à la suite d’une grève au cours de laquelle l’entreprise remplaça les travailleurs grévistes pour montrer l’importance des relations de travail sur la qualité du produit. Son travail avec Stacy Dale de la Mathematica Policy Research utilisa de l’information à propos des diverses universitaires auxquelles chaque étudiant est admis de façon à prendre en compte les facteurs inobservés qui pourraient affecter le salaire de chacun. En procédant ainsi, ils aboutirent à un constat surprenant : dans plusieurs cas, aller dans une université d’élite n’accroît pas la rémunération future. Dans un travail antérieur avec Josh Angrist (désormais au MIT), il utilisa des bizarreries comme le trimestre de naissance ou la loterie de l’époque du Vietnam pour estimer l’effet causal de l’éducation sur les rémunérations. Ces études ont suscité de nombreux travaux postérieurs, notamment des études qui ont pu être en désaccord avec leurs constats. Mais c’est exactement la façon par laquelle la science progresse et Alan a contribué à nous pousser dans cette direction. (…) »

Arindrajit Dube, « Alan Krueger was the rare economist whose work improved the lives of millions », in Slate, 19 mars 2019. Traduit par Martin Anota

mardi 26 mars 2019

Pourquoi les déséquilibres de la Chine font de sa politique industrielle un pari risqué

« La Chine a adopté une politique visant à "localiser" en son sein la production de l’essentiel des biens de haute technique dont son économie a besoin. C’est le cœur de son projet "made in China 2025" (qui, officiellement, a disparu, mais les politiques qui lui sont sous-jacentes semblent toujours en vigueur). Ce programme repose sur une combinaison de subventions (certaines déguisées, dans la mesure où elles passent par des fonds d’investissement soutenus par l’Etat et les secteurs financiers) et de clauses favorisant les achats de produits domestiques.

Au cours de son histoire, la Chine a régulièrement laissé divers pans de l’Etat chinois concurrencer, absorber les pertes et ensuite se consolider autour des firmes en réussite. D’autres pays s’inquièteraient face à de telles pertes. Mais la Chine est bonne pour les dissimuler et elle a su absorber de larges pertes comme un coût inévitable de sa croissance rapide. L'argument habituel avancé contre l’idée d’une telle combinaison de politique industrielle et de protectionnisme est qu'elle ne fonctionnera tout simplement pas. Un pays qui subventionne ses industries finit avec des industries inefficaces. Les protections visant à privilégier les achats de produits domestiques protègent les entreprises locales inefficaces de la concurrence mondiale et cela laissera au final les utilisateurs d'équipements chinois avec des produits inférieurs.

Mais la Chine est, pour reprendre la phrase de Philip Pan, l’État qui n'a pas réussi à échouer.

Le cas de Huawei est significatif pour diverses raisons. Ses origines sont complexes, mais cette entreprise n'a clairement pas commencé comme un Goliath public. Elles'est révélée en Chine et dans le reste du monde avant d’émerger comme le champion national chinois dans l’industrie d'équipement en télécommunications.Mais elle a aussi clairement bénéficié des achats préférentiels de produits domestiques par les firmes de télécommunication publiques et d’énormes montants de financement de l’exportation (pour ses clients, pas directement pour elle-même). Et il se pourrait qu’elle possède désormais un avantage technologique en plus de son avantage en termes de coûts dans l’équipement d’infrastructure nécessaire pour la 5G.

Par conséquent, je ne pense pas que les Etats-Unis puissent partir de l’hypothèse que les subventions que la Chine accorde son industrie aéronautique et son secteur des semi-conducteurs échoueront. Les efforts de la Chine sont susceptibles d’être coûteux, mais ils risquent aussi de produire un champion national chinois qui produira des équipements fonctionnels avec un faible coût de production marginal (les échecs passés de la Chine dans le secteur semi-conducteurs ne l’ont pas empêché d’essayer de nouveau).

Il y a cependant un second argument pour adopter une approche mesurée à l’égard des politiques industrielles de la Chine : leur impact mondial sera modeste.La Chine peut réduire les exportations futures des Etats-Unis en construisant son propre concurrent au Boeing 737 et aussi réduire les exportations futures de l’Europe si Airbus décide de construire l’A330 en Chine et la Chine achète des moteurs Rolls-Royce « made in China » pour le C929 et l’A330.Mais au final une Chine qui n’importe pas ne devrait pas beaucoup exporter.

C’est dans un sens la contrainte naturelle sur les politiques de la substitution des importations. Une taxe sur les importations est aussi, selon l’économie internationale de base, une taxe sur vos exportations. C’est le raisonnement que suit Krugman pour expliquer l’échec du protectionnisme de Trump à réduit le déficit commercial des Etats-Unis : "Bien sûr, les droits de douane peuvent réduire les importations des biens qui sont sujets à ces droits de douane et ainsi réduire le déficit commercial dans des secteurs en particulier, mais c’est comme appuyer sur un ballon : vous écrasez l’endroit où vous appuyez, mais cela ne fera qu’augmenter d’un même montant un autre endroit. L’appréciation du dollar, qui nuit aux exportations, est l’un des principaux canaux par lesquels les déficits commerciaux sont susceptibles de se maintenir. Mais le résultat fondamental, le fait que les droits de douane ne réduisent pas le déficit commercial global, est clair". Remplacez "droits de douane" par "subventions et clauses favorisant les achats de produits domestiques" qui agissent comme des barrières aux importations et le même processus s’appliquera à la Chine.

La Chine peut réussir dans certains secteurs, mais lors du processus elle va effectivement y perdre dans d’autres. (…) En fait, derrière le projet de la Chine 2025, les Chinois veulent faire des semi-conducteurs plutôt que continuer à faire de l’industrie textile et un travail d’assemblage à faible valeur ajoutée. S’ils parvenaient à faire des puces et avions, ils en seraient heureux. Mais cela signifie plus d’exportations bangladaises de vêtements et plus d’assemblage d’électronique au Vietnam, et donc plus de demande d’avions de la part de ces pays, ce qui aiderait Boeing et Airbus à compenser les commandes perdues en Chine, et ainsi de suite.

Tout cela ne survient pas tout seul, l’ajustement immaculé est un mythe. Les prix doivent s’ajuster pour créer les incitations économiques pour qu’il y ait ajustement. Mais en théorie si vous n’importez pas beaucoup, vos importateurs ne vont pas avoir besoin de beaucoup de devises étrangères. Donc lorsque vos exportateurs veulent vendre les devises étrangères qu’ils gagnent à l’étranger pour rémunérer la main-d’œuvre et rapatrier leurs profits, ils vont augmenter le prix de la devise locale. Et le taux de change plus élevé réduit à son tour les exportations au cours du temps.

En d’autres termes, si la Chine 2025 réussit, la Chine devra à la fois importer et exporter moins. Ces secteurs manufacturiers aux Etats-Unis et en Europe qui exportent aujourd’hui le plus vers la Chine vont en être affectés, mais l’impact mondial agrégé sera modeste.

Cependant quelque chose m’inquiète ici : la base macroéconomique de l’ajustement d’après-crise de la Chine est fragile. La chute d’après-crise de l’excédent chinois vient d’une combinaison de relance budgétaire (hors Budget, finançant l’investissement des gouvernements locaux dans les infrastructures) et d’une forte hausse du crédit domestique. L’investissement, en pourcentage du PIB chinois, notamment un investissement public, est supérieur à ses niveaux d’avant-crise. Il s’élève toujours à 45 % du PIB chinois. C’est dix points de pourcentage de PIB de plus que son niveau en 2000.

GRAPHIQUE L’investissement chinois (en % du PIB)

Brad_Setser__L_investissement_chinois_en_pourcentage_du_PIB.png

Et le FMI, parmi d’autres, pense que l’équilibre macroéconomique courant est intrinsèquement instable, dans la mesure où il repose sur une relance insoutenable qui mène à une hausse insoutenable de la dette.

Fondamentalement, le maintien de l’excédent de compte courant de la Chine à un faible niveau quand le taux d’épargne de la Chine est proche de 45 % du PIB (et l’épargne du secteur des ménages représente 23 % du PIB, 15 points de pourcentage PIB au-dessus de la moyenne mondial) pose un problème.

GRAPHIQUE Taux d’épargne national (en % du PIB)

Brad_Setser__taux_d__epargne_Chine_Asie_pays_developpes.png

Longmei Zhang, Ray Brooks, Ding Ding, Haiyan Ding, Hui He, Jing Lu et Rui Mano du FMI l’indiquent bien : "Le taux d’épargne national élevé de la Chine (l’un des plus élevés au monde) est au cœur de ses déséquilibres externes et internes. Cette forte épargne finance un investissement élevé quand elle est détenue par les résidents ou mène à d’amples déséquilibres externes quand elle afflue à l’étranger… Quand elle est détenue par les résidents, la forte épargne est souvent intermédiée via le système financier et peut alimenter des booms de l’investissement basé sur le crédit. Le déséquilibre externe de la Chine s’est fortement réduit (avec l’excédent du compte courant baissant à 2 % du PIB) depuis la crise financière mondiale, mais il a été remplacé par un accroissement du déséquilibre interne. L’épargne a été absorbée par un investissement élevé, qui est sujet à des rendements décroissants".

Donc, qu’est-ce qui m’inquiète ? L’intersection entre les politiques industrielles de la Chine et son ajustement externe incomplet.

Dans une économie normale, une réduction des importations amènerait la devise à s’apprécier et réduirait les exportations, créant un mécanisme naturel pour ramener le monde à l’équilibre. La Chine importerait moins d’avions et de processeurs, et exporterait moins de routeurs et de machines de commutation (Huawei) et de moteurs industriels et ainsi de suite (ou, dans la version chinoise, moins de vêtements et d’électronique bas de gamme).

Mais dans le cas de la Chine, il est possible que le stimulus économique résultant de la substitution de la production chinoise aux importations (une hausse des exportations nettes) soit compensée par une réduction de la relance de la Chine. Cela atténuerait la pression à la hausse sur le yuan. Donc, les politiques industrielles de la Chine peuvent finir par réduire les importations de la Chine dans les secteurs où elle importe aujourd’hui beaucoup sans réduire automatiquement les exportations chinoises.

Donc, il demeure selon moi un risque non négligeable que la Chine passe à un certain moment d’un équilibre macroéconomique caractérisé par une large relance, un fort investissement, une forte épargne et un faible excédent externe à un équilibre caractérisé par un faible investissement, une forte épargne et un excédent externe élevé. La Chine est passée des exportations à l’investissement durant la crise. Elle peut revenir aux exportations si elle permettait au yuan de flotter et le yuan ira à la baisse…

Il est difficile, du moins pour moi, d’imaginer qu’une situation gagnante pour tout le monde émergera des négociations autour des politiques industrielles de substitution aux importations de la Chine. Je ne considèrerais pas la délocalisation en Chine dela production des composants d’avions des constructeurs de l’aviation civile américaine comme une "victoire" pour les travailleurs américains. Si elle devait revenir sur sa politique de substitution aux importations, je ne suis pas sûr que la Chine y voie une victoire.

Une solution gagnante pour tous pourrait venir d’une extension de l’assurance sociale de la Chine et d’une réduction de l’énorme stock d’épargne domestique qui, dans un sens, laisse la Chine investir en toute liberté dans tout un éventail de projets de rattrapage risqués sans avoir à beaucoup s’inquiéter des pertes qu’elle pourrait connaître sur le chemin. Bref, d’une réduction du taux d’épargne domestique de la Chine pour ramener l’équilibrage externe de la Chine sur une trajectoire plus soutenable. »

Brad Setser, « Why China's incomplete macroeconomic adjustment makes China 2025 a bigger risk », in Follow the Money (blog), 14 mars 2019. Traduit par Martin Anota

jeudi 21 mars 2019

Les similarités entre changement climatique et inégalités mondiales… et la sous-optimalité de l’Etat-nation

« Il y a des similarités évidentes et (pour certains) surprenantes entre le changement climatique mondial et les inégalités de revenu mondiales. Ce sont évidemment des problèmes mondiaux. Aucun d’entre eux ne peut être résolu par un unique pays, groupe ou individu. Dans les deux cas, il y a de significatives externalités et par conséquent des problèmes de coordination. Ces deux questions sont même formellement liées (c’est-à-dire, pas seulement de façon conceptuelle) : l’élasticité des émissions de carbone vis-à-vis du revenu réel est autour de l’unité. Cela signifie non seulement que, si le revenu d’une personne (ou d’un pays) augmente de 10 %, les émissions tendent à s’accroître dans la même proportion, mais aussi que la distribution des émetteurs réplique la répartition du revenu. Puisque dans la répartition mondiale du revenu le décile supérieur reçoit au moins 50 % du revenu mondial, il est aussi responsable d’au moins la moitié de toutes les émissions polluantes.

Mais il y a aussi de profondes différences. Les effets des inégalités mondiales sont en partie le produit de fortes inégalités infranationales qui doivent évidemment être gérées au niveau des Etats-nations. Il y a seulement deux parts qui sont vraiment mondiales. La première est que les fortes inégalités mondiales signifient aussi une forte pauvreté mondiale ; la deuxième est que de fortes inégalités mondiales sont dues dans une grande mesure à de fortes inégalités entre les revenus des pays, différences qui alimentent à leur tour la migration.

La question de la pauvreté mondiale est une question éthique pour tous ceux qui ne sont pas pauvres. Ce n’est pas une question qui les affecte dans leur vie au quotidien. De plus, puisqu’ils ne fréquentent pas les pauvres mondiaux, ils tendent à les ignorer dans leur vie quotidienne.

La migration est la seule manifestation concrète des inégalités mondiales qui affecte les gens dans les pays riches. Si certains d’entre eux veulent réduire la migration, c’est dans leur intérêt d’aider la croissance des pays pauvres. Mais les bénéfices et coûts de la migration sont inégalement distribués au sein des populations des pays riches. Certains groupes comme les employeurs, les utilisateurs de plusieurs services et les travailleurs avec des compétences complémentaires tirent un gain de la migration, tandis que d’autres, ceux qui se retrouvent en concurrence avec les migrants ou ceux qui sont effrayés de voir leur culture "se diluer", y perdent. Donc, l’effet global des inégalités mondiales sur la vie de la plupart des gens dans les pays riches se ramène à l’effet de la migration.

L’effet du changement climatique est différent dans le sens où il est plus étiré dans le temps et qu’il est plus incertain. Les gagnants et perdants n’apparaissent pas clairement. La lutte contre le changement climatique nécessite des ajustements du comportement des individus et des pays pour empêcher les effets qui s’exerceront dans le futur et dont les bénéfices ne sont pas clairs, tandis que les coûts d’ajustement sont évidents et présents. L’ajustement individuel impose souvent un coût, monétaire ou non, significatif pour cet individu, mais il a un effet quasi nul sur le changement climatique, si bien qu’il n’est pas rationnel de l’entreprendre d’un point de vue purement personnel. Le changement dans le comportement de groupes plus larges, induit par la taxation d’activités particulièrement "mauvaises", peut avoir des effets, mais la distribution des bénéfices de ces ajustements est inconnue. Même si les bénéfices étaient également répartis, un groupe qui ajuste son comportement recevra une très petite part de tous les bénéfices. C’est un problème typique d’externalité.

Cela implique qu’aucun groupe de personnes, ni aucun pays n’ont d’incitation à faire quelque chose par eux-mêmes : ils doivent être liés par un accord international où chacun est forcé de réduire ses émissions et où, dans le cas d’un succès, les bénéfices nets seraient, très probablement, inégalement répartis. (Notez la similarité avec les structures d’assurance sociale.) C’est en effet ce qui s’est passé avec les accords de Kyoto et de Paris. Cependant, pour compliquer davantage les choses, les Etats-nations ne sont vraiment pas les meilleures unités pour faire cela, bien qu’elles sont les seules via lesquelles, étant donnée la structure de gouvernement mondiale actuelle, de telles politiques puissent être conduites. C’est le cas parce que les principaux pollueurs qui doivent être ciblés sont les riches, qu’importe où ils vivent. Donc, une approche plus appropriée consisterait à instaurer une taxation internationale (mondiale) des biens et services consommés par les riches. Mais pour cela on devrait avoir une autorité internationale qui aurait le droit de taxer les citoyens de différents pays et de collecter des recettes au niveau mondial.

Comme je l’ai mentionné ci-dessus, il y a une équivalence formelle entre les inégalités mondiales et le changement climatique. La migration, qui est l’effet "négatif" (du point de vue de certains) le plus fort des inégalités mondiales, nécessite aussi une coordination internationale. Le problème de l’émigration accrue des Africains vers l’Europe ne peut être résolue par un pays pris isolément. Il peut être "résolu", ou plutôt géré, seulement par une action jointe (distribution de quotas) impliquant à la fois les pays émetteurs et receveurs. Mais, à la différence du changement climatique, qui est fondamentalement considéré comme un "mal" global, la migration n’est pas un "mal" global, mais plutôt un "bien". Par conséquent, cibler pour davantage d’action les pays qui sont susceptibles d’être de larges émetteurs de migrants ne fait pas sens.

En fait, dans le cas de la migration, nous nous attaquons à un « bien mondial » qui réduit les inégalités mondiales et la pauvreté mondiale même s’il peut, dans certains cas, produire des effets négatifs. En raison de ces effets négatifs (économiques ou sociaux) réels ou supposés nous avons besoin de règles qui dissiperaient les craintes de certains pour éviter qu’ils sabotent et stoppent le processus de la migration. C’est de là où provient l’idée de "migration circulaire" et de différenciation entre les droits associés à l’emploi (égaux pour tous) et les droits civiques (non disponibles pour les migrants) (…). Dans le cas du changement climatique, nous nous attaquons à quelque chose qui est essentiellement "mauvais", mais nous avons des difficultés à faire en sorte que ceux qui génèrent l’essentiel de ces nuisances paient pour elles et changent de comportement.

Donc, dans un cas nous essayons de garder ce qui est mondialement bon (la migration) en réduisant les craintes de ceux qui, localement, en seraient négativement affectés. Dans le cas du changement climatique, nous essayons d’éviter quelque chose qui est mondialement mauvais en utilisant le seul instrument que nous ayons (l’Etat-nation) qui est clairement sous-optimal pour cet objectif. Nous sommes donc dans les deux cas en train d’essayer de concevoir ce que nous pourrions appeler des deuxièmes meilleures solutions, essentiellement en raison de limites politiques appelées l’Etat-nation. »

Branko Milanovic, « Formal and actual similarities between climate change and global inequality, and suboptimality of the nation-state », in globalinequality (blog), 18 mars 2019. Traduit par Martin Anota

lundi 18 mars 2019

La fusion Alstom-Siemens et le besoin de champions industriels européens

« La Commission européenne a refusé la fusion entre Alstom et Siemens, déclenchant par là l’ire des gouvernements français et allemand. Une proposition franco-allemande de refonder le contrôle des fusions dans l’Union européenne a donné lieu à un intense débat sur le besoin de champions européens…

Siemens et Alstom, les deux plus gros fournisseurs du marché du rail, devaient obtenir l’aval de la Commission européenne pour fusionner et ainsi devenir un véritable "champion européen" qui aurait ainsi acquis au niveau mondial une position dominante dans ce secteur. Mais le 6 février 2019, la Commission européenne a refusé, au motif que "la fusion aurait nuit à la concurrence sur les marchés des systèmes de signalisation ferroviaire et des trains à très grande vitesse".

Cette décision a attiré l’attention pour deux raison. Premièrement, les fusions sont rarement interdites en Europe. Comme l’expliquent Patrick Rey et Jean Tirole, "en 2018, par exemple, la Commission a approuvé 370 fusions sans condition et 23 autres en les soumettant à des conditions (ou engagements), dans la plupart des cas après une courte enquête d’un mois. Par ailleurs, la Commission n’a rejeté que deux fusions en 2017, aucune en 2018 et moins de 30 depuis l’adoption de la réglementation de l’UE sur les concentrations en 1990". Deuxièmement, le projet de fusion avait l’aval des gouvernements français et allemand et ces derniers ont durement et ouvertement critiqué la décision de la Commission européenne.

Suite à la décision de la Commission européenne, les ministres des deux pays ont établi un "manifeste franco-allemand pour une politique industrielle européenne adaptée au vingt-et-unième siècle" qui repose sur trois piliers : regrouper des ressources pour un investissement "massif" dans l’innovation ; adopter des mesures défensives, telles qu’un cadre de surveillance européen des investissements étrangers et un mécanisme de réciprocité pour les marchés publics avec des pays tiers ; et, enfin, procéder à des changements dans le cadre réglementaire de la politique de la concurrence européenne. Ces changements incluent une révision "des lignes directrices actuelles en matière de concentrations pour mieux tenir compte de la concurrence au niveau mondial, de la concurrence potentielle future et du calendrier de développement de la concurrence afin de donner à la Commission européenne plus de flexibilité dans son appréciation des marchés pertinents" et la possibilité d’un droit de recours du Conseil, sous certaines conditions, qui pourrait revenir sur les décisions de la Commission.

En conséquence de la fusion avortée entre Alstom et Siemens et des propositions franco-allemandes, un débat s’est amorcé : La politique de la concurrence de l’UE doit-elle être changée pour faciliter la formation de "champions européens" ? Et est-ce une condition nécessaire pour les entreprises européennes pour être capable d’affronter la concurrence mondiale ?

Pour les partisans de la fusion Alstom-Siemens, le contexte est important. C’est celui de l’ascension de CRRC, un mastodonte chinois du secteur ferroviaire qui résulte lui-même d’une fusion et qui est dopé par la croissance rapide d’un marché chinois largement fermé. Comme Elie Cohen l’écrit, "là où Alstom et Siemens se battent pour se partager une production annuelle de 35 TGV par an, CRRC en fait 230 ! Là où le marché européen de la grande vitesse stagne, la Chine vient de lancer un plan supplémentaire d’investissement de 125 milliards de dollars pour construire 3200 km de lignes TGV venant s’ajouter à un réseau de 25000 km !"

Donc, Cohen résume l’argument clé en faveur de la fusion : le marché ferroviaire européen est saturé, les vrais marchés sont à l’étranger, donc la concurrence nuit aux deux entreprises en termes de compétitivité mondiale. De plus, un champion européen serait en meilleure position pour résister à l’hégémonie prochaine de CRRC. Ou, comme le dit Guy Verhofstadt, "même si Alstom et Siemens ont tous deux réussi à gagner des contrats dans plusieurs pays occidentaux et africains ces dernières années, leur chance pourrait bientôt s’évanouir" et "s’il n’y a pas de plus forte réponse de la part de l’Europe, il ne s’agit pas de savoir si mais quand la Chine deviendra un acteur dominant dans le marché du rail mondial".

Dans ce contexte, les règles européennes sur la définition du marché pertinent deviennent particulièrement importantes pour statuer sur le cas de la fusion Alstom-Siemens, d’où la proposition franco-allemande de les réviser. Comme Verhofstadt l’affirme, en suivant les règles la Commission avait à "considérer l’impact potentiel de la fusion sur les marchés européens et régionaux en décidant de l’approuver ou de la rejeter". "Mais le marché du rail dans lequel Alstom et Siemens opèrent est mondial, ce qui signifie que l’évaluation d’une position dominante ou des entraves à la concurrence doit aussi tenir compte des concurrents basés au Japon, en Corée du Sud, en Chine et ailleurs", ajoute-t-il. Donc, en conclut-il, les règles européennes de contrôle des fusions doivent devenir plus flexibles et prospectives. Plus généralement, pour Verhofstadt et Cohen, le cadre de concurrence doit prendre en compte des intérêts stratégiques plus larges et les implications à long terme des menaces géopolitiques.

Par conséquent, bien qu’il rejette clairement un droit de recours par des Etats-membres qui dérogerait aux décisions de la Commission, Verhofstadt se prononce en faveur d’une refonte des règles pour faciliter l’émergence de champions européens. Il maintient que, pour affronter la concurrence mondiale, les entreprises européennes ont besoin de gagner en taille et que, pour cela, il préconise des "champions européens" à la Airbus.

Adoptant le point de vue opposé, Patrick Rey et Jean Tirole doutent que l’on puisse faire une analogie avec Airbus. "Dans le cas d’Airbus, il s’agissait de créer un concurrent à Boeing, qui détenait alors un quasi-monopole sur le marché de l’aviation commerciale. La fusion Alstom-Siemens aurait au contraire réduit le nombre d’acteurs dans l’industrie ferroviaire en Europe".

De plus, Martin Sandbu cite le journaliste Chris Bryant de Bloomberg pour suggérer que le désavantage compétitif des deux entreprises est exagéré : les recettes de CRRC sont en effet plus larges que celles d’Alstom et Siemens combinées, mais presque sa totalité viennent du marché chinois, tandis que sur les marchés internationaux, les deux entreprises européennes pèsent trois fois plus que CRRC.

Plus généralement, Massimo Motta et Martin Peitz soulignent qu’il n’y a rien dans le contrôle des fusions qui empêche la formation de champions européens, à condition qu’il y ait assez de gains d’efficacité (des synergies et des complémentarités) pour compenser les effets anticoncurrentiels à court terme (prix plus élevés, moindre choix pour les demandeurs) et à long terme (moins d’investissement, d’innovation et de qualité). "Mais dans le cas Siemens-Alstom, il n’y a pas d’information publique qui certifie qu’il y ait de telles synergies et la Commission européenne a déclaré que les partis n’ont pas démontré qu’il était possible d’obtenir de tels gains d’efficacité", ajoutent-ils.

Les deux économistes remarquent que la création de champions européens serait empêchée par le contrôle de fusions dans de le cas où il y a des gains d’efficacité en termes de compétitivité internationale (plus de ventes à l’étranger) insuffisants pour compenser les méfaits sur le consommateur européen (des prix plus élevés). Selon les deux auteurs, alors que de telles situations doivent retenir l’attention, il s’agit plus souvent de possibilités théoriques que de cas effectifs et "en se basant sur les constats de la Commission européenne, Siemens/Alstom n’auraient définitivement pas été l’un de ces cas". Dans tous les cas, ils suggèrent qu’un partenariat (ou un autre contrat) pour coordonner les ventes et la production étrangères permettent d’obtenir de tels gains d’efficacité sans recourir à une fusion.

Pourtant, Motta et Peitz reconnaissent que l’efficacité économique ne doit pas être le seul principe guidant la politique de la concurrence. Pour autant, ils soulignent qu’empêcher une position dominante sur un marché qui affecte la sécurité de l’approvisionnement, ou des considérations stratégiques (militaires ou non), est un bon argument pour bloquer une fusion, non pour en autoriser une. Ils concèdent aussi que les règles de la concurrence peuvent ne pas être adéquates pour empêcher des pratiques déloyales par des entreprises extra-européennes. A ce sujet, ils proposent de recourir à "une intervention préventive (par exemple en excluant des appels d’offres les entreprises extra-européennes soupçonnées de s’engager dans de telles pratiques) ou de recourir à des dispositions anti-dumping", tout en notant que, en l’absence de concurrence exercée par les entreprises extra-européennes, la concurrence entre les entreprises européennes devient plus impérieuse.

Enfin, tous les auteurs craignent les dérives qu’il y aurait à donner aux Etats-membres leur mot à dire sur la politique de la concurrence. "Cette révolte contre le régime de concurrence européen est une vieille tentation de cartellisation nationale pointant le bout de son nez au niveau européen", écrit Martin Sandbu. Rey et Tirole soulignent que "les politiciens sont sujets au lobbying intense de grandes entreprises et d’organisations industrielles susceptibles d’être plus intéressées par la limitation de la concurrence que par son encouragement". Motta et Peitz craignent que "sous couvert de permettre la formation de champions européens anticoncurrentiels, les objectifs politiques de court terme qui jouissent d’un rapide soutien populaire guide la prise de décision".

Donc, est-il possible de réconcilier une politique industrielle européenne avec la politique de la concurrence ? Le verre semble à moitié plein : tous les commentaires recensés ici, indépendamment de leur opinion sur la fusion entre Alstom et Siemens, soulignent la nécessité de soutenir l’investissement dans l’innovation et de favoriser l’examen des investissements étrangers et l’accès réciproque aux marchés. Gerogios Petropoulos et Guntram Wolff ajoutent qu’au-delà des instruments défensifs qui répondent aux inquiétudes relatives aux subventions publiques, "la vraie question est de savoir si l’UE va renforcer son marché unique, accroître les dépenses en recherche-développement, redorer le blason de ses universités et concevoir une véritable stratégie intégrée en matière d’intelligence artificielle".

Mais sur le besoin de champions européens et l’attitude de la politique de la concurrence à son égard, le consensus est loin d’être atteint comme le confirme un sondage réalisé parmi le panel d’experts économiques européen IGM. Dans le sondage, il a été demandé à des économistes européens s’ils étaient d’accord ou non avec les deux déclarations suivantes : "l’Européen moyen voit sa situation s’améliorer si les autorités européennes de la concurrence laissent les entreprises fusionner pour former des champions européens dans leurs secteurs, même si cela affaiblit la concurrence" et "si la Chine et d’autres pays utilisent des politiques qui créent des entreprises internationales géantes, alors l’Européen moyen voit sa situation s’améliorer si les autorités européennes de la concurrence laissent les entreprises fusionnent pour former des champions européens dans leurs secteurs, même si cela affaiblit la concurrence". (…) Bien que la majorité se déclare en désaccord avec les deux affirmations, une part significative des répondants se déclarent incertains. »

Konstantinos Efstathiou, « The Alstom-Siemens merger and the need for European champions », in Bruegel (blog), 11 mars 2019. Traduit par Martin Anota

samedi 16 mars 2019

L’insoutenabilité du plein emploi, ou pourquoi les Etats-Unis seront en récession l’année prochaine

A quelques mois de la plus longue expansion américaine


D’ici quelques mois, l’économie américaine pourrait battre le record de la plus longue expansion qu’elle ait connue, celle qui avait eu lieu entre mars 1991 et mars 2001. Comme nous nous rapprochons de cet instant, les craintes se multiplient à l’idée qu’une récession puisse prochainement arriver. Les expansions meurent-elles de vieillesse ? Les analyses empiriques suggèrent que ce n’est pas le cas. Il n’y a pas de claire relation entre la durée d’une expansion et la probabilité d’une récession (Rudebusch, 2016).

Une autre définition de l’âge des expansions


On peut considérer autrement l’âge d’une expansion, en prenant le degré d’inutilisation des capacités. Les expansions sont des périodes au cours desquelles l’économie retourne au plein emploi. Comme le chômage devient faible et atteint des niveaux proches ou inférieurs au taux de chômage naturel, est-il possible de maintenir cet état pendant plusieurs années ? Ou bien le "plein emploi" mène-t-il automatiquement à des déséquilibres qui représentent les germes de la crise suivante ?

Dans le cas des Etats-Unis, l’histoire suggère que le "plein emploi" n’est pas un état soutenable et qu’une fois un tel niveau atteint une hausse soudaine du chômage est très probable. Dans le graphique ci-dessous, j’ai représenté les taux de chômage autour du pic de chacun des cinq derniers cycles (où le zéro représente le mois au cours duquel la récession éclate). J’ai représenté l'évolution du taux de chômage sur les cinq années qui précèdent le début de la récession et les dix mois qui suivent celui-ci.

GRAPHIQUE 1 Le taux de chômage américain autour des récessions (en %, normalisé à 0 % le mois du pic)

Antonio_Fatas__minimum_chomage_Etats-Unis_fin_d__expansion_veille_de_recession.png

Tous les cycles présentent une évolution en forme de V pour le chômage. Le chômage atteint son point le plus faible autour des 12 mois précédant le début de la récession et, dans la plupart des cas, le chômage s’accroît déjà dans les mois qui précèdent la récession. Ce qui est intéressant, c’est l’absence d’un quelconque épisode de chômage faible et stable (ou de plein emploi). C’est comme si le fait d’atteindre un faible niveau de chômage mène toujours à des dynamiques qui finissent rapidement par générer une récession. Les récessions meurent de vieillesse si l’âge est mesuré en termes de capacités inutilisées. Si ce schéma se répétait, les Etats-Unis doivent être proches aujourd’hui d’un point d’inflexion, c’est-à-dire d’une récession.

GRAPHIQUE 2 Taux de chômage de l’Australie (en %)

Antonio_Fatas__taux_de_chomage_Australie.png

Le résultat peut sembler évident et mécanique : une fois que le taux de chômage est faible, il ne peut aller que dans une direction : à la hausse. C’est vrai, mais ce qui importe est de savoir si une période prolongée de chômage faible et stable est possible. Dans le cas des Etats-Unis, la réponse est non. On peut regarder d’autres pays pour visualiser cette possibilité. Un bon exemple est l’Australie, qui a récemment connu un faible taux de chômage pendant plusieurs décennies. Après une récession au début des années quatre-vingt-dix, le chômage s’est accru et a alors commencé à refluer selon une trajectoire similaire à celle observée lors de chaque expansion américaine. Mais dans les années deux mille, le chômage atteignit un faible niveau et il est resté essentiellement à ce niveau pendant plusieurs années. En d’autres mots, le taux de chômage n’a pas suivi une dynamique en forme de V, mais plutôt une dynamique en forme de L.

Croissance à risque et régressions de quantile


Nous pouvons quantifier cette intuition en reliant ce résultat à une littérature universitaire qui analyse les déterminants du risque extrême de variations du chômage (ou du PIB). Cette littérature observe les déterminants des pires survenus potentielles au cours d’une fenêtre temporelle spécifique (par exemple Cecchetti, 2008, Kiley, 2018, Adrian, Boyarchenko et Giannone, 2019).

Empiriquement, c’est fait en utilisant des régressions de quantile. Dans ce cas, nous nous intéressons au risque extrême de hausses brutales du chômage, qui sont associées aux récessions, et je vais capturer cela par un coefficient sur le 90ème centile de la distribution dans une régression de quantile (Fatas, 2019).

TABLEAU Régression de quantile du chômage américain

Antonio_Fatas__regression_de_quantile_chomage_Etats-Unis.png
Les résultats d’une telle régression sont présentés dans le tableau. Les trois coefficients sont négatifs (ce à quoi nous nous attendions comme il y a un retour à la moyenne des taux de chômage). Mais la partie intéressante est que la taille du coefficient augmente quand nous nous déplaçons de petites variations du chômage à de fortes variations (de q10 à q90). Cela signifie que les faibles taux de chômage sont particulièrement bons pour indiquer en avance le risque extrême de larges hausses du chômage (récessions). Chose intéressante, ce phénomène n’apparaît pas dans d’autres pays, tels que l’Australie (cf. Fatas pour ces résultats).

Pourquoi le plein emploi est-il insoutenable ?


La dynamique des récessions et du chômage aux Etats-Unis suggère que de faibles niveaux de chômage sont un bon indicateur avancé des hausses soudaines du chômage, associées à des crises. Nous ne voyons pas dans les données de périodes prolongées de faible chômage. Mais pourquoi est-ce qu’un faible chômage est insoutenable ? Qu’est-ce qui mène à une récession ?

La littérature universitaire tend à mettre l’accent sur deux ensembles de variables : celles associées aux déséquilibres macroéconomiques (telles que l’inflation) et celles associées aux déséquilibres financiers. Chose intéressante, l’introduction de ces variables dans les régressions de quantiles ci-dessus fait disparaître l’effet qu’on a évoqué (cf. Fatas, 2019). En particulier, une fois que nous contrôlons la croissance du crédit, il ne semble plus que le faible chômage soit un bon indicateur avancé du risque extrême associé aux récessions (nous observons toujours un retour à la moyenne, mais nous n’obtenons pas de coefficient plus large pour le quantile q90).

Ce résultat suggère que les récessions suivent des périodes de faible chômage parce que des déséquilibres s’accumulent au cours de ces années. Ce qui est intéressant, c’est que les données empiriques montrent que les Etats-Unis n’ont jamais réussi à maintenir un faible taux de chômage sans générer des déséquilibres qui mènent à une récession. Si l’histoire est un indicateur de crises futures, alors le niveau actuellement faible qu’atteint le chômage suggère qu’une récession est peut-être au coin de la rue. »

Antonio Fatás, « The 2020 (US) recession », in Antonio Fatás on the Global Economy (blog), 12 mars 2019. Traduit par Martin Anota



aller plus loin... lire « L'expansion américaine va-t-elle mourir de vieillesse ? »

lundi 11 mars 2019

Trump est devenu l’homme de tous les déficits

« Les Républicains haïssent les déficits. Du moins, c’est ce qu’ils prétendent.

Lorsqu’ils contrôlaient le Congrès sous l’administration Obama, ils n’ont cessé de s’insurger contre les déficits budgétaires, en avertissant qu’avec ces derniers les Etats-Unis finiraient par connaître une crise budgétaire à la grecque. Donald Trump, d’un autre côté, a focalisé l’essentiel de sa colère sur les déficits commerciaux, en insistant sur l’idée que "nos emplois et nos richesses sont offerts aux autres pays qui ont pris l’avantage sur nous".

Mais au cours des deux années où le parti républicain a contrôlé l’ensemble des pouvoirs, l’ironie a été que les deux déficits se sont creusés. Le déficit budgétaire a atteint un niveau qui n’avait été vu en dehors des guerres et des crises économiques ; du côté des échanges de biens, le déficit commercial a atteint un record. (…)

Soyons clairs : ni le déficit budgétaire, ni le déficit commercial ne font peser un danger clair et immédiat pour l’économie américaine. Les pays développés qui empruntent dans leur propre monnaie peuvent et souvent vont accumuler de larges dettes sans qu’il y ait de conséquences dramatiques, ce qui explique pourquoi la panique autour de la dette publique d’il y a quelques années était injustifiée.

Cela dit, les déficits jumeaux (twin deficits) de Trump nous en apprennent beaucoup sur ce dernier et sur son parti, à savoir qu’ils sont malhonnêtes et ignorants.

A propos de la malhonnêteté : Y a-t-il encore quelqu’un pour croire que les Républicains se soient vraiment inquiétés à un quelconque moment de la dette publique et des déficits budgétaires ? (…) Dans tous les cas, aujourd’hui, il est indéniable que toute leur rhétorique (…) sur la dette publique n’a été rien d’autre qu’une façade, une manière d’utiliser le déficit budgétaire comme prétexte pour bloquer et saper le programme d’Obama. Lorsqu’ils arrivèrent au pouvoir, les politiciens qui avaient tant clamé qu’il fallait faire preuve de responsabilité budgétaire ont appelé à une forte baisse d’impôts pour les entreprises et les plus riches. C’est cette baisse d’impôts qui constitue la principale cause derrière l’explosion du déficit budgétaire.

Oh, et cette baisse d’impôts a échoué à délivrer le boom d’investissement tant promis. Les entreprises n’ont pas utilisé leur manne géante pour construire de nouvelles usines et accroître la productivité, elles l’ont utilisée pour racheter massivement leurs actions et les gains n’ont été que pour les plus riches.

Pourquoi parler d’ignorance ? Comme beaucoup l’ont souligné en vain, Trump se trompe entièrement sur ce que font les déficits commerciaux. Certes, dans un contexte de chômage élevé, les déficits commerciaux peuvent nous coûter des emplois. Mais en temps normal, ils ne réduisent pas l’emploi total, ni nous appauvrissent. Au contraire, d’autres pays nous vendent des biens et services qui nous sont utiles, biens et services que nous payons avec des morceaux de papier, papier aux taux d’intérêt très faibles. Qui gagne à nouveau ?

Cependant, au-delà de cela, Trump a complètement tort sur ce qui est à l’origine des déficits commerciaux. En fait, ses propres mesures en matière de politique commerciale nous confirment qu’il a une vision erronée des choses. Dans l’univers de Trump, les déficits commerciaux apparaissent parce que nous aurions signé de mauvais traités commerciaux : nous laisserions les étrangers vendre leurs produits chez nous, mais ils ne nous laisseraient pas vendre les nôtres chez eux. Donc, la solution consisterait à dresser des barrières aux produits étrangers. "Je suis un homme de droits de douane", a-t-il fièrement proclamé.

Cependant, la réalité est que les déficits commerciaux n’ont presque rien à voir avec les droits de douane ou d’autres barrières à l’échange. Le déficit commercial global est toujours égal à la différence entre les dépenses d’investissement domestiques et l’épargne domestique (incluant aussi bien celles du secteur privé que du secteur public). C’est juste de la comptabilité. Si l’économie américaine génère d’amples déficits commerciaux, ce n’est pas parce que les Américains auraient trop perdu dans les traités commerciaux qu’ils ont signés, mais parce qu’ils épargnent trop peu relativement aux autres pays.

Bien sûr, les droits de douane peuvent réduire les importations des biens qui sont sujets à ces droits de douane et ainsi réduire le déficit commercial dans des secteurs en particulier, mais c’est comme appuyer sur un ballon : vous écrasez l’endroit où vous appuyez, mais cela ne fera qu’augmenter d’un même montant un autre endroit. L’appréciation du dollar, qui nuit aux exportations, est l’un des principaux canaux par lesquels les déficits commerciaux sont susceptibles de se maintenir. Mais le résultat fondamental, le fait que les droits de douane ne réduisent pas le déficit commercial global, est clair.

Certes, les droits de douane que l’administration Trump a instaurés en 2018 ont bien fortement réduit les importations des biens faisant l’objet de ces tarifs douaniers. Mais les importations des autres biens ont augmenté, tandis que les performances à l’exportation ont été médiocres. Et le déficit commercial global a fortement augmenté, ce qui est exactement ce que l’on pouvait s’attendre à voir. Après tout, cette forte baisse d’impôts pour les riches a fortement réduit l’épargne nationale.

Et la cause supposée du déficit commercial n’est pas la seule chose sur laquelle Trump s’est trompé en matière de politique commerciale. Il a aussi continué d’insister sur l’idée que les étrangers paieraient ses droits de douane. En réalité, les prix reçus par les exportateurs étrangers n’ont pas baissé. Les prix payés par les consommateurs américains ont par contre augmenté.

A nouveau, le déficit commercial ne pose pas de danger immédiat pour l’économie américaine. Et même la guerre commerciale de Trump n’a probablement provoqué que des dommages économiques limités. Le principal dommage a été porté à la crédibilité des Etats-Unis. Mais les déficits jumeaux de Trump montrent que son parti a menti à propos de ses priorités en matière de politique économique et qu’il est vraiment incompétent en matière de politique commerciale. Heureusement, une grande nation comme les Etats-Unis peut survivre à beaucoup de choses, même à la malhonnêteté et à l’ignorance de ses dirigeants. »

Paul Krugman, «Tariff man has become deficit man », 7 mars 2019. Traduit par Martin Anota



aller plus loin…

« Petite macroéconomie des droits de douane »

« Pourquoi il ne faut pas être obnubilé par le déficit commercial »

« Faut-il vraiment être champion du monde des exportations ? »

jeudi 7 mars 2019

Quatre faits stylisés sur les crises financières

« (…) La crise financière a démontré que, même dans une économie développée telle que les Etats-Unis, des perturbations financières peuvent endommager toute une économie. La crise et la faible reprise qui l’a suivie ont suscité une explosion d’études cherchant à préciser les liens étroits qui existent entre le secteur financier et le reste de l’économie. De telles études sont importantes pour les institutions en charge de la politique économique puisqu’elle leur permet de réduire le risque de nouvelles crises ou leur fourni un guide pour atténuer les répercussions de celles-ci lorsqu’elles éclatent.

Les crises financières sont caractérisées par un déclin soudain et généralisé des prix d’actifs, une forte perturbation des marchés financiers et un sévère resserrement du crédit qui entraîne une contraction de l’activité économique. Avant la crise de 2007-2009, les modèles macroéconomiques les plus utilisés par les principales banques centrales autour du monde excluaient largement les institutions financières et, par conséquent, ne tenaient pas compte de la possibilité que de tels événements surviennent. Au cours de la dernière décennie, plusieurs avancées ont été faites pour répondre à ces manques. Cependant, jusqu’à présent, une approche commune pour intégrer les crises financières aux modèles macroéconomiques n’a pas encore émergé.

(…) Les modèles que les chercheurs utilisent pour comprendre les crises financières doivent être capables de répliquer les faits stylisés mis en évidence par les données historiques. Je me focalise sur quatre faits à propos des crises. Parvenir à reproduire ces schémas dans un seul modèle est un important défi pour construire des modèles macroéconomiques réalistes des crises financières. (…)

Les crises sont des événements rares. En moyenne, les crises surviennent environ tous les 25 ans ou même encore moins fréquemment. A l’inverse, une récession commence typiquement tous les 8 ans. Ce fait pose déjà un problème immédiat lorsque l’on étudie empiriquement les crises financières. Pour obtenir assez d’observations pour étudier les schémas communs autour des crises, les chercheurs ont besoin de larges échantillons de données. En l’occurrence, ces échantillons doivent couvrir de nombreux pays et s’étendre sur plusieurs décennies. Donc, les études s’appuient habituellement sur des sources historiques et implique souvent un fastidieux travail d’archive.

Les booms du crédit tendent à précéder les crises. Un large éventail d’études historiques a montré que les crises financières ne sont pas vraiment des événements aléatoires qui seraient indépendants des conditions macroéconomiques. En effet, les crises surviennent typiquement à la fin d’une expansion, après une période prolongée d’accumulation de déséquilibres macrofinanciers.

L’un des déterminants clés des crises que la littérature a mis en évidence est le volume de crédit accordé aux entreprises non financières et aux ménages. Par exemple, Moritz Schularick et Alan Taylor (2012) ont constaté que la croissance agrégée du crédit est un indicateur avancé assez fiable. Nous le voyons sur le graphique, montrant la variation annuelle en pourcentage du crédit dans les années avant et après les crises à partir de données relatives à 17 pays développés de 1870 à 2013. Dans la période qui précède la crise, le crédit s’accroît typiquement à un rythme rapide, chute brutalement autour de l’éclatement de la crise et reste déprimé par la suite.

GRAPHIQUE Variation du crédit autour des crises financières (en %)

Paul_Pascal__comportement_credit_avec_apres_crise_financiere.png

Les crises financières sont associées à des récessions sévères. Lorsqu’une crise financière éclate, la production décline typiquement plus fortement que durant une récession normale. En outre, la chute de la production est même plus forte si la crise est précédée par une accumulation de crédit, comme l’ont par exemple constaté Òscar Jordà, Moritz Schularick et Alan Taylor (2013). Par exemple, le PIB chute de 30 % à 50 % de plus au cours d’une récession synchrone à une crise financière par rapport à une récession normale (Paul, 2019). Une explication potentielle est que l’accès au crédit se restreint autour du début de la crise qui affecte l’activité économique, comme le montre le graphique.

Les déclencheurs ultimes des crises peuvent être relativement petits. Même si la production chute fortement lors d’une crise, ce n’est peut-être pas en raison d’un large choc qui aurait touché l’économie. Par exemple, Gorton et Ordonez (2014) estiment que les pertes sur les titres adossées sur crédit hypothécaire lors de la crise financière de 2007-2009 (…) étaient en fait assez modestes. Le système financier américain a peut-être avoir été particulièrement vulnérable à de petits chocs autour de 2007, donc un déclencheur similaire à une autre période aurait pu ne pas entraîner une perturbation aussi importante dans le système financier.

Pour résumer, les crises financières présentent les caractéristiques suivantes : elles sont des événements rares qui sont typiquement précédés par une accumulation du crédit, sont associés à de plus fortes récessions qu’à la normale et ne sont pas nécessairement déclenchées par de larges chocs. Ces faits empiriques posent des défis aux modèles macroéconomiques. Pourquoi la fragilité financière apparaît-elle durant les bonnes périodes, lorsque le crédit s’accroît ? De plus, quel mécanisme de propagation transforme des chocs qui ne sont pas particulièrement larges en de sévères événements macroéconomiques ? (…) »

Pascal Paul, « Modeling financial crises », Federal Reserve Bank of San Francisco, Economic Letter, n° 2019-08, mars 2019. Traduit par Martin Anota



aller plus loin...

« Anatomie des booms du crédit »

« Quels liens entre crédit, instabilité financière et macroéconomie ? »

- page 1 de 33