Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

vendredi 20 avril 2018

La macroéconomie a-t-elle abandonné l’idée d’expliquer les récents événements économiques ?

« Le débat sur la possible disparition de la courbe de Phillips se poursuit, notamment parce que divers pays sont dans une situation où le chômage s’est stabilisé à des niveaux qui avaient précédemment été synchrone à une accélération de l’inflation, mais que cette fois-ci l’inflation salariale semble assez statique. Cela s’explique certainement par deux choses : l’existence d’un chômage dissimulé et le fait que le NAIRU ait chuté. C’est ce qu’ont suggéré Bell et Blanchflower dans le cas du Royaume-Uni.

L’idée que le NAIRU puisse bouger graduellement au cours du temps amène certains à affirmer que la courbe de Phillips est elle-même suspecte. Dans ce billet, j’avais essayé de démontrer que c’est une erreur. C’est aussi une erreur de penser qu’estimer la position du NAIRU soit un jeu de dupes. C’est ce que les banques centrales doivent faire si elles adoptent une approche structurelle pour modéliser l’inflation (et quelles autres approches raisonnables y a-t-il ici ?). Ce qui nous amène à nous demander pourquoi l’analyse des raisons amenant le NAIRU à varier ne constitue pas un point central de la macroéconomie.

(…) J’aimerais commencer en rappelant pourquoi la macroéconomie moderne a laissé le secteur financier hors de ses modèles avant la crise. Pour résumer une longue histoire, disons qu’en se focalisant sur les dynamiques de cycles d’affaires, les macroéconomistes ont eu tendance à ignorer les modifications de moyen terme de la relation entre la consommation et le revenu. Ceux qui ont étudié ces modifications les ont reliés de façon convaincante au comportement de secteur financier. Si davantage d’attention leur avait été accordée, nous aurions eu sous la main bien plus d’études sur le sujet et nous aurions mieux compris les liens entre la finance et l’économie réelle.

Peut-on dire la même chose à propos du NAIRU ? Comme avec les tendances de moyen terme de la consommation, il y a toute une littérature sur les variations à court terme du NAIRU (ou du chômage structurel), mais elle n’est pas très présente dans les journaux les plus prestigieux. L’une des raisons, comme avec la consommation, est qu’une telle analyse tend à être ce que les macroéconomistes modernes qualifient d’ad hoc : elle utilise beaucoup d’idées théoriques, mais aucune qui soit soigneusement microfondée dans le même article. Ce n’est pas un choix que feraient ceux qui font ce genre de travail empirique, mais une nécessité.

La même chose peut s’appliquer à d’autres agrégats macroéconomiques comme l’investissement. Quand les économistes se demandent si l’investissement est aujourd’hui inhabituellement élevé ou faible, ils tirent typiquement des graphiques et calculent des tendances et des moyennes. Nous devons être capables de faire bien plus que cela. Nous devrions plutôt rechercher l’équation qui capture le mieux les données relatives à l’investissement lors de ces 30 dernières années et nous demander si elle conduit à surestimer ou sous-évaluer le niveau actuel d’investissement. On peut dire la même pour les taux de change d’équilibre.

Ce n’est pas seulement la contre-révolution des nouveaux classiques en macroéconomie qui a mené à cette dévalorisation de ce que l’on peut qualifier d’analyse structurelle des données temporelles des relations macroéconomiques clés. Le fameux article que Sims a publié en 1980, "Macroeconomics and reality", où il s’est attaqué au type de restrictions d’identification qui était utilisé dans l’analyse des séries temporelles et où il a proposé la méthode des modèles auto-vectoriels régressifs (VAR), tient aussi une certaine responsabilité. Cette parfaite tempête a relégué l’analyse des séries temporelles qui avait été le pain quotidien de la macroéconomie dans les journaux mineurs.

Je ne pense pas qu’il soit excessif d’affirmer que la macroéconomie a subséquemment abandonné l’idée d’essayer d’expliquer la récente histoire macroéconomique : ce qui peut être qualifié de comportement à moyen terme des agrégats macroéconomiques ou pourquoi l’économie s’est comportée comme elle l’a fait ces 30 ou 40 dernières années. La macroéconomie s’est focalisée sur les détails du fonctionnement des cycles d’affaires et non sur la façon par laquelle les cycles d’affaires sont liés les uns aux autres.

Des macroéconomistes influents qui sont impliqués dans l’élaboration de la politique économique ont pris conscience de ces insuffisances, mais ils expriment leur insatisfaction d’une façon différente (Olivier Blanchard constituant toutefois une importante exception). Par exemple, John Williams, qui vient juste d’arriver à la tête de la Réserve fédérale de New York, appelle ici à une nouvelle génération de modèles DSGE qui se focaliserait sur trois domaines. Premièrement, ces modèles devront davantage se focaliser sur la modélisation du marché du travail et de sa mollesse, ce qui selon moi revient à chercher à expliquer pourquoi le NAIRU varie au cours du temps. Deuxièmement, ces modèles doivent davantage se focaliser sur les développements à moyen ou long terme touchant aussi bien l’économie du côté de l’offre que de la demande. Troisièmement, de tels modèles doivent bien sûr davantage incorporer le secteur financier.

Peut-être qu’un jour les modèles DSGE parviendront à faire tout cela, mais je pense que la macroéconomie est si complexe que tout ne puisse pas être microfondé. En tout cas, un tel jour ne viendra pas de si tôt. Il est temps que les macroéconomistes reviennent sur les décisions qu’ils ont prises autour de 1980 et qu’ils prennent conscience que les déficiences avec l’analyse traditionnelle des séries temporelles qu’ils ont mis en lumière ne sont pas aussi importantes que ne l’ont ensuite imaginé les générations suivantes. La macroéconomie doit commencer à essayer de nouveau de chercher à expliquer la récente histoire macroéconomique. »

Simon Wren-Lewis, « Did macroeconomics give up on explaining recent economic history? », in Mainly Macro (blog), 19 avril 2018. Traduit par Martin Anota

mercredi 18 avril 2018

Les banques centrales à l’âge du populisme

« Les élections de ces deux dernières années ont montré que nous vivons dans une époque où le populisme politique et économique joue un rôle important. Quelles en sont les conséquences pour les banques centrales ? Nous passons en revue les commentaires sur la question (…).

Charles Goodhart et Rosa Lastra (…) affirment que le consensus qui a entouré l’indépendance des banques centrales dans la mise en œuvre d’une politique monétaire visant à promouvoir la seule stabilité des prix a été remis en cause dans le sillage de la crise financière mondiale, avec l’essor du populisme d’un côté et l’élargissement des mandats des banques centrales de l’autre. Après avoir considéré les arguments économiques en faveur de l’indépendance aussi bien que l’existence d’effets en termes de distribution, de direction et de durée, leur article examine différentes dimensions du débat sur la façon par laquelle le populisme (ou simplement le mécontentement général suscité par l’idée de statu quo) affecte l’indépendance de la banque centrale. Même s’il est possible (mais incertain) que la politique monétaire puisse continuer à être opérée de façon indépendante, Goodhart et Lastra estiment qu’il est possible que l’effacement de l’indépendance des banques centrales dans le champ de la stabilité financière remette aussi en question leur indépendance plus générale. Il est par conséquent selon eux important d’avoir en place des mécanismes adéquats pour « garder les gardiens » de la stabilité monétaire et financière.

Dani Rodrik écrit que le populisme dans le domaine économique est certes pratiquement toujours nocif, mais que le populisme économique peut être parfois justifié ; c’est par exemple le cas lorsqu’il remet en question la focalisation excessive des banques centrales indépendantes sur le maintien de l’inflation à un faible niveau. Une partie du contrecoup populiste que l’on observe aujourd’hui découle de la croyance, pas totalement injustifiée, que la délégation à des agences autonomes ou la conformité à des règles ne servent pas la société, mais seulement une caste minoritaire d’"insiders". Des banques centrales indépendantes ont joué un rôle crucial dans la réduction de l’inflation dans les années quatre-vingt et quatre-vingt-dix. Mais dans l’actuel environnement marqué par une faible inflation, leur focalisation excessive sur la stabilité des prix crée un biais déflationniste et s’avère en tension avec l’emploi et la croissance économique. Rodrik affirme que dans de tels cas, il est raisonnable de relâcher les contraintes pesant sur la politique économique et de réintroduire du pouvoir aux gouvernements élus dans l’élaboration de la politique économique. (…)

Lucrezia Reichlin a affirmé l’année dernière qu’avec l’essor des mouvements populistes, leurs reproches quant aux autorités monétaires indépendantes peuvent désormais modifier la relation entre banques centrales, Trésors et législateurs. L’éventail des critiques à l’encontre des banques centrales proviennent à la fois de la gauche et de la droite et certaines d’entre elles rejoignent une crainte que nourrissent certains économistes conservateurs, celle selon laquelle les banques centrales auraient joué un rôle excessif dans la gestion de l’économie depuis la crise financière de 2008. Mais alors que les populistes tendent à appeler à réduire l’indépendance politique et opérationnelle des banques centrales et à élargir leur mandat, les économistes conservateurs veulent l’inverse. Reichlin pense que les solutions populistes sont peut-être ne pas être adaptées, mais que les problèmes que les populistes ont identifiés en ce qui concernent les banques centrales sont réels. Si nous croyons que les banques centrales doivent être protégées des interférences politiques de court terme lorsqu’elles poursuivent des objectifs de politique monétaire, cela nous amène à mettre en place des réformes qui vont permettre une coordination démocratiquement responsable (accountable) entre les autorités monétaires, budgétaires et financières.

Jacqueline Best affirme que de la politique doit être ramenée dans la politique monétaire. Bien que l’exceptionnalisme technocratique est tentant, en particulier face à la menace d’une démocratie illibérale, il est également dangereux, dans la mesure où il réduit la responsabilité (accountability) sans même parvenir à dégager entièrement la politique de la politique monétaire. Cette déconnexion avec le public alimente au final le genre de contrecoup populiste que le monde a récemment connu, en politisant davantage la politique monétaire avec potentiellement des conséquences très désastreuses. C’est le paradoxe de la crédibilité de la politique monétaire : bien que la théorie économique prétende que la crédibilité monétaire et la faible inflation dépendent du retrait du politique, au final, dans une société démocratique, la crédibilité dépend aussi de la légitimité du système monétaire et de ses institutions à mettre en œuvre des politiques qui marchent.

Edward Hadas affirme que les autorités monétaires s’appuient sur un modèle dangereusement simpliste de la réalité et qu’elles ont besoin d’une approche plus humble et plus réaliste. Pour l’heure, cette révolte n’est pas allée loin, même si Narendra Modi, le premier ministre populiste indien, a ignoré la banque centrale indienne lorsqu’il retira sans prévenir tous les billets à haute valeur faciale de la circulation. Mais Hadas affirme que les banquiers dans le reste du monde ne doivent pas avoir l’esprit tranquille ; leur position politique est fragile, dans la mesure où non seulement elles n’ont pas pu empêcher une crise mondiale en 2008, mais aussi où elles ont présidé une décennie de médiocre croissance économique. Une partie du problème, affirme Hadas, est que les autorités monétaires sont focalisées sur le contrôle du taux de l’inflation des prix à la consommation et qu’elles affirment être apolitiques et au-dessus de la mêlée financière. Mais ces idées simplistes ne produisent pas de bonnes politiques. Les autorités monétaires doivent, selon Hadas, abandonner leurs fantaisies, rechercher à atteindre plusieurs objectifs, notamment chercher à limiter la volatilité des prix d’actifs, veiller à la santé du système financier, ramener les taux de change à des valeurs justes, soutenir la croissance économique et stimuler la création de l’emploi, tout en acceptant un surcroît de supervision politique. »

Silvia Merler, « Central banks in the age of populism », in Bruegel (blog), 19 mars 2018. Traduit par Martin Anota

lundi 16 avril 2018

Quand l’autarcie devient la seule option

« La dernière (et, jusqu’à présent, la plus sérieuse) vague de sanctions américaines vis-à-vis de la Russie a montré très clairement deux choses ; aucune d’entre elles n’a été vraiment discutée par les commentateurs jusqu’à présent. La première est l’extraordinaire pouvoir de l’Etat moderne. La seconde est que, lorsque les Etats puissants imposent des sanctions qui limitent l’accès aux marchés, à la technologie et au capital, la seule option restante s’avère être l’autarcie.

Je vais discuter de chacun de ces deux points tour à tour.

Malgré tout ce que l’on a pu entendre à propos de l’effritement du pouvoir de l’Etat et l’accroissement du pouvoir des grandes entreprises très mobiles ("foot-loose"), ce que les sanctions montrent est que l’Etat demeure toujours l’acteur le plus puissant dans le capitalisme mondial contemporain. Apple ou Amazon ne peuvent pas imposer des sanctions et détruire Rusal. Actuellement, aucune entreprise au monde (même celles qui sont les principales clientes de Rusal) ne peuvent la détruire. Mais un Etat le peut. Poutine a montré le pouvoir de l’Etat russe, à un moment où il semblait faible et insignifiant, quand il emprisonna du jour au lemdemain Khodorkovsky, l’homme le plus riche de Russie, et le dépouilla de Yukos. Trump, ou plutôt le Trésor américain, montre le pouvoir de l’Etat américain en détruisant du jour au lendemain le plus large producteur d’aluminium au monde.

La seconde leçon est, dans une large mesure, pour la Russie une répétition des années vingt. On entend souvent aujourd'hui (de façon erronée) que l’URSS a choisi une politique d’autarcie économique. Au contraire, la Russie a passé la décennie des années vingt (dès la fin du communisme de guerre et des interventions étrangères) à la poursuite de capitaux étrangers qui lui auraient permis de reconstituer son industrie détruite et (elle l’espérait) de rattraper ainsi l’Occident. Mais ces capitaux ne sont jamais venus Les puissances occidentales refusèrent de reconnaître le gouvernement soviétique et, puisque les Soviets répudièrent la dette de la Russie tsariste, ils perdirent l’accès aux marchés des capitaux à cause du défaut de paiement et de raisons idéologiques.

Cela eut pour conséquence que le développement soviétique ne pouvait être entrepris qu’en s’appuyant seulement sur l’accumulation et la technologie domestiques. Comme on le sait, les implications ont tout d’abord été saisies par Trotski et Preobrajenski : cela passait par une planification totale de l’économie et l’extraction du surplus du seul segment de la population qui pouvait le générer : la paysannerie soviétique. L’industrialisation soviétique prit donc place dans "le sang et les larmes" des paysans soviétiques (essentiellement ukrainiens). Cette politique, qui incluait par définition la collectivisation, a commencé avec le premier plan quinquennal de 1928, conduit par Staline avec la brutalité qui lui est si caractéristique.

Ce que montrent les sanctions actuelles et celles qui pourraient venir (comme par exemple sur Gazprom), c’est que la Russie se retrouve maintenant au même carrefour que celui auquel elle se situait au début des années vingt. Son accès aux marchés, à la technologie et au capital de l’Occident a été restreint. Il est vrai qu’il y a de nos jours d’autres sources pour ces trois ressources, notamment en Chine. Mais l’ampleur des sanctions est telle que les acteurs chinois, s’ils cherchaient eux-mêmes à faire affaire ou à recueillir des fonds aux Etats-Unis, éviteront aussi de faire des affaires avec les entités russes. Donc l’industrie russe ne pourra croître, si elle le peut, qu’en utilisant les seules ressources domestiques qui, en comparaison avec ressources mondiales, sont faibles et inadéquates (dans la mesure où le rôle économique et démographique de la Russie relativement au monde a décliné). L’autarcie est donc programmée.

On peut alors se demander si un tel choix économique va aussi impliquer des politiques domestiques dictatoriales, comme ce fut le cas dans les années vingt. C’est assez probable parce que les développements autarciques sont difficiles à mettre en œuvre s’il n’y a pas de pression politique correspondante. En outre, il se pourrait certainement que ceux qui sont affectés par les sanctions et tous ceux qui ont besoin d’accéder aux marchés mondiaux tentent d’inverser les politiques qui ont mené aux sanctions. De telles tentatives feront d’eux des ennemis politiques directs pour le gouvernement actuel. La logique de la répression politique devient alors incontournable.

Il serait cependant erroné de croire que l’impasse courante dans laquelle la Russie se trouve peut être surmontée via des politiques différentes. Cela aurait pu être possible il y a quelques années, mais plus maintenant. Les raisons listées dans l’imposition de sanctions qui couvrent tout ce qui va de l’annexion de la Crimée aux fake news sont si étendues qu’aucun gouvernement post-Poutine imaginable ne peut toutes les accepter. Elles ne peuvent être acceptées que par un pays totalement défait. En outre, les sanctions américaines sont, on le sait, difficiles à renverser. Les sanctions américaines à l’encontre de l’Union soviétique débutèrent en 1948 et n’ont pratiquement jamais été interrompues. L’amendement Jackson-Vanik qui lia le commerce à la libération de l’émigration juive était officiellement en vigueur de 1974 à 2012, c’est-à-dire un quart de siècle supplémentaire après la disparition de l’ultime raison qui le justifiait. Et il ne fut aboli que pour être remplacé par un autre ensemble de sanctions contenu dans le Magnitsky Act. Les sanctions contre l’Iran ont été en vigueur pendant presque 40 ans, malgré les récentes discussions autour de leur relâchement. Les sanctions à l’encontre de Cuba ont duré pendant plus d’un demi-siècle (et plusieurs demeurent).

Poutine a donc, via une série de succès tactiques, amené la Russie à une défaite stratégique totale de laquelle ni lui, ni les gouvernements qui lui succéderont, ne seront capables d’extraire le pays. Il n’y a en outre aucune idéologie, aucun nationalisme extrême, sur lequel le système autarcique peut se construire. Dans les années vingt, les Bolchéviks avaient une idéologie qui les amena en définitive à accepter l’autarcie et à se débrouiller avec elle. Une telle idéologie n’existe pas dans la Russie capitaliste d’aujourd’hui. Pourtant, le débat autour de l’industrialisation des années vingt peut devenir à nouveau une littérature indispensable pour l’élaboration de la politique économique. »

Branko Milanovic, « When autarky becomes the only solution », in globalinequality (blog), 13 avril 2018. Traduit par Martin Anota

samedi 14 avril 2018

Mondialisation : DeLong versus Krugman

« (…) Paul Krugman a publié un nouvel essai dans lequel il présente ce qui semble être une nouvelle croyance conventionnelle à propos de la récente histoire de la mondialisation. En voici certains extraits :

"Durant les années quatre-vingt-dix, plusieurs économistes, notamment moi-même… ont essayé d’évaluer le rôle des effets de type Stolper-Samuelson sur l’accroissement des inégalités… (Ces analyses) ont généralement suggéré que l’effet (de l’égalisation des prix des facteurs dans le sillage de la mondialisation) a été relativement modeste et n’a pas été le facteur central dans le creusement des inégalités de revenus. (...)"

"Le fait fondamental au milieu des années quatre-vingt-dix était que les importations de biens manufacturés en provenance de pays en développement ne représentaient que 2 % du PIB… Cela n’était pas assez pour provoquer davantage qu’une variation de quelques pourcents des salaires relatifs… (...)"

"Avec le recul, cependant, il apparaît que les flux commerciaux au début des années quatre-vingt-dix ont juste été le début de quelque chose de bien plus massif… Jusqu’à la fin des années quatre-vingt-dix, l’emploi dans l’industrie manufacturière voyait certes sa part dans l’emploi total diminuer, mais il était resté plus ou moins stable en termes absolus. Mais l’emploi manufacturier chuta fortement après 1997 et ce déclin a correspondu à une forte hausse du déficit (commercial) hors produits pétroliers, d’environ 2,5 % du PIB. (...)"

"Est-ce que la hausse du déficit commercial explique la chute de l’emploi ? Oui, dans une large mesure … (Une) estimation raisonnable est que la hausse du déficit (commercial)… explique plus de la moitié du déclin de 20 % de l’emploi manufacturier entre 1997 et 2005… (La hausse des) importations exposa certains travailleurs américains à un choc significatif… (...)"

"Le consensus des années quatre-vingt-dix s’est cependant finalement ramené à se demander comment la croissance du commerce a affecté les revenus de l’ensemble des travailleurs, et non des travailleurs dans des secteurs ou communautés en particulier. Cela a été, je le crois, une erreur, une erreur que j’ai moi-même commise… (...)"

"C’est là que la désormais fameuse analyse du 'choc chinois' d’Autor, Dorn et Hanson (2013) entre en scène… Les effets de la croissance rapide des importations sur les marchés du travail locaux… ont été larges et durables… (...)"

"Donc est que cela signifie… qu’une guerre commerciale serait dans l’intérêt des travailleurs qui ont été nui par la mondialisation ? La réponse est, comme vous pouvez l’imaginer, non…Le changement rapide semble être désormais derrière nous : plusieurs indicateurs suggèrent que l’hypermondialisation a été un événement unique et que le commerce s’est plus ou moins stabilisé relativement au PIB mondial (...)"

"Donc, alors que le consensus des années quatre-vingt-dix sur les effets de la mondialisation n’a pas très bien réussi l’épreuve du temps, on peut l’accepter sans pour autant plaider pour le protectionnisme aujourd’hui. Nous aurions pu faire les choses différemment si nous avions sur ce qui allait arriver, mais ce n’est pas une bonne raison pour faire marche arrière. (...)"

En d’autres mots, la nouvelle croyance conventionnelle sur le commerce et la mondialisation peut se résumer ainsi :

1. Le commerce était plutôt bien jusqu’à la fin des années quatre-vingt-dix, voire les années deux mille ;

2. Le choc chinois a été sans précédents et a nui à de nombreux travailleurs aux Etats-Unis et dans d’autres pays riches ;

3. Maintenaient, le choc chinois est fini et une guerre commerciale serait une mauvaise nouvelle.

C’est ce que j’ai pu dire dans plusieurs articles que j’ai publiés dans Bloomberg.

Brad DeLong n’est pas d’accord. Il a publié un long essai où il affirme que les effets supposés négatifs de la mondialisation dans les années deux mille s’expliquent entièrement par une mauvaise politique macroéconomique. (…)

DeLong : "Je pense que du début des années soixante-dix au milieu des années quatre-vingt-dix, le commerce international, du moins à travers les canaux Heckscher-Ohlin, ne firent pas pression à la baisse sur les salaires des américains 'non qualifiés' et 'semi-qualifiés'… Du début des années soixante-dix au milieu des années quatre-vingt-dix, les niveaux de salaires relatifs des pays exportant alors le plus de biens manufacturés vers les Etats-Unis augmentaient plus rapidement que ceux des nouveaux pays à faibles salaires exportant des biens manufacturés vers les Etats-Unis. Le travailleur typique de l’industrie américaine faisait face à moins de concurrence à l’importation de la part des pays à faible salaire des importations au milieu des années quatre-vingt-dix qu’ils n’en faisaient face au début des années soixante-dix."

DeLong pense que cela contredit Krugman, mais je ne pense pas que ce soit le cas. Krugman considère seulement la dernière partie, en l’occurrence l’addition de nouveaux partenaires à l’échange à faibles salaires (et un tel effet, même considéré de façon isolée, s’est révélé faible). Je pense que Krugman serait d’accord avec DeLong à l’idée que l’introduction de barrières commerciales qui auraient empêché l’entrée de nouveaux partenaires à l’échange à faibles salaires dans le système commercial mondial des années soixante-dix, quatre-vingt et quatre-vingt-dix aurait eu des effets nets négatifs qui auraient compensé tout effet Stolper-Samuelson positif.

DeLong : "Nous aurions pu protéger Detroit et Pittsburgh des conséquences de leurs échecs managériaux et technologiques, mais cela l’aurait été à un prix énorme pour le reste de l’économie, un très défavorable arbitrage coûts-bénéfices."

En fait, les Etats-Unis en ont fait beaucoup pour essayer de protéger Detroit et Pittsburgh. Nous avons cherché à faire apprécier le yen et avons mis en place mis en place des mesures d’autolimitation des exportations et nous avons adopté diverses mesures protectionnistes à l’encontre de l’acier européen. Les mesures protectionnistes n’ont probablement pas vraiment aidé les constructeurs automobile et l’acier américains, ni leurs travailleurs, à long terme. Mais il est possible que ces mesures aient incité le Japon à construire des usines automobile aux Etats-Unis. La plupart des voitures japonaises vendues aux Etats-Unis sont désormais fabriquées aux Etats-Unis, ce qui a soutenu plusieurs emplois dans le secteur manufacturier.

De plus, DeLong néglige l’éventualité que les dépenses de recherche américaines (censées constituer une mesure de politique industrielle protectionniste) aient mené à des externalités positives qui ont aidé le secteur technologique américain à réussir comme il le fait aujourd’hui. Nous avons tendance à penser l’importance du secteur manufacturier en ayant en tête les emplois semi-qualifiés des cols bleus des années cinquante, mais je pense que cette perspective est réductrice. Il y a plusieurs raisons qui nous amènent à désirer à ce que l’industrie manufacturière à forte valeur ajoutée reste aux Etats-Unis et qui n’ont rien à voir avec l’emploi au sein des usines ; elle génère des multiplicateurs locaux, elle crée des produits qui sont faciles à exporter et elle peut avoir un effet bénéfique sur la croissance globale de la productivité de l’économie.

DeLong : "La venue de l''hypermondialisation' a accru les opportunités des travailleurs américains ayant peu d’éducation pour trouver des emplois où leurs qualifications, leur expérience et leur savoir tacite pouvaient être déployés de façon très productive."

Pour les travailleurs du secteur manufacturier, cela semble être directement contredit par l’article d’Autor et alii sur le "choc chinois", qui montre que les travailleurs exposés aux importations chinoises ont eu tendance à connaître par la suite des revenus bien plus faibles. (Autor et alii affirment aussi que le choc chinois a eu des effets négatifs sur l’emploi agrégé, bien que cette affirmation dépende étroitement de leur modèle et que ce dernier ne soit pas robuste sur ce point.) En tout cas, l’affirmation de DeLong selon laquelle la mondialisation des années deux mille a globalement amélioré la productivité pour les travailleurs américains doit être vérifiée empiriquement. Il y a des articles qui suggèrent que la concurrence chinoise à l’importation a encouragé l’innovation américaine, mais cela ne soutient pas nécessairement l’histoire d’une réallocation des travailleurs qui aurait été bénéfique à ces derniers.

DeLong : "Ce que l’'hypermondialisation' a fait, c’est fournir aux 1 % et 0,1 % les plus riches un autre levier pour éroder l’ordre du travail Dunlopien, casser le Traité de Détroit et redistribuer le produit commun partagé de la production de masse (…) vers le sommet de la répartition des revenus. Mais il y a eu bien d’autres leviers aux Etats-Unis depuis les années soixante-dix. Et l’« hypermondialisation », telle que je la vois, a été l’un des plus faibles et des plus brefs d’entre eux."

C’est une autre affirmation qui doit être confirmée par les données empiriques. Il est vrai que la syndicalisation a commencé à décliner aux Etats-Unis avant que la mondialisation ou l’hypermondialisation s’amorce réellement. Mais il est aussi possible que les Etats-Unis aient affaibli leurs lois en faveur des syndicats et la bonne application des lois en raison de la crainte que les exigences syndicales en matière de salaire tuent la compétitivité américaine face à l’accroissement de la concurrence à l’importation.

Surtout, en exonérant la mondialisation de la responsabilité de la hausse des inégalités, DeLong ignore les preuves internationales. (…) Il semble peu probable que le fondamentalisme de marché et la ploutocratie aient été de si puissants virus cérébraux ou mouvements politiques qu’ils aient simultanément triomphé non seulement aux Etats-Unis, mais aussi en Suède, au Danemark, en France, en Allemagne et au Japon.

La nature mondiale de l’accroissement des inégalités que l’on observe dans de nombreux pays pourtant caractérisés par des régimes de politique divers implique qu’il y a quelque chose de mondial (une certaine combinaison de commerce et de technologie) qui a joué. Pour écarter le commerce de l’équation et faire porter le blâme principalement ou totalement à la technologie semble suspect, du moins sans solides preuves empiriques. Ayant lu beaucoup d’articles sur le sujet, j’estime qu’il y a peu de consensus.

DeLong : « De plus, du point de vue du pays dans son ensemble et du point de vue de plusieurs des communautés affectées, le choc chinois n’a pas été quelque chose de très important pour les marchés du travail locaux. Oui, les gens n’achètent plus plusieurs produits sortant des usines américaines parce qu’ils préfèrent les importations chinoises. Mais ceux qui vendent ces importations (…) dépensent leurs dollars en investissant aux Etats-Unis : en finançant les achats du gouvernement, les infrastructures, une partie des investissements des entreprises et l’immobilier. (…) Les dollars ne sont pas utilisés en-dehors des Etats-Unis et ainsi le flux de dollars doit aller quelque part et, aussi longtemps que la Fed fait son boulot et permet à ce que la loi de Say soit plutôt vérifiée en pratique, c’est une redistribution de la demande de travail et non une baisse de la demande de travail.

L’idée ici est que les déficits commerciaux impliquent un accroissement des investissements financiers étrangers aux Etats-Unis, parce qu’un déficit commercial est compensé par un déficit du compte courant. Mais une hausse dans l’investissement de portefeuille étranger n’implique pas forcément une fausse de l’investissement des entreprises ou du gouvernement (dans des choses comme l’infrastructure ou l’immobilier). En fait, si un déficit commercial correspond à une baisse de l’épargne nationale (comme ce fut le cas dans les années deux mille, durant l’"hypermondialisation"), alors l’investissement des entreprises et du gouvernement aux Etats-Unis va diminuer et non pas augmenter. Plus généralement, l’idée selon laquelle l’investissement réel est sensible au coût du capital est assez suspecte. Certains affirment que le coût du capital importe beaucoup, mais les preuves empiriques suggérant une telle chose sont assez fragiles.

DeLong : "Et voilà où le bât blesse, selon moi : Les types de personnes et les types d’emplois financés par les importations du choc chinois semblent semblables aux types de personnes et aux types d’emplois affectés dans le secteur manufacturier. Oui, certains marchés du travail locaux ont subi un choc négatif énorme et durable dans le secteur manufacturier, souvent substantiellement compensé par une stimulation de la construction. D’autres marchés du travail locaux ont bénéficié d’un choc positif substantiel et durable dans le secteur de la construction. Et au niveau du pays dans son ensemble, (…) les cols bleus semi-qualifiés ne me semblent pas avoir vu leur situation se dégrader."

A nouveau, l’idée que les travailleurs du secteur manufacturier qui perdirent des emplois retrouvèrent des emplois aussi bons dans d’autres secteurs (comme la construction) se voit directement contredite par l’étude d’Autor. En fait, la suppression des emplois, quelle qu’elle soit, semble affecter l’ensemble des revenus gagnés par la suite.

Comme pour les cols bleus semi-qualifiés qui ont été négativement affectés ou non, il est certain que les salaires et revenus aux plus bas quintiles de la répartition ont stagné durant les années deux mille, avant de prendre les transferts en compte. Autor et ses coauteurs n’ont pas prouvé que la Chine était le principal coupable derrière cette stagnation des salaires, mais d’autres ne l’ont pas non plus innocenté. Krugman, pour sa part, semble se contenter d’affirmer que ce fut l’une des causes significatives. Cela ne fait pas sens de l’ignorer quantitativement tant que nous n’avons pas de meilleures analyses empiriques sur le sujet.

DeLong : "Et cela m’amène à mon cinquième conflit avec Paul Krugman. Selon moi, la chose la plus importante que nous n’avons pas vue à propos de la mondialisation a été à quel point elle nécessitait d’être soutenue par un plein emploi stable et continu."

Si la mondialisation accroît les coûts de l’austérité budgétaire et des resserrements monétaires, cela semble marquer un point contre elle, même si vous êtes totalement opposés à l’austérité et aux resserrements monétaires. La politique est stochastique. De mauvais dirigeants sont élus, des responsables égoïstes sont nommés et des gens font des erreurs. Tout ce qui fragilise l’économie dans un contexte de politique aléatoirement mauvaise impose un coût sur l’économie, puisque nous ne pouvons jamais compter sur l’adoption de mesures qui soient totalement efficaces.

Ainsi, je suis d’accord avec DeLong sur plusieurs questions ici. Il est important d’avoir de bonnes politiques budgétaire et monétaire contracycliques. Les crises financières alimentées par la déréglementation et la mauvaise réaction des décideurs politiques à leur encontre sont plus effrayants que la mondialisation. Les effets négatifs, bien visibles, de la mondialisation ne doivent pas nous faire oublier ses effets positifs, mais difficiles à mesurer. (...) »

Noah Smith, « DeLong vs. Krugman on globalization », in Noahpinion (blog), 1er avril. Traduit par Martin Anota



aller plus loin...

« Mondialisation versus technologie »

« La concurrence chinoise et le déclin de l’emploi américain »

« Quel est l’impact de la concurrence chinoise sur l’emploi et les salaires en France ? »

mardi 10 avril 2018

Les relations entre concurrence, concentration et innovation

« Le lien théorique entre concurrence et innovation est complexe. Les premiers travaux dans le cadre de la croissance endogène soulignèrent un "effet de rente" (rent effect) schumpétérien, à travers lequel une baisse de la concurrence sur le marché accroît les rentes après innovation pour l’entreprise en place, ce qui accroît les incitations à innover. Les travaux postérieurs ont souligné l’importance d’une force additionnelle, en l’occurrence l’effet de "fuite face à la concurrence" (escape competition effect) : si la pression concurrentielle est trop faible et que les profits sont déjà élevés, l’entreprise sera peu incitée à accentuer ses efforts dans l’innovation. Dans le contexte international, les effets de rente et de fuite face à la concurrence ont une interprétation plus large. Par exemple, une réduction des barrières au commerce international permettent aux innovations d’extraire de plus grandes rentes, comme la taille du marché sur lequel ils opèrent est plus grande. Au même instant, les pressions générées par la masse de concurrents potentiels s’accroît, dans la mesure où les firmes étrangères contribuent à générer de telles pressions (Akcigit et alii, 2017).

La littérature empirique décèle certaines de ces forces conflictuelles. Par exemple, les politiques qui accroissent la concurrence sur le marché des produits semblent stimuler l’innovation, mais jusqu’à un certain niveau, niveau au-delà duquel leur poursuite conduit à une baisse de l’innovation (Aghion et alii, 2005). Divers travaux ont récemment examiné comment les taux d’innovation dans les pays développés ont été affectés par les plus forces pressions concurrentielles générées par la mondialisation et l’intégration de la Chine dans le commerce mondial. L’effet sur l’innovation semble positif en Europe et négatif aux Etats-Unis (Autor et alii, 2016 ; Bloom, Draca et Van Reenen, 2016). La concurrence sur le marché des produits semble fortement interagir avec le degré de protection des droits de propriété intellectuelle, un autre déterminant des rentes des innovateurs. Par exemple, certaines données suggèrent qu’une plus forte concurrence sur le marché des produits n’est associée à un surcroît d’innovations que lorsque les droits de propriété intellectuelle sont fortement protégés (Aghion, Howitt et Prantl, 2015). Cependant, si une forte protection incite les multinationales à transférer des technologies d’un pays à l’autre, elle réduit l’innovation dans d’autres contextes (Williams, 2013 ; Bilir, 2014).

Beaucoup de travaux se focalisent sur le degré de concentration sur le marché des produits au niveau sectoriel, en utilisant souvent l’indice Herfindahl-Hirschman ou le ratio de concentration (la part des ventes du secteur que réalisent les quatre plus grandes entreprises de ce secteur). Théoriquement, une plus forte concentration pourrait être cohérente avec de plus fortes pressions concurrentielles (et peut-être aussi une plus forte innovation), par exemple si les entreprises innovantes "superstars" étaient susceptibles d’apparaître dans les marchés les plus concurrentiels (Autor et alii, 2017). Cependant, certaines données suggèrent que l’accentuation de la concentration aux Etats-Unis est en partie liée à l’effritement de la concurrence (Grullon, Larkin et Michaely, 2017 ; Gutierrez et Philippon, 2017). Une dernière observation cruciale est que les tendances en termes de concentration sont sensibles à la définition du marché pertinent. Par exemple, si la concentration s’accroît dans certains grands pays, la concentration mondiale semble décliner, en raison du rôle accru que jouent les entreprises des pays émergents sur les marchés internationaux (Freund et Sidhu, 2017). »

Roberto Piazza (2018), « Relationship between competition, concentration, and innovation », in FMI, World Economic Outlook, chapitre 4, avril 2018. Traduit par Martin Anota



aller plus loin... lire « Le paradigme néo-schumpétérien de la croissance »

samedi 7 avril 2018

Quelles sont les répercussions macroéconomiques des variations du taux de change ?

« Les effets macroéconomiques des variations du taux de change font depuis longtemps l’objet de débats en économie internationale. Traditionnellement, les commentaires se sont essentiellement focalisés sur la relation entre le taux de change effectif et le solde commercial. Cependant, le processus de globalisation financière a entraîné un fort accroissement des positions en actifs et passifs étrangers, mais aussi une plus grande dispersion des positions en devises étrangères, plusieurs pays constituant soit de larges créanciers nets, soit de larges débiteurs en devises étrangères. Cette évolution a amené les économistes à ne peut considérer le solde commercial et à élargir la focale pour prendre en compte les bilans externes des pays. Cette note passe brièvement en revue la littérature sur l’impact macroéconomique des variations du taux de change.

On peut considérer le taux de change et l’économie réelle d’un pays comme étant sous l’influence de forces communes, comme la politique monétaire domestique et les politiques monétaires étrangères ou encore la demande domestique et la demande étrangère. Si, par exemple, la politique monétaire domestique est restrictive, cela doit avoir des effets récessifs sur la production et entraîner une appréciation du taux de change. Mais est-ce que l’appréciation amplifie ou atténue (ceteris paribus) l’effet initial du resserrement monétaire sur l’économie réelle ? Ou, plus généralement : comment les variations du taux de change affectent l’économie ?

Traditionnellement, les économistes se sont focalisés sur le solde commercial


Traditionnellement, la discussion s’est focalisée sur l’effet que le taux de change effectif peut exercer sur le PIB via le solde commercial (c’est-à-dire le canal du commerce). La croyance conventionnelle en macroéconomie ouverte est que, toute chose égale par ailleurs, une appréciation du taux de change effectif a des effets récessifs sur l’activité en raison d’une chute des exportations nettes. Cette conclusion se base de la « condition Marshall-Lerner ». En s’appuyant sur cette condition, Mundell (1963) et Fleming (1962) ont étendu le cadre analytique du modèle IS-LM classique en introduisant un environnement en économie ouverte pour capturer la relation entre une petite économie ouverte et le reste du monde.

La mécanique du modèle va comme suit : une hausse de l’activité économique domestique, disons en raison d’une relance budgétaire, entraîne une hausse de la demande de liquidité, ce qui pousse le taux d’intérêt domestique au-dessus du taux d’intérêt mondial. Si la mobilité des capitaux est imparfaite, les épargnants étrangers placent des capitaux dans la petite économie ouverte pour profiter des écarts de taux d’intérêt et, par conséquent, la devise domestique s’apprécie. Cette appréciation va accroître le prix des biens exportés et réduire celui des biens importés, ce qui entraîne au final une baisse des exportations nettes et, donc, une chute de la production.

… mais il y a aussi des effets de second tour bénéfiques pour la croissance


Cependant, une appréciation peut aussi stimuler l’activité via le canal du commerce si la condition Marshall-Lerner n’est pas vérifiée. Par exemple, l’offre globale peut augmenter grâce à la chute du prix des biens intermédiaires qui sont importés. Si ces effets sont plus forts que la baisse des exportations, l’effet global d’une appréciation sera expansionniste. Kim et Ying (2007) discutent de ce cas et présentent certaines preuves empiriques allant dans ce sens pour les pays d’Amérique latine.

Analyses empiriques et modification du modèle de base


Cette approche classique visant à comprendre l’impact macroéconomique des variations du taux de change a fait l’objet de nombreuses études empiriques. Kim et Ying (2007) ont étudié la relation entre la croissance économique et l’appréciation de la devise et constaté que les dévaluations semblent avoir eu de puissants effets expansionnistes dans les pays d’Asie de l’est. Dans cette lignée, Bussière, Lopez et Tille (2014) ont aussi trouvé des preuves empiriques suggérant que l’appréciation a un impact négatif sur la croissance. De même, Kappler et ses coauteurs (2013) ont constaté que les exportations nettes et la production tendent à chuter suite à d’amples appréciations du taux de change pour un large ensemble de pays. De plus, les investigations empiriques portant sur des pays spécifique qu’ont réalisées Huh (1999) et Razzaque et ses coauteurs (2017) confirment aussi les implications du modèle Mundell-Fleming pour les économies australienne et bangladaise.

Avec la mondialisation financière, les positions en devises étrangères jouent un rôle crucial


Cependant, les économies ne sont pas liées les unes aux autres par les seuls flux commerciaux. En l’occurrence, au cours des deux dernières décennies, le processus de globalisation financière s’est traduit par une forte hausse des positions en actifs et passifs étrangers des pays, mais aussi par une plus grande dispersion dans les positions en devises étrangères, plusieurs pays étant soit de larges créanciers nets, soit de larges débiteurs nets en devises étrangères. En outre, les flux de portefeuille des Etats-Unis vers les pays émergents se sont rapidement accrus, en particulier au cours des années deux mille. Cela a amené les économistes à déplacer leur focale du solde commerciale vers les bilans externes des pays.

Blanchard et ses coauteurs (2015) se sont penchés sur la mondialisation financière en étudiant les effets de différents types de flux de capitaux sur le taux de change et la croissance. Ils affirment que la nature des entrées de capitaux dans le cas des appréciations est cruciale pour leurs effets économiques globaux. Dans leur modèle, les entrées de capitaux en obligations sont toujours récessives dans la mesure où elles entraînent juste une appréciation de la devise, ce qui se traduit alors par une baisse des exportations nettes. A l’inverse, les investissements étrangers hors obligations peuvent réduire leurs taux et donc réduire le coût de l’intermédiation financière, ce qui mène à un boom du crédit. Cet effet expansionniste sur la production peut dominer l’effet récessif résultant de l’appréciation associée à l’entrée initiale de capitaux. Cette évaluation théorique est soutenue par des estimations analysant un échantillon de pays émergents. L’impact macroéconomique des variations du taux de change via l’exposition aux devises étrangères est important pour les pays émergents. Comme l’ont notamment constaté Lane et Shambaugh (2010) et Bénétrix et ses coauteurs (2015), après la crise financière asiatique, les pays émergents ont commencé à améliorer leurs positions nettes en devises étrangères, principalement en raison de leurs excédents de compte courant et en augmentant le poids des actions, au détriment des obligations, dans leurs passifs. En 2004, les pays émergents étaient en moyenne détenteurs nets en devises étrangères, ce qui indique qu’une appréciation du taux de change peut avoir des effets récessifs sur l’économie domestique dans la mesure où la valeur des actifs étrangers diminue. Donc, une dépréciation du taux de change peut être expansionniste. Georgiadis et Mehl (2015), par exemple, constatent que l’effet des assouplissements monétaires domestiques, qui déclenchent une dépréciation du taux de change, est amplifié dans les pays avec une plus large position nette en devises étrangères. L’amélioration globale dans l’exposition nette en devises, cependant, masque souvent une hétérogénéité significative entre les secteurs. Si les gouvernements et les banques centrales dans les pays émergents ont de plus en plus accumulé des réserves de change, le secteur des entreprises reste souvent en large débiteur en devises étrangères, en particulier en dollars américains. McCauley et ses coauteurs (2015) estiment que le stock de dette libellée en dollar détenu par les agents non bancaires dans les pays émergents s’élevait à 3.300 milliards de dollars en mars 2015. Cette dette libellée en dollar est souvent adossée par des actifs et flux de trésorerie en devise locale, créant une asymétrie en termes de devises dans les bilans des entreprises.

De même, Bruno et Shin (2015) et Hofmann et ses coauteurs (2016) affirment que si une telle asymétrie dans le secteur privé existe, les variations du taux de change bilatéral du dollar américain peut affecter les conditions financières dans les pays émergents, via le « canal de la prise de risque » (risk-taking channel) : quand la devise locale s’apprécie vis-à-vis du dollar, les bilans des emprunteurs semblent plus robustes, ce qui améliore leur solvabilité. Les créanciers sont alors plus enclins à prêter davantage (…) et l’offre de crédit augmente, ce qui affecte directement les conditions financières. Donc, les entreprises débitrices font face à de meilleures conditions de crédit. L’amélioration des conditions de financement stimule l’investissement et exerce des effets expansionnistes sur l’économie domestique et améliore même la position budgétaire du gouvernement. Hofmann et ses coauteurs (2016) constatent qu’une appréciation de la devise vis-à-vis du dollar américain est associée à un assouplissement des conditions financières et à une hausse des afflux de portefeuille dans les fonds obligataires souverains des pays émergents. De plus, Bruno et Shin (2015) constatent, en étudiant les pays développés et les pays émergents, qu’une appréciation vis-à-vis du dollar est associée à une hausse des flux bancaires au cours du trimestre suivant.

Que disent les données empiriques internationales ? Effets commerciaux versus effets financiers


Kearns et Patel (2016) distinguent le canal commercial (tel qu’il apparaît dans la vision traditionnelle) du canal de la prise de risque en comparant les effets des variations des taux de change pondérés en fonction des échanges ou de la dette sur l’économie. Les données suggèrent que le canal de la prise de risque peut significativement être plus important que le canal commercial pour les pays émergents et que la magnitude du canal de la prise de risque est plus forte pour les pays émergents fortement endettés en devises étrangères. D’un autre côté, ils constatent que le canal commercial domine dans les pays développés. De plus, ils montrent que le canal de la prise de risque est particulièrement fort pour l’investissement, tandis que l’effet sur la consommation est négligeable. Ce résultat est confirmé par Avdjiev et ses coauteurs (2018) dont les constats suggèrent que le canal de la prise de risque domine le canal commercial pour les pays émergents. (…) »

Pablo Anaya, « The macroeconomic effects of exchange rate movements », in DIW Roundup, 20 février 2018. Traduit par Martin Anota

jeudi 5 avril 2018

Les guerres commerciales, les actifs épaves et le marché boursier

« A l’instant où j’écris ceci, l’annonce par la Chine de tarifs douaniers en représailles à ceux annoncés par les Etats-Unis a alimenté les craintes d’une guerre commerciale et provoqué un plongeon des futures sur actions. (…) Pourquoi une telle chute ? (…) Les cours boursiers fluctuent pour diverses raisons, voire pour aucune raison du tout. Et, comme l’a dit Paul Samuelson, le marché a prévu neuf des cinq dernières récessions. Il est aussi possible que la guerre commerciale envoie un signal : Trump, Navarro et leurs acolytes confirment qu’ils sont aussi déséquilibrés et irresponsables qu’ils le paraissent, et les marchés en prennent conscience. Imaginez comment ces gens géreraient une crise financière.

Pourtant, je pense qu’il faut bien souligner que même si nous étions sur le point de connaître une véritable guerre commerciale à grande échelle, les estimations conventionnelles des coûts d’une telle guerre ne se rapprochent pas des 10 % du PIB, ni même des 6 %. En fait, et c’est l’un des sales petits secrets de l’économie internationale, les estimations standards du coût du protectionnisme ne sont certes pas triviaux, mais ils ne sont pas non plus titanesques. (…)

Les coûts du protectionnisme, selon la théorie économique conventionnelle (…) découlent du fait qu’elle amène l’économie à délaisser les choses qu’elle sait relativement bien faire pour des choses qu’elle ne sait pas très bien faire. Les travailleurs américains peuvent confectionner des vêtements, au lieu de les importer du Bangladesh ; en fait, ils pourraient produire davantage de pyjamas par heure travaillée que ne le font les Bangladais. Mais notre avantage en termes de productivité est bien plus élevé dans d’autres productions, donc il y a un gain d’efficacité pour les deux économies à ce que chacune d’entre elles se concentre sur les choses qu’elle sait faire le mieux.

Et une guerre commerciale, en imposant des coûts artificiels tels que des tarifs douaniers sur le commerce international, défait cette spécialisation productive, rendant chacun moins efficace.

Nous pouvons, avec certaines hypothèses héroïques, mettre des chiffres sur le genre de coûts dont il est question. (…)

Sur le graphique, la courbe décroissante représente la demande de biens importés comme fonction de leur prix, mesuré relativement au prix des biens domestiques. Dans le libre-échange, nous importons tout ce qui coûte moins cher à produire à l’étranger que chez nous. Si nous imposons un tarif douanier, nous finissons par ne pas importer de choses à moins que le prix de l’importation soit suffisamment faible pour qu’il demeure le plus faible même avec le tarif douanier. Le bien marginal que nous importons, alors, est en fait moins cher qu’un produit domestique et le bien marginal que nous n’importons pas coûte cher à l’économie, en l’occurrence le tarif douanier que nous aurions payé si nous l’avions importé.

Paul_Krugman__droits_de_douane__actifs_epaves_et_marche_boursier.png

Imaginons que le tarif augmente progressivement : à chaque accroissement, nous imposons à l’économie des coûts égaux au coût supplémentaire qu’entraîne le remplacement d’une importation par un produit domestique. Les coûts totaux du tarif douanier sont représentés par l’aire du triangle : la réduction des importations provoquée par le tarif douanier, multipliée par (grosso modo) la moitié du tarif douanier.

(Certains se demandent peut-être ce qui se passe du côté des exportations. En fait, elles sont implicitement incluses dans cette estimation. Faites-moi confiance.)

Donc, que ferait une guerre commerciale ? Supposons que les Etats-Unis instaurent des droits de douane de 30 % sur les importations et que les pays visés répliquent en faisant de même, il n’y aurait pas d’amélioration des termes de l’échange des Etats-Unis (…). De combien les échanges s’en trouveraient-ils réduits ? Cela dépend de l’élasticité de la demande d’importations ; il semble raisonnable d’avancer un chiffre d’environ autour de 4. Cela signifierait une chute des importations de 15 % du PIB à environ 5 %, soit une réduction de 10 points de pourcentage. Et cela se traduirait par une réduction du revenu réel aux Etats-Unis de 1,5 %.

Evidemment, c’est juste un calcul illustratif ; j’ai essayé d’utiliser des chiffres raisonnables, mais il ne faut pas que vous y prêtiez trop d’importance. Mais ce que cela suggère, c’est que même une guerre commerciale qui inverserait drastiquement la mondialisation n’imposerait à l’économie des coûts comparables aux genres de mouvements que nous avons vus dans les cours boursiers.

Mais les coûts pour l’économie dans son ensemble peuvent ne pas être un bon indicateur des coûts pour les actifs d’entreprise existants.

Depuis environ 1990, les entreprises américaines se sont beaucoup appuyées sur l’hypermondialisation, sur l’approfondissement d’un régime de marché ouvert qui a encouragé la création de chaînes de valeur et leur développement autour du globe. Le notebook sur lequel j’écris a été conçu en Californie, mais il a probablement été assemblé en Chine, alors même que beaucoup de ses composants viennent de Corée du Sud et du Japon. Apple peut le produire entièrement en Amérique du nord et le ferait probablement si les tarifs douaniers s’élevaient à 30 %. Mais les usines qu’il faudrait pour le faire n’existent pas (encore).

Entretemps, les usines qui existent ont été construites pour assurer une production mondialisée et plusieurs d’entre elles seraient marginalisées et peut-être même abandonnées avec l’introduction de tarifs douaniers qui disloqueraient ces chaînes de valeur mondiales. Elles deviendraient des actifs épaves. Appelons cela le "choc anti-Chine".

Bien sûr, il s’agirait juste d’usines laissées à l’abandon par une guerre commerciale. Beaucoup de personnes seraient également laissées à l’abandon. Ce que soulignait le fameux article d’Autor et alii sur le "choc chinois" n’est pas que la croissance rapide des échanges a appauvri les Etats-Unis dans leur ensemble, mais que les changements rapides dans la localisation de la production ont déplacé un nombre significatif de travailleurs, les exposant à d’innombrables problèmes personnels et déchirant leur communauté. L’ironie est qu’un choc anti-Chine ferait exactement la même chose. Et, pour ma part, je m’inquiète bien plus de l’impact sur les travailleurs que sur le capital. (…) »

Paul Krugman, « Trade wars, stranded assets, and the stock market », 4 avril 2018. Traduit par Martin Anota

mardi 3 avril 2018

Le discours présidentiel de Friedman, 50 ans après

« En mars 1968, l’article “The role of monetary policy” de Milton Friedman (reprenant son allocution présidentielle à l’American Economic Association) a été publié dans l’American Economic Review.. Cinquante ans après, les économistes se penchent à nouveau sur ce célèbre article.

Gregory Mankiw et Ricardo Reis soulignent que les anticipations, le long terme, la courbe de Phillips et les potentiel et limites de la politique monétaire sont toujours des sujets de recherche très actifs. Dans un futur proche, il se pourrait que la faible croissance économique que l’on a connue depuis la récession de 2008-2009 amène à un réexamen de l’hypothèse du taux de chômage naturel de Friedman. A ce point, l’explication la plus simple est que cette stagnation est due à un ralentissement de la productivité qui n’est pas lié au cycle d’affaires. Il se peut aussi, cependant, que cette faible croissance contredise la vision classique du long terme de Friedman, que ce soit via les effets d’hystérèse ou via l’insuffisance chronique de demande globale. De futurs travaux peuvent très bien confirmer la vision de Friedman et se tourner vers la formation des anticipations pour une meilleure compréhension de la courbe de Phillips, visant à un meilleur modèle de référence de ce qui pourrait remplacer tant les anticipations adaptatives que les anticipations rationnelles. Mankiw et Reis affirment que le rôle de la politique monétaire évolue actuellement et s’est éloigné des sujets que Friedman a développés dans son allocution présidentielle. L’avenir promet des progrès dans quatre domaines : l’interaction entre les politiques budgétaire et monétaire, le rôle des réserves bancaires, les taux d’intérêt proches de zéro et la stabilité financière.

Olivier Blanchard s’est demandé si nous devons rejeter l’hypothèse de taux de chômage naturel. L’hypothèse a certes été controversée à l’époque, mais elle a vite été acceptée par une majorité et constitue le paradigme dominant en macroéconomie depuis lors. Elle est partie intégrante dans la réflexion et les modèles utilisés par les banques centrales et elle fonde le cadre du ciblage d’inflation qu’utilisent la plupart des banques centrales aujourd’hui. Récemment, la crise financière mondiale et la récession qui en a résulté ont alimenté les débats autour du réalisme de cette hypothèse, et ce pour deux raisons. Premièrement, le niveau de la production apparaît avoir été irrévocablement affecté par la crise et la récession qui l’a suivie. Deuxièmement, à l’inverse de l’hypothèse accélérationniste, un chômage élevé n’entraîne pas une inflation de plus en plus faible, mais juste une inflation faible. Blanchard considère les preuves macroéconomiques et microéconomiques comme suggestives, mais pas concluantes, pour rejeter l’hypothèse du taux naturel. Les décideurs politiques doivent garder l’hypothèse de taux naturel comme leur hypothèse nulle, mais aussi garder l’esprit ouvert et considérer des alternatives.

Robert Hall et Thomas Sargent affirment que l’effet de court terme de l’allocution a été d’inciter beaucoup à vérifier l’affirmation de Friedman selon laquelle non seulement l’inflation anticipée importe pour l’inflation courante, elle importe aussi point par point dans la détermination de l’inflation courante. Dans la version alors existante de la courbe de Phillips, comme Friedman l’a souligné, la courbe de Phillips de long terme est devenue verticale et le taux de chômage (…) reste insensible aux choix de la banque centrale en matière d’inflation. A plus long terme, l’hypothèse de Friedman d’un déplacement point par point de la courbe de Phillips a été acceptée par de plus en plus d’économistes. L’idée plus générale que les variables réelles telles que le chômage, l’emploi et la production sont insensibles au régime monétaire commença à être acceptée et cette idée s’est généralisée au point de remplacer le concept de neutralité monétaire. Hall et Sargent croient que le principal message de Friedman, en l’occurrence l’hypothèse d’invariance à propos des résultats de long terme, a prévalu au cours du dernier demi-siècle parce qu’elle était confortée par des preuves relatives à plusieurs économies sur plusieurs années. Les travaux ultérieurs ont modifié les idées de Friedman relatives aux effets transitoires et n’ont pas été cléments avec la courbe de Phillips, mais Hall et Sargent affirment que l’hypothèse d’invariance a tenu bien, même si la courbe de Phillips n’a gardé la même place en tant qu’équation structurelle dans les modèles macroéconomiques.

John Cochrane a publié un long billet discutant de la contribution de Friedman, qui selon lui aurait pu avoir pour sous-titre « neutralité et non-neutralité » : la politique monétaire est neutre à long terme, mais pas à court terme. Mais ce que Friedman, l’empiriste, aurait dit aujourd’hui, après avoir vu le comportement sauvage de la vélocité de la monnaie lors des années 1980 et la stabilité surprenant de l’inflation à la borne zéro dans nos rétroviseurs ? Que penserait-il de l’idée de John Taylor selon laquelle varier les taux d’intérêt plus amplement que l’inflation, tout en restant dans le cadre qu’il posa, stabilise le niveau des prix en théorie et, apparemment, dans la pratique des années 1980 ? Cochrane pense que, malgré les événements ultérieurs, la conception de Friedman de la politique monétaire a eu une influence durable, même bien davantage que sa conception de la courbe de Phillips. L’idée selon laquelle les banques centrales sont toutes-puissantes, non seulement pour contrôler l’inflation, mais aussi en tant que principal instrument de gestion macroéconomique, est commune aujourd’hui, mais Friedman nous rappelle qu’elle ne l’a pas toujours été. Aujourd’hui, la Fed est créditée ou accusée d’être la principale cause derrière les variations des taux d’intérêt à long terme, des taux de change, des cours boursiers, des prix des matières premières et des prix de l’immobilier ; en outre, certains à l’intérieur et à l’extérieur de la Fed commencent à observer le taux d’activité, les inégalités et d’autres maux. (…) Cochrane pense que nous devrions prendre du recul et prendre comprendre que la Fed est bien moins puissante que ne le suggèrent tous ces commentaires.

Edward Nelson discute de sept erreurs commises à propos de l’article de Friedman : (1) "The Role of Monetary Policy" n’aurait pas été la première déclaration publique où Friedman a évoqué l’hypothèse du taux naturel ; (2) la courbe de Phillips à la Friedman-Phelps aurait déjà été présente dans l’analyse de Samuelson et Solow (1960) ; (3) la spécification de la courbe de Phillips de Friedman se baserait sur la concurrence parfaite et non sur les rigidités nominales ; (4) Le récit que Friedman (1968) a fait de la politique monétaire lors de la Grande Dépression contredirait celui de l’Histoire monétaire ; (5) Friedman (1968) aurait déclaré qu’une expansion monétaire maintiendrait le taux de chômage et le taux d’intérêt réel sous leurs taux naturels au cours des deux décennies suivantes ; (6) la borne inférieure zéro sur les taux d’intérêt nominaux invaliderait l’hypothèse de taux naturel ; (7) ce qu’a dit Friedman (1968) sur l’ancrage du taux d’intérêt aurait été réfuté par la révolution des anticipations rationnelles. Nelson explique pourquoi ces idées sont fausses et infère les aspects clés de l’analyse sous-jacente de Friedman (1968).

Scott Sumner attire l’attention sur la deuxième note de base de page dans l’article de Friedman de 1968, où il croit y voir Friedman anticiper les raisons pour lesquelles les cibles d’inflation ou du PIB nominal peuvent être supérieurs au ciblage de la monnaie. Sumner a publié un autre billet où il explique pourquoi remplacer le ciblage d’inflation par le ciblage du PIB nominal résoudrait de nombreux problèmes. La relation empirique que Friedman s’est rompue une décennie après la publication de son article : les récessions n’ont plus été précédées par des ralentissements brutaux de la croissance de M2. Sumner affirme que la rupture dans la relation empirique qui a amené Friedman à préconiser le ciblage de l’offre de monnaie contribue à expliquer pourquoi, plus tard dans sa vie, il a soutenu l’approche du ciblage d’inflation de Greenspan : Friedman était un pragmatique, donc lorsque les faits changeaient, il changeait d’avis.

David Glasner note que l’interprétation standard du raisonnement de Friedman est la suivante : puisque les tentatives visant à accroître la production et l’emploi par l’expansion monétaire sont vaines, la meilleure politique qu’une autorité monétaire doit poursuivre doit être une politique stable et prévisible qui maintient l’économie au plus proche de sa trajectoire de croissance optimale à long terme telle qu’elle est déterminée par des facteurs réels. Donc, la meilleure politique consisterait à trouver une règle claire et prévisible pour imposer aux autorités monétaires le comportement qu’elles doivent adopter, pour empêcher qu’une mauvaise gestion monétaire ne devienne par inadvertance une force déstabilisatrice écartant l’économie de sa trajectoire de croissance optimale. Au cours des cinquante ans qui ont suivi l’allocution de Friedman, ce message a été repris par les économistes monétaires et les banques centrales, ce qui a amené à un large consensus en faveur du ciblage d’inflation et, désormais, d’une cible d’inflation annuelle de 2 %. Mais cette interprétation, que Friedman a lui-même fait de son propre raisonnement, ne découle en fait pas de l’idée selon laquelle l’expansion monétaire ne peut affecter la trajectoire de croissance d’équilibre à long terme d’une économie. L’idée de la neutralité monétaire est un pur exercice de statique comparative, qui nous enseigne quelque chose, mais pas autant que Friedman et ses successeurs le pensaient. »

Silvia Merler, « Milton Friedman’s "The role of monetary policy" – 50 years later », in Bruegel (blog), 3 avril 2018. Traduit par Martin Anota



aller plus loin...

« Quel est l’héritage du discours présidentiel de Friedman ? »

« Le taux de chômage naturel, un concept suranné »

dimanche 1 avril 2018

Comment The Economist a décrit l’austérité depuis 1945



« "Aussi déplaisante soit-elle, la vérité est que l’austérité nous attend, qu’importe celui qui gagnera les élections et qu’importe ce que diront les partis d’ici là". C’est ainsi que The Economist a abordé l’état des finances publiques britanniques à la veille des élections générales de 2010. Il n’y avait tout simplement pas d’alternative à l’austérité et le secteur public du Royaume-Uni devait être mis "à une diète longue et sévère".

Comme les analystes du journalisme l’ont noté, c’est bien en présentant l’austérité comme nécessaire que les médias orthodoxes ont principalement décrit les baisses des dépenses publiques, les hausses d’impôts et les "réformes structurelles" visant à améliorer la compétitivité que les gouvernements de centre-gauche et de centre-droit ont mis en œuvre après la crise financière de 2007. Malgré les différences entre les diverses économies en Europe, l’austérité a été présentée comme le remède adéquat d’un bout à l’autre du continent

Pourtant, ce n’est pas une spécificité du journalisme contemporain. Comme je l’ai montré dans une récente étude, cette tendance à présenter l’austérité comme le remède inévitable aux maux économiques est caractéristique de la façon par laquelle The Economist a traité de l’austérité depuis la Seconde Guerre mondiale. Pour la Grande-Bretagne d’après-guerre, l’austérité constituait un remède terrible, mais nécessaire, pour répondre aux troubles économiques que connaissait une nation sortant du conflit. The Economist voyait l’austérité (sous la forme du rationnement) comme nécessaire pour résorber le déficit de la balance des paiements et combattre l’inflation. Les circonstances économiques ne laissaient aucune place pour une quelconque alternative, affirmait The Economist, même si l’idée même d’un Etat interférant avec les transactions de marché contredisait l’histoire du magazine.

De façon similaire, The Economist voyait l’austérité comme indissociable du développement naturel de la France au début des années quatre-vingt. Le président socialiste François Mitterrand, élu en 1981, avait finalement abandonné les idées keynésiennes et embrassé l’austérité pour rationnaliser l’économie française et lui permettre enfin de faire face aux exigences d’une économie mondialisée. Ce revirement de Mitterrand, jusqu’alors dépensier keynésien et avocat d’un Etat ayant un poids important dans l’économie, mais désormais partisan d’une gestion saine des finances publiques, a été présenté comme un triomphe de la raison. La pensée idéologique a finalement laissé place à une vision pragmatique quant à l’élaboration de la politique économique. Sous l’œil vigilant des marchés, Mitterrand "modernisait" la France. Pourtant, la logique de l’austérité a été présentée comme constamment menacée par les tentations populistes. Les politiciens, sous la pression d’une population mécontente des hausses d’impôts et des réductions dans les dépenses publiques, sont naturellement réticents à prendre des décisions difficiles, affirmait The Economist.

Bien sûr, on pourrait affirmer qu’on ne pourrait attendre autre chose de The Economist, qui est souvent présenté comme une revue incontournable pour les élites mondiales et la classe capitaliste internationale. Mais ce serait une erreur de considérer The Economist comme antithétique au journalisme orthodoxe qui cherche à se positionner au dessus de la mêlée politique. Au contraire, The Economist incarne toutes les vertus du journalisme moderne, objectif. Depuis sa création en 1843, The Economist a tiré une grande fierté de son journalisme basé sur des faits, la raison et une délibération nuancée. Au lieu de constituer un porte-parole pour les intérêts particuliers, le magazine se présente comme relevant d’un "centre radical", au-delà du traditionnel clivage droite-gauche. Il désire avoir un lectorat intelligent et sophistiqué, ne pas être lu seulement par les élites mondiales, mais également par les "hipsters dans le métro". Quand The Economist célèbre les effets de la mondialisation et du libre-échange, il se voit lui-même une voix pour les pauvres et les populations défavorisées du monde, ceux dont ne se préoccupent pas des politiciens mus par leurs seuls intérêts. En effet, The Economist défend un "projet humaniste moderne". (...)

Au lieu de lancer un débat critique entre des visions fondamentalement différentes, le journalisme objectif de qualité tend à dépolitiser les débats autour de la politique économique. Le débat sur l’austérité, par exemple, devient un débat sur l’ampleur et le calendrier de l’austérité, sans que la nécessité de cette dernière ne soit discutée. Dans ces débats, la pensée économique orthodoxe (…) fait de l’austérité une simple question technique, ce qui enlève toute légitimité à une quelconque alternative radicale et empêche tout débat politique qui soit véritablement pluraliste. Mais, pour parvenir à lancer un vrai débat pluraliste sur des questions autour de l’élaboration de la politique économique, les journalistes doivent se pencher de façon critique sur des termes sacrés du journalisme moderne comme celui d’"objectivité". »

Timo Harjuniemi, « How The Economist has portrayed austerity since 1945 », in LSE Business Review, 31 mars 2018. Traduit par Martin Anota

vendredi 30 mars 2018

L’immaculée inflation frappe à nouveau

« Voici trois questions à propos de l’inflation, du chômage et de la politique monétaire de la Fed. Certains peuvent croire qu’il s’agit de la même question, mais ils se trompent :

1. Est-ce que la Fed sait jusqu’où le taux de chômage peut baisser ?

2. Est-ce que la Fed doit resserrer sa politique monétaire là, tout de suite, alors même que l’inflation est très faible ?

3. Y a-t-il une relation stable entre le chômage et l’inflation ?

Il me semble évident que la réponse à la première question est non. Le chômage est aujourd’hui bien au-dessus des estimations historiques du plein emploi et l’inflation reste faible. Le chômage peut descendre jusqu’à 3,5 % sans accélération de l’inflation ? Sincèrement, nous ne le savons pas.

J’affirmerais aussi que la Fed est en train de faire une erreur en resserrant aujourd’hui sa politique monétaire, et ce pour plusieurs raisons. L’une d’entre elle est que nous ne savons réellement pas jusqu’où peut descendre le chômage et nous ne le saurons pas si nous ne tentons pas de le faire baisser davantage. Une autre raison est que les coûts d’une erreur sont asymétriques : attendre trop longtemps pour resserrer peut être gênant, mais resserrer trop tôt accroît le risque de rebasculer dans une trappe à liquidité. Enfin, il y a de bonnes raisons de croire que la cible d’inflation de 2 % de la Fed est trop faible. Les événéments ont montré que la croyance qu’elle était suffisamment élevée pour écarter tout risque de buter sur la borne inférieure zéro était erronée.

Mais devons-nous écarter l’idée que le chômage a quelque chose à voir avec l’inflation ? Via FTAlphaville, je vois que David Andolfatto se penche à nouveau sur cette question, affirmant qu’il y a quelque chose d’étrange lorsque l’on affirme l’existence d’un lien entre chômage et inflation et que l’inflation découle d’un déséquilibre entre l’offre de monnaie et la demande de monnaie.

(…) Nous sommes déjà passés par là par le passé.

La science économique porte sur ce que font les gens (…). Qu’importe ce que vous pensez sur la cause ultime d’un phénomène économique, ce que vous dites sur la façon par laquelle ce phénomène apparaît doit inclure une explication de la façon par laquelle les incitations des gens changent. C’est pourquoi la doctrine du transfert immaculé, qui affirme que les déséquilibres entre l’épargne et l’investissement se traduisent par des déséquilibres commerciaux sans ajustement du taux de change, est stupide ; les producteurs et les consommateurs ne savent pas ce qu’est l’écart entre l’épargne et l’investissement ou ne s’en inquiètent pas ; ils doivent être poussés à changer de comportement, ce qui requiert un changement des prix relatifs.

De même, même si vous pensez que l’inflation est fondamentalement un phénomène monétaire (chose que vous ne devriez pas faire, comme je vais l’expliquer dans une minute), ceux qui fixent les salaires et les prix ne s’inquiètent pas de la demande de monnaie ; ils s’inquiètent de leur propre capacité ou incapacité à fixer des prix ou salaires plus élevés, ce qui n’est pas sans lien avec la conjoncture économique. Comme Karl Smith l’a souligné il y a une décennie, la doctrine de l’inflation immaculée, selon laquelle la monnaie se traduit directement par de l’inflation (une doctrine qui a été invoquée pour prédire que l’agressif assouplissement monétaire de la Fed conduirait à une accélération explosive de l’inflation malgré la faiblesse de l’économie) n’a aucun sens.

Et affirmer qu’il y a peu de preuve ou aucune preuve d’un lien entre chômage et inflation n’est soutenable que si vous vous contentez de ne regarder que les récentes données américaines. Si vous prenez du recul et considérez davantage de données, vous verrez les choses bien autrement.

Considérons, par exemple, le cas de l’Espagne. L’inflation en Espagne ne résulte assurément pas de facteurs monétaires, puisque l’Espagne n’a même pas sa propre monnaie depuis qu’elle a rejoint l’euro. Néanmoins, il y a eu d’amples variations de l’inflation et du chômage en Espagne :

Paul_Krugman__inflation_chomage_Espagne.png

Cette période de faible chômage, au regard de l’expérience espagnole passée, a été la conséquence de larges entrées de capitaux qui ont alimenté une bulle immobilière. Puis il y a eu l’arrêt soudain (sudden stop) dans les entrées de capitaux dans le sillage de la crise grecque, qui a conduit à une explosion du chômage. Parallèlement, la période d’avant-crise a été marquée par une inflation relativement élevée, bien supérieure à la moyenne de la zone euro : la période d’après-crise a été caractérisée par une inflation quasiment nulle, bien inférieure à celle du reste de la zone euro, qui a permis à l’Espagne de réaliser (à un prix élevé) une "dévaluation interne" qui a impulsé une reprise tirée par les exportations.

Donc, êtes-vous vraiment prêts à affirmer que les fluctuations de l’inflation n’avaient rien à voir avec les fluctuations du chômage ? Sérieusement ? Mais si vous concédez que le chômage avait beaucoup à voir avec l’inflation et la désinflation en Espagne, vous admettez par là même la logique qu’il y a derrière la courbe de Phillips. Vous pouvez dire, de façon amplement justifiée, que les données américaines sont trop perturbées pour que l’on soit confiant quant aux estimations de la courbe de Phillips. Mais il est stupide de dénier que cela fasse sens de dire que le chômage joue un rôle dans l’inflation.

Revenons à mon propos plus général : l’économie porte sur ce que font les gens et tout ce que l’on peut dire à propos du macro-comportement doit toujours inclure une explication des micro-motivations qui amènent les gens à changer de comportement. Dire cela, ce n’est pas la même chose qu’affirmer qu’il faille des "microfondations" dans le sens où chacun chercherait à maximiser quelque chose ; souvent les gens ne présentent pas de comportement maximisateur et faire de l’économie "rationnelle" implique souvent d’accepter des limites à la maximisation. Mais les incitations et les motivations jouent toujours un rôle clé. Et il est ironique de voir que les macroéconomistes qui sont profondément engagés dans le projet des microfondations (ou, comme Trump aurait pu le dire, le "projet défaillant des microfondations") semblent aussi être particulièrement susceptibles d’oublier cette règle essentielle, peut-être en raison de leur addiction au mathisme (mathiness). »

Paul Krugman, « Immaculate inflation strikes again », 27 mars 2018. Traduit par Martin Anota

lundi 26 mars 2018

Comment la répartition des revenus en Chine a-t-elle évolué entre 2002 et 2013 ?

« Les données officielles chinoises au niveau microéconomique sur la répartition des revenus sont difficiles à obtenir et d’une fiabilité discutable. La meilleure source est les enquêtes menées au niveau national auprès des ménages urbains et ruraux remontent au moins à l’année 1982 (…). Les enquêtes auprès des ménages ont été composées de deux parties distinctes, une pour la population urbaine et une autre pour la population rurale. Il ne s’agissait pas exactement des mêmes enquêtes et leur utilisation en vue d’en tirer une vision d’ensemble pour la Chine (comme le proposait le Bureau National de la Statistique) s’est révélé compliqué et opaque. Depuis 2013, cependant, les deux enquêtes ont fusionné avec le même questionnaire, donc en principe les résultats doivent être bien plus fiables. Malheureusement, l’enquête a peut-être été de meilleure qualité, mais les données qui en ont été tirées ont été plus frileusement divulguées (…). C’est dommage parce que l’enquête chinoise officielle, comme dans presque tous les pays, est la meilleure source de données relatives au revenu grâce à sa couverture de l’ensemble des provinces chinoises, à un échantillon de grande taille et à des mathématiciens chevronnés. (...)

Dans ce billet, je vais voir deux choses : (1) comment la répartition des revenus chinoise a changé entre 2002-2003 (ou, pour simplifier, disons simplement 2002) et 2013 et (2) voir ce que l’on peut dire lorsque l’on compare la répartition des revenus en Chine avec celle que l'on observe aux Etats-Unis.

Le graphique ci-dessous représente, sur l’axe vertical, la variation annualisée du revenu disponible (après impôt) réel par tête des ménages entre 2002 et 2013 et, sur l’axe horizontal, les centiles de la répartition des revenus, des plus pauvres (à gauche) aux plus riches (à droite). (…) Le taux de croissance annuel moyen ajusté à l’inflation a été de 9,3 %. Comme le montre le graphique, le taux était assez similaire tout au long de la répartition des revenus, avec toutefois le taux de croissance le plus élevé au milieu de la distribution des revenus. Les gens situés entre le 30ème et le 60ème centile ont vu leur revenu s’accroître de plus de 10 % par an. (A ce rythme, vous doublez votre revenu tous les 7 ans.) Il y a aussi une forte croissance au sommet de la répartition des revenus.

GRAPHIQUE 1 Taux de croissance annuel moyen du revenu disponible réel par tête entre 2002-2003 et 2013 (en %)

Branko_Milanovic__Chine_croissance_annuelle_revenu_disponible_entre_2002_et_2013.png

Avec cette croissance relativement égale tout au long de la répartition des revenus, le coefficient de Gini n’a presque pas changé : il a diminué légèrement en passant de 0,45 à 0,43. Cette stabilité (ou léger déclin) des inégalités est cohérente avec les résultats tirés des autres enquêtes (notamment les coefficients de Gini que publie le gouvernement sans préciser comment il les a obtenus) et avec les preuves empiriques qui montrent que les salaires des travailleurs ou secteurs à faibles qualifications croissent plus rapidement que les salaires des travailleurs et secteurs à hautes qualifications. Tous ces développements relativement égalisateurs sont observables depuis le tournant du siècle. Notons cependant que les inégalités chinoises, même si elles n’augmentent pas, sont très élevées. Elles sont plus élevées qu’aux Etats-Unis : le coefficient de Gini américain en 2013, calculé à partir des données harmonisées de la Luxembourg Income Study et en utilisant la même définition par tête que pour la Chine est de 0,41.

Dans quelle mesure la répartition chinoise des revenus a-t-elle convergé vers celle des Etats-Unis ? Pour le dire autrement, dans quelle mesure les Chinois (puisque leurs revenus ont manifestement augmenté plus vite que ceux des Américains) sont-ils devenus plus similaires aux Américains ? Deux graphiques, pour les années entourant 2002 et pour 2013, le montrent d’une façon assez spectaculaire. L’axe horizontal donne le revenu disponible par tête en dollars internationaux PPA, c’est-à-dire de façon à ce que la détention de 100 dollars en Chine soit équivalente, en termes de pouvoir d’achat, à la détention de 100 dollars aux Etats-Unis. (L’axe est d’une échelle logarithmique.) Cela permet de faire des comparaisons de revenus. Il est évident, même après un simple coup d’œil, que les revenus chinois se sont davantage "rapprochés" des revenus américains en 2013 qu’ils ne l’étaient en 2002.

Nous pouvons le montrer en faisant un exercice très simple de "superposition", consistant à déterminer le pourcentage d’Américains dont les revenus sont du même montant que les revenus distribués en Chine, et vice versa. En l’occurrence, j’observe la répartition des revenus correspondant à l’ensemble des revenus entre le 2ème centile et le 100ème centile de la répartition des revenus (Je ne prends pas en compte les centiles les plus pauvres, parce qu’ils sont composés de personnes qui, temporairement, peuvent avoir des revenus nuls, voire négatifs.)

Nous allons nous demander "où les Américains les plus pauvres se situeraient dans la répartition des revenus chinoise" En 2002, les Américains les plus pauvres étaient tout de même plus riches que 77 % des Chinois. En 2013, ce sont 30 % des Chinois qui étaient plus pauvres que les plus pauvres des Américains. Donc, du point de vue chinois, moins d’un quart (100 % - 77 % = 23 %) des Chinois étaient dans l’éventail des revenus américains en 2002. En 2013, plus des deux tiers y étaient (100 % - 30 % = 70 %).

GRAPHIQUE 2 Les répartitions des revenus américaine et chinoise en 2002

Branko_Milanovic__repartitions_des_revenus_americaine_et_chinoise_2002.png

Demandons-nous maintenant "où dans la répartition américaine des revenus se situeraient les 1 % des Chinois les plus riches ?" En 2002, leur revenu était équivalent au revenu des personnes situées au 30ème centile américain, tandis qu’en 2013, les 1 % des Chinois les plus riches avaient un revenu qui les placerait au 78ème centile américain. Par conséquent, en 2002, seulement 30 % de la population américaine était dans la gamme des revenus chinois, mais en 2013, plus des trois quarts des Américains étaient dans l’éventail des revenus chinois.

GRAPHIQUE 3 Les répartitions des revenus américaine et chinoise en 2013

Branko_Milanovic__repartitions_des_revenus_americaine_et_chinoise_2013.png

Cela a été évolution remarquable, que probablement aucun autre pays n’a connue. Si les revenus chinois le long de la répartition des revenus a continué de croître plus rapidement que les revenus américains, le chevauchement est certainement plus important aujourd’hui qu’il ne l’était en 2013. En outre, le chevauchement tel qu’il est calculé ici, dans un certain sens, est biaisé en défaveur des données chinoises parce qu’il traite chaque centile aux Etats-Unis et en Chine comme s’il était de même effectif. Mais chaque centile chinois contient quatre fois plus de personnes qu’un centile américain, donc si nous avions à définir des fractiles de revenu pour contenir le même nombre de personnes (et donc diviser approximativement la population chinoise en 400 fractiles), le chevauchement serait plus important.

Branko Milanovic, « Chinese income distribution in 2002-3 and 2013 », in globalinequality (blog), 24 mars 2018. Traduit par Martin Anota

dimanche 25 mars 2018

Francis Bator, le père de l'analyse des défaillances de marché, est mort

« Né en 1925 à Budapest (émigré aux Etats-Unis en 1939 avec sa famille), Francis M. Bator est mort à l’âge de 92 ans, quelques jours après avoir été renversé par une voiture alors qu’il traversait la rue. (…)

Il s’avère que pour le public il est surtout connu en tant que conseiller en matière d’économie et de sécurité nationale sous Lyndon B. Johnson dans les années soixante, ayant été conseiller adjoint à la sécurité nationale pour McGeorge Bundy et donc en partie responsable pour la guerre au Vietnam. (…) Je pense qu’il a quitté l’administration en 1967 essentiellement en raison de son manque d’enthousiasme pour le conflit, avec avoir encouragé un réchauffement des relations avec l’URSS et l’Europe occidentale. Il semble aussi avoir été l’un des fondateurs de la Kennedy School of Government à Harvard, où il alla après avoir quitté l’administration Johnson, avant de prendre sa retraite en 1994. Ces dernières années, il a beaucoup écrit sur l’interaction entre les politiques budgétaire et monétaire, mais ce ne sont pas ses travaux les plus intéressants.

Si Bator m’intéresse et si je publie aujourd’hui ce billet, c’est en raison du rôle intellectuel qu’il a joué de 1957 à 1958, peu après qu’il ait fini sa thèse au MIT sous la direction de Robert Solow, avec une paire d’articles particulièrement influents, dont les propos prirent durablement place dans les manuels (… je ne savais pas à quel point il était jeune quand il a écrit ces articles). Le second article est le plus important. Son titre ("The Anatomy of Market Failure") a depuis été repris pour nommer la liste, largement admise, qu’il présentait. C’est Bator qui a formulé la notion de "défaillances de marché" ("market failures") et dressé leur liste standard, pointant par là la possibilité qu’un marché libre ne parvienne pas à être Pareto-optimale, c’est-à-dire remettant en cause le premier théorème du bien-être de Pareto, celui selon lequel l’équilibre général serait Pareto-optimal. Les quatre raisons derrière un tel échec du marché selon Bator sont le pouvoir de monopole, les biens de consommation collectifs (ou "publics"), les externalités et les imperfections de l’information.

(…) En formulant cette liste largement acceptée, il a été le premier à clairement distinguer entre (…) les biens collectifs (ou publics) et les externalités. Il est facile d’oublier que chacune de ces deux défaillances implique d’une façon ou d’une autre des aspects collectifs, mais de façons légèrement différentes. Mais en acceptant cette distinction, nous avons eu tendance à oublier que certains de nos problèmes les plus importants impliquent simultanément ces deux dimensions, le changement climatique en étant peut-être l’exemple actuel le plus important. La pollution qui mène au changement climatique implique des externalités, tandis que la condition du climat mondial est clairement un bien de consommation collectif du plus haut niveau.

Comme ce fut, les externalités ont été analysées rigoureusement pour la première fois par Pigou en 1922 dans son ouvrage Economics of Welfare, la conception « pigouvienne » étant par la suite devenue celle dominante dans les manuels et le restant toujours, avec certaines réserves. La critique avancée Ronald Coase en 1960 dans son article "Le Problème du coût social" rendit manifeste que, sous certaines conditions, en l’occurrence lorsque les droits de propriété sont bien définis et que les coûts de transaction sont faibles, les marchés peuvent réussir à internaliser les externalités et beaucoup des mesures environnementales adoptées depuis, notamment le mécanisme du marché des droits à polluer (cap and trade), s’en sont inspirées en essayant d’internaliser les externalités en utilisant les marchés. Il doit être souligné que l’article de Bator a été paru deux ans avant celui de Coase.

Le concept qui n’a été clarifiée que quelques années avant les articles de Bator est celui des biens de consommation collectifs ; Paul Samuelson, dont Bator a suivi des cours au MIT lorsqu’il était étudiant, a apporté une clarification décisive dans son fameux article de 1954. La célèbre formulation de Samuelson est qu’un tel bien implique non-rivalité et non-excluabilité en raison de sa nature collective, ce qui implique que pour trouver une vraie demande de marché on doit verticalement faire la somme des courbes de demande individuelle sous la forme de "dispositions à payer" en contraste avec l’addition horizontale des courbes de demande que nous voyons sur les marchés de biens purement privés. De super individualistes affirment parfois qu’il n’y a pas de purs biens de consommation collectifs et il est vrai que certains exemples classiques, par exemple celui des phares, se sont révélés ne pas en être, mais certains existent certainement, ce qui est manifestement le cas avec le climat mondial.

En tout cas, probablement influencé par publication de l’article éclairant de Samuelson sur les biens de consommation collectifs (où Samuelson n’a pas fait de commentaires au sujet des externalités), Bator s’est lancé dans l’élaboration de sa liste et de son analyse. Celles-ci prirent durablement place dans les manuels, au grand dam de certains partisans du libre marché, tels que feu James Buchanan, qui débattit publiquement et régulièrement avec Richard Musgrave, qui, de son côté, contribua grandement à la reprise de l’analyse de Bator dans les manuels de finances publiques et d’économie publique. Je n’ai jamais entendu personne réclamer à ce que Bator reçoive un prix Nobel pour ses travaux, mais la rumeur voudrait que la personne qui aurait dû partager le prix Nobel que Buchanan obtint pour ses travaux relatifs au choix public (public choice) n’était pas Gordon Tullock, mais celui avec qui il débattit longuement, en l’occurrence Musgrave, qui est probablement plus connu que Bator pour son analyse en termes de "défaillances de marché". Mais c’est bien Bator qui a été le premier à la formuler. »

Barkley Rosser, « The father of "market failure" analysis dies », in Econospeak (blog), 21 mars 2018. Traduit par Martin Anota

lundi 19 mars 2018

Que pensent les économistes des droits de douane américains sur l’acier et l’aluminium ?

« L’administration américaine a annoncé qu’elle envisageait d’instaurer des tarifs douaniers (de 25 %) sur l’acier et (de 10 %) sur l’aluminium, soi-disant pour des raisons de sécurité nationale. Nous passons en revue ce que les économistes ont pu dire sur ce bouleversement dans la politique commerciale américaine.

Chad Brown pense que ce genre de protection a des percussions économiques et institutionnelles considérables et généralisées, pour diverses raisons. Premièrement, il réduira un montant significatif d’importations. Les nouveaux tarifs douaniers accroîtront probablement les coûts pour les constructeurs automobiles, les fabricants de conserves, les projets d’infrastructures et même l’industrie de la défense. Deuxièmement, les Etats-Unis n’ont pas déclenché de protection dans le cadre de la loi de la sécurité nationale depuis plus de 30 ans ; Reagan est le dernier à avoir imposé des restrictions dans le cadre de cette loi en 1986. L’instauration de tarifs douaniers sur l’acier et l’aluminium peut amener beaucoup à affirmer que le commerce fait peser d’autres menaces sur la sécurité nationale. Troisièmement, Brown pense que l’enquête amorcée dans le cadre de cette loi n’a pas été transparente (…). Quatrièmement, Brown affirme que la loi accorde au Président la discrétion incroyable de décider unilatéralement de la taille et de la forme de la restriction commerciale aussi bien que de sa durée. Cinquièmement, même si l’OMC permet aux pays d’imposer des restrictions quand la sécurité nationale est menacée, utiliser ce prétexte menace le système commercial basé sur des règles. (...)

Jared Bernstein dit qu’il est certain que les tarifs douaniers vont faire plus de mal que de bien, mais il affirme que cela ne signifie pas qu’il n’y a pas de problème. Il cite un article du Washington Post décrivant les impressionnants gains de productivité dans la production d’acier et se demande alors pourquoi les Etats-Unis, si ces derniers si productifs dans l’acier, présentent un tel déséquilibre persistant dans ce secteur. Il se peut que les gains de productivité des autres pays dans la production d’acier aient été plus grands ou que leurs coûts du travail soient plus faibles, mais, du moins dans l’industrie manufacturière dans son ensemble, il ne semble pas que ce soit le cas : les coûts unitaires du travail des Etats-Unis, sur une base dollars, sont inférieurs à ceux de la plupart des partenaires à l’échange, à la fois en niveaux et en termes de croissance. Bernstein pense qu’au cœur du problème, il pourrait y avoir l’énorme contribution de la Chine à l’excès de capacité mondiale, qui neutralise les gains de productivité. (...)

Noah Smith pense que les tarifs douaniers ne sont généralement pas une bonne façon de promouvoir l’industrie domestique. Ils encouragent les producteurs américains à se focaliser sur le marché captif local au lieu de trouver des façons de faire face à la concurrence rude et agité qui s’exerce au niveau mondial. Si les consommateurs américains sont forcés de n’utiliser que les produits domestiques, l’acier et l’aluminium américains risquent de finir par apparaître comme des produits de mauvaise qualité. Et si les métaux sont plus chers, cela risque non pas d’aider mais d’endommager l’industrie. Les défenseurs des tarifs douaniers affirment que l’acier et l’aluminium sont importants pour la défense nationale, mais les constructeurs de navires militaires vont devoir payer des métaux plus chers, notamment les fabricants de tanks, d’avions, d’armes et d’autres équipements cruciaux de défense. Les tarifs douaniers ne vont pas non plus ramener de bons emplois dans les usines d’acier et d’aluminium : depuis 1990, la production de métaux aux Etats-Unis est restée assez constante, mais le nombre de personnes employées dans ce secteur a régulièrement chuté, sous l’effet du progrès technique. Donc Smith pense que les Etats-Unis se sont infligé une sévère blessure en adoptant des tarifs douaniers sur les métaux.

Jeffrey Sachs affirme que cela pourrait être le premier coup tiré dans une guerre commerciale insensée et destructive. Qu’importe ce que les producteurs américains d’acier gagneront d’une guerre commerciale, ce gain sera moindre que les pertes que connaîtront les utilisateurs d’acier et les consommateurs, notamment en raison des coûts sociaux associés à la protection d’emplois non compétitifs. Mais l’essoufflement du marché boursier reflète la possibilité de quelque chose de plus désastreux : le glissement vers une guerre commerciale mondiale dans laquelle tous les pays, notamment les Etats-Unis, seraient perdants. L’économie mondiale a déjà connu un tel scénario par le passé : les guerres commerciales du début des années trente contribuèrent à déclencher, puis aggraver et prolonger la Grande Dépression. Sachs croit que les mesures de Trump reposent sur trois erreurs. Premièrement, Trump pense que les Etats-Unis génèrent des déficits commerciaux avec des pays comme la Chine et l’Allemagne parce que les Etats-Unis se font flouer d’une façon ou d’une autre par ceux-ci. La vraie raison est que les Etats-Unis épargnent trop peu et consomment de trop. Deuxièmement, Trump pense que les barrières commerciales vont protéger les Etats-Unis, mais même si ces mesures peuvent temporairement protéger l’acier américain, elles ne vont pas protéger la société américaine. Troisièmement, Trump croit que les barrières commerciales américaines vont faire ployer la Chine et renforcer la domination économique et militaire des Etats-Unis, mais la Chine et l’Europe vont sûrement riposter.

Martin Wolf écrit dans le Financial Times que ces tarifs douaniers ne sont pas importants en soi, mais que le motif avancé pour les justifier, leur niveau et leur durée, la volonté de cibler les alliés proches et la déclaration du Président selon laquelle « les guerres commerciales sont bonnes et faciles à gagner » présagent un surcroît de protectionnisme. Cette action est susceptible de marquer le début de la fin de l’ordre commercial multilatéral fondé sur les règles que les Etats-Unis avaient eux-mêmes instauré. Un point crucial est que cette action ne vise pas la Chine, qui représente moins de 1 % des importations américaines d’acier. Ses victimes sont des amis et alliés : le Brésil, le Canada, l’Union européenne, le Japon et la Corée du Sud. Ce n’est pas non plus une mesure prise contre une certaine forme de commerce déloyal. C’est une politique purement protectionniste visant à sauver les vieilles industries. Pourtant, même en ce sens, la justification est bien fragile : la production américaine d’acier et d’aluminium stagne depuis plusieurs années. Si cette action fait réellement sens à Trump, qu’est-ce qui ne le fait pas ?

Brad DeLong pense qu’au final les consommateurs américains paieront pour les tarifs douaniers. De telles mesures protectionnistes vont affecter chaque secteur de l’industrie américaine d’une façon ou d’une autre et les industriels qui utilisent l’acier et l’aluminium comme intrants vont certainement répercuter sur leurs prix de vente une partie du surcroît de coûts qu’elles subiront. Donc, Trump a essentiellement proposé une nouvelle taxe sur les résidents américains, en l’occurrence les consommateurs et les industries exportatrices, et ce fardeau sera en grande partie supporté par ses propres partisans au cœur des Etats-Unis et dans la Rust Belt.

Dani Rodrik estime que plusieurs commentateurs ont réagi de façon excessive à la possibilité de tarifs douaniers en prédisant une "guerre commerciale", voire pire, mais la réalité est que les mesures commerciales de Trump, du moins celles qu’il a adoptées jusqu’à présent, ne représentent pas grand-chose. En l’occurrence, elles ne pèsent pas lourd, que ce soit en termes d’échelle et d’ampleur, par rapport aux mesures adoptées par l’administration de Ronald Reagan dans les années quatre-vingt. Les politiques de Trump violent l’esprit, si ce n’est la lettre, des accords commerciaux d’aujourd’hui, les restrictions commerciales de Reagan ont exploité les lacunes des accords alors en vigueur. Même si leur impact global reste limité, les restrictions commerciales de Trump ont une teneur plus unilatérale, directe. Une autre différence avec les mesures adoptées sous Reagan, c’est que nous vivons une étape plus avancée de la mondialisation que les problèmes qui l’ont accompagnée sont plus grands et que les forces du nationalisme et du nativisme sont probablement plus puissantes aujourd’hui qu’à toute autre époque depuis la fin de la Seconde Guerre mondiale. Alors que les politiques de Trump visent prétendument à restaurer de l’équité dans le commerce mondial, elles exacerbent ces problèmes plutôt qu’elles ne les améliorent. Un tel protectionnisme est un artifice, pas un programme sérieux pour la réforme commerciale. »

Silvia Merler, « Are we steel friends? », in Bruegel (blog), 12 mars 2018. Traduit par Martin Anota

lundi 12 mars 2018

La surtaxe des importations américaines d’acier ? Un racket de protection peu efficace...

« Quel raisonnement économique avait Trump en tête lorsqu’il a annoncé des tarifs douaniers la semaine dernière ? En fait, les économistes (mais est-ce le bon terme ?) qui ont aujourd’hui son attention semblent considérer que leur boulot consiste à justifier ses croyances, quelles qu’elles soient. Par exemple, Peter Navarro a dit : "Ma fonction, vraiment, en tant qu’économiste, est d’essayer de fournir les analyses sous-jacentes qui confirment son intuition. Et son intuition est toujours juste sur ces questions".

Traduction : Navarro considère que son rôle est celui d’un propagandiste, non celui d’une source de conseil indépendant.

Mais le reste d’entre nous n’ont pas à accepter que le Cher Dirigeant ait toujours raison. Et justement, ces droits douaniers sont difficiles à justifier, même si la seule chose que vous voulez c’est créer des emplois dans le secteur manufacturier et même si on laisse de côté toutes les autres ramifications.

Pourquoi ? Parce que l’acier et l’aluminium ne sont pas des biens finaux ; personne ne consomme directement de l’acier. En fait, ce sont des biens intermédiaires, essentiellement utilisés comme intrants par les autres secteurs manufacturiers. Et si les droits douaniers qui accroissent les prix des métaux primaux peuvent accroître la production domestique de ces métaux, ils dégradent aussi la compétitivité du reste de l’industrie domestique.

Les économistes du commerce international ont l’habitude de dire beaucoup de choses à ce propos. A l’époque où les pays en développement essayaient de promouvoir leur industrie manufacturière avec des droits douaniers et des quotas d’importation, nous avions l’habitude de parler de protection efficace, ce qui dépendait de la structure d’ensemble des tarifs douaniers. Parfois, les taux effectifs de protection étaient très élevés : si vous instaurez, par exemple, un modeste droit douanier sur les voitures, mais aucun sur les composants de voiture importés, le taux effectif de protection pour l’assemblage de voitures peut facilement atteindre plusieurs centaines de pourcents. D’autres fois, cependant, les taux étaient négatifs : si vous mettez un tarif douanier sur les composants, mais pas sur les voitures, vous découragez en fait l’assemblage de voitures.

Nous pouvons clairement appliquer ce type d’analyse aux tarifs douaniers de Trump. En fait, il y a des personnes qui essayent de chiffrer tout cela, bien que je n’accorderais pas trop de poids sur ces chiffres, pour des raisons que je vais vous présenter dans quelques instants.

Ce que je veux faire, essentiellement pour soulager ma démangeaison analytique, c’est esquisser brièvement comment cette histoire devrait se dérouler dans ce cas. Pour le propos de ce billet, je vais considérer les Etats-Unis comme une petite économie ouverte faisant face à des prix mondiaux ; ce n’est pas tout à fait exact, mais je ne pense pas que cela change les points importants si nous adoptions une hypothèse plus réalise.

Donc, supposons que nous instaurions un droit douanier sur les importations d’acier. Ce que cela entraînerait, c’est une hausse du prix que les producteurs d’acier peuvent exiger et cela se traduit par un accroissement de la production d’acier.

Paul_Krugman__droit_tarif_douanier_acier_protectionnisme.png

Mais l’acier est utilisé par d’autres industries, disons les producteurs d’automobiles, si bien que leurs coûts augmentent lorsque les prix de l’acier augmentent, ce qui déplace vers la gauche leur courbe d’offre et réduit leur production.

Paul_Krugman__effet_droit_douanier_acier_sur_automobile.png

Quel est au final l’effet net sur la production et les emplois de l’industrie manufacturière ? La réponse n’est pas évidente, car elle dépend des détails exacts. Dans quelle mesure la production et l’emploi dans le secteur de l’acier sont-ils sensibles aux prix ? Dans quelle mesure la production et l’emploi dans les autres secteurs sont-ils sensibles aux coûts ? Les gens essayent d’estimer tout cela, mais je n’accorderais pas trop de poids à ces estimations, simplement parce que cela nécessite de répondre à des questions bien difficiles. Et il y a de nouvelles complications, par exemple, si vous prenez en compte les possibles effets sur le taux de change.

Mais pour autant, la chose à retenir, c’est qu’en embrassant le protectionnisme, Trump impose une protection négative sur une grande partie de l’industrie manufacturière. Ce n’est pas vraiment ce qu’il veut que les gens entendent ; et il le fait presque certainement par accident, par pure ignorance (parce que ses « conseillers » n’ont justement pas pour rôle de donner des conseils).

Et c’est ainsi que nous prenons le risque d’une guerre commerciale ? »

Paul Krugman, « Trump’s negative protection racket », 10 mars 2018. Traduit par Martin Anota

dimanche 11 mars 2018

Les femmes sont encore bien sous-représentées parmi les professeurs d’économie

« Une observation de la représentation des femmes dans les facultés d’économie les plus prestigieuses en Europe montre qu’il y a encore beaucoup de progrès à faire pour que ces dernières se rapprochent de l’égalité des sexes…

La question de l’équilibre entre les sexes en économie a reçu ces derniers temps beaucoup d’attention. (…) Malgré la forte sous-représentation des femmes en économie, nous pouvons faire (et nous avons fait) d’importants progrès dans ce sens. (…)

Dans le cadre de cette démarche, nous avons cherché avril dernier combien de femmes sont effectivement devenues professeures dans les départements d’économie les plus prestigieux des universités européennes. Pour ce faire, nous avons utilisé le Classement mondial des universités (…). Une analyse similaire a été faite par The Economist il y a quelques mois, portant sur la représentation des femmes dans le champ économique dans les universités européennes et américains. Nous avons pris les 20 universités européennes les plus prestigieuses dans le domaine de l’économie et de l’économétrie et nous avons vérifié combien de femmes étaient professeures dans les départements d’économie.

Cependant, il semble également important de vérifier la proportion de l’ensemble des personnels universitaires qui ne sont pas des professeurs titulaires (les professeurs assistants, les professeurs associés, les chargés d’enseignement et les maîtres de conférence, les lecteurs et les chercheurs) aussi bien que la proportion de femmes titulaires d’un doctorat. Cela nous donne une meilleure idée de la représentation du genre dans l’ensemble des parcours professionnels vers le professorat à plein temps dans les facultés d’économie. Nous avons alors contacté les départements d’économie en question pour confirmer les données.

Le pourcentage moyen d’étudiantes en doctorat dans les 20 plus grands départements d’économie en Europe s’élève à 35,13 %. Ce chiffre est inférieur à la moyenne de 47 % observée pour l’ensemble des domaines d’études dans l’Union européenne par She Figures (une étude sur les liens entre, d’une part, le genre et, d’autre part, la recherche et l’innovation publiée par la Commission européenne publiée tous les trois ans) pour les titulaires d’un doctorat en 2012 pour l’ensemble des disciplines.

La proportion de femmes dans l’ensemble des effectifs universitaires (les professeurs qui ne sont pas titulaires) est légèrement inférieure, puisque les femmes représentent 25,86 % de ceux-ci, tandis que la proportion de femmes qui travaillent parmi le personnel administratif dans les 20 plus grands départements d’économie s’élève à 79,41 %. Les hommes présents dans le personnel administratif travaillent principalement dans les TIC, tandis que les femmes tendent à entreprendre des tâches qui relèvent de la communication ou de la gestion de projets. Lorsque nous remontons les grades universitaires, la proportion de femmes passe d’un tiers au niveau doctoral à seulement un huitième au niveau des professeurs. Les femmes ne représentent en moyenne que 12,87 % des professeurs titulaires.

Ces chiffres sont tout à fait similaires à ceux obtenus par les diverses études réalisées autour des facultés d’économie, notamment celle réalisée aux Etats-Unis par l’American Economic Association, qui a constaté que seulement 23,5 % des personnels universitaires (titulaires et assistants) sont des femmes. Par grade, les femmes représentent 15 % de l’ensemble des professeurs titulaires dans les départements d’économie et 31 % des personnels de facultés d’économie au niveau des assistants. Bayer et Rouse (2016) sont allés plus loin dans leur analyse, en regardant au niveau des économistes minoritaires à l’université ; ils ont constaté que seulement 6,3 % des économistes titulaires ou assistants sont identifiés comme Afro-Américains ou Hispaniques, alors que ceux-ci représentent 30 % de l’ensemble de la population aux Etats-Unis. D’autres études montrent que les écarts entre les sexes parmi les taux d’obtention de postes permanents et de taux de promotion dans les facultés d’économie sont plus importants que ceux observés pour l’ensemble des sciences sociales ; Ginther et Kahn (2014) notaient par ailleurs l’existence d’un écart entre les sexes de 20 % dans l’obtention des postes permanents.

Comprendre quelles sont les raisons qui expliquent ces chiffres est la première chose à faire pour répondre au déséquilibre. Diane Coyle a récemment affirmé dans le Financial Times que l’on peut considérer le manque de modèles comme l’un des principaux facteurs contribuant à ce qu’une faible proportion de femmes désire débuter une carrière universitaire en économie. Plus les femmes économistes seront visibles, plus il y aura de femmes qui verront l’économie comme un plan de carrière réaliste, profitable, attractive et réalisable. Il y a toujours beaucoup de choses à faire de ce côté. »

Ariane Giraneza Birekeraho et Paola Maniga, « How many female economics professors in top European Universities? », in Bruegel (blog), 7 mars 2018. Traduit par Martin Anota

jeudi 8 mars 2018

La macroéconomie de la guerre commerciale



« Est-ce que Trump reviendra sur son souhait de déclencher une guerre commerciale ? Personne ne le sait. Ce que l’on sait, c’est qu’il est obsédé par le commerce extérieur sans en savoir grand-chose, qu’il se sent attaqué sur plusieurs fronts et que son docteur lui aurait dit de manger moins de hamburgers. Il y a donc sûrement beaucoup de rage latente en lui, une rage qu’il est trop prompt à recracher sur le système commercial mondial (…).

GRAPHIQUE Solde des échanges de biens et services des Etats-Unis (en % du PIB)

Fred__solde_exterieur_Etats-Unis.png

Il est intéressant de se demander ce qui se passerait si Trump essayait réellement de refermer l’écart commercial (il est actuellement de 500 milliards de dollars, non de 800 dollars, mais qui compte) en instaurant des droits de douane. L’écart commercial s’élève actuellement à 3 % du PIB, tandis que les importations représentent 15 % du PIB. Si l’élasticité-prix de la demande d’importations est environ égale à l’unité, ce qui est une estimation typique pour le court et moyen termes, un droit de douane généralisée de 20 % sur les produits importés suffirait, toute chose égale par ailleurs, pour refermer l’écart commercial. Mais rien ne resterait égal par ailleurs. Laissons de côté la possible riposte des pays étrangers, bien que cela soit quelque chose de très important en pratique. Supposons que les Etats-Unis s’en tirent bien, sans représailles étrangères. Même si c’était le cas, les choses ne se passeraient pas comme se plait à l’imaginer Trump.

Voyez-vous, détourner une demande équivalente à 3 % du PIB des produits étrangers vers les produits domestiques n’accroîtrait pas la production américaine de 3 % relativement à ce qu’elle aurait été sinon, encore moins de 4,5 % si vous vous attendez à un effet multiplicateur. Pourquoi ? Parce que l’économie américaine est proche du plein emploi. Peut-être (oui, peut-être) que nous avons une marge d’un demi-point de pourcentage pour réduire le taux de chômage avant de l’atteindre. Mais une hausse de 3 % de la production relativement à la tendance réduirait le chômage trois fois plus amplement, c’est-à-dire de 1,5 point de pourcentage. Mais cela ne se passerait tout simplement pas ainsi.

Ce qui va plutôt se passer, c’est que la Fed va relever fortement ses taux pour contenir les pressions inflationnistes qui en résulteraient (notamment parce qu’un droit de douane de 20 % accroît directement les prix d’environ 3 %). La hausse des taux d’intérêt devrait avoir deux gros effets. Premièrement, elle va affecter les secteurs sensibles au taux d’intérêt : les amis de Trump dans le secteur immobilier ne vont vraiment pas être contents, tout comme ceux qui sont fortement endettés (…). Deuxièmement, cela va pousser le dollar à la hausse, ce qui va sévèrement affecter les secteurs exportateurs américains. Mes salutations aux fermiers de l’Iowa !

Donc, le protectionnisme ne conduirait pas vraiment à une baisse du déficit commercial, et ce même si les autres pays ne ripostaient pas, tout en infligeant beaucoup de dommages à l’économie. Et ne parlons pas des bouleversements provoqués par la perturbation des chaînes de valeur internationales.

Ajoutons aussi le fait que les autres pays vont répliquer (ils sont déjà en train de préparer leurs listes cibles) et le fait que nous allons nous mettre à dos des alliés clés. Nous avons alors une bonne idée du degré de dangerosité et de stupidité d’une telle mesure. »

Paul Krugman, « The macroeconomics of trade war », 3 mars 2018. Traduit par Martin Anota

mardi 6 mars 2018

La zone euro s'est révélée économiquement fragile, mais politiquement résiliente

« Hier, j’ai été l’orateur principal (enfin, pour être exact, j’ai échangé avec Anil Kashyap) à l’U.S. Monetary Policy Forum (…). Bref, l’un des sujets a été la reprise en Europe, qui est réelle et qui, d’une certaine façon, est plus importante pour l’économie mondiale que la poursuite de l’expansion Obama aux Etats-Unis. Une question évidente, qu’Anil a soulevée, était si cette reprise n’amenait pas les eurosceptiques comme moi à reconsidérer leur position. Et ma réponse est non et oui : Non, l’économie de l’euro apparaît aussi mauvaise qu’on ne l’attendait ; Oui, nous avons sous-estimé la cohésion politique de la monnaie unique, la volonté des élites politiques à infliger à la population de grandes souffrances économiques de façon à rester dans l’union monétaire.

Je pense que je peux illustrer tous ces points en prenant pour exemple l’Espagne, un pays qui est d’une certaine façon au cœur de l’histoire de l’euro. Durant les bonnes années, les capitaux ont afflué en Espagne, ce qui alimenta une énorme bulle immobilière. Cela a nourri l’inflation qui a réduit la compétitivité de l’industrie espagnole, ce qui s’est traduit par un énorme déficit commercial. Quand la musique s’est arrêtée, l’Espagne a vu son taux de chômage exploser ; elle est alors entrée dans un douloureux processus de "dévaluation interne", en réduisant lentement ses coûts unitaires du travail, alors que ces derniers augmentaient graduellement dans le nord de l’Europe. Et finalement cela a marché : l’Espagne a commencé à connaître une croissance assez rapide, alimentée par l’envolée des exportations d’automobiles et d’autres biens manufacturés.

Cette histoire disculpe-t-elle alors l’euro ? Pas vraiment. Voici un graphique qui utilise les données tirées de la base de données des Perspectives de l’économie mondiale du FMI. La ligne bleue montre le PIB réel de l’Espagne (échelle de gauche). Comme vous pouvez le voir, il y a eu un effondrement terrible de 2008 à 2013, mais ensuite l’Espagne a connu une croissance robuste. A long terme, l’économie espagnole n’est donc pas morte.

GRAPHIQUE PIB réel et output gap de l’Espagne

Paul_Krugman__Espagne_PIB_reel_output_gap_ecart_de_production.png

Mais le coût de la récession a été immense. La ligne rouge représente l’estimation par le FMI de l’écart de production (output gap) de l’Espagne, c’est-à-dire de la différence, en points de pourcentage, entre ce qu’elle aurait pu produire en cohérence avec une inflation stable et ce qu’elle a réellement produit. Je soupçonne que l’écart de production est sous-estimé : les méthodes que des organisations comme le FMI utilisent pour estimer le PIB potentiel tendent à interpréter tout effondrement soutenu comme un déclin du potentiel, même si ce n’est que le résultat d’une insuffisance de la demande globale. (Cela a été, d’ailleurs, un point que j’ai particulièrement souligné dans mon Brookings Paper sur la trappe à liquidité.)

Mais même si nous prenons les estimations du FMI en les considérant comme tout à fait exactes, nous voyons qu’elles indiquent qu’au cours de la période allant de 2008 à 2018 l’Espagne a connu une énorme perte cumulative en termes de production potentielle : cette perte s’est élevée à 33 % de son PIB potentiel. C’est comme si les Etats-Unis étaient forcés de payer un prix s’élevant à plus de 6.000 milliards de dollars pour, imaginons, rester dans l’étalon-or.

Donc l’économie de l’euro a été aussi désastreuse que le présageaient ses critiques. C’est comme si l’Espagne avait passé plusieurs années telle un prisonnier économique de la monnaie unique et le fait qu’elle ait finalement obtenu une libération sur parole n’amène pas à changer ce fait. Cependant, l’Espagne a su remarquablement rester dans la course, en payer le prix et elle est désormais de retour là où elle doit être. Donc la politique de l’euro a été bien plus robuste que nous, les anglo-saxons, l’avions imaginé. »

Paul Krugman, «Paroling the Spanish prisoner », 24 février 2018. Traduit par Martin Anota

jeudi 1 mars 2018

La correction du marché boursier de février

« On a entendu beaucoup de choses à propos de la correction brutale du marché boursier depuis que ce dernier a atteint un pic le 26 janvier et a chuté abruptement de 10 % (comme le 8 février, avant de connaître un rebond partiel). Certaines de ces choses ont été utiles, d’autres non. (…)

Est-ce le moment de vendre ?


Premièrement, comment doit réagir un investisseur intelligent ? "Ne soyez pas effrayé de vendre des actions en réaction à un plongeon de court terme", disent-ils. "Pensez à plus long terme". Ils ont raison. Que les actions chutent n’était pas une raison pour vendre début février.

En fait, la raison qui justifie la vente des actions est qu’elles sont bien trop hautes selon une perspective de plus long terme. Les prix sont très élevés relativement aux fondamentaux comme les dividendes. Les price-earnings ratios ajustés en fonction de la conjoncture, par exemple, sont toujours à un niveau qui n’avait été dépassé que deux fois au cours du siècle précédent : lors des pics qui précédèrent immédiatement les krachs boursiers de 1929 et de 2000-2002.

Quand je suggère que les investisseurs doivent vendre des actions, j’ai en tête ceux qui sont pleinement investis dans le marché boursier ou, pire encore, ceux qui se sont endettés pour avoir une position en actions supérieure à 100 %. Mais bien sûr, un portefeuille adéquatement diversifié donnera toujours une large place aux actions.

Le soulèvement des machines


Une deuxième déclaration que l’on a soudainement entendu partout est la suivante : "le marché est plus volatile parce que des machines ont remplacé les traders".

Ils disent qu’avec le trading algorithmique, quand les actions commencent à chuter, les ordinateurs se mettent en branle, vendent également, ce qui déprime davantage le prix. C’est possible. Et je ne suis pas de ceux qui croient que le trading automatisé ou à haute vitesse accomplit un objectif socialement utile. Mais je ne pense pas non plus qu’il soit nécessairement déstabilisateur. Dans la panique, les êtres humains sont aussi susceptibles de prendre des décisions imprudentes que les machines.

Tout cela dépend de la façon par laquelle l’algorithme est conçu (chose qui est bien évidemment faite des êtres humains). Un ordinateur qui a été programmé (directement ou non) pour instantanément "acheter lorsque ça chute" va générer une demande pour les actions dont le cours baisse, ce qui tendra à stabiliser les prix et non à les déstabiliser.

Nous avons toujours connu des ordres "stop-loss" : un investisseur peut laisser comme instruction à son courtier de vendre si le prix chute en-deçà d’un niveau prédéfini. Ce genre d’instructions est déstabilisateur, dans la mesure où il génère des ordres de vente en réponse à une chute naissante des prix, ce qui contribue par conséquent à exacerber la chute des prix. Ou l’investisseur peut laisser comme instruction d’acheter une action quand son prix chute sous un certain niveau pré-spécifié, ce qui est stabilisateur. Peu importe que l’ordre soit exécuté par un courtier humain ou par une machine. Ce qui importe, c’est si l’instruction est stabilisatrice ou déstabilisatrice.

Peut-être que lorsqu’un être humain programme un ordinateur il est plus susceptible d’y réfléchir calmement que s’il observe un plongeon en temps réel sur son ordinateur, puisqu’il est alors davantage susceptible de se laisser gagner par la panique et de sauter du train en marche.

Je ferai toutefois une exception pour la volatilité intra-journalière. Un flash-krach comme celui qui est survenu le 6 mai 2010 (quand le Dow Jones a chuté puis grimpé de 1.000 points en l’espace de 15 minutes) n’aurait peut-être pas été possible sans le trading algorithmique à haute vitesse. Cette sorte de volatilité importe pour ceux qui se font de l’argent avec le trading intra-journalier ; mais il n’est pas clair en quoi elle devrait inquiéter le reste d’entre nous.

Wall Street versus Main Street


On rencontre aussi une troisième croyance, celle selon laquelle "le marché boursier, ce n’est pas l’économie". Oui, celle-ci est exacte. Le marché peut s’effondrer, mais l’économie peut continuer de bien se comporter, et vice versa. Il y a trois raisons à cela.

En premier lieu, les effondrements (et booms) du marché boursier peuvent (respectivement) être provoqués par des hausses (et des baisses) des taux d’intérêt, qui sont souvent la conséquence des expansions économiques (et des récessions), plutôt que dans le sens inverse. Les bribes de nouvelles qui semblent avoir précipité la correction du marché en février sont celles issues des rapports évoquant un marché du travail robuste aux Etats-Unis (il a été annoncé le 2 février que les rémunérations horaires ont augmenté de 2,9 % en rythme annuel en janvier) ; les chiffres de l’inflation aux Etats-Unis, au Royaume-Uni et dans certains autres pays ; et le relèvement subséquent des anticipations relatives aux taux d’intérêt de la Réserve fédérale et de la Banque d’Angleterre. Le 7 février, la Banque d’Angleterre a annoncé que les taux "peuvent être relevés plus tôt et plus amplement" que ce qui avait été précédemment prévu. Avec les nouvelles relatives à l’inflation aux États-Unis, il est désormais quasi-certain que la Fed va relever ses taux d’intérêt en mars.

En deuxième lieu, il y a beaucoup d’aléatoire sur les marchés, si bien que les prix de marché peuvent s’écarter des fondamentaux économiques, comme dans le cas des vraies bulles spéculatives. Les gens peuvent acheter des actions parce qu’ils pensent que les autres en achètent, mais ensuite tout le monde les vend une fois que la bulle éclate. Le climat favorable au risque sur les marchés financiers l’année dernière nourrissait des perceptions artificiellement faibles de la future volatilité. Quand l’indice VIX a atteint des niveaux historiquement faibles en 2017, ce n’était pas fondé sur les fondamentaux. Il n’était pas difficile de penser à des risques substantiels qui restaient à l’affût, tels que le choc de l’inflation et des taux d’intérêt. Mais il était prévisible que l’indice VIX ne s’ajusterait pas tant que le choc ne se serait pas matérialisé et que les prix des titres n’auraient pas chuté. Comme de la troisième semaine de février, l’indice VIX s’est en effet ajusté à des niveaux plus normaux, la correction du marché boursier ayant servi comme un utile "signal d’avertissement" pour les investisseurs un peu trop complaisants. Mais les cours des titres eux-mêmes ont probablement toujours une certaine marge pour baisser. Après tout, l’indice S&P 500 est toujours plus élevé qu’il ne l’était en 2017.

En troisième lieu, même dans le seul cadre théorique des manuels, les cours boursiers représentent les profits allant aux sociétés (les profits courants et les profits futurs attendus), pas notre revenu à nous tous. Par le passé, il y a eu une forte corrélation entre les profits et l’économie parce que des parts relativement stables du revenu national allaient respectivement aux travailleurs et aux propriétaires du capital. Mais cette stabilité n’est plus observée depuis quelques décennies. La part du PIB allant au capital s’est fortement accrue, probablement en conséquence de ce que les économistes appellent les rentes : le pouvoir de marché des entreprises s’est accru et la concurrence a décliné dans plusieurs secteurs. Il est notoire que les marchés soient à la baisse depuis la promulgation de la loi des Républicains visant à réduire les impôts des sociétés. Une certaine partie du boom boursier de l’année dernière peut s’expliquer par l’anticipation d’une possible réduction d’impôts. Si c’est le cas, cela a reflété une politique qui va presque certainement redistribuer le gâteau du travail vers le capital et non accroître la taille du gâteau.

Pourtant, même si nous venons de rappeler que Wall Street n’est pas Main Street, il faut aussi ne pas oublier qu’il y a bien sûr d’importantes connexions entre le marché boursier et l’économie réelle. Si les cours chutent, la consommation et l’investissement vont baisser : un ménage qui détient des actions se sentira moins riche et réduira par conséquent ses dépenses ; une société qui avait projeté de construire une usine peut être moins incitée à le faire s’il devient pour elle plus dur de soulever de nouveaux fonds.

On ne peut prédire quand le prochain plongeon du marché aura lieu et s’il coïncidera avec la prochaine récession. Mais on peut prédire que la faiblesse inhabituelle de la volatilité financière et économique que l’on a pu voir l’année dernière est désormais révolue. »

Jeffrey Frankel, « The february stock market correction », in Econbrowser (blog), février 2018. Traduit par Martin Anota

lundi 26 février 2018

Les déficits jumeaux de Trump

« Il y a plusieurs années, quand les dinosaures foulaient encore la terre et que certains Républicains tenaient encore des propos raisonnés, l’administration Reagan a poursuivi une politique de réduction d’impôts et de militarisation alors même que la Fed resserrait sa politique monétaire pour lutter contre l’inflation. Cette configuration des politiques conjoncturelles présente quelque ressemblance avec celle que l’on observe actuellement avec la Trumponomics. Et deux choses sont survenues plus ou moins au même instant : pour la première fois, les Etats-Unis ont commencé à creuser de larges déficits budgétaires en temps de paix, alors même que l’économie est au plein emploi, et, parallèlement, nous avons commencé à générer des déficits commerciaux amples et soutenus.

A l’époque, Martin Feldstein a lié ces deux phénomènes en parlant de "déficits jumeaux" (twin deficits). Même si cela simplifiait un peu trop les choses (à la fin des années quatre-vingt-dix, l’économie américaine connaissait simultanément des excédents budgétaires et des déficits commerciaux, grâce à un boom de l’investissement), le raisonnement avait du sens. La relance budgétaire a directement accru les déficits commerciaux en stimulant la demande globale et la collision budgétaire-monétaire a conduit à un relèvement des taux d’intérêt, ce qui poussa également le dollar à la hausse et réorienta les dépenses des biens américains vers les biens étrangers.

Le toujours très intéressant Brad Setser suggère qu’une histoire similaire se déroule peut-être aujourd’hui, avec les réductions d’impôts alimentant un déficit commercial croissant ; ce qui serait ironique, dans la mesure où Trump n’a cessé d’être obnubilé par les déficits commerciaux et d’y voir la source de tous les maux économiques. Son billet est bien intéressant à lire, mais il y a quelques points sur lesquels j’aimerais bien revenir.

Je veux notamment souligner que, jusqu’à présent, nous n’avons observé que de modestes hausses des taux d’intérêt et absolument aucune appréciation du dollar. Donc, cela ne ressemble pas beaucoup à la Reaganomics pour l’instant. Peut-être que cela va finir par arriver ; ou peut-être que les réductions d’impôts de Trump ne vont pas beaucoup stimuler l’activité économique, mais juste alimenter les bénéfices non distribués ou être utilisées pour financer des rachats d’actions qui ne stimuleront pas beaucoup les dépenses de consommation. Ou peut-être que, comme Setser le suggère implicitement, (…) concernant les réductions d’impôts, d’autres facteurs, comme le renforcement de l’économie européenne, pousseront fortement le dollar à la baisse.

J’aimerai mieux saisir ce que dit Setser sur le revenu des investissements. Il écrit : "L’économie américaine a maintenant un large stock de dette externe, donc un taux d’intérêt nominal plus élevé aux Etats-Unis entraîne mécaniquement des paiements d’intérêts plus élevés sur cette dette externe (les paiements d’intérêts constituent une grosse partie du solde des revenus dans le compte courant, le reste comprenant le revenu des dividendes sur les investissements directs à l’étranger). La dette externe des Etats-Unis a régulièrement augmenté pour atteindre environ 50 % du PIB, donc une hausse d’un point de pourcentage du taux d’intérêt nominal se traduit par une hausse du montant des intérêts que les Etats-Unis vont devoir payer au reste du monde équivalente à un demi-point de pourcentage du PIB".

D’accord, je ne suis pas sûr du montant de dette externe auquel il se réfère. La position d’investissement international nette des Etats-Unis est d’environ – 44 % du PIB. Nos passifs bruts sont bien plus amples, s’élevant à environ 170 % du PIB, avec la composante dette de ces passifs d’environ 70 %. Tout effet d’intérêt doit affecter les passifs bruts, donc je pense que c’est plus important qu’il ne le suggère.

Premièrement, alors que les étrangers ont maintenant beaucoup d’actions aux Etats-Unis, ces derniers représentent toujours l’équivalent d’un hedge fund parmi les nations : notre dette est libellée en dollars et nous détenons des actifs qui sont effectivement en devises étrangères. Contrairement à ce que connaissent la plupart des nations débitrices, cela a pour curieuse conséquence que toute hausse du dollar aggrave notre position d’investissement nette : les passifs gonflent avec le taux de change de notre devise, pas nos actifs. Cela signifie aussi qu’une appréciation du dollar tend à avoir un effet négatif sur notre solde de revenu des investissements, si on laisse de côté les taux d’intérêt, parce que la valeur en dollars du revenu des sociétés américaines à l’étranger déclinera.

Deuxièmement, même si une grosse partie de nos passifs étrangers constitue une dette, il y a aussi beaucoup d’actions ; il y en a tellement que Rosenthal estime qu’environ un tiers des réductions d’impôts accordées aux entreprises iront au reste du monde. C’est un autre choc puissant pour le solde sur le revenu des investissements.

Donc sommes-nous dans une ère trumpienne de déficits jumeaux ? Oui, probablement. Mais les canaux via lesquels ces déficits apparaîtront seront quelque peu différents de ceux de l’époque de Reagan. »

Paul Krugman, «Trump’s twin deficits », 16 février 2018. Traduit par Martin Anota

vendredi 23 février 2018

De quoi dépend le coût des plans d’austérité ?

« De récentes études ont identifié divers facteurs susceptibles de façonner la façon par laquelle les consolidations budgétaires affectent l’économie. Cette note se focalise sur divers de ces déterminants. En l’occurrence, elle discute de la façon par laquelle la composition de la consolidation budgétaire, la position dans le cycle d’affaires, le niveau de l’endettement privé et le degré de tensions budgétaires influencent les répercussions de l’austérité. Il est nécessaire que les autorités prennent en compte sérieusement ces facteurs lorsqu’elles doivent décider du type et du calendrier des plans d’austérité.

L’expérience grecque

Depuis janvier 2018, Mário Centeno est le nouveau président de l’Eurogroupe. Durant son mandat, il devra notamment se pencher sur le problème que représentent les niveaux élevés de dette publique des pays d’Europe du sud. Par exemple, à la première réunion des ministres des Finances présidée par Centeno le 22 janvier, l’Eurogroupe est parvenu à un accord politique sur une nouvelle aide accordée à la Grèce.

Il y a des désaccords parmi les experts et les politiciens sur la façon par laquelle la crise grecque doit être traitée. Alors que les représentants des pays du nord de l’Europe plaident typiquement en faveur d’une poursuite de l’austérité, ceux du sud de l’Europe appellent au contraire pour un ralentissement des consolidations budgétaires. Le FMI propose aussi un fort allègement de la dette publique grecque. Même parmi le probable prochain gouvernement allemand, il n’y aura pas de consensus sur la réponse appropriée à apportée à la question grecque.

GRAPHIQUE Solde primaire (en %), dette publique (en %) et PIB (en indices, base 100 en 2007) de la Grèce

DIW_Mathias_Klein__Grece_PIB_dette_publique_solde_primaire.png

Le graphique montre l’évolution des mesures d’austérité budgétaire, le PIB et l’endettement public pour la Grèce. En 2008-2009, la crise financière mondiale a provoqué une sévère récession économique. Avec la baisse subséquente des recettes publiques et l’accroissement des dépenses publiques liées aux plans de relance et de sauvetage, le déficit public s’est fortement creusé et avec lui la dette souveraine. De façon à stabiliser les finances publiques, des mesures de consolidation budgétaire ont été adoptées à grande échelle. Avec ces mesures, le déficit public de 12 % a laissé plus à un léger excédent deux ans après. Entre 2010 et 2013, la période où l’austérité a été la plus forte, l’économie a connu une autre contraction. En 2017, le PIB est toujours bien inférieur à son niveau d’avant-crise, le taux de chômage est toujours supérieur à 20 % et la dette gouvernementale représente presque 180 % du PIB. La situation économique de la Grèce nous amène naturellement à nous demander dans quelles circonstances l’austérité peut se révéler néfaste à l’économie. (…)

La composition du plan d’austérité

Plusieurs travaux constatent que l’impact d’une consolidation budgétaire sur l’économie dépend de sa composition. Ces études montrent que les consolidations privilégiant les hausses d’impôts s’accompagnent de contractions de l’activité économique bien plus sévères. Il y a deux explications. Premièrement, Guajardo et ses coauteurs (2014) affirment que l’activité est moins affectée par les ajustements budgétaires privilégiant les baisses de dépenses publiques du fait que les banques centrales ont davantage tendance à réduire leurs taux d’intérêt dans de telles situations, si bien que l’assouplissement monétaire compense alors en partie les effets négatifs des consolidations budgétaires. Deuxièmement, en se fondant sur un modèle DSGE nouveau keynésien, Alesina et ses coauteurs (2017) suggèrent que la forte persistance des plans d’austérité contribue à expliquer pourquoi les baisses de dépenses publiques n’ont pas le même impact sur l’activité que les hausses d’impôts.

La position dans le cycle d’affaires

Jordà et Taylor (2016) ont cherché à savoir si l’impact des mesures d’austérité variait selon la position dans le cycle économique. En l’occurrence, ils constatent de forts effets asymétriques selon que l’économie est en expansion ou connaît une contraction. Tandis que les consolidations mises en œuvre durant les périodes d’expansion n’induisent qu’un léger recul de l’activité économique, les conséquences négatives sur l’activité sont amplifiées durant les périodes de faiblesse économique. Rendahl (2016) et Michaillat (2014) proposent différents modèles théoriques qui reproduisent ces constats empiriques. La principale conclusion de ces deux modèles est qu’en période de chômage élevé il existe un montant élevé de ressources non utilisées dans l’économie. Une réduction de la demande globale provoquée par la baisse des dépenses publiques ou par un accroissement des impôts déprime alors davantage la situation sur le marché du travail. Par conséquent, une consolidation budgétaire déprime la demande privée bien plus fortement lorsqu’elle est mise en œuvre durant les périodes de faiblesse économique que lorsqu’elle est mise en œuvre au plein emploi.

L’endettement privé

En plus de la position dans le cycle économique, Klein (2017) constate que les coûts de l’austérité dépendent crucialement du niveau d’endettement privé. En l’occurrence, les consolidations budgétaires entraînent des contractions sévères lorsqu’elles sont mises en œuvres dans un contexte de fort endettement privé. Inversement, les consolidations budgétaires n’ont pas d’effet significatif sur l’activité économique quand le secteur privé est peu endetté. Qu’est-ce qui peut expliquer ces résultats ? Les données empiriques suggèrent que le degré de frictions financières dans le secteur privé est principalement déterminé par le niveau excessif de dette privée (comme le suggèrent par exemple Eggertsson et Krugman, 2012, ou encore Guerrieri et Iacoviello, 2017). Quand l’endettement privé est faible, les contraintes en termes de collatéral sont souvent lâches, tandis qu’elles se font sentir quand les ménages et les entreprises sont très endettés. Typiquement, l’impact des chocs de demande est amplifié quand les contraintes en termes de collatéral se font sentir. Donc, étant donné qu’un contexte de fort endettement privé coïncide avec les périodes où les contraintes en termes de collatéral se font sentir, une réduction des dépenses publiques entraîne un plus fort déclin de l’activité économique que lorsque l’endettement privé est faible, c’est-à-dire que les contraintes sont lâches. Engler et Klein (2017) discutent des interrelations entre endettement privé, consolidations budgétaires et faible croissance économique pour les pays du sud de l’Europe.

Dans une étude connexe, Klein et Winkler (2017) constatent aussi que les conséquences distributionnelles des consolidations budgétaires sont amplifiées quand l’endettement privé est élevé. L’austérité mène à une hausse forte et durable des inégalités de revenu durant les périodes où l’endettement privé est excessif. A l’inverse, il n’y a pas d’effets distributifs discernables quand le secteur privé est peu endetté. Ce constat peut trouver une explication dans ce qu’on appelle le canal de l’hétérogénéité des rémunérations. Dans la mesure où les ménages à faible revenu sont les plus exposés aux pertes d’emploi, ce canal implique que les rémunérations du travail en bas de la répartition peuvent s’en trouver disproportionnellement affectées. En effet, Klein et Winkler (2017) montrent que les consolidations budgétaires mènent à un déclin significatif de l’emploi agrégé dans les pays où le secteur privé est très endetté, tandis que l’emploi en est peu affecté quand la dette privée est faible.

Le risque de défaut souverain

Un dernier déterminant qui s’avère important pour les effets des consolidations budgétaires est le degré de risque de défaut souverain. Born et ses coauteurs (2015) constatent que les consolidations budgétaires qui sont mises en œuvre lorsque le risque de défaut souverain est élevé provoquent une forte chute du PIB, du moins à court terme. En outre, ils montrent que la prime de défaut elle-même s’accroît quand les mesures d’austérité sont entreprises dans des périodes de tensions budgétaires élevées. Les deux effets sont bien plus faibles quand les tensions budgétaires sont faibles. Les auteurs expliquent ce constat par un comportement rationnel des investisseurs financiers. Si les turbulences budgétaires sont déjà fortes et si une consolidation budgétaire rend le défaut encore plus probable en raison de son impact la production, les épargnants exigent une prime de défaut encore plus élevée. Donc, le plan d’austérité peut provoquer un cercle vicieux où interagissent fortes tensions budgétaires, faible croissance économique et accroissement du fardeau de dette publique.

Conclusion

La littérature florissante de ces dernières années sur les consolidations budgétaires a décelé divers facteurs susceptibles de profondément influencer l’impact des mesures d’austérité sur l’activité. En l’occurrence, les répercussions des consolidations budgétaires dépendent fortement de la composition du plan d’austérité, de la position dans le cycle économique, de la position dans le cycle de l’endettement privé et du risque de défaut souverain. Les décideurs politiques doivent tenir compte de ces facteurs lorsqu’ils envisagent de mener des programmes de consolidation budgétaire. »

Mathias Klein, « What determines the costs of fiscal consolidations? », in DIW Roundup, 19 février 2018. Traduit par Martin Anota

- page 1 de 29