Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

mercredi 20 juin 2018

Démographie et croissance à long terme

« Les économistes se sont penchés sur les relations entre démographie et croissance à long terme, dans le contexte de l’hypothèse de la stagnation séculaire. Nous passons en revue les récentes contributions sur ce sujet.

Cooley et Henrikson affirment que les facteurs démographiques ne peuvent pas expliquer entièrement le ralentissement à long terme de la croissance, mais qu’ils y contribuent certainement. Le changement démographique est persistant et prévisible. Dans la plupart des pays développés, l’âge moyen va s’accroître et l’espérance de vie va sûrement s’allonger. Cela peut avoir d’importantes conséquences pour la croissance économique à long terme. Les politiques économiques qui cherchent à atténuer les effets du vieillissement sur la croissance à long terme vont avoir à inciter davantage les ménages à offrir davantage de capital et de travail au cours de leur cycle de vie, en particulier leur offre de travail en fin de vie active.

Dans un entretien en podcast, Hal Varian dit que si la technologie ne peut pas stimuler davantage la productivité, alors nous avons un réel problème. Dans trente ans, la main-d’œuvre mondiale ne ressemblera plus à celle d’aujourd’hui, comme la population en âge de travail dans plusieurs pays, en particulier dans les pays développés, commence à décliner. Alors que certains travailleurs craignent aujourd’hui de perdre leur emploi à cause de la technologie, les économistes se demandent si cette dernière va suffisamment stimuler la productivité pour compenser les effets du vieillissement sur celle-ci ; c’est ce qu’on appelle le "paradoxe de la productivité". Varian pense qu’il y a trois forces à l’œuvre. L’une d’entre elles est le manque d’investissement au sortir de la Grande Récession, comme les entreprises ont été lentes à retrouver leurs niveaux d’investissement d’avant-crise. La deuxième force a été la diffusion de la technologie, l’écart croissant entre certaines des entreprises les plus avancées et les entreprises les moins avancées. Et troisièmement, les indicateurs existants ont du mal à saisir la nouvelle économie. Varian croit que la démographie est importante, en particulier maintenant que les générations du baby boom, qui constituaient l’essentiel de la main-d’œuvre des années soixante-dix aux années quatre-vingt-dix, partent à la retraite, mais vont continuer à consommer.

Ferrero, Gross et Neri pensent que la démographie importe pour la stagnation séculaire et les faibles taux d’intérêt. Ils développent un modèle dynamique de panel pour les pays de la zone euro et réalisent une analyse contrefactuelle du passé en imaginant ce qui se serait passé si les ratios de dépendance avaient été plus favorables entre 2006 et 2015 qu’ils ne l’ont été. De plus, ils présentent aussi une évaluation contrefactuelle des performances futures, en supposant que les ratios de dépendance varient en lien avec les projections assez adverses de la Commission européenne, avec des hypothèses plus favorables pour la période 2016-2025. Dans les deux cas, les projections contrefactuelles suggèrent un rôle économiquement et statistiquement pertinent pour la démographie. Les taux d’intérêt auraient été plus élevés et la croissance économique plus forte sous des hypothèses favorables. En ce qui concerne l’évaluation des performances futures, les taux d’intérêt resteraient à des niveaux relativement faibles sous l’hypothèse que la démographie évolue comme le prévoit la Commission européenne et ne s’accroîtrait visiblement que sous des hypothèses optimistes pour les ratios de dépendance.

L’étude antérieure de Gottfries et Teulings a avancé que la démographie a joué un rôle important dans la réduction des taux d’intérêt. La hausse de l’espérance de vie, qui n’a pas été compensée par une hausse de l’âge de départ à la retraite, a entraîné un accroissement du stock d’épargne. Celui-ci va se traduire par des hausses de prix pour les actifs dont l’offre est fixe (comme l’immobilier) plutôt que par un supplément de capital. Les remèdes potentiels pour absorber l’épargne supplémentaire sont le recul de l’âge de départ à la retraite et une extension des systèmes par répartition. De même, Aksoy, Basso, Grasl et Smith estiment que le vieillissement démographique prévu pour les prochaines décennies devrait grandement contribuer à réduire la croissance de la production et des taux d’intérêt réels dans les pays de l’OCDE.

Mais ce n’est pas une conclusion qui fait consensus. Une étude antérieure de Favero et Galasso affirme que les tendances démographiques en Europe ne soutiennent pas empiriquement l’hypothèse de stagnation séculaire. Leurs données suggèrent que la structure en âge de la population génère moins de croissance à long terme, mais des taux réels positifs. Les politiques pour la croissance deviennent très importantes. Ils évaluent la pertinence de la structure démographique pour le choix entre ajustements macroéconomiques et réformes structurelles et ils montrent que les personnes d’âge intermédiaire et les personnes âgées ont une vision plus négative des réformes, de la compétitivité et de la mondialisation que les jeunes. Leurs résultats suggèrent que les vieux pays (ceux dont les personnes âgées représentent une part importante de la population) doivent davantage se tourner vers les ajustements macroéconomiques, tandis que les jeunes nations soutiennent davantage les réformes structurelles.

Cervellati, Sunde et Zimmermann adoptent une perspective mondiale, de long terme sur les récents débats à propos de la stagnation séculaire, qui se sont jusqu’à présent focalisés sur le court terme. L’analyse est motivée par l’observation des interactions entre dynamique économique et transition démographique qui sont survenues ces 150 dernières années dans le monde développé. Dans la mesure où les taux de croissance élevés par le passé ont en partie résulté de changements singuliers qui se sont produits durant la transition économique et démographique, la croissance est susceptible de s’affaiblir une fois que la transition sera achevée. Parallèlement, une transition similaire est sur la voie dans la plupart des pays en développement, avec de profondes conséquences pour les perspectives de développement dans ces pays, mais aussi pour le développement comparatif mondial. Les preuves empiriques qui sont mises en avant suggèrent que les dynamiques démographiques de long terme ont potentiellement d’importantes implications pour les perspectives d’accumulation du capital humain et physique, l’évolution de la productivité et la question de la stagnation séculaire.

Adair Turner affirme que la tendance baissière du taux de fertilité américain que l’on observe actuellement serait embêtante si une forte croissance et la confiance économique nécessitaient une main-d’œuvre plus importante, mais les études parviennent difficilement à trouver une corrélation entre fécondité et résultats économiques et les Etats-Unis n’ont pas à s’inquiéter. Comme les gens vivent plus longtemps et, en l’occurrence, plus longtemps avec une bonne santé, les âges de départ à la retraite peuvent et doivent être repoussés. Et avec la perspective d’une ample automatisation, qui menace d’entraîner une croissance à faible salaire et d’alimenter les inégalités, une expansion de la population active n’est ni nécessaire, ni bénéfique, et une légère contraction de l’offre de travailleurs peut créer des incitations à améliorer la production et soutenir la croissance du salaire réel. »

Silvia Merler, « Demographics and long run growth », in Bruegel (blog), 18 juin 2018. Traduit par Martin Anota

lundi 18 juin 2018

Réflexions sur la guerre commerciale

« (…) Donc, une véritable guerre commerciale semble maintenant très probable et il est temps de se demander ce que cela pourrait signifier. Je pense qu’il y a trois grandes questions :

1. Jusqu’à quel point les tarifs douaniers peuvent-ils grimper ?

2. De combien pourraient-ils réduire le commerce mondial ?

3. A quel point cette guerre commerciale sera-t-elle coûteuse ?

Ce sont des questions épineuses, comme je vais le montrer. Mais il est probable qu’une guerre commerciale totale puisse se traduire par des droits de douane dans l’éventail des 30-60 % ; cela entraînerait une très grande réduction du commerce, peut-être de 70 % ; mais le coût global pour l’économie mondiale serait plus faible que la plupart des gens ne l’imaginent, peut-être une réduction de 2 à 3 % du PIB mondial. Ce dernier calcul ne prend cependant pas en compte les effets perturbateurs de la démondialisation : certains y gagneraient, mais beaucoup, une grande part des groupes et communautés aux Etats-Unis, en subiraient un sacré coup, en particulier à court et moyen termes.

Jusqu’à quel point les tarifs peuvent-ils grimper ?


Qu’entend-on nous par "guerre commerciale" ? Dans le contexte actuel, nous faisons référence à une situation dans laquelle les économies, prenant l’exemple sur les Etats-Unis, abandonnent les règles et accords qui contraignent actuellement leurs droits de douane et commencent à fixer unilatéralement des droits de douane pour poursuivre ce qu’ils perçoivent comme étant leurs intérêts personnels. (…) Que ce soit dans le domaine du commerce ou dans d’autres domaines, les perceptions de Trump semblent généralement à côté de la plaque. (…)

En tous cas, il y a eu plusieurs tentatives visant à modéliser la guerre commerciale au fil des années et celles-ci relèvent de l’une des deux approches suivantes. La première consiste à imaginer que les gouvernements maximisent en fait le revenu national ou peut-être une fonction objectif qui donne un poids supplémentaire aux groupes d’intérêt bien organisés. La seconde approche s’appuie sur l’histoire passée, avant que les accords commerciaux internationaux ne deviennent la norme. Heureusement, ces approches suggèrent des niveaux de droits de douane similaires.

En ce qui concerne la première approche : tout pays suffisamment large pour affecter les prix mondiaux des biens qu’il exporte, les biens qu’il importe ou tous ces prix a un "droit de douane optimal" supérieur à zéro. En effet, en limitant ses échanges, un tel pays améliore ses termes de l’échange : le prix de ses exportations relativement au prix de ses importations. Cela accroît le revenu réel, toute chose égale par ailleurs. Et le droit de douane optimal met en balance les coûts qu’entraîne un commerce restreint (par exemple, le coût qu’il y a à produire des biens dans l’économie domestique au lieu de les acheter moins chers à l’étranger) avec les gains d’une amélioration des termes de l’échange.

Le problème est que, si chaque pays fait cela, vous obtenez les coûts d’un commerce restreint sans les bénéfices d’une amélioration des termes de l’échange, parce que les autres pays vous font ce que vous essayez de leur faire. Donc, vous finissez dans une situation de "guerre tarifaire optimale", qui s’apparente davantage à une course à l’armement qu’à une guerre frontale, dans le sens où il n’y a (habituellement) ni victoire, ni résolution, mais juste un immense gâchis de ressources.

Donc, comment estime-t-on les effets d’une guerre tarifaire optimale ? Vous avez besoin d’un modèle d’équilibre général calculable du commerce mondial, quelque chose qui montre comment la production et les flux d’échanges dépendent des droits de douane, calibré pour coller aux données actuelles. Ensuite, vous devez trouver un équilibre (…) dans lequel chaque pays adopte son droit de douane optimal en fonction de ce que les autres font.

Il y a plusieurs hypothèses et imputations derrière cela. Les résultats dépendent fortement de la facilité avec laquelle les biens d’un pays peuvent se substituer aux biens d’un autre ; un paramètre qu’il est difficile d’estimer. Pour autant, certains ont récemment cherché à l’estimer : Ossa constate qu’une guerre commerciale mènerait, sous ses hypothèses préférées, à des droits de douane de presque 60 %, tandis que Nicita et ses coauteurs, en utilisant des hypothèses légèrement différentes, estiment que les droits de douane augmenteraient de 32 points de pourcentage par rapport à leurs niveaux courants.

Si cela semble trop abstrait, vous pouvez regarder ce qui s’est passé au cours de l’histoire : les droits de douane Smoot-Hawley, la dernière grande mesure protectionnisme des Etats-Unis avant que nous créions le système des accords commerciaux, poussèrent les droits de douane à environ 45 % sur les importations "taxables" (…). Vous pouvez vous demander pourquoi je ne dis pas 59 %, le taux maximal qui avait été atteint en 1932 ; ce pic a été atteint accidentellement (puisque les protectionnistes ne voulaient pas un taux aussi élevé) en conséquence de la déflation qui poussa à la hausse le taux de protection pour les biens dont les droits de douane étaient spécifiés en dollars par unité plutôt qu’en pourcentage.

Donc, aussi bien les données historiques que les modèles quantitatifs suggèrent qu’une guerre mondiale entraînerait des droits de douane assez élevés, avec des taux certainement supérieurs à 40 %.

De combien déclinerait le commerce ?


Pour tout droit de douane donné, l’ampleur de la réduction des échanges dépend de l’élasticité de la demande d’importations, qui indique de combien les importations baissent (en pourcentage) lorsque leur prix augmente de 1 %. De telles élasticités sont difficiles à estimer, parce que nous n’avons pas beaucoup d’expériences naturelles. (Les fluctuations des taux de change modifient les prix des importations, mais elles ne nous donnent qu’une idée des effets à court terme et chacun croit que les élasticités de long terme sont bien plus élevées.) D’après ce que j’ai lu dans la littérature sur le sujet, les estimations les plus acceptés pour l’élasticité de la demande d’importations tournent autour de 3 à 4, mais il y a beaucoup d’incertitude ici.

Si nous croyons vraiment en la guerre tarifaire optimale, cependant, les effets de la guerre sur les volumes échangés sont curieusement insensibles à la valeur précise de l’élasticité. Pourquoi ? Parce que le droit de douane optimal dépend aussi de l’élasticité. Si les étrangers peuvent facilement substituer des biens aux nôtres, le droit de douane optimal est assez faible ; s’ils ne le peuvent pas, il est élevé. Donc des élasticités élevées signifient de faibles droits de douane, de faibles élasticités signifient de hauts droits de douane et le déclin du commerce est similaire. (…)

Paul_Krugman__part_commerce_mondial_Etats-Unis.png

Mes calculs sommaires suggèrent que nous pouvons nous attendre à une chute de 70 % du commerce dans un large éventail de cas. Je serais heureux d’être corrigé par les modélisateurs du commerce si je me trompe. Mais si c’est vrai, nous parlons d’un énorme recul du commerce mondial. Le graphique montre le commerce international (exportations moins importations) en part du PIB mondial depuis 1950 ; une baisse de 70 % nous ramènerait pratiquement aux niveaux des années cinquante. Si Trump nous emmène vraiment dans une guerre commerciale, l’économie mondiale sera beaucoup moins mondiale.

Quelle serait l’ampleur des coûts ?


Il y a eu par le passé beaucoup de choses qui ont été dites à propos des maux du protectionnisme ; Smoot-Hawley provoqua la Grande Dépression, etc. Il est aussi tentant de supposer que, dans la mesure où le plaidoyer de Trump pour la guerre commerciale est si stupide, les politiques commerciales de Trump doivent être totalement désastreuses.

Mais (…) de simples modèles du commerce, même s’ils disent que les guerres commerciales sont mauvaises, ne disent pas qu’elles sont catastrophiques. Pour bien le faire, nous devons utiliser l’un des modèles d’équilibre général calculables que j’ai mentionnés ci-dessus. Ils suggèrent des pertes substantielles, mais pas non plus énormes ; équivalentes à 2 ou 3 % du PIB. Ce que j’aimerais faire, c’est essayer d’éclairer pourquoi ces pertes ne sont pas plus importantes, puis expliquer pourquoi une guerre commerciale serait toutefois hautement perturbatrice.

Paul_Krugman__impact_droit_de_douane_demande_d__importations.png

Pour cela, je vais utiliser un sale petit secret de la théorie du commerce : (…) les analyses de la politique commerciale utilisant l’équilibre partiel (une offre et une demande ordinaires) vous permettent d’avoir plus ou moins la bonne réponse. Ainsi, imaginons la demande d’importations comme s’il s’agissait d’une courbe de demande ordinaire, avec les coûts du droit de douane prenant la forme d’un surplus des consommateurs perdu (cf. schéma). Ceux qui se souviennent de leurs cours d’économie à l'université savent que les coûts d’une perturbation du marché prennent normalement la forme d’un triangle approximatif (approximatif, parce que la courbe de demande n’est pas forcément droite, mais c’est un détail mineur). C’est le cas parce que la première unité importée perdue a approximativement un coût nul, parce que les gens sont indifférents à la marge entre cette unité et un produit domestique, mais la dernière unité perdue impose un coût égal au droit de douane, parce que c’est ce que les gens auraient été prêts à payer pour l’importation. Et le coût moyen des moindres importations est quelque part entre ces valeurs. Donc, quand un droit de douane pousse à la hausse des prix des importations pour les consommateurs, les amenant à acheter moins de biens importés, la perte en bien-être serait à peu près :

Perte = chute des importations x ½ droit de douane

Maintenant, les Etats-Unis dépensent 15 % de leur PIB en importations. Supposons que nous finissions avec un droit de douane de 40 % et (comme je l’ai suggéré) une chute de 70 % du commerce, alors la perte en bien-être s’élèvera à 20 % x 0,7 x 15 ou 2,1 % du PIB. Ce n’est pas un petit chiffre, mais il n’est pas non plus énorme : au fond de la Grande Récession, le CBO a estimé que le PIB était inférieur de 6 % à son potentiel. Bien sûr, cette perte était temporaire, alors qu’une guerre commerciale serait définitive. Mais ces coûts nets en termes de bien-être manquent quelque chose (…).

Perturbation


Les Etats-Unis exportent actuellement environ 12 % de leur PIB. Toute cette part ne comporte pas seulement de la seule valeur ajoutée domestique, parce que certains composants sont importés. Mais il y a toujours une part essentielle de l’économie, représentant peut-être 9 ou 10 % de celle-ci, qui est engagée dans la production pour les marchés étrangers. Et si nous avons le genre de guerre commerciale que j’ai envisagé, quelque chose comme 70 % de cette part de l’économie (ce qui concernerait 9 ou 10 millions de travailleurs) aura à faire quelque chose d’autre. Et il y aurait un effet multiplicateur sur plusieurs communautés construites autour des secteurs exportateurs, qui perdront également des emplois.

C’est simplement l’autre face de l’histoire du "choc chinois" : même si vous croyez que la croissance rapide des exportations chinoises n’a pas provoquer des destructions nettes d’emplois, elle a changé la composition et la localisation de l’emploi, laissant de nombreux perdants sur le bord de la route. Et le "choc Trump" que constituerait une guerre commerciale serait d’une plus forte magnitude. (…) »

Paul Krugman, « Thinking about a trade war », 17 juin 2018. Traduit par Martin Anota

samedi 16 juin 2018

Dans quelle mesure le rééquilibrage chinois est-il durable ?

« Je pense de plus en plus que mon opinion sur le "rééquilibrage" chinois est aux antipodes de celle qui fait actuellement consensus (ou, du moins, de celle que partagent la plupart des analystes de banques d’investissement et des journalistes financiers qui observent la Chine).

Et ce de deux façons significatives.

Premièrement, je pense que la position de la balance de paiements de la Chine est assez robuste. A la fois du point de vue des "flux" et du point de vue des "stocks". Le compte courant n’est pas vraiment sur le point de laisser place à un déficit (et, de toute façon, ce ne serait pas grave si la Chine avait un modeste déficit). Et l’Etat chinois accumule de nouveau des actifs externes d’une façon significative. Les jours où "la Chine vendait des réserves" sont révolus depuis longtemps.

Deuxièmement, je pense que le rééquilibrage qui a réduit l’excédent courant mesuré est plus fragile que ne le pensent la plupart des commentateurs. Il résulte de politiques (que vous pouvez qualifier de large déficit budgétaire "augmenté" hors budget et de croissance excessive du crédit) que certains croient être insoutenable et beaucoup pensent qu’elles sont imprudentes. Le FMI, par exemple, veut que la Chine réduise son déficit budgétaire et ralentisse le rythme de la croissance du crédit, des politiques qui accroîtraient et non réduiraient l’excédent courant.

Je pense que ces visions des choses sont cohérentes ; je tends à penser que l’excédent courant de la Chine a baissé modestement, mais il a baissé. Pourtant, la façon par laquelle il a baissé (davantage via un accroissement de l’investissement qu’à une chute de l’épargne) n’amène pas à croire qu’il va rester bas. La Chine n’a pas embrassé l’ensemble de politiques nécessaires pour un rééquilibrage plus durable, par exemple en centralisant et en étendant l’assurance sociale et créant un système fiscal bien plus progressif qui dépendrait moins de contributions sociales régressives (les taxes sur les salaires).

Je vais essayer de démontrer ces deux points.

La robustesse continue de la balance des paiements de la Chine


The Economist a mis en évidence un déficit du compte courant de la Chine au cours du premier trimestre. Le Financial Times a noté que la Chine ne semble pas intervenir sur le marché de change étranger (bien qu’une mesure d’intervention, le règlement des changes, suggère que quelqu’un achetait en avril, chose assez surprenante). Beaucoup, du FMI à Paul Krugman, ont souligné que l’essentiel de l’excédent global de la balance des paiements se trouve désormais dans les économies avancées vieillissantes (non en Chine).

Je soulignerai deux points qui contredisent cette idée :

A : L’excédent en biens manufacturés de la Chine reste large et ne présente pas de signe de baisse aux taux de change courants


GRAPHIQUE L’excédent commercial des biens manufacturés de la Chine (en milliards de dollars)

Brad_Setser__Chine_solde_commercial_biens_manufactures.png

L’excédent manufacturier annuel de la Chine est toujours autour de 900 milliards de dollars (en comparaison, l’excédent manufacturier de l’Allemagne est autour de 350-400 milliards de dollars e fonction du taux de change et le déficit américain dans les biens manufacturés est autour de 1.000 milliards de dollars) et ne présente pas de signe de baisse. Je ne vois aucun signe que la (modeste) appréciation réelle cette année érode sérieusement la compétitivité de la Chine, bien qu’elle doit modérer la performance à l’exportation de la Chine (les volumes d’exportations de biens chinoises croissent à un rythme plus rapide que le commerce mondial en 2017).

La Chine, naturellement, va exporter des biens manufacturés et importer des matières premières. Un certain excédent dans les échanges de biens manufacturés est normal. Et puisqu’elle est maintenant le plus grand importateur de pétrole du monde, son équilibre global va de plus en plus fluctuer avec le prix du pétrole. Toute hausse de 10 dollars du prix du baril se traduit par une hausse d’environ 30 milliards de dollars de la facture d’importations chinoises de pétrole et de gaz et baisse l’excédent d’un montant pratiquement similaire à court terme (ce qui importe pour le compte courant est le prix du pétrole relativement aux dépenses dans les pays important du pétrole, mais à court terme une hausse des prix du pétrole accroît le revenu des exportateurs de pétrole plus que les dépenses).

Et la Chine exporte des biens manufacturés pour payer ses importations de "vacances", même si son déficit dans le tourisme est certainement plus faible que le chiffre gonflé des données officielles chinoises.

Peu importe : l’excédent de la Chine dans les échanges de biens manufacturés continue de soutenir sa balance des paiements. Et je n’ai aucun doute que la Chine puisse ralentir les sorties des dollars (ou des yuans) du tourisme si elle s’inquiétait à propos de son compte courant.

B : La Chine accumule à nouveau des réserves


Un excédent du compte courant serait toujours associé à la faiblesse de la balance des paiements si l’excédent était plus faible que nécessaire pour financer d’amples sorties de capitaux privés, comme ce fut le cas après la dévaluation de la Chine en 2015. Mais ici aussi je pense que la position de la Chine est assez robuste. Les sorties privées nettes ont chuté et l’Etat chinois accumule à nouveau des actifs étrangers. (...)

En somme, l’Etat chinois continue de s’asseoir sur le plus gros amas d’actifs externes au monde et cet amas a significativement augmenté au cours des 18 derniers mois. Selon ma mesure, l’Etat chinois a bien plus de 4.000 milliards en actifs étrangers et ses détentions totales vont revenir d’ici la fin de l’année au niveau qu’elles atteignaient avant la dévaluation et la chute des réserves.

Un petit déficit externe (qui résulterait par exemple d’un choc pétrolier combiné à une guerre commerciale avec les Etats-Unis) ne doit pas, par conséquent, susciter des risques pour la gestion du taux de change du yuan, à moins qu’il suscite l’anticipation que les décideurs politiques chinois veulent un plus faible taux de change.

Le fragile rééquilibrage


Le raisonnement amenant à penser que le rééquilibrage de la Chine (la chute de son excédent externe) est fragile est en fait assez simple.

La Chine épargne toujours la moitié plutôt que le tiers de son PIB. Et aussi longtemps que ce sera vrai, éviter un large excédent de compte courant passerait par des politiques plutôt exceptionnelles, des politiques qui semblent imprudentes et dangereuses dans la mesure où elles se traduiraient inévitablement par une accumulation de dette interne (…).

En 2000, la Chine épargnait et investissait environ 35 % de son PIB (le compte courant présentait un modeste excédent, donc épargne était un peu plus élevée que l’investissement). En 2017 (et en 2018), même avec les récents progrès du côté de la consommation, on s’attend à ce que la Chine épargne et investisse environ 45 % de son PIB.

C’est un niveau d’épargne et d’investissement qui reste environ 10 points de pourcentage supérieur au niveau de 2000. C’est toujours un niveau d’épargne et d’investissement substantiellement plus élevé que celui qu’on avait pu observer par le passé dans les économies asiatiques à forte épargne (si on laisse de côté Singapour). (…) Aussi longtemps que l’épargne est supérieur à 40 % du PIB il y a toujours un risque que l’écart entre l’épargne et l’investissement puisse être encore plus large.

GRAPHIQUE Epargne et investissement en Chine (en % du PIB)

Brad_Setser__Chine_epargne_investissement.png

Pourtant, le FMI, qui reflète un consensus mondial, désire que la Chine réfrène la croissance de son gros mur de dette (interne) (…). Le FMI, tout comme d’autres institutions, ne pense pas que la relance budgétaire chinoise de 2016 était une bonne idée, même si cette relance budgétaire joua peut-être un rôle clé pour ramener l’excédent externe chinois sous les 2 % du PIB de la Chine après la chute du prix du pétrole. Il appelle désormais à "moins d’investissement public, de plus fortes contraintes sur l’emprunt des entreprises publiques et" des freins sur "la croissance rapide l’endettement des ménages".

C’est le genre de recommandation de politique que le FMI fait typiquement pour un pays avec un large déficit externe ; il semble tout à fait raisonnable pour, disons, la Turquie. Mais pour la Chine, une telle chute de l’absorption domestique signifierait un retour à un large excédent externe, à moins que, comme le reconnaît le FMI, ce soit accompagné d’un réel effort pour réduire l’épargne et accroître la consommation.

Pourtant il y a un risque que, lorsque la Chine réduira ce qui est sans doute un niveau inefficace d’investissement, elle le fasse sans adopter le genre de politiques nécessaires pour réduire l’épargne nationale. Ni Liu He, ni le Président Xi n’ont montré beaucoup d’intérêt dans l’extension du filet de sécurité sociale de la Chine ou l’extension de la protection sociale aux travailleurs migrants chinois.

Ce n’est pas un risque purement théorique. Réduire l’investissement public lorsque l’investissement résidentiel chutait sans soutenir la consommation s’est traduit par un fort essor de l’excédent du compte courant de la Chine en 2014 et en 2015, bien que l’ampleur de la hausse était masquée par certains changements dans la façon par laquelle la Chine mesure son compte courant.

Un programme construit autour des réformes du côté de l’offre (avec des caractéristiques chinoises) m’effraie par conséquent un peu. Aussi longtemps que la Chine épargne tant, elle aura un problème sous-jacent avec la demande interne. »

Brad Setser, « How durable is China’s rebalancing? », in Follow the Money (blog), 5 juin. Traduit par Martin Anota

samedi 9 juin 2018

La crise italienne

« Les élections italiennes ont eu des difficultés à produire un gouvernement. Alors que le pays va vers l’une des plus graves crises constitutionnelles de son histoire, nous passons en revue les récents commentaires que l'on a pu entendre sur ce sujet.

Ferdinando Giugliano note comment le Président italien a été présenté comme un ennemi de la démocratie après avoir refusé d’accepter un eurosceptique comme ministre des Finances, alors que les partis contestataires que sont la Ligue et le M5S (…) ont été salués comme les défenseurs de la volonté du peuple. Plus la querelle dure, plus il paraît manifeste que les populistes se livrent à des manœuvres politiciennes. Les populistes prétendent faire de la politique différemment, mais leurs manœuvres montrent que ce n’est pas le cas. Et celles-ci ne sont pas sans nuire au pays.

Ashoka Mody note dans Bloomberg que le Président Mattarella a sapé l’euro. En rejetant le choix d’une coalition élue par le peuple, il peut très bien avoir déclenché une crise financière d’où il sera difficile de sortir et qui peut mettre en péril tout le projet européen. Sans aucun doute, Savona a été un choix rude : le "plan B" qu’il a proposé dans le cas d’une sortie de la zone euro était irréalisable et alarmant et aurait ainsi très certainement fait du mal à l’Italie. Mais Mody pense qu’au-delà de sa rhétorique absurde, la coalition M5S-Ligue fait certaines propositions sensées et qu’au lieu de donner aux eurosceptiques l’opportunité de composer avec les complexités de l’exercice du pouvoir, Mattarella cherche à établir un autre gouvernement technocratique. En essayant de préserver l’orthodoxie européenne, cela peut déchainer des forces destructrices qui ne peuvent être contrôlées.

Jakob Funk Kirkegaard pense aussi que Mattarella a placé l’Italie sur une trajectoire de confrontation politique aussi bien au niveau domestique qu’avec les marchés financiers et le reste de l’Europe. L’Europe a déjà été sur cette trajectoire par le passé : avec la Grèce à l’été 2015. Mais tout comme le Premier Ministre Alexis Tsipras a indiqué qu’il n’était pas contre l’euro lors du référendum du 5 juillet 2015 qui a demandé au peuple si la Grèce devait accepter les conditions du renflouement par la Troïka, aujourd’hui les dirigeants des deux principaux partis italiens, Matteo Salvini de la Ligue et Louigi Di Maio du M5S, vont certainement dire qu’ils ne s’opposent pas au maintien de l’Italie dans la zone euro. Ils vont probablement lancer une autre compagne électorale en Italie pour savoir si l’Italie doit "tenir tête à l’Allemagne et à Bruxelles" pour étendre la souveraineté de l’Italie et sa capacité à décider de ses propres affaires budgétaires et économiques. Une autre victoire pour les deux partis serait dangereuse et elle serait interprétée dans le reste de la zone euro comme signalant que "les Italiens veulent partir" de la zone euro, tout comme ce fut le cas de la Grèce après le référendum de juillet 2015. La meilleure chose pour l’Allemagne, l’Italie et l’Europe serait qu’en juin les dirigeants européens acceptent d’accroître communément le contrôle aux frontières européennes et l’acceptation des réfugiés en consacrant plus de ressources à cette question qui préoccupe tant en Italie et dans le reste du continent.

Jean Pisani-Ferry pense que Mattarella a tracé une ligne séparant les choix constitutionnels des choix politiques. Dans sa logique, les décisions politiques peuvent être prises librement par un gouvernement réunissant une majorité parlementaire et le Président n’a pas le droit de remettre en cause de telles décisions. Les choix constitutionnels, à l’inverse, nécessitent un type différent de procédure de prise de décision qui assure que les électeurs soient adéquatement informés des possibles conséquences de leur décision. Cela soulève deux questions. Premièrement, quelles sont exactement les questions constitutionnelles ? En Europe, l’appartenance à l’UE fait partie de la loi fondamentale de plusieurs pays. Deuxièmement, quel type de procédures doit s’appliquer à des choix vraiment constitutionnels ? La plupart des pays n’ont pas d’article dans leur propre constitution qui définisse comment mettre un terme à l’appartenance à l’UE ou à la zone euro. Aussi longtemps que l’appartenance à l’UE et à la zone euro fait l’objet d’un large consensus, ces distinctions n’étaient des questions dignes d’intérêt que pour les experts juridiques. Ce n’est plus le cas et le débat les concernant ne risque pas de s’arrêter prochainement. Il est donc temps de faire de la distinction entre engagements européens authentiquement constitutionnels et ceux qui ne le sont pas une partie explicite de l’ordre politique de nos pays.

Daniel Gros se demande qui a perdu l’Italie. La majorité de la population a aujourd’hui une mauvaise opinion de l’UE, ce qui constitue un renversement complet par rapport au début de l’euro, quand le pays voyait la nouvelle devise comme un remède pour ses propres problèmes économiques, en l’occurrence une forte inflation (et des taux d’intérêt élevés). Les politiciens populistes affirment que les règles du Pacte de Stabilité et de Croissance ne leur permettent pas de stimuler la demande et l’emploi. Mais cela ne démontre pas que l’appartenance à la zone euro explique les mauvaises performances économiques de l’Italie : l’Espagne, le Portugal et l’Irlande, qui ont aussi dû réduire leurs déficits dans l’adversité, connaissent une plus forte reprise que l’Italie. Gros en conclut que les racines de la crise actuelle sont domestiques ; elles ont peu à voir avec les règles budgétaire ou l’absence de partage des risques au niveau européen. La faible croissance de l’Italie depuis le tournant du siècle ne s’explique pas par l’investissement, l’éducation ou des indicateurs de libéralisation des marches ; le seul domaine dans lequel la performance relative de l’Italie s’est détériorée depuis 1999-2000 est la qualité dans la gouvernance du pays. L’euro est devenu un bouc-émissaire et cela fait obstacle aux réformes nécessaires. (...)

Harold James écrit dans Project Syndicate que la colation M5S-Ligue joue la stratégie du fou. Cette dernière repose tout d’abord sur la capacité de générer une incertitude suffisamment forte pour nuire aux autres pays. Deuxièmement, son gouvernement doit être capable de convaincre tout le monde que ce sont les électeurs qui l'appellent à prendre des décisions "folles". Dans le cas de l’Italie, les populistes ont capitalisé sur le désenchantement des électeurs envers un parti de centre-gauche dont l’orientation pro-européenne a échoué à délivrer des résultats. Troisièmement, il doit y avoir une division claire entre les "faucons" et les "colombes" dans le gouvernement du fou. Dans le cas de la coalition M5S-Ligue, un faucon était nécessaire comme contrepoids au président pro-européen Sergio Mattarella. Cela pourquoi les populistes ont choisi Paolo Savona comme Ministre de l’Economie et des Finances. Quand Mattarella a rejeté la nomination, la coalition a quitté les discussions, précipitant la crise actuelle. Finalement, pour réussir, un gouvernement fou doit avoir un plan de guerre plausible pour provoquer une perturbation générale. Par exemple la coalition M5S-Liguea suggéré qu’elle pourrait émettre une devise parallèle, ce qui donna davantage de crédibilité à sa menace de poursuivre une expansion budgétaire en violation des règles de l’UE. Dénoncer les dangers de la stratégie du fou ne suffira pas pour la battre. Les électeurs doivent aussi être convaincus que de meilleures alternatives sont possibles et que l’intégration européenne peut encore sauvegarder leurs intérêts. Au cours des prochains mois, avant que se tiennent les prochaines élections en Italie et les européennes en mai 2019, les dirigeants européens vont avoir du temps (mais pas beaucoup) pour montrer que l’intégration européenne n’est pas synonyme de paralysie politique et de stagnation économique.

Selon Olivier Blanchard, Silvia Merler et Jeromin Zettelmeyer, la composition de la coalition à venir et son accord pour gouverner ne permettent pas d’imaginer une séquence politique qui ne se solde pas par une collision avec les marchés financiers et l’Union européenne. L’ampleur du creusement du déficit qui résulterait de l’adoption des mesures annoncées va probablement violer toutes les règles budgétaires domestiques et européennes et placer la dette publique sur une trajectoire insoutenable. Pour sortir de la trajectoire de collision, il faudrait que soit la Ligue, soit le M5S recule, or il y a peu de chances qu’un des deux partis le fasse volontairement. Par conséquent, un scénario dans lequel le gouvernement corrige la trajectoire avant que la situation s’envenime apparaît improbable. Un scénario dans lequel l’Italie perd l’accès aux marchés, ne parvient pas à négocier avec les autorités européennes et opte pour la sortie de la zone euro est tout à fait imaginable, mais il reste toutefois peu probable, dans la mesure où le gouvernement peut finir par reprendre ses esprits et où il peut faire face à des contraintes constitutionnelles ou politiques. »

Silvia Merler, « The Italian crisis », in Bruegel (blog), 4 juin 2018. Traduit par Martin Anota

vendredi 8 juin 2018

Oh, quelle guerre commerciale bien stupide !

« Ainsi, la guerre commerciale est enclenchée. Et c’est une guerre commerciale bien stupide. (…) La justification officielle (et légale) pour les droits de douane sur l’acier et l’aluminium est la sécurité nationale. C’est évidement un argument fallacieux, étant donné que les principales victimes directes sont des démocraties alliées. Mais Trump et compagnie ne semblent pas inquiets à l’idée de mentir à propos de la politique économique, puisque c’est ce qu’ils font pour tout. Ils n’y verraient qu’un jeu équitable si la politique délivrait les créations d’emplois que promet Trump. Est-ce qu’elle va y parvenir ?

D’accord, voici le point où le fait d’être un économiste me place en difficultés. (…) L’effet net d’une politique commerciale en termes de création ou de destruction d’emplois (en l’occurrence de toute politique commerciale, peu importe qu’elle soit bien ou mal conçue) est fondamentalement nul. Pourquoi ? La Fed est actuellement en train de relever graduellement ses taux d’intérêt, parce qu’elle croit que nous sommes plus ou moins au plein emploi. Même si les droits de douane sont expansionnistes, cela inciterait la Fed à accélérer le resserrement monétaire, ce qui va détruire des emplois dans d’autres secteurs : la construction serait affectée par la hausse des taux, le dollar s’apprécierait, rendant les biens manufacturés américains moins compétitives, et ainsi de suite. Donc toute ma formation professionnelle veut que j’esquive la question des emplois en la considérant comme hors-champ.

Mais je pense que c’est un cas où la macroéconomie (même si je crois qu’elle a raison) ne permet pas d’avoir une discussion utile. Nous voulons savoir si la guerre commerciale de Trump va être directement expansionniste ou récessive, c’est-à-dire si elle va créer ou détruire des emplois en l’absence de changement de la politique monétaire, même si nous savons que la politique monétaire n’optera pas pour le statu quo.

Et la réponse, sûrement, est que cette guerre commerciale va en fait détruire des emplois et non en créer, pour deux raisons. Premièrement, Trump instaure des tarifs douaniers sur des biens intermédiaires, des biens qui sont utilisés comme intrants dans la production d’autres choses, des choses qui, pour celles d’entre elles, qui sont vendus sur les marchés mondiaux perdront en compétitivité. Evidemment, les voitures et d’autres biens manufacturés durables vont devenir plus chers à produire, ce qui signifie que nous allons en vendre moins ; et, quels qu’ils soient, les gains qu’il y aura en termes d’emplois dans le secteur des métaux primaires seront compensés par des destructions d’emplois dans les secteurs en aval. Si l’on regarde les chiffres, il semble très probable que même cet effet direct soit en net négatif pour l’emploi. Deuxièmement, d’autres pays vont répliquer contre les exportations américaines, ce qui va détruire des emplois partout, des motos aux saucisses.

Sur certains points, cette situation me rappelle les tarifs douaniers sur l’acier de George W. Bush, qui étaient en partie motivées par l’orgueil : l’administration Bush considérait les Etats-Unis comme la superpuissance invincible du monde, ce qui était certes le cas sur le plan militaire, mais elle a échoué à reconnaître que notre puissance était moindre sur les plans économique et commerciale, que nous avions beaucoup à perdre d’un conflit commercial. Elle a rapidement été réprimandée par une Union européenne en colère et elle a fait marche arrière.

Dans le cas de Trump, je pense que c’est un autre genre d’illusion : il imagine que parce que nous générons des déficits commerciaux, en important plus de biens de certains pays que ces derniers ne nous en achètent, nous aurions peu à perdre et que le reste du monde va bientôt se soumettre à sa volonté. Mais il a tort, pour au moins quatre raisons.

Premièrement, même si nous exportons moins que nous importons, nous exportons tout de même beaucoup ; les mesures commerciales adoptées par les autres pays en représailles vont nuire à de nombreux travailleurs américains et en particulier aux fermiers, en l’occurrence à de nombreux électeurs de Trump et qui vont désormais se sentir trahis.

Deuxièmement, le commerce moderne est compliqué. Il ne s’agit pas seulement de pays se vendant des biens finaux les uns aux autres. Il y a de complexes chaînes de valeur, que la guerre commerciale de Trump va perturber. Cela va créer beaucoup de perdants parmi les Américains, même s’ils ne sont pas directement employés dans les secteurs produisant des biens pour l’exportation.

Troisièmement, si la guerre commerciale va plus loin, elle va accroître les prix à la consommation. Au moment même où Trump cherche désespérément à convaincre les familles ordinaires qu’elles vont y gagner avec sa baisse d’impôts, il en faudra peu pour effacer les éventuels gains qu’elles en percevraient. Enfin, et je pense que c’est très important, nous parlons ici de réels pays ici, principalement des démocraties. De réels pays ont une réelle politique ; ils ont de la fierté ; et leur électorat n’aime pas Trump. Cela signifie que même si leurs dirigeants veulent bien faire des concessions, leurs électeurs ne le veulent probablement pas.

Considérons le cas du Canada, un aimable petit voisin qui peut être négativement affecté par une guerre commerciale avec son géant voisin. Vous pouvez penser que cela rend les Canadiens plus intimidables que l’Union européenne, qui est une superpuissance économique aussi importante que les Etats-Unis. Mais même si le gouvernement Trudeau était enclin à abandonner (…), il ferait face à un tollé général de la part des électeurs canadiens pour tout ce qui apparaîtrait comme une capitulation face à l’ignoble brute d’à côté.

Donc, c’est dans un conflit économique remarquablement stupide que nous nous enfonçons. Et la situation dans cette guerre commerciale est susceptible de ne pas tourner à l’avantage de Trump. »

Paul Krugman, «Oh, what a stupid trade war », 31 mai 2018. Traduit par Martin Anota

samedi 2 juin 2018

La guerre commerciale intermittente de Trump avec la Chine

« Le 29 mai, soit neuf jours après avoir annoncé que la guerre commerciale avec la Chine était suspendue, l’administration Trump a fait marche arrière pour la reprendre. Pour l’heure, la Maison blanche projette à nouveau d’instaurer au 15 juin des droits de douane de 25 % sur l’équivalent de 50 milliards de dollars d’importations de produits chinois. Mais les terrains sur lesquels Trump s’en prend le plus à la Chine sont ceux qui sont les moins sensés.

Essayer de cerner la position de Trump à un quelconque instant dans le temps revient à essayer de cerner la position d’une particule : elle est mieux saisie comme ayant une distribution probabiliste que comme ayant une véritable position dans l’espace qui puisse être découverte via une observation et une analyse suffisamment fines. En fait, la "position" peut ne pas exister.

Même en des circonstances normales, il serait difficile de suivre la demi-douzaine, ou plus, de questions commerciales relatives à la Chine qui sont discutées. Certaines des actions qui sont en cause peuvent trouver une certaine justification économique, politique ou juridique, mais d’autres non.

Commençons par noter que lorsque les Etats-Unis vont à l’encontre des institutions et accords internationaux, par exemple en instaurant des droits de douane qui violent les règles de l’OMC ou d’autres accords internationaux, même si nous laissons de côté les effets économiques négatifs immédiats, nous donnons aux autres pays de bonnes raisons de ne pas croire en nos propos et de s’engager dans un comportement similaire au nôtre. Les choses sont bien pires parce que les Etats-Unis ont eu le rôle dominant dans la construction des institutions comme l’OMC. Et nous les avons façonnées parce de tels accords et institutions internationaux étaient dans notre intérêt national.

Les actions qui sont peu logiques


L’obsession récurrente la moins logique de Trump est sa demande que la Chine réduise l’excédent commercial bilatéral qu’elle entretient avec les Etats-Unis. Le gouvernement chinois n’a pas de leviers politiques qui puissent réduire le solde bilatéral de 100 ou 200 milliards de dollars. S’il voulait donner une victoire superficielle à Trump, il pourrait quelque peu réduire le déficit commercial bilatéral en achetant davantage de gaz naturel américain ou en faisant exporter les smartphones via un autre pays comme la Corée du Sud. Mais l’économie serait illusoire. Il n’y aurait virtuellement aucun effet sur le déficit commercial global des Etats-Unis : nous vendrions le même gaz naturel à autre pays si nous ne le vendions pas aux Chinois et, en réalité, ces smartphones tirent déjà 95 % de leur valeur ajoutée de la Corée du Sud, des Etats-Unis et d’autres pays. C’est une perte de temps de se focaliser sur le solde bilatéral et non sur le solde commercial global. Qu’importe ce qui se passe avec la Chine, le déficit commercial américain global va s’accroître cette année en conséquence de la réduction d’impôts des Républicains, mise en œuvre à un moment où l’économie produit déjà aux limites de ses capacités.

Tout aussi peu justifiés sur les plans économique et légale sont les droits de douane que Trump a instauré sur les importations d’acier et d’aluminium et qu’il menace d’instaurer sur les automobiles et autres biens. Au regard des critères juridiques, le prétexte de la sécurité nationale qu’il a invoqué est extrêmement fragile et va probablement inciter d’autres pays à répliquer. Au regard des critères économiques, les bénéficiaires dans le secteur producteur d’acier, par exemple, sont bien moins nombreux que ceux qui en seront affectés parce qu’ils utilisent l’acier comme intrants (le secteur automobile par exemple), parce qu’ils consomment des produits finaux utilisant de l’acier (nous tous) ou parce qu'ils produisent des biens destinés à l’exportation qui vont être frappés par les mesures adoptées en représailles (par exemple les fermiers). En étendant les droits de douane aux automobiles n’aide pas non plus ; cette décision ignorerait à quel point la production d’automobiles est intégrée au-delà des frontières américaines.

Les actions qui pourraient avoir une certaine logique


Davantage justifiées sont les sanctions américaines imposées juridiquement sur la compagnie des télécoms chinoise ZTE pour avoir violé les sanctions internationales contre l’Iran et la Corée du Sud. Mais c’est précisément la question sur laquelle Trump semble le plus clairement avoir laissé la Chine hors de son champ de vision.

Entre ces deux extrêmes, il y a certains griefs que les Etats-Unis pourraient émettre en poursuivant des négociations avec la Chine si celles-ci sont faites intelligemment. Ils portent sur les droits de propriété intellectuelle et sur la pratique chinoise exigeant des entreprises étrangères qui veulent s’installer en Chine de partager leur technologie. Mais pour s’attaquer à de tels problèmes, les Etats-Unis doivent le faire en coopération avec des alliés comme l’Europe et dans le cadre d’accords internationaux comme l’OMC et le Partenariat transpacifique. Trump fait l’inverse.

Peut-on expliquer l’approche de Trump ?


L’approche de Trump vis-à-vis de la Chine a été si incohérente que les observateurs ont eu du mal à y trouver des explications. Certains suggèrent qu’il y a des contreparties pour les affaires de la famille de Trump, des divisions entre les factions "nationalistes" et "entrepreneuriales" de son équipe, une tendance de la part du Président à être persuadé par toute personne qui lui parle, un désir de devancer les démocrates protectionnistes et un instinct à faire l’opposé de ce qu’Obama aurait fait.

Il est plus facile de dire ce que l’approche de Trump n’est pas. Ce n’est pas l’application délibérée ou compétente d’une stratégie cohérente fondée sur un ensemble clair d’objectifs de politique américaine, une compréhension des incitations des autres pays ou une appréciation des implications que des tweets impulsifs peuvent avoir sur le système global à long terme ou même pour la prochaine décision dans un jeu tactique de court terme.

L’essor de la Chine comme grande puissance au cours des trois dernières décennies a peu à voir avec les termes de tout accord commercial international qui a été fait ou qui aurait pu être fait. Les questions relatives aux échanges bilatéraux qui sont en discussion peuvent être perçues comme ayant de faibles enjeux. C’est particulièrement vrai en comparaison avec certaines questions plus importantes en termes de sécurité nationale. Nous avons davantage besoin de l’aide de la Chine avec une Corée du Nord de nouveau nucléarisée qu’avec n’importe quelle de nos exigences commerciales.(...) »

Jeffrey Frankel, « Trump’s on-again off-again trade war with China », in Econbrowser (blog), 31 mai. Traduit par Martin Anota

jeudi 31 mai 2018

L’Europe et les malédictions de la richesse

« (…) Quiconque voyageant en Europe de l’Ouest, en particulier durant l’été, ne peut rester insensible à la richesse et à la beauté du continent, ni à sa qualité de vie. Cette dernière est moins manifeste aux Etats-Unis (malgré un revenu par tête plus élevé) en partie en raison de la plus grande taille du pays et de sa plus faible densité démographique : les Etats-Unis n’offrent pas au voyageur le spectacle de campagnes préservées émaillées par de nombreux châteaux, musées, excellents restaurants et wi-fi, que l'on peut trouver en France, en Italie ou en Espagne. Je pense que l’on peut raisonnablement affirmer que personne dans le monde, au cours de l’histoire, n’a vécu aussi bien que les habitants de l’Europe de l’ouest aujourd’hui et en particulier les Italiens. Pourtant, comme chacun le sait, il y a un profond malaise et un mécontentement sur l’ensemble du continent, pas seulement en Italie : de l’insatisfaction avec les politiques européennes, avec l’immigration, avec les perspectives pour les jeunes générations, la précarité des emplois, l’incapacité de concurrencer les travailleurs peu payés d’Asie et de rattraper les géants de la haute technologie des Etats-Unis (…). Mais je ne vais pas écrire sur ce sujet aujourd’hui. J’aimerais me pencher sur deux "malédictions de la richesse" que porte paradoxalement en elle la prospérité européenne.

La première malédiction de la richesse est liée à la migration. Le fait que l’Union européenne soit si prospère et pacifique, en comparaison avec ses voisins de l’Est (l’Ukraine, la Moldavie, les Balkans et la Turquie) et surtout en comparaison avec le Moyen-Orient et l’Afrique en fait une excellente destination d’émigration. Non seulement l’écart de revenu entre, d’une part, le cœur de l’Europe, c'est-à-dire les 15 premiers pays-membres de l’Union européenne et, d’autre part, le Moyen-Orient et l’Afrique est énorme, mais il s’est aussi creusé. Aujourd’hui le PIB par tête en Europe de l’Ouest est d’environ 40.000 dollars ; le PIB par tête de l’Afrique subsaharienne est de 3.500 (ce qui signifie un rapport de 7 à 1). Puisque les Africains peuvent multiplier leurs revenus par dix en émigrant en Europe, il est peu surprenant que les migrants continuent de venir, malgré les obstacles que l’Europe a récemment mis sur leur chemin. (Qui dirait qu’un Hollandais serait indifférent entre continuer de se faire 50.000 euros par an aux Pays-Bas et émigrer en Nouvelle-Zélande pour y gagner 500.000 euros ?)

Etant donnée la taille de l’écart de revenu, la pression migratoire va continuer sans relâche ou s’accroître pendant au moins cinquante ans, même si l’Afrique commence à rattraper l’Europe au cours de ce siècle (c’est-à-dire à connaître des taux de croissance économique supérieurs à ceux de l’Union européenne). Cette pression (en termes de nombre de personnes frappant aux portes de l’Europe) ne restera pas statique. Comme l’Afrique est le continent avec les taux de croissance démographiques attendus les plus élevés, le nombre de migrants potentiels devrait exploser. Alors que le ratio de population entre l’Afrique subsaharienne et l’Union européenne est de 1 milliard versus 500 millions, il devrait être de 2,2 milliards versus 500 millions d’ici trois décennies.

Mais la migration, comme chacun le sait, crée des pressions politiques insoutenables sur les pays européens. Le système politique entier est en état de choc ; comme l’illustrent les plaintes de l’Italie d’avoir été laissée seule par ses partenaires européens pour faire face à l’immigration ou les décisions de l’Autriche et la Hongrie d’ériger des murs aux frontières. Il n’y a pas vraiment de pays en Europe dont le système politique n’ait pas été secoué par la question de la migration : les déplacements vers la droite en Suède, aux Pays-Bas et au Danemark ; l’accession au Parlement de l’AfD en Allemagne, l’attrait renouvelé d’Aube dorée en Grèce.

Outre la migration, le deuxième problème alimentant le malaise politique européen est l’accroissement des inégalités de revenu et de richesse. Les inégalités européennes sont également, en partie, une "malédiction de la richesse". La richesse des pays dont le revenu annuel s’accroît sur plusieurs décennies ne s’accroît pas seulement en proportion du revenu, mais plus vite. C’est simplement dû à l’épargne et à l’accumulation de richesses. La Suisse n’est pas seulement plus riche que l’Inde en termes de production annuelle de biens et services (le ratio entre les PIB par tête des deux pays aux taux de change du marché est d’environ 50 pour 1), la Suisse est aussi plus riche en termes de richesse par adulte (le ratio est presque de 100 pour 1).

L’implication de l’accroissement du ratio richesse sur revenu à mesure que la croissance se poursuit et que les pays deviennent plus prospères est que le montant de revenu tiré du capital tend à s’accroître plus rapidement que le PIB. Quand la richesse est très concentrée, comme c’est le cas dans tous les pays riches, l’accroissement de la part du capital dans la production totale mène presque automatiquement à une hausse des inégalités de revenu interpersonnelles. Pour le dire de façon simple, la source de revenu qui est très inégalement répartie (les profits, les intérêts, les dividendes) s’accroît davantage que la source qui est la moins inégalement distribuée (les salaires). Donc, si le processus de croissance tend à produire de plus fortes inégalités, il est clair que des mesures plus fortes sont nécessaires pour combattre son essor. Mais en Europe, comme aux Etats-Unis, il y a un manque de volonté politique (et peut-être qu’il est difficile de l’invoquer à l’ère de la mondialisation quand le capital est pleinement mobile) pour accroître les impôts sur les plus riches, pour réintroduire dans les plusieurs pays la taxation de l’héritage ou de mettre en œuvre des politiques en faveur de petits (et non de gros) investisseurs. Il y a donc une paralyse de la politique face aux bouleversements politiques.

Quand on considère ces deux tendances de long terme ensemble (la pression migratoire continue et une hausse quasi-automatique des inégalités), c’est-à-dire les deux problèmes qui empoisonnent aujourd’hui l’atmosphère politique européenne et que l’on saisit la difficulté que l’on a à chercher à les résoudre, on peut s’attendre à ce que les convulsions politiques se poursuivent à l’avenir. Elles ne disparaîtront pas d’ici quelques années. Il ne fait pas non plus sens d’accuser les "populistes" d’irresponsabilité ou de croire que les préférences des populations ont été déformées par les "fake news". Les problèmes sont réels. Ils requièrent de réelles solutions. »

Branko Milanovic, « Europe’s curse of wealth », in globalinequality (blog), 31 mai 2018. Traduit par Martin Anota

lundi 28 mai 2018

Le nouveau rôle de la Chine dans l’économie mondiale

« Le rôle changeant de la Chine dans l’économie chinoise a récemment été mis en lumière par l’occurrence de son premier déficit de compte courant en 17 ans. Nous passons en revue les analyses qu’offrent les économistes de son nouveau rôle et des défis qui lui sont associés.

(…) Timothy Taylor présente l’évolution trimestrielle du compte courant depuis les années quatre-vingt-dix. Le compte courant est la somme des exportations nettes des biens et services, des revenus du capital versés par le reste du monde moins ceux versés au reste du monde, et les paiements de transfert nets tels que l’aide étrangère. La Chine avait un déficit de compte courant de 282 milliards de dollars au premier trimestre de l’année 2018, le premier depuis 17 ans. Ce déficit est apparu au terme d’une baisse du solde courant sur trois ans et résulte de la réorientation de l’économie chinoise, qui nécessite notamment davantage d’importations de services. Il explique que cela affaiblit les arguments utilisés par l’actuelle guerre commerciale, bien qu’il note que le compte courant annuel puisse bien être positive en 2018 malgré les fluctuations saisonnières des exportations chinoises.

(…) Brad Setser offre une analyse plus détaillée et sceptique des données. Il affirme que le solde du compte courant chinois n’est pas mesuré avec précision et que, si l’on prédit un compte courant déficitaire pour l’année 2018, c’est en raison des prix élevés du pétrole, une matière première que la Chine importe en grandes quantités, et des fragiles changements méthodologiques dans la mesure des activités de tourisme. En outre, la tendance baissière du compte courant est en partie due à la relance budgétaire mise en œuvre par le gouvernement chinois depuis 2015. Dès que cette relance budgétaire cessera, le déficit du compte courant pourrait rapidement s’inverser. Finalement, Setser explique que l’excédent de la Chine pour les échanges de produits manufacturés reste l’un des plus élevés dans le monde et qu’il ne peut donc expliquer le récent déficit du compte courant.

Nicholas Hardy, du PIIE, a cherché à éclaircir les choses début avril en déconstruisant la récente performance de la Chine en termes de croissance. L’excédent commercial a en effet chuté d’environ un cinquième par rapport au premier trimestre 2017, mais cela s’explique par une plus forte demande d’importations, non par une chute des exportations. Plus fondamentalement, la forte croissance du PIB (6,8 % en 2018, selon les prévisions basées sur la performance au premier trimestre) est tirée par la consommation, qui devrait encore avoir de plus en plus d’importance si le revenu disponible des ménages continue d’augmenter plus rapidement que le PIB. En combinaison avec le fait que l’essentiel de la croissance du PIB est venu des services plutôt que de l’industrie, cela suggère que le déficit du compote courant est symptomatique des circonstances domestiques positives pour le nouveau rôle de la Chine et non un signe de faiblesse. (...)

Alors que Kent Harrington critique les "pratiques économiques prédatrices" de la Chine et que Martin Feldstein les qualifie de "déloyales", le professeur de Harvard Dani Rodrik les défend. Comme le système économique mondial a été façonné par les lobbies américains, la Chine a toutes les raisons de diverger des règles de l’OMC dans son propre intérêt. Cette politique peu orthodoxe, affirme-t-il, a davantage aidé que freiné la spectaculaire croissance de la Chine, poussé des millions de personnes hors de la pauvreté. Comme la Chine aujourd’hui, les Etats-Unis au dix-neuvième siècle avaient rattrapé la Grande-Bretagne en enfreignant sa propriété intellectuelle et en bafouant l’ordre mondial imposé par la puissance hégémonique. En faisant la balance entre le respect des règles mondiales et son développement, la Chine s’est taillé un nouveau rôle de la même façon que les Etats-Unis l’avaient fait par le passé.

Barry Eichengreen a adopté une vision plus large sur les implications du nouveau rôle de la Chine. Le renminbi a été de plus en plus utilisé au niveau international suite aux politiques de promotion menées par le gouvernement, défiant directement le dollar américain. La Chine est aussi la meneuse lorsque l’on observe les volumes échangés mondialement et les investissements financiers vers l’Asie du Sud et l’Afrique. Cela a permis à la nation chinoise d’acquérir une force militaire et d’autres actifs stratégiques à l’étranger et d’affirmer davantage son soft power. Surtout, ces succès économiques et politiques répétés ont amené les dirigeants à travers le monde à s’inspirer du pouvoir centralisé et des pratiques autoritaires de la Chine. Cependant, Barry Eichengreen doute de la soutenabilité des modèles autoritaires d’actions publiques, comme le manque de mécanismes de correction de cap les expose de façon inhérente aux crises. (...)

La Chine est devenue économiquement plus puissante et il y a des éléments qui suggèrent qu’elle a commencé à exercer ce pouvoir plus fermement à l’étranger. Certains aspects inquiètent les observateurs à travers le monde. Paul Krugman affirme que le gouvernement chinois a négocié un accord qu’il considère être comme un "pot de vin" pour assurer l’accès au marché américain à l’une des principales entreprises chinoises du secteur technologique. Le mois précédent, Bloomberg (..) a résumé deux stratégies chinoises qui sont plus problématiques pour les économies occidentales : la pression de la Chine visant à affirmer sa supériorité dans les technologies militaires et son mépris systématique des règles mondiales, qui sont les principales sources de plaintes parmi les entreprises américaines. De même, Michael Schuman, de Bloomberg, s’est montré pessimiste et a affirmé que même lorsqu’il semble opter pour la concession en ouvrant ses marchés, le gouvernement chinois s’est toujours assuré à ce que ses acteurs domestiques bénéficient davantage de la nouvelle situation. »

Nicolas Moës, « China’s new role in the global economy », in Bruegel (blog), 28 mai 2018. Traduit par Martin Anota

samedi 26 mai 2018

La science économique a-t-elle échoué ?

En janvier 2018, la Oxford Review of Economic Policy a publié un numéro édité par David Vines et Samuel Wills qui est dédié au projet de reconstruire la théorie macroéconomique. (…) Le numéro bénéficie notamment des contributions d’Olivier Blanchard, de Simon Wren-Lewis, de Joseph Stiglitz, de Paul Krugman et de Ricardo Reis. Elle a déclenché un débat qui est toujours en cours et que nous allons passer en revue.

Martin Sandbu a affirmé que la science économique peut être plus ouverte sans pour autant perdre en rigueur. L’approche autour de la modélisation DSGE peut être suffisamment assouplie pour qu’elle permette d’élargir l’éventail d’hypothèses à propos des comportements microéconomiques et l’éventail de relations macroéconomiques auxquels ceux-ci donnent lieu. Mais le pluralisme va conduire inévitablement à de nouveaux désaccords sur les hypothèses microéconomiques que l’on peut qualifier d’ad hoc et celles que l’on peut considérer comme fondées. Mais un pluralisme intégré dans un cadre commun est préférable à un "pluralisme par juxtaposition", où des approches méthodologiques fondamentalement différentes ne cherchent absolument pas à dialoguer les unes avec les autres.

Martin Wolf a écrit dans le Financial Times que les véritables tests pour l’économie consistent à savoir si ses adeptes comprennent ce qui peut mal tourner dans l’économie et comment y remédier. Quand la crise financière a éclaté en 2007, elle a surpris une bonne partie de la profession, si bien qu’elle a échoué au premier de ces tests. Elle s’est révélée plus efficace au deuxième test, mais elle nécessite néanmoins d’être reconstruite.

L’analyse de la théorie macroéconomique fondamentale suggère une ignorance substantielle du fonctionnement de nos économies. Nous pouvons ne jamais comprendre comment de tels systèmes complexes fonctionnent vraiment. Cela ne signifie pas qu’il est inutile d’améliorer notre compréhension. Mais, en pratique, il peut être justifié de se focaliser sur deux autres tâches : la première consiste à rendre l’économie plus résistante aux conséquences des euphories et aux paniques ; la seconde consiste à la guérir aussi rapidement que possible. Dans les deux cas, nous devons poursuivre notre réflexion.

Ferdinando Giugliano affirme que nous devons lutter contre la fausse économie. Les critiques auxquels les universitaires ont fait face depuis la crise ont aussi ouvert la porte à des vues économiques alternatives qui ont peu ou aucun de fondement académique. Plusieurs économistes qui colportent des théories hautement non conventionnelles s’en tirent sans aucune forme d’examen. La discipline est bien plus ouverte à une variété de vues que ses critiques le concèdent, mais cela signifie les soumettre à un degré de rigueur pour lequel la plupart de ces dissidents ne sont pas préparés.

Les médias peuvent jouer un meilleur rôle en distinguant entre les théories économiques qui ont été essayées et testés et les spéculations avec peu de fondement académique. Cependant, les économistes orthodoxes doivent aussi en faire beaucoup plus pour défendre leur profession dans le débat public. Ils doivent faire attention à ce que les théories universitaires peuvent et ne peuvent pas dire et, surtout, les économistes orthodoxes doivent continuer d’améliorer leur discipline de façon à regagner la confiance du public.

Peter Doyle est aussi en désaccord avec Martin Wolf. Il pense que les efforts de reconstruction que Wolf salue n’ont, même il y a une décennie, apporté aucun changement substantiel à l’état de savoir de la profession, ni apporté aucune véritable lumière sur la genèse de la crise. Le problème mis en lumière par la crise n’est pas, selon Doyle, que la science doit être reconstruite. Les professionnels qui l’utilisent proprement, bien qu’ils soient peu, ont mis en avant les risques sous-jacents bien en avance, mais ils ont été ignorés (…). En fait, le problème était et est toujours comment la science est utilisée par ceux qui jouent un rôle éminent dans l’arène mondiale. (...)

Lajor Bokros répond à Martin Wolf dans le Financial Times en affirmant que nous ne devrions pas faire porter le blâme sur la science si les politiciens n’apprennent pas. La plus grande erreur est probablement que la macroéconomie orthodoxe ne fasse pas clairement savoir que les crises sont absolument inévitables. La question, par conséquent, n’est alors pas comment empêcher une crise, mais plus modestement : comment ralentir l’accumulation de bulles d’investissement alimentées par une croissance insoutenable du crédit et de la dette et comment atténuer les conséquences négatives économique, financière et sociales après le déclenchement de la crise. C’est là où les gouvernements ont un rôle important à jouer dans l’économie de marché capitaliste et c’est là où plusieurs gouvernements ont échoué misérablement il y a une décennie.

Sur le Financial Times se déroule actuellement un débat sur le sujet, un débat qui a commencé avec une discussion entre Tom Clark et Chris Giles. Tom Clark pense que l’économie a échoué et que l’essentiel du travail des économistes est en vérité simplement de l’arithmétique sociale dans laquelle le raisonnement économique colore un peu (ou par moments déforme) l’interprétation. L’économie contemporaine saisit le monde comme une série de déviations par rapport à une vision irréaliste de marchés omniprésents et parfaits. Le vieux paradigme cadre toujours les prescriptions en matière de politique économique, mais dans un monde de flux, où les fortunes sont façonnées par des processus dynamiques comme l’invention et la guerre, l’économie est entraînée par une quête d’équilibres stables.

Chris Giles pense que l’économie n’a pas échoué et que, aussi longtemps que vous ne vous attendez pas à de la divination, elle se révèle remarquablement efficace. L’économie consiste fondamentalement à étudier comment le monde fonctionne et comment le rendre meilleur. Les bons économistes n’affirment pas être capables de prédire le futur ou répondre à toutes les questions avec précision, mais ils peuvent utiliser une variété d’outils, de données et de théories pour offrir un aperçu et améliorer notre compréhension des choses. L’économie apprend de ses erreurs, bien qu’il y ait beaucoup de mauvaise économie : la pensée aléatoire, que ce soit celle des économistes orthodoxes qui sont accrochés rigidement à une école de pensée et les prétendus hétérodoxes qui font exactement la même chose, mais avec un autre ensemble de théories rigides. (...)

The Economist (…) a publié une série de trois articles critiques. Le premier affirme que plusieurs résultats en microéconomie sont fragiles et qu’à la lumière du fait que l’économie jouisse d’une plus grande influence sur la politique que d’autres sciences sociales, alerter sur les défauts des travaux publiés ne mène pas forcément au nihilisme, mais il serait sage de se montrer sceptique face à tout résultat pris isolément. Un autre article affirme que les économistes comprennent peu les causes de la croissance, alors même que l’économie de la croissance doit être centrale à la discipline, en raison de l’impact que la croissance peut avoir sur les niveaux de vie des gens. Les questions que cela pose sont objectivement difficiles et les réponses reposent davantage dans l’histoire et la politique que dans d’élégantes équations, mais tant que les économistes n’auront pas su donner de meilleures réponses dans ce domaine, ils n’auront pas gagné le droit à la confiance. Le dernier article affirme que les économistes ne parviennent pas non plus à comprendre vraiment les cycles d’affaires et que la macroéconomie doit s’attaquer à ses problèmes méthodologiques si elle espère maintenir son influence et limiter les dommages provoqués par la prochaine crise.

Howard Reed pense que nous devons (…) tout d’abord, (…) accepter l’idée qu’il n’est pas possible d’offrir une analyse de l’économie qui soit détachée de toute valeur. Deuxièmement, l’analyse doit se fonder sur le comportement des êtres humains que nous observons, plutôt que sur ce que l’économie néoclassique considère être le comportement que devrait adopter « un agent économique (ou une entreprise) rationnel ». Troisièmement, nous devons mettre la vie bonne au centre de l’analyse, plutôt que de privilégier les domaines qui sont les plus faciles à analyser via les mathématiques linéaires de la fin du dix-neuvième siècle. Le progrès technique et les relations de pouvoir entre les entreprises, les travailleurs et les gouvernements doivent être au cœur du discours et de la recherche économiques. Enfin, la science économique doit être pluraliste. Au cours du dernier demi-siècle, l’économie néoclassique a graduellement colonisé d’autres sciences sociales comme la sociologie et la science politique. Il est temps que ce processus s’inverse de façon à ce qu’il y ait des échanges dans les deux sens et un échange de connaissance mutuellement bénéfique entre les disciplines.

Noah Smith a férocement réfuté sur Twitter les propos de The Economist aussi bien que la réponse de Reed, en affirmant que la plupart des critiques de l’économie sont enlisées dans le passé. Les attaques basiques contiennent une part de vérité, mais désormais les lacunes qu’elles évoquent sont bien connues. Plusieurs allégations semblent obsolètes. Par exemple, Reed prétend que les économistes "célèbrent un culte" au "temple" des modèles classiques comme la théorie de l’équilibre générale telle qu’elle a été développée par Kenneth Arrow et Gerard Debreu et que la théorie du consommateur souvent "ne dit rien du tout".

Smith pense que Reed se trompe sur l’état de la profession et ne semble pas comprendre ce que les économistes modernes font pour vivre. L’idée semble être que les économistes s’engagent principalement dans une entreprise déductive, prodiguant une haute théorie venant de monts olympiens, mais la plupart des économistes parcourent des montagnes de données, s’échinent à glaner les faits à propos du fonctionnement réel du monde. La critique standard que The Economist porte sur la profession des économistes n’est pas juste fastidieuse et erronée dans ses détails ; ce que la revue pense sur ce que devrait être le devenir de la science économique est sapé par une image déformée de ce qu’est la profession aujourd’hui.

Simon Wren-Lewis avance trois raisons pour expliquer le flot ininterrompu de critiques que Noah Smith a identifiés, mais il affirme que l’économie est aussi une cible facile parce que elle a été historiquement très insulaire et, par conséquent, assez différente des autres sciences sociales. Wren-Lewis pense que cela est dû au fait que presque toute l’économie peut être dérivée des axiomes basiques du choix rationnel, tandis qu’il n’y a rien qui se rapproche d’un tel arbre déductif dans les autres sciences sociales. Les limites de ce qui peut être fait avec quelques axiomes à propos des choix rationnels ont mené ces dernières années l’économie à devenir de plus en plus empiriques et à s’écarter de cette théorie déductive, mais elle garde de cette insularité une regrettable gueule de bois. Comme discipline, l’économie montre peu d’intérêt à l’idée de communiquer son savoir fondamental à d’autres, que ce soit dans le monde universitaire ou avec le monde extérieur. Cette épidémie d’articles à propos de l’échec de l’économie reflète en partie cet échec de communication. Surtout, des événements comme le Brexit et ou l’élection de Trump sont un signal d’alarme signifiant aux économistes, en tant que collectif, doivent faire mieux lorsqu’ils communiquent les intuitions fondamentales de l’économie. »

Silvia Merler, « Did economics fail? », in Bruegel (blog), 7 mai 2018. Traduit par Martin Anota

jeudi 24 mai 2018

Pourquoi l’inflation est-elle engluée à de si faibles niveaux ?

« Je pense que je suis comme la plupart des économistes lorsque l’on m’interroge sur les causes de l’inflation : j’ai immédiatement en tête les mots tirés d’un discours de Milton Friedman de 1970 : "l’inflation est toujours et partout un phénomène monétaire en ce sens où elle n’est et ne peut être produite que par une hausse plus rapide de la quantité de monnaie que de la production". (C’est tiré de son discours "The Counterrevolution in Monetary Theory").

Mais (…) le problème actuel n’est pas d’expliquer une explosion de l’inflation, mais la relative immobilité de l’inflation. Friedman n’a pas dit : « le manque d’inflation est toujours et partout un phénomène monétaire. (…) Dans le plus récent numéro du Regional Economist, publié par la Réserve fédérale de Saint-Louis, Juan Sánchez et Hee Sung Kim passent en revue les diverses raisons souvent avancées pour expliquer pourquoi l’inflation est si faible. (…) Les voici :

Le progrès technique

Il est facile d’imaginer plusieurs façons par lesquelles le progrès technique est susceptible de contenir les hausses de prix : l’électronique et les produits liés à internet moins chers ; une hausse des achats en ligne peut entraîner une plus forte concurrence par les prix (ce que l’on appelle l’"effet Amazon") ; et l’essor des entreprises de l’"économie du partage" comme Airbnb et Uber contenant les hausses de prix dans leurs secteurs. Mais il est aussi facile d’imaginer des secteurs comme la santé ou l’éducation où les prix semblent s’accroître et non stagner. Globalement, l’une des principales inquiétudes relatives à l’économie américaine est le manque, et non l’excès, de croissance de la productivité. Comme les auteurs écrivent à propos de cette explication : "Mais pourquoi l’inflation serait aujourd’hui faible si la croissance n’a pas crû plus vite qu’avant ?"

La démographie

Si vous classez les pays selon la part des personnes âgées au sein de leur population, vous constaterez que les pays ayant les populations les plus âgées ont les taux d’inflation les plus faibles. Le Japon en est l’exemple le plus éclatant. Par exemple, une étude portant sur le Japon a suggéré que les travailleurs âgés perdent en compétences et finissent par conséquent par entrer en concurrence avec les travailleurs inexpérimentés pour accéder à des emplois à faibles salaires, ce qui contient les hausses de salaires. Une autre explication pourrait être que les personnes âgées ont des budgets plus serrés et font ainsi attention à leurs dépenses, ce qui limite les hausses de prix. Mais il n’est pas certain que ces explications aient une portée générale et qu’ils s’appliquent au cas de l’économie américaine.

Sanchez_Sung_Kim__taux_d__inflation_ratio_dependance_personnes_agees.png

La mondialisation

Quelques pays ont connu une forte inflation ces dernières années, comme le Venezuela et le Zimbabwe. Mais dans la plupart des pays, la faible inflation est généralisée. Un explication possible est que l’essor des biens à bas prix sur les marchés mondiaux, en particulier dans le sillage de l’entrée en force de la Chine sur les marchés mondiaux au début des années deux mille, a contribué à contenir les hausses de prix. Mais les auteurs soulignent que les études qui ont tenté de déterminer comment les forces mondiales peuvent affecter l’inflation tendent à ne déceler que des effets de faible ampleur.

Les actions des banques centrales

Peut-être que l’inflation est faible parce que les banques centrales tout autour du monde se sont échinées à la maintenir faible ; en effet, peut-être que les banques centrales sont même en train de faire en sorte de la maintenir excessivement faible. Comme les auteurs le notent, "le fait qu’une inflation plus faible que sa cible soit souvent mieux considérée qu’une inflation supérieure à sa cible peut contribuer à ce que le taux d’inflation soit, en moyenne, plus faible que la cible".

Le néo-fishérisme

Irving Fisher était un grand économiste américain des premières décennies du vingtième siècle qui noté que si vous preniez le taux d’intérêt nominal et enleviez le taux d’inflation, vous obteniez le taux d’intérêt réel, c’est-à-dire ajusté à l’inflation. Cette équation a souvent été utilisée pour montrer que lorsque l’inflation augmente, le taux d’intérêt nominal tend aussi à augmenter. Mais l’hypothèse néo-fischerienne est que, si les banques centrales maintiennent le taux d’intérêt nominal faible (pour stimuler faible), alors l’écart entre le taux d’intérêt nominal et le taux d’intérêt réel (qui est le taux d’inflation) doit aussi être faible. En termes de politique monétaire, cela suggère qu’accroître les taux d’intérêt nominaux pourrait aussi ramener une hausse de l’inflation. Cette hypothèse est contre-intutive pour la macroéconomie conventionnelle, pour laquelle des taux d’intérêt nominaux plus élevés doivent tendent à déprimer l’économie et à freiner l’inflation. Selon une dernière théorie, qui n’a pas été soulignée par Sánchez et Sung Kim, mais qui a été avancée par Olivier Blanchard dans un récent article, lorsque l’inflation a été faible pour une période prolongée, les ménages et les entreprises arrêtent de s’inquiéter de l’inflation. Lorsque l’inflation observée et le risque d’inflation ne sont pas saillants pour la prise de décision économique, les entreprises ne donnent pas de revalorisations semi-automatiques pour compenser l’inflation. Les vendeurs n’accroissent pas semi-automatiquement les prix pour compenser l’inflation.

Il se peut qu’il n’y ait pas qu’une bonne réponse. Cela pourrait être un scénario proche de celui du Crime de l’Orient-Express, où chacun contribue à produire l’événement. Avec ce que j’ai retenu de ces deux dernières décennies, c’est que je ne m’inquiète plus autant de l’inflation croissante, ni d’un éventuel dérapage de l’inflation. Par contre, je m’inquiète de la façon par laquelle le pouvoir d’achat peut se manifester dans les cycles d’expansion et d’effondrement des prix d’actifs, comme la bulle internet de la fin des années quatre-vingt-dix ou la bulle immobilière avant la Grande Récession. Peut-être que l’inflation est aussi faible en partie parce que l’économie a trouvé d’autres façons d’évacuer la vapeur. »

Timothy Taylor, « Why is inflation stuck so low? », in Conversable Economist (blog), 24 mai 2018. Traduit par Martin Anota



aller plus loin...

« Pourquoi l'inflation est-elle si faible et stable ? »

« Comment expliquer la désinflation mondiale ? »

« Macroéconomie des prix visqueux »

lundi 21 mai 2018

L'Etat employeur en dernier ressort : une idée marxiste ou keynésienne ?

« Depuis des décennies, il y a un débat autour des différences et similarités entre Marx et Keynes. Le débat autour de l’opportunité d’introduire une garantie d’emploi s’inscrit dans ce débat théorique : est-ce un moyen de soutenir le capitalisme ou d’y mettre un terme ?

Une garantie de l’emploi désigne l’offre, par le gouvernement, d’emplois à un salaire de base pour toute personne qui en voudrait. Cela éliminerait en effet le chômage involontaire. Pavlina Tcherneva a un bon article qui en décrit les détails. Parmi ses autres partisans, il y a Randy Wray et ses collègues, FitzRoy et Jin, Paul, Darity et Hamilton ou encore Wisman et Pacitti.

(…) Cela importe parce que le chômage est une cause massive de misère. Il est associé à la tristesse, au suicide, à de plus faibles salaires et à de plus mauvaises perspectives de carrière même pour ceux qui retournent au travail : Danny Blanchflower et David Bell en ont résumé les divers effets pernicieux. Comme Jeff Spross le dit : "Un emploi n’est pas seulement un mécanisme de livraison du revenu qui pourrait être remplacé par une source alternative. C’est la manière fondamentale par laquelle les gens affirment leur dignité, revendiquent leurs droits dans la société et comprennent les obligations mutuelles qui les lient les uns vis-à-vis des autres. Il y a de bonnes preuves empiriques suggérant que la perte de cette identité sociale importe autant que la perte de la sécurité financière."

(…) Il y a plusieurs arguments keynésiens (1) en faveur d’une garantie d’emploi. Cette dernière agirait comme un stabilisateur automatique, stimulant la demande globale quand l’économie est déprimée, mais la contenant lorsque l’économie est en surchauffe. En offrant aux entreprises la perspective d’une demande forte et stable, elle doit encourager l’investissement. Cela pourrait alors encourager une forme de croissance tirée par la demande. La garantie de l’emploi agirait comme un plancher pour les salaires et les conditions de travail. En sachant qu’ils ne peuvent pas proposer de plus faibles salaires, ni de plus mauvaises conditions de travail, les employeurs devraient stimuler la croissance de la productivité et essayer d’économiser en main-d’œuvre en investissant dans de nouvelles technologies. En ce sens, une garantie de l’emploi ferait au vingt-et-unième siècle ce que des syndicats puissants et le plein emploi firent dans les années cinquante et soixante.

Que peut-on alors dire contre cette idée ? Il y a de gros problèmes pratiques. Est-ce que les gouvernements locaux ont réellement l’expertise en termes de management pour identifier le travail nécessaire et gérer ces projets ? Et le danger est que, sous les gouvernements de droite, une garantie de l’emploi devienne, non pas une façon d’offrir de la dignité aux chômeurs, mais plutôt une forme de "workfare". C’est en partie pour cette raison que je suis d’accord avec Steve à l’idée qu’une garantie de l’emploi doive être accompagnée par un revenu de citoyenneté.

Il y a cependant d’autres problèmes. C’est pourquoi je pense que la garantie de l’emploi puisse être une idée davantage marxiste que keynésienne. Simon en décrit un : "Supposons que nous débutions avec une économie avec une inflation stable, ce qui implique un chômage au niveau du NAIRU, et que nous introduisions la garantie de l’emploi. Comme il est moins coûteux de perdre son emploi, cela pousserait l’inflation à la hausse, si bien que la seule façon de maintenir une inflation stable serait de déprimer la demande, ce qui réduirait bien sûr la production". Bien sûr, (…) vous pourriez affirmer qu’en ramenant des gens à l’emploi la garantie de l’emploi améliorerait les compétences et donc réduirait le NAIRU à long terme. Mais est-ce que le NAIRU serait nul ? Je ne le pense pas. Je pense qu’à partir d’un certain moment la crainte de Simon se matérialiserait. Quand ce sera le cas, une garantie de l’emploi évincerait l’emploi capitaliste.

Pour certains, comme Kate Aronoff, ce n’est pas un problème. "Ce ne sont souvent pas les mêmes choses qui nourrissent une marge de profit et qui font une bonne société." De la dépollution des côtes aux projets d’histoire orale (…), il y a plein d’activités utiles et peu carbonées qui peuvent être faites mais qui ne sont pas valorisées par le secteur privé. Il est difficile d’imaginer une entreprise, par exemple, qui soit capable de faire un profit en construisant des terrains de jeu ou en tenant compagnie aux personnes âgées pour les protéger de la solitude, qui est associée selon plusieurs études à une mort prématurée. C’est une raison pour laquelle une garantie de l’emploi remet en question le capitalisme. Elle pose la question : quelle est la valeur économique ? Est-ce qu’elle correspond seulement à une activité profitable ou prend-elle aussi en compte le travail non marchand (…) ?

Bien sûr, il y a une autre raison pour laquelle nous pouvons penser que la garantie de l’emploi s’oppose au capitalisme. Comme Jeff le dit, en faisant écho à Kalecki, "avec le plein emploi, les capitalistes perdent leur levier pour déprimer le salaire des travailleurs et ils doivent abandonner davantage de profits. Mais, surtout, (…) les capitalistes sont forcés de négocier avec les travailleurs qui sont 'en-dessous' d’eux et de se plier à leur volonté. Leur position de 'demi-dieux' de l’économie (garantissant l’emploi quand ils sont apaisés et l’emportant quand ils sont enragés) est renversée".

Comment les capitalistes vont-ils y répondre ? Une première possibilité est qu’ils réagissent en améliorant les conditions de travail et par là la productivité : nous avons de bonnes preuves empiriques suggérant que des formes de capitalisme plus coopératives sont plus efficaces. Une autre possibilité est qu’ils ferment tout simplement leurs établissements ou cessent d’investir, comme ils craignent que les plus faibles marges de profit fassent plus de dommages aux taux de profit qu’une plus forte demande globale ne leur fasse du bien. L’histoire nous montre que les deux réactions sont possibles : nous avons vu la première lors des années cinquante et soixante, puis la seconde lors des années soixante-dix.

Et ensuite il y a une troisième remise en cause du capitalisme. Une authentique garantie de l’emploi va adapter les emplois aux besoins des travailleurs : elle va les adapter au besoin que les gens éprouvent de prendre soin des membres de leur famille et elle va fournir des emplois adaptés à ceux qui ont des problèmes de santé. C’est à l’opposé de l’essentiel de ce que l’Etat capitaliste a essayé de faire, qui a consisté à changer les gens pour les besoins des capitalistes (…).

Ce que nous avons ici, alors, ce sont deux conceptions différentes d’une garantie de l’emploi. D’un côté, il peut s’agir d’une politique aidant le capitalisme à mieux fonctionner. Mais d’un autre côté, elle peut être une (…) politique qui (…) ne peut pas être adoptée de façon soutenable par le capitalisme et s'avère en fait un premier pas vers le socialisme. Honnêtement, je n’arrive pas à trancher.

(1) Oui, je sais qu’une garantie de l’emploi a davantage été associée avec la MMT qu’avec le keynésianisme. J’utilise le terme "keynésien" en référence à des politiques visant à soutenir le capitalisme en accroissant l’emploi. Je m’attaquerai aux différences entre keynésiens et partisans de la MMT une autre fois. »

Chris Dillow, « Job guarantee: Marxist or Keynesian? », in Stumbling & Mumbling (blog), 11 mai 2018. Traduit par Martin Anota

vendredi 18 mai 2018

Comment le marché du travail français a évolué depuis 2000

« La France est la deuxième plus grande économie de l’Europe continentale, mais elle souffre d’un taux de chômage de 9 %. L’incapacité du pays à sortir de la trappe à chômage dans laquelle il est piégé depuis plusieurs décennies est perçue comme menaçant la stabilité de l’UE. Angel Gurria, le secrétaire général de l’OCDE, a annoncé avoir "un énorme espoir" pour les réformes du Président fraîchement élu Emmanuel Macron. Cependant, plutôt que de discuter des potentielles "réformes structurelles", cet article se focalise sur les importants changements que le marché du travail français a connus durant la période allant de 2000 à 2017, des changements qui mettent en lumière les forces et faiblesses de la France. (…)

Le chômage

Au niveau agrégé

Au début du millénaire, le chômage français était toujours au-dessus de 9 % selon la définition de l’Organisation internationale du travail (OIT). Pour autant, il était plus faible que le taux allemand et plus faible que son pic de 1997 (10,7 %). La France a bénéficié d’une remarquable tendance en 1998, 1999 et 2000 avec trois des quatre meilleures années pour la création d’emplois au vingtième siècle. En 2000, le Conseil d’Analyse économique (…) a publié un rapport intitulé "Plein emploi", qui exprimait l’optimisme des économistes : selon lui, la France pouvait connaître en 2005 un taux de chômage autour de 5 % grâce à une croissance régulière, à la réduction du temps de travail et au départ à la retraite des cohortes du baby-boom. Le chômage en France (notamment dans les territoires d’outre-mer) continua de baisser, mais au début de l’année 2008, atteignit un creux à 7,2 %, loin de l’objectif de plein emploi (cf. graphique 1). Le scénario initial a été perturbé par une croissance du PIB décevante (inférieure à 2 % par an en moyenne) dans le sillage de la brève récession de 2001, par la fin des mesures soutenant la réduction du temps de travail et par les réformes du système de retraite qui ralentirent les départs à la retraite.

GRAPHIQUE 1 Taux de chômage total et de longue durée en France (en %)

Philippe_Askenazy__chomage_France_metropolitaine_longue_duree.png

Cependant, quelques mois avant la Grande Récession, il y a de nouveau eu un optimisme généralisé ; au cours d’une année, le taux de chômage en France métropolitaine a significativement chuté, passant de 8,1 % à 6,8 %, le plus faible niveau depuis 1983. Le risque de pénuries de main-d’œuvre était même un argument derrière les politiques conduites par Nicolas Sarkozy (élu en 2007) pour stimuler l’offre de travail dans les marges extensive et intensive, c’est-à-dire accroître le taux d’activité et la durée du travail (en réduisant les cotisations sociales et en défiscalisant les heures supplémentaires).

La Grande Récession a démenti cette anticipation optimiste. La croissance du PIB était quasiment nulle en 2008 et la France subit une forte récession en 2009 (le PIB chutant de 2,9 %). Cependant, cette récession était moins "grande" qu’elle n’a pu l’être dans d’autres pays de l’OCDE, grâce aux stabilisateurs automatiques et à l’accroissement volontaire des dépenses publiques, avec notamment des subventions directes aux entreprises. Le déficit budgétaire atteint des niveaux historiquement élevés : 7,2 % en 2009, 6,8 % en 2010 et 5,1 % en 2011. Cependant, la croissance du PIB retourna à son taux d’avant-crise en 2010 et en 2011 elle était supérieure à 2 %. Le taux de chômage suivit fondamentalement les variations du PIB, même si l’effet "Okun" (la corrélation à court terme entre les niveaux de chômage et la croissance du PIB) était bien plus faible qu’il ne l’a été au cours des précédentes décennies. Le chômage augmenta pour atteindre 9,5 % au troisième trimestre de l’année 2009, puis ensuite déclina lentement jusqu’au milieu de l’année 2011.

En 2011, face aux pressions de l’UE (auxquelles ils adhéraient), les gouvernements sous la présidence de Sarkozy, puis de celle de Hollande, s’engagèrent à des macro-ajustements. Plus explicitement, ils soutinrent une politique d’offre de long terme avec de massives réductions d’impôts pour les entreprises. Malgré cette coûteuse politique, le déficit budgétaire chuta, et ce en raison du jet des salaires nominaux des fonctionnaires, de la réduction des investissements publics et de la hausse des impôts directs et indirects payés par les ménages.

Alors que ces politiques réduisirent les déficits budgétaires, elles eurent aussi d’autres effets moins désirables. Par exemple, les dépenses des ménages baissèrent en 2012. Le taux de croissance annuel moyen du PIB était de seulement 0,6 % de 2012 à 2015. Finalement, il y eu une reprise de l’investissement des entreprises ; et un taux de croissance du PIB supérieur à 1 %, dans le contexte d’une productivité stagnante, était associé à une nouvelle baisse du taux de chômage total. Cette dernière coïncida avec l’accélération de la croissance du PIB début 2017. Ces changements sont cohérents avec l’idée que le taux de chômage français avait une large composante liée à un significatif écart de production (output gap).

Malgré de récentes améliorations, beaucoup de preuves empiriques démontrent d’indéniables difficultés structurelles, tout en mettant en évidence les forces du marché du travail français. Le chômage à long terme (supérieur à 12 mois) est l’un des problèmes les plus inquiétants. De 2008 jusqu’à la fin 2016, le chômage de long terme présenta une tendance croissante, même durant les années de reprise économique. Il affecte maintenant un chômeur sur deux et est un symptôme des fractures croissantes sur le marché du travail. (…)

Les fractures spatiales, les fractures entre les âges

Plusieurs territoires portent les stigmates laissés par la Grande Récession (qui a accéléré la contraction du secteur manufacturier) et par la restructuration des services publics associée à une réduction de l’investissement public. En même temps, les travailleurs de ces zones ont fait face à de plus grands obstacles en matière de mobilité. En particulier, les zones dans lesquelles les opportunités d’emplois sont concentrées sont caractérisées par des pénuries en matière de logements abordables et des prix de l’immobilier élevés (qui n’ont que très légèrement diminué en 2009 et ont repris vigoureusement leur hausse après). A Paris, par exemple, début 2017, les prix de l’immobilier étaient supérieurs de 30 % à leur niveau d’avant-crise et de 310 % à leur niveau au début du siècle.

(…) L’hétérogénéité spatiale des taux de chômage est reparti à la hausse depuis 2008. Certes le chômage a augmenté dans tous les bassins d’emplois (notamment à Paris, où il a augmenté de 1,6 point de pourcentage), mais la hausse du chômage entre 2008 et 2017 a été positivement corrélée avec le niveau de chômage initial. Lors des élections législatives de 2017, les électeurs des deux zones métropolitaines qui ont connu la plus forte détérioration (+ 5,3 points de pourcentage entre 2008 et 2017) ont respectivement élu un meneur d’extrême-droite (à Perpignan) et un nationaliste corse (à Porto-Vecchio).

GRAPHIQUE 2 Variation et niveau initial des taux de chômage locaux avant et après 2008

Philippe_Askenazy__variation_taux_de_chomage_locaux.png

La Grande Récession a aussi changé la structure du chômage, dans la mesure où plusieurs travailleurs licenciés ont fini par se retrouver dans le chômage de long terme. Une deuxième catégorie qui comprend une partie des chômeurs de longue durée est celle des travailleurs âgés, notamment des moins diplômés d’entre eux. Les dispositifs publics de préretraite ont été réformés au début des années 2000. Des années 1970 aux années 1990, ces dispositifs avaient permis à l’économie d’absorber une grande proportion de travailleurs cols bleus ayant plus de 50 ans qui avaient perdu leur emploi, en particulier durant les ralentissements de l’activité. En même temps, les diverses réformes des retraites qui se sont succédées depuis 1993 ont augmenté les incitations à reculer le départ à la retraite. Malgré ces changements politiques, avant 2008 l’accroissement du taux d’activité des plus de 50 ans (une hausse de 4 points de pourcentage pour le groupe des 50-64 ans de 2000 à 2008) avait été facilement absorbé. (…) Le nombre de chômeurs âgés de 50 ans ou plus était bien inférieur à 300.000 avant la Grande Récession.

Depuis 2009, toutes les classes d’âge et les deux sexes ont été affectés par la détérioration du marché du travail, mais la fracture entre les classes d’âges s’est creusée. En particulier, le nombre de chômeuses âgées de 50 ans ou plus a plus que doublé entre début 2008 et début 2017, tandis que la hausse était inférieure à 30 % pour les plus jeunes. Bien que les travailleurs les plus âgés jouissent toujours d’une amélioration significative de leur taux d’emploi, cette tendance n’a pas suffi pour compenser une hausse de leur nombre d’actifs parmi le groupe des 50-64 ans (1,7 million en plus entre 2008 et 2016).

(…) La Grande Récession n’a pas stoppé la baisse de l’écart en termes d’emploi entre les femmes et les hommes et il n’y a plus d’écart significatif. Selon les données provisoires, au troisième trimestre 2017, le taux de chômage des femmes était 0,3 point de pourcentage plus faible que celui des hommes (notamment outre-mer), contre un écart de 2,6 points de pourcentage en faveur des hommes en 2000. La bonne performance relative des femmes de moins de 50 ans s’explique en partie par le fait qu’elles ont bénéficié de la forte hausse du niveau scolaire de la population active française au cours des trois dernières décennies. (...)

La composition de la population active et le taux d’emploi

Une population active plus éduquée

La forte hausse des niveaux de diplômes de la population active est probablement le changement structurel le plus impressionnant du côté de l’offre sur le marché du travail français. Dans le sillage du programme initié par François Mitterrand, les enfants nés après le milieu des années 1970 ont joui d’une ouverture rapide de l’accès au collège dans les années 1980, au lycée dans les années 1990 et ensuite à l’université dans les années 2000. Le graphique 3 montre que la part des travailleurs diplômés du supérieur parmi les actifs de 25-64 ans a eu tendance à augmenter : elle est passée de 25 % en 2000 à 39 % en 2016. A l’inverse, les cohortes peu diplômées ont quitté le marché du travail durant cette période. Depuis 2005, il y a moins de gens sur le marché du travail qui n’ont qu’un diplôme du secondaire que de gens qui ont un diplôme du supérieur.

GRAPHIQUE 3 Composition de la population active (âgée de 25 à 64 ans) selon le genre et le niveau de diplôme (en %)

Philippe_Askenazy__composition_population_active_niveau_diplome_sexe.png

Un autre fait frappant est que les femmes constituent désormais la majorité des actifs diplômés du tertiaire, ce qui reflète la proportion croissante de jeunes femmes engagées dans l’enseignement supérieur. L’entrée sur le marché du travail des premiers enfants du petit baby-boom (depuis la fin des années 1990) a alimenté ces tendances pendent les deux décennies suivantes.

Le diplôme importe pour accéder à l'emploi

En raison de la hausse du niveau scolaire de la population en âge de travailler, la France jouit d’un taux d’emploi parmi les actifs âgés de 15 à 64 ans qui est supérieur à ce qu’il était au début des années 2000. L’impact agrégé de la Grande Récession a pratiquement été effacé (…).

Selon l’enquête emploi, malgré la hausse massive de l’offre de travailleurs très éduqués, leur taux d’emploi est resté stable depuis 2000, autour de 84 % pour les 25-64 ans. Même la Grande Récession n’a pas significativement affecté cela et le taux de 85 % en 2016 est le niveau le plus élevé depuis la Seconde Guerre mondiale.

Cette performance contraste avec l’impact de la récession de 2009 sur les travailleurs les moins diplômés. Parmi les 15-64 ans, le taux d’emploi de ceux qui n’ont pas été diplômés dans le secondaire était stable, autour de 46 % de 2000 à 2008, mais il a chuté pour atteindre 39 % en 2016. Le taux d’emploi des travailleurs diplômés du secondaire a chuté, passant de 69 % en 2008 à 66 % en 2016. Ces tendances expliquent aussi la fermeture rapide de l’écart en termes de taux d’emploi entre les sexes : de 14 % en 2000 à pratiquement 7 % aujourd’hui.

L’évolution des salaires : des tendances contradictoires

Des inégalités salariales stables ?

En utilisant les registres exhaustifs des employeurs, l’INSEE calcule la distribution des salaires en équivalents temps plein en France. La plupart des indicateurs d’inégalités basés sur ces statistiques françaises suivent une évolution en forme de U avec un point bas en 2008. Cependant, la magnitude des changements est très faible. Par exemple, le ratio 50/10, qui rapporte la médiane sur le premier décile s’élevait à 1,53 en 2000, 1,49 en 2008 et 1,50 en 2010. Et, à l’inverse de ce que l’on peut observer dans plusieurs autres pays, le ratio 90/50, qui rapporte le dernier décile sur la médiane, n’a pas tendance à augmenter en France. Cependant, cette remarquable stabilité est trompeuse. La focalisation sur les dimensions désagrégées des inégalités salariales révèle de significatifs changements avec des impacts opposés.

La réduction des écarts salariaux entre les sexes et entre les secteurs public et privé

(…) Les salaires nets réels moyens (en équivalents temps plein) dans le secteur privé et dans les entreprises publiques (…) ont généralement suivi les taux de productivité du travail, mais ils ne reflètent pas le cycle d’affaires, puisqu’ils ont augmenté en 2009 et ont chuté durant la subséquente reprise. La dynamique apparente des salaires lors de la récession alimenta l’idée que les travailleurs français avaient une préférence pour les salaires plutôt que pour l’emploi ; les tendances récentes sont moins cohérentes avec cette interprétation naïve du drame du chômage français.

Le calendrier s’explique en partie par les hausses initiales des salaires minimaux nominaux de branches (visant à compenser la hausse de l’inflation en 2008). Cependant, les principaux moteurs sont les effets de composition : lorsque l’on prend en compte la contraction des emplois peu pays en 2009, le salaire net réel moyen en équivalents temps plein est resté stable.

En raison de la part importante d’emplois qualifiés dans le secteur privé (enseignants, docteurs, etc.), il y a eu un écart significatif en termes de rémunérations entre les fonctionnaires et les travailleurs du secteur privé et des entreprises publiques. Cependant, le gel des rémunérations nominales des fonctionnaires à partir de 2010 a réduit cet écart ces dernières années ; selon les dernières statistiques, en 2014 les salaires nominaux moyens en équivalents temps plein des travailleurs du secteur privé sont même devenus légèrement plus élevés. Puisque la majorité des fonctionnaires sont des femmes, ce gel a joué contre les femmes. A l’inverse, la hausse du niveau scolaire relatif des femmes et leur capacité à obtenir des emplois plus qualifiés dans les entreprises privés leur ont été bénéfiques. Ce second mécanisme a dominé le premier et donc l’écart de salaires entre les sexes a diminué depuis le tournant du siècle ; cependant, il reste significatif. En termes de rémunérations salariales annuelles réelles, l’écart entre les sexes était de 39 % en 2000, de 37 % en 2008 et de 31 % en 2014.

Les contrats de travail hachés

Au cours des 15 dernières années, la simplification des exigences légales et de la numérisation du processus de recrutement ont provoqué une croissance rapide dans les embauches en France. (…) Chaque trimestre, les hôtels et les restaurants embauchent autant de travailleurs que le nombre de postes rémunérés.

Ce phénomène est alimenté par la stratégie des ressources humaines consistant à remplacer les contrats à longue durée déterminée par des contrats très temporaires (la plupart durant moins d’une semaine) pour adapter juste-à-temps la main-d’œuvre. La part des emplois à durée déterminée est restée stable depuis 2000 (contrairement aux années 1980 et 1990 quand elle augmentait) dans le voisinage de 15 % de l’ensemble des emplois salariés. Cependant, la durée des contrats s’est fortement réduite. Seul un contrat de court terme sur cinq dure un mois ou plus, contre deux sur cinq en 2000 ; la durée médiane est maintenant d’environ huit jours. Une autre caractéristique essentielle de cette épidémie est que la plupart des travailleurs embauchés sont en fait les mêmes travailleurs qui sont réembauchés pour le même emploi. Par construction, les contrats de très court terme sont exclus d’une variété de types additionnels de rétributions fixée par les accords au niveau de la branche pour les travailleurs qui ont la même ancienneté minimale.

Un million de travailleurs qui sont plus jeunes et moins qualifiés maintenant désormais du chômage à l’emploi et retournent au chômage très fréquemment. Cela provoque une nouvelle forme de sous-emploi. Découper les contrats de travail dans des intervalles toujours plus brefs réduit les rémunérations annuelles en bas de la distribution, et le 10ème centile de la répartition des rémunérations du travail est désormais inférieur au seuil de pauvreté. Les nouveaux travailleurs pauvres ont convaincu les syndicats et organisations patronales, qui gèrent l’assurance chômage en France, pour améliorer les allocations chômage. De ce point de vue, la mesure pertinente de l’activité du travail n’inclut plus seulement les salaires, mais aussi les allocations chômage. Selon les derniers chiffres, cette amélioration des allocations semble avoir stabilisé les revenus en bas de la distribution.

Notons que l’enquête Emploi, qui utilise la définition de l’OIT du chômage, ne peuvent capturer les périodes de chômage au cours d’une semaine. Cela explique en partie pourquoi les demandeurs d’emploi enregistrés à Pôle emploi sont maintenant bien plus nombreux que les chômeurs : fin juillet 2017, Pôle emploi enregistrait 5,6 millions de demandeurs d’emploi (qui n’avaient pas travaillé durant le mois ou n’avaient travaillé que partiellement), alors qu’il y a trois millions de chômeurs selon les statistiques officielles de l’OIT.

Les nouveaux travailleurs indépendants

Le changement de la nature de l’emploi indépendant est une autre mutation massive du marché du travail français et il s’est déroulé sur une décennie. Les artisans qualifiés traditionnels ont été écrasés par la récession et par la concurrence de la part de nouveaux entrepreneurs. En 2009, le gouvernement a introduit le statut d’auto-entrepreneur (maintenant appelé statut du micro-entrepreneur). Il est désormais possible de devenir un micro-entrepreneur en cinq minutes via internet. Les cotisations sociales et les impôts sur le revenu des micro-entrepreneurs sont faibles et proportionnels aux revenus, qui peuvent être déclarés sur internet chaque trimestre, à condition qu’ils soient sous un certain seuil. La plupart de ces entrepreneurs n’ont pas à demander une TVA et ils peuvent aussi offrir de plus faibles prix parce qu’ils ne sont pas sujets à plusieurs exigences (par exemple l’assurance professionnelle) imposées sur les artisans traditionnels. Comme le nombre d’artisans classiques a décliné au cours de la dernière décennie, le nombre de contractants indépendants a augmenté. Ce dernier groupe a aussi connu une hausse en équivalents temps plein de pratiquement 5 % durant ce laps de temps. Cependant, leur revenu réel par heure travaillée a chuté d’environ 15 % en moyenne. Une nouvelle catégorie de travailleurs pauvres émerge donc : en 2014, les 500.000 micro-entrepreneurs qui étaient actifs et qui ne cumulaient pas leur activité indépendante avec une activité salariale, gagnaient en moyenne moins de 500 euros par mois. Au cours des trois dernières années, l’émergence de l’économie du partage a accéléré le développement du micro-entrepreneuriat, faisant désormais apparaître le risque d’un déversement des emplois salariés (notamment l’emploi très qualifié) vers le travail indépendant. (...) »

Philippe Askenazy, « The changing of the French labor market, 2000–2017 », IZA World of Labor, n° 412, janvier 2018. Traduit par Martin Anota

lundi 14 mai 2018

Dans la zone euro, la politique budgétaire est restée à l’âge de pierre

« … ou peut-être au Moyen-âge, mais certainement à une date postérieure aux années vingt. Keynes a conseillé d’utiliser l’expansion budgétaire dans ce qu’il appelait une trappe à liquidité dans les années trente. Aujourd’hui, nous utilisons une terminologie différente et parlons de la nécessité de recourir à une expansion budgétaire quand les taux d’intérêt nominaux sont contraints par leur borine inférieure zéro (zero lower bound) ou borne inférieure effective (effective lower bound). (J’ai une légère préférence pour la deuxième expression, dans la mesure où c’est aux banques centrales de décider à quel point réduire davantage les taux d’intérêt nominaux serait risqué ou contre-productif.) La logique est la même aujourd’hui que dans les années trente. Quand la politique monétaire perd son instrument fiable et efficace pour gérer l’économie, vous devez utiliser parmi les instruments restants celui qui est le plus fiable et efficace, en l’occurrence la politique budgétaire.

La zone euro dans son ensemble est actuellement à la borne inférieure effective. Les taux sont à zéro et la BCE crée de la monnaie pour des achats d’actifs à grande échelle : un instrument de politique monétaire dont l’impact est bien plus incertain que les variations de taux d’intérêt ou les changements de politique budgétaire (mais certainement mieux que rien). Si la politique monétaire est dans un cadre de stimulation maximal, c’est parce que l’inflation sous-jacente de la zone euro semble collée à 1 %, voire plus bas. C’est un moment clairement approprié pour que la politique budgétaire lui prête main forte avec une certaine relance budgétaire.

Pourtant le but du nouveau ministre des Finances allemand, appartenant aux sociaux-démocrates de gauche, est d’atteindre un excédent budgétaire de 1 %. Pour atteindre cet objectif, il a prévu de réduire l’investissement public en le faisant passer de 37,9 milliards d’euros l’année à venir à 33,5 milliards d’euros en 2020. Pourtant, les infrastructures allemandes, autrefois de renommée mondiale, sont en pleine déchéance. La connectivité à large bande pourrait être grandement améliorée.

Il y a de nombreux arguments en faveur d’un assouplissement de la politique budgétaire allemande. L’Allemagne a actuellement un excédent de compte courant avoisinant les 8 % du PIB. Il y a plusieurs raisons structurelles expliquant pourquoi l’on pourrait s’attendre à un certain excédent courant en Allemagne, mais le FMI estime que ces facteurs structurels expliquent moins de la moitié de l’excédent courant que nous observons. Il estime qu’un tiers de l’excès d’excédent résulte d’une politique budgétaire excessivement restrictive. Comme Guntram Wolff le souligne, la principale contrepartie de l’excédent est l’épargne du secteur des entreprises. Peut-être qu’un surcroît d’investissement public encouragerait l’investissement privé.

Mais ce n’est pas un autre article à propos de la façon par laquelle l’Allemagne a besoin d’embrasser la relance pour aider le reste de la zone euro. Le problème, comme le souligne Matthew Klein, est que l’ensemble de la zone euro fait de même. Dans la zone euro dans son ensemble, la position budgétaire est aussi restrictive que lors du boom d’avant-crise. Le chômage dans la zone euro est toujours trop élevé. Si la politique budgétaire est trop restrictive, c’est parce que les meneurs clés de la zone euro pensent que c’est la bonne chose à faire. "Le bon déficit, c’est zéro" a dit le ministre des Finances français. Il poursuit : "Vu que la France ne traverse pas une période de crise économique, nous devons avoir un budget à l'équilibre afin de pouvoir se permettre d'être en déficit quand les temps seront plus durs". Vous pouvez entendre la même chose en Allemagne : l’économie est en expansion, donc nous devons avoir des excédents budgétaires.

Une économie en expansion n’est pas une économie qui croît rapidement, mais une économie où le niveau de production et d’emploi est supérieur au niveau compatible avec le maintien d’une inflation à sa cible. Les mesures de l’écart de production (output gap) ne sont que des estimations de ce niveau : l’inflation sous-jacente est le guide ultime. L’inflation sous-jacente est bien inférieure à la cible aujourd’hui, ce qui explique pourquoi les taux d’intérêt sont à leur borne inférieure effective. C’est pourquoi les actions et les propos de la plupart des ministères des Finances européens (et britanniques) sont tout simplement faux.

Vous pourriez penser que provoquer une seconde récession après celle qui suivit la crise financière mondiale aurait rappelé aux ministres des Finances européens d’appendre un peu de macroéconomie. (Oui, je sais que le relèvement des taux de la BCE en 2011 n’a pas aidé, mais je pense que la plupart des modèles macroéconomiques vous diront que la contraction budgétaire collective est à l’origine de l’essentiel des dommages.) (…)

Ce n’est pas un désaccord entre la gauche et la droite comme c’est le cas au Royaume-Uni, mais un problème avec le consensus en Europe en matière de politique économique. Je pense que ce à quoi nous assistons est une combinaison explosive de deux forces : d’une part, l’obsession allemande pour l’équilibre du Budget qui trouve ses racines dans l’idéologie ordolibérale-néolibérale qui est aujourd’hui dominante et, d’autre pat, les fameux "hommes pratiques" de Keynes, des conseillers qui ont appris l’économie à une époque de Grande Modération où le principal problème économique que nous avions était un biais déficitaire relativement bénin. En retard d’une guerre et tout ça. »

Simon Wren-Lewis, « Fiscal policy remains in the stone age », in Mainly Macro (blog), 10 mai 2018. Traduit par Martin Anota



Politique monétaire et politique budgétaire dans la zone euro


« Simon Wren-Lewis vient de décrire avec tant de désespoir l’état de la politique budgétaire en zone euro ; les pays du cœur nordique comme l’Allemagne, la France et les Pays-Bas poursuivant des équilibres ou excédents budgétaires à un moment où les taux d’intérêt de la BCE sont à la borne inférieure effective et où l’inflation sous-jacente est obstinément bien inférieure à sa cible de 2 %. Je suis entièrement d’accord avec ce qu’il écrit dans son billet ; j’aimerais rajouter quelques petites choses.

Une politique budgétaire restrictive ne serait pas un problème si la politique monétaire non conventionnelle (consistant à acheter des titres de l’Etat et du secteur privé dans le cas de la BCE) était un parfait substitut à la politique budgétaire contracyclique. Mais c’est une position minoritaire dans la communauté des économistes et des décideurs en matière de politique économique. Et les nordistes la trouvent détestable car ils y voient un premier pas vers la remise en cause de la séparation entre politiques monétaire et budgétaire.

La structure institutionnelle de la zone euro est l’héritage des leçons tirées de l’hyperinflation allemande des années vingt : il faut séparer un maximum la politique monétaire de la politique budgétaire, dans le cas où la politique budgétaire devient hors de contrôle et où le financement monétaire devient tentant ; et s’assurer que la politique budgétaire soit biaisée vers le côté conservateur pour empêcher qu’un tel risque soit possible. Ce que l’Allemagne (…) ont appris comme leçon de cet épisode s’est imposé au le reste de la zone euro comme une condition pour sa création. Ces institutions incarnent une leçon que mérite d’être apprise : nous nous portons beaucoup mieux si le risque d’hyperinflation est plus faible. Mais nous avons appris une autre leçon au cours des dix dernières années : nous avons appris que la probabilité de toucher la borne zéro est plus élevée que nous ne le pensions et cela signifie que le dispositif de délégation et d’assignation impliqué par la vieille institution est déficient.

Les politiciens du cœur nordique de la zone euro se comportent comme si les objectifs de politique monétaire délégués à la BCE étaient seulement le problème de la BCE, c’est-à-dire des objectifs qui ne sont poursuivis qu’avec la politique monétaire. Mais ce n’est pas le cas quand la politique conventionnelle est piégée à la borne inférieure effective et qu’elle a besoin d’assistance. Au vu de ce que nous savons maintenant, il est malavisé de déléguer inconditionnellement la stabilisation macroéconomique à la banque centrale et de rechercher inconditionnellement à générer un excédent budgétaire.

La crise financière a révélé une déficience dans le modèle de l’union monétaire que nous ne pensions pas importante auparavant.

Dans un pays où le gouvernement a la responsabilité ultime pour ses propres politiques monétaire et budgétaire, c’est en principe facile pour ce gouvernement de s’organiser de façon à ce que la politique budgétaire soit utilisée quand la politique monétaire manque de munition (…) Mais quand il y a plusieurs agents budgétaires, il n’y a pas de mécanisme pour coordonner la nouvelle politique budgétaire, en particulier pour encourager chaque Etat à s’inquiéter de la déficience de la politique monétaire ou de la persistance de l’inflation sous sa cible dans l’ensemble de la zone euro.

Le Pacte de Stabilité et de Croissance fut une tentative bancale (…) visant à coordonner contre une politique excessivement laxiste ; la crainte était que les gouvernements puissent mal se comporter en empruntant excessivement et qu’ils comptent d’une certaine façon sur la banque centrale commune et sur d’autres aspects implicites de l’union pour être renfloués si nécessaire. Mais il n’y a pas de tentative visant à obtenir une coordination pour le problème inverse, en l’occurrence le risque d’une politique excessivement restrictive. Ce n’est pas surprenant, dans la mesure où, avant la crise, on ne considérait pas que le risque de sous-stimulation soit très probable, au vu de l’histoire de la politique macroéconomique de la plupart des pays de la zone euro.

Le problème est aggravé dans la zone euro en gravant dans la pierre (en l’occurrence dans l’article 127 du Traité de Lisbonne) le mandat de la banque centrale. La BCE poursuit une "stabilité des prix" (en lien avec la Constitution allemande) et interprète elle-même ce que signifie cet objectif. Elle a décidé qu’il s’agissait d’une inflation "proche, mais inférieure, à 2 %". Si l’on répondait aux leçons que nous enseigne la crise financière comprendrait, cela impliquerait 1) de rendre (…) la politique budgétaire contracyclique plus agressive à la borne effective zéro ou 2) de relever la cible d’inflation (…). Au Royaume-Uni, le gouvernement a conservé le droit de définir et de redéfinir la cible pour la banque centrale. Dans la zone euro, seule la BCE a ce droit et son mandat proscrit effectivement tout relèvement de la cible d’inflation. Cet aspect de la zone euro n’était qu’un aspect, pas un problème ; mais désormais c’en est un.

L’union monétaire n’aurait pas été créée si les autorités allemandes pensaient qu’il était possible que les autres gouvernements puissent se liguer et relever la cible d’inflation. Graver la cible dans les traités de la zone euro (qui ont conféré bien d’autres bénéfices et avaient donc peu de chances d’être rejetés dans leur ensemble) apportait une garantie contre ce risque. Dans un vieux monde où la borne inférieure effective ne semblait être qu’une curiosité (même si le Japon y était confronté lorsque l’UEM se construisait), il ne semblait pas qu’il y ait de réels coûts à compliquer à ce point toute révision de la cible d’inflation. Maintenant, nous savons qu’il y en a. »

Tony Yates, « Eurozone monetary and fiscal policy », in longandvariable (blog), 11 mai 2018. Traduit par Martin Anota

vendredi 11 mai 2018

L’économie contre-nature

« Est-ce que l’hypothèse du taux naturel est morte ? Peut-être. Probablement.

Depuis le milieu des années soixante-dix (…), l’opinion écrasante en macroéconomie était qu’il n’y avait pas d’arbitrage à long terme entre le chômage et l’inflation, que toute tentative visant à maintenir le chômage sous un certain niveau déterminé par des facteurs structurels ne mènerait qu’à une inflation croissante. Mais les données n’ont pas soutenu cette idée pendant un moment ; et le dernier rapport sur l’emploi aux Etats-Unis, indiquant un faible chômage officiel et une croissance des salaires toujours bien faible, semble avoir porté les doutes quant au taux naturel à leur masse critique.

Mais qu’est-ce que cela signifie de remettre en cause ou de rejeter le concept de taux naturel ? En lisant l’explication de Mike Konczal pour le profane ou l’exposition d’Olivier Blanchard pour les professionnels, je me suis demandé si les choses étaient assez claires. Je ne veux pas dire par là qu’il y a quelque chose de faux dans les propos de Konczal ou de Blanchard ; je suis entièrement d’accord avec ce qu’ils disent tous les deux, si ce n’est que je prendrai un accent plus agressif à l’encontre de la vieille orthodoxie que ne le fait Olivier Blanchard (…). Mais je pense qu’il est utile de reprendre l’exposé et ses implications.

Ce qu’il faut retenir ici, c’est que les arguments en faveur de politiques monétaire et (si nécessaire) budgétaire agressives pour soutenir la demande globale sont bien plus robustes que nous avions tendance à le penser. Les erreurs comme le tournant de l’austérité et le relèvement du taux directeur de la BCE en 2011 étaient de bien plus grandes erreurs que ne le suggérait la précédente doctrine ; les hausses prématurées du taux de la Fed seraient une plus grande erreur que ne semble le réaliser aujourd’hui la Fed. A la lumière de ce que nous savons pour l’heure, la production perdue à cause de la faible demande est perdue à jamais ; il n’y a aucune chance de la rattraper plus tard.

Durant les années soixante-dix, l’ensemble de la profession des macroéconomistes était convaincu par l’expérience de la stagflation que Milton Friedman et Edmund Phelps avaient raison : il n’y a pas d’arbitrage à long terme entre inflation et le chômage. L’inflation courante dépend de l’inflation, mais aussi directement de l’inflation anticipée :

Inflation = f(U) + inflation anticipée

Où f(U) est une certaine fonction du taux de chômage. En même temps, l’inflation anticipée reflète vraisemblablement l’inflation passée. Donc essayer de maintenir U à de très faibles niveaux signifie pousser l’inflation à des niveaux toujours plus élevés de manière à ce qu’elle garde son avance sur les anticipations, ce qui n’est pas une stratégie soutenable.

En fait, la vitesse à laquelle la profession a adopté l’hypothèse du taux naturel est remarquable ; et elle est particulièrement exceptionnelle lorsque l’on voit la mollesse et la réticence dont font preuve de nombreux macroéconomistes à l’idée d’admettre que les événements depuis la crise de 2008 justifient qu’ils révisent leurs modèles et peut-être même qu’ils concèdent que les Keynésiens étaient sur quelque chose. Mais cette histoire sera pour une prochaine fois.

Alors, que s’est-il passé ? Considérons le comportement du chômage et de l’inflation sous-jacente depuis les années quatre-vingt (...) La première moitié des années quatre-vingt était marquée par une forte hausse du chômage, qui a fini par revenir à peu près à son niveau initial ; mais l’inflation à la fin de ce cycle était à un niveau bien plus faible qu’initialement, ce qui semblait confirmer l’hypothèse accélérationniste. Mais après 2008, nous avons de nouveau eu une forte hausse du chômage, qui a fini par revenir à pratiquement à son point de départ (en fait plus bas encore). Si ce cycle avait produit une désinflation aussi forte qu’au cours des années quatre-vingt, nous aurions dû être à présent en déflation. Or l’inflation est à peu près au même niveau qu’au départ.

Est-ce que cela signifie qu’il n’y a pas de relation entre le chômage et l’inflation ? Malgré les énigmes entourant les récentes données américaines, je n’irai pas jusque là. Les événements extrêmes sont nos amis dans de tels cas, parce que la logique sous-jacente est moins susceptible d’être obscurcie par des circonstances spéciales. Donc je regarde des choses comme la désinflation de l’Espagne dans le contexte d’un chômage de masse.

GRAPHIQUE Courbe de Phillips en Espagne entre 2000 et 2017

Paul_Krugman__Espagne_inflation_chomage_courbe_de_Phillips.png

Je dirais que la pléthore de preuves empiriques soutient toujours l’idée qu’un chômage élevé tend à déprimer l’inflation et qu’un faible chômage tend à stimuler l’inflation.

Mais ce n’est pas ce que demande l’hypothèse du taux naturel. C’est ce que j’ai appelle la courbe de Phillips néo-paléo-keynésienne, dans laquelle il y a un arbitrage entre l’inflation et le chômage, même à long terme.

Pourquoi est-ce que l’accélérationnisme, qui a fonctionné dans les années quatre-vingt, ne semble plus marcher aujourd’hui ? D’une façon ou d’une autre, je pense que nous sommes dans le domaine de la rationalité limitée et de l’économie comportementale. La rigidité des salaires nominaux à la baisse est une chose réelle, qui devient très pertinente à de faibles niveaux d’inflation. Et comme Blanchard le suggère, dans un monde de faible inflation les gens arrêtent tout simplement de prêter attention à l’inflation globale et de construire des anticipations changeantes lorsqu’ils fixent leurs prix.

Donc pourquoi est-ce que cela importe ? Considérons l’histoire suivante ; toute ressemblance avec des événements réels est entièrement intentionnelle. Imaginons que nous connaissions un sévère ralentissement de l’activité économique qui pousse temporairement le chômage à la hausse et réduise l’inflation, mais que l’inflation revienne finalement là où elle était au départ.

Sur la conception accélérationniste, la période de chômage élevé doit entraîner une moindre inflation anticipée, donc pour ramener l’inflation à son niveau originel les responsables doivent laisser l’économie en surchauffe pendant un certain temps, avec le chômage sous son niveau soutenable à long terme. En supposant qu’ils réussissent à le faire, la période de surchauffe contribuerait à compenser le coût du ralentissement initial ; en fait, le taux de chômage moyen finirait par être au bout d’une décennie à peu près égal à ce qu’il aurait été s’il n’y avait pas eu initialement de ralentissement.

GRAPHIQUE Evolution du taux de chômage selon la conception accélérationniste

Paul_Krugman__taux_de_chomage_selon_conception_accelerationniste.png

De ce point de vue, la tâche des banques centrales et des autorités budgétaires n’est pas le plein emploi ; c’est la "stabilisation", c’est-à-dire éviter les fortes fluctuations du chômage. (...)

Mais la conception paléo, qui est celle soutenue par les données empiriques, dit que ramener l’inflation au niveau originel ne signifie pas que l’économie sera temporairement en surchauffe ; ça signifie juste réduire le chômage. Donc il n’y a jamais de compensation pour le ralentissement initial.

GRAPHIQUE Evolution du taux de chômage selon la vision non accélérationniste

Paul_Krugman__taux_de_chomage_selon_conception_non_accelerationniste.png

Selon cette conception, le fait que nous n’ayons pas généré assez de demande après 2008 a imposé un énorme coût, un coût que nous ne pourrons jamais combler. Et, en ce qui concerne l’avenir, il y a une grande asymétrie entre le risque que nous soyons trop laxistes et le risque que nous soyons trop restrictifs : laisser l’économie ralentir de nouveau va encore imposer d’énormes coûts qui ne seront jamais rattrapés, alors qu’il n’y a aucun problème sérieux pour l’avenir à ce que nous laissions l’économie aller en surchauffe.

Est-ce que cette réalité se reflète dans la politique économique ? Je pense que beaucoup d’économistes dans les banques centrales ont une vision néo-paléo de l’inflation. Mais la politique actuelle semble, au mieux, toujours être conduite avec une courbe de Phillips accélérationniste en arrière-fond ; il n’y a clairement aucune volonté de laisser l’économie en surchauffe, même temporairement.

Cela importe. Nous ne devons pas laisser la politique économique être conduite par des idées qui n’ont pas fonctionné pendant des décennies. »

Paul Krugman, « Unnatural economics », 6 mai 2018. Traduit par Martin Anota



La mort de l’accélération


« Je suis actuellement assis dans une salle remplie d’hommes en costumes gris, parlant de politiques monétaire et budgétaire. Et j’ai pensé que je pourrais donner un nouveau coup à un sujet auquel je me suis déjà attaqué : l’hypothèse du taux naturel, l’idée selon laquelle il y aurait un unique taux de chômage cohérent avec une inflation stable.

Ce qu’il y a de sous-jacent à l’hypothèse du taux naturel, c’est l’« accélérationnisme », l’idée selon laquelle un faible chômage ne va pas juste entraîner une forte inflation, mais aussi une inflation croissante, et inversement qu’un chômage élevé ne va pas juste réduire l’inflation, mais aussi entraîner une inflation décroissante.

L’accélérationnisme était d’habitude une bonne description des évolutions de l’inflation. Considérons la forte contraction du début des années quatre-vingt. Le chômage a explosé pendant un moment, puis il est revenu à peu près là où il était initialement. L’inflation, cependant, n’est pas revenue là où elle avait commencé : elle a diminué de 5 points de pourcentage :

GRAPHIQUE Chômage et inflation aux Etats-Unis à partir de 1980

Paul_Krugman__chomage_inflation_sous-jacente_Etats-Unis_1980_1988.png

Mais c’était il y a longtemps. Considérons ce qui s’est passé après la crise financière de 2008. Comme dans les années quatre-vingt, le chômage a explosé pendant un moment, puis il a fini par refluer. Mais l’inflation n’a pas vraiment varié ; en l’occurrence, elle a fini le cycle à peu près là où elle avait commencé :

GRAPHIQUE Chômage et inflation aux Etats-Unis à partir de 2008

Paul_Krugman__chomage_inflation_sous-jacente_Etats-Unis_2008_2016.png

Le truc, c’est que la Fed et d’autres banques centrales opèrent toujours fondamentalement avec un cadre accélérationniste. Quand est-ce qu’elles s’adapteront à la réalité ? »

Paul Krugman, « The death of acceleration », 11 mai 2018. Traduit par Martin Anota



aller plus loin... lire « Le taux de chômage naturel, un concept suranné »

Quand la croissance soutenue s’est-elle amorcée ?

« (…) Jane Humphries et Jacob Weisdorf ont publié "Unreal wages? Real income and economic growth in England, 1260-1850", dont vous pouvez trouver une version en libre accès ici. Comme ils le soulignent, il y a une grande disparité dans les sources de données que nous utilisons pour réfléchir au calendrier et à l’évolution de la croissance économique soutenue. Le problème fondamental apparaît notamment dans leur graphique, reproduit ci-dessous.

GRAPHIQUE 1 PIB par tête et estimation du revenu annuel réel des travailleurs journaliers (en indices)

Humphries_Weisdorf__PIB_par_tete_revenu_annuel_reel_des_travailleurs_journaliers.png

PIB par tête et salaires


En utilisant des données agrégées, Broadberry, Campbell, Klein, Overton et van Leeuwen ont présenté dans leur "British Economic Growth, 1270-1870" une série de PIB par tête, représentée par des cercles ouverts sur le graphique. Ce dernier montre un décollage de la croissance autour de 1650. Cependant, les données standards utilisées pour établir la trajectoire des niveaux de vie ont été les données sur les salaires et leur source a été un article de Clark de 2007. Comme vous pouvez le voir, les données sur les salaires n’indiquent pas de décollage au dix-septième siècle ; et même en 1850, les salaires ne semblaient pas connaître de croissance soutenue.

Ces deux séries de données racontent des histoires bien différentes à propos de l’origine de la croissance économique. Et c’est comme si l’une des deux devait être inexacte. Ce que suggèrent Humphries et Weisdorf, pour résumer, c’est que les données sur les salaires sont incorrectes. Le problème sous-jacent est que l’essentiel des discussions à propos des niveaux de vie des travailleurs au cours de cette période se base sur des observations de salaires journaliers tirées de diverses sources, qui sont ensuite multipliées par une certaine estimation du nombre de jours travaillés dans une année (typiquement 250) pour obtenir le revenu annuel. Mais c’est bien sûr problématique à plusieurs niveaux. Combien de jours travaillait-on vraiment ? Ce chiffre ne variait-il pas considérablement au cours du temps ? Même si les salaires journaliers enregistrés dans les données sont corrects, devons-nous croire que tout travailleur pouvait gagner ce salaire autant de jour qu’il le voulait au cours d’une année ?

Ce qu’ont fait Humphries et Weisdorf, c’est creuser dans les données passées et chercher des informations sur les contrats du travail annuels. Plusieurs travailleurs agricoles avaient des contrats annuels ou permanents et les propriétaires de ferme utilisaient en plus de cette main-d’œuvre des travailleurs journaliers si nécessaire. Mais les contrats annuels existaient également en-dehors du secteur agricole. Ces contrats annuels offrent, en théorie, une meilleure façon de mesurer les niveaux de vie des travailleurs. Cependant, le problème est que ces contrats incluent, outre les paiements monétaires, des rémunérations en nature, en termes d’hébergement ou d’alimentation. Le gros problème auquel Humphries et Weisdorf se sont attaqué, c’est chercher à donner une valeur à ces rémunérations en nature.

(…) Regardons ce que leurs chiffres nous disent. La gifle de leur article, c'est vraiment le graphique suivant. La ligne sombre représente la série de salaires développée par Humphries et Weisdorf et les deux autres lignes sont identiques à celles du premier graphique. Vous pouvez voir que les salaires annuels suivent très bien les données du PIB par tête. Et comme Humphries et Weisdorf le soulignent, il y a deux choses significatives que l’on peut tirer de ça.

GRAPHIQUE 2 PIB par tête et estimation du revenu annuel réel des travailleurs (en indices)

Humphries_Weisdorf__PIB_par_tete_et_estimation_du_revenu_annuel_reel_des_travailleurs.png

Revenus annuels, PIB par tête et salaires


Premièrement, la réaction des salaires à la Peste noire (autour de 1350-1450) est bien moindre en termes de salaires annuels relativement aux salaires quotidiens. Nous (…) avons utilisé les données sur les salaires quotidiens pour illustrer la réaction malthusienne des niveaux de vie aux chocs démographiques. Comme la Peste noire a tué entre un quart et un tiers de la population, les salaires ont explosé, mais quand la population a de nouveau augmenté (au seizième siècle), les salaires ont chuté pour revenir à leur niveau pratiquement stagnant. Les données de Humphries et Weisdorf sur les revenus annuels montrent que la réaction a été plus atténuée. Elle est toujours là (regardez en particulier en 1350 et en 1400), mais elle n’a pas été énorme. En fait, il ne semble pas que les salaires annuels soient revenus à leur niveau antérieur à la Peste noire. Cela ne signifie pas que le modèle malthusien soit faux ; il y a eu plein d’autres changements à l’œuvre dans l’économie suite à la Peste noire. Mais ce n’est pas l’illustration nette du mécanisme qu’elle a pu être. (…) Si l’on suppose que le modèle malthusien est correct, alors les données sur les revenus annuels nous disent qu’il a dû y avoir un certain changement significatif dans l’économie anglaise durant cette période, sinon les revenus auraient dû diminuer et se retrouver dans l’éventail de 50 à 75 sur le graphique en 1650.

Deuxièmement, et c’est quelque chose de plus frappant, le début de la croissance soutenue des revenus annuels est bien antérieur à la Révolution industrielle. Les croissances du PIB par tête et des revenus annuels ont commencé à s’accélérer autour de 1650. La série de PIB par tête de Broadberry et alii ne reflète pas simplement une hausse des loyers fonciers ou des versements au capital, mais elle semble représenter aussi une hausse des niveaux de vie des travailleurs en termes réels.

Cette hausse a même lieu avant la datation la plus agressive de la Révolution industrielle en termes de technologies spécifiques (par exemple le moteur de Newcomen en 1712) et elle est bien antérieure aux machines à tisser et aux machines à filer des années 1760. La machine à vapeur a été inventée au début du dix-huitième siècle, mais ce n’est qu’au début du dix-neuvième siècle qu’elle est devenue une source significative d’énergie motrice pour l’industrie en Angleterre.

Ce que les données de Humphries et Weisdorf font, dans leur interprétation la plus forte, c’est rompre violemment la connexion entre la Révolution industrielle (un événement technologique) et le début de la croissance soutenue (un événement économique). J’ai déjà avancé une telle idée auparavant et les constats que font Humphries et Weisdorf suggèrent que la déconnexion n’est pas celle que je pensais : ce ne sont pas les revenus qui ont été en retard sur le changement technologique ; en fait, ils ont commencé à s’accroître avant le changement technologique. C’est cohérent avec les données du PIB par tête et cela a un ensemble d’implications très différent pour la croissance économique.

Un récit qui mériterait d’être reconsidéré est celui qui fait du capital humain l’origine de la croissance soutenue. L’idée ici est que ce n’est que lorsque l’industrie anglaise, au dix-neuvième siècle, commença à demander plus de capital humain que les familles, dans l’arbitrage entre quantité et qualité, ont commencé à donner plus d’importance à la qualité, permettant ainsi à faire apparaître une croissance soutenue. Mais si la croissance soutenue a commencé en 1650, il n’est pas possible que ce soit la modification de la demande de capital humain dans l’industrie au dix-neuvième siècle qui a entraîné la croissance soutenue. Maintenant, vous pouvez sauver le récit du capital humain en suggérant que le phénomène qui a été à l’œuvre en 1650 a été intense en capital humain et, même si le calendrier du récit est inexact, la théorie reste correcte. Mais alors, nous devons alors comprendre ce qui s’est passé avec la nature du capital humain en 1650 (…). En même temps, vous devez prendre en compte le fait que la croissance démographique en Angleterre n’a pas ralenti à partir de 1650 et sur la base de plusieurs données s’est accélérée peu de temps après.

Un deuxième récit qui mériterait d’être reconsidéré est l’hypothèse des institutions. Voici ce que vous ne voulez pas faire. Ne regardez pas les données et décidez que cela doit avoir le meurtre de Charles I en 1649 ou l’ascension d’Oliver Cromwell que a "provoqué" l’accélération de la croissance. Tout d’abord, les données de Humphries et Weisdorf dans le graphique semblent précises, mais vous devez imaginer des barres d’écart-type pour leurs séries de données, donc le décollage de la croissance économique est probablement plus sûrement situé quelque part entre 1600 et 1700. Ensuite, ce n’est pas la façon par laquelle l’inférence causale fonctionne. Cela dit, j’ai besoin probablement de revenir sur mon opinion quant à la plausibilité que les changements institutionnels associés à la Révolution Glorieuse de 1689 aient eu un important effet sur croissance.

Un autre récit qui me vient à l’esprit concernant origines de croissance soutenue est le rôle des découvertes et des débuts de la colonisation. En faisant remonter le début de la croissance soutenue au dix-septième siècle, le calendrier colle avec la colonisation croissante des Amériques. Les Pères pèlerins ont fait leur périple en 1620 et la colonie de la baie du Massachusetts s’est établie autour de 1630. Donc on peut prendre plus sérieusement l’idée que les Amériques ont joué un rôle important dans la croissance soutenue. En même temps, il est difficile de croire que l’ampleur de la migration et du commerce entre les Amériques et l’Angleterre ait été si importante qu’ils aient pu significativement affecter les salaires anglais, même à la fin du dix-septième siècle. Mais comme avec l’hypothèse institutionnelle, disons que je reviens sur mon opinion concernant l’importance des colonies. Je ne suis toujours pas convaincu, mais je suis un peu moins sceptique que je ne l’étais il y a quelques jours.

Un dernier récit qui semble bénéficier de ce genre de données est la théorie de Bob Allen à propos des pressions salariales et de la technologie industrielle. En réfléchissant aux raisons expliquant pourquoi l’Angleterre a adopté certaines technologies à la fin du dix-septième siècle et au début du dix-neuvième siècle, mais pas de nombreux pays continentaux, Allen cite le niveau des salaires relativement élevé en Angleterre (en comparaison avec les prix relativement faibles de l’énergie). Les données sur les revenus annuels sont cohérentes avec cette hypothèse (…).

Bref, les données de Humphries et Weisdorf bousculent suffisamment les faits stylisés à propos du décollage de la croissance soutenue pour que nous ayons à revoir ce que l’on pense des facteurs qui l’ont provoquée. Cela m’amène de nouveau à réfléchir sérieusement à la question. Nous devons séparer la notion de la croissance soutenue (c’est-à-dire la croissance des revenus annuels) de la notion de Révolution industrielle (c’est-à-dire l’invention ou l’adoption de technologies spécifiques). Certes nous pensons que la croissance dépend du changement technologique, mais cela ne signifie pas que ce sont les technologies impliquées dans la production de coton qui ont entraîné la croissance soutenue. (…) »

Dietrich Vollrath, « When did sustained growth start? », 30 mars 2018. Traduit par Martin Anota



aller plus loin...

« Sept siècles de croissance et de déclin en Europe »

« A quoi ressemblait la croissance britannique avant la Révolution industrielle ? »

« Les reliefs de la croissance »

lundi 7 mai 2018

Une réflexion (contrefactuelle) sur l’influence de Karl Marx

« Le bicentenaire de la naissance de Karl Marx a donné lieu à plusieurs conférences dédiées aux divers aspects (Dieu sait qu’ils sont nombreux) des travaux et de la vie de Marx. (Je vais d’ailleurs à l’une de ces conférences à Haïfa.) Ajoutez à cela un nombre encore plus grand de présentations de ses travaux et de son influence (Peter Singer en a publié une il y a quelques jours), de nouveaux livres sur sa vie, un film sur le jeune Marx, et ainsi de suite.

Je vais aussi voir ici l’influence intellectuelle de Marx, mais d’un angle très différent. Je vais utiliser l’approche contrefactuelle. Je vais me demander ce qu’aurait été son influence en l’absence de trois événements cruciaux. Bien sûr, comme toutes les analyses contrefactuelles, je fonde la mienne sur ma propre lecture de l’histoire et la conjecture. Elle peut se révéler inexacte. Je suis sûr que d’autres peuvent proposer des analyses contrefactuelles bien différentes, peut-être meilleures que la mienne.

Le premier événement : c’est l’implication d’Engels. (…) Quand Karl Marx meurt en 1883, il est le coauteur du Manifeste communiste, de plusieurs brèves études politiques et sociales, des articles de journaux (dans le New York Daily Tribune) et un livre épais, mais peu connu et peu traduit, appelé Le Capital (volume 1). Il a été publié 16 ans avant sa mort et durant ce laps de temps il a beaucoup écrit, mais peu publié. Vers la fin de sa vie, il n’écrivait même plus beaucoup. Des centaines de pages de ses manuscrits de la fin des années 1840 et des années 1850 et 1860 n’étaient pas non plus publiées et étaient bien chaotiques. Marx était connu parmi un cercle plutôt réduit d’activistes syndicaux et de socio-démocrates allemands, autrichiens et russes. Si les choses étaient restées ainsi, c’est-à-dire si Engels n’avait pas passé plus de dix ans à mettre en ordre les papiers de Marx et à produire deux volumes supplémentaires au Capital, la notoriété de Marx aurait fini au point où elle était en 1883 : elle aurait été bien réduite. Je doute que quiconque se serait souvenu de sa naissance aujourd’hui (il est né le 5 mai).

Mais grâce au travail et au dévouement désintéressés d’Engels (et à l’importance d’Engels dans la social-démocratie allemande), l’importance de Marx a grandi. Les sociaux-démocrates sont devenus le plus grand parti politique en Allemagne et cela accrut davantage l’influence de Marx. Sous Kautsky, les Théories de la plus-value ont été publiées. Les seuls autres pays où il était influent étaient la Russie et l’Empire austro-hongrois (même si cela restait dans un cercle très étroit).

La première décennie du vingtième siècle a vu l’influence de la pensée marxiste croître, tellement que Leszek Kolakowski, dans ses monumentaux Principaux Courants du Marxisme, qualifia cette période d’"âge d’or". Ce fut en effet l’âge d’or de la pensée marxiste si l’on considère le nombre de personnes écrivant dans la veine marxiste, mais ce n’était pas le cas en termes d’influence mondiale. La pensée de Marx n’a pas fait de percées dans le monde anglo-saxon (la première traduction du Capital, qui se réfère toujours étrangement à son titre allemand, a été publiée en 1887, c’est-à-dire vingt ans après sa publication originelle). Et dans le sud de l’Europe, notamment la France, il a été éclipsé par les anarchistes et les "socialistes petit-bourgeois".

C’est là où les choses auraient fini s’il n’y avait pas eu la Grande Guerre. Je pense que l’influence de Marx aurait peu à peu décliné à mesure que les sociaux-démocrates en Allemagne embrassèrent le réformisme et le "révisionnisme". Son portrait aurait probablement été présenté parmi les "maîtres à penser" historiques de la social-démocratie allemande, mais le reste de son influence dans la politique et (probablement) dans les sciences sociales aurait disparu.

Mais vint ensuite la Révolution d’Octobre (voilà le deuxième événement). Celle-ci a totalement chamboulé la scène. Pas seulement parce qu’il a eu pour gloire (et c’est unique pour les spécialistes en sciences sociales) d’être idéologiquement responsable d’un bouleversement majeur dans un grand pays et dans l’histoire du monde, mais aussi parce que le socialisme, en raison de sa résonance mondiale, "catapulta" la pensée et la notoriété de Marx vers de nouveaux sommets. Pour le meilleur ou pour le pire, sa pensée devint incontournable dans la plus grande partie de l’Europe, aussi bien parmi les intellectuels et les activistes politiques que parmi les dirigeants syndicaux et les travailleurs ordinaires. Des écoles du soir ont été organisées par les syndicalistes pour étudier ses écrits ; les meneurs politiques, en raison du tournant particulièrement dogmatique pris par les partis communistes, s’inspiraient pour leurs décisions et les expliquaient en référence aux écrits historiques jusqu’ici peu connus de Marx.

Ensuite, lorsque le Kominterm commença à abandonner son eurocentrisme et à s’engager dans les luttes anti-impérialistes dans le Tiers monde, l’influence de Marx s’étendit à des zones auxquelles personne ne l’avait prédit. Il devint l’idéologue de nouveaux mouvements pour la révolution sociale et la libération nationale en Asie, en Afrique et en Amérique latine. Que les meneurs politiques collent à ses préceptes ou les abandonnent (comme Mao le fit en considérant la paysannerie plutôt que le prolétariat dans le rôle de classe révolutionnaire), dans tous les cas Marx les influença ; et c’est en référence à lui qu’ils expliquaient leurs politiques. Grâce à Trotski et à Staline en Russie, aux républicains de l’aile gauche en Espagne, le Front populaire en France, Mao en Chine, Hô Chi Minh au Vietnam, Tito en Yougoslavie, Castro à Cuba, Agostino Neto en Angola, Nkrumah au Ghana, Mandela en Afrique du Sud, Marx est devenu un "influenceur" mondial. Aucun autre spécialiste des sciences sociales n’a eu une telle portée au niveau mondial. (…)

Et non seulement il a eu une influence mondiale, mais en outre son influence a traversé les frontières de classes et de professions. J’ai déjà mentionné les meneurs révolutionnaires, les politiciens et les syndicalistes. Mais son influence s’est étendue au monde universitaire, aux lycées ; il influença fortement ceux qui s’opposaient à lui et ceux qui chantaient ses louanges. Cette influence alla du marxisme élémentaire qui était enseigné aux étudiants aux traités philosophiques sophistiqués ou au "marxisme analytique" en économie. La publication des manuscrits que Marx avait rédigés de 1844 à 1846 nous donna un jeune Marx inconnu et cela déplaça les débats à un nouveau stade ; il y avait désormais une lutte philosophique entre le jeune Marx et le Marx classique.

Rien de tout cela n’aurait été possible sans la Révolution d’Octobre et l’abandon de l’eurocentrisme pour déplacer la focale sur le Tiers Monde. C’est ce déplacement de focale qui a fait de Marx, non plus un simple penseur allemand et européen, mais une véritable figure mondiale.

A mesure que les crimes du communisme étaient rendus publics et ont été porté au crédit de Marx, que les régimes communistes trébuchaient et que leurs idéologues lugubres et mal informés régurgitaient des phrases prévisibles, la pensée de Marx s’éclipsa. Avec la chute des régimes communistes, elle attint un nadir.

Mais ensuite, un troisième événement, l’apparition du capitalisme mondialisé, qui présenta tous les aspects que Marx avait si éloquemment décrivit dans Le Capital, puis la Crise Financière mondiale, ont permis à ce que sa pensée révèle à nouveau toute sa pertinence. Maintenant, il siège dans le Panthéon des plus grands philosophes au monde, chacun de ses mots a été publié, ses livres sont disponibles dans toutes les langues du monde et son statut est acquis (même s’il reste sujet aux caprices du temps), du moins dans le sens où il ne rejoindra pas l’obscurité et l’oubli.

En fait, son influence est inextricablement liée au capitalisme. Aussi longtemps que le capitalisme existera, on lira Marx parce qu’on verra en lui son plus brillant analyste. Si le capitalisme cesse d’exister, on lira Marx parce qu’on verra en lui son meilleur critique. Donc, que nous croyons que le capitalisme sera ou nous avec non ces deux prochains siècles, nous pouvons être sûrs que Marx le sera.

Sa place est désormais avec celle de Platon et d’Aristote, mais s’il n’y avait pas eu ces trois tournures si peu probables des événements, nous aurions à peine entendu parler de lui ; aujourd’hui, il n’aurait été qu’un obscur émigré allemand mort il y a longtemps à Londres et pour lequel seulement huit personnes sont venues à son enterrement. »

Branko Milanovic, « The influence of Karl Marx—a counterfactual », in globalinequality (blog), 2 mai 2018. Traduit par Martin Anota

dimanche 6 mai 2018

L’utilité des expériences contrôlées

« (…) Que doit faire un responsable politique lorsque diverses évaluations non expérimentales d’un même programme d’activation sur le marché du travail (réalisées par des chercheurs réputés, sans biais évident, et utilisant les mêmes données) produisent des estimations d’impact qui ont des implications très différentes pour ce programme ? (…) Les expériences sociales sont désormais fréquentes aux Etats-Unis ; elles y influencent la politique publique dans des domaines aussi divers que l’assurance santé, la lutte contre la violence domestique, les programmes d’éducation sexuelle et la formation des enseignants. Les méthodes expérimentales ont aussi fleuri dans l’économie du développement et, plus récemment, les expériences sociales se sont multipliées en Europe. Pourtant le scepticisme demeure dans la communauté universitaire, parmi les administrateurs des programmes et les travailleurs sociaux, mais aussi dans la presse (…).

Les expériences fournissent plusieurs bénéfices aux évaluateurs de programme


Pour ce qui touche de l’évaluation, le problème fondamental concerne la sélection non aléatoire de participants aux programmes (et de juridictions aux politiques sociales, et ainsi de suite). Ce problème de la sélection signifie que les comparaisons entre la situation des participants et celle des non-participants vont combiner, dans des proportions inconnues, les impacts causaux du programme et les différences qui auraient émergé en l’absence de ce dernier. Une évaluation expérimentale bien exécutée avec un échantillon d’une taille adéquate dissipe de telles inquiétudes à propos de la sélection non aléatoire et conforte ainsi les affirmations relatives aux liens de causalité derrière l’impact d’un programme sur une population assignée aléatoirement.

Même avec une évaluation non expérimentale robuste qui applique les méthodes de pointe à des données de haute qualité, il y a toujours l’ombre d’un doute autour des supposés liens de causalité. Pour le dire autrement, les évaluations non expérimentales soulèvent toujours des inquiétudes à propos de la sélection non aléatoire vers un programme. Chaque combinaison de méthode non expérimentale et de données observationnelles relatives à un groupe de comparaison de non-participants résout le problème de la sélection non aléatoire sous des hypothèses particulières, mais ces hypothèses restent toujours, ne serait-ce en partie, non testables.

A l’inverse, les expériences résolvent directement le problème de la sélection non aléatoire vers le traitement en forçant aléatoirement certains individus qui auraient sinon participé au programme à ne pas le faire. Les expériences fournissent cet important service causal si elles cherchent à estimer un effet de traitement moyen pour un paramètre « structurel », tel qu’une élasticité pour l’offre de travail, comme aux Etats-Unis avec les expériences sur l’impôt négatif. Alors que les expériences nécessitent des hypothèses à propos de certaines choses (comme je vais le discuter ci-dessous), elles ne nécessitent pas d’hypothèses à propos du processus de sélection vers le programme de façon à fournir une estimation convaincante de l’effet causal pour une population assignée aléatoirement.

De plus, la simplicité conceptuelle des expériences permet aux non-spécialistes de mieux comprendre les constats et de les trouver plus convaincants. Comme l’économiste Gary Burtless l’a expliqué : "Parce que les responsables politiques peuvent facilement saisir les constats et la signification d’une expérience simple, ils se concentrent sur les implications des résultats pour la politique publique (…). Les politiciens sont davantage susceptibles d’agir sur la base de résultats qu’ils trouvent convaincants". La plupart des gens comprennent comment la randomisation précise de façon convaincante les liens de causalité, en particulier dans les expériences qui ne souffrent pas trop des limitations discutées ci-dessous.

En outre, les expériences réduisent le risque qu’un biais, conscient ou non, de la part du chercheur affecte les estimations d’impact. Les chercheurs qui appliquent des méthodes non expérimentales ont typiquement plus de degrés de liberté pour choisir la façon par laquelle ils mènent leur analyse. Par exemple, dans une évaluation utilisant les méthodes d’appariement (matching methods), le chercheur choisit à la fois l’ensemble de variables d’appariement et les détails de la procédure d’appariement. Les choix qui mènent à des estimations différentes peuvent paraître aussi plausibles l’un que l’autre aux yeux des lecteurs experts (…). Les expériences ne rendent pas la manipulation impossible, mais ils réduisent un tel risque.

Finalement, les expériences peuvent avoir d’importantes retombées en termes de savoir. Une large littérature utilise les impacts expérimentaux comme références pour examiner la performance de combinaisons alternatives de méthodes et de données non expérimentales. Par exemple, plusieurs articles utilisent les constats expérimentaux tirés de l’expérience sur le Job Training Partnership Act aux Etats-Unis pour étudier divers aspects du dispositif d’évaluation non expérimental. Ceux-ci incluent la valeur de types particuliers de variables de conditionnement, le choix entre comparer les tendances de résultats et les niveaux de résultats et le choix de localiser ou non les groupes de comparaison dans les mêmes marchés locaux du travail que les participants. En comparant les estimations non expérimentales obtenues en utilisant différentes méthodes économétriques, différentes données de groupes de comparaison et des ensembles différents de variables de conditionnement à des estimations expérimentales, ces études fournissent un éclairage empirique sur ce qui fonctionne et ne fonctionne pas, et ces preuves empiriques se sont révélées précieuses dans des évaluations non expérimentales plus récentes. Puisque les expériences risquent de ne jamais pleinement remplacer les évaluations non expérimentales en raison de leurs coûts financiers et politiques plus élevés, il est crucial d’utiliser les expériences pour apprendre à concevoir des évaluations non expérimentales plus convaincantes.

!Les potentiels écueils derrière l’usage des expériences dans l’évaluation de programmes


Malgré leurs clairs bénéfices, les expériences ont certaines spécificités relativement aux évaluations de programmes non expérimentales qui les amènent à produire de moins bonnes estimations. De plus, l’assignation aléatoire peut exacerber des problèmes qui surviennent dans certaines évaluations non expérimentales. Cependant, tous les écueils ne s’appliquent pas à tous les dispositifs expérimentaux et la plupart limitent la "validité externe", c’est-à-dire la capacité à généraliser les constats expérimentaux à d’autres populations, plutôt que la "validité interne", c’est-à-dire l’interprétation causale pour les populations qui sont randomisées.

Premièrement, considérons les problèmes d’interprétation qui se posent lorsque tout le monde au sein du groupe test ne reçoit pas le programme ou lorsque certains individus dans le groupe de contrôle expérimental bénéficient de ce programme ou d’un programme similaire (malgré l’intention de ne pas leur en faire bénéficier). Certains individus assignés au groupe de traitement peuvent échouer à participer (les "no-shows") ou à participer pleinement (les "décrocheurs" ou "dropouts"). Il peut y avoir des no-shows si les membres du groupe de traitement trouvent un emploi, déménagent, vont en prison ou en apprennent plus à propos d’un programme volontaire et en concluent qu’ils n’ont pas intérêt à y participer. De même, les membres du groupe de contrôle peuvent contourner le protocole expérimental en s’enrôlant dans le programme ou, plus généralement, ils peuvent recevoir les mêmes services ou des services similaires d’une autre source ou avec un autre financement ; la littérature appelle cela la "substitution du groupe de contrôle" (control group substitution). Le risque qu’il y ait des no-shows et des dropouts dépend des caractéristiques du dispositif expérimental, par exemple du délai entre l’assignation aléatoire et la réception du service et de la nature du traitement. (…) La substitution du groupe de contrôle dépend aussi de l’environnement programmatique : les environnements centralisés où seule une agence fourni un type donné de service en souffrent moins. Empiriquement, plusieurs évaluations expérimentales présentent les no-shows (et dropouts) du groupe test et la participation du groupe de contrôle dans le même programme ou des programmes similaires à des niveaux substantiels.

La littérature offre deux grandes approches pour surmonter ce problème d’assignation. La première approche réinterprète le contraste expérimental (la différence en termes de résultats observés moyens entre le groupe test expérimental et le groupe de contrôle expérimental) comme l’impact moyen de l’offre de traitement plutôt que de la réception du traitement. La littérature appelle cela le paramètre d’"intention de traiter" (intention to treat). Dans le contexte d’un programme volontaire, où le gouvernement peut offrir le programme sans le rendre obligatoire, l’impact moyen de l’offre répond à une question de politique pertinente : "Quel est l’impact moyen de l’ajout d’une option supplémentaire à l’ensemble de programmes déjà disponibles ?" Cette question peut différer assez substantiellement de la question qui reçoit une réponse dans une expérience où chaque membre du groupe test reçoit un traitement, mais aucun membre du groupe de contrôle n’en reçoit, à savoir : "Quel est l’impact moyen du traitement relativement à l’absence de traitement ?"

La seconde approche divise la différence moyenne expérimentale par la différence dans la fraction d’individus recevant le programme dans le groupe test expérimental et la fraction de ceux recevant quelque chose de similaire dans le groupe de contrôle. (…)

Dans plusieurs dispositifs institutionnels, les individus doivent donner explicitement leur accord pour participer (c’est-à-dire accepter ou refuser) à une étude utilisant l’assignation aléatoire mais ils peuvent être inclus dans des études non expérimentales sans avoir donné explicitement leur consentement. En pratique, certains individus vont refuser de subir l’assignation aléatoire. De tels individus peuvent présenter de très hauts niveaux d’aversion au risque, avoir des objections philosophiques à l’assignation aléatoire (…). Le nombre de personnes dans ce cas tend à être faible (…) mais pas insignifiant. Les travaux empiriques, encore peu nombreux sur ce phénomène, suggèrent que le traitement pourrait avoir un impact moyen différent sur les individus qui s’auto-excluent que sur ceux qui acceptent de participer, si bien que l’impact expérimental fournit un guide imparfait de l’impact pour les individus qui auraient participé au programme en l’absence d’expérience.

Dans divers contextes, tout ou partie des individus dans une expérience vont savoir qu’ils prennent part à une évaluation qui peut avoir des conséquences en termes de politique, alors que ce n’est pas le cas pour les individus dans une évaluation non expérimentale. S’ils en ont conscience, ils sont susceptibles de changer de comportement, ce qui altère les résultats de l’expérience et influe sur la politique publique. Par exemple, la littérature inclut des exemples de travailleurs sociaux qui ignoraient l’information sur les assignations de formation optimales tirées d’une règle de traitement statistique, peut-être parce qu’ils n’en voyaient pas l’utilité ou parce qu’ils pensaient que la règle de traitement statistique menaçait leur emplois et pensaient qu’ils pouvaient la court-circuiter en se comportant de façon à aboutir à un constat nul dans l’évaluation de l’impact. De même, les enseignants dans le groupe de contrôle d’une évaluation expérimentale dans laquelle le groupe de traitement reçoit des incitations de performance financière peuvent, pour des raisons idéologiques, travailler plus dur. Ces genres de réponses sapent l’intégrité de l’évaluation expérimentale et réduisent la pertinence de ces constats pour la politique.

Les évaluations expérimentales des programmes existants (à l’opposé, disons, des programmes de démonstration) font face à un arbitrage entre la taille du groupe de contrôle et le désir de maintenir le programme à l’échelle à laquelle il opère en l’absence d’expérimentation. Considérons un programme qui sert environ 1.000 participants par an. Assigner aléatoirement la moitié de ces participants à un groupe de contrôle réduit le nombre de personnes servies à 500. Cela peut impliquer que des travailleurs soient du programme ou, si les travailleurs sont maintenus, que les individus assignés aléatoirement au groupe de traitement reçoivent un meilleur service qu’ils n’en auraient reçu en l’absence de l’expérience. La première situation peut provoquer des troubles politiques ou entraîner la perte de bons salariés que l’organisation aimerait avoir après l’expérience, tandis que la deuxième se traduit par un changement de la nature du programme, si bien que les estimations expérimentales constituent alors un mauvais guide quant à l’impact du fonctionnement normal du programme. Alternativement, dans certains contextes le programme peut avoir l’option de recruter des participants supplémentaires parmi ceux qu’elle n’aurait pas servis en l’absence d’assignation aléatoire. Dans l’exemple ci-dessus, cela permettrait de maintenir le nombre de servis à 1.000. Mais si le programme a un impact moyen différent sur les participants nouvellement recrutés que sur ceux que le programme aurait servi s’il avait fonctionné normalement, alors les estimations expérimentales vont à nouveau fournir une image trompeuse de l’impact du programme dans des conditions normales.

Un dernier inconvénient avec les expériences concerne la coopération locale dans les programmes décentralisés. Considérons le cas d’un programme d’activation sur le marché du travail opéré via un réseau de centres d’emploi locaux. Une évaluation visant une généralisabilité maximale considérerait tous les centres ou un échantillon aléatoire suffisamment large. Dans une évaluation non expérimentale, amener les centres choisis à accepter de participer sera généralement facile parce que la participation n’exigera d’eux que de partager des informations. A l’inverse, obtenir la coopération locale dans une expérience pose un plus grand problème en raison des coûts bien plus élevés imposés par une évaluation d’assignation aléatoire ; les sites sélectionnés doivent installer, mettre en œuvre et documenter l’assignation aléatoire et ils doivent refuser l’accès aux services à des personnes qui en auraient sinon bénéficié. Même dans les environnements où l’administration centrale n’a pas besoin de demander aux offices locaux de participer, la mise en œuvre de l’assignation aléatoire requiert un niveau relativement élevé de coopération locale. Dans l’expérience autour du Job Training Partnership Act américain, les évaluateurs avaient à contacter environ 200 des 600 centres de formation (et devaient verser de substantiels paiements annexes et autres concessions) de façon à ce que 10 d’entre elles participent à l’expérience. Evidemment, les inquiétudes relatives à la généralisation des résultats d’impacts obtenus à partir de ces 16 centres nuisent aux discussions des constats expérimentaux.

Limites et lacunes


Les expériences, comme la plupart des évaluations non expérimentales, dépendent de l’hypothèse (rarement implicite) que le programme qui est évalué n’affecte pas les individus qui n’y participent pas. Pour le dire autrement, la plupart des évaluations expérimentales ne supposent pas de répercussions sur les individus du groupe de contrôle ou plus largement sur l’ensemble des non-participants. A quoi peuvent ressembler de tels effets ? Ils peuvent prendre la forme de changements dans les prix de groupes particuliers sur le marché du travail à cause d’un accroissement de leur offre induit par le programme. Ajouter 100 coiffeurs ou soudeurs supplémentaires sur le marché du travail d’une petite ville peut entraîner une baisse de salaires pour les travailleurs de ce type de compétences, pas juste pour les personnes sortant de formation mais aussi pour les personnes en poste. Un programme qui forme des professeurs dans une école à de nouvelles techniques éducatives peut avoir des "répercussions informationnelles" si les enseignants partagent les nouvelles idées avec leurs collègues qui n’ont pas bénéficié de ce programme. Un programme qui enseigne à certains chômeurs comment chercher un emploi plus efficacement, par exemple en améliorant leurs compétences pour l’entretien d’embauche ou pour la rédaction de leur CV, peut les amener à prendre des emplois vacants qui, en l’absence de cette formation, aurait été occupés par des non-participants. Dans ce dernier cas, le programme ralentit le retour à l’emploi des non-participants (dont la plupart n’appartiennent pas en général au groupe de contrôle). Dans la mesure où la plupart (ou la totalité) des non-participants affectés sont en-dehors du groupe de contrôle, les répercussions importent pour comparer entre les coûts et avantages sociaux, mais elles n’ont pas un effet majeur sur l’interprétation causale des estimations expérimentales pour ceux qui ont été assignés au hasard.

Les travaux empiriques qui sont disponibles (mais limitées) suggèrent que les répercussions sur les non-participants peuvent être substantielles, en l’occurrence suffisamment importantes dans certains cas pour anéantir la conclusion d’une analyse coûts-bénéfices qui les ignorerait. Une évaluation notable d’un programme d’activation sur le marché du travail estime les effets sur les non-participants via un dispositif expérimental multi-niveaux. Le niveau supérieur assigne aléatoirement la fraction de la population éligible qui est servie dans un marché du travail local. Dans certains endroits la plupart sont servis, alors que dans d’autres seule une modeste fraction est servie. Le niveau inférieur assigne aléatoirement les chômeurs éligibles au programme dans la proportion déterminée par la randomisation du niveau supérieur. Si l’impact expérimental au niveau du marché du travail augmente avec la fraction assignée au programme, cela signale l’importance de répercussions négatives sur les non-participants. La plupart des évaluations vont manquer de ressources financiers et organisationnelles (et politiques) pour organiser un tel dispositif (…).

De plus, les données expérimentales (comme avec les données observationnelles) n’identifient pas directement tous les paramètres qui devraient intéresser l’évaluateur. Par exemple, certains paramètres concernent des choix réalisés après l’assignation aléatoire, des choix que le traitement peut affecter. Par exemple, l’effet d’un programme de formation sur les salaires est utile, mais on ne peut observer que les salaires des personnes qui ont un emploi. Une comparaison entre les salaires des membres du groupe de traitement qui ont un emploi avec les salaires des membres du groupe de contrôle qui ont un emploi confond l’effet de traitement sur les salaires avec l’effet (sûrement sélectif) du programme sur l’emploi. (…)

Une autre limite se pose parce que les expériences fournissent souvent de l’information limitée à propos des mécanismes causaux (par exemple à propos de la provenance des impacts causaux) et même une telle intuition limitée requiert habituellement une certaine combinaison ingénieuse de dispositif d’évaluation, de conception de programme et de collection de données. Les expériences partagent cet aspect avec plusieurs évaluations non expérimentales, mais l’utilisation des seules données administratives dans les expériences exacerbe le problème. Considérons l’évaluation d’un programme d’activation du marché du travail pour les chômeurs qui combine des entretiens fréquents, relativement déplaisants, avec les travailleurs sociaux (une "taxe sur le loisir") avec une formation de haute qualité aux techniques de recherche d’emploi. Une évaluation expérimentale conduite en utilisant seulement les données administratives sur les gains peut constater un effet convaincant, substantiellement et statistiquement significatif sur les gains, tout en ne montrant pas si les entretiens ou la formation à la recherche d’emploi (ou une certaine combinaison des deux) explique les impacts.

Pour voir comment le dispositif de programme peut aider, supposons que les chômeurs soient au courant des entretiens en avance et que leur aide à la recherche d’emploi prenne place après le premier entretien avec le travailleur social. Dans ce scénario, le calendrier des impacts sur les gains peuvent éclairer les mécanismes. En particulier, les impacts sur les gains avant le premier entretien soulignent l’importance des effets de menace. Alternativement, les données sur la qualité et la quantité de la recherche d’emploi permettent d’estimer expérimentalement les effets de traitement sur ces médiateurs ; l’absence de changement dans le comportement de recherche d’emploi suite à la formation sur la recherche d’emploi suggère que les effets du traitement sur les gains résultent des entretiens avec le travailleur social. Toutefois, les données montrant que la plupart des chômeurs esquivent leurs entretiens sans aucune sanction suggèrent que la formation à la recherche d’emploi explique entièrement l’impact. Le point général concerne la capacité des données relatives aux comportements reliés aux mécanismes spécifiques de fournir des preuves suggestives sur l’importance (ou non) de ces mécanismes.

Pourtant, un autre problème survient du fait que certains observateurs qui voient des problèmes éthiques associés aux expériences, en particulier celles qui impliquent de refuser aléatoirement au groupe de contrôle l’accès à des services potentiellement précieux. (…) Les évaluateurs peuvent répondre à ces inquiétudes de diverses façons. Premièrement, tout comme les individus qui renoncent à leur propriété pour construire des biens publics comme les routes obtiennent une compensation, les membres du groupe de contrôle peuvent également recevoir une compensation (bien que cela puisse avoir des effets sur leur comportement). Deuxièmement, les évaluations expérimentales peuvent se focaliser sur les cas de réelle ignorance des effets de programme, de manière à ce qu’il ne soit pas clair pour les concepteurs de l’expérience si l’assignation aux groupe de contrôle signifie manquer un bon programme ou ne pas gâcher de temps et d’énergie sur un programme inefficace. Troisièmement, dans le cas de programmes submergés, les évaluateurs peuvent souligner que l’assignation aléatoire est un moyen impartial d’allouer les ressources rares du programme. Quatrièmement, les évaluations expérimentales peuvent se focaliser sur les dispositifs (tels que la randomisation à la marge de la participation ou la randomisation des incitations à participer) qui atténuent (du moins en partie) les inquiétudes éthiques (tout en changeant la signification substantielle de l’évaluation expérimentale d’impact). Cinquièmement, les évaluations expérimentales peuvent se focaliser sur des aspects de la mise en œuvre du programme (par exemple le nombre et le calendrier des entretiens avec les travailleurs sociaux) ou sur des combinaisons de services alternatifs (par exemple l’aide à la recherche d’emploi versus la formation) plutôt que sur les contrastes entre les services et l’absence de services.

Finalement, la randomisation fournit une solution convaincante à l’une des questions les plus embêtantes qui se posent dans toute tentative visant à tirer des connaissances en matière d’évaluation à partir de données, celle de la sélection non aléatoire vers les programmes. Cette question est importante, mais les nombreux autres problèmes qui nuisent à toute évaluation empirique se posent toujours dans les expériences. Par exemple, les expériences qui dépendent des données d’enquêtes finissent souvent avec des taux de réponses différents de la part de leurs groupes test et de contrôle. Selon la nature de cette attrition différentielle, cela peut biaiser les estimations d’impact. Les anomalies (par exemple les observations inhabituelles) (…) peuvent biaiser les évaluations qui observent seulement les moyennes conditionnelles. Les différences dans l’erreur de mesure corrélée avec le statut de traitement peut biaiser les estimations d’impact, comme quand le traitement étudié déplace les travailleurs du secteur informel au secteur formel et que les données administratives utilisées pour mesurer les résultats sur les gains ne concernent que les emplois du secteur formel. Et ainsi de suite. (…) »

Jeffrey A. Smith, « The usefulness of experiments », IZA World of Labor, n° 436, mai 2018. Traduit par Martin Anota

mardi 1 mai 2018

Pourquoi la Chine ne faiblira pas dans la guerre commerciale de Trump

« Le Président Trump a annoncé l’instauration de droits de douane sur l’acier et l’aluminium en mars, en prenant la sécurité nationale comme prétexte. La Chine est la cible visée, comme la plupart des autres grands offreurs en furent exemptés. Le 2 avril, la Chine a répliqué en imposant des droits de douane sur 128 produits américains (représentant environ 3 milliards de dollars d’échanges), allant de 15 % sur les fruits à 25 % sur le porc. Le 3 avril, Trump a annoncé un droit de douane de 25 % sur 1.200 produits chinois (représentant 50 milliards de dollars d’échanges), en représailles aux prétendus transferts forcés de technologies et de propriétés intellectuelles américaines. Le 4 avril, la Chine a répondu en annonçant qu’elle projetait de répliquer en instaurant des droits de douane de 25 % sur 106 produits américains (notamment du soja, des voitures et des avions) lorsque les droits de douane américains s’appliqueraient. Le 5 avril, la Maison blanche a annoncé qu’elle pensait imposant des droits de douane supplémentaires d’un montant de 100 milliards de dollars aux produits chinois.

Si ces tarifs s’appliquent, oui, c’est une guerre commerciale. Comment cela va-t-il finir ?

Les Etats-Unis ne gagneront pas. Bien sûr, les économistes estiment que de façon générale tout le monde y perd dans une guerre commerciale. Mais certains défendent les actions de Trump en y voyant une tactique de négociation. Il y a des raisons qui amènent à penser que la Chine ne reculera pas. J’en vois sept.

Pourquoi la Chine ne capitulera pas


1. Les tarifs douaniers de Trump nuisent aux Etats-Unis aux consommateurs et aux utilisateurs des produits taxés (par exemple, les droits de douane sur l’acier et l’aluminium nuisent à l’industrie automobile et par ce biais aux acheteurs de voitures), tandis que les répliques de la Chine nuisent à d’autres groupes d’intérêt américains importants, notamment l’agriculture et l’industrie manufacturière. (…)

2. Les entreprises et consommateurs en Chine seront aussi affectés par une guerre commerciale, bien sûr. La Chine dépend des exportations américaines de soja, par exemple. Mais la Chine n’est pas une démocratie. Le Président Xi Jinping a un contrôle total. Donc les dirigeants chinois peuvent contenir les groupes d’intérêt, dans une large mesure.

3. Dans la mesure où les dirigeants chinois ont à prendre en compte l’opinion publique domestique, l’opinion publique sera avec eux dans une guerre commerciale. Vous savez à quel point les Américains se souviennent du Tea Party de Boston en 1773, une tentative (réussie) visant à renverser la taxation britannique des importations de thé par les colonies ? Les Chinois ont tout autant en tête le souvenir des Guerres de l’Opium de 1839-1842 et 1856-1860, quand la Chine a résisté (sans succès) à la compagne britannique visant à la forcer à accepter d’ouvrir son économies à l’opium et aux autres importations. (Cela fut le nadir dans l’idéologie du libre-échange de la Grande-Bretagne au dix-neuvième siècle, tandis que l’abrogation des lois sur le blé en 1846 en fut le zénith.) Le conflit a fini avec les Traités Inégaux. (…) Le souvenir que les Chinois ont de cette humiliation fait que la Chine ne reviendra pas sur ses menaces commerciales. Parallèlement, de ce côté du Pacifique, la plupart des électeurs américains disent aux sondeurs qu’ils soutiennent le libre-échange et ne soutiennent pas Trump.

4. Il n’est pas craint que le pays en déficit soit nécessairement dans une meilleure position pour négocier. Trump a tweeté que "lorsqu’un pays", en l’occurrence les Etats-Unis, "perd plusieurs milliards de dollars avec pratiquement chaque pays avec lequel il fait des affaires, les guerres commerciales sont bonnes et faciles à gagner". Le pays en excédent est souvent dans une meilleure position, parce qu’il a accumulé des créances vis-à-vis de l’autre pays ; la Chine détient plus de mille milliards de dollars en titres du Trésor américain. Il est vrai que si le gouvernement chinois vendait les titres du Trésor américain, la chute de leur prix nuirait autant à la Chine qu’aux Etats-Unis. La Chine n’a pas nécessairement à décider de les vendre. Comme la dette américaine augmente et les taux d’intérêt américains s’élèvent (ces deux tendances devraient se poursuivre cette année), le conflit commercial peut faire naître des rumeurs selon lesquelles les Chinois pourraient arrêter d’acheter des titres du Trésor américain, ce qui pourrait suffire pour envoyer les prix des obligations chinoises à des niveaux plus faibles et les taux d’intérêt américains vers des niveaux plus élevés.

5. Les marchés financiers montrent déjà qu’ils n’aiment pas la guerre commerciale de Trump. Le marché boursier (…) est à la baisse quand il apparaît plus probable qu’une guerre commerciale est sur le point d’éclater.

6. Les dirigeants chinois, comme les autres autour du monde, concluent qu’il ne fait pas vraiment sens de signer des traités avec Trump parce qu’il est erratique et qu’on ne peut lui faire confiance pour respecter un traité. Pas même du jour au lendemain, encore moins le long terme.

7. Qu’est-ce que cela signifierait pour la Chine de "capituler", de toute façon ? Trump n’a pas été très clair dans ses demandes.

  • Sur les droits de douane sur l’acier ? La Chine pourrait adopter des Restrictions volontaires aux exportations pour l’acier à destination des Etats-Unis, comme la Corée du Sud en a récemment annoncées. Mais les Chinois exportent déjà relativement peu d’acier vers les Etats-Unis.

  • Sur la propriété intellectuelle ? Il est vrai que les Etats-Unis et d’autres pays ont des raisons de se plaindre. Mais le grief perd en force lorsque les sociétés américaines acceptent des transferts de technologies au frais d’admission à la Chine, sans oublier que la facilitation des mouvements de sites de production vers la Chine n’est pas ce que Trump a promis à ses partisans.

  • Sur l’élimination du déficit bilatéral ? Si la Chine voulait essayer de satisfaire la demande la plus spécifique et insistante de Trump, qui concerne le déficit commercial bilatéral, cela consisterait à exporter moins de marchandises aux Etats-Unis directement mais davantage indirectement via Taïwan ou un autre pays tiers, peut-être avec l’assemblage final dans le pays tiers. Certes le déficit bilatéral baisserait. Mais dans ce cas Trump et ses partisans diraient que la Chine a utilisé un écran de fumée pour dissimuler le déficit bilatéral, sans avoir conscience que les mesures du déficit bilatéral sont aussi peu significatives que l’écran de fumée : les exportations chinoises contiennent beaucoup d’intrants intermédiaires produits en Corée du Sud, aux Etats-Unis et ailleurs. Ce qui importe, c’est l’excédent commercial global de la Chine et le déficit commercial des Etats-Unis. L’excédent chinois a atteint un pic en 2008 en atteignant 9 % du PIB et maintenant il est plutôt faible, presque inférieur à 1 % du PIB. On s’accorde pour dire que le déficit global des Etats-Unis est à la hausse, mais cela s’explique non pas par la politique commerciale mais par les récentes mesures budgétaires adoptées par les Républicains, qui font exploser le déficit budgétaire et réduisent par conséquent l’épargne nationale.


A quoi une stratégie américaine sérieuse pourrait-elle ressembler ?


Une stratégie sérieuse pour répondre aux griefs vis-à-vis de la Chine en ce qui concerne l’appropriation de droits de protection intellectuelle ou les surcapacités d’acier consisterait à s’allier avec d’autres pays qui ont les mêmes griefs. Les pressions s’appliqueraient à la Chine via les institutions fondées sur des règles telles que l’OMC ou l’Accord de partenariat transpacifique si possible ou via des négociations bilatérales si nécessaire. La stratégie de Trump est à l’opposée de celle-ci, puisqu’elle consiste à faire détailler l’OMC, à se retirer de l’Accord de partenariat transpacifique et à se mettre à dos les proches partenaires commerciaux en les insultant et en les menaçant de droits de douane. Trump a accompli quelque chose d’impensable : faire apparaître le Président Chinois comme un dirigeant éclairé de l’ordre commercial international.

Un argument habituel est que les procédures multilatérales et les négociations bilatérales ne marchent pas avec la Chine, donc nous devons être durs. Mais elles marchent mieux que la route vers la guerre commerciale agressive sur laquelle s’est engagé Trump. Il est facile d’oublier que l’approche conventionnelle avec la Chine (…) a permis de remporter des succès comme une appréciation de 37 % du renminbi entre 2004 et 2014 et l’adoption de mesures sévères vis-à-vis de la contrefaçon de marchandises de marque américaines et le vol de logiciels américains.

Les problèmes demeurent. Mais cela ne justifie pas l’adoption d’une approche unilatérale agressive. Considérons trois précédentes tentatives ratées allant dans ce sens :

  • Les Restrictions volontaires des exportations que Ronald Reagan a imposées au Japon dans les années quatre-vingt. Elles bénéficièrent au Japon, non aux Etats-Unis, et leur retrait fut bénéfique aux consommateurs américains et même pour une industrie automobile américaine dégraissée et nouvellement compétitive. Ces Restrictions ont depuis été déclarées illégales.

  • Les tarifs douaniers sur l’acier de George W. Bush en 2002, qui ont détruit bien plus d’emplois qu’ils n’en ont détruits.

  • Les allégations de Trump durant la campagne électorale selon lesquelles la Chine "manipule sa monnaie" pour la maintenir sous-évaluée. Durant cette période, autour de 2015-2016, elle fit précisément l’opposé. (En effet, le yuan s’était déjà tant apprécié en 2014 que sa sous-évaluation avait été éliminée.) Trump est tout simplement apparu ridicule quand, après avoir gagné les élections, il admit que l’accusation était obsolète.

Un autre argument est que les Etats-Unis ne gagnent pas toutes les affaires portées devant l’OMC. Mais ils gagnent 90 % des affaires qu’ils portent à l’OMC. De plus, les Américains doivent se rappeler que c’est souvent leur propre pays qui a violé les règles internationales. Les droits de douane de Bush sur l’acier en sont une belle illustration. (…) Les récentes mesures américaines sont encore plus clairement en violation des règles internationales que les politiques chinoises auxquelles elles sont supposées répondre. Il faut se rappeler que sous les règles de l’OMC il est habituellement légal pour un partenaire commercial de répliquer avec les tarifs d’une valeur d’échanges égale si les droits douaniers de l’initiateur sont illégaux selon ces règles. Cela place la Chine dans une meilleure position pour négocier.

Dire que la Chine ne capitulera pas sur fond dans la guerre commerciale ne veut pas dire qu’elle ne peut pas donner au Président américain une porte de sortie pour crier victoire et s’en sortir. Cela peut être certains artifices (comme accepter d’acheter du gaz naturel liquéfié américain aux prix mondiaux), juste assez pour donner de quoi se pavaner devant ses partisans sur le réseau Fox News. Mais elle ne fera rien pour améliorer le solde commercial, la production, l’emploi ou les salaires réels des Etats-Unis. »

Jeffrey Frankel, « Why China won’t yield in Trump’s trade war », in Econbrowser (blog), 20 avril. Traduit par Martin Anota

samedi 28 avril 2018

Zoom sur la productivité du travail agrégée

« (…) La productivité du travail, qui est généralement mesurée comme la production (PIB) par heure travaillée dans le secteur marchand et corrigée en termes de pouvoir d’achat (…), est une condition nécessaire, mais pas suffisante pour de hauts niveaux de vie. Sa croissance est reconnue tant en théorie qu’en pratique comme étant associée à des taux élevés de croissance économique. Certains pays peuvent atteindre de hauts PIB par tête (tels que la Corée du Sud) via de grands sacrifices de temps de loisir. La productivité du travail dépend de plusieurs facteurs, si bien que sa mesure peut souffrir d’erreurs significatives. Il est crucial d’évaluer correctement ces facteurs pour que nous comprenions comment les marchés du travail opèrent tant à long terme qu’à court terme. (…)

Productivité du travail et prospérité à long terme : théorie et observations empiriques


Dans une économie de marché, la productivité du travail est l’ultime source de bien-être économique. Le graphique 1 présente l’évolution du PIB par tête depuis 1970 pour plusieurs pays, mesuré en dollars américains et en parité de pouvoir d’achat comme le rapporte l’OCDE. En tant que mesure agrégée, la productivité horaire résume la valeur de marché que l’usage du travail représente pour une économie. Elle mesure la contribution moyenne du travail dans la création de biens et services dans une société et elle constitue un facteur majeur derrière le PIB par tête. Il est utile de souligner que le PIB représente non seulement la consommation de biens privés en soi, mais aussi, plus généralement, les ressources disponibles pour une meilleure fourniture de services de santé, de soins apportés aux plus âgés et aux personnes handicapées, d’éducation, de sécurité publique, tout comme pour l’atténuation de la pollution et la recherche-développement. Naturellement, en tant que moyenne, la productivité du travail agrégée masque d’énormes différences entre les travailleurs d’un lien de travail à un autre, d’un secteur à un autre et d’une profession à une autre. Pourtant, en tant qu’indicateur macroéconomique, c’est un signe remarquablement fiable de la prospérité d’une nation aussi bien que de sa compétitivité internationale.

GRAPHIQUE 1 Productivité du travail : PIB par heure (en dollars PPA de 2010)

Michael_Burda_IZA__Productivite_du_travail_PIB_par_heure_pays_developpes.png

(...) La théorie de la croissance et les études empiriques ont montré de façon convaincante que la productivité du travail est une condition nécessaire pour le bien-être économique. Pourtant, un éventail de facteurs influence cette relation. Tout d’abord, les pays avec une faible productivité horaire moyenne peuvent avoir un PIB par tête plus élevé simplement en travaillant moins d’heures chaque jour, chaque semaine ou chaque année (c’est la marge intensive de l’offre de travail), accroissant par conséquent l’intrant travail effectif par personne. Une plus longue durée de travail va en effet accroître le PIB total ou le PIB par tête, mais une plus longue durée du travail signifie moins d’heures pour jouir des fruits du travail. Des heures additionnelles par travailleur sont susceptibles d’accroître le niveau de stress et de malaise liés au travail et notamment les accidents sur le lieu de travail et le burn-out psychologique. Alors que cette plus grande insatisfaction est réelle, elle n’est pas capturée par les mesures conventionnelles du PIB basées sur le marché et elle affaiblit le lien entre le PIB et le bien être ou la « satisfaction de vivre » globale. En même temps, un taux d’emploi plus élevé (la part de personnes employées parmi la population en âge de travailler) va aussi accroître le PIB par tête, même si la productivité reste constante. Parce que la satisfaction de vivre d’une personne employée est susceptible d’être plus élevée que celle d’une personne qui ne l’est pas, un taux d’emploi plus élevé est aussi susceptible de générer plus de bien-être, même si les gens n’aiment généralement pas travailler. Ces deux formes d’utilisation du travail sont importantes à prendre en compte lorsqu’on voit le lien entre productivité horaire et revenu national ou bien-être. (...)

La productivité horaire est intimement associée aux rémunérations, tant au niveau individuel qu’au niveau des secteurs, des professions et des pays. C’est parce que les travailleurs avec une productivité moyenne plus élevée sont plus profitables pour leurs employeurs et que ces derniers tendent à partager cette plus grande profitabilité avec leurs salariés. Il n’est donc pas surprenant que les travailleurs dans les pays avec des niveaux élevés de productivité obtiennent aussi de plus fortes rémunérations, (…) notamment des avantages extra-salariaux comme la santé et l’assurance sociale qui représentent jusqu’à la moitié du coût total que représente un salarié pour un employeur.

En résumé, le lien entre la productivité du travail et le bien-être économique d’une nation peut être affecté par des heures par travailleur, les ratios d’emploi (le pourcentage de ceux en âge de travailler qui sont employés) et l’effort réalisé par les travailleurs sur leur lieu de travail. Pourtant cette relation positive est incontestable et il est crucial de comprendre les sources de la productivité du travail pour comprendre la prospérité aussi bien à long terme qu’à court terme. Au niveau national, les données montrent que les mesures de productivité du travail et le PIB par tête sont très corrélés entre pays, mais pas parfaitement. Le graphique 2 montre cette relation pour 35 pays de l’OCDE en 2015.

GRAPHIQUE 2 PIB par tête et productivité du travail en 2015

Michael_Burda_IZA__PIB_par_tete_et_productivite_du_travail_en_2015_pays_developpes.png

Cela montre que même entre les plus riches nations au monde il y a de considérables écarts en termes de productivité du travail. Théoriquement, il devrait être relativement simple d’isoler les raisons expliquant pourquoi certains pays de l’OCDE n’ont pas encore atteint la frontière technologique en termes de productivité horaire du travail (le niveau de production théorique maximal par unité de temps qui peut être atteint toute chose égale par ailleurs). Des machines plus nombreuses et plus performantes, davantage d’éducation, et des produits plus innovants dans les "bons" secteurs semblent constituer des recettes évidentes pour réussir. Malheureusement, cette tâche n’est pas si facile que cela. Si une partie des écarts de productivité du travail peut être expliquée ainsi, les études montrent que des éléments (…) intangibles de l’environnement économique influencent aussi la productivité du travail. Ces facteurs (…) incluent l’Etat de droite, la fiabilité du système légal et le niveau global de confiance parmi les participants de marché. Ces facteurs ont beau être cruciaux, ils sont difficiles à mesurer et ne peuvent changer du jour au lendemain. (…) Même si le Niger et les Etats-Unis avaient la même dotation en termes de capital physique et humain, les travailleurs américains seraient toujours sept fois plus productifs que les Nigériens.

Une autre complication est que la productivité moyenne est juste une moyenne d’une large gamme de résultats au niveau sectoriel, des entreprises ou même individuel. La structure de production dans un pays comprend plusieurs secteurs ou entreprises de productivités différentes. Aussi longtemps que les entreprises avec une faible productivité surviennent, elles peuvent "piéger" des facteurs de productivité qui pourraient être plus efficacement utilisés ailleurs, ce qui pousse la moyenne à la baisse.

Productivité du travail et cycle d’affaires : Théorique et enseignements empiriques


Si une plus forte productivité du travail est associée à un PIB plus élevé et à une plus grande prospérité à long terme, pourquoi ne serait-il pas logique de l’associer aux cycles d’affaires (…) ? En effet, les analystes des cycles d’affaires ont depuis longtemps cherché à connecter les soudains changements dans la productivité du travail au cycle d’affaires. Dans la plupart des pays industrialisés et durant l’essentiel de la période consécutive à la Seconde Guerre mondiale, la productivité du travail a été procyclique. Le graphique 3 représente l’évolution temporelle des taux de croissance du PIB et la même mesure de la productivité présentée dans l’illustration et le graphique 2 pour six économies majeures de l’OCDE. Pour ces pays (et pour l’OCDE dans son ensemble, avec quelques exceptions), la productivité moyenne du travail s’accroît généralement quand l’économie est en expansion.

GRAPHIQUE 3 Les taux de croissance du PIB réel et de la productivité du travail

Michael_Burda_IZA__taux_de_croissance_du_PIB_reel_et_de_la_productivite_du_travail.png

Les économistes ont depuis longtemps compris que les expansions sont généralement associées à des périodes de hausse de la productivité du travail, mais ils y ont souvent vu quelque chose d’énigmatique. Les premiers analystes s’attendaient à ce que les produits marginaux et moyens du travail déclinent à mesure que l’usage des intrants augmentait, mais les premières études n’indiquaient pas cela. Dans les années trente, Keynes était conscient de cette énigme, notant que le comportement des salaires était difficile à réconcilier avec une demande de travail stable. Les salaires tendent à suivre le produit marginal du travail et la productivité moyenne du travail doit chuter quand des travailleurs moins productifs sont embauchés et cela se traduit par des salaires contracycliques. A l’inverse, la productivité procyclique implique que la marge d’accroissement pour les salaires est plus grande lors des expansions, puisque la productivité marginale et la productivité moyenne varient de concert.

Cependant, comme toujours en économie, le monde est plus compliqué que cela. La productivité mesurée du travail est très volatile à court terme et elle dépend de plusieurs facteurs, dont certains déjà mentionnés ci-dessus et d’autres qui seront discutés ci-dessous. En outre, elle est susceptible de souffrir de significatives erreurs de mesure.

Une objection communément avancé à l’encontre de la comparaison des taux de croissance du PIB et de la productivité du travail est que les déterminants sous-jacents des deux séries peuvent être sujets à des tendances différentes qui sont mal détectées par des comparaisons de taux de croissance. Une procédure alternative a été utilisée pour examiner les écarts des tendances séparées estimées individuellement pour la productivité horaire et le PIB. Cette analyse (…) mène à des conclusions similaires : malgré quelques exceptions, la productivité s’accroît lorsque le PIB s’accroît, à la fois en termes absolus et relativement à la tendance.

A priori, il n’y a pas de raison économique amenant à croire que la productivité moyenne du travail doit varier dans le même sens que le PIB. Si l’on observe les graphiques 3, il est évident que les corrélations positives entre la productivité et la production sont seulement une tendance générale dans les données et non une loi d’airain. Des cycles individuels et de plus larges périodes existent dans laquelle la co-variation positive disparaît ou même devient négative, par exemple, en France à la fin des années soixante-dix ou au Royaume-Uni à la fin des années quatre-vingt. Le cas le plus flagrant est la détérioration du lien positif entre productivité et production aux Etats-Unis après le milieu des années quatre-vingt, qui est confirmée par des études avec des données sur le travail de meilleure qualité. (…) Pour la plupart des pays et la plupart des sous-périodes, la relation semble assez stable, pourtant les Etats-Unis ne sont pas la seule exception intéressante. Alors que la plupart des pays de l’OCDE d’Europe et d’Asie semblent confirmer la tendance générale, l’Australie, la Nouvelle-Zélande et le Portugal représentent d’importants écarts. L’exception la plus significative est l’Espagne, où la corrélation a aussi été négative depuis les années quatre-vingt-dix ; (…) d’autres procédures d’extraction de tendance montrent une corrélation négative depuis au moins le milieu des années soixante-dix.

Quelle est la meilleure explication du lien positif entre productivité et production, souvent ponctuée par des périodes de co-variation nulle ou négative ? Pour expliquer les cycles d’affaires normaux, les macroéconomistes proposent divers récits. L’un d’eux met en scène l’arrivée de l’innovation technique (…) qui accroît la productivité du travail ou des biens capitaux, ce qui stimule alors l’investissement dans les biens d’équipement, les logiciels et d’autres biens productifs. L’innovation même et l’investissement subséquent accroissent la productivité du travail, tandis que l’emploi et la production chute. Une autre explication suggère que les améliorations des termes de l’échange peuvent stimuler l’investissement, la productivité du travail et l’emploi. Pourtant un autre affirme qu’une hausse de la demande globale (…) peut temporairement stimule l’investissement des entreprises lorsque celles-ci atteignent les contraintes de capacité, ce qui accroitrait la productivité du travail. Dans tous les cas, (…) on observe que les employeurs thésaurisent la main-d’œuvre s’ils considèrent le ralentissement de l’activité comme temporaire et veulent préserver le "capital humain", les compétences que possèdent leurs travailleurs et qui seraient perdues s’ils s’en allaient.

Cette interprétation des "corrélations normales" doit aussi expliquer des schémas plus ambigus de co-variation (…). Premièrement, la prévalence de chocs de demande globale peut renverser le cas normal. Par exemple, si une expansion économique était tirée par la seule politique monétaire expansionniste, la productivité et les salaires réels peuvent être davantage susceptibles de décliner lors des expansions ou du moins jusqu’à ce qu’un nouvel investissement est entrepris et stimule la productivité des heures de travail. Pourtant si la thésaurisation de la main-d’œuvre est courante, son effet positif sur la productivité du travail est susceptible de dominer même à court terme. Deuxièmement, la disparition de la productivité procyclique aux Etats-Unis est assez durable pour être notée. Cela peut être dû à un changement structurel permanent lors des récessions, durant lesquelles les entreprises inefficaces disparaissent et l’économie voit ainsi son efficacité augmenter. Cette perspective darwiniste est plausible comme la mondialisation a intensifié au cours des dernières années. Les études sur les Etats-Unis pointent une large variance de productivité entre les entreprises au sein de chaque secteur ; avec une plus forte concurrence internationale, il est plus difficile de survivre aux récessions en se contentant de thésauriser la main-d’œuvre. Le résultat macroéconomique net est une plus grande efficacité de la main-d’œuvre employée par les entreprises, des prix plus faibles et une allocation plus efficace des ressources.

Un aspect commun des pays pour lesquels la procyclicité de la productivité disparaît est l’érosion des institutions du marché du travail, en particulier celles associés à la négociation collective et à la protection de l’emploi. L’adhésion a décliné non seulement dans les syndicats, mais aussi dans les associations d’employeurs, réduisant le pouvoir de négociation collective institutionnalisé et la protection de l’emploi. La plus grande flexibilité du marché du travail signifie que les entreprises peuvent embaucher et licencier les travailleurs plus facilement, ce qui atténue les incitations les plus communément citées pour la thésaurisation de la main-d’œuvre. Un contre-argument pourrait être que les licenciements excessifs de travailleurs et la fermeture des entreprises qui font des pertes peuvent ne pas toujours constituer la réponse appropriée à un ralentissement généralisé. En même temps, des entreprises réalisant de mauvaises performances peuvent être forcées (…) de cesser de "faire le pari d’une résurrection". La détérioration de la corrélation positive peut signaler que les récessions représentent de plus en plus des précurseurs de changement structurel permanent.

(…) Enigmatique et variable est le comportement de la productivité du travail au cours du cycle d’affaires. Pourquoi la plupart des pays de l’OCDE continuent-ils de présenter une productivité procyclique, souvent croissante au cours du temps (l’Allemagne, la France, le Royaume-Uni, la Corée du Sud et le Japon), tandis que d’autres semblent aller dans le sens opposé (les Etats-Unis, l’Australie, la Nouvelle-Zélande, le Portugal et l’Espagne) ? Est-ce que les développements dans ce dernier groupe de pays est dû à l’effritement du pouvoir des syndicats ? Ou à la plus grande cruauté des entreprises en matière de licenciements et aux pertes en capital humain ? Ou à la plus grande flexibilité du marché du travail, liée notamment à la prolifération de contrats temporaires et de l’emploi d’intérim ? Notons que la productivité du travail reste largement procyclique au Royaume-Uni et en France, où le syndicalisme a décliné, mais où la couverture est large. Le cas inhabituel de l’Espagne, qui a présenté une productivité du travail contracyclique continûment et sans exception depuis la mort de Franco en 1975, a déjà capté l’attention des chercheurs. (…) »

Michael C. Burda, « Aggregate labor productivity », IZA World of Labor, n° 435, avril 2018. Traduit par Martin Anota

lundi 23 avril 2018

Guerres commerciales : à quoi bon les lancer ?

« Suite à l’annonce par les autorités américaines au début du mois de mars de leur intention d’instaurer des droits de douane sur l’acier et l’aluminium et les menaces proférées par la Chine en représailles, les perspectives relatives au commerce mondial se sont assombries. (…)

Malgré la vigueur de l’activité dans l’économie mondiale, le FMI se déclare inquiet à propos des menaces croissantes de protectionnisme et des tensions commerciales, aussi bien que de leur impact sur la croissance économique. Comme Maurice Obstfeld l’écrit, la perspective que soient instaurées des barrières commerciales et que celles-ci soient suivies de mesures de représailles menace de saper la confiance et de faire dérailler prématurément la croissance mondiale. Pour aggraver les choses, les désaccords commerciaux peuvent détourner l’attention des réformes nécessaires. Il semble paradoxal de voir de grandes économies flirter avec une guerre commerciale à un moment d’expansion économique généralisée, en particulier quand l’expansion dépend si étroitement de l’investissement et du commerce. L’économiste en chef du FMI lie cela aux bénéfices asymétriques de l’intégration commerciale et à leur perception par les ménages. Concernant les récentes négociations bilatérales américaines, Obstfeld estime qu’elles ne vont cependant pas changer grand-chose au déficit du compte courant externe américain (…), dans la mesure où ce dernier s’explique essentiellement par le fait que l’économie américaine dépense davantage qu’elle ne génère de revenu.

Ce point est soutenu par Martin Wolf, qui ajoute que (…) loin de se contracter, le déficit du compte courant américain va en fait s’accroître en conséquence de la stimulation budgétaire. Donald Trump, le président américain, n’arrêtera pourtant pas de faire porter le blâme sur les perfides étrangers. Les tensions géopolitiques restent un risque de long terme, même si pour l’heure les tensions protectionnistes générées par les Etats-Unis ne devraient pas empêcher le volume du commerce mondial de continuer de croître.

Cette incertitude mondiale se répercute sur les marchés boursiers, comme Paul Krugman l’explique : quand les investisseurs pensent que Donald Trump va réellement adopter les droits de douane qu’il menace d’instaurer et qu’elles amèneront les pays étrangers à adopter des mesures en représailles, le cours des actions chute. Chaque fois qu’ils se disent que c’est juste de la comédie, le cours des actions rebondit. Les marchés ne réagissent pas bien aux perspectives d’une guerre commerciale comme les entreprises ont investi en supposant que l’économie mondiale resterait très intégrée et une guerre commerciale transformerait en épaves de nombreux actifs issus de ces investissements. (…)

En ce qui concerne les relations commerciales entre l’Union européenne et les Etats-Unis, Simon Nixon signale que l’expiration le 1er mai de l’exemption temporaire des droits de douane sur l’acier et l’aluminium pour l’UE pourrait être un point crucial : l’UE veut que l’exemption devienne permanente, mais le gouvernement américain a clairement indiqué que ce ne serait le cas qu’en échange de concessions de la part de l’UE. Il considère que les relations commerciales entre l’UE et les Etats-Unis sont actuellement déséquilibrées et injustes. L’administration Trump évalue typiquement la santé des relations commerciales des Etats-Unis au prisme du compte courant et, en octobre dernier, elle qualifia l’excédent bilatéral de l’Allemagne avec les Etats-Unis comme « énorme et inquiétant ». Bruxelles a déclaré qu’elle veut bien discuter plus largement de la relation commerciale entre les deux zones, mais seulement après que les Etats-Unis aient inconditionnellement rendu permanente l’exemption des tarifs douaniers.

Pascal Lamy, l’ancien chef de l’OMC, voit deux manières susceptibles de mettre un terme aux tensions actuelles, en fonction de ce que Trump fera concrètement. Les récentes annonces peuvent avoir pour but de renforcer le pouvoir de négociation. Cependant, si le Président américain vise à poursuivre le commerce bilatéral et non multilatéral, la réaction adéquate consisterait pour les partenaires commerciaux à joindre leurs forces de façon à protéger le système commercial multilatéral des agressions américaines. Indiquer clairement qu’il s’agit du plan B est probablement la meilleure option tactique pour le reste du monde afin de s’assurer que le plan A (améliorer le système multilatéral fondé sur des règles et non le détruire) soit le jeu auquel joue Trump.

Joseph Stiglitz affirme que l’actuel conflit commercial révèle l’ampleur à laquelle les Etats-Unis ont perdu de leur position dominante dans le monde. (…) La Chine a déjà dépassé les Etats-Unis en termes de production manufacturière, d’épargne, de commerce et même de PIB lorsqu’on mesure ce dernier en termes de parité de pouvoir d’achat. Et en outre, elle peut prendre les devants pour l’intelligence artificielle. Au cours des prochaines années, nous allons avoir à trouver une façon de créer un régime commercial mondial qui soit « juste » parmi des pays avec des systèmes économiques, des histoires, des cultures et des préférences sociétales fondamentalement différents. »

Inês Goncalves Raposo, « Trade Wars: what are they good for? », in Bruegel (blog), 23 avril 2018. Traduit par Martin Anota

- page 1 de 30