Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

lundi 29 mai 2017

Trump n'a pas tort à propos de l’Allemagne (mais pour de mauvaises raisons)

« Les lecteurs de ce blog savent que je partage avec Trump la croyance que l’Allemagne nuit à l’économie mondiale. (D’accord, ce n’est pas l’Allemagne en soi qui est nuisible, mais son commerce extérieur.) Pourtant, je pense qu’il est utile de souligner quelque chose de trivial qu’on ne rappelle pas suffisamment. Trump a raison à propos de l’Allemagne, mais pour de mauvaises raisons. Le problème n’est pas le nombre de voitures allemandes qui circulent aux Etats-Unis, mais le nombre de voitures américaines qui ne circulent pas en Allemagne.

Le solde commercial est une soustraction, exportations moins importations. Donc, il peut être faible lorsqu’un pays ne commerce pas beaucoup (de faibles exportations sont de même taille que de faibles importations), mais aussi lorsque le pays échange beaucoup (de larges exportations sont similaires en termes de taille avec de larges importations, la différence étant faible). La taille du solde extérieur a tout à voir avec la taille relative des importations et des exportations et très peu à voir avec l’ouverture de l’économie.

Trivial, n’est-ce pas ? Et pourtant, Trump et beaucoup (trop) de commentateurs oublient cela lorsqu’ils affirment que nous devons cesser de voir autant de voitures allemandes circuler aux Etats-Unis. Le protectionnisme est juste l’une des solutions possibles qui sont susceptibles d’élargir les déséquilibres mondiaux. Comme il ne répond pas directement à l’excès d’épargne (ou à l’excès de demande) dans les pays en déséquilibre, son efficacité peut être mise en question (et le jury reste divisé sur la question). Notamment parce que le protectionnisme est une déclaration de guerre et qu’il est susceptible d’entraîner une course vers l’abîme.

Une manière plus directe et certainement plus efficace de réduire les déséquilibres est de réduire l’excès de demande domestique (par rapport au PIB) dans les pays déficitaires et réciproquement, de réduire le manque de demande domestique par rapport au PIB dans les pays excédentaires. C’est là où les voitures américaines en Allemagne aideraient. Je ne pense pas que je dise quelque chose de nouveau ici…

Je connais la réponse à cela. "Comment pouvez-vous forcer l’Allemagne à rééquilibrer son économie et à dépenser plus ?" "Cela n’arrivera jamais." "L’Allemagne ne se préoccupe que de ses seuls intérêts." J’ai déjà entendu tout cela. Je suis conscient que le problème n’est pas économique, mais politique. Mais les difficultés politiques de cet instant (trop long), et l’obstination des élites allemandes ne rendent pas le protectionnisme moins problématique.

Des normes existent en Europe et elles exigent d’un pays qu’il procède à un rééquilibrage externe s’il les dépasse. Et l’Allemagne ne les respecte plus depuis que la crise a commencé. Il existe un sentier étroit pour construire une "coalition de volontés" entre les pays européens, pour forcer l’Allemagne à s’attaquer à ses déséquilibres. C’est difficile ? Certainement. Peu probable ? Certes. Coûteux ? Probablement. Mais toujours moins que d’embarquer l’économie mondiale dans une guerre commerciale ou de dissoudre l’euro. »

Francesco Saraceno, « Trump is right about Germany, for the wrong reasons », in Sparse Thoughts of a Gloomy European Economist (blog), 26 mai 2017. Traduit par Martin Anota



Le vrai péché des Allemands


« Comme beaucoup de gens l’ont souligné, Trump a pris le pire exemple possible quand il a qualifié l’Allemagne de "mauvaise, très mauvaise". Oui, elle vend beaucoup de voitures aux Etats-Unis ; mais (a) plusieurs de ces voitures sont produites sur le sol américain et (b) l’Allemagne a la réputation de produire de bonnes voitures. Pourquoi un pays n’exporterait-il pas les biens dans lesquels il dispose d’un avantage comparatif ?

Donc, ce fut la critique la plus stupide que l’on puisse faire et elle va dans le sens de l’autosatisfaction allemande. Pourtant les larges excédents commerciaux de l’Allemagne sont un problème, ce qui n’a rien à voir avec la politique commerciale. C’est de la macroéconomie.

Le récit est illustré par le graphique suivant, représentant les coûts du travail unitaires depuis la création de l’euro.

GRAPHIQUE Coûts unitaires du travail (en indices, base 100 en 1999)

Paul_Krugman__Couts_unitaires_du_travail_Allemagne_zone_euro.png

Voici ce qui s’est passé : durant l’ère d’euphorie, lorsque les capitaux allèrent dans les pays d’Europe du sud (que l’on supposait alors comme sûrs), ces économies connurent une inflation modérée, mais pas l’Allemagne, ce qui permit à cette dernière de gagner un gros avantage compétitif, sans avoir pour cela à connaître de déflation. Ensuite, la confiance et les flux de capitaux s’effondrèrent. Ce qu’il fallait alors, c’était une forte reflation allemande : celle-ci aurait permis aux pays d’Europe du sud de regagner en compétitivité sans connaître de déflation et les problèmes de dette que cette dernière générerait.

Mais l’Allemagne n’a pas connu de reflation. Elle a embrassé l’austérité, sans y avoir été contrainte (dans un contexte de taux d’intérêt négatifs !), et elle a freiné la BCE dans ses tentatives de stimuler l’inflation globale de la zone euro. La conséquence est que l’écart de compétitivité qui s’est creusé après 1999 s’est à peine réduit, ce qui s’est traduit par l’apparition de larges excédents en Allemagne et s’est révélé être un frein mortel pour le reste de la zone euro.

Cela n’a que des effets négatifs limités sur les Etats-Unis ; peut-être que les politiques non coopératives de l’Allemagne ont un peu contribué au déficit commercial américain, mais elles ne sont avant tout un problème qu’au sein de la zone euro. Et il n’y a rien de moins opportun pour les Etats-Unis que d’intervenir comme ils l’ont fait. »

Paul Krugman, « Germany’s real sin », in The Conscience of a Liberal (blog), 27 mai 2017. Traduit par Martin Anota



aller plus loin...

« Adopter le modèle allemand ou sauver l’euro »

« L'Allemagne doit-elle réduire ses excédents courants ? (Le tango se danse à deux) »

« L’Allemagne contre la zone euro »

vendredi 26 mai 2017

Taux marginaux d’imposition et croissance

« Les riches n’aiment pas payer des impôts. C’est la seule chose que nous enseigne la réaction hystérique que nous avons pu voir dans les médias au Royaume-Uni à propos du projet d’une hausse de l’imposition des riches que nourrit le parti travailliste.

Rappelons les faits historiques. De faibles taux d’imposition ne sont pas associés à une plus forte croissance ; c’est même plutôt l’inverse. Par exemple, le gouvernement britannique a réduit en 1988 le taux d’imposition des hauts revenus de 60 % à 40 %. Depuis, le PIB par tête a crû en moyenne de 1,4 % par an. Au cours des 29 années qui ont précédé cette baisse d’impôt, la croissance moyenne a été de 2,6 % par an ; et au cours de cette période, les hauts revenus ont pu être imposés à des taux supérieurs à 70 %. Cela a été à peu près la même chose aux Etats-Unis : la croissance économique était plus forte dans les années cinquante et soixante, c’est-à-dire lorsque le taux d’imposition des plus hauts revenus était de 91 %, qu’elle ne l’a été ces dernières décennies, lorsque ce même taux d’imposition était plus faible.

Vous pouvez interpréter ce fait de trois façons.

Une première possibilité serait que la croissance a ralenti dans les années deux mille pour d’autres raisons et que le ralentissement aurait été pire si les impôts n’avaient pas été fortement réduits. A mes yeux, cette interprétation pose deux problèmes. Le premier est que certains des facteurs susceptibles de ralentir la croissance, tels que les crises bancaires, peuvent ne pas être indépendants des taux d’imposition marginaux. Le deuxième est que les partisans d’une baisse des impôts croient que d’autres réformes menées dans les années quatre-vingt auraient dû aussi accroître la croissance tendancielle : la privatisation, la déréglementation, l’affaiblissement des syndicats, etc. Si ces réformes ont effectivement stimulé la croissance, leurs effets ont nécessairement été compensés par d’autres choses.

Une deuxième possibilité est qu’une réduction des taux d’imposition des hauts revenus freine la croissance. Par exemple, ils peuvent alimenter la financiarisation et donc accroître la fragilité financière ou encourager les comportements de quête de rentes, notamment les manœuvres pour accéder aux emplois les plus hauts placés ou la tendance des PDG à augmenter leur propre rémunération. Bien sûr, une hausse des impôts peut pousser certains hauts revenus à prendre leur retraite ou à émigrer. Mais cela ne provoque pas nécessairement une grande perte de production. Si, par exemple, Ben Arfa partait en Espagne en réaction à une hausse d’impôts en France, le PSG ne jouerait pas seulement avec dix joueurs.

Une troisième possibilité pourrait simplement être que (…) la croissance tendancielle ne soit pas beaucoup affectée d’une façon ou d’une autre par les changements de politiques économiques nationales.

Pour conclure qu’une hausse d’impôts relève d’une politique économique insensée, il faudrait parvenir à montrer que les choses plaident fortement pour la première hypothèse et soient en défaveur des deux dernières. Je pense que ce serait très difficile.

Tout cela concerne la croissance économique. Vous pourriez cependant répondre qu’une hausse des taux marginaux d’imposition est susceptible de peser sur les recettes fiscales, même si elle n’affecte pas beaucoup le PIB ; comme Alan Manning l’a dit, l’évasion fiscale est plus sensible aux taux marginaux que l’offre de travail.

Mais, même ici, le raisonnement est discutable. D’un côté, comme l’IFS l’a souligné, ceux-ci sont sujets à une forte incertitude. De l’autre, dans ce contexte, le fait que la "ponction fiscale" du parti travailliste pèserait sur les "classes moyennes", par exemple les docteurs et les enseignants, n’est pas une anomalie (…). C’est bien dans ces couches sociales que le gouvernement peut le plus facilement accroître ses recettes. Les enseignants et les docteurs sont probablement moins mobiles au niveau international que les méga-riches et moins à même d’utiliser les ruses d’évasion fiscale. Dans l’optique d’une hausse des recettes fiscales, ils constituent une grosse cible qui se déplace lentement.

Si vous cherchez des arguments qui amènent à rejeter les projets fiscaux du parti travailliste sans tomber dans l'hystérie, vous devez chercher ailleurs. Vous pouvez affirmer (avec l’essor de l’individualisme qui contribue à réduire le consentement de l’impôt) qu’ils vont éroder la solidarité sociale. Les gens vont les percevoir, non pas comme le prix à payer pour vivre dans une société civilisée, mais comme un fardeau qui subventionne les "parasites". Ou vous pouvez affirmer que les recettes tirées des impôts seront gaspillées dans des dépenses publiques inutiles. Ou vous pouvez affirmer que la fiscalité redistributive ne suffit pas : nous avons besoin de réduire les inégalités de pouvoir tout autant que les inégalités de revenu. Ou vous pouvez affirmer que la base fiscale doit être déplacée des revenus à la propriété foncière et aux héritages. Et personnellement, je ne rejette pas totalement l’idée qu’une forte imposition réduise la liberté (…).

Ce que vous ne pouvez cependant pas faire, c’est affirmer qu’une hausse des taux marginaux d'imposition va perturber l’économie. D’autres choses peuvent le faire, mais il est peu probable qu’une hausse des taux marginaux le fasse. »

Chris Dillow, « Top taxes and growth », in Stumbling & Mumbling, 16 mai 2017. Traduit par Martin Anota



aller plus loin...

« Les hauts revenus et les taux marginaux d’imposition »

« Comment les pays scandinaves peuvent-ils autant taxer leurs résidents ? »

« Les inégalités contribuent-elles aux déficits publics ? »

jeudi 25 mai 2017

Le “néo-impérialisme” est-il la seule voie de développement ?

« Comme nous le savons bien (ou devrions bien le savoir), le marxisme a graduellement développé deux approches de l’impérialisme. La position même de Marx était fondamentalement et inflexiblement positive (du moins jusqu’aux toutes dernières années de sa vie) : l’impérialisme, aussi brutal et perturbateur soit-il, constituait le moteur par lequel la structure sociale la plus avancée, à savoir le capitalisme, s’introduisait dans les sociétés en retard de développement et les transformait le plus amplement. Les propres écrits de Marx sur la conquête britannique de l’Inde sont sans ambiguïté sur ce propos. Les écrits d’Engel sur la conquête française de l’Algérie sont (comme à chaque fois que l’on compare les styles d’écriture d’Engel et de Marx) encore plus "brutaux". Selon cette conception "classique", l’Europe occidentale, les Etats-Unis et le "Tiers Monde" se développeraient tous capitalistiquement, pourraient relativement vite arriver aux mêmes niveaux de développement, et le capitalisme serait ensuite directement remplacé par le socialisme dans chacun d’eux.

Cette conception dépendait crucialement de deux hypothèses : que (1) la classe laborieuse occidentale reste au faible niveau de revenu (celui du salaire de subsistance) qui (2) ne cesse alors d’alimenter sa ferveur révolutionnaire. L’hypothèse (1) était commune à tous les économistes du dix-neuvième siècle, elle était soutenue jusqu’au milieu du dix-neuvième siècle par les données empiriques et Marx ne constituait pas une exception. Mais vers la fin du siècle, Engels a noté l’émergence d’une "aristocratie ouvrière" qui émoussait le conflit de classe en Grande-Bretagne et peut-être dans d’autres pays développés. La hausse des salaires était "nourrie", selon Engels, par les profits coloniaux réalisés par les capitalistes britanniques. Bien que ces hausses de salaires n’étaient que "des miettes tombées de la table des capitalistes" (pour reprendre Engels), elles explosaient la théorie de la "loi d’airain des salaires" et, de façon collatérale, le potentiel révolutionnaire de la classe laborieuse en Occident. Donc les germes de l’idée que l’impérialisme puisse saper la lutte des classes dans les pays développés furent semés et elles eurent par la suite de profondes répercussions.

Le livre Imperialism: Pioneer of Capitalism de Bill Warren (publié en 1980, mais inachevé en raison de la mort de Warren) crédite le Lénine d’après 1914 pour le changement (ou plutôt, il le critique pour cela). Dans l’Impérialisme de Lénine, le capitalisme de monopole, qui a perdu la vigueur du capitalisme de libre marché et qui est devenu "décrépi", avait besoin d’une expansion étrangère (pour maintenir les profits à leurs niveaux antérieurs). Cela entraîna la lutte impérialiste pour les territoires qui finit par faire éclater la Première Guerre mondiale. Au même instant, l'amélioration relative de la situation matérielle des classes laborieuses dans les pays développés amena celles-ci à abandonner le sentier révolutionnaire et à soutenir les parties sociaux-démocratiques "opportunistes" et nationalistes (et leurs dirigeants notamment le "renégat" Kautsky). La lutte des "peuples d’Orient" (comme on les appelait lors de le première conférence à Bakou en 1920) contre l’impérialisme est devenue partie intégrante d’une lutte globale contre le capitalisme, et l’impérialisme cessa d’être perçu comme un précurseur dynamique du socialisme à venir, mais plutôt l’extension du capitalisme moribond. Selon Warren, "à présent, ce n’est pas le caractère du capitalisme qui détermine la progressivité (…) de l’impérialisme, mais le caractère de l’impérialisme qui détermine le caractère réactionnaire du capitalisme".

Ce changement de position a de profondes répercussions pour la pensée de la gauche que Warren dénonce. Il a mené aux théories du "centre" et de la "périphérie", de la "dépendance structurelle", etc. (développées par Frank, Amin, Cardoso, Prebisch…). Warren affirme que ces théories étaient inexactes parce qu’elles prédisaient une accélération de la croissance si les pays parvenaient à se désengager du système mondial dominant (…) et elles n’avaient rien à voir avec la lutte des travailleurs dans les pays émergents parce qu’elles reflétaient les intérêts des bourgeoisies nationalistes du Tiers Monde.

J’aimerais faire une véritable recension du livre extrêmement stimulant de Warren, même si celui-ci contient beaucoup de passages exaspérants, mais je le ferai une prochaine fois. (Dans l’un de ces passages exaspérants, par exemple, Warren célèbre la hausse des inégalités dans les pays en développement, notamment la concentration de la propriété foncière entre les mains des latifundistas, parce qu’il la considère comme un indicateur du degré d'adoption de méthodes de production capitalistiques plus efficaces dans l’agriculture. Ses célébrations des inégalités dans la seconde partie de son livre, portant sur les développements postérieurs à 1945, feraient rougir Friedman et Hayek !). Mais ce n’est pas le livre de Warren en tant que tel qui m’intéresse, mais ses implications très contemporaines.

Il est des plus utiles pour comprendre l’essor des nouvelles économies capitalistes en Asie. Même si Richard Baldwin ne fait allusion ni à la position marxiste classique, ni à la théorie de la dépendance, le livre qu’il a récemment publié et (dont j’ai proposé une recension) montre clairement que la réussite économique de l’Asie s’est appuyée sur l’usage de relations capitalistes de production et d’inclusion dans les chaînes de valeur mondiales, c’est-à-dire sur une participation active dans la mondialisation. Pas passive, mais une participation qui fut prisée, désirée. Ce n’est pas par hasard si la Chine est devenue le principal champion de la mondialisation aujourd’hui. Par conséquent, la réussite asiatique réfute directement les théories de la dépendance et elle est en accord avec la position marxiste classique à propos de l’impact révolutionnaire du capitalisme et par extension du "néo-impérialisme" dans les sociétés les moins développées.

Cela a de profondes implications sur la façon de voir et d’expliquer les grands changements dans le pouvoir économique que nous avons observés au cours du dernier demi-siècle (Quelles sont les origines de cette transformation ? le rôle de l’Etat-nation et de l’impérialisme ? le rôle des mouvements d’indépendance menés par la bourgeoisie ?) et sur la façon de voir les développements futurs. Je ne vais pas développer ces questions maintenant parce que mon avis évolue encore sur le sujet et je pense développer tout cela dans un livre, mais je pense que, pour chercher à comprendre les changements du monde moderne, le mieux que nous puissions faire est de revenir à la littérature et aux débats d’il y a exactement un siècle. (…). Mis à par cela, je ne vois aucun autre récit qui donne un sens aux grands changements que nous vivons. »

Branko Milanovic, « Is “neo-imperialism” the only path to development? », in globalinequality (blog), 18 mai 2017. Traduit par Martin Anota

lundi 22 mai 2017

Baumol et la maladie des coûts

« Comme mon horloge interne n’est pas synchronisée avec internet, je ne propose qu’à peine un billet en réaction de la disparition de William Baumol, auquel j’ai régulièrement fait référence sur mon blog depuis plusieurs années. (...) Je n’ai pas d’histoire à partager à propos de l’homme ; je ne l’ai jamais rencontré. Ce que je compte faire, par contre, c’est passer un peu de temps pour plonger dans ce que je considère être l’article essentiel dans lequel il développe son idée la plus connue : la "maladie des coûts des services" (cost disease of services). Je pense qu’en tant qu’universitaire, il apprécierait autant cela qu’une anecdote.

Avant de commencer, il faut rappeler que Baumol est l’un de ces grands économistes qui a récemment disparu, aux côtés de Ken Arrow et d’Allan Meltzer. D’ailleurs, j’appelle à placer Robert Solow dans un bunker souterrain sécurisé et à l’envelopper dans du papier bulle.

Retournons à Baumol. Son article essentiel est “Macroeconomics of unbalanced growth: The anatomy of urban crisis”, publié en 1967 dans l’American Economic Review. Pour moi, il contient plusieurs intuitions qui permettent de comprendre une grande partie de l’histoire de la croissance économique de ces cinquante dernières années.

Pour commencer, Baumol divise l’activité économique de la façon suivante : "La source fondamentale de différenciation réside dans le rôle joué par le travail dans l’activité. Dans certains cas, le travail est principalement un instrument, quelque chose d’accessoire pour obtenir le produit final, tandis que dans d’autres types d’activité, à toutes fins pratiques, le travail lui-même constitue le produit final". Pour le premier cas, avec le travail comme instrument, lisez "biens manufacturés". (…) Le travail est juste accessoire de votre perspective de consommateur final.

Comparez cela avec le passage suivant : "D’un autre côté, il y a de nombreux services pour lesquels le travail est une fin en soi, pour lesquels la qualité est jugée directement en termes de montant de travail. L’enseignement en est un bon exemple… Un exemple même plus extrême est celui que j’ai utilisé dans un autre contexte : la performance en direct. Une demi heure de quartette demande un certain temps de la part des musiciens et toute tentative visant à accroître ici la productivité est susceptible d’être mal vue par les critiques et l’auditoire".

Ici, le travail est l’essence même du produit. Si vous allez voir le quintet, alors vous achetez du temps de ces musiciens. De même, dans une classe de cours, vous achetez le temps du professeur. Dans un (bon) restaurant, vous achetez souvent le temps et l’attention d’un serveur.

La première grosse conclusion, qui est vraiment une hypothèse pour Baumol, est que la croissance de la productivité du travail dans le premier type de production (celle de biens) est relativement rapide, tandis que la croissance de la productivité du travail dans le second type de production (celle de services) est relativement faible. C’est juste dû à la nature du travail tel qu’il est utilisé. Pour la plupart des services, vous ne pouvez pas "faire plus avec moins". Personne ne veut voir une symphonie d’une demi-heure être jouée en seulement un quart d’heure.

D’où la maladie des coûts vient-elle ? La prochaine hypothèse cruciale que Baumol fait est que les coûts du travail (les salaires) dans les deux types d’activités varient conjointement. Soyons clairs, il ne suppose pas (ou n’a pas besoin de supposer) que les salaires sont identiques dans les deux secteurs, seulement qu’une hausse des salaires dans un secteur pousse à la hausse les salaires dans l’autre secteur. C’est le cas si le travail est mobile entre les deux activités. Une autre façon de le dire est de dire que les travailleurs peuvent travailler dans l’un ou l’autre des secteurs. (Ils peuvent être aussi productifs dans les deux secteurs, comme dans le récent article d’Alwyn Young, qui avance la possibilité que Baumol ait tort à propos de la croissance de la productivité relative…)

(…) La croissance de la productivité dans le secteur des biens pousse à la hausse le salaire dans ce secteur, mais accroît aussi la production de ce secteur. Donc le ratio salaire sur production (une mesure du coût d’une unité de production) reste constant au cours du temps. Une hausse des salaires dans le secteur des biens fait pression sur les salaires dans le secteur des services, donc les salaires s’accroissent au cours du temps ici. Mais (si l’on fait l’hypothèse extrême selon laquelle) la productivité ne s’accroît pas dans les services, alors la production ne s’accroît pas. Le ratio salaires sur production dans les services (une mesure des coûts) s’accroît donc au cours du temps. C’est la "maladie des coûts des services".

Les éléments cruciaux sont, à nouveau, l’hypothèse que la croissance de la productivité du travail est relativement faible dans les services et l’hypothèse que le travail est mobile entre les secteurs. Etant donné cela, le coût des services va augmenter au cours du temps.

(…) La plus grande intuition que Baumol ait eu a été de noter la différence dans l’importance du travail dans la production de biens et de services. Le raisonnement subséquent n’est pas, en soi, une grande révolution. L’effet Balassa-Samuelson (développé par ces deux auteurs dans des articles publiés en 1964) développe la même idée. Ils distinguent entre des biens échangeables et non échangeables, plutôt qu’entre biens et services et ils font des comparaisons entre pays, plutôt que de voir une évolution au niveau d’un seul pays, mais la conséquence est identique. Les pays qui sont très productifs en biens échangeables vont tendre à avoir des niveaux élevés de prix agrégés (une régularité empirique connue sous le nom d’"effet Penn"), comme cette productivité conduit à la hausse des coûts dans leurs secteurs produisant des biens non échangeables.

Il est utile ici de noter que les noms importent. Si vous appelez ce phénomène "maladie des coûts", vous le considérerez nécessairement comme un problème. Si vous l’appelez "effet Penn", cela signifie que les pays riches ont de plus hauts prix et que c’est juste une bizarrerie empirique. "La maladie des coûts" semble être une mauvaise chose, mais c’est comme mourir à plus de 90 ans, simplement de vieillesse. C’est terrible que vous mouriez, mais n’oublions pas que vous avez plus de 90 ans. La maladie des coûts de Baumol est le résultant d’une richesse incroyable.

Les symptômes précis de la maladie des coûts dépendent d’hypothèses supplémentaires. Baumol a précisé les possibilités dans le reste de l’article. Nous savons que les coûts (et donc les prix) du secteur des services croissent relativement au secteur des biens.

"Nous pouvons nous demander ce qui se passerait si, malgré le changement de leurs coûts et prix relatifs, la magnitude des productions relatives des secteurs ne changeait pas… si la demande pour le produit en question (les services…) était suffisamment inélastique au prix ou élastique au revenu."

C’est l’intuition essentielle suivante, celle selon laquelle la demande de services est inélastique au prix ou élastique au revenu. Cela signifie que malgré la hausse des coûts, les gens continuent de consommer des services et peuvent en fait accroître leurs dépenses dans les services comme ils deviennent plus chers. Baumol en déduit les implications de la demande de services pour l’économie au niveau agrégé. Dans la citation suivante, le "secteur progressif" est le secteur qui produit des biens, avec une productivité croissante, tandis que le "secteur non progressif" est celui qui produit les services, marqué par une faible croissance de la productivité. (…)

"Si la productivité horaire par travailleur s’élève cumulativement dans un secteur relativement à son taux de croissance ailleurs dans l’économie, tandis que les salaires s’élèvent proportionnellement dans tous les domaines, alors les coûts relatifs dans les secteurs non progressifs doivent inévitablement s’accroître et ces coûts vont s’accroître cumulativement et sans limite… Donc, les avancées dans les secteurs technologiquement progressifs accroissent inévitablement les coûts dans les secteurs technologiquement invariants de l’économie, à moins que les marchés du travail dans ces domaines puissent être scellés et les salaires maintenus absolument constants, quelque chose de très peu probable. Nous voyons ensuite que les coûts vont s’accroître mécaniquement dans plusieurs secteurs de l’économie (…). Si leurs productions relatives sont maintenues, une proportion toujours croissante de la main-d’œuvre doit être canalisée dans ces activités et le taux de croissance de l’économie doit ralentir de façon proportionnelle."

J’ai essayé de résumé cela avec mes propres mots trois ou quatre fois, mais je ne pense pas avoir fait un meilleur boulot que Baumol. J’ai consacré plusieurs billets de ce blog sur la réalisation de la prédiction de Baumol en ce qui concerne le ralentissement de la croissance de la productivité qui s’opère à mesure que nous passons vers des secteurs non progressifs. Je vais juste répéter que le ralentissement de la croissance agrégée qu’implique la maladie des coûts de Baumol s’explique par la nature de la demande, non par une limite technologique.

Souvent les gens se focalisent sur la question de la "maladie des coûts" dans l’article de Baumon, sans prendre en considération la seconde partie, qui se penche sur l’effet de la demande pour les services. Scott Alexander a publié un billet sur la maladie des coûts il y a quelques mois qui le démontre. Le billet d’Alexander n’est pas le seul à le faire, mais c’est le dernier qui s’est inscrit dans ma liste de lecture sur ce sujet, si bien que je l’utilise pour illustrer un point précis.

C’est un billet (très) long, mais Alexander parle de l’éducation, de la santé, des services offerts par l’Etat, en documentant la maladie des coûts. Il cristallise cela en posant ce genre de question : "que préféreriez-vous ? Envoyer votre enfant dans une école de 2016 ? ou envoyer votre enfant dans une école de 1975 et obtenir un chèque de 5000 euros chaque année?". Il pose ensuite la même question avec l’université : vous préférez l’université moderne ou l’université de vos parents, plus 72.000 dollars ? Et ensuite avec la santé : les soins modernes ou les soins de l’époque de vos parents (…), plus 8.000 dollars chaque année ?

La réponse implicite d’Alexander à toutes ces questions est que vous choisiriez la seconde option : le vieux niveau de service plus l’argent. Une grande partie du billet cherche à expliquer que le service offert aujourd’hui n’est pas de meilleure qualité que le service offert une génération plus tôt. Même si j’ai beaucoup de choses à dire sur cette conclusion, ce n’est pas la question qui m’intéresse. Supposons que la qualité de la santé et de l’éducation n’ait pas changé en une génération (…). Voici la question que Baumol s’est implicitement posée. Où les gens dépensent-ils le supplément d’argent qu’ils gagnent ?

Ils peuvent l’utiliser pour acheter une nouvelle voiture ou un nouvel appareil électroménager, c’est-à-dire un bien manufacturé. Peut-être que c’est ce qu’Alexander avait en tête ; il n’a jamais dit ce qu’il adviendrait au supplément d’argent.

Mais les gens peuvent aussi dépenser ces cinq ou huit milles dollars supplémentaires pour finalement prendre des vacances bien méritées, c’est-à-dire dépenser dans le tourisme et des services d’hospitalité. Ou ils peuvent bien décider de dépenser cet argent pour envoyer leurs enfants dans une meilleure (et plus coûteuse ?) école ou les mettre dans une crèche à plein temps plutôt qu’à temps partiel. Ou pour envoyer leurs enfants à l’université. Peut-être que les gens vont obtenir l’épargne pour retourner à l’université afin d’obtenir un diplôme supplémentaire et ainsi obtenir une promotion au travail ou bien pour acquérir une nouvelle certification qui accroît leur salaire.

Et une partie de cette épargne peut être dépensée dans les services de santé. Les individus peuvent se lancer dans des procédures pour guérir totalement de leurs problèmes chroniques plutôt que de continuer à seulement en alléger les symptômes. Peut-être que les enfants obtiennent un traitement orthodontique complet, plutôt qu’un traitement partiel se contentant de renforcer une dent. Alexander suggère que l’épargne pourrait être dépensée pour voir des spécialistes permettant de traiter des problèmes de santé persistants, plutôt que de la dépenser pour aller voir un médecin généraliste.

A partir de la seconde intuition de Baumol, la demande pour ce genre de services est élastique au revenu et inélastique au prix. Ce qui signifie qu’une grande partie de l’argent que les gens obtiennent de l’expérience de pensée d’Alexander est réinvestie dans l’éducation et la santé. Qu’est-ce que cela entraîne ? La courbe de la demande se déplace pour la santé et l’éducation. Et ensuite que se passe-t-il ? Le prix augmente et le volume supplémentaire de soins de santé ou d’éducation n’est pas aussi important. En outre, il n’y a pas de déclin significatif (et peut-être même une hausse) dans la part du PIB représentée par la santé et l’éducation.

C’est la même conséquence que Baumol décrit, même si pour lui l’origine de cela se trouve dans la hausse de la productivité dans le secteur des biens. Mais l’origine de la hausse de la productivité n’est pas importante, ce qui importe est la structure de la demande pour les services. Aussi longtemps que notre demande de services est élastique au revenu et inélastique aux prix, la part de la santé et de l’éducation dans le PIB s’accroît comme nous devenons plus productifs, peu importe d’où l’amélioration de la productivité provient.

Nous n’affirmons pas par là que la santé et l’éducation sont efficacement gérées. (…) Mais leurs coûts élevés ne sont pas entièrement dus à leur inefficacité délibérée et une réduction de ces coûts ne réduirait pas leur part dans le PIB.

Je pense que le billet d’Alexander est un exemple d’analyse (parmi d’autres) qui considère trop littéralement la partie "maladive" de la "maladie des coûts". La hausse des coûts dans l’éducation et la santé ne représente pas toujours une pathologie. A bien des égards, nous sommes les victimes de notre propre prospérité et de nos préférences. Il n’y a rien dans l’analyse de Baumol qui implique que la maladie des coûts réduise les niveaux de vie ou détériore le bien-être. Rappelez-vous que la maladie des coûts est en premier lieu une conséquence des améliorations de la productivité.

Même si la "maladie des coûts" n’est peut-être pas le meilleur nom qu’on aurait pu lui donner, nous devons reconnaître que Baumol a su anticiper la trajectoire de la croissance économique et du changement structurel dans les pays développés au cours de la fin du vingtième siècle. Il le fit sans avoir eu à recourir à des mathématiques plus complexes que celles que je peux utiliser dans mes cours à la fac et en utilisant un langage accessible à tous. Si la croissance économique vous intéresse, il vous sera utile de consacrer du temps pour lire ses travaux. »

Dietz Vollrath, « Understanding the cost disease of services », 15 mai 2017. Traduit par Martin Anota

samedi 20 mai 2017

La fin de la concurrence ?

« Pendant des années, les économistes ont cru que la concurrence tendait à égaliser les profits entre les entreprises, dans la mesure où les firmes inefficaces apprennent des plus efficaces ou quittent le marché et où de nouvelles entreprises entrent sur les marchés caractérisés par des profits élevés. Diverses choses, cependant, suggèrent que nous devons changer notre modèle mental, parce que cette intuition basique qui relève du bon sens peut s’avérer inexacte. Certaines choses que nos avons récemment observées nous amènent à le penser. Jason Furman et Peter Orszag disent qu’"il y a eu une tendance à une dispersion croissante des rendements de capital entre les entreprises" aux Etats-Unis. David Autor et ses collègues montrent qu’il y a eu un essor de "firmes stars" gagnant de très hauts profits. Et Andy Haldane, faisant écho à Bloom et Van Reenen, a dit : "A un extrême, certaines entreprises et certains pays ont continué de connaître des niveaux de productivité élevés et croissants. Ces meneurs en termes de productivité creusent leur avance vis-à-vis des retardataires. Ou, pour le dire autrement, le rythme de diffusion technologique des meneurs vers les retardataires a ralenti et a peut-être même récemment atteint un plafond".

Tout cela est l’exact opposé de ce que nous nous attendions à voir si la concurrence égalisait les profits. Donc que se passe-t-il ? Je soupçonne qu’il n’y a pas ici, comme ailleurs, d’explications mono-causales. Voici quelques possibilités :

  • Avec de faibles taux d’intérêt et l’indulgence des créanciers, les entreprises inefficientes ne s’effondrent pas aussi massivement qu’au cours des années quatre-vingt et des années quatre-vingt-dix.

  • Les imperfections du marché du crédit empêchent les firmes efficientes de se lancer ou de se développer (bien que cela ne devrait pas être aussi problématique aujourd’hui qu’il y a quelques années).

  • Les mauvais dirigeants peuvent tout simplement ne pas voir comment améliorer leur activité ou exploiter les opportunités de profit.

  • Une réglementation de la propriété intellectuelle stricte empêche les entreprises d’apprendre les unes des autres.

  • Contrairement à ce que pensait Hayek, les prix ne délivrent pas suffisamment d’information. Des prix élevés n’encouragent pas nécessairement les entreprises à entrer sur un marché parce qu’ils ne nous disent pas combien de temps les opportunités de profits associées à de tels prix vont durer.

  • Plusieurs entreprises profitables opèrent dans des niches qui sont assez grosses pour leur permettre de gagner de hauts profits, mais trop petites ou trop spécialisées pour attirer de nouveaux entrants (…).

  • Les nouvelles technologies sont caractérisées par des rendements d’échelle croissants. Comme Stian Westlake et Jonathan Haskell l’ont dit : "les actifs incorporels sont souvent très extensibles : une fois que vous l’avez développé, l’algorithme Uber ou la marque Starbucks peut être généralisé à plusieurs villes ou cafés". Dans un tel contexte, le gagnant rafle toute la mise.

  • Les effets de réseau génèrent un puissant avantage. Si je lance un supermarché plus efficace que Tesco, je dois faire assez d’affaires pour m’en sortir et forcer Tesco à réduire ses prix. Mais si je crée un potentiel rival à Facebook, je fais face à une tâche plus ardue. Parce que la valeur d’un site de réseau dépend du nombre de personnes qui l’utilisent, Facebook dispose d’un avantage.


Si tout cela est exact et s’il s’agit de changements durables (…), alors nous devons abandonner nos vieux modèles mentaux et en redécouvrir d’autres. Nous devons abandonner l’idée que la concurrence égalise les profits et restreigne les monopoles et peut-être revenir à certaines vieilles idées marxistes. Marx pensait que le capitalisme tendait à générer des monopoles. Certains de ses héritiers, notamment Baran et Sweezy, pensaient que cela se traduirait par une tendance à la stagnation, comme ces monopoles génèreraient plus de profits qu’ils ne pouvaient en dépenser. Pendant très longtemps, ces idées n’étaient pas vérifiées dans les faits. Mais maintenant que nous voyons des entreprises superstars accumuler d’énormes masses de liquidité dans un contexte de stagnation séculaire, peut-être que nous devons reconsidérer leur pertinence et leurs implications. »

Chris Dillow, « The end of competition », in Stumbling & Mumbling (blog), 18 mai 2017. Traduit par Martin Anota



aller plus loin...

« Et si la chute de la part du travail s'expliquait par la plus forte concentration des entreprises ? »

« L'épargne des entreprises contribue aux déséquilibres mondiaux »

mercredi 17 mai 2017

Pourquoi le modèle orthodoxe ne va pas pour décrire le marché du travail

« Beaucoup de personnes ont des difficultés à saisir l’idée que le modèle orthodoxe basique (le modèle d’offre et de demande avec un seul marché où s’échange une marchandise indifférenciée) ne marche pas pour le marché du travail. Pour certaines personnes qui sont impliquées dans les débats autour de la politique de l’emploi, la théorie est presque axiomatique : le marché du travail doit être décrit en termes de "courbe d’offre de travail" et de "courbe de demande de travail". Si vous leur dites que ce n’est pas possible, cela les déconcertera. Comment pourrait-il ne pas y avoir de courbe de demande de travail ? Comment pourrait-il ne pas y avoir de relation entre le prix de quelque chose et la quantité que les gens désirent acheter ?

Réponse : Si vous ne pouvez pas observer quelque chose, vous pouvez très bien le considérer comme s’il n’existait pas.

Les gens ont tendance à l'oublier, mais les courbes de demande ne sont en fait pas directement observables. Elles sont hypothétiques. "Si le prix était X, combien achèteriez-vous ?". Vous pouvez réaliser une enquête auprès des gens, mais la seule façon de réellement savoir quelle quantité ils achèteraient consisterait fixer le prix à X. Et la seule façon de le faire est de déplacer la courbe de l’offre. Mais comment savez-vous ce qu’est la courbe d’offre ? La seule façon est de déplacer la courbe de demande !

C’est ce qu’on appelle un problème d’identification. A moins que vous puissiez observer quelque chose qui constitue clairement un choc touchant seulement l’une des courbes, mais pas l’autre, vous ne pouvez pas savoir ce à quoi ressemblent les courbes. (…)

Et avec les marchés du travail, il est très difficile de trouver un choc qui affecte seulement l’une des "courbes". Cela s’explique par le fait que presque tout dans l’économie est produit avec le travail. Si vous trouvez un ensemble de nouveaux travailleurs, ils constituent aussi de nouveaux consommateurs et ce qu’ils achètent requière plus de travailleurs pour produire. Si vous accroissez le salaire minimum, la hausse du revenu des personnes toujours en emploi stimulera indirectement la demande de travail (…). Le travail est un intrant crucial dans de si nombreux marchés qu’il nécessite vraiment d’être traité dans un cadre d’équilibre général (en d’autres termes, en analysant tous les marchés à la fois), plutôt qu’en l’observant à travers un unique marché isolé des autres. Cela rend le modèle d’équilibre partiel orthodoxe assez inutile pour analyser le travail.

"Mais", vous pouvez dire, "ne pouvons-nous pas faire certains hypothèses plus lâches qui soient assez raisonnables ?". C’est possible. Il est logique que, dans la mesure où il faut du temps pour que de nouvelles entreprises soient créées, un afflux d’immigrés non qualifiés puisse représenter un plus gros choc pour l’offre de travail que pour la demande de travail à très court terme. Et il est logique qu’une hausse du salaire minimum ne stimule pas assez la demande de travail pour compenser la contrainte exercée par le prix plancher.

Avec ces hypothèses plus lâches, vous pouvez donner du sens à des courbes d’offre et de demande. Le problème est le suivant : Les résultats se contredisent alors les uns les autres. Les résultats empiriques sur les afflux soudains d’immigrés non qualifiés indiquent une très forte élasticité de la demande de travail, tandis que les résultats empiriques sur les hausses du salaire minimum indiquent une très faible élasticité de la demande de travail. Ces deux propositions ne peuvent être vraies au même instant.

Donc si vous acceptez ces hypothèses d’identification plausibles, lâches, cela ne fait toujours pas sens de considérer les marchés du travail en les décrivant par une courbe d’offre et une courbe de demande. Bien sûr, vous pouvez proposer des hypothèses d’identification étranges, douteuses, irréalistes qui réconcilient ces faits empiriques (et les diverses autres choses que nous savons à propos des marchés du travail). Avec des hypothèses suffisamment baroques, vous pouvez toujours sauver toute théorie, comme Romer l’a souligné (et comme Lakatos lui-même l’a souligné avant lui). Mais à partir d’un certain point, cela commence vraiment à sembler ridicule.

En fait, il y a plusieurs autres raisons qui amènent à penser que la théorie orthodoxe ne convient pas pour les marchés du travail :

1. Les graphiques d’offre et de demande sont utiles pour une seule marchandise ; or le travail est extrêmement hétérogène.

2. Les graphiques d’offre et de demande sont des modèles statiques ; en raison de la réglementation du travail et des contrats implicites, les marchés du travail impliquent de la part des agents qu’ils adoptent un comportement prospectif.

3. Les graphiques d’offre et de demande sont sans frictions ; les marchés du travail impliquent évidemment de larges frictions dans la recherche d’emploi, et ce pour de nombreuses raisons. Si les modèles d’offre et de demande orthodoxes fonctionnaient pour chaque marché, la grande majorité des économistes aujourd’hui seraient totalement inutiles. Affirmer que le modèle orthodoxe doit toujours être un bon modèle, c’est dire fondamentalement que l’essentiel de l’économie fait fausse route et que tout cela tient à Marshall. Heureusement, les économistes forment toutefois une équipe intelligente, avec un certain esprit scientifique, si bien qu’ils réalisent que les effets d’équilibre général, l’hétérogénéité, le comportement prospectif, les frictions dans la recherche d’emploi, etc., existent, et qu’ils sont souvent essentiels pour comprendre les marchés.

Le modèle d’offre et de demande orthodoxe n’est juste pas une bonne description du marché du travail. La construction théorique derrière "la courbe de demande du travail" est ontologiquement suspecte, c’est-à-dire qu’elle constitue un mauvais choix de modélisation. Si nous adoptions une certaine sorte de philosophie positiviste ou empiriste ("si je ne peux pas observer quelque chose, il se pourrait que cela n’existe pas"), alors nous pouvons aussi bien dire que "la courbe de demande de travail" n’existe pas. Ce n’est pas une chose réelle. »

Noah Smith, « Why the 101 model doesn't work for labor markets », in Noahpinion (blog), 14 avril 2017. Traduit par Martin Anota

lundi 15 mai 2017

Nous sous-estimons l’impact de l’austérité

« Plusieurs idées ont été avancées pour expliquer la faible croissance de la productivité du Royaume-Uni, mais parmi les analyses orthodoxes l’impact de l’austérité n’est habituellement pas au sommet sur la liste des candidats. J’ai parlé par le passé de ce que j’ai appelé le 'retard d’innovation" (innovation gap) et expliqué pourquoi le Royaume-Uni est actuellement en train de souffrir d’un retard d’innovation particulièrement large. L’idée d’un retard d’innovation permet de lier l’insuffisance de la demande globale (celle provoquée par l’austérité par exemple) à la faiblesse de la croissance de la productivité.

Prenons un exemple simple pour expliquer comment un retard d’innovation peut apparaître après une sévère récession provoquée par l’austérité. Supposons que les améliorations des technologies et des techniques de production soient constantes (…), mais qu’elles ne peuvent se diffuser qu’avec de nouveaux investissements : c’est ce que les économistes appellent le progrès technique incorporé (embodied technical progress).

Imaginez une entreprise dont les ventes ne s’accroissent pas. Est-ce que l’entreprise va investir pour devenir plus productive ? Seulement si les profits additionnels qu’elle peut faire suite à l’investissement (…) sont plus larges que le coût de l’investissement. Il faut que cette entreprise ait un gros retard d’investissement pour qu’il soit utile pour elle d’entreprise l’investissement et pour que sa productivité augmente.

Maintenant, imaginez que la demande s’accroisse. L’entreprise a maintenant à entreprendre un investissement additionnel pour accroître sa production. Il fait sens d’investir dans des techniques qui incorporent les dernières technologies. La hausse de la demande entraîne à la fois une hausse de l’investissement (ce que les économistes appellent l’ "accélérateur") et une hausse de la productivité.

Au cours d’une reprise normale suite à une récession, la demande connaît rapidement une reprise (la croissance excède facilement ses tendances passées), ce qui amène les entreprises à investir dans les dernières technologies. Tout retard d’innovation qui apparaît lors de la récession est rapidement rattrapé. A l’inverse, une reprise très lente provoquée par l’austérité va réduire le besoin d’investissement pour les entreprises, ce qui maintient et aggrave le retard d’innovation.

Cette idée colle avec certains travaux récents qui suggèrent que la croissance de la productivité dans les entreprises à la "frontière" (les entreprises qui ont déjà une productivité relativement forte) n’a pas ralenti et l’écart s’est creusé entre ces entreprises situées à la frontière technologique et celles qui sont en retard. (…) Cela ferait sens si les entreprises à la frontière croissent (parce qu’elles sont les plus productives), mais les entreprises en retard ne le font pas. Les firmes en croissance ont à investir pour croître, mais les entreprises en stagnation ne croissent pas.

Le même modèle peut aussi suggérer comment une croissance de la productivité tirée par les salaires peut survenir (…). Comme la plupart des innovations sont susceptibles de conduire à une économie de main-d’œuvre, alors une hausse des salaires peut accroître les profits qui viennent d’un investissement, sans nécessairement accroître le coût de cet investissement. Donc une hausse des salaires provoquée par une hausse du salaire minimum, par exemple, peut accroître l’investissement et par conséquent la productivité. Réciproquement, une période de stagnation de la croissance des salaires, comme celle que nous avons connue depuis la récession, n’incite aucunement les entreprises à investir dans des techniques qui accroissent la productivité.

Je pense que cette histoire n’explique qu’une partie du retard de productivité du Royaume-Uni. Au Royaume-Uni, l’investissement dans les usines et les machines a brutalement chuté lors de la récession et il n’est toujours pas revenu à ses niveaux d’avant-crise, mais son déclin n’explique pas totalement la stagnation de la productivité. (…) Mais s’il explique ne serait-ce qu’une partie de celle-ci, alors cela signifie que l’austérité est bien plus coûteuse qu’on ne le croit.

Une manière de décrire ce que je viens de dire est de dire que l’austérité influence aussi bien l’offre globale que la demande globale. Vous pouvez dire que l’austérité ignore aussi bien l’accélérateur que le multiplicateur, ce qui est joliment dit, mais cela ne capture par l’idée du progrès technique incorporé qui est cruciale à ce raisonnement. C’est pourquoi il vaut toujours mieux d’avoir une économie à haute pression (high pressure economy) (…).

Comme je l’ai expliqué ici, je n’utilise pas le terme "austérité" comme un simple synonyme de la consolidation budgétaire ou même d’une consolidation budgétaire impliquant une réduction des dépenses publiques. La consolidation budgétaire n’entraîne pas forcément une réduction de la production si la politique monétaire est capable de compenser son impact. Mais si les taux d’intérêt sont contraints par leur borne inférieure, comme ils le font à nouveau au Royaume-Uni (1), la consolidation budgétaire va réduire la production et entraîner un autre gâchis inutile de ressources. Depuis le Brexit, nous avons une seconde période d’austérité au Royaume-Uni. Pour évaluer à quel point cette austérité sera coûteuse, nous ne devons pas seulement regarder si elle crée un écart de production (output gap) négatif, mais aussi si elle génère un retard d’innovation qui réduit la productivité. »

(1) Nous le savons parce que la Banque d’Angleterre accroît le montant de l’assouplissement quantitatif. »

Simon Wren-Lewis, « Underestimating the impact of austerity », in Mainly Macro (blog), 7 mai 2017. Traduit par Martin Anota

lundi 8 mai 2017

Il est difficile d’utiliser la politique budgétaire pour atteindre l'équilibre externe

« L’idée derrière le "rééquilibrage externe tiré par la politique budgétaire" est simple. Si les pays ayant un excédent externe (par exemple un excédent commercial) suivent une politique budgétaire expansionniste, ils vont accroître leur demande interne et ainsi leurs importations. Des politiques budgétaires plus expansionnistes entraîneraient généralement des politiques monétaires plus restrictives, ce qui accroîtrait aussi la valeur de la devise. Et si les pays avec les déficits externes (par exemple des déficits commerciaux) resserreraient leur politique budgétaire, ils refréneraient leur propre demande interne, ce qui limiterait les importations. Les entreprises dans les pays avec des politiques budgétaires plus restrictives et moins de demande vont alors tendre à accroître leurs exportations à destination des pays avec des politiques budgétaires plus laxistes et plus de demande. Ce raisonnement cadre bien avec l’orthodoxie du FMI : ce dernier constate généralement que la politique budgétaire a un impact significatif sur le solde externe, et ce contrairement à la politique commerciale.

Mais cette idée n’est pas sans rencontrer une opposition, puisqu’elle implique que la politique budgétaire qui est bonne pour un pays puisse ne pas l’être pour un autre. Par exemple, beaucoup d’Allemands pensent qu’ils doivent générer des excédents budgétaires pour donner le bon exemple à leurs voisins. Cela va à l’encontre de l’idée d’utiliser la politique budgétaire pour impulser l’ajustement externe. Pour réduire son excédent commercial, l’Allemagne devrait assouplir sa politique budgétaire. L’impact positif de telles politiques sur la demande en Allemagne (et autres les pays en excédents) se répercuterait à l’économie mondiale et permettrait aux pays avec des déficits externes de resserrer leur politique budgétaire en atténuant l’impact de cette dernière sur leur demande.

Donc l’une des implications de l’utilisation de la politique budgétaire en vue de conduire le rééquilibrage commercial est qu’il n’y a pas une seule cible de politique budgétaire (…) qui fonctionne pour tous les pays. L’équilibre budgétaire, par exemple, n’est pas toujours le bon objectif de la politique budgétaire nationale. Certains pays doivent générer des déficits budgétaires pour réduire leurs excédents externes.

GRAPHIQUE 1 Contributions à la variation du solde budgétaire structurel de la zone euro (en % du PIB de la zone euro)

Brad_Setser__Contributions_a_la_variation_du_solde_budgetaire_structurel_de_la_zone_euro.png

(…) En pratique, les dernières estimations du FMI montrent que l’Europe n’a pas utilisé la politique budgétaire pour faciliter son propre ajustement interne. Les gros excédents externes dans la zone euro sont générés par Pays-Bas et par l’Allemagne. Ces deux pays ont aussi d’amples marges de manœuvre budgétaire grâce à des niveaux relativement faibles de dette publique et ils peuvent adopter un plan de relance sans remettre en cause leur propre solvabilité budgétaire. Et les pays avec beaucoup de dette externe et une marge budgétaire limitée tendent à être davantage au Sud : il s’agit de l’Italie et de l’Espagne par exemple (je généralise un peu ici, dans la mesure où l’Espagne a plus de dette externe et un plus gros déficit budgétaire que l’Italie, tandis que l’Italie a un plus gros stock de dette publique et moins de croissance). La zone euro génère aussi un significatif excédent externe, souffre de capacités de production inemployées et a de faibles taux d’intérêt. Elle pourrait contribuer à ramener le commerce mondial vers un meilleur équilibre (et accroître le rendement mondial de l’épargne) avec une politique budgétaire globale expansionniste, tout en rapprochant sa propre économie vers le plein emploi. C’est gagnant-gagnant, du moins en théorie.

En pratique, malheureusement, la zone euro n’a pas suivi une politique budgétaire expansionniste l’année dernière. La variation du solde budgétaire structurel au niveau agrégé a été positive, mais seulement un peu. Et la contraction budgétaire en Europe l’année dernière est venue des pays en excédent externe, notamment des Pays-Bas, et non des anciens pays en déficit externe. Les expansions budgétaires en Italie et en Espagne ont suffisamment compensé pour empêcher que la consolidation budgétaire aux Pays-Bas se traduise par une consolidation au niveau agrégé de la zone euro. (…)Le FMI voulait une expansion budgétaire aux Pays-Bas et une consolidation budgétaire en Espagne, en Italie et dans d’autres pays (généralement à un rythme d’environ 0,5 % du PIB par an), c’est-à-dire plus ou moins l’opposé de ce qui s’est passé. Et concernant l’Allemagne ? Eh bien, le FMI pensait il y a un an que l’Allemagne connaissait une expansion budgétaire (…). Mais il s’avère après coup qu’il n’y a pas vraiment eu d’expansion budgétaire structurelle en Allemagne l’année dernière. Le solde budgétaire structurel présente toujours un excédent substantiel.

GRAPHIQUE 2 Variation du solde budgétaire structurel des Etats-membres clés de la zone euro (en % du PIB de chaque pays-membre)

Brad_Setser__Variation_du_solde_budgetaire_structurel_des_Etats-membres_cles_de_la_zone_euro.png

C’est le problème. Il s’avère que les pays en excédent semblent aimer les excédents. Ils sont rarement enclins à prendre des mesures pour stimuler la demande. Et puisque la production des pays déficitaires traditionnels de la zone euro est généralement contrainte par une faible demande, ils tendent à vouloir adopter des politiques plus expansionnistes pour stimuler leur économie.

Cela s’applique également au niveau mondial. Pour que la politique budgétaire impulse un rééquilibrage de la demande globale, les pays qui connaissent un excédent externe doivent adopter des politiques plus expansionnistes. Cela signifie que la zone euro, la Corée du Sud et le Japon, parmi d’autres, doivent adapter des politiques plus expansionnistes (avec la Suède, la Suisse et Singapour). Et bien sûr les Etats-Unis devraient adopter une politique budgétaire restrictive, de façon à réduire leur déficit de compte courant.

GRAPHIQUE 3 Variation du solde budgétaire structurel de la zone euro, de la Corée du Sud et du Japon (en % du PIB de chaque zone)

Brad_Setser__Variation_du_solde_budgetaire_structurel_de_la_zone_euro__de_la_Coree_du_Sud_et_du_Japon.png

Mais il n’y a pas beaucoup d’éléments dans les données du FMI en 2016 qui suggèrent que les pays excédentaires désirent adopter de significatives expansions budgétaires (et comme je l’ai noté l’année dernière, dans plusieurs cas, le FMI n’a pas désiré préconiser des expansions budgétaires dans son conseil budgétaire à destination des pays générant les plus amples excédents). L’excédent structurel de la Corée du Sud reste élevé (…) et il n’a pas beaucoup changé en 2016. Les dernières données des Perspectives de l’économie mondiale suggèrent un (très) modeste resserrement budgétaire structurel en 2016, et un plus ample resserrement en 2017. Le Japon a un déficit budgétaire structurel actuellement : son excédent de compte courant s’explique par la forte épargne des entreprises et non par une politique budgétaire restrictive. Il a ralenti le rythme de la consolidation depuis 2014 (heureusement) mais son solde structurel ne suggère pas qu’il cherche à en faire beaucoup pour soutenir la demande. Il continue de fortement dépendre des exportations nettes pour soutenir sa croissance. Et, aux Etats-Unis, eh bien, le Président désire une forte réduction de l’impôt financée par le déficit. (Mnuchin, le secrétaire au Trésor américain, est tout à faire d’accord avec l’idée qu’une reflation budgétaire dans les pays en excédent puisse contribuer à réduire les déséquilibres mondiaux de balances de paiements. Mais c’est difficile de concilier cela avec les propositions fiscales de l’administration Trump.) »

Brad Setser, « Using fiscal policy to drive trade rebalancing turns out to be hard », in Follow the Money (blog), 26 avril 2017. Traduit par Martin Anota

samedi 6 mai 2017

William Baumol : un entrepreneur vraiment productif



« (…) Vient de disparaître le grand spécialiste de l’entrepreneuriat et l’un de mes économistes préférés, William Baumol.

Mais nous ne pouvons limiter ses travaux à ce qu’il a fait sur le thème de l’entrepreneuriat (…). Baumol était aussi un grand spécialiste de l’économie des arts, notamment des arts du spectacle, ce qui l’amena d’ailleurs à élaborer son fameux concept de la maladie des coûts. Il a été un micro-théoricien très compétent, un talentueux historien économique et un grand lecteur de l’histoire de la pensée économique, comme il l’a brillamment démontré dans son article du Quarterly Journal of Economics en 2000 où il se demandait ce que nous avions appris depuis Marshall. Dans tous ces domaines, ses articles se lisent avec plaisir, ils sont clairs, remplis d’élégantes tournures de phrases (…). Il est honteux qu’il n’ait pas reçu un Prix Nobel : cela aurait été merveilleux qu’il partage le prix Nobel avec Nate Rosenberg avant que cela soit trop tard pour tous les deux.

Baumol est souvent considéré comme étant un défenseur schumpétéresque de l’économie capitaliste et de l’entrepreneur héroïque, mais cela n’est qu’à moitié vrai. Il était politiquement libéral (liberal) et il a déclaré lors d'une récente entrevue : "Je suis conscient de tous les problèmes très sérieux, comme les inégalités, le chômage, les dommages environnementaux, que connaissent les sociétés capitalistes. Ma thèse est que le capitalisme est un mécanisme particulier qui n’est efficace que pour accomplir une seule chose : créer des innovations, mettre en application ces innovations et les utiliser pour stimuler la croissance". Vous pouvez trouver dans les travaux de Baumol plusieurs réflexions sur les externalités environnementales, sur le rôle du gouvernement dans le financement de la recherche et sur la nature de la taxation optimale. Vous pouvez trouver de nombreux passages où Baumol exprime de l’intérêt pour les objectifs politiques associés à la gauche (bien qu’il propose souvent de les régler avec les mécanismes de marché, c’est-à-dire avec une solution de droite). Ce qui traverse toutefois les travaux de Baumol, c’est une défense rigoureuse, historiquement et théoriquement fondée, de l’importance qu’il y a à avoir de bonnes incitations pour que nous ayons une innovation socialement utile.

Baumol se distingue de plusieurs autres économistes proéminents de l’innovation dans la mesure où il est essentiellement un théoricien néoclassique. Il n’est pas un partisan de l’école autrichienne (comme Kirzner) ou de l’économie évolutionniste (comme Sid Winter). Les travaux de Baumol soulignent que les entrepreneurs et les innovations que ces derniers produisent sont essentiels pour comprendre l’économie capitaliste et sa performance relativement à d’autres systèmes économiques, mais que la meilleure manière sur le plan méthodologique de comprendre l’entrepreneur est de le formaliser dans le contexte des équilibres néoclassiques, en considérant que c’est l’innovation plutôt que le prix qui constitue "l’arme de choix" pour les entreprises rationnelles, compétitives. J’ai toujours pensé que Baumol était un descendant direct de Schumpeter, le premier grand penseur de l’entrepreneuriat et une personne qui, vers la fin de sa vie, lorsqu’il voyait les travaux de son étudiant Samuelson, se déclarait convaincu que ses idées devaient être formalisées dans le cadre de la théorie néoclassique.

C’est dans un essai publié en 1968 dans les Papers and Proceedings de l’American Economic Review que Baumol avança l’idée cruciale que l’économie sans l’entrepreneur est, selon une formule qu’il répétera souvent, comme Hamlet sans le Prince du Danemark. Il comprit clairement que nous n’avions pas de théorie adaptée pour l’oligopole et l’entrée sur les nouveaux marchés ou pour l’offre d’entrepreneurs, mais que toute théorie économique générale devait être capable d’expliquer pourquoi la croissance diffère d’un pays à l’autre. Le fameux essai de Solow convainquit une grande partie de la profession que le résidu, qui fut par la suite interprété comme une mesure du progrès technique, était la variable fondamentale expliquant la croissance, et Baumol, comme beaucoup, croyait que ces améliorations technologiques venaient principalement de l’activité entrepreneuriale.

Mais à quoi la théorie doit-elle précisément ressembler ? Ironiquement, Baumol fit l’un de ses apports les plus productifs dans un magnifique article publié en 1990 dans le Journal of Political Economy qui ne contenait ni un seul théorème formel, ni une quelconque estimation statistique. Définissons les entrepreneurs comme étant "les personnes qui se montrent ingénieuses ou créatives lorsqu’il s’agit de gagner en richesse, en pouvoir ou en prestige". Ces gens peuvent introduire de nouveaux biens ou de nouvelles méthodes de production, ou de nouveaux marchés, comme Schumpeter le supposait dans la définition qu’il proposait. Mais est-ce que ces types ingénieux et créatifs font quelque chose de nécessairement utile pour le bien-être collectif ? Bien sûr que non : les normes, les institutions et les incitations dans une société donnée peuvent être telles que les entrepreneurs réalisent des tâches socialement non productives, telles que la quête de nouveaux échappatoires fiscales, ou des tâches socialement destructrices, par exemple en concentrant leur énergie dans des guerres.

Avec la distinction entre l’entrepreneuriat productif, l’entrepreneuriat non productif et l’entrepreneuriat destructeur à l’esprit, nous pouvons imaginer que les différences en termes de progrès technique que l’on observe entre les sociétés peuvent être moins liées à la conduite innée des membres de la société qu’aux incitations pour différents types d’entrepreneuriat. (…)

Maintenant, nous nous rapprochons d’une sorte de théorie économique de l’entrepreneuriat : pas besoin de se focaliser sur les humeurs du personnage, mais plutôt sur les incitations relatives. Mais nous sommes toujours loin du but de Baumol en 1968 : incorporer l’entrepreneur dans la théorie néoclassique. Baumol s’en est le plus grandement rapproché dans le travail qu’il réalisa au début des années 1980 sur les marchés contestables, qu’il résuma dans l’allocution présidentielle à l’American Economic Association de 1981. L’idée est la suivante. Imaginons des secteurs qui ont des économies d’échelle, si bien qu’à leur état naturel ils sont en situation d’oligopole. A quel point devons-nous nous en inquiéter ? S’il n’y a pas de coûts irréversibles, ni d’autre barrière à l’entrée, et si les entreprises peuvent capter des clients plus rapidement que les entreprises en place ne peuvent répondre, alors Baumol et ses coauteurs conclurent que le marché était contestable : la menace d’une entrée de nouveaux concurrents suffit pour désinciter les entreprises en place à exercer leur pouvoir de marché. D’un côté, nous sommes tous d’accord avec Baumol que la structure des secteurs est endogène au comportement des entreprises et que la menace d’entrée de nouveaux concurrents peut fortement restreindre le pouvoir de marché. Mais d’un autre côté, est-ce que ce modèle "d’entrée sans frais" offre la manière la plus sensée d’incorporer l’entrée et la sortie dans un modèle concurrentiel ? Pourquoi, comme l’a noté Dixit, serait-il plus rapide d’entrer sur un marché que de changer les prix ? Pourquoi, comme l’a noté Spence, est-ce que la menace non réalisée d’une entrée changerait-elle le comportement d’équilibre si la menace est ne se réalise vraiment pas tout du long du sentier d’équilibre ?

Il semble que Baumol espérait que ce modèle mènerait à une théorie générale de la concurrence imparfaite qui mettrait en avant une concurrence pour le marché plutôt que la seule concurrence sur le marché, puisque la concurrence pour le marché est naturellement le domaine de l’entrepreneur. Les marchés contestables sont trop fragiles pour nous donner un tel cadre. Mais l’idée fondamentale d’une structure de marché endogène à la théorie des jeux (plutôt que la vieille idée selon laquelle la structure du secteur affecte le comportement qui affecte à son tour la performance) va clairement rester : l’antitrust constitue aujourd’hui essentiellement de la théorie des jeux appliquée. Et une fois que vous avez l’idée de concurrence pour le marché, le modèle théorique qui apparaît alors comme naturel est celui où les entreprises se font concurrence pour innover de façon à chasser les entreprises en place, où les entreprises en place innovent pour se préserver de potentiels entrants et où les profits dépendent à l’équilibre du laps de temps qui s'écoule jusqu’à ce que la firme dominante change : je parle, bien sûr, des modèles néo-schumpétériens d’Aghion et Howitt. Ces modèles, qui constituent toujours une zone très active de recherche, nous permettent finalement de rechercher rigoureusement les récompenses à l’innovation via un modèle complètement néoclassique en ce qui concerne la structure de marché et la fixation des prix.

Je ne suis pas sûr de comprendre pourquoi Baumol n’a pas trouvé que ces modèles néo-schumpétériens étaient le Sacré Graal qu’il recherchait ; dans son dernier livre, il estime qu’ils sont "très puissants", mais qu’ils portent sur d’autres "grandes préoccupations". Il a pu se tromper dans leur interprétation. Il s’avère assez intéressant de donner une seconde lecture soignée du corpus de Baumol sur l’entrepreneuriat et je dois dire que c’est en partie insatisfaisant : les questions qu’il se posait étaient les bonnes, l’expertise théorique qu’il possédait était à la hauteur de la tâche, sa compréhension de l’histoire et des intuitions qualitatives était irréprochable, mais il semble avoir finalement été aussi bloqué par l’idée de l’entrepreneuriat néoclassique endogène que plusieurs autres doyens de notre champ qui ont essayé de modéliser ce problème sans parvenir à élaborer le modèle qu’ils espéraient pouvoir élaborer.

La où Baumol a eu le plus de succès, et c’est inhabituel pour un théoricien dont l’essentiel des contributions les plus connues sont surtout qualitatives, est l’idée de la "maladie des coûts" (cost disease). Le concept vient du travail que Baumol réalisa avec William Bowen (…) sur les problèmes économiques des arts du spectacle. C’est une idée simple : imaginons que la productivité dans l’industrie s’accroisse de 4 % par an, mais que "la production horaire d’un violoniste jouant du Schubert dans une salle de spectacle standard" reste fixe. De façon à attirer les travailleurs dans la musique plutôt que dans l’industrie, les salaires doivent augmenter dans la musique à peu près au même rythme qu’ils s’accroissent dans l’industrie. Mais les coûts sont croissants, alors que la productivité ne l’est pas, et les arts semblent "inefficaces". La même chose s’applique pour l’éducation, la santé et d’autres secteurs nécessairement intensifs en travail. Baumol suggère ainsi que la hausse des coûts dans les secteurs non productifs reflète un changement nécessaire des salaires d’équilibre plutôt que, par exemple, un gâchis croissant. (…) »

Kevin Bryan, « William Baumol: Truly productive entrepreneurship », in A Fine Theorem (blog), 4 mai 2017. Traduit par Martin Anota

mercredi 3 mai 2017

Le débat autour des effets respectifs de la technologie et du commerce sur l'emploi américain

L’École doctorale de l'université de la Ville de New York (CUNY) a organisé le 26 avril un débat autour des effets du commerce sur les emplois et les salaires américains. Les participants étaient David Autor et Ann Harrison, auteurs d’articles économiques incontournables sur les effets des exportations chinoises sur l’emploi et les salaires américains (et professeurs respectivement au MIT et à Wharton), Brad DeLong, un économiste touche-à-tout qui a été un haut responsable au Trésor sous l’administration Clinton (et professeur à Berkeley) et Paul Krugman, un récipiendaire du prix Nobel, professeur à l’Université de New-York et probablement l’un des trois économistes les plus influents dans le monde.

Le débat a commencé avec l’intervention de David Autor. Ce dernier a rappelé que l’emploi industriel américain connaît certes une tendance baissière depuis 1943 (année au cours de laquelle il représentait presque 40 % de l’ensemble de la main-d’œuvre), mais il note toutefois que nous avons assisté au début des années deux mille, avec l’accession de la Chine à l’OMC, à une baisse brutale (une "chute d’une falaise") du nombre d’emplois industriels. Entre la fin des années quatre-vingt-dix et aujourd’hui, environ 5 millions d’emplois manufacturiers ont été perdus. Autor pense certes que le changement technologique est le principal facteur qui explique les tendances à long terme, mais il estime toutefois que la plus récente chute ne peut être dissociée du commerce (notamment à la pénétration d’importations de biens chinois).

Ensuite, dans les déclarations d’ouverture, Ann Harrison, en référence à deux études auxquelles elle a participées, a déclaré que les effets du commerce sont bien plus manifestes lorsque l’on suit les travailleurs par la profession que lorsque l’on observe simplement à un secteur donné. Ainsi, les travailleurs déplacés par le commerce, même s’ils ont retrouvé par la suite un emploi, ont perdu environ 25 % de leurs salaires. Le second article d’Ann Harrison porte un message quelque peut différent : plusieurs emplois ont été perdus parce que le prix des biens d’investissement a diminué, si bien que les machines se sont substituées au travail. C’est un récit où la technologie joue le rôle principal, mais avec une nuance : le changement technologique a en fait répondu au changement des prix relatifs. Harrison a conclu en disant que sa position dans le débat autour des rôles respectifs de la technologie et du commerce serait probablement plus proche de celle de Brad DeLong (l’intervenant suivant) que de celle de David Autor.

Effectivement, dans sa déclaration d’ouverture, DeLong s’est montré en faveur de l’explication technologique même (…) s’il n’indique pas clairement s’il pense que celle-ci s’applique toujours à la situation actuelle et à la Chine en particulier.

Paul Krugman (…) a fait référence aux débats qui se tenaient dans les années quatre-vingt-dix sur le rôle respectif de la technologie et du commerce : à l’époque, le consensus était que les deux tiers des effets sur l’emploi et le salaire étaient dus à la technologie. Mais, Krugman dit, les économistes ont peut-être eu raison de dire que le commerce avait alors un rôle limité ; par contre, ils tenir les mêmes propos aujourd’hui, dans la mesure où l’essor des échanges qui a eu lieu au cours des vingt dernières années a été bien plus ample que ce que les Etats-Unis connaissaient dans les années quatre-vingt-dix. Il pense que le commerce a aujourd’hui un impact massif, mais que c’est un événement unique, associés à la Chine, et qui n’est pas susceptible d’être répliqué.

Si je devais commenter les choses comme un commentateur sportif, je dirais qu’Autor et Krugman estiment plutôt que "le commerce importe" et que DeLong et Harrison tendent plutôt à privilégier l’explication technologique. Mais cette classification est trop grossière. Les propres travaux d’Autor, auxquels il fit par la suite référence, montrent que le changement technologique joue un rôle déterminant derrière le déplacement du travail routinier. (Mon analyse favorite d’Autor, Dorn et Hanson est d’ailleurs celle qui met en regard l’explication commercial et l’explication technologique et qui constate que les deux… importent.) De même, comme je l’ai mentionné, Harrison constate elle-même que le commerce a indéniablement un impact.

Il y a au moins trois domaines où les conférenciers semblent être d’accord ensemble.

(1) Se retirer de la mondialisation serait extrêmement coûteux pour les Etats-Unis et le reste du monde. DeLong souligne que l’ALENA a des effets asymétriques. Même s’il pense que l’ALENA (en l’occurrence, le commerce avec le Mexique) a eu un impact minuscule sur les destructions d’emplois aux Etats-Unis, une sortie du NAFTA aurait aujourd’hui un énorme impact négatif en raison du nombre et de la densité des échanges qui ont été créés ces deux dernières décennies. Tout le monde s’accorde pour dire que c’est une folie de se retirer de la mondialisation et de retourner au protectionnisme.

(2) Tout le monde s’accorde pour dire que les économistes ont sous-estimé l’impact du commerce international. Comme Autor le souligne, les bénéfices de l’ouverture (l’accès à des biens moins chers) sont diffus, tandis que les coûts sont concentrées (certains perdent leur emploi). Selon Krugman, c’est parce que les économistes, emmurés dans leur "joyau de la couronne de l’économie" (en l’occurrence, la théorie des avantages comparatifs), ont eu tendance à se focaliser sur les effets moyens, pas sur l’hétérogénéité des effets. Il pense que c’est ce qui a maintenant changé. Sur une note plus philosophique, Autor a jouté que les travailleurs sont des gens (oui) et que même si les mécanismes compensateurs pour les pertes d’emploi étaient efficaces (ce qui n’est pas le cas selon Ann Harrison), les gens désirent avoir des emplois valorisants et de hauts salaires plutôt que de vivre des prestations sociales.

(3) L’épisode chinois ne va pas se reproduire. Comme je l’ai mentionné, c’est l’idée que Krugman a introduit dans sa déclaration d’ouverture, mais elle a été développée ensuite par DeLong et Autor. DeLong pense que la Chine sera le dernier exemple d’un développement tiré par les exportations. Ce mode de développement a été rendu possible par la volonté des Etats-Unis de s’ouvrir aux importations asiatiques (ce qui bénéficia auparavant au Japon et à la Corée du Sud) et par le désir du reste du monde de couvrir les déficits américains en engrangeant des capitaux aux Etats-Unis. DeLong a donc abordé des problèmes d’économie politique mondiale qui transformèrent paradoxalement l’économie la plus riche au monde en importateur de capitaux plutôt qu’en exportateur de capitaux. (…) Mais si l’épisode chinois est effectivement exceptionnel (…), cela signifie que les dynamiques que connaît actuellement le marché du travail américain ne se reproduiront pas.

Ce fut une bonne soirée. De grands économistes (…) ont débattu à la régulière et ont abouti à un certain consensus. Nous sommes retournés en 1817, l’année où Ricardo fit jouer un grand rôle au commerce et à la technologie dans ses Principes (en l’occurrence, sans le fameux chapitre XXXI). »

Branko Milanovic, « El super clasico: trade and technology duke it out at CUNY », in globalinequality (blog), 27 avril 2017. Traduit par Martin Anota



aller plus loin...

« Pourquoi les travailleurs américains se sont-ils appauvris ? »

« La concurrence chinoise et le déclin de l’emploi américain »

« Mondialisation versus technologie »

« Les robots, l’emploi et le paradoxe de Polanyi »

lundi 1 mai 2017

Le Brexit commence (probablement) à freiner la croissance britannique

« Quand la Banque d’Angleterre prévoyait au lendemain du référendum du Brexit une croissance de 0,8 % du PIB en 2017, elle s’attendait à ce que la croissance de la consommation déclinerait à juste 1 %, avec seulement une petite baisse du ratio d’épargne. Mais la croissance de la consommation s’est révélée être bien plus robuste durant la deuxième moitié de l’année 2016 que ne l’attendait la Banque d’Angleterre. Comme ce graphique (…) le montre, quasiment toute la croissance du PIB en 2016 était inférieure à celle de la croissance de la consommation, une dynamique qu’elle a correctement décrite comme insoutenable. (Si la consommation croît, mais que les autres composantes du PIB ne le font pas, cela signifie que les ménages puisent dans leur épargne. Cela ne peut continuer indéfiniment.)

GRAPHIQUE Variations du PIB réel par tête du Royaume-Uni et de ses composantes

Simon_Wren-Lewis__Variations_du_PIB_reel_par_tete_du_Royaume-Uni_et_de_ses_composantes.png

Cette forte croissance de la consommation en 2016 a incité la Banque d’Angleterre à changer sa prévision. En février, elle prévoyait pour 2017 une croissance de 2 % pour la consommation et pour le PIB et une chute substantielle du taux d’épargne.

Qu’est-ce qui s’est passé ici ? En août, la Banque d’Angleterre pensait que les ménages prendraient conscience que le Brexit entraînerait une chute significative de la croissance du revenu futur et qu’ils commenceraient par conséquent à réduire leurs dépenses de consommation. Quand il apparut que ce n’était pas le cas, la Banque d’Angleterre sembla faire l’hypothèse inverse, c’est-à-dire supposer que les ménages penseraient que le Brexit aurait peu d’impact sur la croissance de leur revenu futur. Par conséquent, la Banque d’Angleterre prévoyait en février que le taux d’épargne déclinerait davantage en 2018 et en 2019, comme je l’ai noté ici. Elle supposait ainsi que les ménages seraient continuellement surpris par une croissance du revenu plus faible qu’ils ne l’attendaient.

La première estimation pour le PIB du premier trimestre 2017 qui a été publiée hier suggère une croissance de seulement 0,3 %, soit la moitié de ce que prévoyait la Banque d’Angleterre en février. Cette faible croissance semble s’expliquer par la faiblesse des secteurs associés à la consommation (malheureusement, nous n’obtiendrons le chiffre exact de la croissance de la consommation qu’avec la publication de la deuxième estimation du PIB). Donc que se passe-t-il ?

Il y a trois explications possibles. La première, qui est la moins probable, est que le premier trimestre 2017 constitue juste une anomalie. La deuxième est que de plus en plus de consommateurs commencent à réaliser que le Brexit va détériorer leur situation (j’ai noté ici que certains résultats de sondages qui le suggèrent) et qu’ils ajustent en conséquence leurs dépenses. La troisième est que la consommation était forte à la fin de l’année 2016 parce que les ménages achetaient des biens étrangers avant que leurs prix ne grimpent en conséquence de la dépréciation de la livre sterling provoquée par le référendum du Brexit.

Si vous m’avez suivi jusqu’à présent, vous devez savoir qu’il est bien difficile d’établir ce genre de prévision et que le tapage que les partisans du Brexit ont fait à propos des prévisions de la Banque d’Angleterre était peu fondé et ainsi probablement prématuré. Tout ce que Philip Hammond a réussi à dire à propos des dernières prévisions de la croissance, c’est qu’elles démontrent la nécessité de mettre en place un gouvernement "fort et stable" ! Je pense, cependant, que nous entendrons moins parler de la robustesse de notre économie ces prochaines semaines.

Bien sûr, la croissance peut s’accélérer au cours des prochains trimestres, en particulier si les entreprises tirent avantage de la bonne situation qu’a temporairement provoquée la dépréciation avant que s’officialise la sortie du Royaume-Uni hors de l’UE. Les prévisions ne sont presque jamais vérifiées. Mais même si c’est le cas, je ne pense que la plupart des journalistes n’ont pas encore réalisé à quel point il est inapproprié d’utiliser le PIB comme mesure de la santé économique après une large dépréciation. Dans la mesure où la dépréciation renchérit le prix des biens étrangers, les habitants au Royaume-Uni peuvent voir se détériorer leur revenu réel et par conséquent leur bien-être même si le PIB croît. Comme je l’ai souligné ici, cela explique pourquoi les gains réels ont chuté depuis 2010 même si nous avions une croissance (certes faible mais) positive du PIB réel par tête et, comme je l’ai souligné ici, pourquoi le Brexit va détériorer la situation du citoyen moyen du Royaume-Uni même si la croissance du PIB ne décline pas. Si celle-ci décline, cela ne fera qu’aggraver les choses. »

Simon Wren-Lewis, « The Brexit slowdown begins (probably) », in Mainly Macro (blog), 29 avril 2017. Traduit par Martin Anota

vendredi 28 avril 2017

Henry Farrell, les économistes et l’austérité

« Henry Farrell a publié un article dans le Washington Post où il lie une analyse (qu’il publiera prochainement avec John Quiggin) à un débat qui a impliqué de nombreux blogueurs autour du rôle des économistes universitaires dans la promotion (ou non) de l’austérité. Le papier est très riche dans les détails historiques et Farrell suggère que les politiciens étaient d’accord pour adopter un plan de relance quand les économistes semblaient avoir trouvé un consensus dans leurs préconisations, mais le passage à l’austérité s’amorça lorsque les économistes se montrèrent plus divisés.

Je tends à être d’accord avec cette idée de Kevin Drum. Selon ce dernier, les politiciens ont fondamentalement fait ce qu’ils voulaient faire et les économistes ont simplement été utilisés pour cautionner leurs décisions. C’est l’argument que j’ai finalement avancé dans mon analyse sur la théorie générale de l’austérité. Nous en trouvons une bonne illustration dans le cas du Royaume-Uni. George Osborne s’est opposé à la relance budgétaire en 2009 et ce qui changea, c’est qu’il devint le Chancelier en 2010. Il n’y a pas eu de changement de point de vue, juste un changement dans la composition de l’élite au pouvoir.

Un exemple qui va mieux avec l’idée de Farrell est l’Allemagne. Il affirme que les politiciens allemands étaient persuadés à conduire la relance en 2009 par la (surprenante) unanimité de leurs propres économistes, mais embrassèrent l’austérité lorsque les économistes allemands changèrent d’avis. Sur ce point, il peut avoir raison. Mais même ici je pense que vous pouvez développer un autre récit, qui met l’accent sur ce que les politiciens craignent le plus. En 2009, ils s’étaient inquiétés (avec raison) à l’idée de connaître une autre Grande Dépression et ainsi leur instinct les poussa à suivre leurs conseillers économiques qui nourrissaient exactement la même crainte. En 2010, cette peur s’était effacée et une autre inquiétude prit sa place (pour les politiciens et pour les économistes allemands enclins à l’austérité), portant cette fois-ci sur la dette européenne.

(…) Aux Etats-Unis et au Royaume-Uni, (…) les Républicains et les Conservateurs gagnèrent assez de pouvoir pour mettre en œuvre la politique qu’ils voulaient depuis toujours mettre en œuvre. C’est ce que j’ai appelé par le passé la "tromperie du déficit" (deficit deceit) : réduire la taille de l’Etat en prenant prétexte des craintes que suscitait le déficit public. Certes le Trésor et le Gouverneur de la Banque d’Angleterre encouragèrent George Osborne, mais je pense que ce dernier aurait, même sans leur soutien, agi comme il a agi : il n’a jamais été quelqu’un prêt à laisser l’économie l’empêcher d’atteindre un but politique.

Mais comme Drum le dit, le tableau n’est pas entièrement sombre pour les économistes. Selon lui, "si nous avions répondu à la crise financière de 2007-2008 de la même manière que nous avions réagi à la crise financière de 1929-1932, nous serions toujours en train d’attendre une répétition de la Seconde Guerre mondiale pour nous ramener à la normale". Je suis embêté quand les gens me demandent ce que les économistes ont fait au cours de la dernière décennie pour mériter le respect. Nous avons évité une autre Grande Dépression, c’est tout. Cela a peut-être été la première priorité des politiciens, mais nous leur avions dit ce qu’il y avait à faire, comme Farrell le met en évidence.

Mais lorsque Farrell suggère que l’austérité aurait pu être évitée si les économistes étaient restés d’accord entre eux, je pense qu’il a tort. L’année 2016 a bien démontré que la politique pouvait réellement ignorer le consensus des économistes universitaires. Même s’il est important de ne pas cesser de marteler à quel point l’austérité a été une erreur et qu’elle n’a été recommandée que par une minorité d’économistes, nous devons surtout nous demander pourquoi par moments la majorité peut être si facilement ignorée sur des questions pour lesquelles les économistes en savent bien plus que n’importe qui d’autre. »

Simon Wren-Lewis, « Henry Farrell on economists and austerity », in Mainly Macro (blog), 13 avril 2017. Traduit par Martin Anota



aller plus loin... lire « Vers une théorie générale de l’austérité »

mercredi 26 avril 2017

L’excédent combiné de l’Asie et de l’Europe est resté élevé en 2016

« Il y a longtemps, j’ai avoué que j’aimais lire les Perspectives de l’économie mondiale du FMI du début à la fin. Bon, il est vrai que j’ai sauté quelques chapitres. Mais je prête une attention particulière aux tables de données du FMI (la base de données électronique des Perspectives de l’économie mondiale est aussi très bien faite, même si elle manque malheureusement de données relatives à la balance des paiements).

GRAPHIQUE 1 Solde du compte courant des pays excédentaires d’Asie et d’Europe (en milliards de dollars)

Brad_Setser__Solde_courant_des_pays_excedentaires_d_Asie_et_d_Europe.png

Et les tables de données montrent que l’excédent de compte courant combiné de l’Europe et des pans manufacturés de l’Asie (un excédent qui reflète l’excédent d’épargne de l’Asie et la faiblesse relative de l’investissement de l’Europe) est resté assez élevé en 2016. L’excédent de la Chine a un peu baissé en 2016, mais cela n’a pas réellement réduit l’excédent total des principaux exportateurs asiatiques de biens manufacturiers.

GRAPHIQUE 2 Soldes de compte courant de la Chine, du Japon et des nouveaux pays industrialisés d'Asie (en milliards de dollars)

Brad_Setser__Soldes_courants_Chine_Japon_nouveaux_pays_industrialises.png

L’essentiel de la chute de l’excédent chinois a été compensé par une hausse de l’excédent japonais. Les tableaux de données des Perspectives de l’économie mondiale suggèrent que les exportations nettes représentaient environ la moitié de la croissance de 1 % du Japon ; la croissance japonaise ne repose toujours pas sur une expansion de la demande interne. Et l’excédent combiné de la Corée du Sud, de Taïwan, de Singapour et de Hong Kong reste bien plus ample qu’avant la crise financière mondiale de 2008. Les nouveaux pays industrialisés d’Asie (la Corée du Sud, Taïwan, Hong Kong et Singapour) génèrent maintenant collectivement un excédent plus large que la Chine. Par conséquent, en termes de dollars (et aussi relativement au PIB des partenaires à l’échange asiatiques), l’excédent combiné de l’Asie « manufacturière » n’a pas beaucoup baissé au cours des dix dernières années.

La taille de l’excédent combiné de l’Europe et de l’Asie manufacturière signifie nécessairement que d’autres pans majeurs du monde connaissent de larges déficits dans les biens manufacturés. (…) Les gros exportateurs de pétrole et de gaz vont fondamentalement échanger du pétrole contre des biens étrangers (et des vacances) et des parties de l’Asie et de l’Europe vont également avoir à échanger des biens manufacturés contre de l’énergie. Mais les gros pays exportateurs de biens manufacturés d’Asie et d’Europe ne peuvent pas maintenir des excédents aussi massifs en l’absence d’un déficit commercial américain ; ce dernier est aujourd’hui aussi large qu’en 2005 et en 2006. Il y a tellement de manières par lesquelles la balance des paiements courants mondiale peut s’équilibrer.

Tandis que l’excédent de parties clés de l’économie mondiale n’a pas beaucoup changé, la nature des afflux financiers qui canalisent l’excédent de compte courant d’Europe et d’Asie (leurs excédents d’épargne) au reste du monde a certainement changé. Mis à part quelques pays (la Suisse et peut-être Singapour), les gouvernements ne canalisent pas directement les fonds à l’étranger via l’accumulation de réserves et d’actifs par leurs fonds souverains.

(…) La croissance des avoirs officiels a été corrélée avec la forte accumulation de leur excédent combiné avant la crise (pour aller plus loin, voir le document de travail de Joe Gagnon de 2013 et le livre qu’il devrait prochainement publier avec Fred Bergsten) et les pays qui ont historiquement contribué à l’essentiel de l’accumulation de réserves réduisent maintenant leur stock d’actifs.

De manière générale, au cours des dix dernières années, l’excédent d’Asie n’a pas beaucoup changé tandis que l’Europe a remplacé les exportateurs de pétrole comme deuxième grande source derrière les déséquilibres de paiements mondiaux. Et les sorties de capitaux privés plutôt sont devenues la principale contrepartie financière aux amples excédents de compte courant dans le monde à la place des sorties de capitaux officiels. Cela se révèle important pour la composition des afflux de capitaux vers les Etats-Unis : le monde achète moins de bons du Trésor et plus d’obligations d’entreprises américaines ; bien que l’Asie semble aussi avoir repris confiance envers Freddie et Fannie.

Les assureurs taïwanais, les fonds de pension coréens et les banques japonaises ont plus de tolérance vis-à-vis du risque que les traditionnels gestionnaires de réserves des banques centrales. C’est également vrai pour les assureurs allemands, les fonds de pension danois et les gestionnaires de réserves de Suisse, qui ont plus de liberté que la plupart de leurs contreparties pour acheter des actions et des obligations d’entreprises en plus des actifs de réserves traditionnels. De tels changements dans la composition des afflux vers les Etats-Unis peuvent contribuer à expliquer pourquoi le FMI constate que, relativement aux fondamentaux, les spreads des entreprises américains semblent un peu serrés.

Un dernier point : Le Trésor américain soupçonne que cette chute de la croissance des réserves est en grande partie une fonction de la force du dollar et il a exprimé ses inquiétudes à l’idée que cela puisse ne pas être durable dans son plus récent rapport sur les changes étrangers.

Je suis généralement d’accord : les banques centrales du monde sont historiquement bien plus intervenues quand le dollar était faible que lorsque le dollar était fort. Les pays qui connaissent les plus amples excédents doivent utiliser les bilans de leurs administrations publiques quand le marché ne veut pas financer le déficit externe américain. Mais je soupçonne aussi que les plus grands pays excédentaires au monde sont désormais un peu plus compétents que dans le passé pour dissimuler leurs interventions ; les fonds souverains peuvent garder leurs actifs étrangers hors des comptes de la banque centrale, les fonds de pension publics font souvent le gros du travail et, dans le cas de la Chine, la croissance des prêts étrangers des banques publiques chinoises est susceptible d’avoir réduit structurellement le rythme de la croissance des réserves en période favorable. Quand l’intervention revient, cela peut ne pas être principalement via l’usage de bilans de banques centrales. »

Brad Setser, « The combined surplus of Asia and Europe stayed big in 2016 », in Follow the Money (blog), 20 avril 2017. Traduit par Martin Anota



aller plus loin...

« La fin des déséquilibres globaux ? »

« Pourquoi les déséquilibres globaux se sont-ils résorbés ? »

« Les déséquilibres globaux sont-ils à un tournant ? »

« Adopter le modèle allemand ou sauver l’euro »

lundi 24 avril 2017

Inégalités ou pauvreté ?

« Tony Blair a dit un jour : "s’il y a des gens qui gagnent beaucoup d’argent. Ce n’est pas mon problème. Je m’inquiète pour les personnes qui sont dépourvus d’opportunités, désavantagés et modestes". La plupart des gens, notamment le gouvernement travailliste, interprétèrent ces phrases comme se focalisant sur la pauvreté plutôt que sur les inégalités. (…)

J’ai récemment vu de la part de Miles Kimball une défense très claire de l’idée selon laquelle la pauvreté importerait plus que les inégalités. Il tire son raisonnement d’enquêtes qui cherchent à quantifier un principe fondamental de l’économie : la décroissance de l’utilité marginale. Il cite des résultats qui suggèrent qu’un euro de revenu signifie bien plus à une personne qui gagne la moitié du salaire moyen qu’à une personne qui gagne le double du salaire moyen. Il suggère que ces résultats tendent à valider le second principe de justice sociale avancé par John Rawls. Si nous le simplifions, nous pouvons dire que nous n’avons pas à nous inquiéter de trop des riches parce qu’un supplément de monnaie ne leur rapporte qu’un faible supplément d’utilité, si bien que nous devons nous focaliser sur la seule réduction de la pauvreté.

Maintenant, bien sûr, ce point n’est pas pertinent si nous réduisons la pauvreté en taxant les riches. Les riches sont une très bonne source d’argent, parce que l’argent ne leur manque pas. L’importance transparaît si nous comparons deux sociétés : une qui n’a pas de pauvres, mais qui a beaucoup de personnes très riches ; une autre qui n’a pas de riches, mais qui a toujours des pauvres. Selon Miles, nous devons préférer la société sans pauvreté à celle sans super-riches. D’un point de vue statique, je pense qu’il a raison, mais j’ai quelques inquiétudes, comme je vais le voir à présent, sur le plan dynamique.

Il y a un paragraphe intéressant au début du billet de Miles : "(…) J’admets que le montant de richesse détenue par les ultra-riches est vraiment astronomique et qu’il est important de s’assurer que les ultra-riches n’utilisent pas leur richesse pour prendre entièrement contrôle de notre système politique. Il est crucial d’observer et d’étudier en détails les diverses façons par lesquelles les ultra-riches influencent la politique. Mais en laissant de côté l’idée que les ultra-riches puissent subvertir notre système politique, nos inquiétudes vis-à-vis des inégalités doivent se focaliser sur la façon par laquelle nous prenons soin des pauvres ; il est important de savoir si l’argent nécessaire pour aider les pauvres provient des classes moyennes ou des riches, mais c’est moins important que le fait même de prendre soin des pauvres".

Je vais aller plus loin que Miles. Si l’argent importe si peu aux très riches, pourquoi voudraient-ils alors s’enrichir à un degré astronomique et contrôler le système politique pour s’assurer qu’ils gagnent même plus encore ? La réponse vient précisément du même concept qu’utilise Miles. Si 1.000 euros ne signifie rien pour vous parce que vous êtes très riche, vous allez plutôt chercher à gagner 10.000 euros ou 100.000 euros en plus. Le fait que les ultra-riches aient un si grand patrimoine n’est pas un simple accident, mais peut résulter du principe même que Miles explore : la décroissance de l’utilité marginale. Les riches ne sont pas différents des autres, dans le sens où ils veulent eux aussi être satisfait, sauf qu’ils ne peuvent y parvenir qu’en gagnant de larges montants d’argent.

(...) Considérons l’argument mis en avant par Piketty, Saez et Stantcheva dont j’ai discuté ici. Pourquoi est-ce que la part du revenu avant impôt des 1 % les plus riches s’est autant accrue au Royaume-Uni et aux Etats-Unis, c’est-à-dire précisément dans deux pays qui ont connu dans les années 1980 une forte réduction des taux d’imposition des plus hauts revenus ? L’argument que Piketty et ses coauteurs avancent est qu’avec des taux d’imposition punitifs, il y a peu d’incitations pour les PDG et les autres salariés très rémunérés à utiliser leur pouvoir de monopole pour extraire des rentes (…) de leur entreprise. Cela ne vous rapporterait que très peu d’argent après imposition, si bien que cela ne vous permettrait pas d’accroître de beaucoup votre satisfaction. Mais si les taux d’imposition marginaux diminuent, il est désormais rentable pour ces individus de se lancer dans l’extraction de rentes.

Comme je l’ai discuté ici, la culture du bonus est l’une des façons d’extraire des rentes qui a été stimulée par la réduction des taux marginaux d’imposition. (…)

Donc je peux prendre le même principe fondamental sur lequel s’appuie Miles et pourtant arriver à une bien différente conclusion. Une fois que nous donnons à ceux qui sont au sommet l’opportunité de gagner de très hauts revenus et que la seule façon par laquelle ces individus peuvent d’obtenir une satisfaction supplémentaire est de s’embarquer dans la quête de rentes, nous les incitons alors à tourner leurs efforts hors des activités socialement bénéfiques (…). Quand leurs efforts visent à influencer le système politique, nous avons en sérieux problème. Ces activités peuvent culminer en prenant le dessus sur le système politique, ce qui est précisément ce qui s’est passé aux Etats-Unis, avec des répercussions potentiellement désastreuses. Ne serait-ce que pour cette seule raison, les inégalités importent autant que la pauvreté. »

Simon Wren-Lewis, « Inequality or poverty », in Mainly Macro (blog), 18 avril 2017. Traduit par Martin Anota



Ni l'inégalité, ni pauvreté

« (…) Des réductions d’impôts, de plus généreuses pensions, plus d’emplois et une hausse du salaire minimum ont contribué à réduire la pauvreté au Royaume-Uni, mais le gouvernement de Blair fit en parallèle peu de choses pour restreindre la hausse des très hauts revenus.

Cela néglige malheureusement quelque chose : les maths. Si les riches s’enrichissent et si la situation des pauvres s’améliore, alors à un niveau de revenu donné, la situation de quelqu’un doit se dégrader. La "société blairiste" avec des super-riches, mais peu de pauvres, est une société dans laquelle la classe moyenne est relativement pauvre.

Ce n’est pas sans poser problème, peut-être surtout d’un point de vue conservateur. Comme Deirdre McCloskey l’a suggéré, une société bourgeoise incarne les vertus de la retenue, de la justice et du respect d’autrui. Une société blairiste où "le gagnant rafle tout" les met à mal : pourquoi travailler dur à l’école et à l’université (et s’endetter fortement) quand cela ne permet d’avoir qu’un emploi précaire et peu d’espoir d’avoir un logement décent ? Et une classe moyenne précarisée et aigrie menace aussi la stabilité politique. En 2013, Fraser Nelson écrivait : "Nos classes moyennes (qui constituent pourtant une grande force stabilisatrice dans notre société) se contractent rapidement. Il est difficile d’imaginer la bourgeoisie britannique descendre dans la rue, mais un jour ou l’autre bientôt ils pourraient faire demi-tour et dire :'Désolé, mais nous sommes plutôt dingues et nous ne supporterons plus cela'." Peut-être que le Brexit, l’UKIP et la hausse des sentiments insulaires, anti-marché lui donnèrent raison : les inégalités peuvent être mauvaises pour la liberté économique.

Bien sûr, je ne m’inquièterais pas si la société blairiste menait à une croissance plus rapide et donc à un plus gros gâteau pour tous. Malheureusement ce n’est pas le cas. C’est en fait plutôt l’opposé. Depuis le milieu des années 1990, la croissance du PIB par tête a ralenti.

Et cela peut s’expliquer par le virage blairiste. Simon a raison de dire que les super-riches s’engagent dans la quête de rentes. Mais cela n’est pas confiné aux choses comme l’ingérence d’Arron Banks dans la politique politique. Cela affecte aussi le monde du travail : la hausse de la rémunération des PDG s’est faite aux dépens des actionnaires et des travailleurs. Et il y a diverses raisons amenant à penser qu’une hausse de la part du revenu détenue par les super-riches réduit la croissance économique. Par exemple, elle mène à l’adoption de mauvaises politiques en réduisant la confiance.

Miles a peut-être raison lorsqu’il dit qu’il vaut mieux avoir une société avec de nombreux ultra-riches et sans pauvres plutôt qu’une société dans laquelle il y a de la pauvreté et aucun super-riche. Mais (…) cela omet une troisième option : une société dans laquelle il n’y a ni pauvres, ni super-riches. C’est ce que nous devrions rechercher.

Une dernière chose : Oui, je sais que le coefficient de Gini a chuté ces dernières années. Mais cela nous dit peu de choses : la société blairiste peut avoir un faible Gini parce qu’il y a un faible écart entre les classes moyennes et les pauvres même si les riches sont très riches. »

Chris Dillow, « Neither inequality nor poverty », in Stumbling & Mumbling (blog), 19 avril 2017. Traduit par Martin Anota

vendredi 21 avril 2017

Nous savons ce qui provoque les déficits commerciaux



« Le 31 mars, le Président Donald Trump a commandé une étude sur les causes du déficit commercial des Etats-Unis qui va se focaliser sur les barrières commerciales et les pratiques commerciales déloyales des pays étrangers. Les économistes, cependant, s’accordent largement à l’idée que les barrières commerciales ne provoquent pas les déficits commerciaux. Un pays ne peut avoir un déficit commercial que s’il emprunte en net vis-à-vis du reste du monde. Les barrières commerciales ont seulement des effets mineurs sur les décisions d’emprunt et de prêt. Elles peuvent réduire les importations dans les secteurs affectés, mais elles poussent le taux de change à s’apprécier pour provoquer des changements compensateurs sur d’autres importations et exportations.

Les achats de titres américains par certains gouvernements étrangers (une forme de prêt que l’on peut qualifier de manipulation de devise) ont constitué le facteur le plus important derrière les déséquilibres commerciaux globaux qui ont précédé la Grande Récession ; les déficits budgétaires ont pu également jouer un rôle important dans certains pays. A présent, la manipulation de devise ne constitue plus qu’un facteur mineur et les déséquilibres sont faibles par rapport à leur pic. La menace d’une future manipulation de devise peut cependant introduire un "dollar put" implicite qui aura pour effet d’encourager le prêt privé excessif qui sous-tend le déficit commercial. Une expansion budgétaire américaine, à laquelle certains s’attendent, n’est pas appropriée à ce stade et creuserait le déficit commercial.

Il est important de souligner que le commerce n’est pas un jeu à somme nulle dans lequel les importations constituent des pertes et les exportations des gains. Les importations, tout comme les exportations, possèdent des avantages (…). Réduire le déficit commercial en réduisant le commerce global conduirait à jeter le bébé avec l’eau du bain. En outre, les déficits commerciaux temporaires modérés ne sont pas nécessairement une mauvaise chose, comme l’a expliqué Gary Hufbauer. Maintenant, le déficit commercial des Etats-Unis dépasse déjà un niveau soutenable et devrait continuer de se creuser dans les années à venir. Les actions visant à réduire le déficit sont bénéfiques si elles peuvent être entreprises sans générer de pernicieux effets secondaires. L’action du côté financier sera plus efficace et moins perturbateur que les actions du côté de la politique commercial, telles que les droits de douane et les quotas.

Plusieurs études ont identifié les facteurs fondamentaux derrière les déséquilibres commerciaux (Chinn et Prasad, 2003 ; Gruber et Kamin, 2008 ; Chinn, Eichengreen et Ito, 2011 ; Gagnon, 2012 ; FMI, 2012 ; Gagnon, 2013 ; Bayoumi, Gagnon et Saborowski, 2015 ; Gagnon et alii, 2017). Les facteurs les plus importants incluent la politique budgétaire, l’intervention sur le marché des changes, les taux de croissance économiques, les niveaux de revenu par tête et le vieillissement démographique. Les barrières sur les flux financiers interagissent fortement avec ces facteurs : quand les marchés financiers sont ouverts, ces facteurs ont généralement un effet plus important sur les déséquilibres commerciaux. Plusieurs études se sont focalisées sur les facteurs de long terme, mais les cycles d’affaires peuvent aussi constituer un important facteur temporaire. Aucune de ces études ne met en évidence un rôle pour les barrières commerciales.

GRAPHIQUE 1 Tarifs douaniers et soldes courants (entre 2000 et 2014)

Joseph_Gagnon_PIIE__Tarifs_douaniers_et_soldes_courants__Martin_Anota_.png

Les graphiques 1 et 2 montrent une très faible corrélation entre, d’une part, les droits douaniers moyens ou les barrières commerciales et, d’autre part, les soldes commerciaux. Lorsqu’une relation semble apparaître, elle suggère que de plus hauts droits douaniers sont associés à une réduction des soldes commerciaux (c’est-à-dire de plus larges déficits commerciaux). Inclure les tarifs douaniers dans l’analyse de régression tout en contrôlant les autres facteurs rapporte un effet proche de zéro. Les données pour les barrières commerciales globales ne sont pas disponibles pour un temps suffisamment long pour les inclure dans l’analyse de régression.

GRAPHIQUE 2 Barrières globales et soldes courants (entre 2000 et 2014)

Joseph_Gagnon_PIIE__Barrieres_globales_et_soldes_courants__Martin_Anota_.png

Ces résultats ne signifient pas que les tarifs douaniers et d’autres barrières commerciales n’aient pas d’effets. Imaginons que les Etats-Unis imposent des tarifs prohibitifs ou une interdiction sur les importations d’acier. Les importations totales de fer et d’acier s’élevaient à 34 milliards de dollars en 2016. Ces importations chuteraient à zéro. L’interdiction protègerait les sidérurgistes américains de la concurrence étrangère. Mais une légère appréciation du dollar (juste de 1 %) suffirait pour accroître le montant des importations dans les autres catégories et réduirait les exportations de toutes les catégories du même montant. Il n’y aurait pas d’effet sur le déficit commercial global. Il y aurait une réduction du commerce total (c’est-à-dire de l’ensemble des exportations et des importations), si bien que nous perdrions une grande partie des très larges bénéfices nets du commerce.

GRAPHIQUE 3 La politique budgétaire et les soldes courants (entre 2000 et 2014)

Joseph_Gagnon_PIIE__politique_budgetaire_et_soldes_courants__Martin_Anota_.png

Pourquoi est-ce que le dollar s’apprécierait ? La réponse est qu’un droit douanier sur l’acier, isolément, ne modifie pas le comportement d’épargne des ménage, ni le comportement d’investissement des entreprises (bien qu’il puisse y avoir une réallocation entre les secteurs, comme la production augmente dans le secteur de la sidérurgie, mais décline dans les autres). Les facteurs identifiés comme influençant les déséquilibres commerciaux dans les études que j’ai citées ci-dessus opèrent via l’épargne et l’investissement. Un déficit commercial est un excès de l’investissement sur l’épargne, tandis qu’un excédent commercial est un excès de l’épargne sur l’investissement. Les politiques publiques les plus importantes qui influencent les déséquilibres commerciaux sont les soldes budgétaires et l’intervention sur le marché des changes. Une hausse du solde budgétaire accroît directement l’épargne nationale. L’intervention sur le marché des changes consiste pour les autorités à emprunter dans l’économie domestique pour investir à l’étranger, avec un changement net nul dans l’épargne public ou l’investissement public. L’emprunt domestique accroît les taux d’intérêt, accroissant l’épargne privée et réduisant l’investissement privé dans l’économie domestique, avec les effets inverses dans le reste du monde. Les graphiques 3 et 4 montrent que ces politiques ont d’importants effets sur les soldes commerciaux. Notons qu’une hausse du solde commercial provoquée par n’importe laquelle de ces politiques opère aussi bien via un accroissement des exportations que via une réduction des importations, avec peu d’effets sur le commerce total et donc peu d’effets sur les bénéfices nets du commerce.

GRAPHIQUE 4 Politique de change et soldes courants (entre 2000 et 2014)

Joseph_Gagnon_PIIE__politique_de_change_et_soldes_courants__Martin_Anota_.png

(…) Fred Bergsten et moi avons constaté qu’au pic des déséquilibres mondiaux en 2007, l’essentiel de l’excédent commercial de la Chine pouvait s’expliquer par la manipulation de la devise chinoise. La même année, le déficit commercial américain s’expliquait pour 35 % par les interventions sur les marchés des changes et pour 25 % par le déficit budgétaire américain. Cela nous amène à penser qu’à l’avenir les politiques les plus efficaces pour garder le déficit commercial américain sur une trajectoire soutenable impliquent d’empêcher de nouvelles manipulations de devises parmi les partenaires à l’échange des Etats-Unis et de réduire graduellement le déficit budgétaire américain.

Joseph E. Gagnon, « We know what causes trade deficits », 7 avril 2017. Traduit par Martin Anota

mardi 18 avril 2017

Comment la Fed doit-elle réagir à la borne inférieure zéro ?


« (…) En utilisant des modèles économétriques pour simuler la performance de l’économie américaine, Michael Kiley et John Roberts ont constaté que, sous certaines hypothèses, les taux d’intérêt de court terme pourraient être à l’avenir à zéro entre 30 % et 40 % du temps, ce qui réduirait la marge dont dispose la Fed pour assouplir sa politique monétaire lorsque cela est nécessaire. Par conséquent, leurs simulations prédisent que la future performance économique sera en moyenne molle, avec une inflation bien inférieure à la cible de 2 % que suit la Fed et avec une production inférieure à son potentiel. (…) La Fed doit maintenant expliquer comment elle fera face aux prochains épisodes où ses taux seront contraints par leur borne zéro. Dans ce billet, je vais discuter des avantages et inconvénients d’une proposition majeure, qui consisterait pour la Fed à relever sa cible d’inflation officielle. Les arguments en faveur de cette proposition sont, au mieux, nuancés. En me basant sur les analyses de Kiley et Roberts, je vais ensuite considérer certaines alternatives que je crois plus prometteuses.

Les arguments en faveur du relèvement de la cible d’inflation

Le risque de buter sur la borne inférieure zéro dépend surtout du niveau « normal » des taux d’intérêt, c’est-à-dire du niveau des taux que l’on s’attend à voir prévaloir lorsque l’économie opère au plein emploi avec une stabilité des prix et une politique monétaire neutre. Qu’est-ce qui détermine le taux normal ? En général, un taux d’intérêt peut être exprimé comme la somme du taux réel (ou ajusté à l’inflation) et du taux d’inflation attendu. Les estimations actuelles du taux d’intérêt réel susceptible de prévaloir durant les temps normaux tournent autour de 1 %, bien en-dessous des estimations du passé récent. Avec l’engagement de la Fed à maintenir l’inflation proche de 2 % à plus long terme, un taux réel de 1 % implique que le niveau moyen des taux d’intérêt (nominaux) devrait être à l’avenir autour de 3 %. Comme Kiley et Roberts le montrent via leurs simulations, ce faible niveau accroît grandement le risque que, toute chose égale par ailleurs, la politique monétaire se retrouve contrainte par la borne inférieure zéro. Cela signifie que dans un monde de taux durablement faibles nous pouvons fréquemment nous retrouver dans des situations où la Fed aimerait réduire son taux directeur, mais où elle est incapable de le faire. Cela ne manquera pas de peser sur la performance économique.

Une solution potentielle à ce problème que des économistes d’envergure comme Olivier Blanchard ont proposée consisterait pour la Fed à relever sa cible d’inflation. Supposons par exemple que la Fed fixe sa cible d’inflation à 3 % et que le taux d’intérêt réel normal reste à 1 %. Si les marchés sont confiants quant à la capacité de la Fed à atteindre constamment la cible, alors le niveau normal des taux d’intérêt devrait aussi augmenter. Dans cet exemple, il passerait de 3 % à 4 %, ce qui permettrait d’accroître la marge dont dispose la banque centrale pour réduire son taux d’intérêt en périodes de récession ou de faible inflation.

Le soutien en faveur d’un relèvement de la cible semble s’accroître avec les craintes à propos de la borne inférieure zéro. Dans un récent billet (…), Stephen Cecchetti et Kermit Schoenholtz citent quatre arguments en faveur d’un tel relèvement : i) le déclin persistant des taux d’intérêt normaux ; ii) des constats (comme ceux de Kiley et Roberts) selon lesquels la fréquence et la sévérité des futurs épisodes de borne inférieure zéro pourraient être pires que ce que l’on pensait précédemment, en dépit du faible niveau des taux d’intérêt normaux ; iii) certaines preuves empiriques, tirées d’une étude portant sur les années 1970, suggérant que les coûts d’une plus forte inflation peuvent être moindres que ce que l’on pensait précédemment ; et iv) des calculs qui suggèrent que les mesures d’inflation standards pourraient surévaluer bien plus qu’on ne le pensait la hausse du coût de la vie.

Je vais ajouter un autre avantage important à cette approche : un relèvement de la cible d’inflation de la Fed est une mesure relativement simple à mettre en œuvre et facile à communiquer au public. En particulier, le cadre de politique de la Fed, qui est déjà construit autour du ciblage du taux d’inflation, n’aurait pas à changer.

Quelques arguments contre le relèvement de la cible d’inflation

Il y a cependant certains raisons amenant à penser qu’un relèvement de la cible d’inflation de la Fed puisse ne pas être une aussi bonne idée que ça. Premièrement, beaucoup des récents propos qui ont été tenus à propos le choix optimal d’une cible d’inflation semblent anhistoriques, dans le sens où ils discutent de ce que serait la cible d’inflation idéale 1) si nous partions de rien et 2) si nous étions certains que les conditions présentes persisteraient indéfiniment. Bien sûr, nous ne partons pas d’une table rase : Il a fallu des années de démonstrations de réussites pour que la Fed et les autres banques centrales parviennent à fermement ancrer les anticipations d’inflation du public aux niveaux actuels, ce qui contribua à stabiliser l’inflation et à améliorer les résultats de politique économique. Il peut être difficile et coûteux d’ancrer les anticipations d’inflation (et donc les taux d’intérêt normaux) à un niveau plus élevé, en particulier lorsque, en entreprenant cela, la Fed montre qu’elle désire déplacer la cible pour ce qui apparaît comme étant des raisons tactiques.

Il est probable que les déterminants de la cible d’inflation, tels que le taux d’intérêt réel qui prévaut, les coûts de l’inflation et la nature du mécanisme de transmission de la politique monétaire, changent à l’avenir. Si la Fed relevait sa cible d’inflation aujourd’hui en se basant principalement sur le faible niveau des taux d’intérêt réels, changerait-elle plus tard à nouveau la cible en réponse à de nouveaux changements des fondamentaux ? Il serait important de le clarifier lorsque le premier changement sera entrepris. Dans un monde changeant, caractérisé par une crédibilité imparfaite et une information incomplète, les anticipations d’inflation du secteur privé ne sont pas faciles à gérer. En particulier, le calcul coûts-bénéfices d’un changement de cible doit incorporer les coûts de transition, notamment le risque de générer de l’instabilité sur les marchés et une incertitude économique.

Deuxièmement, bien que qu’il s’avère difficile et controversé de quantifier les coûts économiques de l’inflation, nous savons que l’inflation est très impopulaire parmi la population. Cela peut être dû à des raisons que les économistes jugent peu convaincantes : par exemple, les gens peuvent croire que les hausses de salaire qu’ils reçoivent sont pleinement acquises (c’est-à-dire, qu’elles ne sont pas dues en partie à l’inflation), tout en blâmant l’inflation pour l’érosion du pouvoir d’achat de ces salaires. Ou peut-être que le public perçoit des coûts d’inflation (la plus grande difficulté à calculer et à planifier lorsque l’inflation est élevée, par exemple) que les économistes ont des difficultés à quantifier. Si l’antipathie du public envers l’inflation se justifie dans un sens ou un autre, le relèvement de la cible d’inflation (ou le soutien de l’inflation) serait difficile à mettre en œuvre, ce qui réduirait la crédibilité d’une telle annonce par la Fed. Si le relèvement de la cible n’est pas crédible, les taux d’intérêt normaux ne vont pas s’accroître, si bien que l’objectif même de ce relèvement ne sera pas atteint. D’une perspective politique, il semble que, pour le leadership de la Fed, le relèvement de la cible d’inflation soit dominé par une stratégie consistant à faire preuve d’un plus fort activisme à la borne inférieure, ce qui constitue l’approche que la plupart des économiques considèrent être la plus efficace.

Troisièmement, les analyses théoriques suggèrent qu’un relèvement de la cible d’inflation ne soit dans aucun cas la réponse optimale aux inquiétudes relatives à la borne inférieure. Comme on le comprend désormais bien, la réponse préférée sur le plan théorique (voir ici et pour les formulations classiques) consiste pour la Fed à promettre à l’avance de suive une politique de compensation (make-up) : en l’occurrence, si la présence de la borne inférieure fait que la politique est plus restrictive qu’elle ne l’aurait sinon été, la Fed doit compenser cela en gardant les taux d’intérêt plus faibles plus longtemps après que la borne inférieure ait cessé d’être contraignante, la durée de la période de compensation étant d’autant plus longue que l’épisode de borne inférieure aura été sévère. Si (…) les participants au marché et le public comprennent cette promesse et la jugent crédible, alors l’anticipation d’un assouplissement monétaire dans le futur devrait amortir le déclin de la production et de l’inflation au cours de la période où la borne inférieure est contraignante.

De cette perspective, relever la cible d’inflation est une politique inefficace à deux égards. Premièrement, comme Michael Woodford l’a souligné, cela force la société à supporter les coûts d’une plus forte inflation en tout temps, tandis que sous la politique optimale l’inflation s’accroît seulement temporairement suite aux épisodes de borne inférieure. Deuxièmement, une hausse unique de la cible d’inflation ne calibre pas de façon optimale la vigueur de la réponse de la politique lors d’un épisode de borne inférieure donné à la durée ou à la sévérité de cet épisode. Les simulations de Kiley et Roberts confirment qu’un relèvement de la cible d’inflation permet à la Fed de répondre plus efficacement aux récessions qu’il n’est possible de le faire sous leur scénario de base avec les politiques d’avant-crise. Mais ils constatent aussi que relever la cible d’inflation n’améliore pas autant la performance que certaines stratégies alternatives (voir ci-dessous), et ce même si l’on ignore les coûts d’une hausse permanente de l’inflation associée à une cible plus élevée.

Y a-t-il de meilleures réponses à la borne inférieure qu’un relèvement de la cible d’inflation ?

Si la Fed juge le relèvement de la cible d’inflation comme étant peu efficace, que peut-elle faire d’autre pour réduire la fréquence et la sévérité des futurs épisodes de borne inférieure zéro ? Une possibilité (…) consisterait simplement à reprendre et améliorer les approches utilisées entre 2008 et 2015. Les stratégies que la Fed a utilisées pour répondre à la borne inférieure zéro inclurent initialement une réduction agressive des taux d’intérêt, l’assouplissement quantitatif, le guidage des anticipations (forward guidance) à propos des futures trajectoires de taux d’intérêt et une stratégie de « gestion du risque » qui se traduit par une remontée très prudente de zéro lorsque le temps de la normalisation arrive. Comme je l’ai précédemment noté, beaucoup de responsables au sein de la Fed et d’économistes ont aussi appelé à un usage plus actif de la politique budgétaire lors des forts ralentissements de l’activité. Cette approche plus incrémentale a l’avantage de ne pas requérir de brutaux changements du cadre actuel de la politique de la Fed et certaines études suggèrent que cela peut marcher, du moins avec les ralentissements modérés, même sans soutien de la part de la politique budgétaire. Cependant, il n’est pas clair que cette approche plus conservatrice suffise pour faire face à une très brutale récession qui pousserait les taux à leur borne inférieure pendant une période prolongée.

Si la Fed veut aller plus loin, elle pourrait considérer l’idée de changer ce qu’elle cible, c’est-à-dire d’abandonner le ciblage d’inflation pour cibler une autre variable économique. Plusieurs cibles alternatives ont été proposées et chacune d’entre elles a aussi bien des avantages que des inconvénients. Une possibilité est le ciblage du niveau des prix. En ciblant un niveau des prix, la Fed s’engagerait à compenser les ratés qu’elle a essuyés en recherchant son niveau d’inflation désiré. Par exemple, si l’inflation chute sous 2 % pendant un temps, la Fed compenserait cela en cherchant une inflation supérieure à 2 % jusqu’à ce que l’inflation moyenne soit retournée à 2 %. L’adoption du ciblage du niveau des prix serait préférable au relèvement de la cible d’inflation, comme le ciblage du niveau des prix est à la fois plus cohérent avec le mandat de stabilité des prix de la Fed et comme il se rapproche d’une politique monétaire de compensation optimale. (Suite à un épisode de borne inférieure zéro, une banque centrale ciblant le niveau des prix serait engagée à compenser toute chute de l’inflation.)

Le ciblage du niveau des prix a également des inconvénients. Par exemple, si une hausse des prix du pétrole ou un autre choc d’offre accroît temporairement l’inflation, une banque centrale qui chercherait à cibler le niveau des prix serait forcée à resserrer sa politique monétaire pour pousser à la baisse les taux d’inflation subséquents, même si l’économie est en pleine récession. A l’inverse, une banque centrale qui ciblerait l’inflation peut « regarder au-delà » d’une hausse temporaire de l’inflation, laissant le passé de l’inflation au passé.

Une autre alternative serait d’essayer de mettre en œuvre une stratégie de compensation optimale, consistant pour la Fed à s’engager à compenser les effets de la borne inférieure zéro en maintenant les taux à un faible niveau pendant un certain temps après que la borne inférieure ait cessé d’être contraignante, la durée de cette période de compensation dépendant explicitement de la sévérité de l’épisode de borne inférieure. Kiley et Roberts considèrent diverses politiques de ce type et montrent dans leurs simulations qu’elles réduisent la fréquence des épisodes de borne inférieure zéro et éliminent largement leurs coûts, tout en maintenant l’inflation moyenne proche de 2 %. Il faut toutefois que la banque centrale communique clairement cette approche et s’assure à ce qu’elle soit crédible, puisque la politique ne marchera pas si les participants au marché et le public ne croient pas que la banque centrale respectera sa promesse de garder les taux à un faible niveau. Cependant, la récente expérience de la Fed avec le forward guidance suggère que de tels engagements par les banques centrales peuvent être efficaces. Ils seraient probablement plus efficaces si les principes de cette approche étaient exposés et expliqués en temps normal, lorsque la borne zéro n’est pas contraignante.

Comme le ciblage du niveau des prix et les politiques de compensation sont intimement liées, elles peuvent être combinées de diverses façons. Par exemple, en promettant de ramener le niveau des prix à sa trajectoire tendancielle après une période à la borne inférieure zéro, la Fed peut utiliser le langage du ciblage du niveau des prix pour préciser son engagement à compenser son incapacité à agir adéquatement lorsque les taux étaient à zéro. (…) »

Ben Bernanke, « The zero lower bound on interest rates: How should the Fed respond? », 13 avril 2017. Traduit par Martin Anota



aller plus loin...

« Et si les banques centrales ciblaient une inflation de 4 % ? »

« Quelle est la cible d’inflation optimale ? »

« La stratégie de forward guidance »

« Quelle est l’efficacité du forward guidance à la borne inférieure zéro ? »

« Quels sont les effets macroéconomiques des mesures non conventionnelles de la Fed ? »

lundi 17 avril 2017

L’élasticité de substitution entre capital et travail

« L’élasticité de substitution entre le capital et le travail joue un rôle clé dans les dynamiques de la répartition du revenu entre ces deux facteurs de production. Ce concept a été introduit indépendamment par John Hicks (1932) et Joan Robinson (1933). Il mesure l’ampleur à laquelle les entreprises peuvent substituer du capital au travail lorsque le coût relatif des deux facteurs change. Dans le cas d’une fonction de production Cobb-Douglas, l’élasticité de substitution est égale à l’unité, ce qui signifie que les changements du coût relatif du capital et du travail sont pleinement compensés par une modification des quantités relatives de ces deux facteurs, assurant un partage constant du revenu entre le travail et le capital. Dans le cas plus général, dans lequel la fonction de production prend une forme d’élasticité de substitution constante, l’élasticité de substitution peut être supérieure ou inférieure à l’unité et, par conséquent, la part du revenu du travail peut varier avec les fluctuations des coûts relatifs des facteurs. Par exemple, si l’élasticité de substitution est supérieure à l’unité, une baisse du coût relatif du capital réduit la part du travail dans le revenu. Quand la fonction de production n’a pas une élasticité constante de substitution, l’élasticité de substitution peut dépendre de la quantité du capital et du travail. En principe, l’élasticité de substitution n’a pas à être stable au cours du temps et peut varier d’un secteur à l’autre et d’un pays à l’autre. Dans le secteur des services de transport, par exemple, elle a changé : la substitution du travail s’est fortement accrue avec l’avancée de la technologie de positionnement globale et elle est susceptible de s’accroître davantage à l’avenir avec les voitures autonomes. Elle dépend aussi des compétences des travailleurs : les travailleurs très qualifiés sont considérés comme moins remplaçables par du capital que les personnes peu ou moyennement qualifiées (Krusell et alii, 2000).

En outre, l’élasticité de substitution dépend de la nature des tâches ; les tâches routinières et codifiables sont davantage substituables que celles qui sont plus complexes et sont plus exposées au risque d’être remplacées par du capital lorsque le coût relatif du capital décline. Autor et Dorn (2013) et Goos, Manning et Salomons (2014) constatent que le progrès technique baisé vis-à-vis des tâches routinières a joué un rôle dans la réallocation des travailleurs réalisant des tâches routinières. Cela a contribué à la polarisation des emplois (c’est-à-dire au déclin de la part des emplois moyennement qualifiés dans l’emploi total et ainsi à l’accroissement des parts des emplois qualifiés et peu qualifiés) aux Etats-Unis et en Europe. Parmi les tâches avec une forte élasticité de substitution, il y a par exemple le travail administratif et le travail à la chaîne, à l’inverse des tâches comme la coupe de cheveux et les opérations chirurgicales, qui ne sont pas propices à la substitution.

Au niveau agrégé, l’élasticité de substitution peut différer entre les pays développés et les pays en développement. Les entreprises dans les pays développés peuvent être plus enclines à remplacer les travailleurs moyennement qualifiés et peu qualifiés par du capital, étant donné la plus grande part des tâches routinières dans leur composition d’emploi. D’un autre côté, les travailleurs des pays développés peuvent, en moyenne, avoir de meilleures compétences que les travailleurs des pays en développement et donc ils peuvent être plus complémentaires (c’est-à-dire moins substituables) avec le capital. Par conséquent, c’est en définitive une question empirique pour déterminer si l’élasticité de substitution dans les pays développés tend à être plus forte que dans les pays en développement.

(…) Une élasticité de substitution supérieure à l’unité prédit une baisse de la part du travail dans le revenu lorsque le prix relatif des biens d’investissement chute et l’inverse lorsqu’elle est inférieure à l’unité. (…) En moyenne, l’élasticité de substitution est supérieure à l’unité pour les économies développées (…). Elle est inférieure à l’unité pour les pays en développement (…).

Le constat selon lequel l’élasticité de substitution estimée est supérieure à l’unité dans les pays développés et inférieure à l’unité dans les pays émergents et les autres pays en développement est cohérent avecl’idée d’une plus forte exposition à la routinisation dans le premier groupe de pays. Cela soutient l’un des constats clés de ce chapitre des Perspectives de l’économie mondiale : les déclins du coût relatif du capital ont joué un rôle plus important pour la baisse de la part du travail dans les pays développés que dans les pays émergents.

Il y a aussi un lien entre l’élasticité de substitution et l’exposition à la routinisation au niveau des secteurs. (…) L’élasticité de substitution estimée est plus faible dans l’agriculture, l’hébergement et les services alimentaires et la plus forte dans la construction, le transport et le commerce de gros. Il y a une forte corrélation entre cette élasticité de substitution estimée par secteur et le degré moyen de routinisation des tâches dans chaque secteur (…). Etant donné que la part de l’agriculture dans l’emploi total est significativement plus faible et que celui de la construction et du transport plus forte dans les pays développés, ce constat est cohérent avec la plus forte exposition des pays avancés à la routinisation (…). »

Mai Chi Dao, Hao Jiang et Weicheng Lian, « The elasticity of substitution between capital and labor: Concept and estimation », in FMI, Perspectives de l’économie mondiale, avril 2017. Traduit par Martin Anota



aller plus loin... lire « Comment expliquer la chute de la part du travail dans le revenu national ? »

vendredi 14 avril 2017

Nous avons besoin (au minimum) de cinq classes de modèles en macroéconomie



« L’un des meilleurs conseils que me donna Rudi Dornbusch a été : "Ne parle jamais de méthodologie. Contente-toi de faire". Pourtant, je vais lui désobéir et faire le grand saut.

C’est le projet initié par David Vines à propos des modèles DSGE, de leur comportement dans la crise et de la façon par laquelle ils peuvent être améliorés, qui m’a conduit à écrire ce billet. (…) J’avais tout d’abord écrit une note de politique économique, puis, en réponse aux commentaires que cette note a suscités, j’ai poursuivi avec un premier billet de blog, puis avec un deuxième, en espérant à chaque fois avoir été plus sage que la précédente. Je pensais avoir fait le tour de la question, mais David a récemment organisé une conférence sur le sujet, conférence au cours de laquelle j’ai beaucoup appris et qui m’amène à écrire cet ultime (?) billet sur le sujet.

Je vais développer ici une idée simple : Nous avons besoin de différents types de modèles macroéconomiques. Un type de modèles n’est pas mieux qu’un autre. Ils sont tous nécessaires et ils doivent interagir. De telles remarques seraient triviales et superflues si cette proposition était largement acceptée. Et il n’y aurait pas de guerres de religion. Mais ce n’est pas cas. Et il y a des guerres de religion.

Voici la typologie que je propose ; en l’occurrence, je distingue cinq types de modèles. (Je me limite aux modèles d’équilibre général. L’essentiel de la macroéconomie doit, cependant, chercher à élaborer des pièces individuelles, à construire des modèles d’équilibre partiel et à examiner les preuves empiriques correspondantes, pièces sur lesquelles les modèles d’équilibre général doivent ensuite se baser.) En faisant cela, je dois, avec toutes mes excuses, répéter certaines choses que j’ai pu avoir dites dans mes précédents billets.

Les modèles fondateurs. Le propos de ces modèles est de souligner un point théorique particulier, susceptible d’être pertinent pour presque tout modèle macroéconomique, mais sans prétendre capturer la réalité. Je pense ici au modèle consommation-prêt de Paul Samuelson, au modèle à générations imbriquées de Peter Diamond, au modèle de prime boursière d’Ed Prescott, aux modèles de recherche d’emploi de Diamond, Mortensen et Pissarides et aux modèles de monnaie de Neil Wallace ou Randy Wright. (…)

Les modèles DSGE. Le propos de ces modèles est d’explorer les implications macroéconomiques de certaines distorsions ou d’introduire des distorsions. Pour laisser la possibilité d’une discussion productive, ils doivent être construits autour d’un cœur faisant l’objet d’un consensus, avec chaque modèle explorant ensuite de nouvelles distorsions, que ce soit la rationalité limitée, l’asymétrie d’information, les différentes formes d’hétérogénéité, etc. (A la conférence, Ricardo Reis a une bonne liste d’extensions que l’on voudrait trouver dans un modèle DSGE.)

Ce sont ces modèles que David Vines (et beaucoup d’autres) a critiqués quand il débuta son projet et, dans leur forme actuelle, ils soulèvent deux questions. La première est : quel doit être le modèle fondamental ? Le fondement actuel, essentiellement un modèle de cycles d’affaires réels (real business cycles) avec une seule grande distorsion, les rigidités nominales, semble trop éloigné de la réalité pour être le meilleur point de départ. L’équation d’Euler pour les consommateurs et l’équation de fixation des prix semblent impliquer, en combinaison avec les anticipations rationnelles, des agents économiques trop tournés vers l’avenir. Je pense que le modèle fondamental doit avoir des rigidités nominales, une rationalité limitée, des horizons bornés, des marchés incomplets et un rôle pour la dette. Comme d’autres, j’ai discuté de ces questions ailleurs et je ne vais pas revenir dessus ici. (…) La seconde question est : à quel point ces modèles doivent-ils être proches de la réalité ? Selon moi, ils doivent évidemment chercher à s’en rapprocher, mais pas via des additions et des retouches ad hoc (…). C’est à la prochaine catégorie de modèle qu’incombe la tâche de coller à la réalité.

Les modèles de politique économique. (Simon Wren-Lewis préfère les appeler les modèles économétriques structurels.) Le propos de ces modèles est d’aider à concevoir la politique économique, pour étudier les effets dynamiques des chocs spécifiques, pour évaluer l’impact potentiel de politiques alternatives. Si la Chine ralentit, quel sera l’effet sur l’Amérique latine ? Si l’administration Trump s’embarque pour une expansion budgétaire, quels seront les effets sur les autres pays ?

Pour ces modèles, il est clairement essentiel de coller aux données et de capturer les dynamiques observées. Mais aussi d’avoir assez de structure théorique de façon à ce que le modèle puisse être utilisé pour saisir les effets des chocs et politiques. Ces deux objectifs impliquent que la structure théorique doit nécessairement être plus souple que pour les modèles DSGE : L’agrégation et hétérogénéité mènent à des dynamiques agrégées plus complexes que celles qu’un modèle théorique étroit peut espérer capturer. Les vieux modèles de politique partaient de la théorie et laissaient ensuite les données parler, équation par équation. Certains modèles en vogue partent d’une structure DSGE et laissent ensuite les données déterminer des dynamiques plus riches. Un des principaux modèles utilisés à la Fed, le modèle FRB/US, utilise la théorie pour restreindre les relations à long terme et permettre ensuite des coûts d’ajustement d’ordre supérieur pour coller aux dynamiques des données. Je suis sceptique à l’idée que ce soit la meilleure approche, comme je ne vois pas ce que l’on gagne, théoriquement ou empiriquement, en contraignant les dynamiques de cette façon.

En tout cas, pour cette classe de modèles, les règles du jeu doivent être différentes que pour les modèles DSGE. Est-ce que le modèle colle bien, par exemple, dans le sens où il est cohérent avec les dynamiques d’une caractérisation VAR ? Est-ce qu’il capture bien les effets des politiques passées ? Est-ce qu’il permet de considérer des politiques alternatives ?

Les modèles-jouets. Ici, j’ai à l’esprit des modèles tels que les diverses variations du modèle IS-LM, du modèle Mundell-Fleming, du modèle des cycles d’affaires réels et du modèle des nouveaux keynésiens. Comme la liste l’indique, certains peuvent être seulement vaguement fondés sur la théorie, d’autres plus explicitement. Mais ils ont le même propos. Permettre de donner rapidement un premier aperçu à une certaine question ou présenter une bribe de réponse à partir d’un modèle ou d’une classe de modèles plus compliqué. Pour le chercheur, ces modèles peuvent être élaborés avant de passer à un modèle plus élaboré ou après, une fois que le modèle élaboré a été développé et que ses entrailles ont été examinées. La proximité de ces modèles vis-à-vis de la théorie formelle n’est pas un critère pertinent ici. Entre de bonnes mains, et je pense ici à des maîtres-artisans tels que Robert Mundell ou Rudi Dornbusch, ils peuvent être éclairants. Il y a une raison qui explique pourquoi ils dominent les manuels de macroéconomie. Ils fonctionnent comme des appareils pédagogiques. Ils relèvent autant de l’art que de la science et tous les économistes ne sont pas des artistes talentueux. Mais l’art est utile. (…)

Les modèles de prévision. Le propos de ces modèles est simple : Donner les meilleures prévisions. Et c’est le seul critère sur lequel nous devons les juger. Si la théorie est utile pour améliorer les prévisions, alors elle doit être utilisée. Si elle ne l’est pas, elle doit être ignorée. (…) Les questions sont alors statistiques : comment traiter le sur-paramétrage ? comment traiter l’instabilité des relations sous-jacentes ? etc.

En somme : Nous avons besoin de différents modèles pour différentes tâches. Les tentatives de certains de ces modèles visant à faire plus que ce pour quoi ils ont été conçus semblent avoir été trop ambitieuses. Je ne suis pas sûr que les modèles DSGE soient de bons modèles de politique économique, à moins qu’ils deviennent plus souples à propos des contraintes associées à la théorie. J’aimerais qu’ils soient utilisés pour la prévision, mais je suis encore sceptique à l’idée qu’ils gagnent à ce jeu. Cela étant dit, chaque classe de modèles a beaucoup à apprendre des autres et bénéficierait à ce qu’il y ait plus d’interactions entre eux. Les vieux modèles de politique économique bénéficieraient du travail mené sur l’hétérogénéité, sur les contraintes de liquidité, qui se trouve formalisé dans certains modèles DSGE. Et, pour répéter un point souligné au début, tous les modèles doivent être construits sur de solides fondations d’équilibre partiel et sur les preuves empiriques. »

Olivier Blanchard, « On the need for (at least) five classes of macro models », in PIIE, Realtime Economic Issues Watch (blog), 10 avril 2017. Traduit par Martin Anota

mercredi 12 avril 2017

L’Europe a des problèmes, mais Le Pen n’est pas une solution

« La France va tenir ses élections présidentielles d’ici quelques semaines et beaucoup craignent de façon justifiée un nouveau choc Trump. En effet, les travers de l’euro ont terni la réputation du projet européen (la longue marche vers la paix et la prospérité via l’intégration économique) et ont donné des arguments pour les politiciens anti-européens. Et des contacts français me disent que la campagne de Le Pen cherche à présenter les critiques que d’éminents économistes ont fait des politiques européennes comme constituant des accords implicites au programme du FN.

Elles n’en sont pas.

Je me suis montré très critique vis-à-vis de l’euro et des plans d’austérité budgétaire qui ont été poursuivis dans la zone euro depuis 2010. La France peut et doit réaliser de meilleures performances qu’elle n’en fait actuellement. Mais le genre de politiques dont le FN parle (notamment une sortie unilatérale, non seulement de la zone euro, mais aussi de l’UE) se révéleraient nocives, et non bénéfiques, pour l’économie française.

Commençons avec l’euro. La devise unique était et est toujours un projet boiteux, et les pays qui ne l’ont jamais adoptée (la Suède, le Royaume-Uni, l’Islande…) ont bénéficié de la flexibilité qu’apporte la possession d’une devise indépendante. Il y a, cependant, une grande différence entre ne pas adopter la monnaie unique et l’abandonner. Les coûts de transition associés à une sortie de la zone euro et à la restauration de la monnaie nationale seraient massifs : une fuite massive des capitaux provoquerait une crise bancaire ; des contrôles de capitaux et des fermetures de banques seraient imposés ; les difficultés à libeller les contrats créeraient un chaos juridique ; les entreprises seraient perturbées durant une longue période de confusion et d’incertitude.

Il pourrait néanmoins être utile de s’infliger ces coûts sous des circonstances extrêmes, comme celles auxquelles la Grèce fait face : une économie sévèrement déprimée qui nécessite une forte réduction des coûts relativement à ses partenaires à l’échange pourrait trouver qu’une sortie de l’euro suivie par une dévaluation préférable à des années de déflation nocive.

La France, cependant, ne colle pas à cette description. La performance du chômage français doit être meilleure, mais elle n’est pas non plus catastrophique : les adultes en France sont davantage susceptibles d’être employés que ceux aux Etats-Unis. Et depuis la création de l’euro, les coûts du travail français ont plutôt suivi la moyenne de la zone euro dans son ensemble, donc il y a peu de raisons de croire qu’une restauration du franc serait suivie par une forte dévaluation. Bref, pour la France, sortir de la zone euro lui infligerait tous les coûts que la Grèce aurait subis, mais sans aucun des bénéfices.

GRAPHIQUE 1 Coûts unitaires du travail en France et en zone euro (en indices, base 100 en 1999)

Paul_Krugman__couts_unitaires_du_travail__France_zone_euro__Martin_Anota_.png

Que dire à propos de l’UE en général ? Il y a de très bonnes raisons de croire que l’appartenance à l’UE, en permettant à la France d’accéder à un marché bien plus large que celui auquel elle aurait accédé par elle-même, a rendu l’industrie française plus productive et elle offre aux citoyens français une plus large gamme de produits moins chers qu’ils n’auraient sinon été capables d’acheter. Désolé, mais la France n’est juste pas assez grosse pour prospérer avec des politiques introverties et nationalistes. Au vu des bénéfices associés à l’appartenance à une plus large entité économique, faire partie de Schengen (qui réduit les frictions et améliore le fonctionnement de l’intégration) doit être perçu comme un privilège, non comme un fardeau.

Je ne suis en aucune manière en train dire que l’UE va bien ou que la politique économique française est fabuleuse. Le consensus européen en faveur de l’austérité a été tout particulièrement malavisé et destructeur. Et la France a trop cherché à s’infliger une austérité inutile. J’ai parfois dit que la maladie économique la plus sérieuse dont souffre la France est l'hypocondrie, une tendance à croire la propagande qui la dépeint comme l’homme malade de l’Europe depuis plus de trois décennies, alors même qu’elle continue de présenter une forte productivité et une performance honorable en termes d’emploi.

Le fait est, cependant, que rien de ce que le FN a à offrir ne pousserait la France dans la bonne direction. Ce n’est pas parce que Le Pen et les économistes comme moi-même sommes critiques vis-à-vis de la politique européenne que cela signifie que nous ayons quelque chose en commun. »

Paul Krugman, « Europe has problems, but Le Pen is not the answer », in The Conscience of a Liberal (blog), 11 avril 2017. Traduit par Martin Anota



La France versus les Etats-Unis


« Je suis toujours en train de penser aux élections qui se tiendront prochainement en France. Est-ce que Le Pen sera le prochain Trump ? Je n’en ai aucune idée. Mais j’ai remarqué avec intérêt à quel point il y a si peu de ressemblances entre l’économie française et l’économie américaine, ce qui m’amène davantage à douter que "l’anxiété économique" puisse expliquer l’envolée populiste. (...)

En fait, les années 1990 ont constitué ce qui semble être un point bas. A plusieurs niveaux, la France a réalisé de meilleures performances depuis lors, en particulier en comparaison avec les Etats-Unis. Le chômage officiel est élevé, mais cela est quelque peu trompeur. Si vous regardez les adultes dans la force de l’âge, vous constaterez qu’ils sont actuellement bien plus susceptibles d’être employés en France qu’ils ne le sont aux Etats-Unis :

GRAPHIQUE 2 Taux d’emploi des 25-54 ans aux Etats-Unis et en France (en %)

Paul_Krugman__France_Etats-Unis_taux_d_emploi_25-54_ans__Martin_Anota_.png

La productivité française était tout d’abord légèrement supérieure et elle est désormais légèrement inférieure à celle des Etats-Unis, peut-être parce que davantage de personnes sont employées ; mais de toutes façons, étant donnée la marge de manœuvre dans de tels chiffres, nous sommes en train de regarder un pays qui se situe sur la frontière technologique :

GRAPHIQUE 3 Productivité horaire aux Etats-Unis et en France (en dollars)

Paul_Krugman__productivite__France_Etats-Unis__Martin_Anota_.png

Et la France a, du moins jusqu’à présent, été épargnée par l’épidémie Case-Deaton de "morts de désespoir" :

GRAPHIQUE 4 Taux de mortalité ajustés en fonction de l’âge entre 45 et 54 ans (en indices, base 100 en 2010)

Case_Deaton__Taux_de_mortalite_ajustes_en_fonction_de_l_age_entre_45_et_54_ans.png

Si la très faible inflation en est un bon indicateur, il semble que l’économie française semble opérer quelque part sous son potentiel. Mais elle ne connaît pas de crise macroéconomique.

Et, comme je l’ai écrit dans mon précédent billet, la France n’est pas la Grèce : l’euro a été une mauvaise idée, mais la France n’est pas une nation qui souffre vraiment aujourd’hui du fait de ne pas avoir de devise indépendante, donc il n’y a pas d’urgence pour elle à sortir de la zone euro et donc pas de raison évidence pour qu’elle subisse les coûts massifs qu’une sortie de l’euro imposerait. (...) Oh, et permettez-moi de le répéter : Le Pen n’offre aucune réponse aux problèmes de l’UE »

Paul Krugman, « The French, ourselves », in The Conscience of a Liberal (blog), 12 avril 2017. Traduit par Martin Anota

mardi 11 avril 2017

La relation entre le progrès technique et la part du travail au cours de l’histoire

« Certains dressent des parallèles entre les avancées technologiques que nous connaissons actuellement et les précédents épisodes de changement technologique rapide. Cet article passe en revue la littérature sur l’effet que peut avoir le progrès technique sur la part du revenu national rémunérant le travail durant la Révolution industrielle. Cette revue de la littérature suggère que, non seulement les craintes que connaissent aujourd’hui les travailleurs vis-à-vis du progrès technique ne sont pas spécifiques à notre époque, mais aussi que les précédents épisodes de progrès technique s’accompagnaient également d’une baisse de la part du travail durant les périodes au cours desquelles les technologies économes en travail se diffusèrent à l’ensemble de l’économie et des groupes de travailleurs et des secteurs particuliers en furent affectés de façon disproportionnée.(…)

GRAPHIQUE Inégalités de revenu et part du travail dans le revenu au Royaume-Uni

FMI__inegalites_Gini_et_part_du_travail_au_Royaume-Uni.png

Le graphique montre l’évolution historique de la part du travail et des inégalités au Royaume-Uni, pays pour lequel les deux séries de données sont disponibles pour une aussi longue période. Il indique que la part du travail était largement plate durant la Première Révolution industrielle (que beaucoup datent entre 1760 et 1820/1840), lorsque la mécanisation au début du dix-neuvième siècle n’était capable de remplacer qu’un nombre limité d’activités humaines. Elle affectait seulement certains pans de l’économie, tout en accroissant la demande pour le travail complémentaire aux biens capitaux comportant les nouvelles technologies (Mokyr, 2002). Elle créa aussi des secteurs entièrement nouveaux, un développement que les économistes de l’époque n’ont pas perçu (Mokyr, Vickers et Ziebarth, 2015). Par la suite, cependant, les parts du profit et du capital (…) s’accrurent entre les années 1850 et 1870 aux dépens du travail, lorsque les grandes technologies économes en travail se diffusèrent à l’ensemble de l’économie, notamment le transport à vapeur, l’industrie à grande échelle de machines-outils et l’usage des machines dans les usines alimentées par la vapeur. La part du travail s’accrut tout d’abord durant la Seconde Révolution industrielle (1870-1914), comme les profits chutèrent durant la Longue Dépression (1873-1896), en accord avec le comportement (contracyclique) de la part du travail durant la récente crise financière mondiale.

Cohérent avec l’idée selon laquelle l’impact sur la part du travail varie avec la qualification, comme on a pu le voir dans ce chapitre des Perspectives de l’économie mondiale, l’industrialisation a affecté certains secteurs et groupes de travailleurs de façon disproportionnée. Au Royaume-Uni, les travailleurs employés dans le textile, avec une très faible intensité capitalistique et une faible productivité, supportèrent le plus le fardeau du changement technologique entre les années 1820 et les années 1950 (Bythell, 1969). Tandis que les salaires dans les usines grimpèrent, les revenus réels de la plupart des travailleurs domestiques et des artisans chutèrent (Lyons, 1989). Le creusement des écarts de salaires se reflète dans la hausse des inégalités, même lorsque la part du travail était largement constante ou même croissante (cf. graphique). Greenwood (1997) note que la demande de travailleurs qualifiés a augmenté durant l’industrialisation au Royaume-Uni. Goldin et Katz (1998) montrent une complémentarité similaire entre le capital et le travail qualifié aux Etats-Unis. (…). Un examen des indicateurs d’inégalités, qui sont plus facilement disponibles que les estimations de la part du travail, suggère que, comme le remarquait Kuznets (1955), les inégalités ont augmenté à partir de l’industrialisation pour atteindre un pic autour de la fin du dix-neuvième siècle ou au début du vingtième siècle dans la plupart des pays riches.

L’inquiétude actuelle à propos de l’impact du changement technologique rapide sur les travailleurs semble aussi être une caractéristique des précédents épisodes de changement rapide. Par exemple, Mortimer (1772) s’inquiétait que les machines "excluraient le travail de milliers d’êtres humains, qui sont utilement employés" ; changeant d’avis, Ricardo (1821) concluait que "la substitution des machines au travail humain est souvent très nocive aux intérêts de la classe des travailleurs… Elle peut rendre la population redondante et détériorer la condition du travailleur". Beaucoup ont souscrit à cette idée d’un impact négatif des machines à court terme, mais ils ont souvent distingué entre le bouleversement à court terme et les effets de long terme. Steuart (1767) affirmait que le chômage technologique surviendrait seulement si les changements sont introduits soudainement et que, même en cas de changements soudains, le bouleversement est temporaire, tandis que les avantages d’une plus forte productivité sont permanents. Keynes (1932) a avancé la même idée : "Ce chômage technologique, qui apparaît du fait que nous découvrons plus rapidement de nouvelles manières d’économiser le travail que de nouveaux usages du travail, n’est qu’une phase temporaire de désajustement. Tout cela signifie qu’à long terme l’humanité résout son problème économique".

En résumé, le progrès technique, lors de divers épisodes d’industrialisation, a été associé à un déclin de la part du travail durant certaines phases et pour certains groupes de travailleurs et à une hausse des inégalités. Bien que les effets de la technologie sur ces changements soient difficiles à quantifier, le niveau des inégalités à son pic historique (typiquement autour de la fin du dix-neuvième siècle et du début du vingtième siècle dans les pays riches) était considérablement plus élevé qu’il ne l’est aujourd’hui. On estime que l’ajustement aux changements technologiques a pris une génération (Lyons, 1989). »

Zsóka Kóczán, « Technological progress and labor shares: A historical overview », in FMI, Perspectives de l’économie mondiale, avril 2017. Traduit par Martin Anota



aller plus loin... lire « Comment expliquer la chute de la part du travail dans le revenu national ? »

- page 1 de 25