Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Simon Wren-Lewis

Fil des billets

mercredi 2 août 2017

Est-ce qu’un marché du travail flexible pose un problème pour les banquiers centraux ?

« Les récessions et les ralentissements économiques moins sévères résultent typiquement d’une insuffisance de la demande de biens et services. La seule façon de mettre un terme à ces phénomènes consiste à stimuler la demande globale d’une façon ou d’une autre. Cela peut se faire naturellement, mais aussi avec une réduction délibérée des taux d’intérêt par les banques centrales. Comment savons-nous que la demande globale est insuffisante ? Parce que le chômage s’est accru, comme la faible demande de biens incite les entreprises à moins embaucher et à licencier.

Une question qui est quelquefois posée en macroéconomie est si les travailleurs dans une récession peuvent revenir à l’emploi (price themselves into jobs) en réduisant les salaires. Au cours des précédentes récessions, les travailleurs ont été réticents à le faire. Mais supposons que nous ayons eu une récession plus longue parce que l’austérité budgétaire a freiné la reprise et qu’au cours de cette période plus longue les salaires soient devenus moins rigides. Alors, la chute des salaires réels peut ramener les chômeurs à l’emploi et réduire le chômage (1).

Ce n’est pas parce que la chute des salaires réels résout le problème d’insuffisance de la demande. (…) La baisse des salaires réels peut davantage déprimer la demande globale. Mais il est toujours possible que les travailleurs puissent revenir à l’emploi, parce que les entreprises peuvent se tourner vers des techniques de production plus intensives en travail ou échouer à investir dans de nouvelles techniques économes en travail. La production serait toujours déprimée, mais le chômage chuterait, l’emploi augmenterait et la productivité du travail stagnerait. C’est essentiellement ce que nous avons observé au Royaume-Unis au cours des dernières années.

Il est important de comprendre que, dans ces circonstances, le problème d’une demande insuffisante perdure. Les ressources sont toujours gâchées à une grande échelle. Notre situation s’améliorerait si la demande était stimulée. Comment les banquiers centraux pourraient-ils savoir si c’est le cas ou non ?

Les banquiers centraux peuvent dire qu’ils pourraient toujours savoir si la demande est insuffisante parce que les enquêtes leur disent si les entreprises ont des capacités excédentaires. Cela serait sans doute vrai dans le sillage immédiat de la récession, mais à mesure que le temps passerait le capital se déprécierait et l’investissement resterait faible parce que les entreprises utiliseraient des techniques de production plus intensives en travail. En tant qu’indicateurs d’insuffisance de la demande globale, les enquêtes deviendraient aussi peu robustes que les chiffres du chômage.

Que dire après de toutes ces mesures de l’écart de production ? Malheureusement, elles sont fondées soit sur le chômage, soit sur les enquêtes, soit sur les techniques de lissage des données. Ces dernières, parce qu’ils lissent les données de la production, disent simplement le temps qu’il faut pour qu’une reprise soit complète. Ou, pour le dire autrement, les mesures basées sur la tendance excluent effectivement la possibilité d’une période prolongée de demande insuffisante (2). Donc, collectivement, ces mesures d’écart de production ne fournissent pas d’information additionnelle à propos de l’insuffisance de la demande globale.

L’arbitre ultime pour savoir s’il y a une insuffisance de la demande globale est l’inflation. Si la demande est insuffisante, l’inflation va être inférieure à sa cible. Elle est inférieure à sa cible dans la plupart des pays aujourd’hui, notamment aux Etats-Unis, dans la zone euro et au Japon. (Au Royaume-Uni, l’inflation est supérieure à la cible en raison de la dépréciation provoquée par le Brexit, mais l’inflation salariale ne présente pas de signe d’emballement.) Donc, dans ces circonstances, les banquiers centraux doivent comprendre que la demande est insuffisante et continuer à faire tout ce qu’ils peuvent pour la stimuler.

Mais il y a un danger que les banquiers centraux regardent le taux de chômage, les enquêtes sur la capacité excédentaire et les estimations de l’écart de production et en concluent que nous n’avons plus d’insuffisance de la demande globale. Aux Etats-Unis, les taux d’intérêt augmentent et il y a certains membres du comité de politique monétaire de la Banque d’Angleterre qui aimeraient également les augmenter. Si l’insuffisance de la demande est toujours un problème, ce serait alors une grande erreur, très coûteuse, le genre d’erreur que les autorités monétaires ne doivent jamais commettre (3). Il y a une façon certaine d’éviter cette erreur, qui consiste à continuer de stimuler la demande jusqu’à ce que l’inflation dépasse sa cible.

Un argument contre cette politique attentiste est que les autorités monétaires doivent être « en avance sur la courbe », pour éviter d’abruptes hausses des taux d’intérêt si l’inflation commençait à augmenter. Les arguments comme celui-ci traitent la Grande Récession comme une simple version plus grande des récessions que nous avons connues depuis la Seconde Guerre mondiale. Mais au cours de ces précédentes récessions, les taux d’intérêt n’ont pas butté sur leur borne inférieure et nous n’avions pas eu de généralisation de l’austérité budgétaire une ou deux années à peine après le début de la récession. Ce à que nous assistons, c’est plutôt quelque chose qui se rapproche de la Grande Dépression, mais avec un marché du travail plus flexible.

(1) Les salaires réels peuvent aussi être plus flexibles parce que la Grande Récession a permis aux employeurs d’accroître l’insécurité de l’emploi, qui peut à la fois accroître la flexibilité des salaires et réduire le NAIRU. Ce qui est implicite dans cette idée, c’est le fait qu’une baisse des salaires nominaux ne se traduit pas automatiquement par une baisse des prix. Si cela avait été le cas, les salaires réels n’auraient pas chuté. (…)

(2) Elles suggèrent aussi souvent que les années qui ont immédiatement précédé la Grande Récession ont constitué une période d’ample boom, malgré toutes les preuves qui indiquent qu’il n’y a pas eu de boom en-dehors de la périphérie de la zone euro.

(3) J. W. Mason a récemment affirmé qu’une telle erreur est actuellement commise aux Etats-Unis dans un rapport détaillé. »

Simon Wren-Lewis, « Is a flexible labour market a problem for central bankers? », in Mainly Macro (blog), 2 août 2017. Traduit par Martin Anota

dimanche 16 juillet 2017

Pourquoi les salaires allemands doivent augmenter

« Il y a eu un débat intéressant cette semaine entre Martin Sandbu et The Economist, qui suscita une réaction de la part de Philippe Legrain (puis à nouveau une réponse de Sandbu ici). La question qu’ils se posent est si le solde du compte courant allemand, qui a régulièrement augmenté en passant d’un léger déficit en 2000 à un large excédent de plus de 8 % du PIB ces derniers années, est un problème et, en l’occurrence, un frein sur la croissance mondiale.

Pour déterminer si un excédent courant est un problème, il est essentiel de comprendre pourquoi il apparaît. J’en ai parlé en détails à plusieurs reprises par le passé et Peter Bofinger, l’un des cinq membres du Conseils des Experts Economiques en Allemagne, en offre le même récit que moi. Pour résumer, depuis le lancement de la monnaie unique, l’Allemagne a freiné ses salaires, si bien que ceux-ci se sont accrus à un rythme qui n’était pas cohérent avec la cible d’inflation de la zone euro (une inflation inférieure, mais proche, de 2 %). Nous pouvons le voir clairement dans le graphique suivant.

GRAPHIQUE Coûts du travail unitaires relatifs (en indices, base 100 en 2000)

Simon_Wren-Lewis__couts_du_travail_unitaires_relatifs_de_l__Allemagne.png

La ligne bleue montre les coûts du travail unitaires de l’Allemagne relativement à (…) la moyenne de la zone euro. (…) En maintenant l’inflation salariale à un faible niveau entre 2000 et 2009, l’Allemagne a peu à peu acquis un avantage comparatif sur les autres pays-membres de la zone euro. Au même instant, la plupart des gens se focalisèrent sur la forte inflation à la périphérie de la zone euro. Mais comme la ligne rouge le montre, cela n’était qu’une partie de l’histoire, dans la mesure où l’inflation salariale était trop faible en Allemagne relativement aux autres pays-membres. Cet avantage comparatif qu’elle s’est peu à peu constitué eut comme conséquence d’entraîner un excédent du compte courant allemand.

Cependant, cela ne suffit pas en soi pour dire qu’il y a un problème, pour deux raisons connexes. Premièrement, peut-être que l’Allemagne est entrée dans la zone euro à un taux de change sous-évalué, si bien que le graphique ci-dessus présenterait juste une correction de ce phénomène. Deuxièmement, peut-être que l’Allemagne doit cette compétitivité à l’inclinaison du secteur privé à épargner plus qu’il n’investit et par conséquent à acheter des actifs financiers.

Il y a de bonnes raisons, notamment en ce qui concerne le vieillissement démographique que connaît l’Allemagne, de penser que ce deuxième point est exact. (…) Sur le plan démographique, cela fait sens que l’Allemagne génère un excédent de compte courant. La question clé est de savoir quelle devrait être la taille de l’excédent subséquent. Un excédent de 8 % du PIB est très large et j’ai toujours pensé qu’il était bien trop ample pour simplement refléter les préférences sous-jacentes des épargnants allemands.

Je suis heureux de voir que le FMI est d’accord avec cela. Il suggère que l’excédent de compte courant d’équilibre à moyen terme se situerait entre 2,5 % et 5,5 % du PIB. Cela suggère que la correction de compétitivité qui commença en 2009 a encore une certaine marge devant elle. Pourquoi est-ce que cela prend tant de temps ? Certains estiment que l’excédent de 8 % du PIB doit représenter un certain équilibre à moyen terme, dans la mesure où le déséquilibre provoqué par les rigidités des prix et salaires devrait s’être résorbé avec le temps. J'ai déjà taclé un tel argument il y a quelques années.

Or, pour que déséquilibre de compétitivité se résorbe, nous avons besoin soit d’une forte croissance des salaires en Allemagne, soit d’une faible croissance des salaires dans le reste de la zone euro, soit des deux. Etant donné à quel point l’inflation est faible en moyenne dans la zone euro, il est très difficile d’obtenir une plus faible inflation salariale dans le reste de la zone euro qu’en Allemagne. La réticence des entreprises à imposer des réductions de salaires ou des travailleurs à les accepter est bien connue. La réduction des déséquilibres de compétitivité dans la zone euro est restée lente dans la zone euro dans la mesure où celle-ci peinait toujours à sortir de la récession provoquée par l’austérité budgétaire et où l’inflation moyenne de la zone euro restait par conséquent faible. (1)

En ce sens, des excédents de compte courant allemands d’une telle échelle sont un symptôme de deux problèmes sous-jacents : d’une part, la réussite de l’Allemagne à gagner en compétitivité-prix vis-à-vis des autres pays-membres de la zone euro avant la crise financière mondiale et, d’autre part, l’actuelle faiblesse de l’inflation dans la zone euro. L’Allemagne peut rattraper ses erreurs passées en encourageant la hausse des salaires domestiques, soit directement, soit indirectement via une politique budgétaire expansionniste. Non seulement cela accélérerait l’ajustement, mais cela étoufferait aussi une certaine culture en Allemagne consistant à légitimer la réduction des coûts vis-à-vis des autres pays-membres en freinant les salaires. (2)

De ce point de vue, est-ce que cela signifie que les excédents de compte courant allemands freinent la croissance mondiale ? Seulement d’une façon très indirecte. Si une hausse des salaires allemands ou d’éventuelles mesures adoptées pour les accroître stimulaient la demande globale et la production en Allemagne, cela stimulerait ensuite la croissance mondiale. (Rappelez-vous que les taux d’intérêt de la BCE butent sur leur borne inférieure, donc elle se resserrerait peu en réaction à une éventuelle stimulation de la demande globale.) En stimulant ainsi la demande, l’Allemagne ne se contenterait pas d’aider le reste du monde ou d’autres pays-membres de l’union monétaire : elle corrigerait un problème qu’elle a créé de son propre chef.

(1) La résistance aux réductions de salaires nominaux devient un argument bien plus puissant pour relever la cible d’inflation dans une union monétaire où les asymétries signifient que les taux de change d’équilibre sont susceptibles de varier au cours du temps.

(2) La règle dans union monétaire est très simple. Une fois que nous avons atteint un équilibre de compétitivité, les salaires nominaux doivent s’accroître de 2 % (ce qui correspond à la cible d’inflation) de plus que la productivité nationale sous-jacente. J’ai fréquemment reçu des commentaires affirmant qu’une fixation des salaires inférieure à ce niveau améliorerait la compétitivité de la zone euro dans son ensemble. C’est incorrect, parce que si tous les pays-membres de l’union monétaire modéraient leurs salaires de la même ampleur, l’inflation de la zone euro chuterait, amenant la banque centrale à assouplir sa politique monétaire pour ramener l’inflation à 2 % et l’inflation salaire à 2 % plus la croissance de la productivité. »

Simon Wren-Lewis, « Why German wages need to rise », in Mainly Macro (blog), 14 juillet 2017. Traduit par Martin Anota



aller plus loin...

« Adopter le modèle allemand ou sauver l’euro »

« L'Allemagne doit-elle réduire ses excédents courants ? (Le tango se danse à deux) »

« L’Allemagne contre la zone euro »

jeudi 13 juillet 2017

Pourquoi les récessions suivies par l’austérité ont un impact durable sur l’activité

« Les étudiants apprennent tôt que la demande agrégée importe à court terme, mais qu’à long terme la production est déterminée du côté de l’offre. Une meilleure façon de formuler cela est de dire que l’offre s’ajuste à la demande à court terme, mais que la demande s’ajuste à l’offre à long terme. Une partie clé de cette conceptualisation est que l’offre de long terme est indépendante des variations de la demande à court terme (les expansions et les récessions). C’est une conceptualisation simple qui s’est révélée être extrêmement utile par le passé. Regardez juste les données du Royaume-Uni présentées dans ce billet : malgré les chocs pétroliers, la récession provoquée par l’expérience monétariste et la récession provoquée par la crise du système monétaire européen, la production par tête au Royaume-Uni semble être revenue à une tendance sous-jacente de 2,5 % par an après la Seconde Guerre mondiale.

Mais plus maintenant : la production par tête est désormais inférieure de plus de 15 % à cette tendance et, depuis le Brexit, cet écart s’accroît trimestre après trimestre. Dans la plupart des pays développés, il semble que la crise financière mondiale ait changé la tendance sous-jacente de la croissance. Vous trouverez plein d’histoire et d’articles qui essaient d’expliquer cela comme un ralentissement de la croissance de l’offre provoqué par un ralentissement du progrès technique qui daterait d’avant la crise financière et qui serait indépendant de la récession provoquée par celle-ci.

Dans un précédent billet, j’ai observé de récentes preuves empiriques qui suggèrent un récit différent : que la récession qui a suivi la crise financière mondiale semble avoir eu un impact permanent sur la production. Vous pouvez raconter cette histoire de deux façons. Selon la première, aujourd’hui, pour une raison ou une autre, l’offre s’est ajustée à une plus faible demande. Selon la seconde, nous sommes toujours dans une situation où la demande globale est inférieure à l’offre.

Les raisons théoriques expliquant pourquoi l’offre peut s’être ajustée à une demande plus faible ne sont pas difficiles à trouver. (Elles sont souvent regroupées par les économistes sous l’étiquette d’"effets d’hystérèse"). L’offre (en termes de production par tête) dépend du taux d’activité, du montant de capital productif dans l’économie et finalement du progrès technique, qui désigne tout ce qui améliore la façon par laquelle le travail et le capital se combinent au niveau agrégé pour générer la production. Une longue période de faible demande peut décourager les travailleurs. Elle peut aussi freiner l’investissement : un investissement peut être profitable, mais s’il n’y a pas de demande, il ne sera pas financé.

Cependant, le canal la plus évident pour lier une récession à l’offre de plus long terme est via le progrès technique, ce qui fait écho à la vaste littérature regroupée sous le terme de « théorie de la croissance endogène. Cela peut être fait via un modèle AK simple (comme Antonio Fatas le fait ic) ou en utilisant un modèle plus élaboré du progrès technique, comme le font Gianluca Benigno et Luca Fornaro dans leur analyse titrée "Stagnation traps". L’idée fondamentale est que, dans une récession, l’innovation est moins profitable, si bien que les entreprises font moins d’innovations, ce qui entraîne une moindre croissance de la productivité et donc de l’offre. Narayana Kocherlakota a développé cette idée, comme vous pouvez le voir avec l’exemple qu’il donne ici.

Le second type d’explications est attrayant, en partie parce que le mécanisme qui est censé ramener la demande vers l’offre (en l’occurrence la politique monétaire) a été hors d’action pendant une longue période en raison de la borne inférieure zéro (zero lower bound). (La borne inférieure joue également un rôle important dans le modèle développé par Benigno et Fornaro.) Cependant, pour certains, ce type d’explications semble actuellement exclue dans la mesure où le chômage est proche des niveaux d’avant-crise au Royaume-Uni et aux Etats-Unis.

J’ai trois problèmes différents avec l’idée selon laquelle nous n’aurions plus un problème de demande insuffisante au motif que le chômage serait faible. Le premier, et le plus évident, est que le taux de chômage naturel peut être, pour diverses raisons, considérablement plus faible qu’il ne l’était avant la crise financière mondiale. Le deuxième problème est (…) de faibles salaires réels peuvent avoir encouragé les entreprises à utiliser des techniques plus intensives en travail. Si c’est ce qui s’est passé, cela ne signifie pas que le problème d’insuffisance de la demande ait été écarté, mais juste qu’il est moins manifeste. (Pour ceux qui ont un problème conceptuel avec cela, pensez juste au modèle le plus simple des nouveaux keynésiens, qui suppose un marché qui s’équilibre parfaitement, mais qui présente pourtant une insuffisance de la demande.)

Le troisième problème se focalise sur la nature de tout ralentissement de la productivité provoqué par le manque d’innovations. Une question clé, à laquelle les articles cités ci-dessus ne s’attaquent pas directement, est si nous parlons de la recherche à la frontière ou davantage de la mise en œuvre des innovations (par exemple, copier ce que font les entreprises situées à la frontière.) Il y a certaines preuves empiriques qui suggèrent que le ralentissement de la productivité peut refléter l’absence de cette dernière. C’est très important, parce que si c’est le cas, cela implique que le ralentissement est réversible. J’ai affirmé que les banques centrales doivent prêter davantage d’attention à ce que j’ai appelé le retard d’innovation (c’est-à-dire à l’écart entre les meilleurs techniques et ce que les entreprises emploient effectivement) et au lien que celui-ci entretien avec l’investissement et la demande agrégée.

Tout cela montre qu’on ne manque pas d’idées pour saisir comment une récession sévère et une lente reprise peuvent avoir des effets durables. S’il y a un problème, c’est davantage le fait que la conceptualisation simple dont j’ai parlé au début de ce billet a façonné étroitement la façon par laquelle la plupart des gens pensent. Si l’un des mécanismes dont j’ai parlé est important, alors cela signifie que la folie de l’austérité a eu un impact qui peut durer au moins une décennie plutôt que quelques années. »

Simon Wren-Lewis, « Why recessions followed by austerity can have a persistent impact », in Mainly Macro (blog), 12 juillet 2017. Traduit par Martin Anota



aller plus loin...

« L’austérité laisse des cicatrices permanentes sur l’activité »

« L’hystérèse, ou comment la politique budgétaire a retrouvé sa légitimité »

lundi 10 juillet 2017

Mesurer l’impact de l’austérité

« Ben Chu a publié un bon article présentant certains non-sens associés à l’austérité budgétaire (qui refusent de mourir, parce qu’ils sont utiles aux politiciens et du fait que les médias sont généralement désemparés). Peut-être que le non-sens le plus stupide que j’ai entendu (et j’en ai entendu beaucoup) est que le Royaume-Uni n’a pas vraiment connu d’austérité parce que la dette publique a continué d’augmenter ou parce qu’une autre mesure tout aussi impertinente ait elle-même continué d’augmenter.

Si essayer de réduire le déficit budgétaire (ce que les économistes appellent la consolidation budgétaire) n’avait pas d’effets négatifs sur l’économie dans son ensemble, cela n’aurait pas l’étiquette d’austérité. L’austérité concerne l’impact agrégé négatif qu’une consolidation budgétaire peut avoir sur la production. Par conséquent, la mesure appropriée de l’austérité est une mesure de cet impact. Donc ce n’est pas le niveau de dépenses publiques ou d’impôts qui importe, mais comment ce niveau varie.

Une mesure évidente que l’on pourrait utiliser est le déficit lui-même, en général ajusté pour tenir compte des variations qui surviennent automatiquement du fait que la production varie. J’ai utilisé cette mesure quelquefois, parce qu’elle était produite par l’OBR, le FMI et l’OCDE parmi d’autres. Mais ce n’est pas l’idéal, parce que l’impact des variations des impôts sur la demande globale et par conséquent sur la production est généralement plus faible que l’impact d’une variation des dépenses publiques, parce qu’une partie de la baisse d’impôt est épargnée. (C’est également vrai, dans une moindre mesure, avec les transferts de revenus.)

Il n’y a pas de façon simple de faire face à ce problème de mesure, parce que le montant d’une hausse d’impôt que les gens vont épargner va dépendre en partie de leurs anticipations relativement aux impôts qu’ils auront à payer à l’avenir. Par conséquent, certains préfèrent se focaliser seulement sur les dépenses publiques pour mesurer l’impact budgétaire (…). Cependant, il est également possible d’appliquer de simples propensions moyennes à consommer des réductions d’impôts et des revenus de transfert pour obtenir une mesure de l’impact budgétaire.

C’est ce que la mesure de l’impact budgétaire du Hutchins Center fait pour les Etats-Unis.

Il ne s’agit pas de multiplicateurs (ce qui diffère par rapport à ce que fait l’OBR pour le Royaume-Uni par exemple (1)), mais juste l’impact direct des dépenses publiques et des impôts sur la demande globale et donc le PIB. L’impact moyen total est proche de 0,4 %, ce qui serait la politique budgétaire qui serait en ce sens neutre.

Comparons la légère récession de 2001 avec la récession plus sévère de 2008-2009. Dans les deux cas, durant la récession, la politique budgétaire a été fortement contracyclique, contribuant à réduire l’impact de la récession. Après la fin de la récession de 2001, la politique budgétaire continua de soutenir la reprise pendant encore environ deux ans : il y eut notamment les réductions d’impôts de Bush. La reprise du PIB fut raisonnablement forte : la croissance était de 2,8 % en 2003, de 3,8 % en 2004 et de 3,3 % en 2005.

En 2010, nous avions une récession bien plus sévère et plus longue, mais le soutien budgétaire ne fut qu’à peine plus important qu’en 2001, malgré des taux d’intérêt contraints par leur borne inférieure. A cette occasion, les Républicains s’opposèrent au soutien budgétaire. Cela continua encore un an et un trimestre et ensuite la politique budgétaire devint fortement restrictive de 2011 à 2015. La croissance du PIB fut plus lente qu’au cours de la précédente reprise, malgré une récession plus sévère : de 2,5 % en 2010, de 1,6 % en 2011, de 2,2 % en 2012, de 1,7 % en 2013 et de 2,4 % en 2014. Cela n’aurait pas dû nous surprendre, comme la politique budgétaire amputa le PIB d’environ 1 % en 2011, en 2012 et en 2013, au lieu d’y contribuer à 0,4 % comme elle le faisait habituellement.

La vitesse et l’ampleur avec laquelle l’austérité fut appliquée après la Grande Récession furent très inhabituelles : le manuel dit qu’il faut d’abord renforcer la reprise, permettre aux taux d’intérêt de s’accroître, et de ne s’inquiéter seulement ensuite de la dette publique. Il n’y a pas eu de justification économique pour le resserrement hâtif de la politique budgétaire après 2010 : le motif, comme au Royaume-Uni, fut entièrement d’ordre politique. Cela se traduisit par la reprise de la production la plus lente aux Etats-Unis depuis la Seconde Guerre mondiale. (…) Comme je l’ai montré ici en utilisant des calculs simples, si les dépenses gouvernementales totales depuis 2011 étaient restées neutres au lieu de devenir brutalement restrictives, alors la production américaine serait facilement revenue à proximité de sa capacité (telle qu’elle est mesurée par le CBO) en 2013.

Soustraire 1,5 % du PIB ne serait pas important si quelque chose (du côté de la consommation, de l’investissement ou des exportations nettes) prenait le relais. Mais, pour cela, il faudrait compter sur la chance ou s’appuyer sur une relance monétaire, or la politique monétaire était confrontée à une trappe à liquidité. C’est le vrai crime de l’austérité. Décroître la demande globale ou la production précisément à l’instant où l’économie commençait à connaître une reprise depuis la plus sévère récession qu’elle ait connue depuis la Seconde Guerre mondiale apparaît particulièrement stupide, mais le faire précisément à l’instant où la politique monétaire était incapable d’en amortir l’impact relève de la folie. Comme je vais l’affirmer dans d’autres billets, il est de plus en plus manifeste que cela nous a appauvris de façon permanente.

(1) Si quelqu’un publie quelque chose de similaire pour le Royaume-Uni, faites-le moi savoir. Personnellement, je pense que cela fait plus sens de publier des données comme celles-ci que d’utiliser une analyse fondée sur le multiplicateur, simplement parce que mesures sont plus directes et impliquent moins d’hypothèses à propos de l’économie en général. Crucialement, il n’y a pas d’hypothèses implicites à faire à propos de la politique monétaire. Il serait intéressait de savoir pourquoi l’OBR a décidé de ne pas adopter cette approche. »

Simon Wren-Lewis, « Measuring the impact of austerity », in Mainly Macro (blog), 10 juillet 2017. Traduit par Martin Anota

vendredi 16 juin 2017

Les banques centrales doivent-elles relever leur cible d’inflation ?

« Les arguments en faveur d’un relèvement de la cible d’inflation sont simples, une fois que vous comprenez deux choses. Premièrement, l’instrument de politique monétaire le plus efficace et fiable consiste à influencer le taux d’intérêt réel dans l’économie, c’est-à-dire le taux d’intérêt nominal moins l’inflation anticipée. Deuxièmement, les taux d’intérêt nominaux de court terme ne peuvent aller en-deçà d’un plancher proche de zéro (la borne inférieure zéro, zero lower bound). Combinons ces deux choses et vous vous retrouvez avec un sévère problème dans une récession, parce que pour combattre la récession les taux d’intérêt réels doivent aller en territoire négatif, mais la borne inférieure limite l’ampleur à laquelle ils peuvent s’enfoncer en territoire négatif. Cela signifie que la politique monétaire seule peut ne pas être capable de sortir l'économie d’une récession.

Relever la cible d’inflation réduit la probabilité que les taux d’intérêt se retrouvent à leur borne inférieure zéro. Pour comprendre pourquoi, considérez tout d’abord le cas où le taux d’intérêt réel de long terme (ce que les économistes appellent souvent le "taux d’intérêt d’équilibre" ou "naturel") est positif. Disons qu’il est de 2 %. Si la cible d’inflation est de 2 % et la borne inférieure est de 0 %, cela signifie qu’en temps normal le taux d’intérêt nominal moyen est de 4 % (2 % de cible d’inflation + 2 % pour obtenir un taux d’intérêt réel). Cela signifie que les taux d’intérêt nominaux peuvent être réduits au maximum de 4 % si l’économie faiblit. Cela peut suffire pour un léger ralentissement, mais cela peut ne pas suffire pour une récession sévère comme celle que nous avons subie en 2008. Cependant si la cible d’inflation était de 4 %, les taux nominaux pourraient au maximum être réduits de 6 %. Cela permet de faire face à de sévères récessions (mais, j'avoue, peut-être aux plus sévères qui soient).

Pourquoi plusieurs économistes affirment aujourd’hui que nous devons relever la cible d’inflation de 2 % à 4 % ? L’un des raisons est qu’ils croient que le taux d’intérêt réel de long terme est aujourd’hui plus faible qu’il ne l’était lorsque les banques centrales adoptèrent la cible de 2 %. (C’est l’idée de la stagnation séculaire.) Si vous reprenez l’arithmétique ci-dessus, vous pouvez saisir pourquoi un taux d’intérêt réel de long terme plus faible va aggraver le problème de la borne inférieure zéro. L’idée est que nous devons maintenant accroître la cible d’inflation pour être certains que nous soyons moins contraints par la borne inférieure zéro à l’avenir.

La question cessa d’être une simple interrogation académique pour devenir une possibilité pratique aux Etats-Unis il y a quelques jours. Lorsqu’on a interrogé par le passé Janet Yellen, la présidente de la Fed, à propos du relèvement de la cible d’inflation, elle a eu tendance à écarter l’idée. Désormais, elle dit que c’est quelque chose que la Fed va étudier à l’avenir et que c’est l’une des plus importantes questions auxquelles font face les banquiers centraux aujourd’hui.

Cela va donner sans aucun doute un nouveau souffle au débat sur le relèvement de la cible d’inflation. Nous sommes dans un territoire d’arbitrage standard ici. Les économistes s’accordent généralement pour dire qu’une cible d’inflation plus élevée va en soi infliger de plus gros coûts à l’économie, mais cela aura pour bénéfice de réduire la fréquence des épisodes de borne inférieure zéro. Mais il y a une alternative bien plus efficace pour surmonter ce dilemme.

Les gouvernements ont un autre instrument qui a un impact assez prévisible sur la demande agrégée et qui peut être utilisé pour combattre une récession : la politique budgétaire (les changements discrétionnaires du niveau d'impôts et des dépenses publiques). Au Royaume-Uni, aujourd’hui, les taux d’intérêt sont contraints par la borne inférieure zéro en partie parce que la politique budgétaire est restrictive (le gouvernement a opté pour l’austérité). Ce serait une meilleure chose d’utiliser cet instrument pour stimuler l’économie lorsqu’elle est en récession plutôt que de relever la cible d’inflation. Pourtant, les banques centrales indépendantes ont découragé les gouvernements d’utiliser la politique budgétaire de cette façon.

Il n’est pas bon que les banques centrales prétendent que c’est quelque chose du ressort des gouvernements et qu’il y a une loi non écrite qui dicte aux banques centrales de rester silencieuses sur de telles choses. En réalité, au Royaume-Uni et dans la zone euro, les banques centrales encouragèrent activement les gouvernements à faire la mauvaise chose avec la politique budgétaire lors de la dernière récession : elles les incitèrent à embrasser l’austérité. S’il y a quelque chose d’inhérent au sein des banques centrales qui les empêche de donner le conseil approprié de cette façon, alors nous devons nous demander d’urgence quels changements apporter aux banques centrales.

Dans une récession, dès que la banque centrale pense que les taux d’intérêt seront contraints par leur borne inférieure, elle doit dire, haut et fort, que la politique budgétaire doit devenir plus expansionniste. En outre, la banque centrale doit dire, haut et fort, que les gouvernements n’ont pas à s’inquiéter de la hausse de la dette et des déficits qu’entraîneraient la récession et toute relance budgétaire qu’ils entreprendraient (…). Ces deux déclarations auraient le mérite d’être exactes.

Bien sûr, les gouvernements vont devoir restaurer la dette aux niveaux désirés à un moment ou à un autre, mais il est possible de le faire bien après que les taux d’intérêt aient quitté la borne inférieure zéro, ce qui permettrait de réduire la dette en minimisant les répercussions sur l’économie. Le but immédiat de la politique budgétaire dans une récession doit consister à laisser les taux d’intérêt s’accroître au-dessus de la borne inférieure zéro le plus tôt possible. Cela vous donne le meilleur résultat macroéconomique qui soit, un meilleur résultat que celui que vous donnera un relèvement de la cible d’inflation. La question la plus importante à laquelle les banquiers centraux font face aujourd’hui est pourquoi ils échouèrent à faire cela depuis 2009.

Maintenant il est possible que, si la démocratie est en mauvaise forme (comme c’est actuellement le cas aux Etats-Unis par exemple), le gouvernement peut ignorer le conseil qu’il reçoit de la part de la banque centrale. Dans ce cas, il est utile de considérer l’idée de donner un certain pouvoir additionnel aux banques centrales pour répliquer une expansion budgétaire, par exemple en s’appuyant sur la monnaie-hélicoptère. Ou il peut être utile de considérer l’idée d’apporter des changements institutionnels qui permettent aux taux d’intérêt nominaux de s’enfoncer en territoire négatif. Ou bien d’accroître la cible d’inflation. Mais avant de faire l’une de ces choses nous devons nous assurer que les banques centrales donneront le bon conseil aux gouvernements quand la prochaine récession viendra. »

Simon Wren-Lewis, « Raising the inflation target », in Mainly Macro (blog), 16 juin 2017. Traduit par Martin Anota



aller plus loin...

« Et si les banques centrales ciblaient une inflation de 4 % ? »

« Quelle est la cible d’inflation optimale ? »

lundi 15 mai 2017

Nous sous-estimons l’impact de l’austérité

« Plusieurs idées ont été avancées pour expliquer la faible croissance de la productivité du Royaume-Uni, mais parmi les analyses orthodoxes l’impact de l’austérité n’est habituellement pas au sommet sur la liste des candidats. J’ai parlé par le passé de ce que j’ai appelé le 'retard d’innovation" (innovation gap) et expliqué pourquoi le Royaume-Uni est actuellement en train de souffrir d’un retard d’innovation particulièrement large. L’idée d’un retard d’innovation permet de lier l’insuffisance de la demande globale (celle provoquée par l’austérité par exemple) à la faiblesse de la croissance de la productivité.

Prenons un exemple simple pour expliquer comment un retard d’innovation peut apparaître après une sévère récession provoquée par l’austérité. Supposons que les améliorations des technologies et des techniques de production soient constantes (…), mais qu’elles ne peuvent se diffuser qu’avec de nouveaux investissements : c’est ce que les économistes appellent le progrès technique incorporé (embodied technical progress).

Imaginez une entreprise dont les ventes ne s’accroissent pas. Est-ce que l’entreprise va investir pour devenir plus productive ? Seulement si les profits additionnels qu’elle peut faire suite à l’investissement (…) sont plus larges que le coût de l’investissement. Il faut que cette entreprise ait un gros retard d’investissement pour qu’il soit utile pour elle d’entreprise l’investissement et pour que sa productivité augmente.

Maintenant, imaginez que la demande s’accroisse. L’entreprise a maintenant à entreprendre un investissement additionnel pour accroître sa production. Il fait sens d’investir dans des techniques qui incorporent les dernières technologies. La hausse de la demande entraîne à la fois une hausse de l’investissement (ce que les économistes appellent l’ "accélérateur") et une hausse de la productivité.

Au cours d’une reprise normale suite à une récession, la demande connaît rapidement une reprise (la croissance excède facilement ses tendances passées), ce qui amène les entreprises à investir dans les dernières technologies. Tout retard d’innovation qui apparaît lors de la récession est rapidement rattrapé. A l’inverse, une reprise très lente provoquée par l’austérité va réduire le besoin d’investissement pour les entreprises, ce qui maintient et aggrave le retard d’innovation.

Cette idée colle avec certains travaux récents qui suggèrent que la croissance de la productivité dans les entreprises à la "frontière" (les entreprises qui ont déjà une productivité relativement forte) n’a pas ralenti et l’écart s’est creusé entre ces entreprises situées à la frontière technologique et celles qui sont en retard. (…) Cela ferait sens si les entreprises à la frontière croissent (parce qu’elles sont les plus productives), mais les entreprises en retard ne le font pas. Les firmes en croissance ont à investir pour croître, mais les entreprises en stagnation ne croissent pas.

Le même modèle peut aussi suggérer comment une croissance de la productivité tirée par les salaires peut survenir (…). Comme la plupart des innovations sont susceptibles de conduire à une économie de main-d’œuvre, alors une hausse des salaires peut accroître les profits qui viennent d’un investissement, sans nécessairement accroître le coût de cet investissement. Donc une hausse des salaires provoquée par une hausse du salaire minimum, par exemple, peut accroître l’investissement et par conséquent la productivité. Réciproquement, une période de stagnation de la croissance des salaires, comme celle que nous avons connue depuis la récession, n’incite aucunement les entreprises à investir dans des techniques qui accroissent la productivité.

Je pense que cette histoire n’explique qu’une partie du retard de productivité du Royaume-Uni. Au Royaume-Uni, l’investissement dans les usines et les machines a brutalement chuté lors de la récession et il n’est toujours pas revenu à ses niveaux d’avant-crise, mais son déclin n’explique pas totalement la stagnation de la productivité. (…) Mais s’il explique ne serait-ce qu’une partie de celle-ci, alors cela signifie que l’austérité est bien plus coûteuse qu’on ne le croit.

Une manière de décrire ce que je viens de dire est de dire que l’austérité influence aussi bien l’offre globale que la demande globale. Vous pouvez dire que l’austérité ignore aussi bien l’accélérateur que le multiplicateur, ce qui est joliment dit, mais cela ne capture par l’idée du progrès technique incorporé qui est cruciale à ce raisonnement. C’est pourquoi il vaut toujours mieux d’avoir une économie à haute pression (high pressure economy) (…).

Comme je l’ai expliqué ici, je n’utilise pas le terme "austérité" comme un simple synonyme de la consolidation budgétaire ou même d’une consolidation budgétaire impliquant une réduction des dépenses publiques. La consolidation budgétaire n’entraîne pas forcément une réduction de la production si la politique monétaire est capable de compenser son impact. Mais si les taux d’intérêt sont contraints par leur borne inférieure, comme ils le font à nouveau au Royaume-Uni (1), la consolidation budgétaire va réduire la production et entraîner un autre gâchis inutile de ressources. Depuis le Brexit, nous avons une seconde période d’austérité au Royaume-Uni. Pour évaluer à quel point cette austérité sera coûteuse, nous ne devons pas seulement regarder si elle crée un écart de production (output gap) négatif, mais aussi si elle génère un retard d’innovation qui réduit la productivité. »

(1) Nous le savons parce que la Banque d’Angleterre accroît le montant de l’assouplissement quantitatif. »

Simon Wren-Lewis, « Underestimating the impact of austerity », in Mainly Macro (blog), 7 mai 2017. Traduit par Martin Anota

lundi 1 mai 2017

Le Brexit commence (probablement) à freiner la croissance britannique

« Quand la Banque d’Angleterre prévoyait au lendemain du référendum du Brexit une croissance de 0,8 % du PIB en 2017, elle s’attendait à ce que la croissance de la consommation déclinerait à juste 1 %, avec seulement une petite baisse du ratio d’épargne. Mais la croissance de la consommation s’est révélée être bien plus robuste durant la deuxième moitié de l’année 2016 que ne l’attendait la Banque d’Angleterre. Comme ce graphique (…) le montre, quasiment toute la croissance du PIB en 2016 était inférieure à celle de la croissance de la consommation, une dynamique qu’elle a correctement décrite comme insoutenable. (Si la consommation croît, mais que les autres composantes du PIB ne le font pas, cela signifie que les ménages puisent dans leur épargne. Cela ne peut continuer indéfiniment.)

GRAPHIQUE Variations du PIB réel par tête du Royaume-Uni et de ses composantes

Simon_Wren-Lewis__Variations_du_PIB_reel_par_tete_du_Royaume-Uni_et_de_ses_composantes.png

Cette forte croissance de la consommation en 2016 a incité la Banque d’Angleterre à changer sa prévision. En février, elle prévoyait pour 2017 une croissance de 2 % pour la consommation et pour le PIB et une chute substantielle du taux d’épargne.

Qu’est-ce qui s’est passé ici ? En août, la Banque d’Angleterre pensait que les ménages prendraient conscience que le Brexit entraînerait une chute significative de la croissance du revenu futur et qu’ils commenceraient par conséquent à réduire leurs dépenses de consommation. Quand il apparut que ce n’était pas le cas, la Banque d’Angleterre sembla faire l’hypothèse inverse, c’est-à-dire supposer que les ménages penseraient que le Brexit aurait peu d’impact sur la croissance de leur revenu futur. Par conséquent, la Banque d’Angleterre prévoyait en février que le taux d’épargne déclinerait davantage en 2018 et en 2019, comme je l’ai noté ici. Elle supposait ainsi que les ménages seraient continuellement surpris par une croissance du revenu plus faible qu’ils ne l’attendaient.

La première estimation pour le PIB du premier trimestre 2017 qui a été publiée hier suggère une croissance de seulement 0,3 %, soit la moitié de ce que prévoyait la Banque d’Angleterre en février. Cette faible croissance semble s’expliquer par la faiblesse des secteurs associés à la consommation (malheureusement, nous n’obtiendrons le chiffre exact de la croissance de la consommation qu’avec la publication de la deuxième estimation du PIB). Donc que se passe-t-il ?

Il y a trois explications possibles. La première, qui est la moins probable, est que le premier trimestre 2017 constitue juste une anomalie. La deuxième est que de plus en plus de consommateurs commencent à réaliser que le Brexit va détériorer leur situation (j’ai noté ici que certains résultats de sondages qui le suggèrent) et qu’ils ajustent en conséquence leurs dépenses. La troisième est que la consommation était forte à la fin de l’année 2016 parce que les ménages achetaient des biens étrangers avant que leurs prix ne grimpent en conséquence de la dépréciation de la livre sterling provoquée par le référendum du Brexit.

Si vous m’avez suivi jusqu’à présent, vous devez savoir qu’il est bien difficile d’établir ce genre de prévision et que le tapage que les partisans du Brexit ont fait à propos des prévisions de la Banque d’Angleterre était peu fondé et ainsi probablement prématuré. Tout ce que Philip Hammond a réussi à dire à propos des dernières prévisions de la croissance, c’est qu’elles démontrent la nécessité de mettre en place un gouvernement "fort et stable" ! Je pense, cependant, que nous entendrons moins parler de la robustesse de notre économie ces prochaines semaines.

Bien sûr, la croissance peut s’accélérer au cours des prochains trimestres, en particulier si les entreprises tirent avantage de la bonne situation qu’a temporairement provoquée la dépréciation avant que s’officialise la sortie du Royaume-Uni hors de l’UE. Les prévisions ne sont presque jamais vérifiées. Mais même si c’est le cas, je ne pense que la plupart des journalistes n’ont pas encore réalisé à quel point il est inapproprié d’utiliser le PIB comme mesure de la santé économique après une large dépréciation. Dans la mesure où la dépréciation renchérit le prix des biens étrangers, les habitants au Royaume-Uni peuvent voir se détériorer leur revenu réel et par conséquent leur bien-être même si le PIB croît. Comme je l’ai souligné ici, cela explique pourquoi les gains réels ont chuté depuis 2010 même si nous avions une croissance (certes faible mais) positive du PIB réel par tête et, comme je l’ai souligné ici, pourquoi le Brexit va détériorer la situation du citoyen moyen du Royaume-Uni même si la croissance du PIB ne décline pas. Si celle-ci décline, cela ne fera qu’aggraver les choses. »

Simon Wren-Lewis, « The Brexit slowdown begins (probably) », in Mainly Macro (blog), 29 avril 2017. Traduit par Martin Anota

vendredi 28 avril 2017

Henry Farrell, les économistes et l’austérité

« Henry Farrell a publié un article dans le Washington Post où il lie une analyse (qu’il publiera prochainement avec John Quiggin) à un débat qui a impliqué de nombreux blogueurs autour du rôle des économistes universitaires dans la promotion (ou non) de l’austérité. Le papier est très riche dans les détails historiques et Farrell suggère que les politiciens étaient d’accord pour adopter un plan de relance quand les économistes semblaient avoir trouvé un consensus dans leurs préconisations, mais le passage à l’austérité s’amorça lorsque les économistes se montrèrent plus divisés.

Je tends à être d’accord avec cette idée de Kevin Drum. Selon ce dernier, les politiciens ont fondamentalement fait ce qu’ils voulaient faire et les économistes ont simplement été utilisés pour cautionner leurs décisions. C’est l’argument que j’ai finalement avancé dans mon analyse sur la théorie générale de l’austérité. Nous en trouvons une bonne illustration dans le cas du Royaume-Uni. George Osborne s’est opposé à la relance budgétaire en 2009 et ce qui changea, c’est qu’il devint le Chancelier en 2010. Il n’y a pas eu de changement de point de vue, juste un changement dans la composition de l’élite au pouvoir.

Un exemple qui va mieux avec l’idée de Farrell est l’Allemagne. Il affirme que les politiciens allemands étaient persuadés à conduire la relance en 2009 par la (surprenante) unanimité de leurs propres économistes, mais embrassèrent l’austérité lorsque les économistes allemands changèrent d’avis. Sur ce point, il peut avoir raison. Mais même ici je pense que vous pouvez développer un autre récit, qui met l’accent sur ce que les politiciens craignent le plus. En 2009, ils s’étaient inquiétés (avec raison) à l’idée de connaître une autre Grande Dépression et ainsi leur instinct les poussa à suivre leurs conseillers économiques qui nourrissaient exactement la même crainte. En 2010, cette peur s’était effacée et une autre inquiétude prit sa place (pour les politiciens et pour les économistes allemands enclins à l’austérité), portant cette fois-ci sur la dette européenne.

(…) Aux Etats-Unis et au Royaume-Uni, (…) les Républicains et les Conservateurs gagnèrent assez de pouvoir pour mettre en œuvre la politique qu’ils voulaient depuis toujours mettre en œuvre. C’est ce que j’ai appelé par le passé la "tromperie du déficit" (deficit deceit) : réduire la taille de l’Etat en prenant prétexte des craintes que suscitait le déficit public. Certes le Trésor et le Gouverneur de la Banque d’Angleterre encouragèrent George Osborne, mais je pense que ce dernier aurait, même sans leur soutien, agi comme il a agi : il n’a jamais été quelqu’un prêt à laisser l’économie l’empêcher d’atteindre un but politique.

Mais comme Drum le dit, le tableau n’est pas entièrement sombre pour les économistes. Selon lui, "si nous avions répondu à la crise financière de 2007-2008 de la même manière que nous avions réagi à la crise financière de 1929-1932, nous serions toujours en train d’attendre une répétition de la Seconde Guerre mondiale pour nous ramener à la normale". Je suis embêté quand les gens me demandent ce que les économistes ont fait au cours de la dernière décennie pour mériter le respect. Nous avons évité une autre Grande Dépression, c’est tout. Cela a peut-être été la première priorité des politiciens, mais nous leur avions dit ce qu’il y avait à faire, comme Farrell le met en évidence.

Mais lorsque Farrell suggère que l’austérité aurait pu être évitée si les économistes étaient restés d’accord entre eux, je pense qu’il a tort. L’année 2016 a bien démontré que la politique pouvait réellement ignorer le consensus des économistes universitaires. Même s’il est important de ne pas cesser de marteler à quel point l’austérité a été une erreur et qu’elle n’a été recommandée que par une minorité d’économistes, nous devons surtout nous demander pourquoi par moments la majorité peut être si facilement ignorée sur des questions pour lesquelles les économistes en savent bien plus que n’importe qui d’autre. »

Simon Wren-Lewis, « Henry Farrell on economists and austerity », in Mainly Macro (blog), 13 avril 2017. Traduit par Martin Anota



aller plus loin... lire « Vers une théorie générale de l’austérité »

lundi 24 avril 2017

Inégalités ou pauvreté ?

« Tony Blair a dit un jour : "s’il y a des gens qui gagnent beaucoup d’argent. Ce n’est pas mon problème. Je m’inquiète pour les personnes qui sont dépourvus d’opportunités, désavantagés et modestes". La plupart des gens, notamment le gouvernement travailliste, interprétèrent ces phrases comme se focalisant sur la pauvreté plutôt que sur les inégalités. (…)

J’ai récemment vu de la part de Miles Kimball une défense très claire de l’idée selon laquelle la pauvreté importerait plus que les inégalités. Il tire son raisonnement d’enquêtes qui cherchent à quantifier un principe fondamental de l’économie : la décroissance de l’utilité marginale. Il cite des résultats qui suggèrent qu’un euro de revenu signifie bien plus à une personne qui gagne la moitié du salaire moyen qu’à une personne qui gagne le double du salaire moyen. Il suggère que ces résultats tendent à valider le second principe de justice sociale avancé par John Rawls. Si nous le simplifions, nous pouvons dire que nous n’avons pas à nous inquiéter de trop des riches parce qu’un supplément de monnaie ne leur rapporte qu’un faible supplément d’utilité, si bien que nous devons nous focaliser sur la seule réduction de la pauvreté.

Maintenant, bien sûr, ce point n’est pas pertinent si nous réduisons la pauvreté en taxant les riches. Les riches sont une très bonne source d’argent, parce que l’argent ne leur manque pas. L’importance transparaît si nous comparons deux sociétés : une qui n’a pas de pauvres, mais qui a beaucoup de personnes très riches ; une autre qui n’a pas de riches, mais qui a toujours des pauvres. Selon Miles, nous devons préférer la société sans pauvreté à celle sans super-riches. D’un point de vue statique, je pense qu’il a raison, mais j’ai quelques inquiétudes, comme je vais le voir à présent, sur le plan dynamique.

Il y a un paragraphe intéressant au début du billet de Miles : "(…) J’admets que le montant de richesse détenue par les ultra-riches est vraiment astronomique et qu’il est important de s’assurer que les ultra-riches n’utilisent pas leur richesse pour prendre entièrement contrôle de notre système politique. Il est crucial d’observer et d’étudier en détails les diverses façons par lesquelles les ultra-riches influencent la politique. Mais en laissant de côté l’idée que les ultra-riches puissent subvertir notre système politique, nos inquiétudes vis-à-vis des inégalités doivent se focaliser sur la façon par laquelle nous prenons soin des pauvres ; il est important de savoir si l’argent nécessaire pour aider les pauvres provient des classes moyennes ou des riches, mais c’est moins important que le fait même de prendre soin des pauvres".

Je vais aller plus loin que Miles. Si l’argent importe si peu aux très riches, pourquoi voudraient-ils alors s’enrichir à un degré astronomique et contrôler le système politique pour s’assurer qu’ils gagnent même plus encore ? La réponse vient précisément du même concept qu’utilise Miles. Si 1.000 euros ne signifie rien pour vous parce que vous êtes très riche, vous allez plutôt chercher à gagner 10.000 euros ou 100.000 euros en plus. Le fait que les ultra-riches aient un si grand patrimoine n’est pas un simple accident, mais peut résulter du principe même que Miles explore : la décroissance de l’utilité marginale. Les riches ne sont pas différents des autres, dans le sens où ils veulent eux aussi être satisfait, sauf qu’ils ne peuvent y parvenir qu’en gagnant de larges montants d’argent.

(...) Considérons l’argument mis en avant par Piketty, Saez et Stantcheva dont j’ai discuté ici. Pourquoi est-ce que la part du revenu avant impôt des 1 % les plus riches s’est autant accrue au Royaume-Uni et aux Etats-Unis, c’est-à-dire précisément dans deux pays qui ont connu dans les années 1980 une forte réduction des taux d’imposition des plus hauts revenus ? L’argument que Piketty et ses coauteurs avancent est qu’avec des taux d’imposition punitifs, il y a peu d’incitations pour les PDG et les autres salariés très rémunérés à utiliser leur pouvoir de monopole pour extraire des rentes (…) de leur entreprise. Cela ne vous rapporterait que très peu d’argent après imposition, si bien que cela ne vous permettrait pas d’accroître de beaucoup votre satisfaction. Mais si les taux d’imposition marginaux diminuent, il est désormais rentable pour ces individus de se lancer dans l’extraction de rentes.

Comme je l’ai discuté ici, la culture du bonus est l’une des façons d’extraire des rentes qui a été stimulée par la réduction des taux marginaux d’imposition. (…)

Donc je peux prendre le même principe fondamental sur lequel s’appuie Miles et pourtant arriver à une bien différente conclusion. Une fois que nous donnons à ceux qui sont au sommet l’opportunité de gagner de très hauts revenus et que la seule façon par laquelle ces individus peuvent d’obtenir une satisfaction supplémentaire est de s’embarquer dans la quête de rentes, nous les incitons alors à tourner leurs efforts hors des activités socialement bénéfiques (…). Quand leurs efforts visent à influencer le système politique, nous avons en sérieux problème. Ces activités peuvent culminer en prenant le dessus sur le système politique, ce qui est précisément ce qui s’est passé aux Etats-Unis, avec des répercussions potentiellement désastreuses. Ne serait-ce que pour cette seule raison, les inégalités importent autant que la pauvreté. »

Simon Wren-Lewis, « Inequality or poverty », in Mainly Macro (blog), 18 avril 2017. Traduit par Martin Anota



Ni l'inégalité, ni pauvreté

« (…) Des réductions d’impôts, de plus généreuses pensions, plus d’emplois et une hausse du salaire minimum ont contribué à réduire la pauvreté au Royaume-Uni, mais le gouvernement de Blair fit en parallèle peu de choses pour restreindre la hausse des très hauts revenus.

Cela néglige malheureusement quelque chose : les maths. Si les riches s’enrichissent et si la situation des pauvres s’améliore, alors à un niveau de revenu donné, la situation de quelqu’un doit se dégrader. La "société blairiste" avec des super-riches, mais peu de pauvres, est une société dans laquelle la classe moyenne est relativement pauvre.

Ce n’est pas sans poser problème, peut-être surtout d’un point de vue conservateur. Comme Deirdre McCloskey l’a suggéré, une société bourgeoise incarne les vertus de la retenue, de la justice et du respect d’autrui. Une société blairiste où "le gagnant rafle tout" les met à mal : pourquoi travailler dur à l’école et à l’université (et s’endetter fortement) quand cela ne permet d’avoir qu’un emploi précaire et peu d’espoir d’avoir un logement décent ? Et une classe moyenne précarisée et aigrie menace aussi la stabilité politique. En 2013, Fraser Nelson écrivait : "Nos classes moyennes (qui constituent pourtant une grande force stabilisatrice dans notre société) se contractent rapidement. Il est difficile d’imaginer la bourgeoisie britannique descendre dans la rue, mais un jour ou l’autre bientôt ils pourraient faire demi-tour et dire :'Désolé, mais nous sommes plutôt dingues et nous ne supporterons plus cela'." Peut-être que le Brexit, l’UKIP et la hausse des sentiments insulaires, anti-marché lui donnèrent raison : les inégalités peuvent être mauvaises pour la liberté économique.

Bien sûr, je ne m’inquièterais pas si la société blairiste menait à une croissance plus rapide et donc à un plus gros gâteau pour tous. Malheureusement ce n’est pas le cas. C’est en fait plutôt l’opposé. Depuis le milieu des années 1990, la croissance du PIB par tête a ralenti.

Et cela peut s’expliquer par le virage blairiste. Simon a raison de dire que les super-riches s’engagent dans la quête de rentes. Mais cela n’est pas confiné aux choses comme l’ingérence d’Arron Banks dans la politique politique. Cela affecte aussi le monde du travail : la hausse de la rémunération des PDG s’est faite aux dépens des actionnaires et des travailleurs. Et il y a diverses raisons amenant à penser qu’une hausse de la part du revenu détenue par les super-riches réduit la croissance économique. Par exemple, elle mène à l’adoption de mauvaises politiques en réduisant la confiance.

Miles a peut-être raison lorsqu’il dit qu’il vaut mieux avoir une société avec de nombreux ultra-riches et sans pauvres plutôt qu’une société dans laquelle il y a de la pauvreté et aucun super-riche. Mais (…) cela omet une troisième option : une société dans laquelle il n’y a ni pauvres, ni super-riches. C’est ce que nous devrions rechercher.

Une dernière chose : Oui, je sais que le coefficient de Gini a chuté ces dernières années. Mais cela nous dit peu de choses : la société blairiste peut avoir un faible Gini parce qu’il y a un faible écart entre les classes moyennes et les pauvres même si les riches sont très riches. »

Chris Dillow, « Neither inequality nor poverty », in Stumbling & Mumbling (blog), 19 avril 2017. Traduit par Martin Anota

samedi 4 mars 2017

Une récession provoquée par des anticipations autoréalisatrices ?

« (...) Je me suis permis de conclure mon dernier cours par une note de réflexion. Je fais savoir que la macroéconomie a commis une erreur en ignorant le rôle de la finance avant la crise, mais je souligne aussi que la lenteur de la reprise qui s'ensuivit est en soi une confirmation du modèle macroéconomique de base : l’austérité est une mauvaise idée à la borne inférieure zéro (zero lower bound), l’assouplissement quantitatif (quantitative easing) n’a pas été inflationniste et les taux d’intérêt sur la dette publique n’ont pas augmenté, mais chuté.

Jusqu’à présent, cela semble familier. Mais je finis mon cours en montrant à mes étudiants le graphique suivant.

GRAPHIQUE Logarithme du PIB britannique et de sa tendance d’avant-crise

Wren-Lewis__Logarithme_du_PIB_britannique_et_de_sa_tendance_d_avant-crise.png

Et je dis que nous n’avons vraiment pas d’idée pour expliquer pourquoi il n’y a pas eu de reprise suite à la Grande Récession, qu’il y a donc encore plein de mystères irrésolus en macroéconomie. L’énigme nous laisse plus perplexe dans le cas du Royaume-Uni parce que la tendance d’avant-crise y était si stable, mais quelque chose de similaire s’est produit dans d’autres pays. Je pense que c’est tout à fait adéquat de finir mon cours avec cette une note d’humilité (et peut-être d’inspiration).

Une manière mécanique d’expliquer ce qui s’est passé est de briser la tendance : suggérer que le progrès technique a ralenti durablement. Cela signifie inévitablement que la période d’avant-crise est transformée en boom. Je me suis montré des plus sceptiques à propos de cette idée, mais je dois admettre qu’une partie de mon scepticisme vient des idées traditionnelles à propos de la façon par laquelle l’inflation se comporterait dans un boom.

Cependant une autre explication que j’ai toujours eu à l’esprit et que d’autres ont commencé à explorer est que peut-être nous sommes restés dans une période durable de demande insuffisante. La théorie keynésienne suggère qu’une telle possibilité peut survenir. Supposons que les entreprises et les consommateurs en viennent à croire que l’écart de production (output gap) est actuellement nul alors même qu’il ne l’est pas et qu’ils croient de façon erronée que la récession provoqua un changement significatif du PIB potentiel, mais aussi de son taux de croissance. Supposons aussi que les travailleurs au chômage reviennent eux-mêmes à l’emploi en réduisant leur salaire (réel) ou disparaissent en cessant de chercher un emploi. La première éventualité s’observe notamment si les entreprises choisissent des techniques de production plus intensives en travail : pour laver les voitures, elles peuvent remplacer les machines par des travailleurs avec des lances.

Dans cette situation, comment savons-nous que nous souffrons d’une insuffisance de la demande globale ? La réponse traditionnelle en macroéconomie est la déflation nominale : la chute des prix et des salaires. Mais parce que des travailleurs sont déjà revenu à l’emploi en acceptant une baisse de salaire, plus rien d’autre ne va venir du côté des salaires. Donc pourquoi est-ce que les entreprises réduiraient les prix ?

Si la tendance d’avant-crise s’applique toujours, cela signifie qu’il y a de nombreuses innovations attendant de s’incarner dans un nouvel investissement. Avec ce nouveau capital bien plus efficace en place, soit les entreprises accroîtraient leurs profits en vendant à leur marché existant, soit elles essaieraient d’accroître leur part de marché en vendant moins cher que leurs concurrents. Nous observerions alors une reprise tirée par l’investissement, accompagnée par une hausse de la productivité et peut-être une baisse des prix.

Mais supposons que les innovations ne soient pas suffisamment profitables pour générer une hausse des profits qui justifierait d’entreprendre l’investissement, même si les coûts d’emprunt sont faibles. Ce qui explique le mieux pourquoi le progrès technique incarné prend place, c’est peut-être le besoin de satisfaire un marché en croissance. L’entreprise doit installer de nouvelles capacités pour satisfaire la demande croissante que rencontre son produit et c’est alors qu’il apparaît nécessaire d’investir en équipements qui incarnent les nouvelles innovations. L’accélérateur reste un modèle empirique d’investissement très efficace. (…) Mais si les croyances sont telles que l’on ne s’attend pas à ce que le marché s’étende autant, parce que les entreprises croient que l’économie est "à la tendance" et que le taux de croissance est maintenant très faible, alors le besoin d’investir pour honorer un marché en croissance se fait moins pressant.

L’idée remonte bien sûr à Keynes et aux esprits animaux. D’autres ont plus récemment reformulé des idées similaires, notamment Roger Farmer. C’est un peu différent de l’idée d’ajouter une croissance endogène à un modèle keynésien, comme dans ce papier de Benigno et Fornaro par exemple. Je suppose dans cette discussion que la production potentielle n’a pas été perdue, parce que l’innovation n’a pas ralenti, mais qu’elle n’est simplement pas utilisée.

C’est cette possibilité qui est la raison pour laquelle j’ai toujours affirmé que les banques centrales et les gouvernements auraient dû être un peu plus ambitieux dans la stimulation de la demande globale après la Grande Récession. Comme j’ai déjà pu l’affirmer, mais d’autres aussi, vous n’avez pas à donner une très forte probabilité au scénario selon lequel la demande va créer de l’offre avant que cela justifie (…) de laisser l’économie aller en surchauffe. Chaque fois que je vois les données ci-dessus, je me demande si nous ne nous sommes pas infligés cela nous-mêmes par une combinaison d’austérité destructrice et de timidité. »

Simon Wren-Lewis, « A self-fulfilling expectations led recession? », in Mainly Macro (blog), 2 mars 2017. Traduit par Martin Anota



aller plus loin... lire « L’insidieux impact à court terme du ralentissement de la productivité »

vendredi 24 février 2017

NAIRU : une réponse aux critiques

« Quand j’ai écrit mon billet sur le bashing dont fait l'objet le NAIRU, j’avais principalement en tête quelques articles de presse que j’avais lus qui suggéraient de se débarrasser du concept au motif que nous aurions des difficultés à l’estimer de façon fiable. Ce que j’avais oublié, malheureusement, c’est que pour les économistes hétérodoxes d’une certaine trempe, le NAIRU est un mot qui met hors de soi (…). Mon billet a suscité des commentaires vraiment incroyables. (…) Je dois dire d’emblée que tout le monde n’a pas répondu de cette façon. Certains se sont montrés bien plus réfléchis et constructifs (notamment Jo Michell). Mais les réactions les moins réfléchies sont également intéressantes, d’une certaine façon.

Je dois rappeler ce qu’est le NAIRU, en particulier parce que les économistes hétérodoxes le confondent avec d’autres choses. Prenons une courbe de Phillips très simple :

inflation au cours d’une période = inflation attendue à la période suivante – aU + b

a est un paramètre et U une mesure de l’excès d’offre ou de demande dans l’économie. Le chômage sera une mesure de l’excès d’offre, mais il est loin d’en être une mesure parfaite. (…) b désigne un ensemble de variables qui varient lentement. Celles-ci peuvent inclure une mesure de la force des syndicats, de la mobilité du travail ou du degré de monopole sur le marché des biens. Nous définissons le NAIRU ainsi :

NAIRU = b/a

Si U est inférieur au NAIRU au cours d’une période prolongée, alors l’inflation va s’accroître, ce qui va amener les agents à réviser à la hausse leurs anticipations d’inflation, ce qui accroîtra en retour l’inflation, etc.

Le concept est utile pour les responsables de la politique économique impliqués dans la gestion de la demande globale. Ils doivent déterminer de combien ils peuvent pousser la demande avant que l’inflation commence à augmenter. S’il s’agit de banques centrales indépendantes, celles-ci doivent accepter le monde comme il est. Le NAIRU est une description de la façon par laquelle fonctionne l’économie : rien de plus, rien de moins. C’est pourquoi les affirmations selon lesquelles les économistes qui utilisent ou estiment le concept sont quelque peu responsables de ceux qui sont au chômage sont stupides.

Bien sûr, vous pouvez critiquer le concept du NAIRU, mais logiquement cela impose de critiquer la courbe de Phillips dont il est tiré. Il est aussi raisonnable d’affirmer que le concept est bien, mais que le NAIRU est si difficile à mesure qu’il serait mieux de ne pas chercher à l’estimer, ni de l’utiliser comme guide pour la politique économique. J’ai beaucoup de sympathie pour cette idée actuellement ; (…) j’ai d’ailleurs pu affirmer, dans le cas des Etats-Unis aujourd’hui, que les responsables de la politique économique doivent trouver le NAIRU en laissant l’inflation dépasser sa cible. Mais ce point de vue n’était pas pertinent dans mon précédent billet, qui portait sur le concept du NAIRU, pas sa mesure.

En ce qui concerne le concept, je pense que les attaques les plus cruciales viennent des réflexions à propos de l’hystérèse, comme Jo Michell le suggère. Mais même ici, nous ajoutons une complication à l’analyse du NAIRU ; nous ne remettons pas en cause celle-ci. Ce que l’hystérèse fait, c’est rendre extrêmement coûteuses les périodes où le chômage est supérieur au NAIRU. Cela signifie aussi qu’il est justifié de laisser le chômage aller en-deçà du NAIRU si cela permet de réduire le NAIRU lui-même.

J’aimerais finir par deux réflexions. La première concerne la modélisation du NAIRU. Il y a eu, suite au travail de Layard et de Nickell, toute une littérature empirique qui a cherché à modéliser des séries temporelles du NAIRU pour les pays de l’OCDE en utilisant des variables indirectes pour des choses comme le pouvoir syndical, le régime d’indemnisation et les problèmes géographiques d’appariement. Avec la domination de la méthodologie des microfondations, cette littérature s’est faite plus rare, même si dans une certaine mesure elle demeure à travers les modèles d’appariement. Je serais très intéressé de savoir si cette analyse de séries temporelles, potentiellement enrichie par les modèles d’appariement (…), a subsisté d’une façon ou d’une autre.

J’aimerais aussi revenir sur les réactions brutales qu’a suscité mon précédent billet (…) et sur l’hostilité présentée par certains économistes hétérodoxes (j’ai bien dit certains) vis-à-vis du concept. J’ai essayé d’identifier ce qui m’embête le plus avec cela. (…) Le concept du NAIRU ou, de façon équivalente, la courbe de Phillips sont centraux à la macroéconomie. Il est difficile d’enseigner à propos de l’inflation, du chômage et de la gestion de la demande sans y faire référence. Ceux qui essayent de fixer les taux d’intérêt dans les banques centrales indépendantes font, pour la plupart d’entre eux, ce qu’ils peuvent trouver comme équilibre optimale entre inflation et chômage.

Accepter le concept du NAIRU ne signifie pas que vous devez être d’accord avec leurs jugements. Mais si vous voulez affirmer qu’ils peuvent faire quelque chose de mieux, vous devez utiliser le langage de la macroéconomie. Vous pouvez dire, comme beaucoup l’ont fait autour de moi, que le NAIRU est soit bien plus faible que les estimations des banques centrales, soit qu’il est si incertain que ces estimations ne doivent pas influencer la politique économique. Mais si vous dites que le NAIRU doit être abandonné, cela ne vous mènera nulle part. (…) »

Simon Wren-Lewis, « The NAIRU: a response to critics », in Mainly Macro (blog), 14 février 2017. Traduit par Martin Anota

mercredi 22 février 2017

Il y a consensus des économistes sur l’austérité, mais les décideurs politiques continuent de l’ignorer

« Avec la publication d’une nouvelle étude rappelant à quel point l’austérité budgétaire peut être nocive, vous pourriez vous dire que certains politiciens vont bien finir par comprendre qu'elle l'est. La faiblesse de l'actuelle reprise a largement validé l’économie keynésienne, celle-là même qui domine l’économie orthodoxe. Les manuels et la macroéconomie de pointe disent bien qu’une réduction des dépenses publiques ne peut être qu’une très mauvaise idée lorsque les taux d’intérêt sont contraints par leur borne inférieure. Et chaque analyse réalisée ex post montre que cela a bien été le cas ces dernières années. Il est assez ironique de voir qu’à l’instant même où plusieurs articles parlent d’une "crise de la science économique", une expérience naturelle menée à grande échelle par les responsables politiques valide une grande partie de cette dernière.

Il y a trois grandes économies qui ont adopté l’austérité dans le sillage de la Grande Récession : les Etats-Unis, le Royaume-Uni et la zone euro. Est-ce que l’une d’entre elles est susceptible de bientôt reconnaître que cette généralisation de l'austérité a été une erreur ? Beaucoup croient qu’une telle prise de conscience a lieu actuellement aux Etats-Unis, mais ce serait confondre les actions et le raisonnement qu’elles sous-tendent. Si un plan de relance budgétaire était aujourd'hui adopté aux Etats-Unis, il ne le serait pas pour des motifs keynésiens. C’est notamment le cas parce que les taux d’intérêt augmentent et que la banque centrale n’a pas indiqué clairement qu’elle ne les relèvera pas à nouveau prochainement. Il y a toujours des arguments en faveur d’un large accroissement de l’investissement public financé par l’emprunt, mais il y a peu de chances qu'il soit mis en œuvre. Ce dont nous sommes sûrs, c’est qu’il y aura des réductions d’impôts, en particulier pour les riches, parce que c’est aujourd’hui le principal but de la politique économique républicaine. Parmi les Républicains, l’économie keynésienne reste l’œuvre du diable.

Le Royaume-Uni a aussi désespérément besoin d’investissements publics. En outre, le NHS appelle à une forte expansion budgétaire financée par l’impôt, qui contribuerait à éloigner les taux d’intérêt de leur borne inférieure. Mais les responsables politiques du Royaume-Uni n’ont qu’une chose en tête en ce moment : c’est le Brexit à n’importe quel prix. Nous le savons parce qu’ils ne s’intéressent à aucune autre option. Même si Dieu révélait (…) que le Brexit amputera 20 % de revenu au ménage moyen, la politique ne changerait pas de cap. Même si certains au gouvernement peuvent être tentés d’adopter un plan de relance pour dissimuler ces coûts, le Trésor garde d’une main de fer les cordons de la bourse. Jamais le gouvernement britannique n’a semblé si politiquement sûr et jamais il ne s’est jamais autant éloigné du bon sens économique.

Tous les problèmes de la zone euro ne découlent pas de la dénégation de la macroéconomie keynésienne. Comme Martin Sandbu l’affirme ici, ce qui s’est passé et continue de se passer en Grèce, c’est la vieille histoire du créancier refusant d’admettre qu’il a octroyé de mauvais prêts et pressant l'emprunteur de continuer de rembourser sans comprendre qu’il ne fait par là même qu’aggraver les choses. Mais, même ici, la méconnaissance des idées keynésiennes alimente cette ignorance. Un pays à qui l’on empêche de connaître une reprise suite à une récession aura bien plus de difficultés à trouver des ressources pour rembourser sa dette.

Cependant si vous observez très attentivement, vous pourrez voir certains signes suggérant que les choses sont en train de s’améliorer dans la zone euro. L’austérité budgétaire semble avoir cessé au niveau agrégé. Certains acteurs clés, même dans les institutions supranationales et les Etats-membres, commencent à comprendre que les politiques d’austérité ne peuvent qu’encourager le populisme. Mais il y a encore beaucoup de chemin à faire avant que soit mise en place la réforme la plus impérieuse, celle consistant à remplacer l’actuelle architecture budgétaire par quelque chose de plus keynésien, qui prenne en compte les erreurs passées.

S’il y a effectivement un changement, je doute que ce soit l’abandon du Pacte de Stabilité et du Pacte budgétaire, aussi désirable soit-il. Je pense que nous assisterons plutôt à un ajustement graduel du fouillis que constituent déjà toutes ces règles. L’ajustement n’a même pas à avoir des allures keynésiennes. Les politiques budgétaires et macroprudentielles nationales doivent se focaliser sur les écarts d’inflation entre chaque pays pris individuellement et la moyenne de la zone euro. Cela peut s’incarner dans une règle qui laisserait la possibilité à ce que la dette ou le déficit soient guidés par une cible lorsque l’inflation du pays se situe à la moyenne de l'union monétaire. Cette règle doit être symétrique vis-à-vis des écarts d’inflation, c’est-à-dire prescrire une expansion budgétaire aux pays-membres dont l’inflation est inférieure à la moyenne de la zone euro.

La complaisance des banques centrales indépendantes est également décevante. Nous avons eu la reprise la plus lente qui soit suite à une récession, avec des dommages durables sur l’offre à long terme, mais il est excusable de penser que nous sommes toujours dans la Grande Modération. Les banques centrales devraient chercher à comparer les vertus respectives des quatre principales façons d’éviter un autre épisode à la borne inférieure zéro : l’adoption d’une cible d’inflation plus élevée, les taux d’intérêt négatifs, le ciblage du PIB nominal ou la monnaie-hélicoptère. Elles doivent aussi cesser d’être si discrètes à propos de la politique budgétaire. Un tel silence rend un autre épisode à la borne inférieure zéro encore plus dangereux.

Certains se demandent pourquoi mes billets font ces derniers temps autant écho à la politique qu'à l’économie. Je suis d’accord, il y a eu un changement depuis 2015. Auparavant, j’aurais évoqué la parution d’une nouvelle étude sur les multiplicateurs budgétaires en la comparant avec la littérature existante et en examinant ses forces et ses faiblesses. Ces derniers jours sont quelque peu différents. J’espère qu’un jour ce savoir se révélera aux dirigeants, mais pour l’heure je crains que ces derniers cessent de financer ce savoir dont ils n’ont pas l’intention de se servir. Des fois, je me dis qu’écrire sur les détails relatifs aux estimations de multiplicateurs, c’est comme revoir la disposition des transats sur le Titanic. »

Simon Wren-Lewis, « The academic consensus on austerity solidifies, but policymakers go their own sweet way », in Mainly Macro (blog), 22 février 2017. Traduit par Martin Anota



aller plus loin... lire « Vers une théorie générale de l’austérité »

vendredi 17 février 2017

Le chômage, l’inflation et l'insaisissable NAIRU

« Le NAIRU désigne le niveau de chômage pour lequel l’inflation est stable. Depuis que les économistes ont inventé ce concept, beaucoup de gens se sont moqués des difficultés qu’il y a à le mesurer et du fait qu’il soit particulièrement élusif. Et leurs articles finissent souvent en concluant qu’il est temps que nous rejetions ce concept. Même de bons journalistes peuvent le faire. Mais peu de ces appels à rejeter le NAIRU répondent à cette question simple et évidente : comment pourrions-nous alors relier l’économie réelle à l’inflation ?

Il y a une exception : ceux qui suggèrent que tout ce dont nous avons besoin pour contrôler effectivement l’économie, c’est une ancre nominale, comme l’offre de monnaie ou le taux de change. Mais pour résumer une bien longue histoire, nous pouvons dire que les diverses tentatives pour y parvenir en pratique n’ont jamais très bien fonctionné. La plus récente tentative a été l’euro : adoptez simplement une devise commune et l’inflation de chaque pays-membre sera poussée à converger vers la moyenne ! Il n’y a pas eu une telle divergence, que ce soit en Allemagne ou dans les pays périphériques, ce qui a pu avoir de désastreuses conséquences.

Le NAIRU est l’un de ces concepts économiques qui sont essentiels pour comprendre l’économie, mais qui sont extrêmement difficiles à mesurer. Commençons par rappeler les raisons pour lesquelles il est difficile de le mesurer. Premièrement, le chômage lui-même n’est pas parfaitement mesuré (par exemple, certains chômeurs de longue durée cessent de rechercher un emploi par découragement, mais reviennent dans la population active lorsque la reprise se confirme et que les perspectives d’embauche s’améliorent) et il peut ne pas capturer l’idée qu’il est censé représenter, c’est-à-dire l’excès d’offre ou de demande sur le marché du travail. Deuxièmement, il ne se focalise que sur le seul marché du travail, alors que l’inflation peut aussi être liée à un excès de demande sur le marché des biens et services. Troisièmement, même si aucun de ces deux premiers problèmes n’existait, la façon par laquelle le chômage interagit avec l’inflation n’est pas claire.

La façon par laquelle les économistes ont réfléchi à propos de la relation entre chômage et inflation au cours des cinquante dernières années est la courbe de Phillips. Celle-ci dit que l’inflation dépend de l’inflation anticipée et du chômage. L’importance de l’inflation anticipée signifie que simplement relier le chômage à l’inflation va toujours se révéler chaotique. Je me souviens que dans l’une des premières éditions du manuel de Mankiw nous avions un joli graphique qui représentait cette relation pour les Etats-Unis et qui contredisait ce que je viens de dire : il montrait de claires "boucles de courbe de Phillips". Mais ce fut bien plus chaotique pour les autres pays et c’est devenu plus chaotique pour les Etats-Unis une fois que nous avons adopté le ciblage d’inflation (comme cela doit être le cas avec les anticipations rationnelles). Relisez ce billet pour les détails.

L’ubiquité de la courbe de Phillips des nouveaux keynésiens (CPNK) dans la macroéconomie courante ne doit pas nous induire en erreur en nous laissant penser que nous ayons finalement un vrai modèle d’inflation. La fréquence par laquelle il est utilisé reflète l’obsession avec la méthodologie des microfondations et le recul subséquent de l’analyse empirique. Nous savons que les travailleurs et les employeurs n’aiment pas les baisses de salaires nominaux, mais cette aversion ne transparait pas dans la courbe de Phillips des nouveaux keynésiens. Si la politique monétaire est contrainte par la borne inférieure zéro, la CPNK dit que l’inflation devrait devenir volatile, mais ce n’est pas ce que nous avons vu ces dernières années, comme l’a bien souligné John Cochrane.

Je pourrais continuer et apporter ma propre critique du NAIRU. Mais c’est là où le bât blesse. Si nous pensons réellement qu’il n’y a pas de relation entre le chômage et l’inflation, pourquoi essayons-nous de ramener le chômage sous les 4 % ? Nous savons que le gouvernement peut accroître la demande globale et réduire le chômage en augmentant ses dépenses. Et pourquoi voudrions-nous relever un jour ou l’autre les taux d’intérêt au-dessus de leur borne inférieure ? (…) Même si nous ne devons pas être obsédés par les années 1970, nous ne devons pas non plus l’oublier. Alors, les responsables de la politique économique faisaient fi du NAIRU, si bien que nous nous sommes retrouvés avec une inflation excessivement forte. En 1980, aux Etats-Unis et au Royaume-Uni, la politique économique changea, si bien que le chômage augmenta et l’inflation chuta. Il y a une relation entre l’inflation et le chômage, mais il est juste très difficile de la déterminer avec précision. Pour la plupart des macroéconomistes, le concept de NAIRU ne tient réellement que pour cette vérité macroéconomique fondamentale.

Pour offrir une critique plus subtile du NAIRU, nous pourrions avoir cela en tête, mais dire que, parce que la relation est difficile à mesure, nous devons arrêter d’utiliser le chômage comme guide pour fixer la politique monétaire. Focalisons-nous juste sur l’objectif, l’inflation, et changeons les taux selon ce qui se passe actuellement du côté de l’inflation. En d’autres termes, oublions la prévision et laissons la politique monétaire opérer tel un thermostat, en accroissant les taux lorsque l’inflation est au-dessus de sa cible et inversement.

Cela peut entraîner d’amples oscillations du chômage, mais il y a un problème plus sérieux. On a tendance à l’oublier, mais l’inflation n’est pas le seul objectif de la politique monétaire. Prenons ce qui se passe actuellement au Royaume-Uni. L’inflation s’accélère et on s’attend à ce qu’elle dépasse bientôt sa cible, mais la banque centrale a réduit les taux d’intérêt parce qu’elle s’inquiète davantage à propos de l’impact du Brexit sur l’économie réelle. Cela montre assez clairement que les responsables de la politique économique ciblent en réalité aussi bien une certaine mesure de l’écart de production (output gap) que l’inflation. Et ils ont plutôt raison de le faire, car pourquoi créer une récession juste pour lisser l’inflation ?

D’accord, donc ciblons juste une certaine moyenne pondérée de l’inflation et du chômage comme un thermostat. Mais quel niveau de chômage ? Il y a un danger, celui de montrer que nous tolérons une forte inflation si le chômage est faible. Nous savons que ce n’est pas une bonne idée, parce que l’inflation ne ferait qu’accélérer. Donc pourquoi ne pas cibler la différence entre le chômage et un certain niveau qui soit cohérent avec l’inflation stable ? (…) Une suggestion ? »

Simon Wren-Lewis, « NAIRU bashing », in Mainly Macro (blog), 17 février 2017. Traduit par Martin Anota

mardi 24 janvier 2017

Attaquer la science économique relève d’une tactique de diversion

« (…) La crise financière au Royaume-Uni a résulté des pertes que les banques ont réalisées sur leurs actifs étrangers, en raison de l’effondrement du marché du crédit subprime aux Etats-Unis. Elle n’a pas résulté d’un endettement excessif des ménages, des entreprises ou du gouvernement au Royaume-Uni. Comme Ben Broadbent, membre de la Banque d’Angleterre, a pu le dire, "en raison de l’exposition internationale de ses banques, le Royaume-Uni a été, d’une certaine façon, un 'importateur net' de la crise financière". Cette activité bancaire à l’étranger a provoqué une crise parce que les banques étaient bien trop endettées et qu’elles ne pouvaient ainsi absorber toutes ces pertes, si bien qu’elles durent être renflouées par le gouvernement.

C’est pourquoi les macroéconomistes britanniques ont échoué à déceler les signes avant-coureurs de la crise. Ils ont pourtant surveillé l’emprunt des ménages, des entreprises et des gouvernements, mais pas le levier d’endettement des banques. Les macroéconomistes reconnaissent généralement qu’ils ont commis une erreur en ignorant le rôle crucial que l’endettement du secteur financier peut jouer en influençant la macroéconomie. Il y a eu une forte hausse du volume d’études sur ces liens entre finance et économie réelle depuis la crise.

Mais supposons que les économistes aient pris conscience de ce que signifiait la hausse de l’endettement bancaire et qu’ils aient collectivement mis en garde contre les dangers d’une prise de risque excessive que cela représentait. Est-ce que cela aurait fait une quelconque différence ? Il y a de bonnes raisons de penser que non.

Ce qui s’est passé après la crise en constitue une bonne preuve empirique. Admati et Hellweg ont écrit de façon très convaincante que nous avions besoin de fortement relever les exigences en capital au sein des banques pour mettre un terme au problème des institutions "trop grosses pour faire faillite" (too big to fail) et éviter une future crise financière, et le travail de David Miles au Royaume-Uni délivre le même message. Je n’ai pas rencontré un seul économiste universitaire qui se soit sérieusement opposé à cette analyse, mais cette dernière n’a eu aucun impact sur la politique. Le pouvoir du lobby bancaire est simplement trop puissant.

Donc, la réponse des économistes à la crise financière a été ce qu’elle a devait être. Ils ont réparé l’erreur qu’ils ont commise en négligeant l’endettement bancaire. Les économistes ont fait plusieurs propositions afin d’éviter que la crise se répète. Et ces propositions ont été joliment ignorées.

En termes de politique monétaire (conventionnelle) et de politique budgétaire, les économistes universitaires avaient formulé la bonne réponse face à la crise, mais les responsables politiques ont agi autrement. Les banques centrales, remplies d’économistes, assouplirent au maximum leur politique monétaire. Elles alimentèrent ainsi la création monétaire et ignorèrent ceux qui prédirent que cela se traduirait immédiatement par une hyperinflation. Plusieurs économistes, certainement une majorité d’entre eux, étaient favorables à une relance budgétaire, du moins aussi longtemps que les taux d’intérêt butaient sur leur borne inférieure. Mais ils furent ignorés par les responsables politiques, qui optèrent en 2010 pour une généralisation de l’austérité.

Donc, compte tenu de tout cela, pourquoi certains continent-ils de s’en prendre aux économistes ? A gauche, il y a les économistes hétérodoxes qui ne veulent rien de moins qu’une révolution, le renversement de l’économie orthodoxe. (…) Ils veulent faire croire aux gens que la version expurgée de l’économie utilisée par les néolibéraux pour soutenir leur idéologie correspond en fait à l’économie orthodoxe.

D’un autre côté, la droite se retrouve dans une situation inconfortable lorsque l’économie fondée sur l’empirique entre en conflit avec leur politique. Sa réponse consiste à s’en prendre aux économistes. Ce n’est pas un phénomène nouveau (…). Avec l’austérité budgétaire, elle s’est contentée de ne mettre en avant que la minorité d’économistes qui la soutenait, puis elle a mis en œuvre une politique avec laquelle même certains économistes de cette minorité étaient en désaccord (par exemple, Kenneth Rogoff ne soutint pas les réductions de l’investissement public en 2010-2011 au Royaume-Uni qui occasionnèrent par la suite de profonds dommages à l’économie britannique). Les médias ont fait le reste du boulot en donnant peu la parole à la majorité des économistes, celle qui ne soutenait pas l’austérité.

Les coûts économiques du Brexit constituent le dernier exemple en date. Les critiques se sont focalisés sur les prédictions les plus incertaines et les moins importantes à propos du Brexit, faites par quelques uns, pour s’attaquer à l’ensemble de l’analyse du Brexit. Le fait que cette prédiction impliquait une prévision macroéconomique non conditionnelle, alors que l’évaluation faite par plusieurs groupes à propos du coût à long terme implique une projection conditionnelle basée essentiellement sur des équations du commerce, semble avoir complètement échappé aux critiques. Surtout, ces critiques ignorent complètement le fait que la dépréciation prédite de la livre sterling se soit produite et qu’elle contribue déjà à fortement réduire les niveaux de vie.

Attaquer les économistes sur le Brexit permet de discréditer ceux qui souligner les vérités qui dérangent. Continuer d’attaquer les économistes pour ne pas avoir prédit la crise financière, mais persister à ne pas reconnaître leurs succès a pour effet de détourner l’attention des gens du groupe qui a effectivement provoqué la crise et leur occulter le fait que très peu de choses ont été faites pour empêcher la survenue d’une crise similaire dans un futur plus ou moins proche. »

Simon Wren-Lewis, « Attacking economics is a diversionary tactic », in Mainly Macro (blog), 21 janvier 2017. Traduit par Martin Anota

dimanche 15 janvier 2017

Quels modèles utiliser en macroéconomie ?



« (…) Nous avons besoin de différentes classes de modèles, et ce afin de réaliser des tâches différentes.

Je vais me focaliser sur deux classes de modèles.

Les modèles théoriques, visant à clarifier les questions théoriques dans un cadre d’équilibre général. Les modèles de cette classe doivent se construire à partir d’un cadre analytique fondamental et avoir une structure théorique des plus robustes. Ils doivent être utilisés pour réfléchir, par exemple, aux effets d’un relèvement des ratios minima de capitaux que la réglementation impose aux banques, aux effets de la gestion de la dette publique ou encore aux effets d’une forme particulière de politique monétaire non conventionnelle. Ce cadre fondamental doit être celui qui est largement accepté comme point de départ et il doit pouvoir intégrer des distorsions additionnelles. En bref, il doit faciliter le débat autour des théoriciens en macroéconomie.

Les modèles de politique économique, visant à analyser les questions de politique macroéconomique courantes. Les modèles de cette classe doivent coller aux principales caractéristiques des données, notamment les dynamiques, et permettre de réaliser une analyse, notamment contrefactuelle, des politiques économiques. Ils doivent être utilisés pour réfléchir, par exemple, aux effets quantitatifs d’un ralentissement de la croissance chinoise sur l’économie américaine ou aux répercussions d’une relance menée aux Etats-Unis sur les pays émergents.

Ce serait une bonne chose si un unique modèle pouvait avoir une structure théorique robuste, élégante, tout en collant aux données. Mais c’est un rêve vain. Peut-être que l’une des principales leçons du travail empirique (du moins en macroéconomie et d’après mon expérience) est à quel point les preuves empiriques sont chaotiques, à quel point les dynamiques agrégées sont difficiles à rationaliser et à quel point plusieurs relations sont instables au cours du temps. Ce n’est peut-être pas surprenant. Nous savons, par exemple, que les relations agrégées peuvent très peu ressembler aux comportements individuels sous-jacents.

Donc, les modèles qui visent à atteindre ces deux objectifs sont condamnés à échouer, sur les deux dimensions.

Prenons les modèles théoriques. Les concepteurs de modèles DSGE, confrontés à des dynamiques complexes, mais désireux de coller aux données, ont étendu leur structure originelle en ajoutant, par exemple, la persistance externe des habitudes (pas simplement la persistance des vieilles habitudes régulières), les coûts d’un changement de l’investissement (pas seulement les coûts de changement du capital) et l’indexation des prix (que nous ne pouvons observer dans la réalité), etc. Ces changements sont entièrement ad hoc, ils ne collent pas aux données empiriques microéconomiques et ils ont alourdi et fragilisé la structure théorique des modèles.

Prenons aussi les modèles de politique économique. Les concepteurs de ces modèles, désireux de renforcer la structure théorique de leurs modèles, ont, dans certains cas, cherché à dériver les structures observées d’une certaine forme d’optimisation. Par exemple, dans le principal modèle utilisé par la Réserve fédérale, le modèle FRB-US, les équations dynamiques sont contraintes à être des solutions aux problèmes d’optimisation sous des structures de coûts d’ajustement de premier ordre. Cela m’a frappé. Les dynamiques actuelles reflètent probablement plusieurs autres facteurs que les coûts d’ajustement. Et les contraintes qui sont imposées (par exemple, sur la façon par laquelle le passé et le futur anticipé entrent dans les équations) ont peu de justification, théorique ou empirique.

Que doit-on faire ? Je suggère que chacune des deux classes de modèles suive sa propre voie.

Les concepteurs de modèles DSGE doivent accepter le fait que les modèles théoriques ne peuvent, et donc ne doivent pas, coller fidèlement à la réalité. Ces modèles doivent capturer ce que nous croyons être les caractéristiques macroéconomiques essentielles du comportement des firmes et des ménages et ne pas essayer de capturer toutes les dynamiques pertinentes. Ce n’est seulement alors qu’ils peuvent atteindre leur propos, rester suffisamment simples et fournir une plateforme pour la discussion théorique.

Les modélisateurs de politique économique doivent accepter le fait que les équations qui collent vraiment aux données peuvent n’avoir qu’une fragile justification théorique. En cela, les concepteurs des premiers modèles macroéconomiques avaient raison : la théorie du revenu permanent, la théorie du cycle de vie, la théorie du ratio q ont servi de guides pour spécifier le comportement de la consommation et de l’investissement, mais les données ont ensuite déterminé les spécifications finales.

Les deux classes de modèles doivent clairement interagir et bénéficier l’une de l’autre. Pour utiliser une expression suggérée par Ricardo Reis, il doit y avoir une co-intégration scientifique. Mais, selon moi, cela s’est révélé être contreproductif d’atteindre une intégration complète. Aucun modèle ne peut satisfaire pleinement tout le monde. »

Olivier Blanchard, « The need for different classes of macroeconomic models », 12 janvier 2017. Traduit par Martin Anota



« Dès que j’ai commencé à bloguer, j’ai régulièrement écrit des billets sur la méthodologie macroéconomique. J’ai notamment cherché à convaincre les autres macroéconomistes que les modèles économétriques structurels, avec leur mixture ad hoc de théorie et de données, n’étaient pas un vieux dinosaure à ranger aux oubliettes, mais qu’ils offraient une façon parfaitement viable de faire de la macroéconomie et de la politique macroéconomique. Je suis bien placé pour le dire car, au cours de ma carrière, j’ai utilisé aussi bien des modèles économétriques structurels que des modèles DSGE dans les articles que j’ai publiés.

Le troisième billet d’Olivier Blanchard sur les modèles DSGE fait exactement la même chose. Il est quelque peu confus lorsqu’il les appelle "modèles de politique économique" ; lorsqu’il écrit que "les modèles de cette classe doivent coller aux principales caractéristiques des données, notamment les dynamiques, et de permettre une analyse, notamment contrefactuelle, de la politique économique", il ne peut que faire référence aux modèles économétriques structurels. Je préfère les modèles économétriques structurels aux modèles de politique économique parce que les modèles économétriques structurels décrivent ce qu’il y a dans la boîte : ils sont qualifiés de "structuraux" parce qu’ils utilisent beaucoup de théorie, mais on les qualifie également d’"économétriques" parce qu’ils essayent de coller aux données et ils y parviennent. (…)

La façon par laquelle j’estimerais un modèle économétrique structurel aujourd’hui (mais pas nécessairement la seule façon valide) serait de commencer avec un modèle DSGE élaboré. Mais plutôt que d’estimer ce modèle en utilisant des méthodes bayésiennes, je l’utiliserais comme une base théorique, avec laquelle je débuterais le travail économétrique, soit sur une base équation par équation, soit comme un ensemble de sous-systèmes. Là où les structures de retard ou les restrictions inter-équation seraient clairement rejetées par les données, je changerais le modèle pour coller davantage aux données. Si certaines variables, non incluses dans la spécification DSGE, présentaient un fort pouvoir pour expliquer variables déjà incluses et auraient selon moi une relation causale avec celles-ci (c’est-à-dire pourquoi la spécification DSGE était inadéquate), je les inclurais dans le modèle. Cela deviendrait le modèle économétrique structurel.

Si cela vous semble terriblement ad hoc, c’est parce que c’est le cas. Les modèles économétriques structurels sont un mélange éclectique de théorie et de données. Mais ils vont toujours être utiles aux universitaires et aux responsables de la politique économique qui veulent travailler avec un modèle qui est raisonnablement proche des données. Ceux que j’appelle les puristes DSGE doivent admettre que les modèles DSGE ne collent pas aux données en plusieurs domaines, donc qu’ils sont mal spécifiés et que tout conseil de politique économique qu’ils peuvent délivrer est invalide. Le fait qu’ils satisfont la critique de Lucas ne suffit pas pour compenser cette mauvaise spécification.

En établissant la relation entre un modèle DSGE et un modèle économétrique structurel de la façon que je l’ai fait, cela rend manifeste pourquoi les deux types de modèles vont continuer d’être utilisés et comment les modèles économétriques structurels peuvent s’inspirer des modèles DSGE. Les modèles économétriques structurels sont aussi utiles pour le développement des modèles DSGE, dans la mesure où les écarts qu’ils présentent par rapport à ces derniers fournissent une longue liste d’énigmes potentielles sur lesquelles les théoriciens utilisant les modèles DSGE peuvent enquêter. Peut-être qu’un jour les modèles DSGE colleront tellement bien aux données que nous n’aurons plus besoin des modèles économétriques structurels, mais ce n’est pas pour demain.

Est-ce que ce que Blanchard et moi-même appelons va finir par se réaliser ? C’est déjà ce qui se fait dans une large mesure au sein de la Fed : comme Blanchard le dit, ce qui constitue effectivement son modèle est un modèle économétrique structurel. La Banque d’Angleterre utilise un modèle DSGE et le comité de politique monétaire recevrait plus de conseils utiles de son équipe si ce modèle était remplacé par un modèle économétrique structurel. Le vrai problème est avec l’université et surtout (comme Blanchard l’a identifié dans un billet précédent) les éditeurs de revues. Bien sûr, la plupart des universitaires vont continuer d’utiliser des modèles DSGE, ce qui ne me pose pas de problème en soi. Par contre, ceux qui utilisent, non pas un modèle DSGE, mais un modèle économétrique structurel, ne doivent pas être systématiquement écartés des revues les plus prestigieuses. Ils le sont actuellement et je ne suis pas sûr (malgré l’intervention de Blanchard) que cela changera bientôt. »

Simon Wren-Lewis, « Blanchard joins calls for structural econometric models to be brought in from the cold », in Mainly Macro (blog), 15 janvier 2017. Traduit par Martin Anota

samedi 7 janvier 2017

Trump et les déficits publics : un keynésianisme réactionnaire



« Avec Donald Trump, nous allons peut-être nous retrouver avec ce que certains ont pu qualifier de "keynésianisme réactionnaire". Mais une relance est une relance, pas vrai ? Pour ceux d’entre nous qui pensent que la plupart des économies avancées doivent connaître momentanément une surchauffe pour essayer de combler une partie des pertes accusées suite à la Grande Récession, toute relance budgétaire doit être bienvenue ? Ainsi, Martin Sandu a pu écrire qu’"il est hypocrite d’entendre de la part de certains que les réductions d’impôts promises par Trump vont mettre en danger les finances publiques, alors même qu’ils appelaient à une relance budgétaire sous Obama et sous son possible successeur démocrate. (…) Même si la composition des réductions d’impôts et des hausses d’impôts peut importer, la taille globale de toute hausse du déficit importe au moins autant".

Si par ce biais il indique de ne pas trop s’inquiéter de la composition, que la taille globale du déficit est plus importante, je pense que cela relève d’une piètre macroéconomie. Il est stupide de croire que tout ce qui accroît le déficit va stimuler l’économie.

Nous savons qu’une partie de la relance de Trump va reposer sur de larges réductions d’impôts pour les plus riches. Les ultra-riches vont certainement ne rien consommer de cette réduction d’impôts à court terme. C’est une partie de la population où l’équivalence ricardienne tient presque. Vous pouvez penser que cela ne devrait pas déprimer la demande agrégée à court terme. Mais il se pourrait que ce soit le cas, parce que la logique de la contrainte budgétaire intertemporelle est toujours à l’œuvre. Ces réductions d’impôts ne vont pas être financées par une accélération de l’activité à court terme, donc elles peuvent finir par entraîner des hausses d’impôts. Si les gens qui ne sont pas riches pensent que ce seront leurs impôts qui augmenteront, ils vont réduire leur consommation aujourd’hui. L’effet net pourrait être une chute de la demande.

Vous pouvez penser que les consommateurs peuvent ne pas être si prévoyants, donc que la demande ne diminuera pas. Mais la logique de la contrainte budgétaire intertemporelle est toujours valide. Si les réductions d’impôts pour les riches accroissent juste le déficit sans vraiment stimuler la demande globale à court terme, alors c’est un transfert de revenu des non-riches de demain vers les riches d’aujourd’hui. Si les réductions d’impôts pour les riches étaient payées par les hausses d’impôts sur les autres aujourd’hui, plusieurs politiciens protesteraient. Retarder les hausses d’impôts sur les autres en empruntant est une astuce pour les faire accepter.

Pourtant je crains que ce ne soit plus le cas et parler des réductions d’impôts pour les riches comme s’il s’agissait d’une relance budgétaire peut induire les politiciens en erreur. Ceux à droite comprennent cela : les réductions d’impôts pour les riches ne font presque jamais partie d’une relance générale : lorsque Nigel Lawson le fit il contribua à l’effondrement de l’économie britannique. Nous devons juste le répéter encore et encore : les réductions d’impôts pour les riches financées par la dette constituent une hausse d’impôts pour les autres.

L’exemple des réductions d’impôts pour les riches est l’exemple qui réfute la proposition générale selon laquelle la composition de toute relance budgétaire importe moins que la taille globale de toute hausse du déficit budgétaire.

Trump a aussi dit qu’il voulait plus d’investissements dans les infrastructures publiques. C’est quelque chose dont les Etats-Unis ont vraiment besoin, mais rappelez-vous que Trump va régner dans une ère de capitalisme de connivence et de politique de copinage comme jamais nous n’en avons vue. Les infrastructures que vous obtiendrez ne seront pas les infrastructures dont les Etats-Unis ont réellement besoin (…). Si ces infrastructures étaient produites entièrement par ceux qui, sinon, seraient en-dehors de l’emploi, mais aimeraient y retourner, alors le bien-être agrégé s’accroîtrait : c’est le fameux exemple de Keynes, celui selon lequel creuser des trous que l’on rebouche aussitôt stimule l’activité. Mais, en pratique, cela a peu de chances d’être le cas et ainsi ces "éléphants blancs" peuvent évincer de meilleurs projets. Dans ce cas, les citoyens américains ne verront pas leur situation s’améliorer à court terme suite à la relance, même si le PIB augmente effectivement. Et la relance ne vas pas s’autofinancer, donc une fois encore les autres devront s’inquiéter de la contrainte budgétaire intertemporelle du gouvernement.

Si l’économie du keynésianisme réactionnaire est mauvaise, je pense que la politique qui en découle est encore pire. En ne faisant rien d’autre qu’opérer un transfert vers les riches, elle ne peut que donner mauvaise réputation à la politique keynésienne. Mais nous pouvons éviter cela en faisant attention à ne pas qualifier tout déficit de relance. Et en disant que les réductions d’impôts pour les riches financées par l’endettement public correspondent à une hausse d’impôts pour tous les autres. »

Simon Wren-Lewis, « Reactionary Keynesianism », in Mainly Macro (blog), 13 décembre 2016. Traduit par Martin Anota



« (…) J’ai expliqué que toute expansion budgétaire qui se focaliserait sur les réductions d’impôts pour les très riches et qui accroîtrait l’investissement en infrastructures via des mécanismes douteux ne sera pas vue d’un bon œil par qui (comme moi) pensent qu’il y a toujours des capacités inemployées dans l’économie américaine. Plusieurs commentaires m’ont suggéré que j’aurais pu le dire un peu plus clairement.

J’ai commencé ma discussion avec un exemple illustrant comment une réduction d’impôts pour les riches peut, du moins en théorie, se révéler déflationniste. L’idée est que les riches vont immédiatement consommer qu’une faible part de la réduction d’impôts, mais les autres ménages risquent de réduire leur consommation s’ils pensent alors que leurs impôts augmenteront à un avenir plus ou moins proche afin de compenser la hausse du déficit consécutive à la réduction d’impôts des riches. (1) (…)

Après coup, j’avoue que j’aurais pu prendre un exemple plus éclairant pour montrer qu’un déficit agrégé ne constitue pas forcément une relance. En l’occurrence, j’aurais pu l’illustrer avec le multiplicateur à budget équilibré. Dans la mesure où la politique budgétaire menée par Trump peut impliquer des coupes dans la consommation publique, cet exemple peut être très pertinent, comme le note Paul Krugman.

Dans le cas de l’investissement public, je souligne à nouveau que la nature de cet investissement importe. Si le mécanisme utilisé pour accroître l’investissement public (...) fait qu’une bonne proportion de cet investissement concerne des projets avec un faible rendement social (des "éléphants blancs"), alors la population verra une fois encore sa situation se dégrader. Ce point dépend de quelque chose que j’ai passé sous silence, mais que j’aurais dû préciser : la compensation monétaire.

Parce que l’économie américaine n’est plus à la borne inférieure zéro, alors un accroissement de l’activité provoqué par la construction de nombreux "éléphants blancs" entraînerait certainement une hausse du taux d’intérêt (2). Par conséquent, le PIB peut finalement ne pas augmenter et l’investissement privé utile se retrouve évincé par un investissement public moins utile.

Une fois que les taux d’intérêt commencent à augmenter et à s’éloigner de leur borne inférieure zéro, alors ceux qui affirment que la demande doit être stimulée aux Etats-Unis (voir ici ou ici) vont réellement se plaindre à propos de la politique monétaire, non de la politique budgétaire. Une politique budgétaire expansionniste qui est évincée par la Fed aurait certains avantages indirects, en accroissant le taux d’intérêt naturel par exemple, mais le fameux argument de Keynes selon lequel il est même efficace "de creuser des trous" ne s’applique plus.

Une fois que nous quittons la borne inférieure zéro, les réductions d’impôts agissent comme une redistribution rétrograde du revenu. Les gens ne doivent pas se leurrer en pensant que les réductions d’impôt vont en partie s’autofinancer, via un mécanisme keynésien ou d’une autre manière. Il y a plusieurs arguments suggérant qu’il est nécessaire d’accroître l’investissement public en le finançant via un surcroît d’emprunt public, mais cet investissement doit aller là où il est nécessaire, plutôt qu’aux projets qui vont générer un rendement immédiat aux agents financiers du secteur privé. Il y a plusieurs arguments nous amenant à penser qu’il faut stimuler la demande globale pour soutenir l’expansion américaine, mais cela ne va pas se passer aussi longtemps que la Fed croit le contraire.

(1) Mes propos ont été un peu confus lorsque j’ai dit que les riches agissaient comme si l’équivalence ricardienne était valide, alors que j’aurais dû dire tout simplement que, parce qu’ils sont riches, ils se focalisent sur l’ensemble de leur existence plutôt que sur leur revenu courant et qu’ils ont donc une faible propension marginale à consommer d’une réduction d’impôts temporaire. Supposer qu’une réduction d’impôt pour les riches est permanente, cela revient à supposer que les Républicains ne perdront jamais le pouvoir.

(2) En supposant, bien sûr, que la Fed reste indépendante, mais Krugman affirme que même si elle ne l’était plus, les taux risqueraient bien d’augmenter. »

Simon Wren-Lewis, « Reactionary Keynesianism revisited », in Mainly Macro (blog), 4 janvier 2017. Traduit par Martin Anota

lundi 21 novembre 2016

Macroéconomie et idéologie

« Jo Michell a écrit un long billet dans lequel il amorce un débat avec Ann Pettifor et moi-même sur le rôle de la macroéconomie orthodoxe derrière l’austérité budgétaire. Ann estime que la macroéconomie orthodoxe est en grande partie responsable de l’austérité et Michell se montre largement de son avis. J’ai beaucoup de respect pour Michell lorsqu’il cherche à combler le fossé entre l’économie orthodoxe et les courants hétérodoxes, mais là, je pense qu’il se trompe à propos de l’austérité et qu’il peint une image haussée de l’histoire de la pensée économique.

Commençons avec l’austérité. Je pense qu’il serait d’accord à l’idée que le modèle de cycle d’affaires qui a fait consensus parmi les keynésiens pendant les deux dernières décennies est le modèle des nouveaux keynésiens. Ce modèle est absolument clair en ce qui concerne l’austérité. A la borne inférieure zéro (zero lower bound), vous ne devez pas réduire les dépenses publiques. Il n’y a ni "si", ni "mais".

Donc pour on ne peut affirmer que la macroéconomie orthodoxe plaidait en faveur l’austérité que si l’on affirme que les économistes orthodoxes pensaient que le modèle des nouveaux keynésiens était fondamentalement déficient. Cela n’a absolument pas été le cas. Michael Woodford est l’un des plus grands macroéconomistes de ces deux dernières décennies, si ce n’est le plus grand. Son livre est en quelque sorte la Bible pour tous ceux qui utilisent le modèle des nouveaux keynésiens. En juin 2010, il a publié "Simple Analytics of the Government Expenditure Multiplier", où il montre que la hausse des dépenses publiques peut s’avérer particulièrement efficace à la borne inférieure zéro. L’intérêt de ce papier pour ceux qui travaillent dans ce domaine était de montrer, non pas que cette forme de politique budgétaire aurait une certain efficacité (chose qui était évidente pour tous ceux qui, comme moi, travaillaient sur la politique monétaire et la politique budgétaire en utilisant le modèle des nouveaux keynésiens), mais qu’elle puisse générer de très larges multiplicateurs.

Le consensus universitaire selon lequel l’austérité ne pouvait être que nuisible et la relance budgétaire efficace est une raison majeure expliquant pourquoi les autorités adoptèrent une relance budgétaire au Royaume-Uni et aux Etats-Unis en 2009, et même pourquoi le FMI plaidait lui-même cette année-là en faveur d’une relance budgétaire. Il y avait toutefois certains, en particulier à Chicago, qui s’élevaient contre cette relance, mais, comme DeLong, Krugman et moi-même l’avions remarqué, ils ont simplement prouvé leur ignorance du modèle des nouveaux keynésiens. Krugman, en particulier, est très familier de la macroéconomie à la borne inférieure zéro, notamment en raison de ses travaux sur la décennie perdue du Japon.

Ce ne sont pas d’éventuelles clameurs de la part des macroéconomistes universitaires orthodoxes qui ont mis un terme à ce consensus en 2010, mais deux événements bien précis : la crise de la zone euro et la victoire de la droite au Royaume-Uni et aux Etats-Unis.

Michell prétend que parce que la question de la borne inférieure zéro n’était pas dans les manuels macroéconomiques, elle ne faisait pas partie du consensus. Mais tout le monde sait que les manuels sont en retard de plusieurs décennies et beaucoup basent toujours leur enseignement à partir du modèle IS-LM plutôt qu’à partir du modèle des nouveaux keynésiens. Maintenant il se peut que les responsables politiques de droite aient réellement été induits en erreur par ce qui est enseigné dans ces manuels et que ce ne fut qu’une simple coïncidence que ces responsables politiques aient choisi les réductions des dépenses publiques plutôt que les hausses d’impôts (et plus tard les réductions d’impôts !), mais cela semble peu probable. Vous n’avez pas nécessairement à travailler dans ce champ pour comprendre que le consensus en vigueur avant la crise financière, celui selon laquelle il fallait privilégier les variations de taux d’intérêt pour stabiliser l’activité, dépendait de la capacité à faire varier les taux d’intérêt.

S’écartant de la question de l’austérité, le billet de Michell affirme que la macroéconomie orthodoxe a toujours été fortement influencée par l’idéologie néolibérale. Pour ce faire, il donne un bref compte-rendu de l’histoire de la macroéconomie après la Seconde Guerre mondiale, qui a Friedman, un membre bien connu de la Société du Mont-Pèlerin, comme son meneur, du moins avant que la nouvelle école classique n’arrive. Il y a beaucoup de choses à dire ici, mais je vais me contenter de souligner deux points.

Premièrement, l’idée selon laquelle l’économie keynésienne concerne des épisodes de court terme de demande excessive ou insuffisante plutôt que la stagnation permanente datait d’avant Friedman et remontait aux premières tentatives visant à formaliser l’économie keynésienne. C’est ce qu’on appela le consensus néoclassique. C’est pour cette raison que le keynésien Robert Solow proposa une modélisation de la croissance qui supposait le plein emploi.

Deuxièmement, les débats autour du monétarisme dans les années soixante-dix ne portaient pas sur la validité de ce modèle keynésien, mais sur ses paramètres et l’activisme de la politique économique. Les propres contributions de Friedman à la théorie macroéconomique, telles que l’hypothèse du revenu permanent et la courbe de Phillips augmentée des anticipations, n’orientent pas forcément la théorie dans une direction néolibérale. (…) Et Friedman n’approuvait certainement pas les idées des nouveaux classiques en matière de politique macroéconomique.

Michell se rapproche peut-être de la vérité lorsqu’il affirme que l’esprit néolibéral des années quatre-vingt a peut-être eu quelque chose à voir avec le succès de la nouvelle école classique, mais je ne pense pas que ce soit du tout central. Comme je l’ai affirmé à plusieurs reprises, la révolution menée par les nouveaux classiques a réussi parce que les anticipations rationnelles faisaient sens aux yeux des économises habitués à appliquer la rationalité dans leur microéconomie et, une fois que vous acceptez les anticipations rationnelles, alors vous comprenez qu’il y a de sérieux problèmes avec le consensus keynésien qui dominait alors. Je pense que vous pouvez essayer d’affirmer qu’il y a un lien entre l’attrait des microfondations comme méthodologie et le néolibéralisme, mais je pense que ce serait un peu exagéré.

Cela m’amène à mon ultime remarque. Michell note que j’ai suggéré une influence idéologique derrière le développement de la théorie des cycles d’affaires réels, mais il se demande pourquoi je m’arrête là. Il écrit ensuite : "Il est par conséquent quelque peu étrange que, lorsqu’il discute de la relation entre l’idéologie et l’économie, Wren-Lewis choisisse de tracer une frontière entre ceux qui utilisent un modèle DSGE à prix visqueux des nouveaux keynésiens et ceux qui utilisent une version à prix flexibles des nouveaux classiques. Comme le suggère Wren-Lewis, les croyances de ce dernier seraient idéologiques, alors que les membres du premier groupe s’appuieraient sur une science libérée de l’idéologie. Cela me semble bien arbitraire. La justification de Wren-Lewis est que, malgré les preuves empiriques, le modèle des cycles d’affaires réels dénie la possibilité du chômage involontaire. Mais la version à prix visqueux des nouveaux keynésiens (qui dénie tout rôle aux inégalités, à la finance, à la monnaie, à l’activité bancaire, à la liquidité, aux défauts, au chômage de long terme, à l’usage de la politique budgétaire pour quitter la trappe à liquidité, les effets d’hystérèse du côté de l’offre et plein d’autres choses) serait selon lui acceptable".

Michell passe à côté d’une distinction cruciale. Le propos de la théorie des cycles d’affaires réels était de montrer que les cycles d’affaires réels constituent juste une réponse optimale à des chocs technologiques dans un monde où les marchés s’ajustent continuellement. Cela revenait à dénier un aspect fondamental des cycles d’affaires : le chômage involontaire. Il est absurde d’affirmer que la théorie des nouveaux keynésiens dénie toutes les choses de la liste de Michell. Ce n’est pas parce que l’on fait abstraction de quelque chose que l’on dénie celui-ci. Le modèle de Solow ne dénie pas l’existence de cycles d’affaires, mais il suppose juste (à tort ou à raison) qu’ils ne sont pas essentiels pour saisir les aspects de la croissance économique à long terme. Michell a raison lorsqu’il dit que le modèle de base des nouveaux keynésiens n’inclut pas le chômage involontaire, mais il n’y a rien dans le modèle des nouveaux keynésiens qui dénie cette possibilité. En fait, il est même assez facile d’élaborer un modèle qui le fasse apparaître.

Pourquoi le modèle de base des nouveaux keynésiens n’inclut-il pas le chômage involontaire ? La meilleure chose que l’on puisse lire à ce sujet se trouve dans la Bible de Woodford. L’idée fondamentale est de se focaliser sur un modèle qui permet aux variations de la demande globale d’être la force conductrice derrière les cycles d’affaires. Je pense que c’est vrai : c’est bien la demande globale qui génère ces cycles et le chômage involontaire en est une conséquence. Ou, pour le dire autrement, vous pouvez toujours obtenir des cycles d’affaires, même si le marché du travail est toujours à l’équilibre.

Il est plutôt tiré par les cheveux de suggérer, comme Michell semble le faire, que le développement des modèles des nouveaux keynésiens a quelque chose à voir avec la politique de la troisième voie de Tony Blair et de Bill Clinton. C’était la réponse inévitable à la théorie des cycles d’affaires réels, à son refus d’incorporer la rigidité des prix (alors même que les données empiriques confirment cette dernière) et à son incapacité à faire apparaître un chômage involontaire.

C’est tout. (…) Je ne pense pas non plus (…) que l’influence idéologique soit confinée aux pans de la macroéconomie associés à la nouvelle école classique. Mais, de la même façon qu’il est absurde de dénier une telle influence, il est erroné d’imaginer que la discipline et l’idéologie sont inextricablement liées l’une à l’autre. La généralisation de l’austérité en 2010 en est une preuve. »

Simon Wren-Lewis, « Macroeconomics and Ideology », in Mainly Macro (blog), 16 novembre 2016. Traduit par Martin Anota

mardi 25 octobre 2016

Le néolibéralisme et l’austérité

« J’aime penser le néolibéralisme non pas comme un certain genre de philosophie politique cohérente, mais plutôt comme un ensemble d’idées interconnectées qui sont devenues monnaie courante dans de nombreux discours que nous pouvons entendre. Il y a l’idée selon laquelle le secteur des entreprises privées est le seul créateur de richesse et que l’Etat ne peut typiquement que se mettre en travers de leur chemin ; l’idée selon laquelle ce qui est bon pour les entreprises est bon pour l’économie, même quand cela accroît leur pouvoir de monopole ou implique une chasse à la rente ; l’idée selon laquelle les interférences des gouvernements ou des syndicats avec les entreprises ou les marché ne peuvent être que nuisibles. Et ainsi de suite. Aussi longtemps que ces idées décrivent l’idéologie dominante, personne n’a besoin de les qualifier de néolibérales.

Je ne pense pas que l’austérité puisse avoir été mise en œuvre sur une aussi grande échelle sans la domination de cet éthos néolibéral. Mark Blyth a décrit l’austérité comme la plus grand tactique de diversion de l’histoire. Elle prit deux formes. Dans l’une, la crise financière provoquée par un secteur financier sous-réglementé qui prêta de trop, entraîna des renflouements bancaires qui conduisirent au dérapage de la dette publique. Cela entraîna un tollé à propos de la dette publique, plutôt que des protestations vis-à-vis du secteur financier. Dans l’autre, la crise financière a provoqué une profonde récession qui (comme les récessions le font systématiquement) généra un large déficit budgétaire. Dépenser sans compter nous amène à une impasse, nous devons désormais nous serrer la ceinture et embrasser l’austérité !

Dans les deux cas, la nature de ce qui se passait était évidente pour toute personne scrutant soigneusement les faits. Que peu le firent (notamment les médias, qui gobèrent le récit de l’austérité) ne peut s’expliquer qu’en partie par l’ethos néolibéral. Après avoir passé des années à entendre les grandes banques être présentées comme de titanesques créateurs de richesse, il fut difficile pour beaucoup d’accepter l’idée que leur modèle d’affaires était fondamentalement vicié et nécessitait une large subvention implicite de la part de l’Etat. D’un autre côté, il leur était plus facile d’imaginer que les quelques faux-pas que les gouvernements avaient pu commettre par le passé étaient la cause de la crise de la dette.

Vous pouvez dire que l’austérité était populaire, mais il ne faut pas oublier que le dénigrement des banquiers l’était également. Nous avons eu de l’austérité à haute dose, tandis que les banquiers s’en tirèrent à bon compte. Vous pouvez dire que la crise de la zone euro a joué un rôle crucial, mais cela amènerait à ignorer deux faits clés. Le premier est que les plans d’austérité étaient déjà proposés par la droite, que ce soit au Royaume-Uni ou aux Etats-Unis, avant même le début de la crise. Le second est que la crise de la zone euro s’est étendue au-delà de la Grèce parce que la BCE a tardé à agir comme chaque banque centrale est censée le faire, c’est-à-dire à jouer un rôle de prêteur en dernier ressort souverain. Elle changea d’avis deux ans après, mais je ne pense pas qu’il soit trop cynique de dire que ce retard était en partie stratégique. De plus, la crise grecque a été plus grave qu’elle n’aurait dû l’être parce que les responsables politiques utilisèrent les renflouements versés à la Grèce comme prétexte pour soutenir leurs propres banques fragiles. C’est une autre forme de tactique de diversion.

Même dans ce sens, l’austérité peut certes avoir été un moyen de distraction utile pour détourner l’attention des problèmes associés au néolibéralisme que la crise financière avait mis en évidence, je pense qu’un motif politique supérieur était qu’elle permit d’accélérer l’accomplissement d’un objectif néolibéral clé : la réduction de la taille de l’Etat. Ce n’est pas une coïncidence si l’austérité implique typiquement des réductions de dépenses plutôt qu’une hausse d’impôts : le fallacieux impératif à réduire le déficit était utilisé comme prétexte pour réduire les dépenses publiques. J’appelle cela la "supercherie du déficit" (deficit deceit). Dans ce sens aussi, l’austérité va naturellement main dans la main avec le néolibéralisme.

Tout cela suggère que le néolibéralisme a rendu plus probable la généralisation de l’austérité budgétaire en 2010, mais je ne pense pas que vous pourriez aller plus loin et par exemple suggérer que l’austérité était inéluctable au motif qu’elle était nécessaire au "projet néolibéral". Pour commencer, comme je l’ai dit au début, je ne vois pas le néolibéralisme en ces termes fonctionnalistes. Mais, plus fondamentalement, je peux imaginer que des gouvernements de droite n’entrent pas sur la voie de l’austérité parce qu’ils comprennent les dommages que celle-ci est susceptible provoquer. L’austérité est en partie un problème créé par l’idéologie, mais elle reflète aussi une incompétence des gouvernements qui ont échoué à écouter les bons conseils économiques.

Une question intéressante est si la même chose s’applique aux gouvernements de droite au Royaume-Uni et aux Etats-Unis qui utilisèrent l’immigration ou la « race » comme une tactique pour gagner en pouvoir. Nous savons désormais, avec le Brexit et Trump, à quel point cette tactique peut être destructrice et dangereuse. Puisque même les fantaisistes néolibéraux qui se prononcèrent en faveur du "leave" l’ont compris, le Brexit est un revers majeur pour le néolibéralisme. Ce n’est pas seulement directement mauvais pour les entreprises, mais ça implique aussi (à la fois pour le commerce et la migration) une plus grande interférence bureaucratique dans le processus de marché. Dans la mesure où elle veut nous ramener aux années cinquante, le conservatisme de Theresa May peut être très différent de la philosophie néolibérale de Margaret Thatcher. »

Simon Wren-Lewis, « Neoliberalism and austerity », in Mainly Macro (blog), 21 octobre 2016. Traduit par Martin Anota

mercredi 19 octobre 2016

Le Brexit et la livre sterling

« Est-ce que la chute de la livre sterling que le Brexit a provoquée est une bénédiction déguisée ? C’est ce qu’affirment Ashoka Mody et, dans une moindre mesure, Paul Krugman. Leur argument central est que le Brexit va nuire à la City, alors même que c’est la City qui a déséquilibré l’économie britannique et entraîné une surévaluation de la devise. La réduction de la taille du secteur financier constituerait une condition nécessaire pour que l’économie se rééquilibre et le Brexit peut mettre en œuvre un tel rééquilibrage.

Le dédain d’Ashoka Mody pour la City est manifeste. Il écrit : "la complexe propriété financière a été un parasite pour l’économie britannique, créant des pathologies de vulnérabilité financière et de surévaluation du taux de change". Nous pouvons voir la surévaluation dans le large déficit du compte courant du Royaume-Uni. Paul Krugman est moins virulent. La City est juste un important exportateur du Royaume-Uni dont le Brexit va réduire la taille, donc il faut rendre d’autres exportateurs du Royaume-Uni plus compétitifs pour compenser.

Aucun auteur n’est en désaccord avec cela, parce que la dépréciation de la livre sterling va accroître les prix des produits exportés (en langage économique, elle va entraîner une détérioration des termes de l’échange), les gens au Royaume-Uni vont s’appauvrir. Mais il y a aussi une différence dans les mécanismes que les deux auteurs mettent en avant, ce qui change la façon par laquelle on voit cet effet. Pour Mody, la City a provoqué la surévaluation temporaire de la livre sterling comme conséquence d’une "bulle de la propriété financière". Comme c’est un effet temporaire (une bulle), la livre sterling était condamnée à chuter à un moment ou à un autre. Par conséquent, le Brexit a seulement avancé la date où les citoyens du Royaume-Uni s’appauvriraient.

De son côté, Krugman ne dit pas que la livre sterling était surévaluée dans ce sens : la City est juste un important secteur exportateur qui va particulièrement souffrir du Brexit. Par conséquent, le Brexit appauvrit le citoyen moyen de façon permanente. Mais il note que, dans la mesure où cette dépréciation se traduit aussi par une redistribution de la City vers l’industrie, plus dispersée, elle semble bénéficier à certaines régions du Royaume-Uni qui se prononcèrent tout particulièrement en faveur de la sortie de l’UE.

Il n’y a rien de faux avec la logique des deux arguments, ce qui ne surprend pas de la part de tels auteurs. La question clé est s’ils sont empiriquement appropriés dans ce cas. J’ai affirmé, avant le Brexit, que la livre sterling était surévaluée et il semble que le FMI soit en accord avec moi sur ce point. Il faut alors se demander pourquoi il était surévalué. Si le facteur à l’origine de la surévaluation est quelque chose que le Brexit a "soigné", alors le Brexit a en effet mis fin à cette surévaluation. Si le Brexit n’a pas éliminé le facteur à l’origine de la surévaluation, alors la correction de cette surévaluation reste à venir.

Le raisonnement de Paul Krugman est proche de celui que j’ai développé lorsque j’ai affirmé que la dépréciation que l’on observait dans le sillage du Brexit est une conséquence de ce dernier, alors même qu’il complique les exportations britanniques. (…) Au lieu de dire que le Brexit a compliqué les exportations vers l’étranger, Krugman suggère plutôt qu’il a nui à un secteur particulier et ainsi permis au reste de l’économie de croître. Une fois encore, la question clé est de savoir si le Brexit a un effet distributionnel, affectant plus durement la City que l’industrie britannique.

Supposons qu’il y ait quelque chose de juste dans ce que les deux économistes suggèrent. Je ferai une simple remarque. Si nous voulions réduire la taille de la City, nous n’avions pas forcément à le faire en utilisant le Brexit. Nous pouvions juste réglementer plus sévèrement le secteur financier britannique (notamment en imposant de plus hautes exigences en matière de capital) pour voir certains quitter le secteur pas dépit. Ainsi, nous aurions évité tous les coûts additionnels que le Brexit va imposer (que le Trésor britannique a de nouveau rappelés récemment, mais dont le Times ne parle que seulement maintenant, en les présentant comme des "nouvelles") et avec le bénéfice additionnel d’avoir un secteur financier qui n’était pas trop gros pour faire faillite (too big too fail). Ma crainte est qu’après le Brexit, c’est l’inverse qui survienne : les autorités vont aller encore plus loin dans la déréglementation de la City afin de compenser les dommages que le Brexit va provoquer. Donc je vois toujours difficilement quel point positif il y a eu à opter pour le Brexit. »

Simon Wren-Lewis, « Brexit and Sterling », in Mainly Macro (blog), 14 octobre 2016. Traduit par Martin Anota

dimanche 4 septembre 2016

Là où se trompent les détracteurs de la monnaie-hélicoptère

« Je suis fatigué de lire continuellement des articles sur la monnaie-hélicoptère qui suivent la structure suivante : 1) La monnaie-hélicoptère s’apparenterait à une relance budgétaire financée par création monétaire. 2) La monnaie-hélicoptère menacerait l’indépendance de la banque centrale. 3) Par conséquent, la monnaie-hélicoptère serait une mauvaise idée.

(…) Ce que leurs auteurs ne semblent jamais se demander, même lorsqu’ils abordent le deuxième point, c’est pourquoi nous avons des banques centrales indépendantes. Et ce qu’ils ne semblent jamais noter, même en établissant la première proposition, c’est que l’idée que les banques centrales sont indépendantes dénie l’éventualité même d’une relance budgétaire financée via création monétaire.

Les banques centrales sont indépendantes pour éviter les problèmes associés à la stabilisation macroéconomique opérée par les politiciens. Mais rendre une banque centrale indépendante signifie qu’une relance budgétaire par création budgétaire n’est plus possible. Elle ne serait possible que s’il y avait une coordination entre la banque centrale et le gouvernement, ce qui nie l’indépendance de la première. Mais les partisans des banques centrales indépendantes disent qu’il n’y a pas de problème, parce que la stabilisation macroéconomique peut être pleinement assurée par les banques centrales en faisant varier les taux d’intérêt, si bien qu’une relance budgétaire par création monétaire n’apparaît pas nécessaire.

Mais malheureusement, lors de la récente récession mondiale, les taux directeurs des banques centrales ont buté sur leur borne inférieure zéro (zero lower bound). La politique monétaire non conventionnelle (par exemple l’assouplissement quantitatif ou quantitative easing) apparaît être un outil de stabilisation conjoncturelle plus incertain et moins fiable que la politique budgétaire. Ce qui signifie que les banques centrales indépendantes ne peuvent assurer efficacement leur mission et que leur indépendance empêche la mise en œuvre d’une relance budgétaire via création monétaire.

Donc, dire qu’il n’y a pas de problème, que les gouvernements peuvent mettre en œuvre une expansion budgétaire financée via émission obligataire, c’est oublier complètement pourquoi les banques centrales indépendantes ont été favorisées en premier lieu. Les politiciens ne sont pas bons lorsqu’il s’agit de stabiliser l’activité économique. Si vous doutez de cela, les effets de l’austérité globale devraient balayer vos doutes.

Donc, démontrer le point (1) n’implique pas que les banques centrales indépendantes n’aient pas besoin d’émettre de la monnaie-hélicoptère. En tirer une telle implication, c’est un peu comme dire que les gouvernements peuvent fixer les taux d’intérêt, donc pourquoi aurions-nous besoin de banques centrales indépendantes ? La plupart des macroéconomistes n’oserait jamais faire cela, donc pourquoi sont-ils heureux d’utiliser cet argument avec la monnaie-hélicoptère ?

Ce qui nous amène à la proposition (2). D’après mon expérience, il faut avouer que la proposition (2) n’est jamais examinée avec la même rigueur que la proposition (1) : il semble qu’évoquer simplement la « dominance budgétaire » (fiscal dominance) suffit pour effrayer tout le monde. La seule circonstance où la proposition (2) serait exacte serait si, suite à la monnaie-hélicoptère et à l’expansion subséquente, la banque centrale constatait qu’elle manquait d’actifs à vendre de façon à maintenir les taux d’intérêt élevés et à empêcher l’inflation de dépasser sa cible. Une solution évidente consiste à ce que le gouvernement recapitalise la banque centrale.

Cela compromet l’indépendance de la banque centrale ? La Banque d’Angleterre pense que non. Elle a obtenu du gouvernement la promesse de la recapitaliser si elle réalisait des pertes avec l’assouplissement quantitatif. Les gens se sont-ils inquiétés que ceci puisse compromettre l’indépendance de la Banque d’Angleterre ? Bien sûr que non : personne ne peut sérieusement imaginer qu’un gouvernement britannique revienne sur cet engagement. Donc pourquoi la monnaie-hélicoptère serait-elle différente ?

Je pourrais le dire d’une autre façon. Imaginons l’ensemble de tous les gouvernements qui refuseraient de recapitaliser une banque centrale indépendante durant un boom, lorsque l’inflation s’accélère : ce seraient des gouvernements de cauchemars pour les banques centrales. Maintenant, imaginons l’ensemble de tous les gouvernements qui, lorsque l’inflation s’accélère lors d’un boom, seraient heureux d’enlever l’indépendance à la banque centrale pour l’empêcher d’accroître les taux. J’estime que les deux ensembles sont identiques. En d’autres termes, la monnaie-hélicoptère ne semble pas du tout compromettre l’indépendance des banques centrales.

Donc, s’il vous plaît, cessez de dire que la monnaie-hélicoptère est équivalente à une relance budgétaire via création monétaire, comme si cela constituait un argument contre la monnaie-hélicoptère, sans même noter que l’indépendance des banques centrales empêche précisément la mise en œuvre d’une relance budgétaire via création monétaire. Cessez de suggérer que la monnaie-hélicoptère menace l’indépendance des banques centrales, sans préciser comment cela peut être le cas. Et, s’il vous plaît, reconnaissez enfin que l’indépendance des banques centrales vise à ne pas dépendre des gouvernements pour faire de la stabilisation macroéconomique. »

Simon Wren-Lewis, « Helicopter Money: missing the point », in Mainly Macro (blog), 20 août 2016. Traduit par Martin Anota

- page 1 de 8