Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Simon Wren-Lewis

Fil des billets

lundi 14 mai 2018

Dans la zone euro, la politique budgétaire est restée à l’âge de pierre

« … ou peut-être au Moyen-âge, mais certainement à une date postérieure aux années vingt. Keynes a conseillé d’utiliser l’expansion budgétaire dans ce qu’il appelait une trappe à liquidité dans les années trente. Aujourd’hui, nous utilisons une terminologie différente et parlons de la nécessité de recourir à une expansion budgétaire quand les taux d’intérêt nominaux sont contraints par leur borine inférieure zéro (zero lower bound) ou borne inférieure effective (effective lower bound). (J’ai une légère préférence pour la deuxième expression, dans la mesure où c’est aux banques centrales de décider à quel point réduire davantage les taux d’intérêt nominaux serait risqué ou contre-productif.) La logique est la même aujourd’hui que dans les années trente. Quand la politique monétaire perd son instrument fiable et efficace pour gérer l’économie, vous devez utiliser parmi les instruments restants celui qui est le plus fiable et efficace, en l’occurrence la politique budgétaire.

La zone euro dans son ensemble est actuellement à la borne inférieure effective. Les taux sont à zéro et la BCE crée de la monnaie pour des achats d’actifs à grande échelle : un instrument de politique monétaire dont l’impact est bien plus incertain que les variations de taux d’intérêt ou les changements de politique budgétaire (mais certainement mieux que rien). Si la politique monétaire est dans un cadre de stimulation maximal, c’est parce que l’inflation sous-jacente de la zone euro semble collée à 1 %, voire plus bas. C’est un moment clairement approprié pour que la politique budgétaire lui prête main forte avec une certaine relance budgétaire.

Pourtant le but du nouveau ministre des Finances allemand, appartenant aux sociaux-démocrates de gauche, est d’atteindre un excédent budgétaire de 1 %. Pour atteindre cet objectif, il a prévu de réduire l’investissement public en le faisant passer de 37,9 milliards d’euros l’année à venir à 33,5 milliards d’euros en 2020. Pourtant, les infrastructures allemandes, autrefois de renommée mondiale, sont en pleine déchéance. La connectivité à large bande pourrait être grandement améliorée.

Il y a de nombreux arguments en faveur d’un assouplissement de la politique budgétaire allemande. L’Allemagne a actuellement un excédent de compte courant avoisinant les 8 % du PIB. Il y a plusieurs raisons structurelles expliquant pourquoi l’on pourrait s’attendre à un certain excédent courant en Allemagne, mais le FMI estime que ces facteurs structurels expliquent moins de la moitié de l’excédent courant que nous observons. Il estime qu’un tiers de l’excès d’excédent résulte d’une politique budgétaire excessivement restrictive. Comme Guntram Wolff le souligne, la principale contrepartie de l’excédent est l’épargne du secteur des entreprises. Peut-être qu’un surcroît d’investissement public encouragerait l’investissement privé.

Mais ce n’est pas un autre article à propos de la façon par laquelle l’Allemagne a besoin d’embrasser la relance pour aider le reste de la zone euro. Le problème, comme le souligne Matthew Klein, est que l’ensemble de la zone euro fait de même. Dans la zone euro dans son ensemble, la position budgétaire est aussi restrictive que lors du boom d’avant-crise. Le chômage dans la zone euro est toujours trop élevé. Si la politique budgétaire est trop restrictive, c’est parce que les meneurs clés de la zone euro pensent que c’est la bonne chose à faire. "Le bon déficit, c’est zéro" a dit le ministre des Finances français. Il poursuit : "Vu que la France ne traverse pas une période de crise économique, nous devons avoir un budget à l'équilibre afin de pouvoir se permettre d'être en déficit quand les temps seront plus durs". Vous pouvez entendre la même chose en Allemagne : l’économie est en expansion, donc nous devons avoir des excédents budgétaires.

Une économie en expansion n’est pas une économie qui croît rapidement, mais une économie où le niveau de production et d’emploi est supérieur au niveau compatible avec le maintien d’une inflation à sa cible. Les mesures de l’écart de production (output gap) ne sont que des estimations de ce niveau : l’inflation sous-jacente est le guide ultime. L’inflation sous-jacente est bien inférieure à la cible aujourd’hui, ce qui explique pourquoi les taux d’intérêt sont à leur borne inférieure effective. C’est pourquoi les actions et les propos de la plupart des ministères des Finances européens (et britanniques) sont tout simplement faux.

Vous pourriez penser que provoquer une seconde récession après celle qui suivit la crise financière mondiale aurait rappelé aux ministres des Finances européens d’appendre un peu de macroéconomie. (Oui, je sais que le relèvement des taux de la BCE en 2011 n’a pas aidé, mais je pense que la plupart des modèles macroéconomiques vous diront que la contraction budgétaire collective est à l’origine de l’essentiel des dommages.) (…)

Ce n’est pas un désaccord entre la gauche et la droite comme c’est le cas au Royaume-Uni, mais un problème avec le consensus en Europe en matière de politique économique. Je pense que ce à quoi nous assistons est une combinaison explosive de deux forces : d’une part, l’obsession allemande pour l’équilibre du Budget qui trouve ses racines dans l’idéologie ordolibérale-néolibérale qui est aujourd’hui dominante et, d’autre pat, les fameux "hommes pratiques" de Keynes, des conseillers qui ont appris l’économie à une époque de Grande Modération où le principal problème économique que nous avions était un biais déficitaire relativement bénin. En retard d’une guerre et tout ça. »

Simon Wren-Lewis, « Fiscal policy remains in the stone age », in Mainly Macro (blog), 10 mai 2018. Traduit par Martin Anota



Politique monétaire et politique budgétaire dans la zone euro


« Simon Wren-Lewis vient de décrire avec tant de désespoir l’état de la politique budgétaire en zone euro ; les pays du cœur nordique comme l’Allemagne, la France et les Pays-Bas poursuivant des équilibres ou excédents budgétaires à un moment où les taux d’intérêt de la BCE sont à la borne inférieure effective et où l’inflation sous-jacente est obstinément bien inférieure à sa cible de 2 %. Je suis entièrement d’accord avec ce qu’il écrit dans son billet ; j’aimerais rajouter quelques petites choses.

Une politique budgétaire restrictive ne serait pas un problème si la politique monétaire non conventionnelle (consistant à acheter des titres de l’Etat et du secteur privé dans le cas de la BCE) était un parfait substitut à la politique budgétaire contracyclique. Mais c’est une position minoritaire dans la communauté des économistes et des décideurs en matière de politique économique. Et les nordistes la trouvent détestable car ils y voient un premier pas vers la remise en cause de la séparation entre politiques monétaire et budgétaire.

La structure institutionnelle de la zone euro est l’héritage des leçons tirées de l’hyperinflation allemande des années vingt : il faut séparer un maximum la politique monétaire de la politique budgétaire, dans le cas où la politique budgétaire devient hors de contrôle et où le financement monétaire devient tentant ; et s’assurer que la politique budgétaire soit biaisée vers le côté conservateur pour empêcher qu’un tel risque soit possible. Ce que l’Allemagne (…) ont appris comme leçon de cet épisode s’est imposé au le reste de la zone euro comme une condition pour sa création. Ces institutions incarnent une leçon que mérite d’être apprise : nous nous portons beaucoup mieux si le risque d’hyperinflation est plus faible. Mais nous avons appris une autre leçon au cours des dix dernières années : nous avons appris que la probabilité de toucher la borne zéro est plus élevée que nous ne le pensions et cela signifie que le dispositif de délégation et d’assignation impliqué par la vieille institution est déficient.

Les politiciens du cœur nordique de la zone euro se comportent comme si les objectifs de politique monétaire délégués à la BCE étaient seulement le problème de la BCE, c’est-à-dire des objectifs qui ne sont poursuivis qu’avec la politique monétaire. Mais ce n’est pas le cas quand la politique conventionnelle est piégée à la borne inférieure effective et qu’elle a besoin d’assistance. Au vu de ce que nous savons maintenant, il est malavisé de déléguer inconditionnellement la stabilisation macroéconomique à la banque centrale et de rechercher inconditionnellement à générer un excédent budgétaire.

La crise financière a révélé une déficience dans le modèle de l’union monétaire que nous ne pensions pas importante auparavant.

Dans un pays où le gouvernement a la responsabilité ultime pour ses propres politiques monétaire et budgétaire, c’est en principe facile pour ce gouvernement de s’organiser de façon à ce que la politique budgétaire soit utilisée quand la politique monétaire manque de munition (…) Mais quand il y a plusieurs agents budgétaires, il n’y a pas de mécanisme pour coordonner la nouvelle politique budgétaire, en particulier pour encourager chaque Etat à s’inquiéter de la déficience de la politique monétaire ou de la persistance de l’inflation sous sa cible dans l’ensemble de la zone euro.

Le Pacte de Stabilité et de Croissance fut une tentative bancale (…) visant à coordonner contre une politique excessivement laxiste ; la crainte était que les gouvernements puissent mal se comporter en empruntant excessivement et qu’ils comptent d’une certaine façon sur la banque centrale commune et sur d’autres aspects implicites de l’union pour être renfloués si nécessaire. Mais il n’y a pas de tentative visant à obtenir une coordination pour le problème inverse, en l’occurrence le risque d’une politique excessivement restrictive. Ce n’est pas surprenant, dans la mesure où, avant la crise, on ne considérait pas que le risque de sous-stimulation soit très probable, au vu de l’histoire de la politique macroéconomique de la plupart des pays de la zone euro.

Le problème est aggravé dans la zone euro en gravant dans la pierre (en l’occurrence dans l’article 127 du Traité de Lisbonne) le mandat de la banque centrale. La BCE poursuit une "stabilité des prix" (en lien avec la Constitution allemande) et interprète elle-même ce que signifie cet objectif. Elle a décidé qu’il s’agissait d’une inflation "proche, mais inférieure, à 2 %". Si l’on répondait aux leçons que nous enseigne la crise financière comprendrait, cela impliquerait 1) de rendre (…) la politique budgétaire contracyclique plus agressive à la borne effective zéro ou 2) de relever la cible d’inflation (…). Au Royaume-Uni, le gouvernement a conservé le droit de définir et de redéfinir la cible pour la banque centrale. Dans la zone euro, seule la BCE a ce droit et son mandat proscrit effectivement tout relèvement de la cible d’inflation. Cet aspect de la zone euro n’était qu’un aspect, pas un problème ; mais désormais c’en est un.

L’union monétaire n’aurait pas été créée si les autorités allemandes pensaient qu’il était possible que les autres gouvernements puissent se liguer et relever la cible d’inflation. Graver la cible dans les traités de la zone euro (qui ont conféré bien d’autres bénéfices et avaient donc peu de chances d’être rejetés dans leur ensemble) apportait une garantie contre ce risque. Dans un vieux monde où la borne inférieure effective ne semblait être qu’une curiosité (même si le Japon y était confronté lorsque l’UEM se construisait), il ne semblait pas qu’il y ait de réels coûts à compliquer à ce point toute révision de la cible d’inflation. Maintenant, nous savons qu’il y en a. »

Tony Yates, « Eurozone monetary and fiscal policy », in longandvariable (blog), 11 mai 2018. Traduit par Martin Anota

vendredi 20 avril 2018

La macroéconomie a-t-elle abandonné l’idée d’expliquer les événements économiques ?

« Le débat sur la possible disparition de la courbe de Phillips se poursuit, notamment parce que divers pays sont dans une situation où le chômage s’est stabilisé à des niveaux qui avaient précédemment été synchrone à une accélération de l’inflation, mais que cette fois-ci l’inflation salariale semble assez statique. Cela s’explique certainement par deux choses : l’existence d’un chômage dissimulé et le fait que le NAIRU ait chuté. C’est ce qu’ont suggéré Bell et Blanchflower dans le cas du Royaume-Uni.

L’idée que le NAIRU puisse bouger graduellement au cours du temps amène certains à affirmer que la courbe de Phillips est elle-même suspecte. Dans ce billet, j’avais essayé de démontrer que c’est une erreur. C’est aussi une erreur de penser qu’estimer la position du NAIRU soit un jeu de dupes. C’est ce que les banques centrales doivent faire si elles adoptent une approche structurelle pour modéliser l’inflation (et quelles autres approches raisonnables y a-t-il ici ?). Ce qui nous amène à nous demander pourquoi l’analyse des raisons amenant le NAIRU à varier ne constitue pas un point central de la macroéconomie.

(…) J’aimerais commencer en rappelant pourquoi la macroéconomie moderne a laissé le secteur financier hors de ses modèles avant la crise. Pour résumer une longue histoire, disons qu’en se focalisant sur les dynamiques de cycles d’affaires, les macroéconomistes ont eu tendance à ignorer les modifications de moyen terme de la relation entre la consommation et le revenu. Ceux qui ont étudié ces modifications les ont reliés de façon convaincante au comportement de secteur financier. Si davantage d’attention leur avait été accordée, nous aurions eu sous la main bien plus d’études sur le sujet et nous aurions mieux compris les liens entre la finance et l’économie réelle.

Peut-on dire la même chose à propos du NAIRU ? Comme avec les tendances de moyen terme de la consommation, il y a toute une littérature sur les variations à court terme du NAIRU (ou du chômage structurel), mais elle n’est pas très présente dans les journaux les plus prestigieux. L’une des raisons, comme avec la consommation, est qu’une telle analyse tend à être ce que les macroéconomistes modernes qualifient d’ad hoc : elle utilise beaucoup d’idées théoriques, mais aucune qui soit soigneusement microfondée dans le même article. Ce n’est pas un choix que feraient ceux qui font ce genre de travail empirique, mais une nécessité.

La même chose peut s’appliquer à d’autres agrégats macroéconomiques comme l’investissement. Quand les économistes se demandent si l’investissement est aujourd’hui inhabituellement élevé ou faible, ils tirent typiquement des graphiques et calculent des tendances et des moyennes. Nous devons être capables de faire bien plus que cela. Nous devrions plutôt rechercher l’équation qui capture le mieux les données relatives à l’investissement lors de ces 30 dernières années et nous demander si elle conduit à surestimer ou sous-évaluer le niveau actuel d’investissement. On peut dire la même pour les taux de change d’équilibre.

Ce n’est pas seulement la contre-révolution des nouveaux classiques en macroéconomie qui a mené à cette dévalorisation de ce que l’on peut qualifier d’analyse structurelle des données temporelles des relations macroéconomiques clés. Le fameux article que Sims a publié en 1980, "Macroeconomics and reality", où il s’est attaqué au type de restrictions d’identification qui était utilisé dans l’analyse des séries temporelles et où il a proposé la méthode des modèles auto-vectoriels régressifs (VAR), tient aussi une certaine responsabilité. Cette parfaite tempête a relégué l’analyse des séries temporelles qui avait été le pain quotidien de la macroéconomie dans les journaux mineurs.

Je ne pense pas qu’il soit excessif d’affirmer que la macroéconomie a subséquemment abandonné l’idée d’essayer d’expliquer la récente histoire macroéconomique : ce qui peut être qualifié de comportement à moyen terme des agrégats macroéconomiques ou pourquoi l’économie s’est comportée comme elle l’a fait ces 30 ou 40 dernières années. La macroéconomie s’est focalisée sur les détails du fonctionnement des cycles d’affaires et non sur la façon par laquelle les cycles d’affaires sont liés les uns aux autres.

Des macroéconomistes influents qui sont impliqués dans l’élaboration de la politique économique ont pris conscience de ces insuffisances, mais ils expriment leur insatisfaction d’une façon différente (Olivier Blanchard constituant toutefois une importante exception). Par exemple, John Williams, qui vient juste d’arriver à la tête de la Réserve fédérale de New York, appelle ici à une nouvelle génération de modèles DSGE qui se focaliserait sur trois domaines. Premièrement, ces modèles devront davantage se focaliser sur la modélisation du marché du travail et de sa mollesse, ce qui selon moi revient à chercher à expliquer pourquoi le NAIRU varie au cours du temps. Deuxièmement, ces modèles doivent davantage se focaliser sur les développements à moyen ou long terme touchant aussi bien l’économie du côté de l’offre que de la demande. Troisièmement, de tels modèles doivent bien sûr davantage incorporer le secteur financier.

Peut-être qu’un jour les modèles DSGE parviendront à faire tout cela, mais je pense que la macroéconomie est si complexe que tout ne puisse pas être microfondé. En tout cas, un tel jour ne viendra pas de si tôt. Il est temps que les macroéconomistes reviennent sur les décisions qu’ils ont prises autour de 1980 et qu’ils prennent conscience que les déficiences avec l’analyse traditionnelle des séries temporelles qu’ils ont mis en lumière ne sont pas aussi importantes que ne l’ont ensuite imaginé les générations suivantes. La macroéconomie doit commencer à essayer de nouveau de chercher à expliquer la récente histoire macroéconomique. »

Simon Wren-Lewis, « Did macroeconomics give up on explaining recent economic history? », in Mainly Macro (blog), 19 avril 2018. Traduit par Martin Anota

samedi 17 février 2018

Est-ce que les déficits de Trump importent ?

« Est-ce que les Démocrates doivent se plaindre des amples déficits que Trump et les Républicains sont en train de creuser ? Ou est-ce que cela accréditerait le discours des Républicains qui faisait apparaître la relance de 2009 comme inadéquate et justifia l’austérité des années suivantes ?

La réponse que donne l’économie orthodoxe est simple. Au cours d’une récession, lorsque les taux d’intérêt ont atteint leur borne inférieure (1), vous ne devez pas vous inquiéter du déficit et vous devez ignorer ceux qui s’en inquiètent. Les déficits doivent être suffisamment amples pour permettre à l’économie d’amorcer sa reprise. La relance budgétaire doit être maintenue tant que les banques centrales n’estiment pas nécessaire de relever les taux d’intérêt au-dessus de leur borne inférieure. Les politiciens ont échoué à suivre ce conseil durant la dernière récession.

A l’inverse, quand l’économie n’est pas en récession et que les taux d’intérêt sont parfaitement capables de contrôler la demande agrégée, alors des déficits suffisamment élevés pour accroître la dette publique peuvent très bien constituer un problème. Pour diverses raisons, et notamment le risque d’une récession, il vaut mieux avoir des déficits à un niveau qui réduit graduellement le ratio dette publique sur PIB, à moins que vous ayez sinon une bonne raison de faire le contraire.

Il y a plusieurs raisons pourquoi, en-dehors d’une récession, il peut être mauvais pour l’économie de creuser des déficits soutenus qui accroîtraient régulièrement le ratio dette publique sur PIB, mais je vais me contenter d’en exposer la plus évidente. Pour un niveau donné des dépenses publiques, l’intérêt sur la dette publique doit provenir des taxes. Plus la dette publique est importante, plus les impôts seront élevés. C’est un problème parce qu’une pression fiscale élevée désinciterait les gens à travailler et qu’elle serait aussi injuste d’un point de vue intergénérationnel.

Ce dernier point est évident si vous y pensez. La génération actuelle peut abolir les impôts et financer toutes les dépenses, notamment le service de la dette, en empruntant davantage. Cela ne peut continuer indéfiniment, donc à un certain moment les impôts doivent augmenter. Toute une génération a évité de payer des impôts, mais au prix d’un surcroît d’impôts pour les générations suivantes.

Par conséquent, à moins qu’il y ait une bonne raison comme une récession (2), un gouvernement responsable ne va pas projeter de soutenir un déficit à un moment où il accroît le ratio dette publique sur PIB. Le problème est qu’il est très tentant pour un gouvernement de ne pas être responsable. L’actuel gouvernement américain, qui est essentiellement une ploutocratie, veut par-dessus tout réduire les impôts pour les très riches et s’il le fait sans accroître en même temps les impôts payés par d’autres personnes, c’est-à-dire en creusant un déficit, il pense qu’il peut s’en sortir. Les Démocrates ont toutes les raisons de dire que c’est irresponsable, bien qu’ils doivent bien sûr souligner avant tout que les dernières personnes qui ont besoin d’une baisse d’impôt sont les très riches.

Malheureusement, être responsable peut sembler plutôt terne et ennuyeux, donc il peut être tentant d’exagérer les choses en prédisant qu’un désastre surviendra si les déficits augmentent. Ce n’est pas une bonne stratégie, parce que vous criez au loup. D’amples déficits sont comme la boulimie. Si vous y avez recours une ou deux fois, vous allez survivre. Si vous vous y adonnez chaque jour, vous allez mourir jeune. La seule différence avec la boulimie est qu’avec les déficits, ce n’est pas vous qui en subissez les conséquences, mais vos enfants.

Voilà pour l’économie orthodoxe. Que dire à propos de la modern monetary theory (MMT), qui suggère souvent que les déficits n’importent pas ? C’est erroné : ce que dit en fait la MMT est que l’inflation doit déterminer ce que le déficit doit être. Si l’inflation semble rester sous la cible, vous pouvez et devez avoir un plus large déficit et vice versa. C’est parce qu’ils pensent que la banque centrale, en changeant les taux d’intérêt pour contrôler l’inflation, gâche son temps, parce qu’ils croient que les taux n’ont pas d’impact prévisible sur la demande et l’inflation. Si c’était vrai, alors même les économistes orthodoxes conviendront que le déficit doit être à un tel niveau qu’il permette de maintenir l’inflation à la cible. La différence entre la MMT et l’orthodoxie est si la banque centrale gâche ou non son temps en cherchant à contrôler l’inflation.

Dans une mesure importante, qu’importe la perspective que vous adoptez, réfléchir à la politique de stabilisation ou aux déficits de long terme peut être assez embrouillé lorsque cela touche aux réductions d’impôts des Républicains. La raison pour laquelle les Républicains financent principalement les réductions d’impôts accordées aux plus riches en empruntant est que cela semble ne rien coûter à personne. Si les impôts n’augmentent pour personne, selon ce raisonnement, pourquoi devrions-nous nous inquiéter si les riches sont encore plus riches ? (…) Il y a deux possibilités. La première est que, s’il est possible de réduire de façon permanente certains impôts sans en accroître d’autres, ni réduire les dépenses, pourquoi la réduction d’impôt ne devrait-elle pas être accordée à ceux qui en ont besoin plutôt qu’à ceux qui n’en ont pas besoin ? La seconde possibilité, plus probable, est que ce n’est pas soutenable, si bien que, dans ce cas, à un certain moment les impôts payés par les gens ordinaires vont s’accroître ou les dépenses dont profitent ces derniers seront réduites pour rembourser les réductions d’impôts qui ont été accordées aux riches. Dans tous les cas, les gens ordinaires y perdent. Nous focaliser sur les déficits ou l’inflation nous détourne juste de la vérité.

(1) Il y a borne inférieure lorsque la banque centrale pense que les baisses de taux d’intérêt deviennent ou sont proches de devenir un instrument imprévisible et par conséquent inefficace.

(2) Un désastre naturel plutôt qu’un désastre provoqué par l’Homme peut justifier un creusement des déficits. L’investissement public sur les infrastructures à haut rendement en est une autre raison. »

Simon Wren-Lewis, « Do Trump’s deficits matter? », in Mainly Macro (blog), 16 février 2018. Traduit par Martin Anota

lundi 8 janvier 2018

Pourquoi l’hégémonie des microfondations entrave les progrès en macroéconomie

« Je pense que quand David Vines m’a demandé de contribuer à un numéro de l’Oxford Review of Economic Policy basé sur la "refondation de la théorie macroéconomique", il pensait que j’écrirais sur la façon par laquelle le modèle macroéconomique de base devait changer pour refléter les développements de la macroéconomie depuis la crise en me focalisant tout particulièrement sur la modélisation de l’impact de la politique budgétaire. Cela aurait été un article bien intéressant à écrire, mais j’ai rapidement décidé de parler de choses que je considérais comme bien plus importantes.

Selon moi, le plus grand obstacle à l’avancée de la macroéconomie est l’hégémonie des microfondations. Je voulais qu’au moins un article questionne cette hégémonie. Il s’est avéré que je n’étais pas le seul à rédiger un tel article, que d’autres firent de même. J’ai été particulièrement motivé à le faire quand j’ai vu qu’Olivier Blanchard, dans ses billets de blog où il faisait part de ses réflexions avant d’écrire sa propre contribution, était sur la même longueur d’onde que moi.

Je parlerai des autres articles quand plus de gens auront eu la chance de les lire. Ici, je vais me focaliser sur ma propre contribution. J’ai déjà développé cette réflexion il y a quelques temps sur mon blog et cela m’a amené à penser que la plupart des macroéconomistes qui travaillent dans l’hégémonie des microfondations souffrent d’un blocage mental quand ils sont confrontés à des approches de modélisation alternatives. (…)

Imaginons un modèle DSGE, "estimé" par des techniques bayésiennes. Pour être spécifiques, supposons qu’il contienne une fonction de consommation intertemporelle standard. Ensuite, supposons que quelqu’un ajoute un terme dans le modèle, disons le chômage dans la fonction de consommation et par là même améliore significativement l’ajustement (fit) du modèle vis-à-vis des données. Il n’est pas difficile de comprendre pourquoi l’ajustement s’améliore significativement : par exemple, le chômage peut être un indicateur de l’incertitude entourant revenu du travail. La question clé devient alors : quel est le meilleur modèle pour examiner la politique macroéconomique ? Le modèle DSGE originel ou le modèle augmenté ?

Le macroéconomiste des microfondations va sans doute tendre à dire le modèle DSGE originel, parce que seul ce modèle est connu comme étant théoriquement cohérent. (Ils peuvent se contenter de dire que ce modèle satisfait mieux la critique de Lucas, mais la cohérence interne reste un critère plus général.) Mais une réponse également valide consisterait à dire que le modèle DSGE originel va donner des réponses de politique incorrectes, parce qu’il néglige un lien important entre le chômage et la consommation, si bien qu’on doit lui préférer le modèle augmenté.

Il n’y a absolument rien qui dise que la cohérence interne soit plus importante que la mauvaise spécification (relative). D’après mon expérience, lorsqu’ils sont confrontés à ce fait, certains concepteurs de modèles DSGE ont recours à deux tactiques de diversion. La première, qui consiste à dire que tous les modèles sont mal spécifiés, ne vaut pas la peine d’être discutée. La seconde consiste à dire qu’aucun modèle n’est satisfaisant et que de nouvelles recherches sont nécessaires pour incorporer l’effet du chômage de façon cohérente.

Je n’ai pas de problème avec cette réponse en soi et, pour cette raison, je n’ai pas de problème avec le projet des microfondations en tant que manière de faire de la modélisation macroéconomique. Mais dans ce contexte particulier c’est une esquive. Il n’y aura pas, du moins tant que je serais en vie, un modèle DSGE qui ne puisse être amélioré en ajoutant des effets plausibles, mais potentielles incohérents, comme l’influence du chômage sur la consommation. Par conséquent, si vous pensez que les modèles qui sont significativement meilleurs dans l’ajustement aux données doivent être préférés aux modèles DSGE (…), alors ces modèles augmentés vont toujours battre le modèle DSGE pour modéliser la politique économique.

(…) Il existe une méthodologie alternative pour construire des modèles macroéconomiques qui n’est pas inférieure à l’approche des microfondations. Elle commence avec une certaine spécification théorique, qui peut être un modèle DSGE comme dans l’exemple, et elle étend ensuite celle-ci en des voies qui sont théoriquement plausibles et qui améliorent aussi significativement l’ajustement du modèle, mais qui ne sont pas formellement dérivées des microfondations. Je qualifie un tel modèle de modèle économétrique structurel (structural econometric model) et Blanchard de modèle de politique économique (policy model).

Ce que je souligne tout particulièrement dans mon article, c’est que ces méthodologies ne sont pas contradictoires, mais bien complémentaires. Les modèles économétriques structurels comme je les décris ici débutent avec la théorie microfondée. (Bien sûr, les modèles économétriques structurels peuvent aussi commencer avec la théorie non-microfondée, mais le bien-fondé d’une telle stratégie est un autre débat que je ne veux pas aborder ici.) En tant que produit fini, ils fournissent plusieurs agendas de recherche pour la modélisation microfondée. Donc la conception de modèles DSGE peut fournir le point de départ pour les concepteurs de modèles économétriques structurels ou les modèles de politique économique et ces modèles peuvent alors, lorsqu’ils sont complétés, fournir un agenda de recherche pour les concepteurs de modèles DSGE.

Une fois que vous saisissez cette complémentarité, vous pouvez saisir pourquoi je pense que la macroéconomie se développerait bien plus rapidement si les universitaires s’échinaient à développer aussi bien des modèles économétriques structurels que des modèles DSGE. L’erreur que les nouveaux classiques ont commise dans leur contre-révolution a été d’écarter les précédentes façons de modéliser l’économie, au lieu de les compléter avec des approches additionnelles. Chaque méthodologie, prise isolément, va se développer bien plus lentement que si elles étaient combinées. Ou, pour le dire autrement, la recherche basée sur les modèles économétriques structurels est bien plus efficace que l’approche de résolution d’énigmes qui est aujourd’hui utilisée.

Dans cet article, j’essaye d’imaginer ce qui se serait passé si le projet des microfondations s’était contenté d’augmenter la macroéconomie existante (c’est-à-dire les modèles économétriques structurels) plutôt que de l’écarter. Je pense que nous avons de bonnes preuves qu’une complémentarité active entre modèles économétriques structurels et modélisation des microfondations aurait permis de mieux cerner les liens entre secteurs réel et financier avant la crise financière mondiale. L’hégémonie des microfondations a choisi de s’attaquer aux mauvaises énigmes, détournant ainsi la macroéconomie de questions empiriques bien plus importantes. La même chose peut se reproduire si l’hégémonie des microfondations demeure. »

Simon Wren-Lewis, « Why the microfoundations hegemony holds back macroeconomic progress », in Mainly Macro (blog), 6 janvier 2018. Traduit par Martin Anota

samedi 11 novembre 2017

Ce qui a réellement provoqué la crise financière

« La crise financière mondiale façonne notre perception de notre récent passé, de notre présent et de notre avenir et pourtant il n’y a pas de récit des événements qui fasse vraiment consensus. Beaucoup d’interprétations ont été proposées. Du côté des Etats-Unis, certains ont affirmé que le système financier a été submergé par l’excès d’épargne (savings glut) généré par les pays asiatiques, que la Fed a pris de mauvaises décisions en matière de politique monétaire et que les Etats-Unis ont subi une bulle immobilière (et que trop de prêts ont été accordés aux pauvres (1)). Du côté européen, l’accent a été mis sur les excès d’endettement de la périphérie de la zone euro et parfois sur les faiblesses de l’architecture de la zone euro. Pourtant, avec tout ce que j’ai lu ici et là à ce sujet, il semble que nous devrions surtout nous focaliser sur le secteur financier aussi bien aux Etats-Unis qu’en zone euro et bien sûr au Royaume-Uni. Selon moi, la crise a éclaté parce que les banques aux Etats-Unis et en Europe se sont appuyées sur un levier d’endettement trop important, si bien qu’une crise ne pouvait que survenir.

C’est pour cette raison que j’ai trouvé si intéressante la présentation que propose Tam Bayoumi de son nouveau livre.

Il affirme que presque tous les ingrédients pour la crise étaient en place dès 2002. En Europe, nous avions de très grandes banques universelles (combinant les activités de banque de détail et de banque d’investissement) qui étaient bien trop endettées. Aux Etats-Unis, les activités de banque de détail et de banque d’investissement étaient séparées, avec des réglementations strictes sur les banques de détail, mais laxistes en ce qui concerne les banques d’investissement, ce qui s’est traduit par l’essor d’un véritable système bancaire parallèle (les dépôts se déplaçant effectivement vers les banques d’investissement, comme Lehman Brothers, qui s’endettèrent à nouveau de trop). En 2002, ces deux zones étaient séparées par la géographie, mais un petit changement réglementaire en 2003 permit à ce que des liens se développent entre les deux. Ensuite, ce ne fut qu’une question de temps avant qu’éclate la crise financière mondiale, "mondiale" dans le sens où elle concernait les Etats-Unis et l’Europe.

Comment ces banques ont-elles fini par devenir surendettées ? Selon Bayoumi, la création en Europe des banques universelles constituait une tentative manquée de créer un marché bancaire européen unique. Il y eu ensuite des échecs en matière de réglementation qui permirent à ces banques de se développer (via le levier d’endettement) en manipulant leur propre pondération des risques. Cela donna à ces banques la possibilité d’opérer à grande échelle en Europe du Sud et en Amérique du Nord. Aux Etats-Unis, les banques d’investissement n’étaient pas réglementées parce que la Fed croyait fermement que la concurrence assurait une régulation efficace pour ce type de banques.

Donc, la crise financière mondiale est avant l’histoire d’un système bancaire hyperconnecté et surendetté des deux côtés de l’Atlantique, attendant simplement qu’un choc suffisamment puissant amène l’ensemble du système à son point critique. L’hypothèse, que l’histoire confirme, est que la finance est naturellement sujette à de telles crises, ce qui explique pourquoi le secteur est réglementé, donc cette histoire est aussi une histoire d’erreurs en termes de réglementation. Bayoumi affirme que chacune de ces erreurs peut être mise sur le compte de véritables erreurs intellectuelles, mais il me rejoint lorsqu’il dit qu’il est parfois difficile de dire dans quelle mesure elles résultent aussi de pressions politiques de puissants intérêts politiques.

Est-ce que les gouvernements et les régulateurs des deux côtés de l’Atlantique Nord en ont fait assez depuis la crise financière mondiale pour corriger les erreurs qui ont été commises ? La réponse est compliquée et il vaut mieux que vous lisiez le livre pour trouver la réponse de Bayoumi. J’aimerais conclure avec une observation. Dans la suite immédiate d’une crise, les gens ont tendance à s’appuyer sur leurs préjugés pour expliquer pourquoi elle a éclaté. Ceux qui voulaient s’en prendre à la politique monétaire américaine, notamment pour détourner l’attention des excès du secteur financier, en ont profité pour le faire. Ceux qui ont conçu la zone euro de façon à éviter que les gouvernements de la périphérie soient trop dépensiers ont parlé de l’endettement excessif de ces gouvernements.

Vous pouvez voir la même chose avec le Brexit et Trump. Bien que la protestation de la part des "laissés pour compte" ait joué un certain rôle, l’idée selon laquelle il s’agit des récits complets collait avec certains éléments, mais elle est tout simplement incorrecte, comme l’affirme la nouvelle étude de Gurminder K. Bhambra. Au cours du temps, les choses s’éclaircirent. Ce que cette analyse de Tam Bayoumi montre avec rigueur est que la finance doit toujours être proprement réglementée et que les échecs en matière de réglementation ont des répercussions catastrophiques.

(1) De nouvelles études empiriques suggèrent que l’effondrement de la bulle immobilière peut avoir davantage à voir avec les spéculateurs immobiliers qu’avec les emprunteurs à faible revenu. »

Simon Wren-Lewis, « What really caused the financial crisis », in Mainly Macro (blog), 9 novembre 2017. Traduit par Martin Anota

jeudi 19 octobre 2017

La leçon que la politique monétaire doit apprendre

« Il m’a semblé logique d’écrire un billet à propos de la récente conférence tenue par le Peterson Institute qui se proposait de "repenser la politique macroéconomique", mais Martin Sandbu a publié sur le sujet avant moi, et il a su en parler mieux que je ne le saurais en faire. (…) Il n’y a qu’un seul point dans les propos de Martin qui m’ennuie. Je vois d’un meilleur œil que lui la proposition de Bernanke selon laquelle les banques centrales devraient temporairement cibler le niveau des prix suite à une large récession (quand les taux d’intérêt butent sur leur borne inférieure). En outre, comme Tony Yates le suggère, le ciblage du PIB nominal ne résoudra pas le problème d’asymétrie que la suggestion de Bernanke cherche à résoudre.

Martin a raison lorsqu’il écrit en fin d’article qu’"il est nécessaire d’admettre qu’on a mal su gérer les choses pour mieux les gérer à l’avenir". Nous pouvons illustrer ce point avec certains chiffres. Si nous observons les prix à la consommation, l’inflation moyenne entre 2009 et 2016 était de 1,1 % dans la zone euro, de 1,4 % aux Etats-Unis et de 2,2 % au Royaume-Uni. (…) Si nous regardons les déflateurs du PIB, nous obtenons une meilleure image, puisque ceux-ci s’élevaient à respectivement 1,0 %, 1,5 % et 1,6 % pour la zone euro, les Etats-Unis et le Royaume-Uni.

Vous pouvez penser que des erreurs de cette taille ne sont pas trop mauvaises et, de toute façon, qu’y a-t-il de mal avec une si faible inflation ? Vous auriez tort de penser cela, car en période de reprise ces erreurs se traduisent par un gâchis de ressources qui peut être considérable, comme la courbe de Phillips semble actuellement être si plate. En d’autres termes, si la politique avait été plus expansionniste, la reprise aurait été un peu plus rapide et les taux d’intérêt seraient partout aujourd’hui éloignés de leur borne inférieure.

Ce que j’aimerais ajouter aux propos de Martin, c’est préciser quel est le plus grand problème avec la politique monétaire au cours de cette période, en particulier au Royaume-Uni et dans la zone euro. Ce n’est pas, selon moi, l’échec à adopter une cible de niveaux, ni même la décision de la BCE de relever ses taux en 2011 (bien que ce resserrement monétaire a été une erreur sérieuse et coûteuse). En 2009, quand les banques centrales voulaient davantage assouplir leur politique monétaire mais sentaient que les taux d’intérêt butaient sur leur borne inférieure, elles auraient dû déclarer cela :

"Nous avons perdu notre principal instrument pour contrôler l’économie. Il y a d’autres instruments que nous pourrions utiliser, mais leur impact est grandement inconnu, si bien qu’ils sont très peu fiables. Il y a une façon supérieure de stimuler l’économie dans cette situation, en l’occurrence la politique budgétaire, mais c’est bien sûr au gouvernement qu’il appartient de décider s’il va utiliser ou non cet instrument. Tant que nous ne pensons pas que l’économie aille suffisamment mieux pour que nous puissions accroître les taux d’intérêt, l’économie n’est plus sous notre contrôler."

Je ne suis pas en train de suggérer que l’assouplissement quantitatif n’a pas d’impact positif significatif sur l’économie. Mais son utilisation pourrait suggérer aux gouvernements qu’il n’est plus de leur responsabilité d’agir en vue de mettre un terme à la récession et que ce que j’appelle le consensus sur l’assignation (consensus assignment) est toujours valide. Ce n’est pas le cas : l’assouplissement quantitatif a été l’un des instruments les moins fiables que l’on puisse imaginer.

Il serait erroné de critiquer cette idée au prétexte qu’elle amènerait la banque centrale à outrepasser son mandat et à dire aux politiciens ce qu’ils ont à faire. Les membres de la BCE passent beaucoup de temps à le faire, Mervyn King a fait la même chose mais d’une façon plus discrète, tandis que Ben Bernanke a tenu les mêmes propos que ce dernier, mais plus explicitement. Avec le consensus sur l’assignation, nous avons investi les banques centrales de la mission de gérer l’économie parce que nous pensions que les taux d’intérêt sont un bien meilleur outil que la politique budgétaire. A ce titre, il est de leur devoir de nous dire quand elles ne peuvent plus assurer cette tâche plus efficacement que le gouvernement.

Une meilleure critique serait de dire qu’une déclaration de ce genre ne ferait aucune différence et nous pourrions passer des heures à en discuter. Mais cela concerne l’avenir et qui sait ce que les circonstances politiques seront alors. Il est important que les gouvernements fassent savoir que le consensus sur l’assignation n’est plus valide si les banques centrales croient qu’il y a une borne inférieure sur laquelle butent les taux d’intérêt et cela nécessite au préalable que les banques centrales l’admettent. Les économistes comme Paul Krugman, Brad DeLong et moi-même disons tout cela depuis si longtemps et si souvent, mais je pense que les banques centrales ont toujours des problèmes à pleinement accepter ce que cela signifie pour elles. »

Simon Wren-Lewis, « The lesson monetary policy needs to learn », in Mainly Macro (blog), 17 octobre 2017. Traduit par Martin Anota

samedi 14 octobre 2017

Non, la crise n'amène pas à renouveler en profondeur la pensée économique

Les fausses révolutions en économie


« (…) Quand la crise financière a éclaté, beaucoup ont appelé à formuler de nouvelles idées économiques (…). L’idée qu’il y avait implicitement derrière et que l’on considérait comme juste était que la crise révélait la défaillance de l’orthodoxie économique et la nécessité d’avoir de nouveaux concepts fondamentaux. Ceux qui appelaient à renouveler la pensée économique avaient une sorte de scénario hollywoodien en tête : des innovateurs audacieux proposeraient des idées radicales, feraient face à la résistance de la part de vieux ringards, mais ils triompheraient finalement via leur capacité supérieur à prédire les événements. Les choses ne se sont pas vraiment passées ainsi. Certes, personne ne vit la crise venir. Mais ce n’est pas parce que l’orthodoxie n’avait pas les moyens de la prévoir ; au contraire, les paniques bancaires sont un vieux sujet, présenté dans chaque manuel où sont exposés les principes fondamentaux. Si personne ne vit la crise venir, c’est en raison d’un échec empirique : peu comprirent que l’essor du système bancaire parallèle (shadow banking) rendait définitivement obsolètes les défenses bancaires qui avaient été instaurées dans le sillage de la Grande Dépression.

En fait, seuls les idéologues les plus étroits d’esprit du libre marché réagirent en montrant un réel étonnement. Les autres se tapèrent le front en s’exclamant "Diamond-Dybvig ! Comme je suis stupide ! Diamond-Dybvig bien sûr !"

Et après-crise, la macroéconomie standard se révéla assez efficace. La politique budgétaire et la politique monétaire firent ce qu’elles étaient censées faire (ou tout du moins, dans le cas de la monnaie, ne firent pas ce qu’elles n’étaient pas censées faires) à la borne inférieure zéro. Il y avait une grande marge d’amélioration, il était possible de s’appuyer sur la mère de toutes les expériences naturelles pour le travail empirique, mais il n’était pas vraiment utile de s’appuyer sur une nouvelle pensée radicale.

Néanmoins, il y a eu une prolifération de nouveaux concepts radicaux : l’austérité budgétaire serait en fait expansionniste, la politique monétaire expansionniste serait en fait déflationniste, des choses terribles arriveraient à la croissance économique quand la dette publique dépasse les 90 % du PIB. Ces idées reçurent instantanément beaucoup d’écho politique ; laissez de côté les ringards de l’establishment économique, l’establishment politique se saisit de l’occasion d’appliquer de nouvelles idées.

Qu’est-ce que ces idées avaient en commun ? Toutes avaient, explicitement ou non, des implications idéologiques conservatrices, que leurs auteurs les aient intentionnellement recherchées ou non. (Je pense que Reinhart et Rogoff ont vraiment travaillé hors de tout agenda politique. Je n’en suis pas aussi sûr pour les autres.) Et toutes ces idées se révèrent assez vite mortellement fausses.

Donc la nouvelle pensée économique qui émargea de la crise s’est révélée être, dans sa grande majorité, un ensemble de mauvaises idées servant un agenda politique conservateur. Ce n’était pas vraiment le scénario qu’on nous promettait, n’est-ce pas ?

Une fois que vous y pensez, il n’est pas trop difficile de voir comment cela s’est passé. Tout d’abord, la macroéconomie conventionnelle a bien marché, donc vous avez besoin d’innovations réellement brillantes pour qu’elle parvienne à vraiment bouleverser cette convention. Et les innovations réellement brillantes n’apparaissent pas facilement. En fait, les bouleversements de la croyance conventionnelle provinrent principalement de personnes qui, loin de transcender cette croyance, échouèrent en fait à comprendre celle-ci au préalable.

Et même s’il y a de telles personnes aussi bien à gauche qu’à droite, il y a une grande asymétrie en termes de richesse et d’influence entre les deux bords politiques. (…) Les idées confuses à droite se retrouvèrent dans les annonces de politique économique formulées par la Commission européenne et les Républicains.

(…) Beaucoup de travaux ont contribué à faire émerger le consensus ; cela ne signifie pas qu’il soit exact, mais vous devez arriver avec une idée réellement bonne si vous voulez vraiment le remettre en cause. D’un autre côté, vous pouvez avoir beaucoup d’écho politique avec une très mauvaise idée qui remet en cause le consensus, aussi longtemps que cela sert les intérêts des grands argentiers et des politiciens de droite. (…) »

Paul Krugman, « The schlock of the new », in The Conscience of a Liberal (blog), 8 octobre 2017. Traduit par Martin Anota



Il y a trop d’idéologues (et trop peu d’artisans) parmi les économistes


« Paul Krugman affirme qu’il est erroné de croire que la crise financière oblige à renouveler la pensée économique, mais que cette croyance a pourtant mener à des idées folles, mais influentes, qui ont été reprises par les grands argentiers et les politiciens de droite. Même si je suis en accord avec la plupart des propos de Krugman, je voudrais ajouter quelque chose. Ma réflexion se nourrit du dernier livre de Dani Rodrik, Straight Talk on Trade, que je n'ai pas encore fini, mais dont je parlerai plus amplement dans un prochain billet.

Dans la préface à ce livre, il raconte une petite anecdote. Il y a 20 ans, il avait demandé à un économiste d’appuyer l’un de ses livres, Has Globalization Gone Too Far?. L’économiste lui a répondu qu’il ne pouvait pas le faire, non pas parce qu’il était en désaccord avec quelque chose dans le livre, mais parce qu’il pensait que le livre "fournirait des munitions aux barbares". Dani Rodrik note que cette attitude est toujours très courante parmi les économistes. Bien sûr, on peut difficilement qualifier cette attitude d’apolitique et de scientifique.

Je pense que quelque chose de similaire peut s’être produit à la veille de la crise financière parmi les économistes travaillant dans la finance. Paul Krugman a certainement raison lorsqu’il dit que l’économie orthodoxe propose des modèles capables d’expliquer pourquoi la grande crise financière mondiale a éclaté, donc, de ce point de vue, peu de nouvelles idées sont nécessaires. Mais si aussi peu d’économistes orthodoxes ont utilisé ces modèles avant la crise financière, c’est notamment en raison d’une certaine aversion idéologique vis-à-vis de la réglementation et peut-être aussi en raison d'une certaine réticence à mordre la main qui les nourrit.

L’économie orthodoxe propose aujourd’hui des modèles très divers. Ceux qui ajoutent de nouveaux modèles à ceux-ci gagnent en prestige universitaire. Mais comment pouvez déterminer quel est le modèle que vous devez utiliser quand il s’agit d’étudier un problème en particulier ? Il faut regarder les données empiriques. Ce n’est pas une tâche triviale en raison de la nature probabiliste et diverse des données empiriques économiques. Dani Rodrik décrit ce processus a un côté davantage artisanal que proprement scientifique.

Donc, dans le cas de la crise financière mondiale, le bon artisan aurait dû constater que les nouvelles méthodes de répartition des risques étaient vulnérables aux événements d’ordre systémique. Le bon artisan aurait vu, s’il avait accès aux données, que la hausse rapide de l’endettement des banques est toujours dangereuse et, plus généralement, que les périodes au cours desquelles on entend dire que "cette fois, les choses sont différentes" ne finissent généralement pas très bien.

Dans ma propre discipline, je pense qu’il y a au moins un domaine qui n’aurait pas dû voir le jour si l’art de la sélection des modèles avait été bien appliqué. Les modèles de cycles d’affaires réels (real business cycles) n’ont jamais réussi à décrire les cycles d’affaires parce que nous savons que les hausses du chômage lors des récessions correspondent à du chômage involontaire. Si vous n’appliquez pas bien cette technique artisanale, alors ce qui peut la remplacer, c’est l’idéologie, la politique ou simplement la pensée de groupe. Ce n’est pas simplement un problème pour quelques économistes pris individuellement, c’est souvent un problème pour la majorité d’entre eux. »

Simon Wren-Lewis, « Economists: too much ideology, too little craft », in Mainly Macro (blog), 9 octobre 2017. Traduit par Martin Anota

mardi 12 septembre 2017

Les révolutions en politique économique

« La Commission on Economic Justice organisée par le think tank Institute for Public Policy Research (IPPR) vient de publier un long rapport sur l’économie britannique appelé "Time for Change". (…) Sa conclusion est que nous devons connaître une révolution en matière de mise en œuvre de la politique économique, une révolution aussi profonde que celles qui ont été associées au gouvernement Attlee et à Thatcher après la Seconde Guerre mondiale. Le raisonnement derrière l’idée de révolutions en matière de politique économique a été développé par Alfie Stirling et Laurie Laybourne-Langton dans un article publiée The Political Quarterly.

Les auteurs adaptent les idées de La Structure des révolutions scientifiques de Thomas Kuhn à la politique économique. Je ne veux pas m’attarder sur la légitimité ou les détails de cette entreprise. L’idée que certaines périodes impliquent de profonds changements dans la politique économique n’est pas vraiment controversée. De même, l’idée selon laquelle le paradigme défaillant va tout d’abord essayer de s’adapter avant d’être remplacé par l’idée révolutionnaire est facile à accepter. Vous n’avez qu’à regarder l’état des politiques actuelles au Royaume-Uni et aux Etats-Unis pour prendre au sérieux l’idée que ce qu’on appelle le néolibéralisme (l’ensemble des politiques et la vision du monde associés à Thatcher et Reagan) arrive à sa fin.

Il y a plein de choses dans l’article avec lesquelles je suis d’accord, du moins jusqu’aux conclusions. Mais je regrette que l’article se focalise de trop sur la macroéconomie et pense qu’il s’égare ainsi quelque peu. C’est comme si, après avoir emprunté l’idée de Kuhn et l’avoir appliquée à la politique économique, les auteurs se sentaient obligés de revenir à une discipline académique, la théorie macroéconomique, plutôt que de rester avec la politique économique dans son ensemble. Laissez-moi présenter comment je vois la transformation macroéconomique qui a pris place autour de l’époque de Thatcher et de Reagan.

Une énorme erreur que beaucoup de gens commettent est de penser que la théorie macroéconomique keynésienne conventionnelle était incapable d'expliquer la stagflation, mais aussi que les responsables de la politique économique adoptèrent en conséquence le monétarisme ou des idées des nouveaux classiques. La base pour comprendre la stagflation et réduire l'inflation était connue au moins depuis le fameux discours de Friedman en 1968, où celui-ci expliqua son idée de courbe de Phillips augmentée des anticipations. Cette courbe de Phillips n’a pas été utilisée pour guider la politique monétaire ou budgétaire avant la fin des années soixante-dix, car la plupart des décideurs de la politique économique et certains économistes étaient réticents à l'idée d'accroître le chômage en vue de réduire l'inflation.

Au Royaume-Uni, cet usage de la gestion de la demande globale pour contrôler l’inflation (ou sa contrepartie, qui fut l’abandon des tentatives à des contrôles directs comme les politiques de revenu) coïncida avec l’élection de Thatcher, mais aux Etats-Unis, elle fut initiée par Paul Volcker sous la présidence de Jimmy Carter. Aux Etats-Unis et au Royaume-Uni, il a été associé aux tentatives de contrôle des agrégats monétaires, mais cela ne dura que quelques années. Vous pouvez penser que l’abandon des politiques de revenu s’inscrit dans une logique néolibérale, mais je pense pour ma part qu’il s’agit plutôt de la conséquence inévitable de l’inflation à deux chiffres.

Il y a eu une révolution en théorie macroéconomique, mais j'ai souligné ailleurs qu’elle ne colle pas au cadre kuhnien. La contre-révolution menée par les nouveaux classiques n'a pas donné d'analyse alternative de l'inflation : en fait, leurs inquiétudes étaient davantage d’ordre méthodologique. Il est vrai que ceux qui promurent cette contre-révolution étaient partisans du néolibéralisme et que vous pouvez relier le réductionnisme à l'individualisme (et donc le néolibéralisme), mais je pense que l’attrait de cette contre-révolution tient davantage à une collection de bonnes idées auxquelles l'orthodoxie d’alors résista, comme les anticipations rationnelles.

Le ciblage d'inflation par les banques centrales implique une tentative de gestion de l'économie d’une façon assez similaire à celle de l'activisme budgétaire keynésienne auparavant. La banque centrale est une partie de l’État. L'indépendance de la banque centrale au Royaume-Uni date de 1997 et elle était en vigueur aux Etats-Unis bien avant Reagan. La crise financière mondiale a porté un coup fatal à ce que j'appelle le "consensus sur l’assignation" (l’idée que la gestion de la demande doit être du ressort de la politique monétaire et le contrôle de la dette publique du ressort de la politique budgétaire), mais la popularité de cette assignation doit peu au libéralisme. Beaucoup ont beau fréquemment chercher à relier le ciblage d'inflation au néolibéralisme, mais on ne peut établir un tel lien selon moi.

Il est par conséquent problématique de chercher à relier la macroéconomie à l'essor du néolibéralisme et, surtout, cela nous détourne de la réelle révolution en termes de politique économique que représenta le néolibéralisme, en l’occurrence un changement dans l'attitude des responsables politiques vis-à-vis de presque tout genre d’intervention de l’État. (…) Il y a eu un déplacement correspondant du collectif (notamment avec l’attaque des syndicats) à l'individu, notamment avec l'idée que les "créateurs de richesse" (c'est-à-dire ceux qui obtiennent les plus fortes rémunérations) doivent justement être incités à créer de la richesse en réduisant l’imposition "punitive". L'argent public devint l’"argent du contribuable" et ainsi de suite.

Cette révolution néolibérale a été victorieuse, dans le sens où elle s’est maintenue pendant plusieurs décennies. Elle a provoqué, au travers ses excès, de sérieux problèmes et il est temps de la réexaminer. Mais, ironiquement, les tentatives de mise en place d’une politique macroéconomique véritablement néolibérale (un ciblage d’inflation sans intervention, sans gestion de la demande globale) ont échoué à peine quelques années après avoir débuté. »

Simon Wren-Lewis, « Revolutions in economic policy », in Mainly Macro (blog), 12 septembre 2017. Traduit par Martin Anota

vendredi 18 août 2017

Le Japon et le fardeau de la dette publique

« (…) Il y a actuellement une très bonne raison d’écrire à propos de l’économie japonaise, et il s’agit de sa très bonne performance au deuxième trimestre de l’année 2017. La croissance annualisée s’élevait au Japon à 4 %, contre (par exemple) 1,2 % au Royaume-Uni. Ce qui est particulièrement encourageant à propos de cette performance est que la croissance japonaise est tirée par la demande domestique plutôt que par la demande étrangère. Par le passé, le Japon semblait connaître le problème symétriquement inverse à celui du Royaume-Uni : la croissance économique était compensée par le commerce extérieur, tandis que la demande domestique était faible.

Cette récente croissance ne compense pas simplement les piètres performances passées en comparaison avec les autres pays. Les comparaisons de la croissance du PIB sont trompeuses en ce qui concerne le Japon car (à la différence du Royaume-Uni et des Etats-Unis) il a relativement peu d’immigration, si bien qu’il veut mieux utiliser le PIB par tête pour établir de telles comparaisons. (Comme le souligne Noah Smith, même cela peut biaiser les comparaisons avec le Japon, dans la mesure où sa population vieillit.) Entre 2006 et 2016, le PIB par tête du Japon s’est accru d’un total d’environ 5,5 %, contre environ 5 % pour les Etats-Unis et environ 3 % pour le Royaume-Uni. C’est une bonne performance en comparaison avec d’autres économies, mais tous ces pays auraient dû avoir de plus fortes reprises suite aux récessions.

Une forte croissance est une bonne nouvelle parce que l’inflation est si faible (autour de 0,5 %) : elle est bien inférieure à la cible d’inflation de 2 %. Le gouvernement essaye de stimuler la croissance économique en utilisant une modeste relance budgétaire et un assouplissement quantitatif à grande échelle (les taux d’intérêt de court et long termes sont nuls), aussi bien qu’en mettant en œuvre diverses réformes structurelles. Mais (…) son ratio dette publique nette sur PIB est de 125 % et s’accroît (…). Il est plus élevé que celui des autres pays de l’OCDE, à l’exception de la Grèce et de l’Italie.

Est-ce que la conjonction d’une croissance économique relativement forte et une dette publique élevée déconcerte la théorie économique, comme le suggère Bill Mitchell ? Comme la monnaie à haute puissance et l’inflation, toute relation entre la dette publique et la croissance économique ne marche pas quand les taux d’intérêt sont contraints par leur borne zéro. Une dette publique élevée peut évincer l’investissement privé (bien que certains ne soient pas d’accord avec cette idée), mais pas quand les taux d’intérêt de long terme réels sont nuls et l’inflation proche de zéro. Assurer le service d’une dette élevée peut décourager l’offre de travail, mais à nouveau pas quand les taux d’intérêt sont nuls. La dette n’est pas non plus un fardeau pour les générations futures quand le taux d’intérêt réel est bien inférieur au taux de croissance.

Bien sûr, la plupart des gens pensent que de tels niveaux de dette élevés constituent une réelle menace en raison des "marchés". Mais les marchés vont seulement s’arrêter d’acheter cette dette s’ils s’attendent à un défaut ou à une inflation rampante. Il n’y a en outre aucune façon par laquelle un gouvernement possédant sa propre devise peut être forcé à faire défaut. Il est tout aussi improbable qu’il choisisse de faire défaut avec des taux d’intérêt si faibles. C’est la vérité fondamentale que les dirigeants au Royaume-Uni choisissent de taire (en prétendant le contraire).

Mais que se passe-il quand la croissance économique finit par alimenter l’inflation et que les taux d’intérêt augmentent ? Est-ce que l’endettement public posera alors problème ? Peut-être, mais seulement à long terme, si bien que le gouvernement va avoir beaucoup de temps pour réparer son toit lorsque le soleil brille. Aujourd’hui le Japon s’inquiète à propos de ses niveaux élevés de dette publique, mais il s’inquiète bien plus (et avec raison) de la combinaison d’une faible croissance économique et d’une faible inflation. En ce sens, il donne un bon exemple aux autres pays. »

Simon Wren-Lewis, « Japan and the burden of government debt », in Mainly Macro (blog), 18 août 2017. Traduit par Martin Anota

mercredi 2 août 2017

Est-ce qu’un marché du travail flexible pose un problème pour les banquiers centraux ?

« Les récessions et les ralentissements économiques moins sévères résultent typiquement d’une insuffisance de la demande de biens et services. La seule façon de mettre un terme à ces phénomènes consiste à stimuler la demande globale d’une façon ou d’une autre. Cela peut se faire naturellement, mais aussi avec une réduction délibérée des taux d’intérêt par les banques centrales. Comment savons-nous que la demande globale est insuffisante ? Parce que le chômage s’est accru, comme la faible demande de biens incite les entreprises à moins embaucher et à licencier.

Une question qui est quelquefois posée en macroéconomie est si les travailleurs dans une récession peuvent revenir à l’emploi (price themselves into jobs) en réduisant les salaires. Au cours des précédentes récessions, les travailleurs ont été réticents à le faire. Mais supposons que nous ayons eu une récession plus longue parce que l’austérité budgétaire a freiné la reprise et qu’au cours de cette période plus longue les salaires soient devenus moins rigides. Alors, la chute des salaires réels peut ramener les chômeurs à l’emploi et réduire le chômage (1).

Ce n’est pas parce que la chute des salaires réels résout le problème d’insuffisance de la demande. (…) La baisse des salaires réels peut davantage déprimer la demande globale. Mais il est toujours possible que les travailleurs puissent revenir à l’emploi, parce que les entreprises peuvent se tourner vers des techniques de production plus intensives en travail ou échouer à investir dans de nouvelles techniques économes en travail. La production serait toujours déprimée, mais le chômage chuterait, l’emploi augmenterait et la productivité du travail stagnerait. C’est essentiellement ce que nous avons observé au Royaume-Unis au cours des dernières années.

Il est important de comprendre que, dans ces circonstances, le problème d’une demande insuffisante perdure. Les ressources sont toujours gâchées à une grande échelle. Notre situation s’améliorerait si la demande était stimulée. Comment les banquiers centraux pourraient-ils savoir si c’est le cas ou non ?

Les banquiers centraux peuvent dire qu’ils pourraient toujours savoir si la demande est insuffisante parce que les enquêtes leur disent si les entreprises ont des capacités excédentaires. Cela serait sans doute vrai dans le sillage immédiat de la récession, mais à mesure que le temps passerait le capital se déprécierait et l’investissement resterait faible parce que les entreprises utiliseraient des techniques de production plus intensives en travail. En tant qu’indicateurs d’insuffisance de la demande globale, les enquêtes deviendraient aussi peu robustes que les chiffres du chômage.

Que dire après de toutes ces mesures de l’écart de production ? Malheureusement, elles sont fondées soit sur le chômage, soit sur les enquêtes, soit sur les techniques de lissage des données. Ces dernières, parce qu’ils lissent les données de la production, disent simplement le temps qu’il faut pour qu’une reprise soit complète. Ou, pour le dire autrement, les mesures basées sur la tendance excluent effectivement la possibilité d’une période prolongée de demande insuffisante (2). Donc, collectivement, ces mesures d’écart de production ne fournissent pas d’information additionnelle à propos de l’insuffisance de la demande globale.

L’arbitre ultime pour savoir s’il y a une insuffisance de la demande globale est l’inflation. Si la demande est insuffisante, l’inflation va être inférieure à sa cible. Elle est inférieure à sa cible dans la plupart des pays aujourd’hui, notamment aux Etats-Unis, dans la zone euro et au Japon. (Au Royaume-Uni, l’inflation est supérieure à la cible en raison de la dépréciation provoquée par le Brexit, mais l’inflation salariale ne présente pas de signe d’emballement.) Donc, dans ces circonstances, les banquiers centraux doivent comprendre que la demande est insuffisante et continuer à faire tout ce qu’ils peuvent pour la stimuler.

Mais il y a un danger que les banquiers centraux regardent le taux de chômage, les enquêtes sur la capacité excédentaire et les estimations de l’écart de production et en concluent que nous n’avons plus d’insuffisance de la demande globale. Aux Etats-Unis, les taux d’intérêt augmentent et il y a certains membres du comité de politique monétaire de la Banque d’Angleterre qui aimeraient également les augmenter. Si l’insuffisance de la demande est toujours un problème, ce serait alors une grande erreur, très coûteuse, le genre d’erreur que les autorités monétaires ne doivent jamais commettre (3). Il y a une façon certaine d’éviter cette erreur, qui consiste à continuer de stimuler la demande jusqu’à ce que l’inflation dépasse sa cible.

Un argument contre cette politique attentiste est que les autorités monétaires doivent être « en avance sur la courbe », pour éviter d’abruptes hausses des taux d’intérêt si l’inflation commençait à augmenter. Les arguments comme celui-ci traitent la Grande Récession comme une simple version plus grande des récessions que nous avons connues depuis la Seconde Guerre mondiale. Mais au cours de ces précédentes récessions, les taux d’intérêt n’ont pas butté sur leur borne inférieure et nous n’avions pas eu de généralisation de l’austérité budgétaire une ou deux années à peine après le début de la récession. Ce à que nous assistons, c’est plutôt quelque chose qui se rapproche de la Grande Dépression, mais avec un marché du travail plus flexible.

(1) Les salaires réels peuvent aussi être plus flexibles parce que la Grande Récession a permis aux employeurs d’accroître l’insécurité de l’emploi, qui peut à la fois accroître la flexibilité des salaires et réduire le NAIRU. Ce qui est implicite dans cette idée, c’est le fait qu’une baisse des salaires nominaux ne se traduit pas automatiquement par une baisse des prix. Si cela avait été le cas, les salaires réels n’auraient pas chuté. (…)

(2) Elles suggèrent aussi souvent que les années qui ont immédiatement précédé la Grande Récession ont constitué une période d’ample boom, malgré toutes les preuves qui indiquent qu’il n’y a pas eu de boom en-dehors de la périphérie de la zone euro.

(3) J. W. Mason a récemment affirmé qu’une telle erreur est actuellement commise aux Etats-Unis dans un rapport détaillé. »

Simon Wren-Lewis, « Is a flexible labour market a problem for central bankers? », in Mainly Macro (blog), 2 août 2017. Traduit par Martin Anota

dimanche 16 juillet 2017

Pourquoi les salaires allemands doivent augmenter

« Il y a eu un débat intéressant cette semaine entre Martin Sandbu et The Economist, qui suscita une réaction de la part de Philippe Legrain (puis à nouveau une réponse de Sandbu ici). La question qu’ils se posent est si le solde du compte courant allemand, qui a régulièrement augmenté en passant d’un léger déficit en 2000 à un large excédent de plus de 8 % du PIB ces derniers années, est un problème et, en l’occurrence, un frein sur la croissance mondiale.

Pour déterminer si un excédent courant est un problème, il est essentiel de comprendre pourquoi il apparaît. J’en ai parlé en détails à plusieurs reprises par le passé et Peter Bofinger, l’un des cinq membres du Conseils des Experts Economiques en Allemagne, en offre le même récit que moi. Pour résumer, depuis le lancement de la monnaie unique, l’Allemagne a freiné ses salaires, si bien que ceux-ci se sont accrus à un rythme qui n’était pas cohérent avec la cible d’inflation de la zone euro (une inflation inférieure, mais proche, de 2 %). Nous pouvons le voir clairement dans le graphique suivant.

GRAPHIQUE Coûts du travail unitaires relatifs (en indices, base 100 en 2000)

Simon_Wren-Lewis__couts_du_travail_unitaires_relatifs_de_l__Allemagne.png

La ligne bleue montre les coûts du travail unitaires de l’Allemagne relativement à (…) la moyenne de la zone euro. (…) En maintenant l’inflation salariale à un faible niveau entre 2000 et 2009, l’Allemagne a peu à peu acquis un avantage comparatif sur les autres pays-membres de la zone euro. Au même instant, la plupart des gens se focalisèrent sur la forte inflation à la périphérie de la zone euro. Mais comme la ligne rouge le montre, cela n’était qu’une partie de l’histoire, dans la mesure où l’inflation salariale était trop faible en Allemagne relativement aux autres pays-membres. Cet avantage comparatif qu’elle s’est peu à peu constitué eut comme conséquence d’entraîner un excédent du compte courant allemand.

Cependant, cela ne suffit pas en soi pour dire qu’il y a un problème, pour deux raisons connexes. Premièrement, peut-être que l’Allemagne est entrée dans la zone euro à un taux de change sous-évalué, si bien que le graphique ci-dessus présenterait juste une correction de ce phénomène. Deuxièmement, peut-être que l’Allemagne doit cette compétitivité à l’inclinaison du secteur privé à épargner plus qu’il n’investit et par conséquent à acheter des actifs financiers.

Il y a de bonnes raisons, notamment en ce qui concerne le vieillissement démographique que connaît l’Allemagne, de penser que ce deuxième point est exact. (…) Sur le plan démographique, cela fait sens que l’Allemagne génère un excédent de compte courant. La question clé est de savoir quelle devrait être la taille de l’excédent subséquent. Un excédent de 8 % du PIB est très large et j’ai toujours pensé qu’il était bien trop ample pour simplement refléter les préférences sous-jacentes des épargnants allemands.

Je suis heureux de voir que le FMI est d’accord avec cela. Il suggère que l’excédent de compte courant d’équilibre à moyen terme se situerait entre 2,5 % et 5,5 % du PIB. Cela suggère que la correction de compétitivité qui commença en 2009 a encore une certaine marge devant elle. Pourquoi est-ce que cela prend tant de temps ? Certains estiment que l’excédent de 8 % du PIB doit représenter un certain équilibre à moyen terme, dans la mesure où le déséquilibre provoqué par les rigidités des prix et salaires devrait s’être résorbé avec le temps. J'ai déjà taclé un tel argument il y a quelques années.

Or, pour que déséquilibre de compétitivité se résorbe, nous avons besoin soit d’une forte croissance des salaires en Allemagne, soit d’une faible croissance des salaires dans le reste de la zone euro, soit des deux. Etant donné à quel point l’inflation est faible en moyenne dans la zone euro, il est très difficile d’obtenir une plus faible inflation salariale dans le reste de la zone euro qu’en Allemagne. La réticence des entreprises à imposer des réductions de salaires ou des travailleurs à les accepter est bien connue. La réduction des déséquilibres de compétitivité dans la zone euro est restée lente dans la zone euro dans la mesure où celle-ci peinait toujours à sortir de la récession provoquée par l’austérité budgétaire et où l’inflation moyenne de la zone euro restait par conséquent faible. (1)

En ce sens, des excédents de compte courant allemands d’une telle échelle sont un symptôme de deux problèmes sous-jacents : d’une part, la réussite de l’Allemagne à gagner en compétitivité-prix vis-à-vis des autres pays-membres de la zone euro avant la crise financière mondiale et, d’autre part, l’actuelle faiblesse de l’inflation dans la zone euro. L’Allemagne peut rattraper ses erreurs passées en encourageant la hausse des salaires domestiques, soit directement, soit indirectement via une politique budgétaire expansionniste. Non seulement cela accélérerait l’ajustement, mais cela étoufferait aussi une certaine culture en Allemagne consistant à légitimer la réduction des coûts vis-à-vis des autres pays-membres en freinant les salaires. (2)

De ce point de vue, est-ce que cela signifie que les excédents de compte courant allemands freinent la croissance mondiale ? Seulement d’une façon très indirecte. Si une hausse des salaires allemands ou d’éventuelles mesures adoptées pour les accroître stimulaient la demande globale et la production en Allemagne, cela stimulerait ensuite la croissance mondiale. (Rappelez-vous que les taux d’intérêt de la BCE butent sur leur borne inférieure, donc elle se resserrerait peu en réaction à une éventuelle stimulation de la demande globale.) En stimulant ainsi la demande, l’Allemagne ne se contenterait pas d’aider le reste du monde ou d’autres pays-membres de l’union monétaire : elle corrigerait un problème qu’elle a créé de son propre chef.

(1) La résistance aux réductions de salaires nominaux devient un argument bien plus puissant pour relever la cible d’inflation dans une union monétaire où les asymétries signifient que les taux de change d’équilibre sont susceptibles de varier au cours du temps.

(2) La règle dans union monétaire est très simple. Une fois que nous avons atteint un équilibre de compétitivité, les salaires nominaux doivent s’accroître de 2 % (ce qui correspond à la cible d’inflation) de plus que la productivité nationale sous-jacente. J’ai fréquemment reçu des commentaires affirmant qu’une fixation des salaires inférieure à ce niveau améliorerait la compétitivité de la zone euro dans son ensemble. C’est incorrect, parce que si tous les pays-membres de l’union monétaire modéraient leurs salaires de la même ampleur, l’inflation de la zone euro chuterait, amenant la banque centrale à assouplir sa politique monétaire pour ramener l’inflation à 2 % et l’inflation salaire à 2 % plus la croissance de la productivité. »

Simon Wren-Lewis, « Why German wages need to rise », in Mainly Macro (blog), 14 juillet 2017. Traduit par Martin Anota



aller plus loin...

« Adopter le modèle allemand ou sauver l’euro »

« L'Allemagne doit-elle réduire ses excédents courants ? (Le tango se danse à deux) »

« L’Allemagne contre la zone euro »

jeudi 13 juillet 2017

Pourquoi les récessions suivies par l’austérité ont un impact durable sur l’activité

« Les étudiants apprennent tôt que la demande agrégée importe à court terme, mais qu’à long terme la production est déterminée du côté de l’offre. Une meilleure façon de formuler cela est de dire que l’offre s’ajuste à la demande à court terme, mais que la demande s’ajuste à l’offre à long terme. Une partie clé de cette conceptualisation est que l’offre de long terme est indépendante des variations de la demande à court terme (les expansions et les récessions). C’est une conceptualisation simple qui s’est révélée être extrêmement utile par le passé. Regardez juste les données du Royaume-Uni présentées dans ce billet : malgré les chocs pétroliers, la récession provoquée par l’expérience monétariste et la récession provoquée par la crise du système monétaire européen, la production par tête au Royaume-Uni semble être revenue à une tendance sous-jacente de 2,5 % par an après la Seconde Guerre mondiale.

Mais plus maintenant : la production par tête est désormais inférieure de plus de 15 % à cette tendance et, depuis le Brexit, cet écart s’accroît trimestre après trimestre. Dans la plupart des pays développés, il semble que la crise financière mondiale ait changé la tendance sous-jacente de la croissance. Vous trouverez plein d’histoire et d’articles qui essaient d’expliquer cela comme un ralentissement de la croissance de l’offre provoqué par un ralentissement du progrès technique qui daterait d’avant la crise financière et qui serait indépendant de la récession provoquée par celle-ci.

Dans un précédent billet, j’ai observé de récentes preuves empiriques qui suggèrent un récit différent : que la récession qui a suivi la crise financière mondiale semble avoir eu un impact permanent sur la production. Vous pouvez raconter cette histoire de deux façons. Selon la première, aujourd’hui, pour une raison ou une autre, l’offre s’est ajustée à une plus faible demande. Selon la seconde, nous sommes toujours dans une situation où la demande globale est inférieure à l’offre.

Les raisons théoriques expliquant pourquoi l’offre peut s’être ajustée à une demande plus faible ne sont pas difficiles à trouver. (Elles sont souvent regroupées par les économistes sous l’étiquette d’"effets d’hystérèse"). L’offre (en termes de production par tête) dépend du taux d’activité, du montant de capital productif dans l’économie et finalement du progrès technique, qui désigne tout ce qui améliore la façon par laquelle le travail et le capital se combinent au niveau agrégé pour générer la production. Une longue période de faible demande peut décourager les travailleurs. Elle peut aussi freiner l’investissement : un investissement peut être profitable, mais s’il n’y a pas de demande, il ne sera pas financé.

Cependant, le canal la plus évident pour lier une récession à l’offre de plus long terme est via le progrès technique, ce qui fait écho à la vaste littérature regroupée sous le terme de « théorie de la croissance endogène. Cela peut être fait via un modèle AK simple (comme Antonio Fatas le fait ic) ou en utilisant un modèle plus élaboré du progrès technique, comme le font Gianluca Benigno et Luca Fornaro dans leur analyse titrée "Stagnation traps". L’idée fondamentale est que, dans une récession, l’innovation est moins profitable, si bien que les entreprises font moins d’innovations, ce qui entraîne une moindre croissance de la productivité et donc de l’offre. Narayana Kocherlakota a développé cette idée, comme vous pouvez le voir avec l’exemple qu’il donne ici.

Le second type d’explications est attrayant, en partie parce que le mécanisme qui est censé ramener la demande vers l’offre (en l’occurrence la politique monétaire) a été hors d’action pendant une longue période en raison de la borne inférieure zéro (zero lower bound). (La borne inférieure joue également un rôle important dans le modèle développé par Benigno et Fornaro.) Cependant, pour certains, ce type d’explications semble actuellement exclue dans la mesure où le chômage est proche des niveaux d’avant-crise au Royaume-Uni et aux Etats-Unis.

J’ai trois problèmes différents avec l’idée selon laquelle nous n’aurions plus un problème de demande insuffisante au motif que le chômage serait faible. Le premier, et le plus évident, est que le taux de chômage naturel peut être, pour diverses raisons, considérablement plus faible qu’il ne l’était avant la crise financière mondiale. Le deuxième problème est (…) de faibles salaires réels peuvent avoir encouragé les entreprises à utiliser des techniques plus intensives en travail. Si c’est ce qui s’est passé, cela ne signifie pas que le problème d’insuffisance de la demande ait été écarté, mais juste qu’il est moins manifeste. (Pour ceux qui ont un problème conceptuel avec cela, pensez juste au modèle le plus simple des nouveaux keynésiens, qui suppose un marché qui s’équilibre parfaitement, mais qui présente pourtant une insuffisance de la demande.)

Le troisième problème se focalise sur la nature de tout ralentissement de la productivité provoqué par le manque d’innovations. Une question clé, à laquelle les articles cités ci-dessus ne s’attaquent pas directement, est si nous parlons de la recherche à la frontière ou davantage de la mise en œuvre des innovations (par exemple, copier ce que font les entreprises situées à la frontière.) Il y a certaines preuves empiriques qui suggèrent que le ralentissement de la productivité peut refléter l’absence de cette dernière. C’est très important, parce que si c’est le cas, cela implique que le ralentissement est réversible. J’ai affirmé que les banques centrales doivent prêter davantage d’attention à ce que j’ai appelé le retard d’innovation (c’est-à-dire à l’écart entre les meilleurs techniques et ce que les entreprises emploient effectivement) et au lien que celui-ci entretien avec l’investissement et la demande agrégée.

Tout cela montre qu’on ne manque pas d’idées pour saisir comment une récession sévère et une lente reprise peuvent avoir des effets durables. S’il y a un problème, c’est davantage le fait que la conceptualisation simple dont j’ai parlé au début de ce billet a façonné étroitement la façon par laquelle la plupart des gens pensent. Si l’un des mécanismes dont j’ai parlé est important, alors cela signifie que la folie de l’austérité a eu un impact qui peut durer au moins une décennie plutôt que quelques années. »

Simon Wren-Lewis, « Why recessions followed by austerity can have a persistent impact », in Mainly Macro (blog), 12 juillet 2017. Traduit par Martin Anota



aller plus loin...

« L’austérité laisse des cicatrices permanentes sur l’activité »

« L’hystérèse, ou comment la politique budgétaire a retrouvé sa légitimité »

lundi 10 juillet 2017

Mesurer l’impact de l’austérité

« Ben Chu a publié un bon article présentant certains non-sens associés à l’austérité budgétaire (qui refusent de mourir, parce qu’ils sont utiles aux politiciens et du fait que les médias sont généralement désemparés). Peut-être que le non-sens le plus stupide que j’ai entendu (et j’en ai entendu beaucoup) est que le Royaume-Uni n’a pas vraiment connu d’austérité parce que la dette publique a continué d’augmenter ou parce qu’une autre mesure tout aussi impertinente ait elle-même continué d’augmenter.

Si essayer de réduire le déficit budgétaire (ce que les économistes appellent la consolidation budgétaire) n’avait pas d’effets négatifs sur l’économie dans son ensemble, cela n’aurait pas l’étiquette d’austérité. L’austérité concerne l’impact agrégé négatif qu’une consolidation budgétaire peut avoir sur la production. Par conséquent, la mesure appropriée de l’austérité est une mesure de cet impact. Donc ce n’est pas le niveau de dépenses publiques ou d’impôts qui importe, mais comment ce niveau varie.

Une mesure évidente que l’on pourrait utiliser est le déficit lui-même, en général ajusté pour tenir compte des variations qui surviennent automatiquement du fait que la production varie. J’ai utilisé cette mesure quelquefois, parce qu’elle était produite par l’OBR, le FMI et l’OCDE parmi d’autres. Mais ce n’est pas l’idéal, parce que l’impact des variations des impôts sur la demande globale et par conséquent sur la production est généralement plus faible que l’impact d’une variation des dépenses publiques, parce qu’une partie de la baisse d’impôt est épargnée. (C’est également vrai, dans une moindre mesure, avec les transferts de revenus.)

Il n’y a pas de façon simple de faire face à ce problème de mesure, parce que le montant d’une hausse d’impôt que les gens vont épargner va dépendre en partie de leurs anticipations relativement aux impôts qu’ils auront à payer à l’avenir. Par conséquent, certains préfèrent se focaliser seulement sur les dépenses publiques pour mesurer l’impact budgétaire (…). Cependant, il est également possible d’appliquer de simples propensions moyennes à consommer des réductions d’impôts et des revenus de transfert pour obtenir une mesure de l’impact budgétaire.

C’est ce que la mesure de l’impact budgétaire du Hutchins Center fait pour les Etats-Unis.

Il ne s’agit pas de multiplicateurs (ce qui diffère par rapport à ce que fait l’OBR pour le Royaume-Uni par exemple (1)), mais juste l’impact direct des dépenses publiques et des impôts sur la demande globale et donc le PIB. L’impact moyen total est proche de 0,4 %, ce qui serait la politique budgétaire qui serait en ce sens neutre.

Comparons la légère récession de 2001 avec la récession plus sévère de 2008-2009. Dans les deux cas, durant la récession, la politique budgétaire a été fortement contracyclique, contribuant à réduire l’impact de la récession. Après la fin de la récession de 2001, la politique budgétaire continua de soutenir la reprise pendant encore environ deux ans : il y eut notamment les réductions d’impôts de Bush. La reprise du PIB fut raisonnablement forte : la croissance était de 2,8 % en 2003, de 3,8 % en 2004 et de 3,3 % en 2005.

En 2010, nous avions une récession bien plus sévère et plus longue, mais le soutien budgétaire ne fut qu’à peine plus important qu’en 2001, malgré des taux d’intérêt contraints par leur borne inférieure. A cette occasion, les Républicains s’opposèrent au soutien budgétaire. Cela continua encore un an et un trimestre et ensuite la politique budgétaire devint fortement restrictive de 2011 à 2015. La croissance du PIB fut plus lente qu’au cours de la précédente reprise, malgré une récession plus sévère : de 2,5 % en 2010, de 1,6 % en 2011, de 2,2 % en 2012, de 1,7 % en 2013 et de 2,4 % en 2014. Cela n’aurait pas dû nous surprendre, comme la politique budgétaire amputa le PIB d’environ 1 % en 2011, en 2012 et en 2013, au lieu d’y contribuer à 0,4 % comme elle le faisait habituellement.

La vitesse et l’ampleur avec laquelle l’austérité fut appliquée après la Grande Récession furent très inhabituelles : le manuel dit qu’il faut d’abord renforcer la reprise, permettre aux taux d’intérêt de s’accroître, et de ne s’inquiéter seulement ensuite de la dette publique. Il n’y a pas eu de justification économique pour le resserrement hâtif de la politique budgétaire après 2010 : le motif, comme au Royaume-Uni, fut entièrement d’ordre politique. Cela se traduisit par la reprise de la production la plus lente aux Etats-Unis depuis la Seconde Guerre mondiale. (…) Comme je l’ai montré ici en utilisant des calculs simples, si les dépenses gouvernementales totales depuis 2011 étaient restées neutres au lieu de devenir brutalement restrictives, alors la production américaine serait facilement revenue à proximité de sa capacité (telle qu’elle est mesurée par le CBO) en 2013.

Soustraire 1,5 % du PIB ne serait pas important si quelque chose (du côté de la consommation, de l’investissement ou des exportations nettes) prenait le relais. Mais, pour cela, il faudrait compter sur la chance ou s’appuyer sur une relance monétaire, or la politique monétaire était confrontée à une trappe à liquidité. C’est le vrai crime de l’austérité. Décroître la demande globale ou la production précisément à l’instant où l’économie commençait à connaître une reprise depuis la plus sévère récession qu’elle ait connue depuis la Seconde Guerre mondiale apparaît particulièrement stupide, mais le faire précisément à l’instant où la politique monétaire était incapable d’en amortir l’impact relève de la folie. Comme je vais l’affirmer dans d’autres billets, il est de plus en plus manifeste que cela nous a appauvris de façon permanente.

(1) Si quelqu’un publie quelque chose de similaire pour le Royaume-Uni, faites-le moi savoir. Personnellement, je pense que cela fait plus sens de publier des données comme celles-ci que d’utiliser une analyse fondée sur le multiplicateur, simplement parce que mesures sont plus directes et impliquent moins d’hypothèses à propos de l’économie en général. Crucialement, il n’y a pas d’hypothèses implicites à faire à propos de la politique monétaire. Il serait intéressait de savoir pourquoi l’OBR a décidé de ne pas adopter cette approche. »

Simon Wren-Lewis, « Measuring the impact of austerity », in Mainly Macro (blog), 10 juillet 2017. Traduit par Martin Anota

vendredi 16 juin 2017

Les banques centrales doivent-elles relever leur cible d’inflation ?

« Les arguments en faveur d’un relèvement de la cible d’inflation sont simples, une fois que vous comprenez deux choses. Premièrement, l’instrument de politique monétaire le plus efficace et fiable consiste à influencer le taux d’intérêt réel dans l’économie, c’est-à-dire le taux d’intérêt nominal moins l’inflation anticipée. Deuxièmement, les taux d’intérêt nominaux de court terme ne peuvent aller en-deçà d’un plancher proche de zéro (la borne inférieure zéro, zero lower bound). Combinons ces deux choses et vous vous retrouvez avec un sévère problème dans une récession, parce que pour combattre la récession les taux d’intérêt réels doivent aller en territoire négatif, mais la borne inférieure limite l’ampleur à laquelle ils peuvent s’enfoncer en territoire négatif. Cela signifie que la politique monétaire seule peut ne pas être capable de sortir l'économie d’une récession.

Relever la cible d’inflation réduit la probabilité que les taux d’intérêt se retrouvent à leur borne inférieure zéro. Pour comprendre pourquoi, considérez tout d’abord le cas où le taux d’intérêt réel de long terme (ce que les économistes appellent souvent le "taux d’intérêt d’équilibre" ou "naturel") est positif. Disons qu’il est de 2 %. Si la cible d’inflation est de 2 % et la borne inférieure est de 0 %, cela signifie qu’en temps normal le taux d’intérêt nominal moyen est de 4 % (2 % de cible d’inflation + 2 % pour obtenir un taux d’intérêt réel). Cela signifie que les taux d’intérêt nominaux peuvent être réduits au maximum de 4 % si l’économie faiblit. Cela peut suffire pour un léger ralentissement, mais cela peut ne pas suffire pour une récession sévère comme celle que nous avons subie en 2008. Cependant si la cible d’inflation était de 4 %, les taux nominaux pourraient au maximum être réduits de 6 %. Cela permet de faire face à de sévères récessions (mais, j'avoue, peut-être aux plus sévères qui soient).

Pourquoi plusieurs économistes affirment aujourd’hui que nous devons relever la cible d’inflation de 2 % à 4 % ? L’un des raisons est qu’ils croient que le taux d’intérêt réel de long terme est aujourd’hui plus faible qu’il ne l’était lorsque les banques centrales adoptèrent la cible de 2 %. (C’est l’idée de la stagnation séculaire.) Si vous reprenez l’arithmétique ci-dessus, vous pouvez saisir pourquoi un taux d’intérêt réel de long terme plus faible va aggraver le problème de la borne inférieure zéro. L’idée est que nous devons maintenant accroître la cible d’inflation pour être certains que nous soyons moins contraints par la borne inférieure zéro à l’avenir.

La question cessa d’être une simple interrogation académique pour devenir une possibilité pratique aux Etats-Unis il y a quelques jours. Lorsqu’on a interrogé par le passé Janet Yellen, la présidente de la Fed, à propos du relèvement de la cible d’inflation, elle a eu tendance à écarter l’idée. Désormais, elle dit que c’est quelque chose que la Fed va étudier à l’avenir et que c’est l’une des plus importantes questions auxquelles font face les banquiers centraux aujourd’hui.

Cela va donner sans aucun doute un nouveau souffle au débat sur le relèvement de la cible d’inflation. Nous sommes dans un territoire d’arbitrage standard ici. Les économistes s’accordent généralement pour dire qu’une cible d’inflation plus élevée va en soi infliger de plus gros coûts à l’économie, mais cela aura pour bénéfice de réduire la fréquence des épisodes de borne inférieure zéro. Mais il y a une alternative bien plus efficace pour surmonter ce dilemme.

Les gouvernements ont un autre instrument qui a un impact assez prévisible sur la demande agrégée et qui peut être utilisé pour combattre une récession : la politique budgétaire (les changements discrétionnaires du niveau d'impôts et des dépenses publiques). Au Royaume-Uni, aujourd’hui, les taux d’intérêt sont contraints par la borne inférieure zéro en partie parce que la politique budgétaire est restrictive (le gouvernement a opté pour l’austérité). Ce serait une meilleure chose d’utiliser cet instrument pour stimuler l’économie lorsqu’elle est en récession plutôt que de relever la cible d’inflation. Pourtant, les banques centrales indépendantes ont découragé les gouvernements d’utiliser la politique budgétaire de cette façon.

Il n’est pas bon que les banques centrales prétendent que c’est quelque chose du ressort des gouvernements et qu’il y a une loi non écrite qui dicte aux banques centrales de rester silencieuses sur de telles choses. En réalité, au Royaume-Uni et dans la zone euro, les banques centrales encouragèrent activement les gouvernements à faire la mauvaise chose avec la politique budgétaire lors de la dernière récession : elles les incitèrent à embrasser l’austérité. S’il y a quelque chose d’inhérent au sein des banques centrales qui les empêche de donner le conseil approprié de cette façon, alors nous devons nous demander d’urgence quels changements apporter aux banques centrales.

Dans une récession, dès que la banque centrale pense que les taux d’intérêt seront contraints par leur borne inférieure, elle doit dire, haut et fort, que la politique budgétaire doit devenir plus expansionniste. En outre, la banque centrale doit dire, haut et fort, que les gouvernements n’ont pas à s’inquiéter de la hausse de la dette et des déficits qu’entraîneraient la récession et toute relance budgétaire qu’ils entreprendraient (…). Ces deux déclarations auraient le mérite d’être exactes.

Bien sûr, les gouvernements vont devoir restaurer la dette aux niveaux désirés à un moment ou à un autre, mais il est possible de le faire bien après que les taux d’intérêt aient quitté la borne inférieure zéro, ce qui permettrait de réduire la dette en minimisant les répercussions sur l’économie. Le but immédiat de la politique budgétaire dans une récession doit consister à laisser les taux d’intérêt s’accroître au-dessus de la borne inférieure zéro le plus tôt possible. Cela vous donne le meilleur résultat macroéconomique qui soit, un meilleur résultat que celui que vous donnera un relèvement de la cible d’inflation. La question la plus importante à laquelle les banquiers centraux font face aujourd’hui est pourquoi ils échouèrent à faire cela depuis 2009.

Maintenant il est possible que, si la démocratie est en mauvaise forme (comme c’est actuellement le cas aux Etats-Unis par exemple), le gouvernement peut ignorer le conseil qu’il reçoit de la part de la banque centrale. Dans ce cas, il est utile de considérer l’idée de donner un certain pouvoir additionnel aux banques centrales pour répliquer une expansion budgétaire, par exemple en s’appuyant sur la monnaie-hélicoptère. Ou il peut être utile de considérer l’idée d’apporter des changements institutionnels qui permettent aux taux d’intérêt nominaux de s’enfoncer en territoire négatif. Ou bien d’accroître la cible d’inflation. Mais avant de faire l’une de ces choses nous devons nous assurer que les banques centrales donneront le bon conseil aux gouvernements quand la prochaine récession viendra. »

Simon Wren-Lewis, « Raising the inflation target », in Mainly Macro (blog), 16 juin 2017. Traduit par Martin Anota



aller plus loin...

« Et si les banques centrales ciblaient une inflation de 4 % ? »

« Quelle est la cible d’inflation optimale ? »

lundi 15 mai 2017

Nous sous-estimons l’impact de l’austérité

« Plusieurs idées ont été avancées pour expliquer la faible croissance de la productivité du Royaume-Uni, mais parmi les analyses orthodoxes l’impact de l’austérité n’est habituellement pas au sommet sur la liste des candidats. J’ai parlé par le passé de ce que j’ai appelé le 'retard d’innovation" (innovation gap) et expliqué pourquoi le Royaume-Uni est actuellement en train de souffrir d’un retard d’innovation particulièrement large. L’idée d’un retard d’innovation permet de lier l’insuffisance de la demande globale (celle provoquée par l’austérité par exemple) à la faiblesse de la croissance de la productivité.

Prenons un exemple simple pour expliquer comment un retard d’innovation peut apparaître après une sévère récession provoquée par l’austérité. Supposons que les améliorations des technologies et des techniques de production soient constantes (…), mais qu’elles ne peuvent se diffuser qu’avec de nouveaux investissements : c’est ce que les économistes appellent le progrès technique incorporé (embodied technical progress).

Imaginez une entreprise dont les ventes ne s’accroissent pas. Est-ce que l’entreprise va investir pour devenir plus productive ? Seulement si les profits additionnels qu’elle peut faire suite à l’investissement (…) sont plus larges que le coût de l’investissement. Il faut que cette entreprise ait un gros retard d’investissement pour qu’il soit utile pour elle d’entreprise l’investissement et pour que sa productivité augmente.

Maintenant, imaginez que la demande s’accroisse. L’entreprise a maintenant à entreprendre un investissement additionnel pour accroître sa production. Il fait sens d’investir dans des techniques qui incorporent les dernières technologies. La hausse de la demande entraîne à la fois une hausse de l’investissement (ce que les économistes appellent l’ "accélérateur") et une hausse de la productivité.

Au cours d’une reprise normale suite à une récession, la demande connaît rapidement une reprise (la croissance excède facilement ses tendances passées), ce qui amène les entreprises à investir dans les dernières technologies. Tout retard d’innovation qui apparaît lors de la récession est rapidement rattrapé. A l’inverse, une reprise très lente provoquée par l’austérité va réduire le besoin d’investissement pour les entreprises, ce qui maintient et aggrave le retard d’innovation.

Cette idée colle avec certains travaux récents qui suggèrent que la croissance de la productivité dans les entreprises à la "frontière" (les entreprises qui ont déjà une productivité relativement forte) n’a pas ralenti et l’écart s’est creusé entre ces entreprises situées à la frontière technologique et celles qui sont en retard. (…) Cela ferait sens si les entreprises à la frontière croissent (parce qu’elles sont les plus productives), mais les entreprises en retard ne le font pas. Les firmes en croissance ont à investir pour croître, mais les entreprises en stagnation ne croissent pas.

Le même modèle peut aussi suggérer comment une croissance de la productivité tirée par les salaires peut survenir (…). Comme la plupart des innovations sont susceptibles de conduire à une économie de main-d’œuvre, alors une hausse des salaires peut accroître les profits qui viennent d’un investissement, sans nécessairement accroître le coût de cet investissement. Donc une hausse des salaires provoquée par une hausse du salaire minimum, par exemple, peut accroître l’investissement et par conséquent la productivité. Réciproquement, une période de stagnation de la croissance des salaires, comme celle que nous avons connue depuis la récession, n’incite aucunement les entreprises à investir dans des techniques qui accroissent la productivité.

Je pense que cette histoire n’explique qu’une partie du retard de productivité du Royaume-Uni. Au Royaume-Uni, l’investissement dans les usines et les machines a brutalement chuté lors de la récession et il n’est toujours pas revenu à ses niveaux d’avant-crise, mais son déclin n’explique pas totalement la stagnation de la productivité. (…) Mais s’il explique ne serait-ce qu’une partie de celle-ci, alors cela signifie que l’austérité est bien plus coûteuse qu’on ne le croit.

Une manière de décrire ce que je viens de dire est de dire que l’austérité influence aussi bien l’offre globale que la demande globale. Vous pouvez dire que l’austérité ignore aussi bien l’accélérateur que le multiplicateur, ce qui est joliment dit, mais cela ne capture par l’idée du progrès technique incorporé qui est cruciale à ce raisonnement. C’est pourquoi il vaut toujours mieux d’avoir une économie à haute pression (high pressure economy) (…).

Comme je l’ai expliqué ici, je n’utilise pas le terme "austérité" comme un simple synonyme de la consolidation budgétaire ou même d’une consolidation budgétaire impliquant une réduction des dépenses publiques. La consolidation budgétaire n’entraîne pas forcément une réduction de la production si la politique monétaire est capable de compenser son impact. Mais si les taux d’intérêt sont contraints par leur borne inférieure, comme ils le font à nouveau au Royaume-Uni (1), la consolidation budgétaire va réduire la production et entraîner un autre gâchis inutile de ressources. Depuis le Brexit, nous avons une seconde période d’austérité au Royaume-Uni. Pour évaluer à quel point cette austérité sera coûteuse, nous ne devons pas seulement regarder si elle crée un écart de production (output gap) négatif, mais aussi si elle génère un retard d’innovation qui réduit la productivité. »

(1) Nous le savons parce que la Banque d’Angleterre accroît le montant de l’assouplissement quantitatif. »

Simon Wren-Lewis, « Underestimating the impact of austerity », in Mainly Macro (blog), 7 mai 2017. Traduit par Martin Anota

lundi 1 mai 2017

Le Brexit commence (probablement) à freiner la croissance britannique

« Quand la Banque d’Angleterre prévoyait au lendemain du référendum du Brexit une croissance de 0,8 % du PIB en 2017, elle s’attendait à ce que la croissance de la consommation déclinerait à juste 1 %, avec seulement une petite baisse du ratio d’épargne. Mais la croissance de la consommation s’est révélée être bien plus robuste durant la deuxième moitié de l’année 2016 que ne l’attendait la Banque d’Angleterre. Comme ce graphique (…) le montre, quasiment toute la croissance du PIB en 2016 était inférieure à celle de la croissance de la consommation, une dynamique qu’elle a correctement décrite comme insoutenable. (Si la consommation croît, mais que les autres composantes du PIB ne le font pas, cela signifie que les ménages puisent dans leur épargne. Cela ne peut continuer indéfiniment.)

GRAPHIQUE Variations du PIB réel par tête du Royaume-Uni et de ses composantes

Simon_Wren-Lewis__Variations_du_PIB_reel_par_tete_du_Royaume-Uni_et_de_ses_composantes.png

Cette forte croissance de la consommation en 2016 a incité la Banque d’Angleterre à changer sa prévision. En février, elle prévoyait pour 2017 une croissance de 2 % pour la consommation et pour le PIB et une chute substantielle du taux d’épargne.

Qu’est-ce qui s’est passé ici ? En août, la Banque d’Angleterre pensait que les ménages prendraient conscience que le Brexit entraînerait une chute significative de la croissance du revenu futur et qu’ils commenceraient par conséquent à réduire leurs dépenses de consommation. Quand il apparut que ce n’était pas le cas, la Banque d’Angleterre sembla faire l’hypothèse inverse, c’est-à-dire supposer que les ménages penseraient que le Brexit aurait peu d’impact sur la croissance de leur revenu futur. Par conséquent, la Banque d’Angleterre prévoyait en février que le taux d’épargne déclinerait davantage en 2018 et en 2019, comme je l’ai noté ici. Elle supposait ainsi que les ménages seraient continuellement surpris par une croissance du revenu plus faible qu’ils ne l’attendaient.

La première estimation pour le PIB du premier trimestre 2017 qui a été publiée hier suggère une croissance de seulement 0,3 %, soit la moitié de ce que prévoyait la Banque d’Angleterre en février. Cette faible croissance semble s’expliquer par la faiblesse des secteurs associés à la consommation (malheureusement, nous n’obtiendrons le chiffre exact de la croissance de la consommation qu’avec la publication de la deuxième estimation du PIB). Donc que se passe-t-il ?

Il y a trois explications possibles. La première, qui est la moins probable, est que le premier trimestre 2017 constitue juste une anomalie. La deuxième est que de plus en plus de consommateurs commencent à réaliser que le Brexit va détériorer leur situation (j’ai noté ici que certains résultats de sondages qui le suggèrent) et qu’ils ajustent en conséquence leurs dépenses. La troisième est que la consommation était forte à la fin de l’année 2016 parce que les ménages achetaient des biens étrangers avant que leurs prix ne grimpent en conséquence de la dépréciation de la livre sterling provoquée par le référendum du Brexit.

Si vous m’avez suivi jusqu’à présent, vous devez savoir qu’il est bien difficile d’établir ce genre de prévision et que le tapage que les partisans du Brexit ont fait à propos des prévisions de la Banque d’Angleterre était peu fondé et ainsi probablement prématuré. Tout ce que Philip Hammond a réussi à dire à propos des dernières prévisions de la croissance, c’est qu’elles démontrent la nécessité de mettre en place un gouvernement "fort et stable" ! Je pense, cependant, que nous entendrons moins parler de la robustesse de notre économie ces prochaines semaines.

Bien sûr, la croissance peut s’accélérer au cours des prochains trimestres, en particulier si les entreprises tirent avantage de la bonne situation qu’a temporairement provoquée la dépréciation avant que s’officialise la sortie du Royaume-Uni hors de l’UE. Les prévisions ne sont presque jamais vérifiées. Mais même si c’est le cas, je ne pense que la plupart des journalistes n’ont pas encore réalisé à quel point il est inapproprié d’utiliser le PIB comme mesure de la santé économique après une large dépréciation. Dans la mesure où la dépréciation renchérit le prix des biens étrangers, les habitants au Royaume-Uni peuvent voir se détériorer leur revenu réel et par conséquent leur bien-être même si le PIB croît. Comme je l’ai souligné ici, cela explique pourquoi les gains réels ont chuté depuis 2010 même si nous avions une croissance (certes faible mais) positive du PIB réel par tête et, comme je l’ai souligné ici, pourquoi le Brexit va détériorer la situation du citoyen moyen du Royaume-Uni même si la croissance du PIB ne décline pas. Si celle-ci décline, cela ne fera qu’aggraver les choses. »

Simon Wren-Lewis, « The Brexit slowdown begins (probably) », in Mainly Macro (blog), 29 avril 2017. Traduit par Martin Anota

vendredi 28 avril 2017

Henry Farrell, les économistes et l’austérité

« Henry Farrell a publié un article dans le Washington Post où il lie une analyse (qu’il publiera prochainement avec John Quiggin) à un débat qui a impliqué de nombreux blogueurs autour du rôle des économistes universitaires dans la promotion (ou non) de l’austérité. Le papier est très riche dans les détails historiques et Farrell suggère que les politiciens étaient d’accord pour adopter un plan de relance quand les économistes semblaient avoir trouvé un consensus dans leurs préconisations, mais le passage à l’austérité s’amorça lorsque les économistes se montrèrent plus divisés.

Je tends à être d’accord avec cette idée de Kevin Drum. Selon ce dernier, les politiciens ont fondamentalement fait ce qu’ils voulaient faire et les économistes ont simplement été utilisés pour cautionner leurs décisions. C’est l’argument que j’ai finalement avancé dans mon analyse sur la théorie générale de l’austérité. Nous en trouvons une bonne illustration dans le cas du Royaume-Uni. George Osborne s’est opposé à la relance budgétaire en 2009 et ce qui changea, c’est qu’il devint le Chancelier en 2010. Il n’y a pas eu de changement de point de vue, juste un changement dans la composition de l’élite au pouvoir.

Un exemple qui va mieux avec l’idée de Farrell est l’Allemagne. Il affirme que les politiciens allemands étaient persuadés à conduire la relance en 2009 par la (surprenante) unanimité de leurs propres économistes, mais embrassèrent l’austérité lorsque les économistes allemands changèrent d’avis. Sur ce point, il peut avoir raison. Mais même ici je pense que vous pouvez développer un autre récit, qui met l’accent sur ce que les politiciens craignent le plus. En 2009, ils s’étaient inquiétés (avec raison) à l’idée de connaître une autre Grande Dépression et ainsi leur instinct les poussa à suivre leurs conseillers économiques qui nourrissaient exactement la même crainte. En 2010, cette peur s’était effacée et une autre inquiétude prit sa place (pour les politiciens et pour les économistes allemands enclins à l’austérité), portant cette fois-ci sur la dette européenne.

(…) Aux Etats-Unis et au Royaume-Uni, (…) les Républicains et les Conservateurs gagnèrent assez de pouvoir pour mettre en œuvre la politique qu’ils voulaient depuis toujours mettre en œuvre. C’est ce que j’ai appelé par le passé la "tromperie du déficit" (deficit deceit) : réduire la taille de l’Etat en prenant prétexte des craintes que suscitait le déficit public. Certes le Trésor et le Gouverneur de la Banque d’Angleterre encouragèrent George Osborne, mais je pense que ce dernier aurait, même sans leur soutien, agi comme il a agi : il n’a jamais été quelqu’un prêt à laisser l’économie l’empêcher d’atteindre un but politique.

Mais comme Drum le dit, le tableau n’est pas entièrement sombre pour les économistes. Selon lui, "si nous avions répondu à la crise financière de 2007-2008 de la même manière que nous avions réagi à la crise financière de 1929-1932, nous serions toujours en train d’attendre une répétition de la Seconde Guerre mondiale pour nous ramener à la normale". Je suis embêté quand les gens me demandent ce que les économistes ont fait au cours de la dernière décennie pour mériter le respect. Nous avons évité une autre Grande Dépression, c’est tout. Cela a peut-être été la première priorité des politiciens, mais nous leur avions dit ce qu’il y avait à faire, comme Farrell le met en évidence.

Mais lorsque Farrell suggère que l’austérité aurait pu être évitée si les économistes étaient restés d’accord entre eux, je pense qu’il a tort. L’année 2016 a bien démontré que la politique pouvait réellement ignorer le consensus des économistes universitaires. Même s’il est important de ne pas cesser de marteler à quel point l’austérité a été une erreur et qu’elle n’a été recommandée que par une minorité d’économistes, nous devons surtout nous demander pourquoi par moments la majorité peut être si facilement ignorée sur des questions pour lesquelles les économistes en savent bien plus que n’importe qui d’autre. »

Simon Wren-Lewis, « Henry Farrell on economists and austerity », in Mainly Macro (blog), 13 avril 2017. Traduit par Martin Anota



aller plus loin... lire « Vers une théorie générale de l’austérité »

lundi 24 avril 2017

Inégalités ou pauvreté ?

« Tony Blair a dit un jour : "s’il y a des gens qui gagnent beaucoup d’argent. Ce n’est pas mon problème. Je m’inquiète pour les personnes qui sont dépourvus d’opportunités, désavantagés et modestes". La plupart des gens, notamment le gouvernement travailliste, interprétèrent ces phrases comme se focalisant sur la pauvreté plutôt que sur les inégalités. (…)

J’ai récemment vu de la part de Miles Kimball une défense très claire de l’idée selon laquelle la pauvreté importerait plus que les inégalités. Il tire son raisonnement d’enquêtes qui cherchent à quantifier un principe fondamental de l’économie : la décroissance de l’utilité marginale. Il cite des résultats qui suggèrent qu’un euro de revenu signifie bien plus à une personne qui gagne la moitié du salaire moyen qu’à une personne qui gagne le double du salaire moyen. Il suggère que ces résultats tendent à valider le second principe de justice sociale avancé par John Rawls. Si nous le simplifions, nous pouvons dire que nous n’avons pas à nous inquiéter de trop des riches parce qu’un supplément de monnaie ne leur rapporte qu’un faible supplément d’utilité, si bien que nous devons nous focaliser sur la seule réduction de la pauvreté.

Maintenant, bien sûr, ce point n’est pas pertinent si nous réduisons la pauvreté en taxant les riches. Les riches sont une très bonne source d’argent, parce que l’argent ne leur manque pas. L’importance transparaît si nous comparons deux sociétés : une qui n’a pas de pauvres, mais qui a beaucoup de personnes très riches ; une autre qui n’a pas de riches, mais qui a toujours des pauvres. Selon Miles, nous devons préférer la société sans pauvreté à celle sans super-riches. D’un point de vue statique, je pense qu’il a raison, mais j’ai quelques inquiétudes, comme je vais le voir à présent, sur le plan dynamique.

Il y a un paragraphe intéressant au début du billet de Miles : "(…) J’admets que le montant de richesse détenue par les ultra-riches est vraiment astronomique et qu’il est important de s’assurer que les ultra-riches n’utilisent pas leur richesse pour prendre entièrement contrôle de notre système politique. Il est crucial d’observer et d’étudier en détails les diverses façons par lesquelles les ultra-riches influencent la politique. Mais en laissant de côté l’idée que les ultra-riches puissent subvertir notre système politique, nos inquiétudes vis-à-vis des inégalités doivent se focaliser sur la façon par laquelle nous prenons soin des pauvres ; il est important de savoir si l’argent nécessaire pour aider les pauvres provient des classes moyennes ou des riches, mais c’est moins important que le fait même de prendre soin des pauvres".

Je vais aller plus loin que Miles. Si l’argent importe si peu aux très riches, pourquoi voudraient-ils alors s’enrichir à un degré astronomique et contrôler le système politique pour s’assurer qu’ils gagnent même plus encore ? La réponse vient précisément du même concept qu’utilise Miles. Si 1.000 euros ne signifie rien pour vous parce que vous êtes très riche, vous allez plutôt chercher à gagner 10.000 euros ou 100.000 euros en plus. Le fait que les ultra-riches aient un si grand patrimoine n’est pas un simple accident, mais peut résulter du principe même que Miles explore : la décroissance de l’utilité marginale. Les riches ne sont pas différents des autres, dans le sens où ils veulent eux aussi être satisfait, sauf qu’ils ne peuvent y parvenir qu’en gagnant de larges montants d’argent.

(...) Considérons l’argument mis en avant par Piketty, Saez et Stantcheva dont j’ai discuté ici. Pourquoi est-ce que la part du revenu avant impôt des 1 % les plus riches s’est autant accrue au Royaume-Uni et aux Etats-Unis, c’est-à-dire précisément dans deux pays qui ont connu dans les années 1980 une forte réduction des taux d’imposition des plus hauts revenus ? L’argument que Piketty et ses coauteurs avancent est qu’avec des taux d’imposition punitifs, il y a peu d’incitations pour les PDG et les autres salariés très rémunérés à utiliser leur pouvoir de monopole pour extraire des rentes (…) de leur entreprise. Cela ne vous rapporterait que très peu d’argent après imposition, si bien que cela ne vous permettrait pas d’accroître de beaucoup votre satisfaction. Mais si les taux d’imposition marginaux diminuent, il est désormais rentable pour ces individus de se lancer dans l’extraction de rentes.

Comme je l’ai discuté ici, la culture du bonus est l’une des façons d’extraire des rentes qui a été stimulée par la réduction des taux marginaux d’imposition. (…)

Donc je peux prendre le même principe fondamental sur lequel s’appuie Miles et pourtant arriver à une bien différente conclusion. Une fois que nous donnons à ceux qui sont au sommet l’opportunité de gagner de très hauts revenus et que la seule façon par laquelle ces individus peuvent d’obtenir une satisfaction supplémentaire est de s’embarquer dans la quête de rentes, nous les incitons alors à tourner leurs efforts hors des activités socialement bénéfiques (…). Quand leurs efforts visent à influencer le système politique, nous avons en sérieux problème. Ces activités peuvent culminer en prenant le dessus sur le système politique, ce qui est précisément ce qui s’est passé aux Etats-Unis, avec des répercussions potentiellement désastreuses. Ne serait-ce que pour cette seule raison, les inégalités importent autant que la pauvreté. »

Simon Wren-Lewis, « Inequality or poverty », in Mainly Macro (blog), 18 avril 2017. Traduit par Martin Anota



Ni l'inégalité, ni pauvreté

« (…) Des réductions d’impôts, de plus généreuses pensions, plus d’emplois et une hausse du salaire minimum ont contribué à réduire la pauvreté au Royaume-Uni, mais le gouvernement de Blair fit en parallèle peu de choses pour restreindre la hausse des très hauts revenus.

Cela néglige malheureusement quelque chose : les maths. Si les riches s’enrichissent et si la situation des pauvres s’améliore, alors à un niveau de revenu donné, la situation de quelqu’un doit se dégrader. La "société blairiste" avec des super-riches, mais peu de pauvres, est une société dans laquelle la classe moyenne est relativement pauvre.

Ce n’est pas sans poser problème, peut-être surtout d’un point de vue conservateur. Comme Deirdre McCloskey l’a suggéré, une société bourgeoise incarne les vertus de la retenue, de la justice et du respect d’autrui. Une société blairiste où "le gagnant rafle tout" les met à mal : pourquoi travailler dur à l’école et à l’université (et s’endetter fortement) quand cela ne permet d’avoir qu’un emploi précaire et peu d’espoir d’avoir un logement décent ? Et une classe moyenne précarisée et aigrie menace aussi la stabilité politique. En 2013, Fraser Nelson écrivait : "Nos classes moyennes (qui constituent pourtant une grande force stabilisatrice dans notre société) se contractent rapidement. Il est difficile d’imaginer la bourgeoisie britannique descendre dans la rue, mais un jour ou l’autre bientôt ils pourraient faire demi-tour et dire :'Désolé, mais nous sommes plutôt dingues et nous ne supporterons plus cela'." Peut-être que le Brexit, l’UKIP et la hausse des sentiments insulaires, anti-marché lui donnèrent raison : les inégalités peuvent être mauvaises pour la liberté économique.

Bien sûr, je ne m’inquièterais pas si la société blairiste menait à une croissance plus rapide et donc à un plus gros gâteau pour tous. Malheureusement ce n’est pas le cas. C’est en fait plutôt l’opposé. Depuis le milieu des années 1990, la croissance du PIB par tête a ralenti.

Et cela peut s’expliquer par le virage blairiste. Simon a raison de dire que les super-riches s’engagent dans la quête de rentes. Mais cela n’est pas confiné aux choses comme l’ingérence d’Arron Banks dans la politique politique. Cela affecte aussi le monde du travail : la hausse de la rémunération des PDG s’est faite aux dépens des actionnaires et des travailleurs. Et il y a diverses raisons amenant à penser qu’une hausse de la part du revenu détenue par les super-riches réduit la croissance économique. Par exemple, elle mène à l’adoption de mauvaises politiques en réduisant la confiance.

Miles a peut-être raison lorsqu’il dit qu’il vaut mieux avoir une société avec de nombreux ultra-riches et sans pauvres plutôt qu’une société dans laquelle il y a de la pauvreté et aucun super-riche. Mais (…) cela omet une troisième option : une société dans laquelle il n’y a ni pauvres, ni super-riches. C’est ce que nous devrions rechercher.

Une dernière chose : Oui, je sais que le coefficient de Gini a chuté ces dernières années. Mais cela nous dit peu de choses : la société blairiste peut avoir un faible Gini parce qu’il y a un faible écart entre les classes moyennes et les pauvres même si les riches sont très riches. »

Chris Dillow, « Neither inequality nor poverty », in Stumbling & Mumbling (blog), 19 avril 2017. Traduit par Martin Anota

samedi 4 mars 2017

Une récession provoquée par des anticipations autoréalisatrices ?

« (...) Je me suis permis de conclure mon dernier cours par une note de réflexion. Je fais savoir que la macroéconomie a commis une erreur en ignorant le rôle de la finance avant la crise, mais je souligne aussi que la lenteur de la reprise qui s'ensuivit est en soi une confirmation du modèle macroéconomique de base : l’austérité est une mauvaise idée à la borne inférieure zéro (zero lower bound), l’assouplissement quantitatif (quantitative easing) n’a pas été inflationniste et les taux d’intérêt sur la dette publique n’ont pas augmenté, mais chuté.

Jusqu’à présent, cela semble familier. Mais je finis mon cours en montrant à mes étudiants le graphique suivant.

GRAPHIQUE Logarithme du PIB britannique et de sa tendance d’avant-crise

Wren-Lewis__Logarithme_du_PIB_britannique_et_de_sa_tendance_d_avant-crise.png

Et je dis que nous n’avons vraiment pas d’idée pour expliquer pourquoi il n’y a pas eu de reprise suite à la Grande Récession, qu’il y a donc encore plein de mystères irrésolus en macroéconomie. L’énigme nous laisse plus perplexe dans le cas du Royaume-Uni parce que la tendance d’avant-crise y était si stable, mais quelque chose de similaire s’est produit dans d’autres pays. Je pense que c’est tout à fait adéquat de finir mon cours avec cette une note d’humilité (et peut-être d’inspiration).

Une manière mécanique d’expliquer ce qui s’est passé est de briser la tendance : suggérer que le progrès technique a ralenti durablement. Cela signifie inévitablement que la période d’avant-crise est transformée en boom. Je me suis montré des plus sceptiques à propos de cette idée, mais je dois admettre qu’une partie de mon scepticisme vient des idées traditionnelles à propos de la façon par laquelle l’inflation se comporterait dans un boom.

Cependant une autre explication que j’ai toujours eu à l’esprit et que d’autres ont commencé à explorer est que peut-être nous sommes restés dans une période durable de demande insuffisante. La théorie keynésienne suggère qu’une telle possibilité peut survenir. Supposons que les entreprises et les consommateurs en viennent à croire que l’écart de production (output gap) est actuellement nul alors même qu’il ne l’est pas et qu’ils croient de façon erronée que la récession provoqua un changement significatif du PIB potentiel, mais aussi de son taux de croissance. Supposons aussi que les travailleurs au chômage reviennent eux-mêmes à l’emploi en réduisant leur salaire (réel) ou disparaissent en cessant de chercher un emploi. La première éventualité s’observe notamment si les entreprises choisissent des techniques de production plus intensives en travail : pour laver les voitures, elles peuvent remplacer les machines par des travailleurs avec des lances.

Dans cette situation, comment savons-nous que nous souffrons d’une insuffisance de la demande globale ? La réponse traditionnelle en macroéconomie est la déflation nominale : la chute des prix et des salaires. Mais parce que des travailleurs sont déjà revenu à l’emploi en acceptant une baisse de salaire, plus rien d’autre ne va venir du côté des salaires. Donc pourquoi est-ce que les entreprises réduiraient les prix ?

Si la tendance d’avant-crise s’applique toujours, cela signifie qu’il y a de nombreuses innovations attendant de s’incarner dans un nouvel investissement. Avec ce nouveau capital bien plus efficace en place, soit les entreprises accroîtraient leurs profits en vendant à leur marché existant, soit elles essaieraient d’accroître leur part de marché en vendant moins cher que leurs concurrents. Nous observerions alors une reprise tirée par l’investissement, accompagnée par une hausse de la productivité et peut-être une baisse des prix.

Mais supposons que les innovations ne soient pas suffisamment profitables pour générer une hausse des profits qui justifierait d’entreprendre l’investissement, même si les coûts d’emprunt sont faibles. Ce qui explique le mieux pourquoi le progrès technique incarné prend place, c’est peut-être le besoin de satisfaire un marché en croissance. L’entreprise doit installer de nouvelles capacités pour satisfaire la demande croissante que rencontre son produit et c’est alors qu’il apparaît nécessaire d’investir en équipements qui incarnent les nouvelles innovations. L’accélérateur reste un modèle empirique d’investissement très efficace. (…) Mais si les croyances sont telles que l’on ne s’attend pas à ce que le marché s’étende autant, parce que les entreprises croient que l’économie est "à la tendance" et que le taux de croissance est maintenant très faible, alors le besoin d’investir pour honorer un marché en croissance se fait moins pressant.

L’idée remonte bien sûr à Keynes et aux esprits animaux. D’autres ont plus récemment reformulé des idées similaires, notamment Roger Farmer. C’est un peu différent de l’idée d’ajouter une croissance endogène à un modèle keynésien, comme dans ce papier de Benigno et Fornaro par exemple. Je suppose dans cette discussion que la production potentielle n’a pas été perdue, parce que l’innovation n’a pas ralenti, mais qu’elle n’est simplement pas utilisée.

C’est cette possibilité qui est la raison pour laquelle j’ai toujours affirmé que les banques centrales et les gouvernements auraient dû être un peu plus ambitieux dans la stimulation de la demande globale après la Grande Récession. Comme j’ai déjà pu l’affirmer, mais d’autres aussi, vous n’avez pas à donner une très forte probabilité au scénario selon lequel la demande va créer de l’offre avant que cela justifie (…) de laisser l’économie aller en surchauffe. Chaque fois que je vois les données ci-dessus, je me demande si nous ne nous sommes pas infligés cela nous-mêmes par une combinaison d’austérité destructrice et de timidité. »

Simon Wren-Lewis, « A self-fulfilling expectations led recession? », in Mainly Macro (blog), 2 mars 2017. Traduit par Martin Anota



aller plus loin... lire « L’insidieux impact à court terme du ralentissement de la productivité »

vendredi 24 février 2017

NAIRU : une réponse aux critiques

« Quand j’ai écrit mon billet sur le bashing dont fait l'objet le NAIRU, j’avais principalement en tête quelques articles de presse que j’avais lus qui suggéraient de se débarrasser du concept au motif que nous aurions des difficultés à l’estimer de façon fiable. Ce que j’avais oublié, malheureusement, c’est que pour les économistes hétérodoxes d’une certaine trempe, le NAIRU est un mot qui met hors de soi (…). Mon billet a suscité des commentaires vraiment incroyables. (…) Je dois dire d’emblée que tout le monde n’a pas répondu de cette façon. Certains se sont montrés bien plus réfléchis et constructifs (notamment Jo Michell). Mais les réactions les moins réfléchies sont également intéressantes, d’une certaine façon.

Je dois rappeler ce qu’est le NAIRU, en particulier parce que les économistes hétérodoxes le confondent avec d’autres choses. Prenons une courbe de Phillips très simple :

inflation au cours d’une période = inflation attendue à la période suivante – aU + b

a est un paramètre et U une mesure de l’excès d’offre ou de demande dans l’économie. Le chômage sera une mesure de l’excès d’offre, mais il est loin d’en être une mesure parfaite. (…) b désigne un ensemble de variables qui varient lentement. Celles-ci peuvent inclure une mesure de la force des syndicats, de la mobilité du travail ou du degré de monopole sur le marché des biens. Nous définissons le NAIRU ainsi :

NAIRU = b/a

Si U est inférieur au NAIRU au cours d’une période prolongée, alors l’inflation va s’accroître, ce qui va amener les agents à réviser à la hausse leurs anticipations d’inflation, ce qui accroîtra en retour l’inflation, etc.

Le concept est utile pour les responsables de la politique économique impliqués dans la gestion de la demande globale. Ils doivent déterminer de combien ils peuvent pousser la demande avant que l’inflation commence à augmenter. S’il s’agit de banques centrales indépendantes, celles-ci doivent accepter le monde comme il est. Le NAIRU est une description de la façon par laquelle fonctionne l’économie : rien de plus, rien de moins. C’est pourquoi les affirmations selon lesquelles les économistes qui utilisent ou estiment le concept sont quelque peu responsables de ceux qui sont au chômage sont stupides.

Bien sûr, vous pouvez critiquer le concept du NAIRU, mais logiquement cela impose de critiquer la courbe de Phillips dont il est tiré. Il est aussi raisonnable d’affirmer que le concept est bien, mais que le NAIRU est si difficile à mesure qu’il serait mieux de ne pas chercher à l’estimer, ni de l’utiliser comme guide pour la politique économique. J’ai beaucoup de sympathie pour cette idée actuellement ; (…) j’ai d’ailleurs pu affirmer, dans le cas des Etats-Unis aujourd’hui, que les responsables de la politique économique doivent trouver le NAIRU en laissant l’inflation dépasser sa cible. Mais ce point de vue n’était pas pertinent dans mon précédent billet, qui portait sur le concept du NAIRU, pas sa mesure.

En ce qui concerne le concept, je pense que les attaques les plus cruciales viennent des réflexions à propos de l’hystérèse, comme Jo Michell le suggère. Mais même ici, nous ajoutons une complication à l’analyse du NAIRU ; nous ne remettons pas en cause celle-ci. Ce que l’hystérèse fait, c’est rendre extrêmement coûteuses les périodes où le chômage est supérieur au NAIRU. Cela signifie aussi qu’il est justifié de laisser le chômage aller en-deçà du NAIRU si cela permet de réduire le NAIRU lui-même.

J’aimerais finir par deux réflexions. La première concerne la modélisation du NAIRU. Il y a eu, suite au travail de Layard et de Nickell, toute une littérature empirique qui a cherché à modéliser des séries temporelles du NAIRU pour les pays de l’OCDE en utilisant des variables indirectes pour des choses comme le pouvoir syndical, le régime d’indemnisation et les problèmes géographiques d’appariement. Avec la domination de la méthodologie des microfondations, cette littérature s’est faite plus rare, même si dans une certaine mesure elle demeure à travers les modèles d’appariement. Je serais très intéressé de savoir si cette analyse de séries temporelles, potentiellement enrichie par les modèles d’appariement (…), a subsisté d’une façon ou d’une autre.

J’aimerais aussi revenir sur les réactions brutales qu’a suscité mon précédent billet (…) et sur l’hostilité présentée par certains économistes hétérodoxes (j’ai bien dit certains) vis-à-vis du concept. J’ai essayé d’identifier ce qui m’embête le plus avec cela. (…) Le concept du NAIRU ou, de façon équivalente, la courbe de Phillips sont centraux à la macroéconomie. Il est difficile d’enseigner à propos de l’inflation, du chômage et de la gestion de la demande sans y faire référence. Ceux qui essayent de fixer les taux d’intérêt dans les banques centrales indépendantes font, pour la plupart d’entre eux, ce qu’ils peuvent trouver comme équilibre optimale entre inflation et chômage.

Accepter le concept du NAIRU ne signifie pas que vous devez être d’accord avec leurs jugements. Mais si vous voulez affirmer qu’ils peuvent faire quelque chose de mieux, vous devez utiliser le langage de la macroéconomie. Vous pouvez dire, comme beaucoup l’ont fait autour de moi, que le NAIRU est soit bien plus faible que les estimations des banques centrales, soit qu’il est si incertain que ces estimations ne doivent pas influencer la politique économique. Mais si vous dites que le NAIRU doit être abandonné, cela ne vous mènera nulle part. (…) »

Simon Wren-Lewis, « The NAIRU: a response to critics », in Mainly Macro (blog), 14 février 2017. Traduit par Martin Anota

- page 1 de 8