Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Simon Wren-Lewis

Fil des billets

samedi 11 novembre 2017

Ce qui a réellement provoqué la crise financière

« La crise financière mondiale façonne notre perception de notre récent passé, de notre présent et de notre avenir et pourtant il n’y a pas de récit des événements qui fasse vraiment consensus. Beaucoup d’interprétations ont été proposées. Du côté des Etats-Unis, certains ont affirmé que le système financier a été submergé par l’excès d’épargne (savings glut) généré par les pays asiatiques, que la Fed a pris de mauvaises décisions en matière de politique monétaire et que les Etats-Unis ont subi une bulle immobilière (et que trop de prêts ont été accordés aux pauvres (1)). Du côté européen, l’accent a été mis sur les excès d’endettement de la périphérie de la zone euro et parfois sur les faiblesses de l’architecture de la zone euro. Pourtant, avec tout ce que j’ai lu ici et là à ce sujet, il semble que nous devrions surtout nous focaliser sur le secteur financier aussi bien aux Etats-Unis qu’en zone euro et bien sûr au Royaume-Uni. Selon moi, la crise a éclaté parce que les banques aux Etats-Unis et en Europe se sont appuyées sur un levier d’endettement trop important, si bien qu’une crise ne pouvait que survenir.

C’est pour cette raison que j’ai trouvé si intéressante la présentation que propose Tam Bayoumi de son nouveau livre.

Il affirme que presque tous les ingrédients pour la crise étaient en place dès 2002. En Europe, nous avions de très grandes banques universelles (combinant les activités de banque de détail et de banque d’investissement) qui étaient bien trop endettées. Aux Etats-Unis, les activités de banque de détail et de banque d’investissement étaient séparées, avec des réglementations strictes sur les banques de détail, mais laxistes en ce qui concerne les banques d’investissement, ce qui s’est traduit par l’essor d’un véritable système bancaire parallèle (les dépôts se déplaçant effectivement vers les banques d’investissement, comme Lehman Brothers, qui s’endettèrent à nouveau de trop). En 2002, ces deux zones étaient séparées par la géographie, mais un petit changement réglementaire en 2003 permit à ce que des liens se développent entre les deux. Ensuite, ce ne fut qu’une question de temps avant qu’éclate la crise financière mondiale, "mondiale" dans le sens où elle concernait les Etats-Unis et l’Europe.

Comment ces banques ont-elles fini par devenir surendettées ? Selon Bayoumi, la création en Europe des banques universelles constituait une tentative manquée de créer un marché bancaire européen unique. Il y eu ensuite des échecs en matière de réglementation qui permirent à ces banques de se développer (via le levier d’endettement) en manipulant leur propre pondération des risques. Cela donna à ces banques la possibilité d’opérer à grande échelle en Europe du Sud et en Amérique du Nord. Aux Etats-Unis, les banques d’investissement n’étaient pas réglementées parce que la Fed croyait fermement que la concurrence assurait une régulation efficace pour ce type de banques.

Donc, la crise financière mondiale est avant l’histoire d’un système bancaire hyperconnecté et surendetté des deux côtés de l’Atlantique, attendant simplement qu’un choc suffisamment puissant amène l’ensemble du système à son point critique. L’hypothèse, que l’histoire confirme, est que la finance est naturellement sujette à de telles crises, ce qui explique pourquoi le secteur est réglementé, donc cette histoire est aussi une histoire d’erreurs en termes de réglementation. Bayoumi affirme que chacune de ces erreurs peut être mise sur le compte de véritables erreurs intellectuelles, mais il me rejoint lorsqu’il dit qu’il est parfois difficile de dire dans quelle mesure elles résultent aussi de pressions politiques de puissants intérêts politiques.

Est-ce que les gouvernements et les régulateurs des deux côtés de l’Atlantique Nord en ont fait assez depuis la crise financière mondiale pour corriger les erreurs qui ont été commises ? La réponse est compliquée et il vaut mieux que vous lisiez le livre pour trouver la réponse de Bayoumi. J’aimerais conclure avec une observation. Dans la suite immédiate d’une crise, les gens ont tendance à s’appuyer sur leurs préjugés pour expliquer pourquoi elle a éclaté. Ceux qui voulaient s’en prendre à la politique monétaire américaine, notamment pour détourner l’attention des excès du secteur financier, en ont profité pour le faire. Ceux qui ont conçu la zone euro de façon à éviter que les gouvernements de la périphérie soient trop dépensiers ont parlé de l’endettement excessif de ces gouvernements.

Vous pouvez voir la même chose avec le Brexit et Trump. Bien que la protestation de la part des "laissés pour compte" ait joué un certain rôle, l’idée selon laquelle il s’agit des récits complets collait avec certains éléments, mais elle est tout simplement incorrecte, comme l’affirme la nouvelle étude de Gurminder K. Bhambra. Au cours du temps, les choses s’éclaircirent. Ce que cette analyse de Tam Bayoumi montre avec rigueur est que la finance doit toujours être proprement réglementée et que les échecs en matière de réglementation ont des répercussions catastrophiques.

(1) De nouvelles études empiriques suggèrent que l’effondrement de la bulle immobilière peut avoir davantage à voir avec les spéculateurs immobiliers qu’avec les emprunteurs à faible revenu. »

Simon Wren-Lewis, « What really caused the financial crisis », in Mainly Macro (blog), 9 novembre 2017. Traduit par Martin Anota

jeudi 19 octobre 2017

La leçon que la politique monétaire doit apprendre

« Il m’a semblé logique d’écrire un billet à propos de la récente conférence tenue par le Peterson Institute qui se proposait de "repenser la politique macroéconomique", mais Martin Sandbu a publié sur le sujet avant moi, et il a su en parler mieux que je ne le saurais en faire. (…) Il n’y a qu’un seul point dans les propos de Martin qui m’ennuie. Je vois d’un meilleur œil que lui la proposition de Bernanke selon laquelle les banques centrales devraient temporairement cibler le niveau des prix suite à une large récession (quand les taux d’intérêt butent sur leur borne inférieure). En outre, comme Tony Yates le suggère, le ciblage du PIB nominal ne résoudra pas le problème d’asymétrie que la suggestion de Bernanke cherche à résoudre.

Martin a raison lorsqu’il écrit en fin d’article qu’"il est nécessaire d’admettre qu’on a mal su gérer les choses pour mieux les gérer à l’avenir". Nous pouvons illustrer ce point avec certains chiffres. Si nous observons les prix à la consommation, l’inflation moyenne entre 2009 et 2016 était de 1,1 % dans la zone euro, de 1,4 % aux Etats-Unis et de 2,2 % au Royaume-Uni. (…) Si nous regardons les déflateurs du PIB, nous obtenons une meilleure image, puisque ceux-ci s’élevaient à respectivement 1,0 %, 1,5 % et 1,6 % pour la zone euro, les Etats-Unis et le Royaume-Uni.

Vous pouvez penser que des erreurs de cette taille ne sont pas trop mauvaises et, de toute façon, qu’y a-t-il de mal avec une si faible inflation ? Vous auriez tort de penser cela, car en période de reprise ces erreurs se traduisent par un gâchis de ressources qui peut être considérable, comme la courbe de Phillips semble actuellement être si plate. En d’autres termes, si la politique avait été plus expansionniste, la reprise aurait été un peu plus rapide et les taux d’intérêt seraient partout aujourd’hui éloignés de leur borne inférieure.

Ce que j’aimerais ajouter aux propos de Martin, c’est préciser quel est le plus grand problème avec la politique monétaire au cours de cette période, en particulier au Royaume-Uni et dans la zone euro. Ce n’est pas, selon moi, l’échec à adopter une cible de niveaux, ni même la décision de la BCE de relever ses taux en 2011 (bien que ce resserrement monétaire a été une erreur sérieuse et coûteuse). En 2009, quand les banques centrales voulaient davantage assouplir leur politique monétaire mais sentaient que les taux d’intérêt butaient sur leur borne inférieure, elles auraient dû déclarer cela :

"Nous avons perdu notre principal instrument pour contrôler l’économie. Il y a d’autres instruments que nous pourrions utiliser, mais leur impact est grandement inconnu, si bien qu’ils sont très peu fiables. Il y a une façon supérieure de stimuler l’économie dans cette situation, en l’occurrence la politique budgétaire, mais c’est bien sûr au gouvernement qu’il appartient de décider s’il va utiliser ou non cet instrument. Tant que nous ne pensons pas que l’économie aille suffisamment mieux pour que nous puissions accroître les taux d’intérêt, l’économie n’est plus sous notre contrôler."

Je ne suis pas en train de suggérer que l’assouplissement quantitatif n’a pas d’impact positif significatif sur l’économie. Mais son utilisation pourrait suggérer aux gouvernements qu’il n’est plus de leur responsabilité d’agir en vue de mettre un terme à la récession et que ce que j’appelle le consensus sur l’assignation (consensus assignment) est toujours valide. Ce n’est pas le cas : l’assouplissement quantitatif a été l’un des instruments les moins fiables que l’on puisse imaginer.

Il serait erroné de critiquer cette idée au prétexte qu’elle amènerait la banque centrale à outrepasser son mandat et à dire aux politiciens ce qu’ils ont à faire. Les membres de la BCE passent beaucoup de temps à le faire, Mervyn King a fait la même chose mais d’une façon plus discrète, tandis que Ben Bernanke a tenu les mêmes propos que ce dernier, mais plus explicitement. Avec le consensus sur l’assignation, nous avons investi les banques centrales de la mission de gérer l’économie parce que nous pensions que les taux d’intérêt sont un bien meilleur outil que la politique budgétaire. A ce titre, il est de leur devoir de nous dire quand elles ne peuvent plus assurer cette tâche plus efficacement que le gouvernement.

Une meilleure critique serait de dire qu’une déclaration de ce genre ne ferait aucune différence et nous pourrions passer des heures à en discuter. Mais cela concerne l’avenir et qui sait ce que les circonstances politiques seront alors. Il est important que les gouvernements fassent savoir que le consensus sur l’assignation n’est plus valide si les banques centrales croient qu’il y a une borne inférieure sur laquelle butent les taux d’intérêt et cela nécessite au préalable que les banques centrales l’admettent. Les économistes comme Paul Krugman, Brad DeLong et moi-même disons tout cela depuis si longtemps et si souvent, mais je pense que les banques centrales ont toujours des problèmes à pleinement accepter ce que cela signifie pour elles. »

Simon Wren-Lewis, « The lesson monetary policy needs to learn », in Mainly Macro (blog), 17 octobre 2017. Traduit par Martin Anota

samedi 14 octobre 2017

Non, la crise n'amène pas à renouveler en profondeur la pensée économique

Les fausses révolutions en économie


« (…) Quand la crise financière a éclaté, beaucoup ont appelé à formuler de nouvelles idées économiques (…). L’idée qu’il y avait implicitement derrière et que l’on considérait comme juste était que la crise révélait la défaillance de l’orthodoxie économique et la nécessité d’avoir de nouveaux concepts fondamentaux. Ceux qui appelaient à renouveler la pensée économique avaient une sorte de scénario hollywoodien en tête : des innovateurs audacieux proposeraient des idées radicales, feraient face à la résistance de la part de vieux ringards, mais ils triompheraient finalement via leur capacité supérieur à prédire les événements. Les choses ne se sont pas vraiment passées ainsi. Certes, personne ne vit la crise venir. Mais ce n’est pas parce que l’orthodoxie n’avait pas les moyens de la prévoir ; au contraire, les paniques bancaires sont un vieux sujet, présenté dans chaque manuel où sont exposés les principes fondamentaux. Si personne ne vit la crise venir, c’est en raison d’un échec empirique : peu comprirent que l’essor du système bancaire parallèle (shadow banking) rendait définitivement obsolètes les défenses bancaires qui avaient été instaurées dans le sillage de la Grande Dépression.

En fait, seuls les idéologues les plus étroits d’esprit du libre marché réagirent en montrant un réel étonnement. Les autres se tapèrent le front en s’exclamant "Diamond-Dybvig ! Comme je suis stupide ! Diamond-Dybvig bien sûr !"

Et après-crise, la macroéconomie standard se révéla assez efficace. La politique budgétaire et la politique monétaire firent ce qu’elles étaient censées faire (ou tout du moins, dans le cas de la monnaie, ne firent pas ce qu’elles n’étaient pas censées faires) à la borne inférieure zéro. Il y avait une grande marge d’amélioration, il était possible de s’appuyer sur la mère de toutes les expériences naturelles pour le travail empirique, mais il n’était pas vraiment utile de s’appuyer sur une nouvelle pensée radicale.

Néanmoins, il y a eu une prolifération de nouveaux concepts radicaux : l’austérité budgétaire serait en fait expansionniste, la politique monétaire expansionniste serait en fait déflationniste, des choses terribles arriveraient à la croissance économique quand la dette publique dépasse les 90 % du PIB. Ces idées reçurent instantanément beaucoup d’écho politique ; laissez de côté les ringards de l’establishment économique, l’establishment politique se saisit de l’occasion d’appliquer de nouvelles idées.

Qu’est-ce que ces idées avaient en commun ? Toutes avaient, explicitement ou non, des implications idéologiques conservatrices, que leurs auteurs les aient intentionnellement recherchées ou non. (Je pense que Reinhart et Rogoff ont vraiment travaillé hors de tout agenda politique. Je n’en suis pas aussi sûr pour les autres.) Et toutes ces idées se révèrent assez vite mortellement fausses.

Donc la nouvelle pensée économique qui émargea de la crise s’est révélée être, dans sa grande majorité, un ensemble de mauvaises idées servant un agenda politique conservateur. Ce n’était pas vraiment le scénario qu’on nous promettait, n’est-ce pas ?

Une fois que vous y pensez, il n’est pas trop difficile de voir comment cela s’est passé. Tout d’abord, la macroéconomie conventionnelle a bien marché, donc vous avez besoin d’innovations réellement brillantes pour qu’elle parvienne à vraiment bouleverser cette convention. Et les innovations réellement brillantes n’apparaissent pas facilement. En fait, les bouleversements de la croyance conventionnelle provinrent principalement de personnes qui, loin de transcender cette croyance, échouèrent en fait à comprendre celle-ci au préalable.

Et même s’il y a de telles personnes aussi bien à gauche qu’à droite, il y a une grande asymétrie en termes de richesse et d’influence entre les deux bords politiques. (…) Les idées confuses à droite se retrouvèrent dans les annonces de politique économique formulées par la Commission européenne et les Républicains.

(…) Beaucoup de travaux ont contribué à faire émerger le consensus ; cela ne signifie pas qu’il soit exact, mais vous devez arriver avec une idée réellement bonne si vous voulez vraiment le remettre en cause. D’un autre côté, vous pouvez avoir beaucoup d’écho politique avec une très mauvaise idée qui remet en cause le consensus, aussi longtemps que cela sert les intérêts des grands argentiers et des politiciens de droite. (…) »

Paul Krugman, « The schlock of the new », in The Conscience of a Liberal (blog), 8 octobre 2017. Traduit par Martin Anota



Il y a trop d’idéologues (et trop peu d’artisans) parmi les économistes


« Paul Krugman affirme qu’il est erroné de croire que la crise financière oblige à renouveler la pensée économique, mais que cette croyance a pourtant mener à des idées folles, mais influentes, qui ont été reprises par les grands argentiers et les politiciens de droite. Même si je suis en accord avec la plupart des propos de Krugman, je voudrais ajouter quelque chose. Ma réflexion se nourrit du dernier livre de Dani Rodrik, Straight Talk on Trade, que je n'ai pas encore fini, mais dont je parlerai plus amplement dans un prochain billet.

Dans la préface à ce livre, il raconte une petite anecdote. Il y a 20 ans, il avait demandé à un économiste d’appuyer l’un de ses livres, Has Globalization Gone Too Far?. L’économiste lui a répondu qu’il ne pouvait pas le faire, non pas parce qu’il était en désaccord avec quelque chose dans le livre, mais parce qu’il pensait que le livre "fournirait des munitions aux barbares". Dani Rodrik note que cette attitude est toujours très courante parmi les économistes. Bien sûr, on peut difficilement qualifier cette attitude d’apolitique et de scientifique.

Je pense que quelque chose de similaire peut s’être produit à la veille de la crise financière parmi les économistes travaillant dans la finance. Paul Krugman a certainement raison lorsqu’il dit que l’économie orthodoxe propose des modèles capables d’expliquer pourquoi la grande crise financière mondiale a éclaté, donc, de ce point de vue, peu de nouvelles idées sont nécessaires. Mais si aussi peu d’économistes orthodoxes ont utilisé ces modèles avant la crise financière, c’est notamment en raison d’une certaine aversion idéologique vis-à-vis de la réglementation et peut-être aussi en raison d'une certaine réticence à mordre la main qui les nourrit.

L’économie orthodoxe propose aujourd’hui des modèles très divers. Ceux qui ajoutent de nouveaux modèles à ceux-ci gagnent en prestige universitaire. Mais comment pouvez déterminer quel est le modèle que vous devez utiliser quand il s’agit d’étudier un problème en particulier ? Il faut regarder les données empiriques. Ce n’est pas une tâche triviale en raison de la nature probabiliste et diverse des données empiriques économiques. Dani Rodrik décrit ce processus a un côté davantage artisanal que proprement scientifique.

Donc, dans le cas de la crise financière mondiale, le bon artisan aurait dû constater que les nouvelles méthodes de répartition des risques étaient vulnérables aux événements d’ordre systémique. Le bon artisan aurait vu, s’il avait accès aux données, que la hausse rapide de l’endettement des banques est toujours dangereuse et, plus généralement, que les périodes au cours desquelles on entend dire que "cette fois, les choses sont différentes" ne finissent généralement pas très bien.

Dans ma propre discipline, je pense qu’il y a au moins un domaine qui n’aurait pas dû voir le jour si l’art de la sélection des modèles avait été bien appliqué. Les modèles de cycles d’affaires réels (real business cycles) n’ont jamais réussi à décrire les cycles d’affaires parce que nous savons que les hausses du chômage lors des récessions correspondent à du chômage involontaire. Si vous n’appliquez pas bien cette technique artisanale, alors ce qui peut la remplacer, c’est l’idéologie, la politique ou simplement la pensée de groupe. Ce n’est pas simplement un problème pour quelques économistes pris individuellement, c’est souvent un problème pour la majorité d’entre eux. »

Simon Wren-Lewis, « Economists: too much ideology, too little craft », in Mainly Macro (blog), 9 octobre 2017. Traduit par Martin Anota

mardi 12 septembre 2017

Les révolutions en politique économique

« La Commission on Economic Justice organisée par le think tank Institute for Public Policy Research (IPPR) vient de publier un long rapport sur l’économie britannique appelé "Time for Change". (…) Sa conclusion est que nous devons connaître une révolution en matière de mise en œuvre de la politique économique, une révolution aussi profonde que celles qui ont été associées au gouvernement Attlee et à Thatcher après la Seconde Guerre mondiale. Le raisonnement derrière l’idée de révolutions en matière de politique économique a été développé par Alfie Stirling et Laurie Laybourne-Langton dans un article publiée The Political Quarterly.

Les auteurs adaptent les idées de La Structure des révolutions scientifiques de Thomas Kuhn à la politique économique. Je ne veux pas m’attarder sur la légitimité ou les détails de cette entreprise. L’idée que certaines périodes impliquent de profonds changements dans la politique économique n’est pas vraiment controversée. De même, l’idée selon laquelle le paradigme défaillant va tout d’abord essayer de s’adapter avant d’être remplacé par l’idée révolutionnaire est facile à accepter. Vous n’avez qu’à regarder l’état des politiques actuelles au Royaume-Uni et aux Etats-Unis pour prendre au sérieux l’idée que ce qu’on appelle le néolibéralisme (l’ensemble des politiques et la vision du monde associés à Thatcher et Reagan) arrive à sa fin.

Il y a plein de choses dans l’article avec lesquelles je suis d’accord, du moins jusqu’aux conclusions. Mais je regrette que l’article se focalise de trop sur la macroéconomie et pense qu’il s’égare ainsi quelque peu. C’est comme si, après avoir emprunté l’idée de Kuhn et l’avoir appliquée à la politique économique, les auteurs se sentaient obligés de revenir à une discipline académique, la théorie macroéconomique, plutôt que de rester avec la politique économique dans son ensemble. Laissez-moi présenter comment je vois la transformation macroéconomique qui a pris place autour de l’époque de Thatcher et de Reagan.

Une énorme erreur que beaucoup de gens commettent est de penser que la théorie macroéconomique keynésienne conventionnelle était incapable d'expliquer la stagflation, mais aussi que les responsables de la politique économique adoptèrent en conséquence le monétarisme ou des idées des nouveaux classiques. La base pour comprendre la stagflation et réduire l'inflation était connue au moins depuis le fameux discours de Friedman en 1968, où celui-ci expliqua son idée de courbe de Phillips augmentée des anticipations. Cette courbe de Phillips n’a pas été utilisée pour guider la politique monétaire ou budgétaire avant la fin des années soixante-dix, car la plupart des décideurs de la politique économique et certains économistes étaient réticents à l'idée d'accroître le chômage en vue de réduire l'inflation.

Au Royaume-Uni, cet usage de la gestion de la demande globale pour contrôler l’inflation (ou sa contrepartie, qui fut l’abandon des tentatives à des contrôles directs comme les politiques de revenu) coïncida avec l’élection de Thatcher, mais aux Etats-Unis, elle fut initiée par Paul Volcker sous la présidence de Jimmy Carter. Aux Etats-Unis et au Royaume-Uni, il a été associé aux tentatives de contrôle des agrégats monétaires, mais cela ne dura que quelques années. Vous pouvez penser que l’abandon des politiques de revenu s’inscrit dans une logique néolibérale, mais je pense pour ma part qu’il s’agit plutôt de la conséquence inévitable de l’inflation à deux chiffres.

Il y a eu une révolution en théorie macroéconomique, mais j'ai souligné ailleurs qu’elle ne colle pas au cadre kuhnien. La contre-révolution menée par les nouveaux classiques n'a pas donné d'analyse alternative de l'inflation : en fait, leurs inquiétudes étaient davantage d’ordre méthodologique. Il est vrai que ceux qui promurent cette contre-révolution étaient partisans du néolibéralisme et que vous pouvez relier le réductionnisme à l'individualisme (et donc le néolibéralisme), mais je pense que l’attrait de cette contre-révolution tient davantage à une collection de bonnes idées auxquelles l'orthodoxie d’alors résista, comme les anticipations rationnelles.

Le ciblage d'inflation par les banques centrales implique une tentative de gestion de l'économie d’une façon assez similaire à celle de l'activisme budgétaire keynésienne auparavant. La banque centrale est une partie de l’État. L'indépendance de la banque centrale au Royaume-Uni date de 1997 et elle était en vigueur aux Etats-Unis bien avant Reagan. La crise financière mondiale a porté un coup fatal à ce que j'appelle le "consensus sur l’assignation" (l’idée que la gestion de la demande doit être du ressort de la politique monétaire et le contrôle de la dette publique du ressort de la politique budgétaire), mais la popularité de cette assignation doit peu au libéralisme. Beaucoup ont beau fréquemment chercher à relier le ciblage d'inflation au néolibéralisme, mais on ne peut établir un tel lien selon moi.

Il est par conséquent problématique de chercher à relier la macroéconomie à l'essor du néolibéralisme et, surtout, cela nous détourne de la réelle révolution en termes de politique économique que représenta le néolibéralisme, en l’occurrence un changement dans l'attitude des responsables politiques vis-à-vis de presque tout genre d’intervention de l’État. (…) Il y a eu un déplacement correspondant du collectif (notamment avec l’attaque des syndicats) à l'individu, notamment avec l'idée que les "créateurs de richesse" (c'est-à-dire ceux qui obtiennent les plus fortes rémunérations) doivent justement être incités à créer de la richesse en réduisant l’imposition "punitive". L'argent public devint l’"argent du contribuable" et ainsi de suite.

Cette révolution néolibérale a été victorieuse, dans le sens où elle s’est maintenue pendant plusieurs décennies. Elle a provoqué, au travers ses excès, de sérieux problèmes et il est temps de la réexaminer. Mais, ironiquement, les tentatives de mise en place d’une politique macroéconomique véritablement néolibérale (un ciblage d’inflation sans intervention, sans gestion de la demande globale) ont échoué à peine quelques années après avoir débuté. »

Simon Wren-Lewis, « Revolutions in economic policy », in Mainly Macro (blog), 12 septembre 2017. Traduit par Martin Anota

vendredi 18 août 2017

Le Japon et le fardeau de la dette publique

« (…) Il y a actuellement une très bonne raison d’écrire à propos de l’économie japonaise, et il s’agit de sa très bonne performance au deuxième trimestre de l’année 2017. La croissance annualisée s’élevait au Japon à 4 %, contre (par exemple) 1,2 % au Royaume-Uni. Ce qui est particulièrement encourageant à propos de cette performance est que la croissance japonaise est tirée par la demande domestique plutôt que par la demande étrangère. Par le passé, le Japon semblait connaître le problème symétriquement inverse à celui du Royaume-Uni : la croissance économique était compensée par le commerce extérieur, tandis que la demande domestique était faible.

Cette récente croissance ne compense pas simplement les piètres performances passées en comparaison avec les autres pays. Les comparaisons de la croissance du PIB sont trompeuses en ce qui concerne le Japon car (à la différence du Royaume-Uni et des Etats-Unis) il a relativement peu d’immigration, si bien qu’il veut mieux utiliser le PIB par tête pour établir de telles comparaisons. (Comme le souligne Noah Smith, même cela peut biaiser les comparaisons avec le Japon, dans la mesure où sa population vieillit.) Entre 2006 et 2016, le PIB par tête du Japon s’est accru d’un total d’environ 5,5 %, contre environ 5 % pour les Etats-Unis et environ 3 % pour le Royaume-Uni. C’est une bonne performance en comparaison avec d’autres économies, mais tous ces pays auraient dû avoir de plus fortes reprises suite aux récessions.

Une forte croissance est une bonne nouvelle parce que l’inflation est si faible (autour de 0,5 %) : elle est bien inférieure à la cible d’inflation de 2 %. Le gouvernement essaye de stimuler la croissance économique en utilisant une modeste relance budgétaire et un assouplissement quantitatif à grande échelle (les taux d’intérêt de court et long termes sont nuls), aussi bien qu’en mettant en œuvre diverses réformes structurelles. Mais (…) son ratio dette publique nette sur PIB est de 125 % et s’accroît (…). Il est plus élevé que celui des autres pays de l’OCDE, à l’exception de la Grèce et de l’Italie.

Est-ce que la conjonction d’une croissance économique relativement forte et une dette publique élevée déconcerte la théorie économique, comme le suggère Bill Mitchell ? Comme la monnaie à haute puissance et l’inflation, toute relation entre la dette publique et la croissance économique ne marche pas quand les taux d’intérêt sont contraints par leur borne zéro. Une dette publique élevée peut évincer l’investissement privé (bien que certains ne soient pas d’accord avec cette idée), mais pas quand les taux d’intérêt de long terme réels sont nuls et l’inflation proche de zéro. Assurer le service d’une dette élevée peut décourager l’offre de travail, mais à nouveau pas quand les taux d’intérêt sont nuls. La dette n’est pas non plus un fardeau pour les générations futures quand le taux d’intérêt réel est bien inférieur au taux de croissance.

Bien sûr, la plupart des gens pensent que de tels niveaux de dette élevés constituent une réelle menace en raison des "marchés". Mais les marchés vont seulement s’arrêter d’acheter cette dette s’ils s’attendent à un défaut ou à une inflation rampante. Il n’y a en outre aucune façon par laquelle un gouvernement possédant sa propre devise peut être forcé à faire défaut. Il est tout aussi improbable qu’il choisisse de faire défaut avec des taux d’intérêt si faibles. C’est la vérité fondamentale que les dirigeants au Royaume-Uni choisissent de taire (en prétendant le contraire).

Mais que se passe-il quand la croissance économique finit par alimenter l’inflation et que les taux d’intérêt augmentent ? Est-ce que l’endettement public posera alors problème ? Peut-être, mais seulement à long terme, si bien que le gouvernement va avoir beaucoup de temps pour réparer son toit lorsque le soleil brille. Aujourd’hui le Japon s’inquiète à propos de ses niveaux élevés de dette publique, mais il s’inquiète bien plus (et avec raison) de la combinaison d’une faible croissance économique et d’une faible inflation. En ce sens, il donne un bon exemple aux autres pays. »

Simon Wren-Lewis, « Japan and the burden of government debt », in Mainly Macro (blog), 18 août 2017. Traduit par Martin Anota

mercredi 2 août 2017

Est-ce qu’un marché du travail flexible pose un problème pour les banquiers centraux ?

« Les récessions et les ralentissements économiques moins sévères résultent typiquement d’une insuffisance de la demande de biens et services. La seule façon de mettre un terme à ces phénomènes consiste à stimuler la demande globale d’une façon ou d’une autre. Cela peut se faire naturellement, mais aussi avec une réduction délibérée des taux d’intérêt par les banques centrales. Comment savons-nous que la demande globale est insuffisante ? Parce que le chômage s’est accru, comme la faible demande de biens incite les entreprises à moins embaucher et à licencier.

Une question qui est quelquefois posée en macroéconomie est si les travailleurs dans une récession peuvent revenir à l’emploi (price themselves into jobs) en réduisant les salaires. Au cours des précédentes récessions, les travailleurs ont été réticents à le faire. Mais supposons que nous ayons eu une récession plus longue parce que l’austérité budgétaire a freiné la reprise et qu’au cours de cette période plus longue les salaires soient devenus moins rigides. Alors, la chute des salaires réels peut ramener les chômeurs à l’emploi et réduire le chômage (1).

Ce n’est pas parce que la chute des salaires réels résout le problème d’insuffisance de la demande. (…) La baisse des salaires réels peut davantage déprimer la demande globale. Mais il est toujours possible que les travailleurs puissent revenir à l’emploi, parce que les entreprises peuvent se tourner vers des techniques de production plus intensives en travail ou échouer à investir dans de nouvelles techniques économes en travail. La production serait toujours déprimée, mais le chômage chuterait, l’emploi augmenterait et la productivité du travail stagnerait. C’est essentiellement ce que nous avons observé au Royaume-Unis au cours des dernières années.

Il est important de comprendre que, dans ces circonstances, le problème d’une demande insuffisante perdure. Les ressources sont toujours gâchées à une grande échelle. Notre situation s’améliorerait si la demande était stimulée. Comment les banquiers centraux pourraient-ils savoir si c’est le cas ou non ?

Les banquiers centraux peuvent dire qu’ils pourraient toujours savoir si la demande est insuffisante parce que les enquêtes leur disent si les entreprises ont des capacités excédentaires. Cela serait sans doute vrai dans le sillage immédiat de la récession, mais à mesure que le temps passerait le capital se déprécierait et l’investissement resterait faible parce que les entreprises utiliseraient des techniques de production plus intensives en travail. En tant qu’indicateurs d’insuffisance de la demande globale, les enquêtes deviendraient aussi peu robustes que les chiffres du chômage.

Que dire après de toutes ces mesures de l’écart de production ? Malheureusement, elles sont fondées soit sur le chômage, soit sur les enquêtes, soit sur les techniques de lissage des données. Ces dernières, parce qu’ils lissent les données de la production, disent simplement le temps qu’il faut pour qu’une reprise soit complète. Ou, pour le dire autrement, les mesures basées sur la tendance excluent effectivement la possibilité d’une période prolongée de demande insuffisante (2). Donc, collectivement, ces mesures d’écart de production ne fournissent pas d’information additionnelle à propos de l’insuffisance de la demande globale.

L’arbitre ultime pour savoir s’il y a une insuffisance de la demande globale est l’inflation. Si la demande est insuffisante, l’inflation va être inférieure à sa cible. Elle est inférieure à sa cible dans la plupart des pays aujourd’hui, notamment aux Etats-Unis, dans la zone euro et au Japon. (Au Royaume-Uni, l’inflation est supérieure à la cible en raison de la dépréciation provoquée par le Brexit, mais l’inflation salariale ne présente pas de signe d’emballement.) Donc, dans ces circonstances, les banquiers centraux doivent comprendre que la demande est insuffisante et continuer à faire tout ce qu’ils peuvent pour la stimuler.

Mais il y a un danger que les banquiers centraux regardent le taux de chômage, les enquêtes sur la capacité excédentaire et les estimations de l’écart de production et en concluent que nous n’avons plus d’insuffisance de la demande globale. Aux Etats-Unis, les taux d’intérêt augmentent et il y a certains membres du comité de politique monétaire de la Banque d’Angleterre qui aimeraient également les augmenter. Si l’insuffisance de la demande est toujours un problème, ce serait alors une grande erreur, très coûteuse, le genre d’erreur que les autorités monétaires ne doivent jamais commettre (3). Il y a une façon certaine d’éviter cette erreur, qui consiste à continuer de stimuler la demande jusqu’à ce que l’inflation dépasse sa cible.

Un argument contre cette politique attentiste est que les autorités monétaires doivent être « en avance sur la courbe », pour éviter d’abruptes hausses des taux d’intérêt si l’inflation commençait à augmenter. Les arguments comme celui-ci traitent la Grande Récession comme une simple version plus grande des récessions que nous avons connues depuis la Seconde Guerre mondiale. Mais au cours de ces précédentes récessions, les taux d’intérêt n’ont pas butté sur leur borne inférieure et nous n’avions pas eu de généralisation de l’austérité budgétaire une ou deux années à peine après le début de la récession. Ce à que nous assistons, c’est plutôt quelque chose qui se rapproche de la Grande Dépression, mais avec un marché du travail plus flexible.

(1) Les salaires réels peuvent aussi être plus flexibles parce que la Grande Récession a permis aux employeurs d’accroître l’insécurité de l’emploi, qui peut à la fois accroître la flexibilité des salaires et réduire le NAIRU. Ce qui est implicite dans cette idée, c’est le fait qu’une baisse des salaires nominaux ne se traduit pas automatiquement par une baisse des prix. Si cela avait été le cas, les salaires réels n’auraient pas chuté. (…)

(2) Elles suggèrent aussi souvent que les années qui ont immédiatement précédé la Grande Récession ont constitué une période d’ample boom, malgré toutes les preuves qui indiquent qu’il n’y a pas eu de boom en-dehors de la périphérie de la zone euro.

(3) J. W. Mason a récemment affirmé qu’une telle erreur est actuellement commise aux Etats-Unis dans un rapport détaillé. »

Simon Wren-Lewis, « Is a flexible labour market a problem for central bankers? », in Mainly Macro (blog), 2 août 2017. Traduit par Martin Anota

dimanche 16 juillet 2017

Pourquoi les salaires allemands doivent augmenter

« Il y a eu un débat intéressant cette semaine entre Martin Sandbu et The Economist, qui suscita une réaction de la part de Philippe Legrain (puis à nouveau une réponse de Sandbu ici). La question qu’ils se posent est si le solde du compte courant allemand, qui a régulièrement augmenté en passant d’un léger déficit en 2000 à un large excédent de plus de 8 % du PIB ces derniers années, est un problème et, en l’occurrence, un frein sur la croissance mondiale.

Pour déterminer si un excédent courant est un problème, il est essentiel de comprendre pourquoi il apparaît. J’en ai parlé en détails à plusieurs reprises par le passé et Peter Bofinger, l’un des cinq membres du Conseils des Experts Economiques en Allemagne, en offre le même récit que moi. Pour résumer, depuis le lancement de la monnaie unique, l’Allemagne a freiné ses salaires, si bien que ceux-ci se sont accrus à un rythme qui n’était pas cohérent avec la cible d’inflation de la zone euro (une inflation inférieure, mais proche, de 2 %). Nous pouvons le voir clairement dans le graphique suivant.

GRAPHIQUE Coûts du travail unitaires relatifs (en indices, base 100 en 2000)

Simon_Wren-Lewis__couts_du_travail_unitaires_relatifs_de_l__Allemagne.png

La ligne bleue montre les coûts du travail unitaires de l’Allemagne relativement à (…) la moyenne de la zone euro. (…) En maintenant l’inflation salariale à un faible niveau entre 2000 et 2009, l’Allemagne a peu à peu acquis un avantage comparatif sur les autres pays-membres de la zone euro. Au même instant, la plupart des gens se focalisèrent sur la forte inflation à la périphérie de la zone euro. Mais comme la ligne rouge le montre, cela n’était qu’une partie de l’histoire, dans la mesure où l’inflation salariale était trop faible en Allemagne relativement aux autres pays-membres. Cet avantage comparatif qu’elle s’est peu à peu constitué eut comme conséquence d’entraîner un excédent du compte courant allemand.

Cependant, cela ne suffit pas en soi pour dire qu’il y a un problème, pour deux raisons connexes. Premièrement, peut-être que l’Allemagne est entrée dans la zone euro à un taux de change sous-évalué, si bien que le graphique ci-dessus présenterait juste une correction de ce phénomène. Deuxièmement, peut-être que l’Allemagne doit cette compétitivité à l’inclinaison du secteur privé à épargner plus qu’il n’investit et par conséquent à acheter des actifs financiers.

Il y a de bonnes raisons, notamment en ce qui concerne le vieillissement démographique que connaît l’Allemagne, de penser que ce deuxième point est exact. (…) Sur le plan démographique, cela fait sens que l’Allemagne génère un excédent de compte courant. La question clé est de savoir quelle devrait être la taille de l’excédent subséquent. Un excédent de 8 % du PIB est très large et j’ai toujours pensé qu’il était bien trop ample pour simplement refléter les préférences sous-jacentes des épargnants allemands.

Je suis heureux de voir que le FMI est d’accord avec cela. Il suggère que l’excédent de compte courant d’équilibre à moyen terme se situerait entre 2,5 % et 5,5 % du PIB. Cela suggère que la correction de compétitivité qui commença en 2009 a encore une certaine marge devant elle. Pourquoi est-ce que cela prend tant de temps ? Certains estiment que l’excédent de 8 % du PIB doit représenter un certain équilibre à moyen terme, dans la mesure où le déséquilibre provoqué par les rigidités des prix et salaires devrait s’être résorbé avec le temps. J'ai déjà taclé un tel argument il y a quelques années.

Or, pour que déséquilibre de compétitivité se résorbe, nous avons besoin soit d’une forte croissance des salaires en Allemagne, soit d’une faible croissance des salaires dans le reste de la zone euro, soit des deux. Etant donné à quel point l’inflation est faible en moyenne dans la zone euro, il est très difficile d’obtenir une plus faible inflation salariale dans le reste de la zone euro qu’en Allemagne. La réticence des entreprises à imposer des réductions de salaires ou des travailleurs à les accepter est bien connue. La réduction des déséquilibres de compétitivité dans la zone euro est restée lente dans la zone euro dans la mesure où celle-ci peinait toujours à sortir de la récession provoquée par l’austérité budgétaire et où l’inflation moyenne de la zone euro restait par conséquent faible. (1)

En ce sens, des excédents de compte courant allemands d’une telle échelle sont un symptôme de deux problèmes sous-jacents : d’une part, la réussite de l’Allemagne à gagner en compétitivité-prix vis-à-vis des autres pays-membres de la zone euro avant la crise financière mondiale et, d’autre part, l’actuelle faiblesse de l’inflation dans la zone euro. L’Allemagne peut rattraper ses erreurs passées en encourageant la hausse des salaires domestiques, soit directement, soit indirectement via une politique budgétaire expansionniste. Non seulement cela accélérerait l’ajustement, mais cela étoufferait aussi une certaine culture en Allemagne consistant à légitimer la réduction des coûts vis-à-vis des autres pays-membres en freinant les salaires. (2)

De ce point de vue, est-ce que cela signifie que les excédents de compte courant allemands freinent la croissance mondiale ? Seulement d’une façon très indirecte. Si une hausse des salaires allemands ou d’éventuelles mesures adoptées pour les accroître stimulaient la demande globale et la production en Allemagne, cela stimulerait ensuite la croissance mondiale. (Rappelez-vous que les taux d’intérêt de la BCE butent sur leur borne inférieure, donc elle se resserrerait peu en réaction à une éventuelle stimulation de la demande globale.) En stimulant ainsi la demande, l’Allemagne ne se contenterait pas d’aider le reste du monde ou d’autres pays-membres de l’union monétaire : elle corrigerait un problème qu’elle a créé de son propre chef.

(1) La résistance aux réductions de salaires nominaux devient un argument bien plus puissant pour relever la cible d’inflation dans une union monétaire où les asymétries signifient que les taux de change d’équilibre sont susceptibles de varier au cours du temps.

(2) La règle dans union monétaire est très simple. Une fois que nous avons atteint un équilibre de compétitivité, les salaires nominaux doivent s’accroître de 2 % (ce qui correspond à la cible d’inflation) de plus que la productivité nationale sous-jacente. J’ai fréquemment reçu des commentaires affirmant qu’une fixation des salaires inférieure à ce niveau améliorerait la compétitivité de la zone euro dans son ensemble. C’est incorrect, parce que si tous les pays-membres de l’union monétaire modéraient leurs salaires de la même ampleur, l’inflation de la zone euro chuterait, amenant la banque centrale à assouplir sa politique monétaire pour ramener l’inflation à 2 % et l’inflation salaire à 2 % plus la croissance de la productivité. »

Simon Wren-Lewis, « Why German wages need to rise », in Mainly Macro (blog), 14 juillet 2017. Traduit par Martin Anota



aller plus loin...

« Adopter le modèle allemand ou sauver l’euro »

« L'Allemagne doit-elle réduire ses excédents courants ? (Le tango se danse à deux) »

« L’Allemagne contre la zone euro »

jeudi 13 juillet 2017

Pourquoi les récessions suivies par l’austérité ont un impact durable sur l’activité

« Les étudiants apprennent tôt que la demande agrégée importe à court terme, mais qu’à long terme la production est déterminée du côté de l’offre. Une meilleure façon de formuler cela est de dire que l’offre s’ajuste à la demande à court terme, mais que la demande s’ajuste à l’offre à long terme. Une partie clé de cette conceptualisation est que l’offre de long terme est indépendante des variations de la demande à court terme (les expansions et les récessions). C’est une conceptualisation simple qui s’est révélée être extrêmement utile par le passé. Regardez juste les données du Royaume-Uni présentées dans ce billet : malgré les chocs pétroliers, la récession provoquée par l’expérience monétariste et la récession provoquée par la crise du système monétaire européen, la production par tête au Royaume-Uni semble être revenue à une tendance sous-jacente de 2,5 % par an après la Seconde Guerre mondiale.

Mais plus maintenant : la production par tête est désormais inférieure de plus de 15 % à cette tendance et, depuis le Brexit, cet écart s’accroît trimestre après trimestre. Dans la plupart des pays développés, il semble que la crise financière mondiale ait changé la tendance sous-jacente de la croissance. Vous trouverez plein d’histoire et d’articles qui essaient d’expliquer cela comme un ralentissement de la croissance de l’offre provoqué par un ralentissement du progrès technique qui daterait d’avant la crise financière et qui serait indépendant de la récession provoquée par celle-ci.

Dans un précédent billet, j’ai observé de récentes preuves empiriques qui suggèrent un récit différent : que la récession qui a suivi la crise financière mondiale semble avoir eu un impact permanent sur la production. Vous pouvez raconter cette histoire de deux façons. Selon la première, aujourd’hui, pour une raison ou une autre, l’offre s’est ajustée à une plus faible demande. Selon la seconde, nous sommes toujours dans une situation où la demande globale est inférieure à l’offre.

Les raisons théoriques expliquant pourquoi l’offre peut s’être ajustée à une demande plus faible ne sont pas difficiles à trouver. (Elles sont souvent regroupées par les économistes sous l’étiquette d’"effets d’hystérèse"). L’offre (en termes de production par tête) dépend du taux d’activité, du montant de capital productif dans l’économie et finalement du progrès technique, qui désigne tout ce qui améliore la façon par laquelle le travail et le capital se combinent au niveau agrégé pour générer la production. Une longue période de faible demande peut décourager les travailleurs. Elle peut aussi freiner l’investissement : un investissement peut être profitable, mais s’il n’y a pas de demande, il ne sera pas financé.

Cependant, le canal la plus évident pour lier une récession à l’offre de plus long terme est via le progrès technique, ce qui fait écho à la vaste littérature regroupée sous le terme de « théorie de la croissance endogène. Cela peut être fait via un modèle AK simple (comme Antonio Fatas le fait ic) ou en utilisant un modèle plus élaboré du progrès technique, comme le font Gianluca Benigno et Luca Fornaro dans leur analyse titrée "Stagnation traps". L’idée fondamentale est que, dans une récession, l’innovation est moins profitable, si bien que les entreprises font moins d’innovations, ce qui entraîne une moindre croissance de la productivité et donc de l’offre. Narayana Kocherlakota a développé cette idée, comme vous pouvez le voir avec l’exemple qu’il donne ici.

Le second type d’explications est attrayant, en partie parce que le mécanisme qui est censé ramener la demande vers l’offre (en l’occurrence la politique monétaire) a été hors d’action pendant une longue période en raison de la borne inférieure zéro (zero lower bound). (La borne inférieure joue également un rôle important dans le modèle développé par Benigno et Fornaro.) Cependant, pour certains, ce type d’explications semble actuellement exclue dans la mesure où le chômage est proche des niveaux d’avant-crise au Royaume-Uni et aux Etats-Unis.

J’ai trois problèmes différents avec l’idée selon laquelle nous n’aurions plus un problème de demande insuffisante au motif que le chômage serait faible. Le premier, et le plus évident, est que le taux de chômage naturel peut être, pour diverses raisons, considérablement plus faible qu’il ne l’était avant la crise financière mondiale. Le deuxième problème est (…) de faibles salaires réels peuvent avoir encouragé les entreprises à utiliser des techniques plus intensives en travail. Si c’est ce qui s’est passé, cela ne signifie pas que le problème d’insuffisance de la demande ait été écarté, mais juste qu’il est moins manifeste. (Pour ceux qui ont un problème conceptuel avec cela, pensez juste au modèle le plus simple des nouveaux keynésiens, qui suppose un marché qui s’équilibre parfaitement, mais qui présente pourtant une insuffisance de la demande.)

Le troisième problème se focalise sur la nature de tout ralentissement de la productivité provoqué par le manque d’innovations. Une question clé, à laquelle les articles cités ci-dessus ne s’attaquent pas directement, est si nous parlons de la recherche à la frontière ou davantage de la mise en œuvre des innovations (par exemple, copier ce que font les entreprises situées à la frontière.) Il y a certaines preuves empiriques qui suggèrent que le ralentissement de la productivité peut refléter l’absence de cette dernière. C’est très important, parce que si c’est le cas, cela implique que le ralentissement est réversible. J’ai affirmé que les banques centrales doivent prêter davantage d’attention à ce que j’ai appelé le retard d’innovation (c’est-à-dire à l’écart entre les meilleurs techniques et ce que les entreprises emploient effectivement) et au lien que celui-ci entretien avec l’investissement et la demande agrégée.

Tout cela montre qu’on ne manque pas d’idées pour saisir comment une récession sévère et une lente reprise peuvent avoir des effets durables. S’il y a un problème, c’est davantage le fait que la conceptualisation simple dont j’ai parlé au début de ce billet a façonné étroitement la façon par laquelle la plupart des gens pensent. Si l’un des mécanismes dont j’ai parlé est important, alors cela signifie que la folie de l’austérité a eu un impact qui peut durer au moins une décennie plutôt que quelques années. »

Simon Wren-Lewis, « Why recessions followed by austerity can have a persistent impact », in Mainly Macro (blog), 12 juillet 2017. Traduit par Martin Anota



aller plus loin...

« L’austérité laisse des cicatrices permanentes sur l’activité »

« L’hystérèse, ou comment la politique budgétaire a retrouvé sa légitimité »

lundi 10 juillet 2017

Mesurer l’impact de l’austérité

« Ben Chu a publié un bon article présentant certains non-sens associés à l’austérité budgétaire (qui refusent de mourir, parce qu’ils sont utiles aux politiciens et du fait que les médias sont généralement désemparés). Peut-être que le non-sens le plus stupide que j’ai entendu (et j’en ai entendu beaucoup) est que le Royaume-Uni n’a pas vraiment connu d’austérité parce que la dette publique a continué d’augmenter ou parce qu’une autre mesure tout aussi impertinente ait elle-même continué d’augmenter.

Si essayer de réduire le déficit budgétaire (ce que les économistes appellent la consolidation budgétaire) n’avait pas d’effets négatifs sur l’économie dans son ensemble, cela n’aurait pas l’étiquette d’austérité. L’austérité concerne l’impact agrégé négatif qu’une consolidation budgétaire peut avoir sur la production. Par conséquent, la mesure appropriée de l’austérité est une mesure de cet impact. Donc ce n’est pas le niveau de dépenses publiques ou d’impôts qui importe, mais comment ce niveau varie.

Une mesure évidente que l’on pourrait utiliser est le déficit lui-même, en général ajusté pour tenir compte des variations qui surviennent automatiquement du fait que la production varie. J’ai utilisé cette mesure quelquefois, parce qu’elle était produite par l’OBR, le FMI et l’OCDE parmi d’autres. Mais ce n’est pas l’idéal, parce que l’impact des variations des impôts sur la demande globale et par conséquent sur la production est généralement plus faible que l’impact d’une variation des dépenses publiques, parce qu’une partie de la baisse d’impôt est épargnée. (C’est également vrai, dans une moindre mesure, avec les transferts de revenus.)

Il n’y a pas de façon simple de faire face à ce problème de mesure, parce que le montant d’une hausse d’impôt que les gens vont épargner va dépendre en partie de leurs anticipations relativement aux impôts qu’ils auront à payer à l’avenir. Par conséquent, certains préfèrent se focaliser seulement sur les dépenses publiques pour mesurer l’impact budgétaire (…). Cependant, il est également possible d’appliquer de simples propensions moyennes à consommer des réductions d’impôts et des revenus de transfert pour obtenir une mesure de l’impact budgétaire.

C’est ce que la mesure de l’impact budgétaire du Hutchins Center fait pour les Etats-Unis.

Il ne s’agit pas de multiplicateurs (ce qui diffère par rapport à ce que fait l’OBR pour le Royaume-Uni par exemple (1)), mais juste l’impact direct des dépenses publiques et des impôts sur la demande globale et donc le PIB. L’impact moyen total est proche de 0,4 %, ce qui serait la politique budgétaire qui serait en ce sens neutre.

Comparons la légère récession de 2001 avec la récession plus sévère de 2008-2009. Dans les deux cas, durant la récession, la politique budgétaire a été fortement contracyclique, contribuant à réduire l’impact de la récession. Après la fin de la récession de 2001, la politique budgétaire continua de soutenir la reprise pendant encore environ deux ans : il y eut notamment les réductions d’impôts de Bush. La reprise du PIB fut raisonnablement forte : la croissance était de 2,8 % en 2003, de 3,8 % en 2004 et de 3,3 % en 2005.

En 2010, nous avions une récession bien plus sévère et plus longue, mais le soutien budgétaire ne fut qu’à peine plus important qu’en 2001, malgré des taux d’intérêt contraints par leur borne inférieure. A cette occasion, les Républicains s’opposèrent au soutien budgétaire. Cela continua encore un an et un trimestre et ensuite la politique budgétaire devint fortement restrictive de 2011 à 2015. La croissance du PIB fut plus lente qu’au cours de la précédente reprise, malgré une récession plus sévère : de 2,5 % en 2010, de 1,6 % en 2011, de 2,2 % en 2012, de 1,7 % en 2013 et de 2,4 % en 2014. Cela n’aurait pas dû nous surprendre, comme la politique budgétaire amputa le PIB d’environ 1 % en 2011, en 2012 et en 2013, au lieu d’y contribuer à 0,4 % comme elle le faisait habituellement.

La vitesse et l’ampleur avec laquelle l’austérité fut appliquée après la Grande Récession furent très inhabituelles : le manuel dit qu’il faut d’abord renforcer la reprise, permettre aux taux d’intérêt de s’accroître, et de ne s’inquiéter seulement ensuite de la dette publique. Il n’y a pas eu de justification économique pour le resserrement hâtif de la politique budgétaire après 2010 : le motif, comme au Royaume-Uni, fut entièrement d’ordre politique. Cela se traduisit par la reprise de la production la plus lente aux Etats-Unis depuis la Seconde Guerre mondiale. (…) Comme je l’ai montré ici en utilisant des calculs simples, si les dépenses gouvernementales totales depuis 2011 étaient restées neutres au lieu de devenir brutalement restrictives, alors la production américaine serait facilement revenue à proximité de sa capacité (telle qu’elle est mesurée par le CBO) en 2013.

Soustraire 1,5 % du PIB ne serait pas important si quelque chose (du côté de la consommation, de l’investissement ou des exportations nettes) prenait le relais. Mais, pour cela, il faudrait compter sur la chance ou s’appuyer sur une relance monétaire, or la politique monétaire était confrontée à une trappe à liquidité. C’est le vrai crime de l’austérité. Décroître la demande globale ou la production précisément à l’instant où l’économie commençait à connaître une reprise depuis la plus sévère récession qu’elle ait connue depuis la Seconde Guerre mondiale apparaît particulièrement stupide, mais le faire précisément à l’instant où la politique monétaire était incapable d’en amortir l’impact relève de la folie. Comme je vais l’affirmer dans d’autres billets, il est de plus en plus manifeste que cela nous a appauvris de façon permanente.

(1) Si quelqu’un publie quelque chose de similaire pour le Royaume-Uni, faites-le moi savoir. Personnellement, je pense que cela fait plus sens de publier des données comme celles-ci que d’utiliser une analyse fondée sur le multiplicateur, simplement parce que mesures sont plus directes et impliquent moins d’hypothèses à propos de l’économie en général. Crucialement, il n’y a pas d’hypothèses implicites à faire à propos de la politique monétaire. Il serait intéressait de savoir pourquoi l’OBR a décidé de ne pas adopter cette approche. »

Simon Wren-Lewis, « Measuring the impact of austerity », in Mainly Macro (blog), 10 juillet 2017. Traduit par Martin Anota

vendredi 16 juin 2017

Les banques centrales doivent-elles relever leur cible d’inflation ?

« Les arguments en faveur d’un relèvement de la cible d’inflation sont simples, une fois que vous comprenez deux choses. Premièrement, l’instrument de politique monétaire le plus efficace et fiable consiste à influencer le taux d’intérêt réel dans l’économie, c’est-à-dire le taux d’intérêt nominal moins l’inflation anticipée. Deuxièmement, les taux d’intérêt nominaux de court terme ne peuvent aller en-deçà d’un plancher proche de zéro (la borne inférieure zéro, zero lower bound). Combinons ces deux choses et vous vous retrouvez avec un sévère problème dans une récession, parce que pour combattre la récession les taux d’intérêt réels doivent aller en territoire négatif, mais la borne inférieure limite l’ampleur à laquelle ils peuvent s’enfoncer en territoire négatif. Cela signifie que la politique monétaire seule peut ne pas être capable de sortir l'économie d’une récession.

Relever la cible d’inflation réduit la probabilité que les taux d’intérêt se retrouvent à leur borne inférieure zéro. Pour comprendre pourquoi, considérez tout d’abord le cas où le taux d’intérêt réel de long terme (ce que les économistes appellent souvent le "taux d’intérêt d’équilibre" ou "naturel") est positif. Disons qu’il est de 2 %. Si la cible d’inflation est de 2 % et la borne inférieure est de 0 %, cela signifie qu’en temps normal le taux d’intérêt nominal moyen est de 4 % (2 % de cible d’inflation + 2 % pour obtenir un taux d’intérêt réel). Cela signifie que les taux d’intérêt nominaux peuvent être réduits au maximum de 4 % si l’économie faiblit. Cela peut suffire pour un léger ralentissement, mais cela peut ne pas suffire pour une récession sévère comme celle que nous avons subie en 2008. Cependant si la cible d’inflation était de 4 %, les taux nominaux pourraient au maximum être réduits de 6 %. Cela permet de faire face à de sévères récessions (mais, j'avoue, peut-être aux plus sévères qui soient).

Pourquoi plusieurs économistes affirment aujourd’hui que nous devons relever la cible d’inflation de 2 % à 4 % ? L’un des raisons est qu’ils croient que le taux d’intérêt réel de long terme est aujourd’hui plus faible qu’il ne l’était lorsque les banques centrales adoptèrent la cible de 2 %. (C’est l’idée de la stagnation séculaire.) Si vous reprenez l’arithmétique ci-dessus, vous pouvez saisir pourquoi un taux d’intérêt réel de long terme plus faible va aggraver le problème de la borne inférieure zéro. L’idée est que nous devons maintenant accroître la cible d’inflation pour être certains que nous soyons moins contraints par la borne inférieure zéro à l’avenir.

La question cessa d’être une simple interrogation académique pour devenir une possibilité pratique aux Etats-Unis il y a quelques jours. Lorsqu’on a interrogé par le passé Janet Yellen, la présidente de la Fed, à propos du relèvement de la cible d’inflation, elle a eu tendance à écarter l’idée. Désormais, elle dit que c’est quelque chose que la Fed va étudier à l’avenir et que c’est l’une des plus importantes questions auxquelles font face les banquiers centraux aujourd’hui.

Cela va donner sans aucun doute un nouveau souffle au débat sur le relèvement de la cible d’inflation. Nous sommes dans un territoire d’arbitrage standard ici. Les économistes s’accordent généralement pour dire qu’une cible d’inflation plus élevée va en soi infliger de plus gros coûts à l’économie, mais cela aura pour bénéfice de réduire la fréquence des épisodes de borne inférieure zéro. Mais il y a une alternative bien plus efficace pour surmonter ce dilemme.

Les gouvernements ont un autre instrument qui a un impact assez prévisible sur la demande agrégée et qui peut être utilisé pour combattre une récession : la politique budgétaire (les changements discrétionnaires du niveau d'impôts et des dépenses publiques). Au Royaume-Uni, aujourd’hui, les taux d’intérêt sont contraints par la borne inférieure zéro en partie parce que la politique budgétaire est restrictive (le gouvernement a opté pour l’austérité). Ce serait une meilleure chose d’utiliser cet instrument pour stimuler l’économie lorsqu’elle est en récession plutôt que de relever la cible d’inflation. Pourtant, les banques centrales indépendantes ont découragé les gouvernements d’utiliser la politique budgétaire de cette façon.

Il n’est pas bon que les banques centrales prétendent que c’est quelque chose du ressort des gouvernements et qu’il y a une loi non écrite qui dicte aux banques centrales de rester silencieuses sur de telles choses. En réalité, au Royaume-Uni et dans la zone euro, les banques centrales encouragèrent activement les gouvernements à faire la mauvaise chose avec la politique budgétaire lors de la dernière récession : elles les incitèrent à embrasser l’austérité. S’il y a quelque chose d’inhérent au sein des banques centrales qui les empêche de donner le conseil approprié de cette façon, alors nous devons nous demander d’urgence quels changements apporter aux banques centrales.

Dans une récession, dès que la banque centrale pense que les taux d’intérêt seront contraints par leur borne inférieure, elle doit dire, haut et fort, que la politique budgétaire doit devenir plus expansionniste. En outre, la banque centrale doit dire, haut et fort, que les gouvernements n’ont pas à s’inquiéter de la hausse de la dette et des déficits qu’entraîneraient la récession et toute relance budgétaire qu’ils entreprendraient (…). Ces deux déclarations auraient le mérite d’être exactes.

Bien sûr, les gouvernements vont devoir restaurer la dette aux niveaux désirés à un moment ou à un autre, mais il est possible de le faire bien après que les taux d’intérêt aient quitté la borne inférieure zéro, ce qui permettrait de réduire la dette en minimisant les répercussions sur l’économie. Le but immédiat de la politique budgétaire dans une récession doit consister à laisser les taux d’intérêt s’accroître au-dessus de la borne inférieure zéro le plus tôt possible. Cela vous donne le meilleur résultat macroéconomique qui soit, un meilleur résultat que celui que vous donnera un relèvement de la cible d’inflation. La question la plus importante à laquelle les banquiers centraux font face aujourd’hui est pourquoi ils échouèrent à faire cela depuis 2009.

Maintenant il est possible que, si la démocratie est en mauvaise forme (comme c’est actuellement le cas aux Etats-Unis par exemple), le gouvernement peut ignorer le conseil qu’il reçoit de la part de la banque centrale. Dans ce cas, il est utile de considérer l’idée de donner un certain pouvoir additionnel aux banques centrales pour répliquer une expansion budgétaire, par exemple en s’appuyant sur la monnaie-hélicoptère. Ou il peut être utile de considérer l’idée d’apporter des changements institutionnels qui permettent aux taux d’intérêt nominaux de s’enfoncer en territoire négatif. Ou bien d’accroître la cible d’inflation. Mais avant de faire l’une de ces choses nous devons nous assurer que les banques centrales donneront le bon conseil aux gouvernements quand la prochaine récession viendra. »

Simon Wren-Lewis, « Raising the inflation target », in Mainly Macro (blog), 16 juin 2017. Traduit par Martin Anota



aller plus loin...

« Et si les banques centrales ciblaient une inflation de 4 % ? »

« Quelle est la cible d’inflation optimale ? »

lundi 15 mai 2017

Nous sous-estimons l’impact de l’austérité

« Plusieurs idées ont été avancées pour expliquer la faible croissance de la productivité du Royaume-Uni, mais parmi les analyses orthodoxes l’impact de l’austérité n’est habituellement pas au sommet sur la liste des candidats. J’ai parlé par le passé de ce que j’ai appelé le 'retard d’innovation" (innovation gap) et expliqué pourquoi le Royaume-Uni est actuellement en train de souffrir d’un retard d’innovation particulièrement large. L’idée d’un retard d’innovation permet de lier l’insuffisance de la demande globale (celle provoquée par l’austérité par exemple) à la faiblesse de la croissance de la productivité.

Prenons un exemple simple pour expliquer comment un retard d’innovation peut apparaître après une sévère récession provoquée par l’austérité. Supposons que les améliorations des technologies et des techniques de production soient constantes (…), mais qu’elles ne peuvent se diffuser qu’avec de nouveaux investissements : c’est ce que les économistes appellent le progrès technique incorporé (embodied technical progress).

Imaginez une entreprise dont les ventes ne s’accroissent pas. Est-ce que l’entreprise va investir pour devenir plus productive ? Seulement si les profits additionnels qu’elle peut faire suite à l’investissement (…) sont plus larges que le coût de l’investissement. Il faut que cette entreprise ait un gros retard d’investissement pour qu’il soit utile pour elle d’entreprise l’investissement et pour que sa productivité augmente.

Maintenant, imaginez que la demande s’accroisse. L’entreprise a maintenant à entreprendre un investissement additionnel pour accroître sa production. Il fait sens d’investir dans des techniques qui incorporent les dernières technologies. La hausse de la demande entraîne à la fois une hausse de l’investissement (ce que les économistes appellent l’ "accélérateur") et une hausse de la productivité.

Au cours d’une reprise normale suite à une récession, la demande connaît rapidement une reprise (la croissance excède facilement ses tendances passées), ce qui amène les entreprises à investir dans les dernières technologies. Tout retard d’innovation qui apparaît lors de la récession est rapidement rattrapé. A l’inverse, une reprise très lente provoquée par l’austérité va réduire le besoin d’investissement pour les entreprises, ce qui maintient et aggrave le retard d’innovation.

Cette idée colle avec certains travaux récents qui suggèrent que la croissance de la productivité dans les entreprises à la "frontière" (les entreprises qui ont déjà une productivité relativement forte) n’a pas ralenti et l’écart s’est creusé entre ces entreprises situées à la frontière technologique et celles qui sont en retard. (…) Cela ferait sens si les entreprises à la frontière croissent (parce qu’elles sont les plus productives), mais les entreprises en retard ne le font pas. Les firmes en croissance ont à investir pour croître, mais les entreprises en stagnation ne croissent pas.

Le même modèle peut aussi suggérer comment une croissance de la productivité tirée par les salaires peut survenir (…). Comme la plupart des innovations sont susceptibles de conduire à une économie de main-d’œuvre, alors une hausse des salaires peut accroître les profits qui viennent d’un investissement, sans nécessairement accroître le coût de cet investissement. Donc une hausse des salaires provoquée par une hausse du salaire minimum, par exemple, peut accroître l’investissement et par conséquent la productivité. Réciproquement, une période de stagnation de la croissance des salaires, comme celle que nous avons connue depuis la récession, n’incite aucunement les entreprises à investir dans des techniques qui accroissent la productivité.

Je pense que cette histoire n’explique qu’une partie du retard de productivité du Royaume-Uni. Au Royaume-Uni, l’investissement dans les usines et les machines a brutalement chuté lors de la récession et il n’est toujours pas revenu à ses niveaux d’avant-crise, mais son déclin n’explique pas totalement la stagnation de la productivité. (…) Mais s’il explique ne serait-ce qu’une partie de celle-ci, alors cela signifie que l’austérité est bien plus coûteuse qu’on ne le croit.

Une manière de décrire ce que je viens de dire est de dire que l’austérité influence aussi bien l’offre globale que la demande globale. Vous pouvez dire que l’austérité ignore aussi bien l’accélérateur que le multiplicateur, ce qui est joliment dit, mais cela ne capture par l’idée du progrès technique incorporé qui est cruciale à ce raisonnement. C’est pourquoi il vaut toujours mieux d’avoir une économie à haute pression (high pressure economy) (…).

Comme je l’ai expliqué ici, je n’utilise pas le terme "austérité" comme un simple synonyme de la consolidation budgétaire ou même d’une consolidation budgétaire impliquant une réduction des dépenses publiques. La consolidation budgétaire n’entraîne pas forcément une réduction de la production si la politique monétaire est capable de compenser son impact. Mais si les taux d’intérêt sont contraints par leur borne inférieure, comme ils le font à nouveau au Royaume-Uni (1), la consolidation budgétaire va réduire la production et entraîner un autre gâchis inutile de ressources. Depuis le Brexit, nous avons une seconde période d’austérité au Royaume-Uni. Pour évaluer à quel point cette austérité sera coûteuse, nous ne devons pas seulement regarder si elle crée un écart de production (output gap) négatif, mais aussi si elle génère un retard d’innovation qui réduit la productivité. »

(1) Nous le savons parce que la Banque d’Angleterre accroît le montant de l’assouplissement quantitatif. »

Simon Wren-Lewis, « Underestimating the impact of austerity », in Mainly Macro (blog), 7 mai 2017. Traduit par Martin Anota

lundi 1 mai 2017

Le Brexit commence (probablement) à freiner la croissance britannique

« Quand la Banque d’Angleterre prévoyait au lendemain du référendum du Brexit une croissance de 0,8 % du PIB en 2017, elle s’attendait à ce que la croissance de la consommation déclinerait à juste 1 %, avec seulement une petite baisse du ratio d’épargne. Mais la croissance de la consommation s’est révélée être bien plus robuste durant la deuxième moitié de l’année 2016 que ne l’attendait la Banque d’Angleterre. Comme ce graphique (…) le montre, quasiment toute la croissance du PIB en 2016 était inférieure à celle de la croissance de la consommation, une dynamique qu’elle a correctement décrite comme insoutenable. (Si la consommation croît, mais que les autres composantes du PIB ne le font pas, cela signifie que les ménages puisent dans leur épargne. Cela ne peut continuer indéfiniment.)

GRAPHIQUE Variations du PIB réel par tête du Royaume-Uni et de ses composantes

Simon_Wren-Lewis__Variations_du_PIB_reel_par_tete_du_Royaume-Uni_et_de_ses_composantes.png

Cette forte croissance de la consommation en 2016 a incité la Banque d’Angleterre à changer sa prévision. En février, elle prévoyait pour 2017 une croissance de 2 % pour la consommation et pour le PIB et une chute substantielle du taux d’épargne.

Qu’est-ce qui s’est passé ici ? En août, la Banque d’Angleterre pensait que les ménages prendraient conscience que le Brexit entraînerait une chute significative de la croissance du revenu futur et qu’ils commenceraient par conséquent à réduire leurs dépenses de consommation. Quand il apparut que ce n’était pas le cas, la Banque d’Angleterre sembla faire l’hypothèse inverse, c’est-à-dire supposer que les ménages penseraient que le Brexit aurait peu d’impact sur la croissance de leur revenu futur. Par conséquent, la Banque d’Angleterre prévoyait en février que le taux d’épargne déclinerait davantage en 2018 et en 2019, comme je l’ai noté ici. Elle supposait ainsi que les ménages seraient continuellement surpris par une croissance du revenu plus faible qu’ils ne l’attendaient.

La première estimation pour le PIB du premier trimestre 2017 qui a été publiée hier suggère une croissance de seulement 0,3 %, soit la moitié de ce que prévoyait la Banque d’Angleterre en février. Cette faible croissance semble s’expliquer par la faiblesse des secteurs associés à la consommation (malheureusement, nous n’obtiendrons le chiffre exact de la croissance de la consommation qu’avec la publication de la deuxième estimation du PIB). Donc que se passe-t-il ?

Il y a trois explications possibles. La première, qui est la moins probable, est que le premier trimestre 2017 constitue juste une anomalie. La deuxième est que de plus en plus de consommateurs commencent à réaliser que le Brexit va détériorer leur situation (j’ai noté ici que certains résultats de sondages qui le suggèrent) et qu’ils ajustent en conséquence leurs dépenses. La troisième est que la consommation était forte à la fin de l’année 2016 parce que les ménages achetaient des biens étrangers avant que leurs prix ne grimpent en conséquence de la dépréciation de la livre sterling provoquée par le référendum du Brexit.

Si vous m’avez suivi jusqu’à présent, vous devez savoir qu’il est bien difficile d’établir ce genre de prévision et que le tapage que les partisans du Brexit ont fait à propos des prévisions de la Banque d’Angleterre était peu fondé et ainsi probablement prématuré. Tout ce que Philip Hammond a réussi à dire à propos des dernières prévisions de la croissance, c’est qu’elles démontrent la nécessité de mettre en place un gouvernement "fort et stable" ! Je pense, cependant, que nous entendrons moins parler de la robustesse de notre économie ces prochaines semaines.

Bien sûr, la croissance peut s’accélérer au cours des prochains trimestres, en particulier si les entreprises tirent avantage de la bonne situation qu’a temporairement provoquée la dépréciation avant que s’officialise la sortie du Royaume-Uni hors de l’UE. Les prévisions ne sont presque jamais vérifiées. Mais même si c’est le cas, je ne pense que la plupart des journalistes n’ont pas encore réalisé à quel point il est inapproprié d’utiliser le PIB comme mesure de la santé économique après une large dépréciation. Dans la mesure où la dépréciation renchérit le prix des biens étrangers, les habitants au Royaume-Uni peuvent voir se détériorer leur revenu réel et par conséquent leur bien-être même si le PIB croît. Comme je l’ai souligné ici, cela explique pourquoi les gains réels ont chuté depuis 2010 même si nous avions une croissance (certes faible mais) positive du PIB réel par tête et, comme je l’ai souligné ici, pourquoi le Brexit va détériorer la situation du citoyen moyen du Royaume-Uni même si la croissance du PIB ne décline pas. Si celle-ci décline, cela ne fera qu’aggraver les choses. »

Simon Wren-Lewis, « The Brexit slowdown begins (probably) », in Mainly Macro (blog), 29 avril 2017. Traduit par Martin Anota

vendredi 28 avril 2017

Henry Farrell, les économistes et l’austérité

« Henry Farrell a publié un article dans le Washington Post où il lie une analyse (qu’il publiera prochainement avec John Quiggin) à un débat qui a impliqué de nombreux blogueurs autour du rôle des économistes universitaires dans la promotion (ou non) de l’austérité. Le papier est très riche dans les détails historiques et Farrell suggère que les politiciens étaient d’accord pour adopter un plan de relance quand les économistes semblaient avoir trouvé un consensus dans leurs préconisations, mais le passage à l’austérité s’amorça lorsque les économistes se montrèrent plus divisés.

Je tends à être d’accord avec cette idée de Kevin Drum. Selon ce dernier, les politiciens ont fondamentalement fait ce qu’ils voulaient faire et les économistes ont simplement été utilisés pour cautionner leurs décisions. C’est l’argument que j’ai finalement avancé dans mon analyse sur la théorie générale de l’austérité. Nous en trouvons une bonne illustration dans le cas du Royaume-Uni. George Osborne s’est opposé à la relance budgétaire en 2009 et ce qui changea, c’est qu’il devint le Chancelier en 2010. Il n’y a pas eu de changement de point de vue, juste un changement dans la composition de l’élite au pouvoir.

Un exemple qui va mieux avec l’idée de Farrell est l’Allemagne. Il affirme que les politiciens allemands étaient persuadés à conduire la relance en 2009 par la (surprenante) unanimité de leurs propres économistes, mais embrassèrent l’austérité lorsque les économistes allemands changèrent d’avis. Sur ce point, il peut avoir raison. Mais même ici je pense que vous pouvez développer un autre récit, qui met l’accent sur ce que les politiciens craignent le plus. En 2009, ils s’étaient inquiétés (avec raison) à l’idée de connaître une autre Grande Dépression et ainsi leur instinct les poussa à suivre leurs conseillers économiques qui nourrissaient exactement la même crainte. En 2010, cette peur s’était effacée et une autre inquiétude prit sa place (pour les politiciens et pour les économistes allemands enclins à l’austérité), portant cette fois-ci sur la dette européenne.

(…) Aux Etats-Unis et au Royaume-Uni, (…) les Républicains et les Conservateurs gagnèrent assez de pouvoir pour mettre en œuvre la politique qu’ils voulaient depuis toujours mettre en œuvre. C’est ce que j’ai appelé par le passé la "tromperie du déficit" (deficit deceit) : réduire la taille de l’Etat en prenant prétexte des craintes que suscitait le déficit public. Certes le Trésor et le Gouverneur de la Banque d’Angleterre encouragèrent George Osborne, mais je pense que ce dernier aurait, même sans leur soutien, agi comme il a agi : il n’a jamais été quelqu’un prêt à laisser l’économie l’empêcher d’atteindre un but politique.

Mais comme Drum le dit, le tableau n’est pas entièrement sombre pour les économistes. Selon lui, "si nous avions répondu à la crise financière de 2007-2008 de la même manière que nous avions réagi à la crise financière de 1929-1932, nous serions toujours en train d’attendre une répétition de la Seconde Guerre mondiale pour nous ramener à la normale". Je suis embêté quand les gens me demandent ce que les économistes ont fait au cours de la dernière décennie pour mériter le respect. Nous avons évité une autre Grande Dépression, c’est tout. Cela a peut-être été la première priorité des politiciens, mais nous leur avions dit ce qu’il y avait à faire, comme Farrell le met en évidence.

Mais lorsque Farrell suggère que l’austérité aurait pu être évitée si les économistes étaient restés d’accord entre eux, je pense qu’il a tort. L’année 2016 a bien démontré que la politique pouvait réellement ignorer le consensus des économistes universitaires. Même s’il est important de ne pas cesser de marteler à quel point l’austérité a été une erreur et qu’elle n’a été recommandée que par une minorité d’économistes, nous devons surtout nous demander pourquoi par moments la majorité peut être si facilement ignorée sur des questions pour lesquelles les économistes en savent bien plus que n’importe qui d’autre. »

Simon Wren-Lewis, « Henry Farrell on economists and austerity », in Mainly Macro (blog), 13 avril 2017. Traduit par Martin Anota



aller plus loin... lire « Vers une théorie générale de l’austérité »

lundi 24 avril 2017

Inégalités ou pauvreté ?

« Tony Blair a dit un jour : "s’il y a des gens qui gagnent beaucoup d’argent. Ce n’est pas mon problème. Je m’inquiète pour les personnes qui sont dépourvus d’opportunités, désavantagés et modestes". La plupart des gens, notamment le gouvernement travailliste, interprétèrent ces phrases comme se focalisant sur la pauvreté plutôt que sur les inégalités. (…)

J’ai récemment vu de la part de Miles Kimball une défense très claire de l’idée selon laquelle la pauvreté importerait plus que les inégalités. Il tire son raisonnement d’enquêtes qui cherchent à quantifier un principe fondamental de l’économie : la décroissance de l’utilité marginale. Il cite des résultats qui suggèrent qu’un euro de revenu signifie bien plus à une personne qui gagne la moitié du salaire moyen qu’à une personne qui gagne le double du salaire moyen. Il suggère que ces résultats tendent à valider le second principe de justice sociale avancé par John Rawls. Si nous le simplifions, nous pouvons dire que nous n’avons pas à nous inquiéter de trop des riches parce qu’un supplément de monnaie ne leur rapporte qu’un faible supplément d’utilité, si bien que nous devons nous focaliser sur la seule réduction de la pauvreté.

Maintenant, bien sûr, ce point n’est pas pertinent si nous réduisons la pauvreté en taxant les riches. Les riches sont une très bonne source d’argent, parce que l’argent ne leur manque pas. L’importance transparaît si nous comparons deux sociétés : une qui n’a pas de pauvres, mais qui a beaucoup de personnes très riches ; une autre qui n’a pas de riches, mais qui a toujours des pauvres. Selon Miles, nous devons préférer la société sans pauvreté à celle sans super-riches. D’un point de vue statique, je pense qu’il a raison, mais j’ai quelques inquiétudes, comme je vais le voir à présent, sur le plan dynamique.

Il y a un paragraphe intéressant au début du billet de Miles : "(…) J’admets que le montant de richesse détenue par les ultra-riches est vraiment astronomique et qu’il est important de s’assurer que les ultra-riches n’utilisent pas leur richesse pour prendre entièrement contrôle de notre système politique. Il est crucial d’observer et d’étudier en détails les diverses façons par lesquelles les ultra-riches influencent la politique. Mais en laissant de côté l’idée que les ultra-riches puissent subvertir notre système politique, nos inquiétudes vis-à-vis des inégalités doivent se focaliser sur la façon par laquelle nous prenons soin des pauvres ; il est important de savoir si l’argent nécessaire pour aider les pauvres provient des classes moyennes ou des riches, mais c’est moins important que le fait même de prendre soin des pauvres".

Je vais aller plus loin que Miles. Si l’argent importe si peu aux très riches, pourquoi voudraient-ils alors s’enrichir à un degré astronomique et contrôler le système politique pour s’assurer qu’ils gagnent même plus encore ? La réponse vient précisément du même concept qu’utilise Miles. Si 1.000 euros ne signifie rien pour vous parce que vous êtes très riche, vous allez plutôt chercher à gagner 10.000 euros ou 100.000 euros en plus. Le fait que les ultra-riches aient un si grand patrimoine n’est pas un simple accident, mais peut résulter du principe même que Miles explore : la décroissance de l’utilité marginale. Les riches ne sont pas différents des autres, dans le sens où ils veulent eux aussi être satisfait, sauf qu’ils ne peuvent y parvenir qu’en gagnant de larges montants d’argent.

(...) Considérons l’argument mis en avant par Piketty, Saez et Stantcheva dont j’ai discuté ici. Pourquoi est-ce que la part du revenu avant impôt des 1 % les plus riches s’est autant accrue au Royaume-Uni et aux Etats-Unis, c’est-à-dire précisément dans deux pays qui ont connu dans les années 1980 une forte réduction des taux d’imposition des plus hauts revenus ? L’argument que Piketty et ses coauteurs avancent est qu’avec des taux d’imposition punitifs, il y a peu d’incitations pour les PDG et les autres salariés très rémunérés à utiliser leur pouvoir de monopole pour extraire des rentes (…) de leur entreprise. Cela ne vous rapporterait que très peu d’argent après imposition, si bien que cela ne vous permettrait pas d’accroître de beaucoup votre satisfaction. Mais si les taux d’imposition marginaux diminuent, il est désormais rentable pour ces individus de se lancer dans l’extraction de rentes.

Comme je l’ai discuté ici, la culture du bonus est l’une des façons d’extraire des rentes qui a été stimulée par la réduction des taux marginaux d’imposition. (…)

Donc je peux prendre le même principe fondamental sur lequel s’appuie Miles et pourtant arriver à une bien différente conclusion. Une fois que nous donnons à ceux qui sont au sommet l’opportunité de gagner de très hauts revenus et que la seule façon par laquelle ces individus peuvent d’obtenir une satisfaction supplémentaire est de s’embarquer dans la quête de rentes, nous les incitons alors à tourner leurs efforts hors des activités socialement bénéfiques (…). Quand leurs efforts visent à influencer le système politique, nous avons en sérieux problème. Ces activités peuvent culminer en prenant le dessus sur le système politique, ce qui est précisément ce qui s’est passé aux Etats-Unis, avec des répercussions potentiellement désastreuses. Ne serait-ce que pour cette seule raison, les inégalités importent autant que la pauvreté. »

Simon Wren-Lewis, « Inequality or poverty », in Mainly Macro (blog), 18 avril 2017. Traduit par Martin Anota



Ni l'inégalité, ni pauvreté

« (…) Des réductions d’impôts, de plus généreuses pensions, plus d’emplois et une hausse du salaire minimum ont contribué à réduire la pauvreté au Royaume-Uni, mais le gouvernement de Blair fit en parallèle peu de choses pour restreindre la hausse des très hauts revenus.

Cela néglige malheureusement quelque chose : les maths. Si les riches s’enrichissent et si la situation des pauvres s’améliore, alors à un niveau de revenu donné, la situation de quelqu’un doit se dégrader. La "société blairiste" avec des super-riches, mais peu de pauvres, est une société dans laquelle la classe moyenne est relativement pauvre.

Ce n’est pas sans poser problème, peut-être surtout d’un point de vue conservateur. Comme Deirdre McCloskey l’a suggéré, une société bourgeoise incarne les vertus de la retenue, de la justice et du respect d’autrui. Une société blairiste où "le gagnant rafle tout" les met à mal : pourquoi travailler dur à l’école et à l’université (et s’endetter fortement) quand cela ne permet d’avoir qu’un emploi précaire et peu d’espoir d’avoir un logement décent ? Et une classe moyenne précarisée et aigrie menace aussi la stabilité politique. En 2013, Fraser Nelson écrivait : "Nos classes moyennes (qui constituent pourtant une grande force stabilisatrice dans notre société) se contractent rapidement. Il est difficile d’imaginer la bourgeoisie britannique descendre dans la rue, mais un jour ou l’autre bientôt ils pourraient faire demi-tour et dire :'Désolé, mais nous sommes plutôt dingues et nous ne supporterons plus cela'." Peut-être que le Brexit, l’UKIP et la hausse des sentiments insulaires, anti-marché lui donnèrent raison : les inégalités peuvent être mauvaises pour la liberté économique.

Bien sûr, je ne m’inquièterais pas si la société blairiste menait à une croissance plus rapide et donc à un plus gros gâteau pour tous. Malheureusement ce n’est pas le cas. C’est en fait plutôt l’opposé. Depuis le milieu des années 1990, la croissance du PIB par tête a ralenti.

Et cela peut s’expliquer par le virage blairiste. Simon a raison de dire que les super-riches s’engagent dans la quête de rentes. Mais cela n’est pas confiné aux choses comme l’ingérence d’Arron Banks dans la politique politique. Cela affecte aussi le monde du travail : la hausse de la rémunération des PDG s’est faite aux dépens des actionnaires et des travailleurs. Et il y a diverses raisons amenant à penser qu’une hausse de la part du revenu détenue par les super-riches réduit la croissance économique. Par exemple, elle mène à l’adoption de mauvaises politiques en réduisant la confiance.

Miles a peut-être raison lorsqu’il dit qu’il vaut mieux avoir une société avec de nombreux ultra-riches et sans pauvres plutôt qu’une société dans laquelle il y a de la pauvreté et aucun super-riche. Mais (…) cela omet une troisième option : une société dans laquelle il n’y a ni pauvres, ni super-riches. C’est ce que nous devrions rechercher.

Une dernière chose : Oui, je sais que le coefficient de Gini a chuté ces dernières années. Mais cela nous dit peu de choses : la société blairiste peut avoir un faible Gini parce qu’il y a un faible écart entre les classes moyennes et les pauvres même si les riches sont très riches. »

Chris Dillow, « Neither inequality nor poverty », in Stumbling & Mumbling (blog), 19 avril 2017. Traduit par Martin Anota

samedi 4 mars 2017

Une récession provoquée par des anticipations autoréalisatrices ?

« (...) Je me suis permis de conclure mon dernier cours par une note de réflexion. Je fais savoir que la macroéconomie a commis une erreur en ignorant le rôle de la finance avant la crise, mais je souligne aussi que la lenteur de la reprise qui s'ensuivit est en soi une confirmation du modèle macroéconomique de base : l’austérité est une mauvaise idée à la borne inférieure zéro (zero lower bound), l’assouplissement quantitatif (quantitative easing) n’a pas été inflationniste et les taux d’intérêt sur la dette publique n’ont pas augmenté, mais chuté.

Jusqu’à présent, cela semble familier. Mais je finis mon cours en montrant à mes étudiants le graphique suivant.

GRAPHIQUE Logarithme du PIB britannique et de sa tendance d’avant-crise

Wren-Lewis__Logarithme_du_PIB_britannique_et_de_sa_tendance_d_avant-crise.png

Et je dis que nous n’avons vraiment pas d’idée pour expliquer pourquoi il n’y a pas eu de reprise suite à la Grande Récession, qu’il y a donc encore plein de mystères irrésolus en macroéconomie. L’énigme nous laisse plus perplexe dans le cas du Royaume-Uni parce que la tendance d’avant-crise y était si stable, mais quelque chose de similaire s’est produit dans d’autres pays. Je pense que c’est tout à fait adéquat de finir mon cours avec cette une note d’humilité (et peut-être d’inspiration).

Une manière mécanique d’expliquer ce qui s’est passé est de briser la tendance : suggérer que le progrès technique a ralenti durablement. Cela signifie inévitablement que la période d’avant-crise est transformée en boom. Je me suis montré des plus sceptiques à propos de cette idée, mais je dois admettre qu’une partie de mon scepticisme vient des idées traditionnelles à propos de la façon par laquelle l’inflation se comporterait dans un boom.

Cependant une autre explication que j’ai toujours eu à l’esprit et que d’autres ont commencé à explorer est que peut-être nous sommes restés dans une période durable de demande insuffisante. La théorie keynésienne suggère qu’une telle possibilité peut survenir. Supposons que les entreprises et les consommateurs en viennent à croire que l’écart de production (output gap) est actuellement nul alors même qu’il ne l’est pas et qu’ils croient de façon erronée que la récession provoqua un changement significatif du PIB potentiel, mais aussi de son taux de croissance. Supposons aussi que les travailleurs au chômage reviennent eux-mêmes à l’emploi en réduisant leur salaire (réel) ou disparaissent en cessant de chercher un emploi. La première éventualité s’observe notamment si les entreprises choisissent des techniques de production plus intensives en travail : pour laver les voitures, elles peuvent remplacer les machines par des travailleurs avec des lances.

Dans cette situation, comment savons-nous que nous souffrons d’une insuffisance de la demande globale ? La réponse traditionnelle en macroéconomie est la déflation nominale : la chute des prix et des salaires. Mais parce que des travailleurs sont déjà revenu à l’emploi en acceptant une baisse de salaire, plus rien d’autre ne va venir du côté des salaires. Donc pourquoi est-ce que les entreprises réduiraient les prix ?

Si la tendance d’avant-crise s’applique toujours, cela signifie qu’il y a de nombreuses innovations attendant de s’incarner dans un nouvel investissement. Avec ce nouveau capital bien plus efficace en place, soit les entreprises accroîtraient leurs profits en vendant à leur marché existant, soit elles essaieraient d’accroître leur part de marché en vendant moins cher que leurs concurrents. Nous observerions alors une reprise tirée par l’investissement, accompagnée par une hausse de la productivité et peut-être une baisse des prix.

Mais supposons que les innovations ne soient pas suffisamment profitables pour générer une hausse des profits qui justifierait d’entreprendre l’investissement, même si les coûts d’emprunt sont faibles. Ce qui explique le mieux pourquoi le progrès technique incarné prend place, c’est peut-être le besoin de satisfaire un marché en croissance. L’entreprise doit installer de nouvelles capacités pour satisfaire la demande croissante que rencontre son produit et c’est alors qu’il apparaît nécessaire d’investir en équipements qui incarnent les nouvelles innovations. L’accélérateur reste un modèle empirique d’investissement très efficace. (…) Mais si les croyances sont telles que l’on ne s’attend pas à ce que le marché s’étende autant, parce que les entreprises croient que l’économie est "à la tendance" et que le taux de croissance est maintenant très faible, alors le besoin d’investir pour honorer un marché en croissance se fait moins pressant.

L’idée remonte bien sûr à Keynes et aux esprits animaux. D’autres ont plus récemment reformulé des idées similaires, notamment Roger Farmer. C’est un peu différent de l’idée d’ajouter une croissance endogène à un modèle keynésien, comme dans ce papier de Benigno et Fornaro par exemple. Je suppose dans cette discussion que la production potentielle n’a pas été perdue, parce que l’innovation n’a pas ralenti, mais qu’elle n’est simplement pas utilisée.

C’est cette possibilité qui est la raison pour laquelle j’ai toujours affirmé que les banques centrales et les gouvernements auraient dû être un peu plus ambitieux dans la stimulation de la demande globale après la Grande Récession. Comme j’ai déjà pu l’affirmer, mais d’autres aussi, vous n’avez pas à donner une très forte probabilité au scénario selon lequel la demande va créer de l’offre avant que cela justifie (…) de laisser l’économie aller en surchauffe. Chaque fois que je vois les données ci-dessus, je me demande si nous ne nous sommes pas infligés cela nous-mêmes par une combinaison d’austérité destructrice et de timidité. »

Simon Wren-Lewis, « A self-fulfilling expectations led recession? », in Mainly Macro (blog), 2 mars 2017. Traduit par Martin Anota



aller plus loin... lire « L’insidieux impact à court terme du ralentissement de la productivité »

vendredi 24 février 2017

NAIRU : une réponse aux critiques

« Quand j’ai écrit mon billet sur le bashing dont fait l'objet le NAIRU, j’avais principalement en tête quelques articles de presse que j’avais lus qui suggéraient de se débarrasser du concept au motif que nous aurions des difficultés à l’estimer de façon fiable. Ce que j’avais oublié, malheureusement, c’est que pour les économistes hétérodoxes d’une certaine trempe, le NAIRU est un mot qui met hors de soi (…). Mon billet a suscité des commentaires vraiment incroyables. (…) Je dois dire d’emblée que tout le monde n’a pas répondu de cette façon. Certains se sont montrés bien plus réfléchis et constructifs (notamment Jo Michell). Mais les réactions les moins réfléchies sont également intéressantes, d’une certaine façon.

Je dois rappeler ce qu’est le NAIRU, en particulier parce que les économistes hétérodoxes le confondent avec d’autres choses. Prenons une courbe de Phillips très simple :

inflation au cours d’une période = inflation attendue à la période suivante – aU + b

a est un paramètre et U une mesure de l’excès d’offre ou de demande dans l’économie. Le chômage sera une mesure de l’excès d’offre, mais il est loin d’en être une mesure parfaite. (…) b désigne un ensemble de variables qui varient lentement. Celles-ci peuvent inclure une mesure de la force des syndicats, de la mobilité du travail ou du degré de monopole sur le marché des biens. Nous définissons le NAIRU ainsi :

NAIRU = b/a

Si U est inférieur au NAIRU au cours d’une période prolongée, alors l’inflation va s’accroître, ce qui va amener les agents à réviser à la hausse leurs anticipations d’inflation, ce qui accroîtra en retour l’inflation, etc.

Le concept est utile pour les responsables de la politique économique impliqués dans la gestion de la demande globale. Ils doivent déterminer de combien ils peuvent pousser la demande avant que l’inflation commence à augmenter. S’il s’agit de banques centrales indépendantes, celles-ci doivent accepter le monde comme il est. Le NAIRU est une description de la façon par laquelle fonctionne l’économie : rien de plus, rien de moins. C’est pourquoi les affirmations selon lesquelles les économistes qui utilisent ou estiment le concept sont quelque peu responsables de ceux qui sont au chômage sont stupides.

Bien sûr, vous pouvez critiquer le concept du NAIRU, mais logiquement cela impose de critiquer la courbe de Phillips dont il est tiré. Il est aussi raisonnable d’affirmer que le concept est bien, mais que le NAIRU est si difficile à mesure qu’il serait mieux de ne pas chercher à l’estimer, ni de l’utiliser comme guide pour la politique économique. J’ai beaucoup de sympathie pour cette idée actuellement ; (…) j’ai d’ailleurs pu affirmer, dans le cas des Etats-Unis aujourd’hui, que les responsables de la politique économique doivent trouver le NAIRU en laissant l’inflation dépasser sa cible. Mais ce point de vue n’était pas pertinent dans mon précédent billet, qui portait sur le concept du NAIRU, pas sa mesure.

En ce qui concerne le concept, je pense que les attaques les plus cruciales viennent des réflexions à propos de l’hystérèse, comme Jo Michell le suggère. Mais même ici, nous ajoutons une complication à l’analyse du NAIRU ; nous ne remettons pas en cause celle-ci. Ce que l’hystérèse fait, c’est rendre extrêmement coûteuses les périodes où le chômage est supérieur au NAIRU. Cela signifie aussi qu’il est justifié de laisser le chômage aller en-deçà du NAIRU si cela permet de réduire le NAIRU lui-même.

J’aimerais finir par deux réflexions. La première concerne la modélisation du NAIRU. Il y a eu, suite au travail de Layard et de Nickell, toute une littérature empirique qui a cherché à modéliser des séries temporelles du NAIRU pour les pays de l’OCDE en utilisant des variables indirectes pour des choses comme le pouvoir syndical, le régime d’indemnisation et les problèmes géographiques d’appariement. Avec la domination de la méthodologie des microfondations, cette littérature s’est faite plus rare, même si dans une certaine mesure elle demeure à travers les modèles d’appariement. Je serais très intéressé de savoir si cette analyse de séries temporelles, potentiellement enrichie par les modèles d’appariement (…), a subsisté d’une façon ou d’une autre.

J’aimerais aussi revenir sur les réactions brutales qu’a suscité mon précédent billet (…) et sur l’hostilité présentée par certains économistes hétérodoxes (j’ai bien dit certains) vis-à-vis du concept. J’ai essayé d’identifier ce qui m’embête le plus avec cela. (…) Le concept du NAIRU ou, de façon équivalente, la courbe de Phillips sont centraux à la macroéconomie. Il est difficile d’enseigner à propos de l’inflation, du chômage et de la gestion de la demande sans y faire référence. Ceux qui essayent de fixer les taux d’intérêt dans les banques centrales indépendantes font, pour la plupart d’entre eux, ce qu’ils peuvent trouver comme équilibre optimale entre inflation et chômage.

Accepter le concept du NAIRU ne signifie pas que vous devez être d’accord avec leurs jugements. Mais si vous voulez affirmer qu’ils peuvent faire quelque chose de mieux, vous devez utiliser le langage de la macroéconomie. Vous pouvez dire, comme beaucoup l’ont fait autour de moi, que le NAIRU est soit bien plus faible que les estimations des banques centrales, soit qu’il est si incertain que ces estimations ne doivent pas influencer la politique économique. Mais si vous dites que le NAIRU doit être abandonné, cela ne vous mènera nulle part. (…) »

Simon Wren-Lewis, « The NAIRU: a response to critics », in Mainly Macro (blog), 14 février 2017. Traduit par Martin Anota

mercredi 22 février 2017

Il y a consensus des économistes sur l’austérité, mais les décideurs politiques continuent de l’ignorer

« Avec la publication d’une nouvelle étude rappelant à quel point l’austérité budgétaire peut être nocive, vous pourriez vous dire que certains politiciens vont bien finir par comprendre qu'elle l'est. La faiblesse de l'actuelle reprise a largement validé l’économie keynésienne, celle-là même qui domine l’économie orthodoxe. Les manuels et la macroéconomie de pointe disent bien qu’une réduction des dépenses publiques ne peut être qu’une très mauvaise idée lorsque les taux d’intérêt sont contraints par leur borne inférieure. Et chaque analyse réalisée ex post montre que cela a bien été le cas ces dernières années. Il est assez ironique de voir qu’à l’instant même où plusieurs articles parlent d’une "crise de la science économique", une expérience naturelle menée à grande échelle par les responsables politiques valide une grande partie de cette dernière.

Il y a trois grandes économies qui ont adopté l’austérité dans le sillage de la Grande Récession : les Etats-Unis, le Royaume-Uni et la zone euro. Est-ce que l’une d’entre elles est susceptible de bientôt reconnaître que cette généralisation de l'austérité a été une erreur ? Beaucoup croient qu’une telle prise de conscience a lieu actuellement aux Etats-Unis, mais ce serait confondre les actions et le raisonnement qu’elles sous-tendent. Si un plan de relance budgétaire était aujourd'hui adopté aux Etats-Unis, il ne le serait pas pour des motifs keynésiens. C’est notamment le cas parce que les taux d’intérêt augmentent et que la banque centrale n’a pas indiqué clairement qu’elle ne les relèvera pas à nouveau prochainement. Il y a toujours des arguments en faveur d’un large accroissement de l’investissement public financé par l’emprunt, mais il y a peu de chances qu'il soit mis en œuvre. Ce dont nous sommes sûrs, c’est qu’il y aura des réductions d’impôts, en particulier pour les riches, parce que c’est aujourd’hui le principal but de la politique économique républicaine. Parmi les Républicains, l’économie keynésienne reste l’œuvre du diable.

Le Royaume-Uni a aussi désespérément besoin d’investissements publics. En outre, le NHS appelle à une forte expansion budgétaire financée par l’impôt, qui contribuerait à éloigner les taux d’intérêt de leur borne inférieure. Mais les responsables politiques du Royaume-Uni n’ont qu’une chose en tête en ce moment : c’est le Brexit à n’importe quel prix. Nous le savons parce qu’ils ne s’intéressent à aucune autre option. Même si Dieu révélait (…) que le Brexit amputera 20 % de revenu au ménage moyen, la politique ne changerait pas de cap. Même si certains au gouvernement peuvent être tentés d’adopter un plan de relance pour dissimuler ces coûts, le Trésor garde d’une main de fer les cordons de la bourse. Jamais le gouvernement britannique n’a semblé si politiquement sûr et jamais il ne s’est jamais autant éloigné du bon sens économique.

Tous les problèmes de la zone euro ne découlent pas de la dénégation de la macroéconomie keynésienne. Comme Martin Sandbu l’affirme ici, ce qui s’est passé et continue de se passer en Grèce, c’est la vieille histoire du créancier refusant d’admettre qu’il a octroyé de mauvais prêts et pressant l'emprunteur de continuer de rembourser sans comprendre qu’il ne fait par là même qu’aggraver les choses. Mais, même ici, la méconnaissance des idées keynésiennes alimente cette ignorance. Un pays à qui l’on empêche de connaître une reprise suite à une récession aura bien plus de difficultés à trouver des ressources pour rembourser sa dette.

Cependant si vous observez très attentivement, vous pourrez voir certains signes suggérant que les choses sont en train de s’améliorer dans la zone euro. L’austérité budgétaire semble avoir cessé au niveau agrégé. Certains acteurs clés, même dans les institutions supranationales et les Etats-membres, commencent à comprendre que les politiques d’austérité ne peuvent qu’encourager le populisme. Mais il y a encore beaucoup de chemin à faire avant que soit mise en place la réforme la plus impérieuse, celle consistant à remplacer l’actuelle architecture budgétaire par quelque chose de plus keynésien, qui prenne en compte les erreurs passées.

S’il y a effectivement un changement, je doute que ce soit l’abandon du Pacte de Stabilité et du Pacte budgétaire, aussi désirable soit-il. Je pense que nous assisterons plutôt à un ajustement graduel du fouillis que constituent déjà toutes ces règles. L’ajustement n’a même pas à avoir des allures keynésiennes. Les politiques budgétaires et macroprudentielles nationales doivent se focaliser sur les écarts d’inflation entre chaque pays pris individuellement et la moyenne de la zone euro. Cela peut s’incarner dans une règle qui laisserait la possibilité à ce que la dette ou le déficit soient guidés par une cible lorsque l’inflation du pays se situe à la moyenne de l'union monétaire. Cette règle doit être symétrique vis-à-vis des écarts d’inflation, c’est-à-dire prescrire une expansion budgétaire aux pays-membres dont l’inflation est inférieure à la moyenne de la zone euro.

La complaisance des banques centrales indépendantes est également décevante. Nous avons eu la reprise la plus lente qui soit suite à une récession, avec des dommages durables sur l’offre à long terme, mais il est excusable de penser que nous sommes toujours dans la Grande Modération. Les banques centrales devraient chercher à comparer les vertus respectives des quatre principales façons d’éviter un autre épisode à la borne inférieure zéro : l’adoption d’une cible d’inflation plus élevée, les taux d’intérêt négatifs, le ciblage du PIB nominal ou la monnaie-hélicoptère. Elles doivent aussi cesser d’être si discrètes à propos de la politique budgétaire. Un tel silence rend un autre épisode à la borne inférieure zéro encore plus dangereux.

Certains se demandent pourquoi mes billets font ces derniers temps autant écho à la politique qu'à l’économie. Je suis d’accord, il y a eu un changement depuis 2015. Auparavant, j’aurais évoqué la parution d’une nouvelle étude sur les multiplicateurs budgétaires en la comparant avec la littérature existante et en examinant ses forces et ses faiblesses. Ces derniers jours sont quelque peu différents. J’espère qu’un jour ce savoir se révélera aux dirigeants, mais pour l’heure je crains que ces derniers cessent de financer ce savoir dont ils n’ont pas l’intention de se servir. Des fois, je me dis qu’écrire sur les détails relatifs aux estimations de multiplicateurs, c’est comme revoir la disposition des transats sur le Titanic. »

Simon Wren-Lewis, « The academic consensus on austerity solidifies, but policymakers go their own sweet way », in Mainly Macro (blog), 22 février 2017. Traduit par Martin Anota



aller plus loin... lire « Vers une théorie générale de l’austérité »

vendredi 17 février 2017

Le chômage, l’inflation et l'insaisissable NAIRU

« Le NAIRU désigne le niveau de chômage pour lequel l’inflation est stable. Depuis que les économistes ont inventé ce concept, beaucoup de gens se sont moqués des difficultés qu’il y a à le mesurer et du fait qu’il soit particulièrement élusif. Et leurs articles finissent souvent en concluant qu’il est temps que nous rejetions ce concept. Même de bons journalistes peuvent le faire. Mais peu de ces appels à rejeter le NAIRU répondent à cette question simple et évidente : comment pourrions-nous alors relier l’économie réelle à l’inflation ?

Il y a une exception : ceux qui suggèrent que tout ce dont nous avons besoin pour contrôler effectivement l’économie, c’est une ancre nominale, comme l’offre de monnaie ou le taux de change. Mais pour résumer une bien longue histoire, nous pouvons dire que les diverses tentatives pour y parvenir en pratique n’ont jamais très bien fonctionné. La plus récente tentative a été l’euro : adoptez simplement une devise commune et l’inflation de chaque pays-membre sera poussée à converger vers la moyenne ! Il n’y a pas eu une telle divergence, que ce soit en Allemagne ou dans les pays périphériques, ce qui a pu avoir de désastreuses conséquences.

Le NAIRU est l’un de ces concepts économiques qui sont essentiels pour comprendre l’économie, mais qui sont extrêmement difficiles à mesurer. Commençons par rappeler les raisons pour lesquelles il est difficile de le mesurer. Premièrement, le chômage lui-même n’est pas parfaitement mesuré (par exemple, certains chômeurs de longue durée cessent de rechercher un emploi par découragement, mais reviennent dans la population active lorsque la reprise se confirme et que les perspectives d’embauche s’améliorent) et il peut ne pas capturer l’idée qu’il est censé représenter, c’est-à-dire l’excès d’offre ou de demande sur le marché du travail. Deuxièmement, il ne se focalise que sur le seul marché du travail, alors que l’inflation peut aussi être liée à un excès de demande sur le marché des biens et services. Troisièmement, même si aucun de ces deux premiers problèmes n’existait, la façon par laquelle le chômage interagit avec l’inflation n’est pas claire.

La façon par laquelle les économistes ont réfléchi à propos de la relation entre chômage et inflation au cours des cinquante dernières années est la courbe de Phillips. Celle-ci dit que l’inflation dépend de l’inflation anticipée et du chômage. L’importance de l’inflation anticipée signifie que simplement relier le chômage à l’inflation va toujours se révéler chaotique. Je me souviens que dans l’une des premières éditions du manuel de Mankiw nous avions un joli graphique qui représentait cette relation pour les Etats-Unis et qui contredisait ce que je viens de dire : il montrait de claires "boucles de courbe de Phillips". Mais ce fut bien plus chaotique pour les autres pays et c’est devenu plus chaotique pour les Etats-Unis une fois que nous avons adopté le ciblage d’inflation (comme cela doit être le cas avec les anticipations rationnelles). Relisez ce billet pour les détails.

L’ubiquité de la courbe de Phillips des nouveaux keynésiens (CPNK) dans la macroéconomie courante ne doit pas nous induire en erreur en nous laissant penser que nous ayons finalement un vrai modèle d’inflation. La fréquence par laquelle il est utilisé reflète l’obsession avec la méthodologie des microfondations et le recul subséquent de l’analyse empirique. Nous savons que les travailleurs et les employeurs n’aiment pas les baisses de salaires nominaux, mais cette aversion ne transparait pas dans la courbe de Phillips des nouveaux keynésiens. Si la politique monétaire est contrainte par la borne inférieure zéro, la CPNK dit que l’inflation devrait devenir volatile, mais ce n’est pas ce que nous avons vu ces dernières années, comme l’a bien souligné John Cochrane.

Je pourrais continuer et apporter ma propre critique du NAIRU. Mais c’est là où le bât blesse. Si nous pensons réellement qu’il n’y a pas de relation entre le chômage et l’inflation, pourquoi essayons-nous de ramener le chômage sous les 4 % ? Nous savons que le gouvernement peut accroître la demande globale et réduire le chômage en augmentant ses dépenses. Et pourquoi voudrions-nous relever un jour ou l’autre les taux d’intérêt au-dessus de leur borne inférieure ? (…) Même si nous ne devons pas être obsédés par les années 1970, nous ne devons pas non plus l’oublier. Alors, les responsables de la politique économique faisaient fi du NAIRU, si bien que nous nous sommes retrouvés avec une inflation excessivement forte. En 1980, aux Etats-Unis et au Royaume-Uni, la politique économique changea, si bien que le chômage augmenta et l’inflation chuta. Il y a une relation entre l’inflation et le chômage, mais il est juste très difficile de la déterminer avec précision. Pour la plupart des macroéconomistes, le concept de NAIRU ne tient réellement que pour cette vérité macroéconomique fondamentale.

Pour offrir une critique plus subtile du NAIRU, nous pourrions avoir cela en tête, mais dire que, parce que la relation est difficile à mesure, nous devons arrêter d’utiliser le chômage comme guide pour fixer la politique monétaire. Focalisons-nous juste sur l’objectif, l’inflation, et changeons les taux selon ce qui se passe actuellement du côté de l’inflation. En d’autres termes, oublions la prévision et laissons la politique monétaire opérer tel un thermostat, en accroissant les taux lorsque l’inflation est au-dessus de sa cible et inversement.

Cela peut entraîner d’amples oscillations du chômage, mais il y a un problème plus sérieux. On a tendance à l’oublier, mais l’inflation n’est pas le seul objectif de la politique monétaire. Prenons ce qui se passe actuellement au Royaume-Uni. L’inflation s’accélère et on s’attend à ce qu’elle dépasse bientôt sa cible, mais la banque centrale a réduit les taux d’intérêt parce qu’elle s’inquiète davantage à propos de l’impact du Brexit sur l’économie réelle. Cela montre assez clairement que les responsables de la politique économique ciblent en réalité aussi bien une certaine mesure de l’écart de production (output gap) que l’inflation. Et ils ont plutôt raison de le faire, car pourquoi créer une récession juste pour lisser l’inflation ?

D’accord, donc ciblons juste une certaine moyenne pondérée de l’inflation et du chômage comme un thermostat. Mais quel niveau de chômage ? Il y a un danger, celui de montrer que nous tolérons une forte inflation si le chômage est faible. Nous savons que ce n’est pas une bonne idée, parce que l’inflation ne ferait qu’accélérer. Donc pourquoi ne pas cibler la différence entre le chômage et un certain niveau qui soit cohérent avec l’inflation stable ? (…) Une suggestion ? »

Simon Wren-Lewis, « NAIRU bashing », in Mainly Macro (blog), 17 février 2017. Traduit par Martin Anota

mardi 24 janvier 2017

Attaquer la science économique relève d’une tactique de diversion

« (…) La crise financière au Royaume-Uni a résulté des pertes que les banques ont réalisées sur leurs actifs étrangers, en raison de l’effondrement du marché du crédit subprime aux Etats-Unis. Elle n’a pas résulté d’un endettement excessif des ménages, des entreprises ou du gouvernement au Royaume-Uni. Comme Ben Broadbent, membre de la Banque d’Angleterre, a pu le dire, "en raison de l’exposition internationale de ses banques, le Royaume-Uni a été, d’une certaine façon, un 'importateur net' de la crise financière". Cette activité bancaire à l’étranger a provoqué une crise parce que les banques étaient bien trop endettées et qu’elles ne pouvaient ainsi absorber toutes ces pertes, si bien qu’elles durent être renflouées par le gouvernement.

C’est pourquoi les macroéconomistes britanniques ont échoué à déceler les signes avant-coureurs de la crise. Ils ont pourtant surveillé l’emprunt des ménages, des entreprises et des gouvernements, mais pas le levier d’endettement des banques. Les macroéconomistes reconnaissent généralement qu’ils ont commis une erreur en ignorant le rôle crucial que l’endettement du secteur financier peut jouer en influençant la macroéconomie. Il y a eu une forte hausse du volume d’études sur ces liens entre finance et économie réelle depuis la crise.

Mais supposons que les économistes aient pris conscience de ce que signifiait la hausse de l’endettement bancaire et qu’ils aient collectivement mis en garde contre les dangers d’une prise de risque excessive que cela représentait. Est-ce que cela aurait fait une quelconque différence ? Il y a de bonnes raisons de penser que non.

Ce qui s’est passé après la crise en constitue une bonne preuve empirique. Admati et Hellweg ont écrit de façon très convaincante que nous avions besoin de fortement relever les exigences en capital au sein des banques pour mettre un terme au problème des institutions "trop grosses pour faire faillite" (too big to fail) et éviter une future crise financière, et le travail de David Miles au Royaume-Uni délivre le même message. Je n’ai pas rencontré un seul économiste universitaire qui se soit sérieusement opposé à cette analyse, mais cette dernière n’a eu aucun impact sur la politique. Le pouvoir du lobby bancaire est simplement trop puissant.

Donc, la réponse des économistes à la crise financière a été ce qu’elle a devait être. Ils ont réparé l’erreur qu’ils ont commise en négligeant l’endettement bancaire. Les économistes ont fait plusieurs propositions afin d’éviter que la crise se répète. Et ces propositions ont été joliment ignorées.

En termes de politique monétaire (conventionnelle) et de politique budgétaire, les économistes universitaires avaient formulé la bonne réponse face à la crise, mais les responsables politiques ont agi autrement. Les banques centrales, remplies d’économistes, assouplirent au maximum leur politique monétaire. Elles alimentèrent ainsi la création monétaire et ignorèrent ceux qui prédirent que cela se traduirait immédiatement par une hyperinflation. Plusieurs économistes, certainement une majorité d’entre eux, étaient favorables à une relance budgétaire, du moins aussi longtemps que les taux d’intérêt butaient sur leur borne inférieure. Mais ils furent ignorés par les responsables politiques, qui optèrent en 2010 pour une généralisation de l’austérité.

Donc, compte tenu de tout cela, pourquoi certains continent-ils de s’en prendre aux économistes ? A gauche, il y a les économistes hétérodoxes qui ne veulent rien de moins qu’une révolution, le renversement de l’économie orthodoxe. (…) Ils veulent faire croire aux gens que la version expurgée de l’économie utilisée par les néolibéraux pour soutenir leur idéologie correspond en fait à l’économie orthodoxe.

D’un autre côté, la droite se retrouve dans une situation inconfortable lorsque l’économie fondée sur l’empirique entre en conflit avec leur politique. Sa réponse consiste à s’en prendre aux économistes. Ce n’est pas un phénomène nouveau (…). Avec l’austérité budgétaire, elle s’est contentée de ne mettre en avant que la minorité d’économistes qui la soutenait, puis elle a mis en œuvre une politique avec laquelle même certains économistes de cette minorité étaient en désaccord (par exemple, Kenneth Rogoff ne soutint pas les réductions de l’investissement public en 2010-2011 au Royaume-Uni qui occasionnèrent par la suite de profonds dommages à l’économie britannique). Les médias ont fait le reste du boulot en donnant peu la parole à la majorité des économistes, celle qui ne soutenait pas l’austérité.

Les coûts économiques du Brexit constituent le dernier exemple en date. Les critiques se sont focalisés sur les prédictions les plus incertaines et les moins importantes à propos du Brexit, faites par quelques uns, pour s’attaquer à l’ensemble de l’analyse du Brexit. Le fait que cette prédiction impliquait une prévision macroéconomique non conditionnelle, alors que l’évaluation faite par plusieurs groupes à propos du coût à long terme implique une projection conditionnelle basée essentiellement sur des équations du commerce, semble avoir complètement échappé aux critiques. Surtout, ces critiques ignorent complètement le fait que la dépréciation prédite de la livre sterling se soit produite et qu’elle contribue déjà à fortement réduire les niveaux de vie.

Attaquer les économistes sur le Brexit permet de discréditer ceux qui souligner les vérités qui dérangent. Continuer d’attaquer les économistes pour ne pas avoir prédit la crise financière, mais persister à ne pas reconnaître leurs succès a pour effet de détourner l’attention des gens du groupe qui a effectivement provoqué la crise et leur occulter le fait que très peu de choses ont été faites pour empêcher la survenue d’une crise similaire dans un futur plus ou moins proche. »

Simon Wren-Lewis, « Attacking economics is a diversionary tactic », in Mainly Macro (blog), 21 janvier 2017. Traduit par Martin Anota

dimanche 15 janvier 2017

Quels modèles utiliser en macroéconomie ?



« (…) Nous avons besoin de différentes classes de modèles, et ce afin de réaliser des tâches différentes.

Je vais me focaliser sur deux classes de modèles.

Les modèles théoriques, visant à clarifier les questions théoriques dans un cadre d’équilibre général. Les modèles de cette classe doivent se construire à partir d’un cadre analytique fondamental et avoir une structure théorique des plus robustes. Ils doivent être utilisés pour réfléchir, par exemple, aux effets d’un relèvement des ratios minima de capitaux que la réglementation impose aux banques, aux effets de la gestion de la dette publique ou encore aux effets d’une forme particulière de politique monétaire non conventionnelle. Ce cadre fondamental doit être celui qui est largement accepté comme point de départ et il doit pouvoir intégrer des distorsions additionnelles. En bref, il doit faciliter le débat autour des théoriciens en macroéconomie.

Les modèles de politique économique, visant à analyser les questions de politique macroéconomique courantes. Les modèles de cette classe doivent coller aux principales caractéristiques des données, notamment les dynamiques, et permettre de réaliser une analyse, notamment contrefactuelle, des politiques économiques. Ils doivent être utilisés pour réfléchir, par exemple, aux effets quantitatifs d’un ralentissement de la croissance chinoise sur l’économie américaine ou aux répercussions d’une relance menée aux Etats-Unis sur les pays émergents.

Ce serait une bonne chose si un unique modèle pouvait avoir une structure théorique robuste, élégante, tout en collant aux données. Mais c’est un rêve vain. Peut-être que l’une des principales leçons du travail empirique (du moins en macroéconomie et d’après mon expérience) est à quel point les preuves empiriques sont chaotiques, à quel point les dynamiques agrégées sont difficiles à rationaliser et à quel point plusieurs relations sont instables au cours du temps. Ce n’est peut-être pas surprenant. Nous savons, par exemple, que les relations agrégées peuvent très peu ressembler aux comportements individuels sous-jacents.

Donc, les modèles qui visent à atteindre ces deux objectifs sont condamnés à échouer, sur les deux dimensions.

Prenons les modèles théoriques. Les concepteurs de modèles DSGE, confrontés à des dynamiques complexes, mais désireux de coller aux données, ont étendu leur structure originelle en ajoutant, par exemple, la persistance externe des habitudes (pas simplement la persistance des vieilles habitudes régulières), les coûts d’un changement de l’investissement (pas seulement les coûts de changement du capital) et l’indexation des prix (que nous ne pouvons observer dans la réalité), etc. Ces changements sont entièrement ad hoc, ils ne collent pas aux données empiriques microéconomiques et ils ont alourdi et fragilisé la structure théorique des modèles.

Prenons aussi les modèles de politique économique. Les concepteurs de ces modèles, désireux de renforcer la structure théorique de leurs modèles, ont, dans certains cas, cherché à dériver les structures observées d’une certaine forme d’optimisation. Par exemple, dans le principal modèle utilisé par la Réserve fédérale, le modèle FRB-US, les équations dynamiques sont contraintes à être des solutions aux problèmes d’optimisation sous des structures de coûts d’ajustement de premier ordre. Cela m’a frappé. Les dynamiques actuelles reflètent probablement plusieurs autres facteurs que les coûts d’ajustement. Et les contraintes qui sont imposées (par exemple, sur la façon par laquelle le passé et le futur anticipé entrent dans les équations) ont peu de justification, théorique ou empirique.

Que doit-on faire ? Je suggère que chacune des deux classes de modèles suive sa propre voie.

Les concepteurs de modèles DSGE doivent accepter le fait que les modèles théoriques ne peuvent, et donc ne doivent pas, coller fidèlement à la réalité. Ces modèles doivent capturer ce que nous croyons être les caractéristiques macroéconomiques essentielles du comportement des firmes et des ménages et ne pas essayer de capturer toutes les dynamiques pertinentes. Ce n’est seulement alors qu’ils peuvent atteindre leur propos, rester suffisamment simples et fournir une plateforme pour la discussion théorique.

Les modélisateurs de politique économique doivent accepter le fait que les équations qui collent vraiment aux données peuvent n’avoir qu’une fragile justification théorique. En cela, les concepteurs des premiers modèles macroéconomiques avaient raison : la théorie du revenu permanent, la théorie du cycle de vie, la théorie du ratio q ont servi de guides pour spécifier le comportement de la consommation et de l’investissement, mais les données ont ensuite déterminé les spécifications finales.

Les deux classes de modèles doivent clairement interagir et bénéficier l’une de l’autre. Pour utiliser une expression suggérée par Ricardo Reis, il doit y avoir une co-intégration scientifique. Mais, selon moi, cela s’est révélé être contreproductif d’atteindre une intégration complète. Aucun modèle ne peut satisfaire pleinement tout le monde. »

Olivier Blanchard, « The need for different classes of macroeconomic models », 12 janvier 2017. Traduit par Martin Anota



« Dès que j’ai commencé à bloguer, j’ai régulièrement écrit des billets sur la méthodologie macroéconomique. J’ai notamment cherché à convaincre les autres macroéconomistes que les modèles économétriques structurels, avec leur mixture ad hoc de théorie et de données, n’étaient pas un vieux dinosaure à ranger aux oubliettes, mais qu’ils offraient une façon parfaitement viable de faire de la macroéconomie et de la politique macroéconomique. Je suis bien placé pour le dire car, au cours de ma carrière, j’ai utilisé aussi bien des modèles économétriques structurels que des modèles DSGE dans les articles que j’ai publiés.

Le troisième billet d’Olivier Blanchard sur les modèles DSGE fait exactement la même chose. Il est quelque peu confus lorsqu’il les appelle "modèles de politique économique" ; lorsqu’il écrit que "les modèles de cette classe doivent coller aux principales caractéristiques des données, notamment les dynamiques, et de permettre une analyse, notamment contrefactuelle, de la politique économique", il ne peut que faire référence aux modèles économétriques structurels. Je préfère les modèles économétriques structurels aux modèles de politique économique parce que les modèles économétriques structurels décrivent ce qu’il y a dans la boîte : ils sont qualifiés de "structuraux" parce qu’ils utilisent beaucoup de théorie, mais on les qualifie également d’"économétriques" parce qu’ils essayent de coller aux données et ils y parviennent. (…)

La façon par laquelle j’estimerais un modèle économétrique structurel aujourd’hui (mais pas nécessairement la seule façon valide) serait de commencer avec un modèle DSGE élaboré. Mais plutôt que d’estimer ce modèle en utilisant des méthodes bayésiennes, je l’utiliserais comme une base théorique, avec laquelle je débuterais le travail économétrique, soit sur une base équation par équation, soit comme un ensemble de sous-systèmes. Là où les structures de retard ou les restrictions inter-équation seraient clairement rejetées par les données, je changerais le modèle pour coller davantage aux données. Si certaines variables, non incluses dans la spécification DSGE, présentaient un fort pouvoir pour expliquer variables déjà incluses et auraient selon moi une relation causale avec celles-ci (c’est-à-dire pourquoi la spécification DSGE était inadéquate), je les inclurais dans le modèle. Cela deviendrait le modèle économétrique structurel.

Si cela vous semble terriblement ad hoc, c’est parce que c’est le cas. Les modèles économétriques structurels sont un mélange éclectique de théorie et de données. Mais ils vont toujours être utiles aux universitaires et aux responsables de la politique économique qui veulent travailler avec un modèle qui est raisonnablement proche des données. Ceux que j’appelle les puristes DSGE doivent admettre que les modèles DSGE ne collent pas aux données en plusieurs domaines, donc qu’ils sont mal spécifiés et que tout conseil de politique économique qu’ils peuvent délivrer est invalide. Le fait qu’ils satisfont la critique de Lucas ne suffit pas pour compenser cette mauvaise spécification.

En établissant la relation entre un modèle DSGE et un modèle économétrique structurel de la façon que je l’ai fait, cela rend manifeste pourquoi les deux types de modèles vont continuer d’être utilisés et comment les modèles économétriques structurels peuvent s’inspirer des modèles DSGE. Les modèles économétriques structurels sont aussi utiles pour le développement des modèles DSGE, dans la mesure où les écarts qu’ils présentent par rapport à ces derniers fournissent une longue liste d’énigmes potentielles sur lesquelles les théoriciens utilisant les modèles DSGE peuvent enquêter. Peut-être qu’un jour les modèles DSGE colleront tellement bien aux données que nous n’aurons plus besoin des modèles économétriques structurels, mais ce n’est pas pour demain.

Est-ce que ce que Blanchard et moi-même appelons va finir par se réaliser ? C’est déjà ce qui se fait dans une large mesure au sein de la Fed : comme Blanchard le dit, ce qui constitue effectivement son modèle est un modèle économétrique structurel. La Banque d’Angleterre utilise un modèle DSGE et le comité de politique monétaire recevrait plus de conseils utiles de son équipe si ce modèle était remplacé par un modèle économétrique structurel. Le vrai problème est avec l’université et surtout (comme Blanchard l’a identifié dans un billet précédent) les éditeurs de revues. Bien sûr, la plupart des universitaires vont continuer d’utiliser des modèles DSGE, ce qui ne me pose pas de problème en soi. Par contre, ceux qui utilisent, non pas un modèle DSGE, mais un modèle économétrique structurel, ne doivent pas être systématiquement écartés des revues les plus prestigieuses. Ils le sont actuellement et je ne suis pas sûr (malgré l’intervention de Blanchard) que cela changera bientôt. »

Simon Wren-Lewis, « Blanchard joins calls for structural econometric models to be brought in from the cold », in Mainly Macro (blog), 15 janvier 2017. Traduit par Martin Anota

- page 1 de 8