Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - nouveaux classiques

Fil des billets

lundi 21 novembre 2016

Macroéconomie et idéologie

« Jo Michell a écrit un long billet dans lequel il amorce un débat avec Ann Pettifor et moi-même sur le rôle de la macroéconomie orthodoxe derrière l’austérité budgétaire. Ann estime que la macroéconomie orthodoxe est en grande partie responsable de l’austérité et Michell se montre largement de son avis. J’ai beaucoup de respect pour Michell lorsqu’il cherche à combler le fossé entre l’économie orthodoxe et les courants hétérodoxes, mais là, je pense qu’il se trompe à propos de l’austérité et qu’il peint une image haussée de l’histoire de la pensée économique.

Commençons avec l’austérité. Je pense qu’il serait d’accord à l’idée que le modèle de cycle d’affaires qui a fait consensus parmi les keynésiens pendant les deux dernières décennies est le modèle des nouveaux keynésiens. Ce modèle est absolument clair en ce qui concerne l’austérité. A la borne inférieure zéro (zero lower bound), vous ne devez pas réduire les dépenses publiques. Il n’y a ni "si", ni "mais".

Donc pour on ne peut affirmer que la macroéconomie orthodoxe plaidait en faveur l’austérité que si l’on affirme que les économistes orthodoxes pensaient que le modèle des nouveaux keynésiens était fondamentalement déficient. Cela n’a absolument pas été le cas. Michael Woodford est l’un des plus grands macroéconomistes de ces deux dernières décennies, si ce n’est le plus grand. Son livre est en quelque sorte la Bible pour tous ceux qui utilisent le modèle des nouveaux keynésiens. En juin 2010, il a publié "Simple Analytics of the Government Expenditure Multiplier", où il montre que la hausse des dépenses publiques peut s’avérer particulièrement efficace à la borne inférieure zéro. L’intérêt de ce papier pour ceux qui travaillent dans ce domaine était de montrer, non pas que cette forme de politique budgétaire aurait une certain efficacité (chose qui était évidente pour tous ceux qui, comme moi, travaillaient sur la politique monétaire et la politique budgétaire en utilisant le modèle des nouveaux keynésiens), mais qu’elle puisse générer de très larges multiplicateurs.

Le consensus universitaire selon lequel l’austérité ne pouvait être que nuisible et la relance budgétaire efficace est une raison majeure expliquant pourquoi les autorités adoptèrent une relance budgétaire au Royaume-Uni et aux Etats-Unis en 2009, et même pourquoi le FMI plaidait lui-même cette année-là en faveur d’une relance budgétaire. Il y avait toutefois certains, en particulier à Chicago, qui s’élevaient contre cette relance, mais, comme DeLong, Krugman et moi-même l’avions remarqué, ils ont simplement prouvé leur ignorance du modèle des nouveaux keynésiens. Krugman, en particulier, est très familier de la macroéconomie à la borne inférieure zéro, notamment en raison de ses travaux sur la décennie perdue du Japon.

Ce ne sont pas d’éventuelles clameurs de la part des macroéconomistes universitaires orthodoxes qui ont mis un terme à ce consensus en 2010, mais deux événements bien précis : la crise de la zone euro et la victoire de la droite au Royaume-Uni et aux Etats-Unis.

Michell prétend que parce que la question de la borne inférieure zéro n’était pas dans les manuels macroéconomiques, elle ne faisait pas partie du consensus. Mais tout le monde sait que les manuels sont en retard de plusieurs décennies et beaucoup basent toujours leur enseignement à partir du modèle IS-LM plutôt qu’à partir du modèle des nouveaux keynésiens. Maintenant il se peut que les responsables politiques de droite aient réellement été induits en erreur par ce qui est enseigné dans ces manuels et que ce ne fut qu’une simple coïncidence que ces responsables politiques aient choisi les réductions des dépenses publiques plutôt que les hausses d’impôts (et plus tard les réductions d’impôts !), mais cela semble peu probable. Vous n’avez pas nécessairement à travailler dans ce champ pour comprendre que le consensus en vigueur avant la crise financière, celui selon laquelle il fallait privilégier les variations de taux d’intérêt pour stabiliser l’activité, dépendait de la capacité à faire varier les taux d’intérêt.

S’écartant de la question de l’austérité, le billet de Michell affirme que la macroéconomie orthodoxe a toujours été fortement influencée par l’idéologie néolibérale. Pour ce faire, il donne un bref compte-rendu de l’histoire de la macroéconomie après la Seconde Guerre mondiale, qui a Friedman, un membre bien connu de la Société du Mont-Pèlerin, comme son meneur, du moins avant que la nouvelle école classique n’arrive. Il y a beaucoup de choses à dire ici, mais je vais me contenter de souligner deux points.

Premièrement, l’idée selon laquelle l’économie keynésienne concerne des épisodes de court terme de demande excessive ou insuffisante plutôt que la stagnation permanente datait d’avant Friedman et remontait aux premières tentatives visant à formaliser l’économie keynésienne. C’est ce qu’on appela le consensus néoclassique. C’est pour cette raison que le keynésien Robert Solow proposa une modélisation de la croissance qui supposait le plein emploi.

Deuxièmement, les débats autour du monétarisme dans les années soixante-dix ne portaient pas sur la validité de ce modèle keynésien, mais sur ses paramètres et l’activisme de la politique économique. Les propres contributions de Friedman à la théorie macroéconomique, telles que l’hypothèse du revenu permanent et la courbe de Phillips augmentée des anticipations, n’orientent pas forcément la théorie dans une direction néolibérale. (…) Et Friedman n’approuvait certainement pas les idées des nouveaux classiques en matière de politique macroéconomique.

Michell se rapproche peut-être de la vérité lorsqu’il affirme que l’esprit néolibéral des années quatre-vingt a peut-être eu quelque chose à voir avec le succès de la nouvelle école classique, mais je ne pense pas que ce soit du tout central. Comme je l’ai affirmé à plusieurs reprises, la révolution menée par les nouveaux classiques a réussi parce que les anticipations rationnelles faisaient sens aux yeux des économises habitués à appliquer la rationalité dans leur microéconomie et, une fois que vous acceptez les anticipations rationnelles, alors vous comprenez qu’il y a de sérieux problèmes avec le consensus keynésien qui dominait alors. Je pense que vous pouvez essayer d’affirmer qu’il y a un lien entre l’attrait des microfondations comme méthodologie et le néolibéralisme, mais je pense que ce serait un peu exagéré.

Cela m’amène à mon ultime remarque. Michell note que j’ai suggéré une influence idéologique derrière le développement de la théorie des cycles d’affaires réels, mais il se demande pourquoi je m’arrête là. Il écrit ensuite : "Il est par conséquent quelque peu étrange que, lorsqu’il discute de la relation entre l’idéologie et l’économie, Wren-Lewis choisisse de tracer une frontière entre ceux qui utilisent un modèle DSGE à prix visqueux des nouveaux keynésiens et ceux qui utilisent une version à prix flexibles des nouveaux classiques. Comme le suggère Wren-Lewis, les croyances de ce dernier seraient idéologiques, alors que les membres du premier groupe s’appuieraient sur une science libérée de l’idéologie. Cela me semble bien arbitraire. La justification de Wren-Lewis est que, malgré les preuves empiriques, le modèle des cycles d’affaires réels dénie la possibilité du chômage involontaire. Mais la version à prix visqueux des nouveaux keynésiens (qui dénie tout rôle aux inégalités, à la finance, à la monnaie, à l’activité bancaire, à la liquidité, aux défauts, au chômage de long terme, à l’usage de la politique budgétaire pour quitter la trappe à liquidité, les effets d’hystérèse du côté de l’offre et plein d’autres choses) serait selon lui acceptable".

Michell passe à côté d’une distinction cruciale. Le propos de la théorie des cycles d’affaires réels était de montrer que les cycles d’affaires réels constituent juste une réponse optimale à des chocs technologiques dans un monde où les marchés s’ajustent continuellement. Cela revenait à dénier un aspect fondamental des cycles d’affaires : le chômage involontaire. Il est absurde d’affirmer que la théorie des nouveaux keynésiens dénie toutes les choses de la liste de Michell. Ce n’est pas parce que l’on fait abstraction de quelque chose que l’on dénie celui-ci. Le modèle de Solow ne dénie pas l’existence de cycles d’affaires, mais il suppose juste (à tort ou à raison) qu’ils ne sont pas essentiels pour saisir les aspects de la croissance économique à long terme. Michell a raison lorsqu’il dit que le modèle de base des nouveaux keynésiens n’inclut pas le chômage involontaire, mais il n’y a rien dans le modèle des nouveaux keynésiens qui dénie cette possibilité. En fait, il est même assez facile d’élaborer un modèle qui le fasse apparaître.

Pourquoi le modèle de base des nouveaux keynésiens n’inclut-il pas le chômage involontaire ? La meilleure chose que l’on puisse lire à ce sujet se trouve dans la Bible de Woodford. L’idée fondamentale est de se focaliser sur un modèle qui permet aux variations de la demande globale d’être la force conductrice derrière les cycles d’affaires. Je pense que c’est vrai : c’est bien la demande globale qui génère ces cycles et le chômage involontaire en est une conséquence. Ou, pour le dire autrement, vous pouvez toujours obtenir des cycles d’affaires, même si le marché du travail est toujours à l’équilibre.

Il est plutôt tiré par les cheveux de suggérer, comme Michell semble le faire, que le développement des modèles des nouveaux keynésiens a quelque chose à voir avec la politique de la troisième voie de Tony Blair et de Bill Clinton. C’était la réponse inévitable à la théorie des cycles d’affaires réels, à son refus d’incorporer la rigidité des prix (alors même que les données empiriques confirment cette dernière) et à son incapacité à faire apparaître un chômage involontaire.

C’est tout. (…) Je ne pense pas non plus (…) que l’influence idéologique soit confinée aux pans de la macroéconomie associés à la nouvelle école classique. Mais, de la même façon qu’il est absurde de dénier une telle influence, il est erroné d’imaginer que la discipline et l’idéologie sont inextricablement liées l’une à l’autre. La généralisation de l’austérité en 2010 en est une preuve. »

Simon Wren-Lewis, « Macroeconomics and Ideology », in Mainly Macro (blog), 16 novembre 2016. Traduit par Martin Anota

mercredi 28 septembre 2016

Wren-Lewis, les microfondations et la critique de Romer

Paul Romer sur la macroéconomie


« C’est ironique de voir que le projet des microfondations, qui devait faire de la macroéconomie une autre application de la microéconomie, a laissé la macroéconomie avec très peu d’amis parmi les autres économistes. La dernière diatribe en date vient de Paul Romer. Oui, elle est injuste et, oui, elle est truffée de passages peu convaincants, mais il ne sera pas ignoré par ceux qui sont en-dehors de la macroéconomie orthodoxe. C’est en partie parce qu’il discute de questions sur lesquelles la macroéconomie moderne est extrêmement vulnérable.

La première vulnérabilité est son traitement des données. Ce que dit Paul sur l’identification montre que la macroéconomie a besoin d’utiliser toutes les informations précises dont elle a à disposition pour paramétrer ses modèles. Pourtant, les modèles microfondés, les seuls modèles que l’on considère comme acceptables dans les revues les plus prestigieuses pour l’analyse théorique comme pour l’analyse empirique, sont normalement plutôt sélectifs en ce qui concerne les données sur lesquelles ils se focalisent. Les preuves empiriques tant micro que macro sont soit ignorées parce qu’elles sont considérées comme gênantes, soit inscrites sur une liste de choses à faire pour de futures recherches. C’est une conséquence inévitable lorsque l’on fait de la cohérence interne un critère d’admissibilité pour qualifier un travail de publiable.

La seconde vulnérabilité est un conservatisme qui découle de sa méthodologie. Le critère des microfondations pris dans sa forme stricte rend certains processus impossibles à modéliser : par exemple, modéliser les prix visqueux où les coûts de menus constituent un paramètre clé. Plutôt, la modélisation DSGE utilise des astuces, comme les contrats de Calvo. Mais qui décide si ces astuces représentent des microfondations acceptables ou bien des éléments ad hoc, voire invraisemblables ? La réponse dépend pour beaucoup des conventions en vigueur parmi les macroéconomistes or, comme toutes les conventions, celles-ci évoluent lentement. A nouveau, c’est un problème qui découle de la méthodologie des microfondations.

Les propos que Romer tient à propos des effets réels de la politique monétaire et de l’insistance que certains portent aux chocs de productivité comme moteurs des cycles d’affaires sonnent datés. (…). Pourtant il fallut beaucoup de temps pour que les modèles de cycles d’affaires réels soient remplacés par les modèles des nouveaux keynésiens et vous verrez toujours des modèles de cycles d’affaires réels. Des éléments issus de la contre-révolution néoclassique des années quatre-vingt persistent toujours dans certains lieux. Il y a quelques années j’ai entendu parler à un séminaire d’une analyse où la crise financière était modélisée comme un large choc négatif de productivité.

C’est seulement dans une discipline qui considère qu’avoir de robustes microfondations constitue la seule manière acceptable de modéliser que des praticiens se sentent peu à l’aise à l’idée d’inclure les prix visqueux au motif que leurs microfondations (les astuces mentionnées ci-dessus) soient problématiques. C’est seulement dans cette discipline que des chercheurs respectés affirment qu’en raison de ces piètres microfondations il vaut mieux ignorer quelque chose comme les prix visqueux quand il s’agit de travailler sur les politiques, un argument qui ferait bien rire si on l’entendait dans une autre discipline scientifique. C’est la seule discipline où l’on débat pour déterminer s’il vaut mieux modéliser ce que l’on peut microfonder plutôt que modéliser ce que l’on voit. D’autres économistes comprennent le problème, mais plusieurs macroéconomistes pensent toujours que tout cela est assez normal. »

Simon Wren-Lewis, « Paul Romer on macroeconomics », in Mainly Macro (blog), 20 septembre 2016. Traduit par Martin Anota



Qu’est-ce qui ne va pas avec le modèle des cycles d’affaires réels ?


« Les modèles DSGE, les modèles que les macroéconomistes orthodoxes utilisent pour modéliser les cycles d’affaires, sont fondés sur le modèle des cycles d’affaires réels. Nous savons (presque) tous que le projet des cycles d’affaires réels a échoué. Donc pourrait-on trouver acceptable d’avoir quelque chose qui se fonderait sur un tel modèle ? Comme le dirait Donald Trump, que se passe-t-il ?

Le modèle de cycles d’affaires réels de base contient une fonction de production reliant la production au capital (possédé par les individus) et au travail plus un élément stochastique représentant le progrès technique, une identité reliant l’investissement et le capital, une identité du revenu national posant la production comme la somme de la consommation et de l’investissement, les conditions de productivité marginale (découlant de la maximisation du profit par des entreprises représentatives en environnement parfaitement concurrentiel) donnant le salaire réel et le taux d’intérêt réel et le problème d’optimisation du consommateur représentatif pour la consommation, l’offre de travail et le capital.

Quel est le gros problème avec ce modèle ? (…) Ignorons le capital, parce que dans le modèle canonique des nouveaux keynésiens le capital n’apparaît pas. Si vous dites que c’est le rôle proéminent conféré aux chocs associés au progrès technique, je vous dirais que je suis d’accord pour dire que c’est un gros problème : toutes les équations comportementales doivent contenir des événements stochastiques qui peuvent aussi générer un choc dans cette économie, mais les modèles des nouveaux keynésiens le font à divers degrés. Si vous dites que c’est l’hypothèse d’équilibrage du marché du travail, je vous dirais que c’est aussi un gros problème. Cependant, à mes yeux, rien de tout cela ne constitue le plus grand problème avec le modèle des cycles d’affaires réels. Le plus gros problème, c’est l’hypothèse d’ajustement continu des marchés des biens et services, autrement dit l’hypothèse de prix pleinement flexibles. C’est l’hypothèse qui amène à conclure que la politique monétaire n’a pas d’impact sur les variables réelles. Maintenant, un modélisateur de cycles d’affaires réels pourrait répondre : comment le savez-vous ? Sûrement qu’il fait sens de voir si un modèle qui suppose une flexibilité des prix peut générer quelque chose comme des cycles d’affaires ?

La réponse à cette question est non, il ne le fait pas. Il ne le fait pas parce que nous savons qu’il ne le peut pas pour une simple raison : le chômage lors d’une récession est involontaire et ce modèle ne peut générer de chômage involontaire, mais seulement des variations volontaires de l’offre de travail, en conséquence des variations à court terme du salaire réel. Une fois que vous acceptez le fait que le chômage lors des récessions est involontaire (et les preuves empiriques en faveur d’une telle idée sont très robustes), vous comprenez pourquoi le projet des cycles d’affaires réels ne marche pas.

Donc pourquoi les modèles de cycles d’affaires réels n’ont-ils jamais décollé ? Parce que la révolution des nouveaux classiques a prétendu que toutes les choses que nous connaissions avant elle devaient être écartées au motif qu’elles ne s’appuyaient pas sur la bonne méthodologie. Mais aussi parce que la bonne méthodologie, en l'occurrence la méthodologie des microfondations, permit au chercheur de sélectionner quelles preuves empiriques (micro ou macro) étaient admissibles. Cela, à son tour, explique pourquoi la méthodologie des microfondations s’est retrouvée au centre de toute critique de la macroéconomie moderne. Je laisse sous silence pourquoi les modélisateurs de cycles d’affaires réels ont écarté les preuves empiriques montrant que le chômage est involontaire.

Le modèle des nouveaux keynésiens, bien qu’il n’ait peut-être ajouté qu’une seule équation au modèle des cycles d’affaires réels, a réussi à corriger sa principale faille : son échec à reconnaître le savoir prérévolutionnaire à propos de ce qui provoque les cycles d’affaires et de ce que vous devez faire pour les combattre. Dans ce sens, le fossé qu’il a creusé avec l’héritage qu’il tire de la théorie des cycles d’affaires réels a été profond. Est-ce que l’analyse des nouveaux keynésiens est toujours entravée par sa filiation avec la théorie des cycles d’affaires réels ? La réponse est complexe (voir par exemple ici) et elle tient à la fois du oui et du non. Mais à nouveau, je serais plutôt enclin à affirmer que ce qui entrave davantage les avancées de la macroéconomie moderne est sa dépendance à une méthodologie très particulière.

Un dernier point. Beaucoup de personnes en dehors de la macroéconomie orthodoxe aiment décrire la modélisation DSGE comme une stratégie de recherche dégénérative. Je pense que c’est une affirmation très difficile à étayer et qu’elle n’est pas convaincante aux yeux des économistes orthodoxes. Ce que j’affirme par contre, (…) c’est qu’il n’y a pas de bonne raison justifiant pourquoi la modélisation des microfondations devrait être la seule stratégie de recherche employée par les économistes universitaires. Je mets au défi quiconque de mettre en doute cette idée. »

Simon Wren-Lewis, « What is so bad about the RBC model? », in Mainly Macro (blog), 20 août 2016. Traduit par Martin Anota

lundi 15 août 2016

Le fabuleux destin du multiplicateur budgétaire



« Au sommet de la crise de la zone euro, lorsque les taux d’intérêt sur la dette publique atteignaient des sommets dans plusieurs pays européens et que le risque de défaut de paiement augmentait, la Banque centrale européenne et les pays-membres plus sains de la zone monétaire cherchèrent à mettre un terme au désastre en accordant des plans de sauvetage. Mais ces derniers étaient assortis de conditions. Ils imposaient très souvent à leurs bénéficiaires une discipline budgétaire stricte, visant à ramener les finances publiques sur une trajectoire soutenable. Certains économistes affirmaient en effet que l’austérité budgétaire était d’une douloureuse nécessité. D’autres considéraient au contraire qu’elle peut s’avérer contre-productive, en réduisant la croissance économique et par là même les recettes publiques, si bien qu’elle laisse non seulement les pays plus pauvres, mais aussi plus endettés. En 2013, les économistes du FMI rendirent leur verdict sur ces programmes d’austérité : ces derniers avaient provoqué plus de dommages économiques que ce qui avait été initialement prévu, notamment par le Fonds lui-même. Où le FMI s’était-il trompé lorsqu’il fit ses premières prévisions ? Ce qu’il avait sous-estimé, comme l'ont montré Olivier Blanchard et Daniel Leigh, c’était la taille du multiplicateur budgétaire.

Le multiplicateur est une idée simple et puissante, mais aussi l’objet de profonds débats. Il est constitue un élément crucial de la macroéconomie keynésienne. Au cours des 80 années passées, sa place dans la science économique a profondément évolué. Il fut à un moment donné considéré comme un concept d’importance fondamentale, puis fut ensuite discrédité. Il est maintenant de nouveau en vogue.

L’idée du multiplicateur émergea lors de la Grande Dépression, lorsque les économistes débattaient sur ce que pouvait être la meilleure manière de répondre à cette dernière. Dans les années vingt, la Grande-Bretagne a basculé dans la récession. La Première Guerre mondiale avait laissé les prix plus élevés et la livre plus faible. Le gouvernement était néanmoins déterminé à restaurer le taux de change de la livre sterling à sa valeur d’avant-guerre. Pour y parvenir, il garda une politique monétaire excessivement restrictive, qui provoqua une déflation et une récession prolongées. Les économistes débattaient à l’époque sur ce qui pouvait être fait pour améliorer les conditions des travailleurs en souffrance. Certains suggéraient de mettre en place un programme d’investissement public afin de ramener les chômeurs à l’emploi.

Le gouvernement britannique écartait une telle mesure. Il avait fait sienne la croyance conventionnelle de l’époque, celle que l’on appelait souvent le "point de vue du Trésor" (Treasury view). Il croyait que les dépenses publiques, financées via l’emprunt, ne stimuleraient pas l’activité économique, parce que l’offre d’épargne disponible dans l’économie pour l’emprunt est fixe. Le gouvernement pensait que s’il utilisait une partie des capitaux pour construire de nouvelles routes, par exemple, il priverait les entreprises privées du même montant de capitaux. Il y aurait certes de plus fortes dépenses et plus d’emplois dans une partie de l’économie, mais les dépenses et les emplois disparaitraient conséquemment dans le reste de l’économie.

Mais comme l’économie mondiale bascula toute entière dans la dépression et que la crise économique s’aggrava en Grande-Bretagne, cette conception fit de moins en moins consensus. En 1931, l’économiste britannique Richard Kahn publia un article proposant une théorie alternative : selon lui, un surcroît de dépenses publiques stimulerait directement l’activité et aurait des "répercussions bénéfiques". Si la construction de routes, par exemple, permettait d’embaucher des chômeurs et permettait à ces derniers de davantage consommer, il estimait que cela pouvait entraîner une hausse soutenue de l’emploi total.

L’article de Kahn était en phase avec la pensée de John Maynard Keynes, le grand économiste britannique de l’époque, qui travaillait sur ce qui allait devenir son chef-d’œuvre, la Théorie générale. Keynes y expliqua plus précisément comment le multiplicateur pouvait fonctionner et comment cela permettait au gouvernement pour redonner la santé à une économie déprimée. Keynes était un personnage singulier, et l’un des plus grands penseurs du vingtième siècle. (…) Frustré par son incapacité à changer l’opinion de ceux qui détiennent le pouvoir et par l’aggravation de la récession mondiale, Keynes s’est lancé dans la rédaction d’un chef-d’œuvre critiquant le consensus qui prévalait alors en économie et proposant une alternative. Il présenta la Théorie générale comme un texte révolutionnaire et elle se révéla en être effectivement un.

Le livre est rempli d’intuitions économiques. Sa plus importante contribution reste le raisonnement derrière la proposition selon laquelle, dans une économie éloignée du plein emploi, le niveau d’investissement et du revenu national est déterminé, non pas par l’offre globale, mais par la demande globale. Keynes supposait qu’il y avait un "effet multiplicateur" associé aux variations des dépenses d’investissement. Toute dépense additionnelle du gouvernement, par exemple, accroît directement la production et le revenu du pays. Dans une première étape, cette monnaie irait aux entrepreneurs, aux fournisseurs, aux fonctionnaires ou aux bénéficiaires de prestations sociales. Ceux-ci dépenseront à leur tour une partie du supplément de revenu. Les bénéficiaires de cette dépense en dépenseront aussi un morceau, stimulant par là même l’activité économique, et ainsi de suite. Si au contraire le gouvernement diminuait ses dépenses, le multiplicateur fonctionnerait en sens inverse, déprimant l’activité.

Keynes pensait que cette intuition était particulièrement importante en raison de ce qu’il appelait la "préférence pour la liquidité". Il estimait que les gens aimaient avoir certains actifs liquides sous la main, en cas d’urgence. En temps de turbulences financières, la demande de liquidité ou d’actifs liquides s’accroît ; les investisseurs commencent à s’inquiéter plus à propos du rendement du capital que du rendement sur le capital. Keynes estimait que cela pouvait entraîner un excès d’épargne généralisé : dans un monde dans lequel chacun essaye d’avoir plus de liquidité, la demande globale s’en trouve déprimée, ce qui déprime à leur tour la production et le revenu, détériorant la situation des gens. Dans ce monde, une réduction des taux d’intérêt n’aide pas beaucoup pour stimuler la croissance. Et les taux d’intérêt ne sont pas très sensibles aux hausses de l’endettement public, étant donné l’excès d’épargne. Les dépenses publiques visant à stimuler l’économie peuvent alors générer une forte hausse de l’emploi, mais seulement une hausse négligeable des taux d’intérêt. Les économistes classiques pensaient que les travaux publics "évinceraient" l’investissement public ; Keynes disait que durant les périodes de faible demande globale ils pourraient au contraire stimuler les dépenses privées via l’effet multiplicateur.

Le raisonnement de Keynes se trouva conforté par l’impact économique de l’accroissement des dépenses publiques durant la Seconde Guerre mondiale. Les dépenses militaires massives en Grande-Bretagne et aux Etats-Unis contribuèrent à fortement accélérer la croissance économique. Cela incita les responsables politiques, bien déterminés à ce que la Grande Dépression ne se reproduise pas, à embrasser l’économie keynésienne (et l’idée du multiplicateur) et celle-ci est devenue la pièce centrale de l’ordre économique d’après-guerre.

D’autres économistes poursuivirent là où Keynes s’était arrêté. Alvin Hansen et Paul Samuelson ont proposé des modélisations pour montrer comment une hausse ou une chute des dépenses dans une partie de l’économie se propage au reste de l’économie. Les gouvernements considéraient désormais que la gestion de la demande globale était de leur ressort. Dans les années soixante, la victoire intellectuelle de Keynes semblait totale. Dans un numéro du Time magazine publié en 1965, Milton Friedman déclara, « nous sommes tous keynésiens désormais » (une phrase souvent attribuée à Richard Nixon).

Mais le consensus keynésien se fractura dans les années soixante-dix. Sa domination fut érodée par les idées de Friedman lui-même, qui expliqua les cycles d’affaires par la croissance (ou le déclin) de l’offre de monnaie. Le monétariste déclara que de fantaisistes multiplicateurs keynésiens n’étaient pas nécessaires pour garder une économie sur le droit chemin. Selon lui, les gouvernements devaient simplement s’assurer que la croissance de la masse monétaire reste stable.

L’émergence de l’école des "anticipations rationnelles", menée par Robert Lucas, ébranla plus violemment le keynésianisme. Ses partisans, les nouveaux classiques, estimaient que la politique budgétaire serait déjouée par les contribuables. Ces derniers savent que l’emprunt public devra tôt ou tard être remboursé, si bien que tout plan de relance adopté aujourd’hui nécessitera une hausse des impôts demain. Les ménages vont alors épargner le supplément de revenu gagné avec le plan de relance en prévision du supplément d’impôt qu’ils devront payer plus tard. Le multiplicateur des dépenses publiques serait en fait être proche de zéro, comme chaque dollar dépensé en plus par l’Etat est presque entièrement compensé par une hausse d’un dollar de l’épargne privée. Les économistes derrière plusieurs de ces critiques se situaient dans les universités du Midwest, notamment l’université de Chicago. Parce qu’ils étaient souvent situés à proximité des Grands Lacs des Etats-Unis, on les qualifia d’"économistes d’eau douce" (freshwater economists). Ils affirmaient que les modèles macroéconomiques devaient commencer par décrire sous forme d’équations comment les agents rationnels prennent leurs décisions. Les événements des années soixante-dix semblaient confirmer leur critique de Keynes : les gouvernements cherchaient alors à stimuler leurs économies déprimées avec une relance budgétaire et monétaire, mais l’inflation et les taux d’intérêt s’élevèrent, tandis que le chômage restait élevé. Les économistes d’eau douce se déclarèrent victorieux. Dans un article qui fut publié en 1979 et qui s’intitulait "After Keynesian Economics", Robert Lucas et Tom Sargent, qui reçurent par la suite le prix Nobel, écrivirent que les défauts des modèles économiques keynésiens étaient "fatals". Les modèles macroéconomiques keynésiens étaient "d’aucune valeur pour guider la politique économique".

Ces attaques conduisirent à leur tour à l’émergence des "nouveaux keynésiens", qui empruntèrent des éléments des économistes d’eau douce comme les anticipations rationnelles, mais en gardant l’idée keynésienne que les récessions sont des défaillances de marché qui peuvent être surmontées grâce à l’intervention publique. Parce que la plupart d’entre eux travaillaient dans les universités sur les côtes américaines, ils se qualifièrent d’"économistes d’eau de mer" (saltwater economists). Parmi les nouveaux keynésiens, il y a Stanley Fischer, désormais vice-président de la Fed, Larry Summers, un ancien Secrétaire au Trésor, et Greg Mankiw, qui était à la tête du Conseil des conseillers économiques de George W. Bush. Dans leurs modèles, la politique budgétaire est pratiquement neutre. Ils affirment que les banques centrales peuvent et doivent prendre en charge la gestion de la demande globale (…).

Pourtant au Japon depuis les années quatre-vingt-dix et dans la plupart des pays développés depuis la Grande Récession qui suivit la crise financière mondiale, la réduction des taux directeurs à zéro s’est révélée insuffisante pour raviver les économies déprimées. Plusieurs gouvernements se sont appuyés sur la relance budgétaire pour ramener les économies au plein emploi. Aux Etats-Unis, l’administration Obama a réussi à déployant un plan de relance d’un montant proche de 800 milliards de dollars.

Comme un nouveau débat sur les multiplicateurs budgétaires s’est ouvert, les économistes d’eau douce restèrent sur leur position. John Cochrane, de l’Université de Chicago, dit en 2009 à propos des idées keynésiennes : "Cela ne fait pas partie de ce que l’on a pu apprendre aux étudiants depuis les années soixante. Ce sont des contes de fée qui se sont révélés erronés. Il est très réconfortant en temps de turbulences de se rappeler les contes de fée que nous avons entendus lorsque nous étions enfants, mais cela ne les rend pas moins faux".

Les événements de la Grande Récession donnèrent de la matière à étudier pour les économistes. D’innombrables articles cherchant à estimer les multiplicateurs budgétaires ont été publiés depuis 2008. La plupart d’entre eux suggèrent que, avec des taux d’intérêt proches de zéro, le multiplicateur budgétaire associé aux plans de relance est supérieur à l’unité. Réciproquement, le FMI conclut que le multiplicateur (négatif) associé aux contractions budgétaires est souvent égal ou supérieur à 1,5. Alors que plusieurs responsables politiques restent engagés à consolider leurs finances publiques, de nombreux économistes affirment maintenant que le manque de relance budgétaire constitue l’un des plus gros échecs suite à la Grande Récession. Par exemple, Larry Summers et Antonio Fatas suggèrent que non seulement l’austérité budgétaire a substantiellement réduit la croissance économique, mais aussi qu’elle a conduit la dette publique à des niveaux bien plus élevés à ceux qu’elle aurait atteint si les gouvernements avaient au contraire poursuivi leurs plans de relance pour raviver la croissance. Près d’un siècle après sa création, le concept keynésien de multiplicateur n’a jamais été aussi pertinent et controversé. »

The Economist, « Fiscal multipliers: Where does the buck stop? », 13 août 2016. Traduit par Martin Anota



aller plus loin...

« Retour sur l’efficacité des multiplicateurs budgétaires »

« L’austérité est-elle vouée à l’échec ? »

« Quelle est la taille du multiplicateur budgétaire ? »

« Quelle politique budgétaire faut-il adopter lors d'une récession ? »

« Quel est l'impact de l'austérité lors des récessions prolongées ? »

« Multiplicateur budgétaire et politique monétaire »

vendredi 21 août 2015

Réforme et révolution en macroéconomie

« Dans une série de billets qu’il a récemment publiés (notamment celui-ci et celui-là), Paul Romer a cherché à comprendre pourquoi les macroéconomistes se sont scindés en deux groupes, en l’occurrence les économistes d’eau douce (freshwater) d’un côté et les économistes d’eau de mer (saltwater). Selon lui, cela ne peut s’expliquer par la seule volonté des nouveaux classiques de lancer une révolution ; l’attitude défensive et méprisante de la part de plusieurs keynésiens traditionnels y était aussi pour beaucoup.

(…) Je ne doute pas que beaucoup de keynésiens (…) réagirent d’une manière défensive et méprisante. Ils étaient, après tout, sur un terrain particulièrement glissant. Ce terrain n’était pas les grands macromodèles économétriques, mais une équation : la courbe de Phillips traditionnelle. Celle-ci fait dépendre l’inflation à l’instant t des anticipations d’inflation à l’instant t et l’écart du chômage par rapport à son taux naturel. Ajoutez-y les anticipations rationnelles et vous montrez que les écarts par rapport au taux naturel sont aléatoires et que l’économie keynésienne devient hors de propos. Par conséquent, beaucoup de macroéconomistes keynésiens virent les anticipations rationnelles (et par conséquent toutes les propositions des nouveaux classiques) comme une menace à leur existence même et ils réagirent en cherchant à dénigrer les anticipations rationnelles plutôt qu’en questionnant la courbe de Phillips traditionnelle. Par conséquent, le statu quo disparut (1).

Nous savons maintenant que cette défaite fut temporaire, parce que les nouveaux keynésiens finirent par proposer leur version de la courbe de Phillips et par faire éclore une nouvelle “synthèse”. Mais cela prit du temps et vous pouvez décrire les événements de l’époque de deux manières différentes. Vous pouvez penser que les nouveaux classiques ont toujours eu l’objectif de renverser (et non d’améliorer) l’économie keynésienne, qu’ils pensaient avoir réussi à le faire et qu’ils ignorèrent par conséquent tout simplement la nouvelle économie nouvelle keynésienne. Ou bien vous pouvez penser que la réaction initialement ferme des keynésiens traditionnels suscita une manière alternative de faire les choses dont Paul déplore et cherche à expliquer la persistance. (Je ne sais pas quelle histoire est la plus proche de la vérité. Dans ce billet, je donnais crédit à la première, mais Paul et d’autres m’ont convaincu que j’avais tort.) Dans l’un et l’autre cas, vous pouvez en conclure que les choses auraient pu mieux se passer en macroéconomie s’il y avait eu davantage de réforme que de révolution.

Je ne veux pas débattre ici de l’économie keynésienne, mais me pencher sur des choses encore plus fondamentales : la manière par laquelle les preuves empiriques sont traitées en macroéconomie. Vous pouvez considérer que la contre-révolution des nouveaux classiques repose sur deux piliers. Le premier pilier concerne l’économie keynésienne et c’est celui dont tout le monde aime bien parler. Mais le second pilier est peut-être plus important, du moins en ce qui concerne la manière par laquelle la macroéconomie est faite l’université. Ce fut la révolution des microfondations, qui conduisit tout d’abord au développement des modèles de cycles d’affaires réels, puis des modèles DSGE. Comme Paul l’écrit : "Lucas et Sargent avaient bien raison en 1978 quand ils affirmèrent qu’il y avait quelque chose d’erroné, d’inévitablement erroné, avec les grands modèles de simulation macro. Le travail universitaire basé sur ces modèles s’effondra".

Ce que je me demande, c’est si la réforme n’aurait également pas été préférable à la révolution en ce qui concerne ce deuxième pilier.

Il y a tout d’abord deux choses à dire de la citation de Paul. Bien sûr, il n’y avait pas beaucoup d’universitaires qui travaillaient à l’époque directement sur de larges modèles de simulation macroéconomiques, mais par contre beaucoup d’universitaires réalisaient un travail économétrique sur des séries temporelles autour d’équations qui pouvait être utilisé dans ces modèles ou bien analysaient de petits modèles agrégés dont les équations n’étaient pas microfondées, mais qui étaient justifiées par une combinaison éclectique de théorie et d’empirie. Ce travail au sein de l’université disparut et fut remplacé par la modélisation microfondée.

Deuxièmement, la critique de Lucas et Sargent a été fatale dans le sens où elle modifia la façon par laquelle les universitaires travaillent (et la manière par laquelle ils considèrent ces modèles de simulation économétriques) (…). Mais elle ne fut pas fatale dans un sens plus général. Comme Brad DeLong le souligne, ces modèles de simulation économétriques survirent dans les secteurs privé et public (par exemple au sein de la Fed américaine ou de l’OBR britannique). Au Royaume-Uni, ils survirent dans le secteur universitaire jusqu’à la fin des années quatre-vingt-dix, puis l’université contribua à les faire disparaître.

Je ne pense pas une seconde que ces modèles soient un substitut adéquat pour la modélisation DSGE. Je ne doute absolument pas que la modélisation DSGE soit une bonne manière de faire de la théorie macroéconomique et j’en ai beaucoup appris en la pratiquant. Il est également évident qu’il y avait beaucoup d’erreurs avec les larges modèles économétriques dans les années soixante-dix. Je me demande s’il fut une bonne chose pour l’université de les rejeter complètement et d’éviter le travail économétrique qu’elle réalisait pour les nourrir.

Il est difficile pour les macroéconomistes universitaires formés depuis les années quatre-vingt de s’attaquer à cette question, parce qu’on leur a appris que ces modèles et techniques sont inévitablement erronés dans la mesure où ils souffrent de la critique de Lucas et de problèmes d’identification. Mais les modèles DSGE, en tant que guide pour la politique économique, sont également erronés parce qu’ils sont trop simples. L’unique propriété que les modèles DSGE ont est la cohérence interne. Prenez un modèle DSGE, modifiez quelques équations afin qu’il colle mieux aux données et vous obtenez ce qui est peut être qualifié de modèle économétrique structurel. C’est de façon interne incohérent, mais dans la mesure où le modèle colle mieux aux données, il peut être un meilleur guide pour la politique économique.

Au Royaume-Uni, dans les années quatre-vingt et quatre-vingt-dix, les modèles économétriques structurels évoluèrent de façon à minimiser les problèmes soulevés par la critique de Lucas en incorporant les anticipations rationnelles (ainsi que d’autres idées des nouveaux classiques) et des améliorations furent apportées à l’économétrie des séries temporelles afin de faire face aux problèmes d’identification. Si vous le voulez, vous pouvez dire que les modèles économétriques structurels se rapprochèrent des modèles DSGE, mais où la cohérence interne fut sacrifiée lorsqu’elle se révéla clairement incompatible avec les données.

Ce sont des choses difficiles à accepter pour ceux qui ont appris que les modèles économétriques structurels d’époque sont obsolètes et inévitablement erronés dans un sens plus fondamental. On vous dira que, pour prévoir, vous pouvez soit utiliser un modèle DSGE, soit un genre de modèle VAR (virtuellement) athéorique, ou bien que les responsables politiques n’ont pas d’autre choix que d’utiliser un modèle DSGE lorsqu’ils analysent la politique économique. Ces deux idées sont simplement fausses.

Il y a quelque chose de paradoxal ici. A une époque où les universitaires travaillant dans d’autres champs d’économie faisaient moins de théorie et sont devenus plus empiriques, la macroéconomie est allée dans la direction opposée, adoptant en bloc une méthodologie qui faisait de la cohérence théorique interne des modèles une priorité sur leur capacité à reproduire les données. Une alternative (à travers laquelle la modélisation DSGE aurait été inspirée par des manières plus traditionnelles de faire de la macroéconomie tout en inspirant celles-ci) était possible, mais les nouveaux classiques et la révolution des microfondations mirent à l’écart cette possibilité.

Est-ce que c’est important ? En quoi ce pilier de la révolution des nouveaux classiques a été coûteux ?

Voici ici une réponse. Alors même qu’il est faux de suggérer que les modèles DSGE ne peuvent incorporer le secteur financier ou une crise financière, les universitaires ne cherchent pas à expliquer pourquoi certains des travaux qui sont aujourd’hui réalisés ne l’ont pas été avant la crise financière. Il est souvent suggéré qu’il n’y avait aucune raison de faire cela avant la crise. Ce n’est pas vrai. Prenons la consommation comme exemple. Lorsque l’on regarde les séries temporelles (non filtrées) pour la consommation au Royaume-Uni et aux Etats-Unis, il est difficile d’éviter de donner de l’importance à l’évolution graduelle des conditions de crédit au cours des deux ou trois dernières décennies (cf. les travaux de Carroll et Muellbauer auxquels j'ai déjà fait référence). Si ce genre de travail avait reçu une plus grande attention (…), cela nous aurait amené à chercher à comprendre pourquoi les conditions de crédit changèrent, ce qui nous aurait alors amené à nous pencher sur des questions impliquant les interactions entre les secteurs réel et financier. Si cela avait été le cas, la macroéconomie aurait pu être mieux préparée pour examiner l’impact du secteur financier.

Bref, l’économie keynésienne n’est pas le seul domaine où la réforme aurait été plus productive que la révolution suite à la critique de Lucas et Sargent (1979).

(1) La question n’est pas de savoir si les anticipations sont généralement rationnelles ou non. C’est que toute théorie des cycles d’affaires qui repose sur des anticipations d’inflation irrationnelles apparaît improbable. Croyons-nous vraiment que les cycles d’affaires disparaîtraient si seulement les anticipations d’inflation étaient rationnelles ? Les doctorants des années soixante-dix et quatre-vingt le comprirent, ce qui explique pourquoi la plupart d’eux rejetèrent la position keynésienne traditionnelle. Aussi, comme Paul Krugman le souligne, plusieurs économistes keynésiens apprécièrent l’idée d’incorporer les idées des nouveaux classiques.

Simon Wren-Lewis, « Reform and revolution in macroeconomics », in Mainly Macro (blog), 19 août 2015. Traduit par Martin Anota