Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Epistémologie et histoire de la pensée

Fil des billets

mardi 12 septembre 2017

Les révolutions en politique économique

« La Commission on Economic Justice organisée par le think tank Institute for Public Policy Research (IPPR) vient de publier un long rapport sur l’économie britannique appelé "Time for Change". (…) Sa conclusion est que nous devons connaître une révolution en matière de mise en œuvre de la politique économique, une révolution aussi profonde que celles qui ont été associées au gouvernement Attlee et à Thatcher après la Seconde Guerre mondiale. Le raisonnement derrière l’idée de révolutions en matière de politique économique a été développé par Alfie Stirling et Laurie Laybourne-Langton dans un article publiée The Political Quarterly.

Les auteurs adaptent les idées de La Structure des révolutions scientifiques de Thomas Kuhn à la politique économique. Je ne veux pas m’attarder sur la légitimité ou les détails de cette entreprise. L’idée que certaines périodes impliquent de profonds changements dans la politique économique n’est pas vraiment controversée. De même, l’idée selon laquelle le paradigme défaillant va tout d’abord essayer de s’adapter avant d’être remplacé par l’idée révolutionnaire est facile à accepter. Vous n’avez qu’à regarder l’état des politiques actuelles au Royaume-Uni et aux Etats-Unis pour prendre au sérieux l’idée que ce qu’on appelle le néolibéralisme (l’ensemble des politiques et la vision du monde associés à Thatcher et Reagan) arrive à sa fin.

Il y a plein de choses dans l’article avec lesquelles je suis d’accord, du moins jusqu’aux conclusions. Mais je regrette que l’article se focalise de trop sur la macroéconomie et pense qu’il s’égare ainsi quelque peu. C’est comme si, après avoir emprunté l’idée de Kuhn et l’avoir appliquée à la politique économique, les auteurs se sentaient obligés de revenir à une discipline académique, la théorie macroéconomique, plutôt que de rester avec la politique économique dans son ensemble. Laissez-moi présenter comment je vois la transformation macroéconomique qui a pris place autour de l’époque de Thatcher et de Reagan.

Une énorme erreur que beaucoup de gens commettent est de penser que la théorie macroéconomique keynésienne conventionnelle était incapable d'expliquer la stagflation, mais aussi que les responsables de la politique économique adoptèrent en conséquence le monétarisme ou des idées des nouveaux classiques. La base pour comprendre la stagflation et réduire l'inflation était connue au moins depuis le fameux discours de Friedman en 1968, où celui-ci expliqua son idée de courbe de Phillips augmentée des anticipations. Cette courbe de Phillips n’a pas été utilisée pour guider la politique monétaire ou budgétaire avant la fin des années soixante-dix, car la plupart des décideurs de la politique économique et certains économistes étaient réticents à l'idée d'accroître le chômage en vue de réduire l'inflation.

Au Royaume-Uni, cet usage de la gestion de la demande globale pour contrôler l’inflation (ou sa contrepartie, qui fut l’abandon des tentatives à des contrôles directs comme les politiques de revenu) coïncida avec l’élection de Thatcher, mais aux Etats-Unis, elle fut initiée par Paul Volcker sous la présidence de Jimmy Carter. Aux Etats-Unis et au Royaume-Uni, il a été associé aux tentatives de contrôle des agrégats monétaires, mais cela ne dura que quelques années. Vous pouvez penser que l’abandon des politiques de revenu s’inscrit dans une logique néolibérale, mais je pense pour ma part qu’il s’agit plutôt de la conséquence inévitable de l’inflation à deux chiffres.

Il y a eu une révolution en théorie macroéconomique, mais j'ai souligné ailleurs qu’elle ne colle pas au cadre kuhnien. La contre-révolution menée par les nouveaux classiques n'a pas donné d'analyse alternative de l'inflation : en fait, leurs inquiétudes étaient davantage d’ordre méthodologique. Il est vrai que ceux qui promurent cette contre-révolution étaient partisans du néolibéralisme et que vous pouvez relier le réductionnisme à l'individualisme (et donc le néolibéralisme), mais je pense que l’attrait de cette contre-révolution tient davantage à une collection de bonnes idées auxquelles l'orthodoxie d’alors résista, comme les anticipations rationnelles.

Le ciblage d'inflation par les banques centrales implique une tentative de gestion de l'économie d’une façon assez similaire à celle de l'activisme budgétaire keynésienne auparavant. La banque centrale est une partie de l’État. L'indépendance de la banque centrale au Royaume-Uni date de 1997 et elle était en vigueur aux Etats-Unis bien avant Reagan. La crise financière mondiale a porté un coup fatal à ce que j'appelle le "consensus sur l’assignation" (l’idée que la gestion de la demande doit être du ressort de la politique monétaire et le contrôle de la dette publique du ressort de la politique budgétaire), mais la popularité de cette assignation doit peu au libéralisme. Beaucoup ont beau fréquemment chercher à relier le ciblage d'inflation au néolibéralisme, mais on ne peut établir un tel lien selon moi.

Il est par conséquent problématique de chercher à relier la macroéconomie à l'essor du néolibéralisme et, surtout, cela nous détourne de la réelle révolution en termes de politique économique que représenta le néolibéralisme, en l’occurrence un changement dans l'attitude des responsables politiques vis-à-vis de presque tout genre d’intervention de l’État. (…) Il y a eu un déplacement correspondant du collectif (notamment avec l’attaque des syndicats) à l'individu, notamment avec l'idée que les "créateurs de richesse" (c'est-à-dire ceux qui obtiennent les plus fortes rémunérations) doivent justement être incités à créer de la richesse en réduisant l’imposition "punitive". L'argent public devint l’"argent du contribuable" et ainsi de suite.

Cette révolution néolibérale a été victorieuse, dans le sens où elle s’est maintenue pendant plusieurs décennies. Elle a provoqué, au travers ses excès, de sérieux problèmes et il est temps de la réexaminer. Mais, ironiquement, les tentatives de mise en place d’une politique macroéconomique véritablement néolibérale (un ciblage d’inflation sans intervention, sans gestion de la demande globale) ont échoué à peine quelques années après avoir débuté. »

Simon Wren-Lewis, « Revolutions in economic policy », in Mainly Macro (blog), 12 septembre 2017. Traduit par Martin Anota

mardi 11 juillet 2017

Ces théories jadis exactes

« J’ai pris une petite pause (…) pour lire David Glasner sur le "mécanisme flux-prix de numéraire" (price-specie-flow mechanism). L’exposition de ce mécanisme que propose David Hume dans son "Of the balance of trade" en 1752 constitua un point tournant dans le développement de l’économie : il s’agit peut-être du premier vrai modèle économique, faisant sens du monde réel (et donnant d’importantes préconisations en matière de politique économique), via une expérience de pensée simplifiée, c’est-à-dire bien un modèle fondamentalement, malgré l’absence de mathématiques explicites. Glasner affirme, cependant, qu’il a cessé d’être un bon modèle au dix-neuvième siècle en raison de l’essor de l’activité bancaire avec réserves fractionnaires et des banques centrales.

Je pense que cette critique va à la fois trop loin, et pas assez. Dans des systèmes où les réserves de banques prirent la forme de monnaie métallique (et les billets étaient adossés sur cette monnaie métallique, comme aux Etats-Unis), l’essentiel du mécanisme flux-prix de numéraire était encore en vigueur pour la majorité du dix-neuvième siècle. D’un autre côté, le lien simple entre les soldes commerciaux et les flux de monnaie métallique s’était enrayé avec la hausse de la mobilité du capital : quand les investisseurs britanniques commencèrent à acheter beaucoup d’obligations du réseau ferroviaire américain, nous n’étions plus dans le monde de Hume.

Mais cela ne signifie pas que Hume avait tort concernant « son » monde. Et la lecture de Glasner m’a fait penser à une catégorie d’idées économiques qui est cruciale pour donner du sens à une partie de l’histoire de la pensée économique, la catégorie des idées "jadis exactes". Il s’agit d’idées qui furent de bonnes descriptions soit du monde dans lequel vécurent les économistes classiques, soit du monde tel qu’il était avant qu’ils écrivirent. La place d’honneur revient sûrement ici à l’économie malthusienne. Vous entendrez toujours des gens dire platement que Malthus avait tort. Mais au cours des 60 siècles, environ, qui se sont succédé depuis que la civilisation a émergé en Mésopotamie, la proposition malthusienne (selon laquelle la pression démographique efface tout gain de productivité, si bien que la plupart des gens vivent au seuil de subsistance) était exacte au cours de 58 d’entre eux. (…) Les deux siècles pour lesquels la proposition ne se vérifia pas furent les deux siècles qui suivirent les écrits de Malthus.

Bien sûr, cela n’a pas été un accident. Malthus n’a pas tué l’économie malthusienne ; mais l’essor de la curiosité intellectuelle, de la réflexion approfondie, de l’attitude scientifique furent à l’origine de l’apparition de personnalités comme Malthus (qui proposa une approche de l’économie que l’on peut qualifier comme moderne), mais aussi de l’accélération significative du progrès technologique qui nous sortit précisément d’une trappe malthusienne longue de 58 siècles.

De même, je ne pense pas que l’on puisse douter qu’un mécanisme semblable au mécanisme flux-prix de numéraire de Hume ait opéré à un moment ou à un autre de l’histoire depuis l’introduction de la monnaie métallique jusqu’à un certain moment à la fin du dix-huitième siècle ou au début du dix-neuvième. Comment l’argent espagnol finit par alimenter une hausse des prix dans le reste de l’Europe ? Comme Hume lui-même le dit, parce que l’argent accrut les prix espagnols, ce qui entraîna des déficits commerciaux, et l’argent s’écoula dans les partenaires à l’échange de l’Espagne. Puis, les gens (en particulier les Ecossais !) développèrent l’activité bancaire moderne et apprirent à placer des capitaux au-delà des frontières. Ces innovations commerciales faisaient partie d’un esprit général de réflexion et d’innovation qui produisirent, parmi d’autres choses, David Hume et Adam Smith.

J’ai d’autres exemples en tête. L’économie auto-stabilisatrice (dans laquelle le chômage entraîne une déflation, qui accroît l’offre de monnaie réelle et donc restaure le plein-emploi) est un autre mécanisme qui fonctionna probablement dans une grande partie de l’histoire, mais commença à disparaître quand les économies agraires laissèrent place aux économies industrialisées dans lesquelles les prix sont moins flexibles. Le rejet par David Ricardo de la possibilité d’une insuffisance de demande se révéla être finalement des plus inexactes (et était déjà sûrement inexacte dans la Grande-Bretagne de 1817), mais elle a pu être exacte à une époque ou à une autre par le passé.

Y a-t-il ici une morale à cette histoire ? Les choses économiques changent. Dans l’ensemble, elles changent plus lentement que la plupart des gens ne le pensent ; comprendre les années trente était toujours immensément utile pour comprendre le monde après 2008. Mais les « lois » économiques (je déteste généralement ce terme) ne sont pas éternelles et les bons économistes peuvent à la fois avoir raison à propos des époques passées et avoir tort pour le monde actuel. (…) »

Paul Krugman, « Formerly true theories », in The Conscience of a Liberal (blog), 10 juillet 2017. Traduit par Martin Anota

mardi 13 juin 2017

Macroéconomie : modèles simples versus modèles sophistiqués

« Noah Smith a bien résumé ses critiques vis-à-vis de la macroéconomie et semble conclure en appelant les chercheurs à rester proches du terrain. C’est définitivement un bon conseil pour les jeunes chercheurs.

Mais que dire à propos des économistes qui essayent de donner des conseils utiles, directement ou indirectement, aux responsables de la politique économique, qui ont besoin de prendre des décisions en se basant sur les estimations éclairées à propos de l’ensemble du système ? Noah Smith leur dit "d’y aller lentement, de laisser les banquiers centraux s’appuyer sur le jugement et les modèles simples entre-temps". Ce serait mieux que ce que font en grande partie les macroéconomistes en pratique, notamment leur tendance à fustiger les banquiers centraux et les autres décideurs de politique économique pour ne pas utiliser des modèles élaborés qui ne fonctionnent pas. Mais les chercheurs n’ont-ils réellement aucun rôle à jouer pour faciliter ce processus ? Et si c’est le cas, qu’est-ce que cela dit à propos de l’utilité de ce que réalise la profession ?

Le fait est que ces modèles simples ont plutôt bien marché depuis 2008. Et les banquiers centraux qui les utilisèrent, par exemple Ben Bernanke, se sont mieux débrouillés que les banquiers centraux comme Jean-Claude Trichet qui basèrent leur jugement sur autre chose. Donc, une partie de la formation des macroéconomistes doit les préparer à savoir appliquer des modèles simples, peut-être même à améliorer ces modèles simples.

En lisant Noah Smith, je me suis rappelé quelques phrases de Robert Solow défendant la théorisation économique sophistiquée : "En économie, j’aime un homme pour sa maîtrise de la théorie sophistiquée avant de le croire avec une théorie simple… Parce que l’économie à haute puissance semble être une excellente école pour utiliser judicieusement l’économie à faible puissance."

Est-ce que quelqu’un serait capable d’affirmer la même chose concernant la macroéconomie moderne ? Sans sourciller ? En pratique, il est souvent apparu que l’expertise dans la macroéconomie à haute puissance (je pense tout particulièrement aux modèles DSGE) réduisait la capacité de ses détenteurs à utiliser la macroéconomie à faible puissance, notamment le modèle IS-LM et ses dérivés.

Je ne veux pas faire ici un argument fonctionnel grossier : les analyses qui font avancer le savoir n’ont pas à fournir immédiatement un dividende sur le plan pratique. Mais les événements depuis 2008 suggèrent bien que le programme de recherche qui a dominé la macroéconomie au cours de la précédente génération a en fait empêché les économistes de fournir un conseil utile à ce moment-là. Maîtriser les choses sophistiquées rend les économistes incapables de faire des choses simples.

Un programme plus modeste consisterait, en partie, à contribuer à réduire ce dommage. Mais il serait aussi réellement utile si les macroéconomistes réapprenaient l’idée que les modèles agrégés simples puissent, en fait, être utiles. »

Paul Krugman, « Macroeconomics: The simple and the fancy », in The Conscience of a Liberal (blog), 12 juin 2017. Traduit par Martin Anota

vendredi 14 avril 2017

Nous avons besoin (au minimum) de cinq classes de modèles en macroéconomie



« L’un des meilleurs conseils que me donna Rudi Dornbusch a été : "Ne parle jamais de méthodologie. Contente-toi de faire". Pourtant, je vais lui désobéir et faire le grand saut.

C’est le projet initié par David Vines à propos des modèles DSGE, de leur comportement dans la crise et de la façon par laquelle ils peuvent être améliorés, qui m’a conduit à écrire ce billet. (…) J’avais tout d’abord écrit une note de politique économique, puis, en réponse aux commentaires que cette note a suscités, j’ai poursuivi avec un premier billet de blog, puis avec un deuxième, en espérant à chaque fois avoir été plus sage que la précédente. Je pensais avoir fait le tour de la question, mais David a récemment organisé une conférence sur le sujet, conférence au cours de laquelle j’ai beaucoup appris et qui m’amène à écrire cet ultime (?) billet sur le sujet.

Je vais développer ici une idée simple : Nous avons besoin de différents types de modèles macroéconomiques. Un type de modèles n’est pas mieux qu’un autre. Ils sont tous nécessaires et ils doivent interagir. De telles remarques seraient triviales et superflues si cette proposition était largement acceptée. Et il n’y aurait pas de guerres de religion. Mais ce n’est pas cas. Et il y a des guerres de religion.

Voici la typologie que je propose ; en l’occurrence, je distingue cinq types de modèles. (Je me limite aux modèles d’équilibre général. L’essentiel de la macroéconomie doit, cependant, chercher à élaborer des pièces individuelles, à construire des modèles d’équilibre partiel et à examiner les preuves empiriques correspondantes, pièces sur lesquelles les modèles d’équilibre général doivent ensuite se baser.) En faisant cela, je dois, avec toutes mes excuses, répéter certaines choses que j’ai pu avoir dites dans mes précédents billets.

Les modèles fondateurs. Le propos de ces modèles est de souligner un point théorique particulier, susceptible d’être pertinent pour presque tout modèle macroéconomique, mais sans prétendre capturer la réalité. Je pense ici au modèle consommation-prêt de Paul Samuelson, au modèle à générations imbriquées de Peter Diamond, au modèle de prime boursière d’Ed Prescott, aux modèles de recherche d’emploi de Diamond, Mortensen et Pissarides et aux modèles de monnaie de Neil Wallace ou Randy Wright. (…)

Les modèles DSGE. Le propos de ces modèles est d’explorer les implications macroéconomiques de certaines distorsions ou d’introduire des distorsions. Pour laisser la possibilité d’une discussion productive, ils doivent être construits autour d’un cœur faisant l’objet d’un consensus, avec chaque modèle explorant ensuite de nouvelles distorsions, que ce soit la rationalité limitée, l’asymétrie d’information, les différentes formes d’hétérogénéité, etc. (A la conférence, Ricardo Reis a une bonne liste d’extensions que l’on voudrait trouver dans un modèle DSGE.)

Ce sont ces modèles que David Vines (et beaucoup d’autres) a critiqués quand il débuta son projet et, dans leur forme actuelle, ils soulèvent deux questions. La première est : quel doit être le modèle fondamental ? Le fondement actuel, essentiellement un modèle de cycles d’affaires réels (real business cycles) avec une seule grande distorsion, les rigidités nominales, semble trop éloigné de la réalité pour être le meilleur point de départ. L’équation d’Euler pour les consommateurs et l’équation de fixation des prix semblent impliquer, en combinaison avec les anticipations rationnelles, des agents économiques trop tournés vers l’avenir. Je pense que le modèle fondamental doit avoir des rigidités nominales, une rationalité limitée, des horizons bornés, des marchés incomplets et un rôle pour la dette. Comme d’autres, j’ai discuté de ces questions ailleurs et je ne vais pas revenir dessus ici. (…) La seconde question est : à quel point ces modèles doivent-ils être proches de la réalité ? Selon moi, ils doivent évidemment chercher à s’en rapprocher, mais pas via des additions et des retouches ad hoc (…). C’est à la prochaine catégorie de modèle qu’incombe la tâche de coller à la réalité.

Les modèles de politique économique. (Simon Wren-Lewis préfère les appeler les modèles économétriques structurels.) Le propos de ces modèles est d’aider à concevoir la politique économique, pour étudier les effets dynamiques des chocs spécifiques, pour évaluer l’impact potentiel de politiques alternatives. Si la Chine ralentit, quel sera l’effet sur l’Amérique latine ? Si l’administration Trump s’embarque pour une expansion budgétaire, quels seront les effets sur les autres pays ?

Pour ces modèles, il est clairement essentiel de coller aux données et de capturer les dynamiques observées. Mais aussi d’avoir assez de structure théorique de façon à ce que le modèle puisse être utilisé pour saisir les effets des chocs et politiques. Ces deux objectifs impliquent que la structure théorique doit nécessairement être plus souple que pour les modèles DSGE : L’agrégation et hétérogénéité mènent à des dynamiques agrégées plus complexes que celles qu’un modèle théorique étroit peut espérer capturer. Les vieux modèles de politique partaient de la théorie et laissaient ensuite les données parler, équation par équation. Certains modèles en vogue partent d’une structure DSGE et laissent ensuite les données déterminer des dynamiques plus riches. Un des principaux modèles utilisés à la Fed, le modèle FRB/US, utilise la théorie pour restreindre les relations à long terme et permettre ensuite des coûts d’ajustement d’ordre supérieur pour coller aux dynamiques des données. Je suis sceptique à l’idée que ce soit la meilleure approche, comme je ne vois pas ce que l’on gagne, théoriquement ou empiriquement, en contraignant les dynamiques de cette façon.

En tout cas, pour cette classe de modèles, les règles du jeu doivent être différentes que pour les modèles DSGE. Est-ce que le modèle colle bien, par exemple, dans le sens où il est cohérent avec les dynamiques d’une caractérisation VAR ? Est-ce qu’il capture bien les effets des politiques passées ? Est-ce qu’il permet de considérer des politiques alternatives ?

Les modèles-jouets. Ici, j’ai à l’esprit des modèles tels que les diverses variations du modèle IS-LM, du modèle Mundell-Fleming, du modèle des cycles d’affaires réels et du modèle des nouveaux keynésiens. Comme la liste l’indique, certains peuvent être seulement vaguement fondés sur la théorie, d’autres plus explicitement. Mais ils ont le même propos. Permettre de donner rapidement un premier aperçu à une certaine question ou présenter une bribe de réponse à partir d’un modèle ou d’une classe de modèles plus compliqué. Pour le chercheur, ces modèles peuvent être élaborés avant de passer à un modèle plus élaboré ou après, une fois que le modèle élaboré a été développé et que ses entrailles ont été examinées. La proximité de ces modèles vis-à-vis de la théorie formelle n’est pas un critère pertinent ici. Entre de bonnes mains, et je pense ici à des maîtres-artisans tels que Robert Mundell ou Rudi Dornbusch, ils peuvent être éclairants. Il y a une raison qui explique pourquoi ils dominent les manuels de macroéconomie. Ils fonctionnent comme des appareils pédagogiques. Ils relèvent autant de l’art que de la science et tous les économistes ne sont pas des artistes talentueux. Mais l’art est utile. (…)

Les modèles de prévision. Le propos de ces modèles est simple : Donner les meilleures prévisions. Et c’est le seul critère sur lequel nous devons les juger. Si la théorie est utile pour améliorer les prévisions, alors elle doit être utilisée. Si elle ne l’est pas, elle doit être ignorée. (…) Les questions sont alors statistiques : comment traiter le sur-paramétrage ? comment traiter l’instabilité des relations sous-jacentes ? etc.

En somme : Nous avons besoin de différents modèles pour différentes tâches. Les tentatives de certains de ces modèles visant à faire plus que ce pour quoi ils ont été conçus semblent avoir été trop ambitieuses. Je ne suis pas sûr que les modèles DSGE soient de bons modèles de politique économique, à moins qu’ils deviennent plus souples à propos des contraintes associées à la théorie. J’aimerais qu’ils soient utilisés pour la prévision, mais je suis encore sceptique à l’idée qu’ils gagnent à ce jeu. Cela étant dit, chaque classe de modèles a beaucoup à apprendre des autres et bénéficierait à ce qu’il y ait plus d’interactions entre eux. Les vieux modèles de politique économique bénéficieraient du travail mené sur l’hétérogénéité, sur les contraintes de liquidité, qui se trouve formalisé dans certains modèles DSGE. Et, pour répéter un point souligné au début, tous les modèles doivent être construits sur de solides fondations d’équilibre partiel et sur les preuves empiriques. »

Olivier Blanchard, « On the need for (at least) five classes of macro models », in PIIE, Realtime Economic Issues Watch (blog), 10 avril 2017. Traduit par Martin Anota

mercredi 8 février 2017

Crises économiques et crise de la science économique

« Est-ce que la profession des économistes est "en crise" ? Plusieurs responsables de politique économique, notamment Andy Haldane, l’économiste en chef de la Banque d’Angleterre, croient qu’elle l’est. En effet, il y a une décennie, les économistes ne voyaient pas de puissante tempête arriver à l’horizon, du moins pas tant qu’elle n’atteignit son paroxysme en se muant en la crise financière mondiale la plus destructrice depuis 80 ans. Plus récemment, ils ont mal jugé de l’impact immédiat du référendum du Brexit sur l’économie britannique.

Bien sûr, les prévisions post-Brexit peuvent ne pas entièrement fausses, mais seulement si nous regardons l’impact du référendum du Brexit à long terme. Certes, certains économistes s’attendaient à ce que l’économie britannique s’effondre durant la panique qui suivit les résultats du référendum, mais l’activité économique s’est révélée plutôt résistante, avec une croissance du PIB atteignant 2,1 % en 2016. Mais maintenant que la Première Ministre Theresa May a montré qu’elle préférait un Brexit "dur", il est peut-être correct d’afficher un sombre pronostic de long terme.

Malheureusement, la responsabilité des économistes pour la crise financière mondiale de 2008 et la subséquente récession s’étend au-delà des erreurs de prévision. Plusieurs d’entre eux virent d’un bon œil les excès qui furent à l’origine de la crise et soutinrent les politiques économiques erronées qui furent par la suite adoptées (notamment en appelant hâtivement à l’austérité budgétaire et en ignorant le creusement des inégalités).

Certains économistes se sont laissé entraîner par l’arrogance intellectuelle : la croyance qu’ils peuvent toujours expliquer la complexité du monde réel. D’autres se sont enchevêtrés dans des questions méthodologiques ("en sacrifiant la vérité à la beauté", comme a pu le noter Paul Krugman) ou ont accordé trop de confiance dans la rationalité humaine et l’efficience des marchés.

Malgré son aspiration à la certitude des sciences naturelles, l’économie est et restera une science sociale. Les économistes étudient systématiquement des objets qui sont encastrés dans des structures sociales et politiques. Leur méthode se fonde sur les observations, desquelles ils tirent des tendances et en déduisent d’autres tendances et comportements ; mais ils ne peuvent jamais atteindre le succès prédictif de, disons, la chimie ou la physique.

Les êtres humains répondent aux nouvelles informations de différentes façons, si bien qu’ils ajustent différemment leur comportement à celles-ci. Donc, l’économie ne peut fournir (ni ne doit prétendre fournir) des intuitions définitives dans les tendances futures. Les économistes ne peuvent avoir un aperçu du futur qu’en se tournant vers le passé, donc leur pouvoir prédictif se limite à déduire des probabilités à partir d’événements passés, non des lois éternelles.

Et parce que l’économie est une science sociale, elle peut facilement être utilisée pour servir les intérêts des élites politiques et des entreprises. Dans les années qui ont précédé la crise financière, la croissance économique mondiale et les profits étaient si élevés que tout le monde (des petits investisseurs financiers aux plus grandes banques) était aveuglés par la perspective de plus gros gains.

Les économistes employés par les banques, les hedge funds et d’autres entreprises devaient donner un « aperçu » de court terme pour leurs employeurs et clients ; et à prêcher leur "croyance" au public général via leurs interviews et leurs apparitions dans les médias. Entretemps, la profession en économie adoptait des outils mathématiques plus complexes et un jargon spécialisé, ce qui contribua à creuser le fossé entre les économistes et les chercheurs des autres sciences sociales.

Avant la crise financière, lorsqu’énormément d’intérêts privés et d’opportunités profitables étaient en jeu, plusieurs économistes défendaient un modèle de croissance qui était davantage basé sur l’« exubérance irrationnelle » que sur des fondamentaux sains. De même, au regard du Brexit, plusieurs économistes ont confondu l’impact à long terme du référendum avec ses effets de court terme, parce qu’ils se sont précipités à faire des prévisions pour rester dans le débat politique.

En raison de ces erreurs, mais aussi d’autres erreurs, les économistes (et l’économie) ont souffert d’une spectaculaire disgrâce. Alors qu’ils ont pu être perçus par le passé comme des sorciers modernes ayant un accès à un savoir exclusif, les économistes sont désormais les plus méprisés de tous les "experts".

Qu’allons-nous faire maintenant ? Même si nous pouvons saluer l’aveu de Haldane, s’excuser pour les erreurs passées ne suffit pas. Les économistes, en particulier ceux qui sont impliqués dans les débats autour de la politique économique, doivent être explicitement tenus responsables de leur comportement professionnel. A cette fin, ils doivent se lier à un code de conduite volontaire.

Avant tout, ce code doit reconnaître que l’économie est trop complexe pour être réduite à des petites phrases et des conclusions précipitées. Les économistes doivent prêter plus d’attention à préciser le contexte dans lequel ils produisent leurs idées et aux possibles implications de ce contexte. Et ils doivent toujours révéler leurs intérêts, pour que l’analyse interne ne soit pas erronée d’un point de vue indépendant.

En outre, les débats économiques seraient plus bénéfiques si on y entendait plus de voix. L’économie est une vaste discipline qui comprend des chercheurs et des praticiens dont le travail mêle perspectives macroéconomiques et microéconomiques, mais aussi approches théoriques et appliquées. Comme toute autre discipline intellectuelle, sa production peut aussi bien être excellente, bonne et médiocre.

Mais l’essentiel de ces études ne parvient pas aux cercles de décision de politique économique, tels que les ministères des Finances, les banques centrales ou les institutions internationales. Aux niveaux hiérarchiques où se prennent les décisions, les débats autour de la politique économique restent dominés par un petit groupe d’hommes blancs qui sont issus des universités et think tanks américains et qui sont dans leur grande majorité des fidèles de l’orthodoxie.

Les conceptions développées par ce groupe sont surreprésentées dans les médias de masse, via les commentaires et interviews. Mais pêcher des idées dans cet unique petit bassin mène non seulement à un débat circulaire et suffisant, mais cela peut aussi encourager les économistes moins connus à restreindre leur champ de recherche.

Le public mérite (et a besoin d’)un marché aux idées dans lequel les conceptions orthodoxes et hétérodoxes font l’objet de la même attention et d’une discussion équilibrée. Bien sûr, cela demandera du courage, de l’imagination et du dynamisme, en particulier de la part des journalistes. Mais c’est précisément une discussion plus juste, davantage pluraliste des idées économiques dont les économistes ont besoin. »

Paola Subacchi, « Economic crises and the crisis of economics », 13 janvier 2017. Traduit par Martin Anota

samedi 17 décembre 2016

La subversion méthodologique de Thomas Schelling



« Thomas Schelling est mort à 95 ans le 13 décembre 2016.

A une époque où la théorie économique devenait en quelque sorte une branche des mathématiques appliquées, il réussit à obtenir de profondes intuitions concernant un large éventail de phénomènes en s’appuyant seulement sur une observation fine des choses, un raisonnement précis et des modèles simples qui pouvaient être facilement décrits, mais qui possédaient des propriétés complexes et surprenantes.

Cela a trouvé un large écho. Mais son travail se caractérisait aussi par le fait qu’il tenait peu rigueur des normes méthodologiques dans sa profession. Cela lui permit de générer un nouveau savoir avec une grande liberté et d’apporter des innovations méthodologiques qui ont pu finir par être plus décisives que ses intuitions par rapport à la vie économique et sociale.

Considérons, par exemple, son fameux modèle du "damier" des voisinages autocréateurs, qui fut tout d’abord introduit dans un mémorandum en 1969, précisé dans un article en 1971, puis dans son livre Micromotives and Macrobehavior publié en 1978. Ce modèle est suffisamment simple pour être décrit littéralement en deux paragraphes, mais il a des propriétés qui sont extrêmement difficiles à déduire analytiquement. Il constitue également l’un des tous premiers modèles par informatique, il met en évidence quelques limites de l’approche de l’équilibre de la théorie économique et il continue d’aiguillonner la recherche empirique sur la ségrégation résidentielle.

Voici le modèle. Il y a un ensemble d’individus partitionnés en deux groupes (…). Chaque individu occupe un carré sur un damier et il a des préférences à propos de la composition de son voisinage. Le voisinage est ici composé (au maximum) de huit carrés adjacents. Chaque personne n’est pas insatisfaite à l’idée que son groupe soit minoritaire dans son quartier tant que le statut de minorité n’est pas trop extrême. Plus précisément, chacun désire qu’au minimum un tiers de ses voisins appartiennent à son propre groupe.

Initialement, supposons qu’il y ait 80 individus, disposés dans un ensemble de cases parfaitement intégré du damier, avec les quatre coins inoccupés. Ensuite, chaque individu au centre a dans son entourage immédiat autant de personnes appartenant à son propre groupe qu’au second groupe, si bien que chacun est satisfait. Ceux qui sont sur les bords sont dans une situation légèrement différente, mais même ici chaque individu a un voisinage dans lequel au moins un tiers des résidents appartiennent à leur propre groupe, si bien que chacun y est également satisfait.

Maintenant supposons que nous retirions au hasard vingt individus et que nous replacions cinq d’entre eux dans des logements inoccupés, également au hasard. Cette perturbation va rendre certains individus insatisfaits. Maintenant, choisissez l’un de ces insatisfaits et placez-le dans un endroit où il sera satisfait. Notez que cela va affecter deux autres types individus : ceux qui étaient précédemment les voisins des individus qui sont partis et ceux qui ont un nouveau voisin. Certains ne vont pas être affectés par le déménagement, d’autres peuvent gagner en satisfaction et d’autres risquent de devenir insatisfaits.

Aussi longtemps qu’il n’y a personne d’insatisfait sur le damier, vous répétez le processus que l’on vient de décrire : prenez un pion au hasard et déplacez-le à une case où il est satisfait. A quoi ressemble le damier lorsque plus personne ne veut se déplacer ?

Schelling a constaté qu’indépendamment de la fréquence avec laquelle ce processus se répéte, le résultat sera une forte ségrégation spatiale. Même si l’intégration parfaire est clairement une issue possible du processus dynamique que nous venons de décrire, elle est impossible à obtenir une fois que le système a été perturbé. Les préférences supposées sont suffisamment tolérantes pour être cohérentes avec l’intégration, mais les choix décentralisés, non coordonnés, que réalisent les individus fragilisent l’intégration et rendent la ségrégation extrêmement stable. Voici comment Schelling résuma son intuition :

"Les gens qui ont à choisir entre des extrêmes polarisés (…) vont souvent renforcer la polarisation à l’issue de leur choix. En agissant ainsi, ils ne démontrent pas qu’ils préfèrent la ségrégation, mais seulement que, si la ségrégation existe et qu’ils ont à choisir entre des associations exclusives, les gens choisissent les environnements qui leur sont les plus semblables."

Nous pouvons changer les paramètres du modèle, notamment la taille de la population, sa densité, les préférences à propos de la composition du voisinage et nous voyons que le résultat de Schelling est robuste. Et pour les raisons discutées dans cet essai, le seul raisonnement en termes d’équilibres ne peut être utilisé pour tomber sur ce résultat.

Nous pouvons également trouver un type de contribution très différent, mais qui a pourtant d’importantes implications méthodologiques, dans le classique La Stratégie du conflit (The Strategy of Conflict) de Schelling paru en 1960. Dedans, il considère la valeur adaptative qu’il y a à se prétendre irrationnel de façon à faires des menaces ou des promesses crédibles.

Comment pouvons-nous nous engager à l’avance à commettre un acte que l’on préférerait en fait ne pas avoir à réaliser, de façon à ce que notre engagement puisse dissuader l’autre participant ? La personne à l’origine de la menace peut bien sûr bluffer, pour faire croire à l’autre que les coûts ou dommages qu’il pourrait subir seraient mineurs ou négatifs. Chose plus intéressante, celui qui est à l’origine de la menace peut prétendre qu’il croit lui-même que ses coûts seront faibles, si bien qu’il serait prêt à mettre sa menace à exécution. Ou peut-être qu’il peut prétendre être tellement motivé par la vengeance qu’il se fiche des dommages qu’il pourrait subit ; mais cette option est surtout disponible pour ceux qui sont vraiment motivés par la vengeance.

De même, dans les situations de négociations, "le négociateur sophistiqué peut avoir des difficultés à se montrer aussi obstiné qu’un homme réellement obstiné". Et face à une menace, il peut être profitable d’être réputé comme faisant preuve d’"une véritable ignorance, obstination ou incrédulité, puisque cela permettra de se montrer plus convaincant face à toute personne susceptible de lancer une menace".

Suite à trois articles classiques dans le même numéro du Journal of Economic Theory paru en 1982, toute une littérature en économie a observé les implications pour le comportement rationnel qu’il y a à interagir avec des personnes qui, avec une faible probabilité, sont susceptibles d’être irrationnelles. Alors que ces travaux se sont surtout focalisés à caractériser les réponses rationnelles à l’irrationalité, Schelling parle aussi des gains et il soulève la possibilité que les écarts par rapport à la rationalité puissent avoir une valeur adaptative.

Les implications méthodologiques de cette idée sont profondes, parce qu'elle remet en question la justification habituelle qu’il y a à supposer que les agents économiques sont en fait pleinement rationnels. Jack Hirshleifer a exploré les implications de cette idée dans un fabuleux article sur la valeur adaptative des émotions et Robert Frank a écrit un livre entier sur le sujet. Mais l’idée est là, cachée sous nos yeux, dans les parenthèses de Schelling.

Enfin, considérons le paradoxe du cambrioleur que Schelling décrit dans La Stratégie du conflit : "Si, en pleine nuit, je descends l’escalier de ma maison avec un revolver après avoir entendu un bruit au rez-de-chaussée et que je me retrouve nez-à-nez avec un cambrioleur qui a également un révolver dans ses mains, cela risque de se finir en un dénouement qu’aucun de nous deux ne désire. Même s’il préfère juste s’en aller tranquillement et que je désire qu’il en fasse ainsi, il y a un risque qu’il puisse penser que je veuille tirer sur celui et qu’il tire le premier. Pire, il y a un risque qu’il puisse penser que je pense qu’il veuille me tirer dessus. Ou il peut penser que je pense qu’il pense que je veuille tirer sur lui. Et ainsi de suite. La 'légitime défense' est ambiguë lorsque l’on cherche juste à éviter de se faire tirer dessus en légitime défense."

Sandeep Baliga et Tomas Tomas Sjöström ont montré précisément comment une telle peur réciproque peut mener à un dénouement fatal et ils ont exploré les implications qu’il y a à permettre aux différentes parties de communiquer entre elles avant d’avoir affaire l’une à l’autre, même si cette communication n’engage à rien. (…) »

Rajiv Sethi, « Thomas Schelling, methodological subversive », 14 décembre 2016. Traduit par Martin Anota

lundi 21 novembre 2016

Macroéconomie et idéologie

« Jo Michell a écrit un long billet dans lequel il amorce un débat avec Ann Pettifor et moi-même sur le rôle de la macroéconomie orthodoxe derrière l’austérité budgétaire. Ann estime que la macroéconomie orthodoxe est en grande partie responsable de l’austérité et Michell se montre largement de son avis. J’ai beaucoup de respect pour Michell lorsqu’il cherche à combler le fossé entre l’économie orthodoxe et les courants hétérodoxes, mais là, je pense qu’il se trompe à propos de l’austérité et qu’il peint une image haussée de l’histoire de la pensée économique.

Commençons avec l’austérité. Je pense qu’il serait d’accord à l’idée que le modèle de cycle d’affaires qui a fait consensus parmi les keynésiens pendant les deux dernières décennies est le modèle des nouveaux keynésiens. Ce modèle est absolument clair en ce qui concerne l’austérité. A la borne inférieure zéro (zero lower bound), vous ne devez pas réduire les dépenses publiques. Il n’y a ni "si", ni "mais".

Donc pour on ne peut affirmer que la macroéconomie orthodoxe plaidait en faveur l’austérité que si l’on affirme que les économistes orthodoxes pensaient que le modèle des nouveaux keynésiens était fondamentalement déficient. Cela n’a absolument pas été le cas. Michael Woodford est l’un des plus grands macroéconomistes de ces deux dernières décennies, si ce n’est le plus grand. Son livre est en quelque sorte la Bible pour tous ceux qui utilisent le modèle des nouveaux keynésiens. En juin 2010, il a publié "Simple Analytics of the Government Expenditure Multiplier", où il montre que la hausse des dépenses publiques peut s’avérer particulièrement efficace à la borne inférieure zéro. L’intérêt de ce papier pour ceux qui travaillent dans ce domaine était de montrer, non pas que cette forme de politique budgétaire aurait une certain efficacité (chose qui était évidente pour tous ceux qui, comme moi, travaillaient sur la politique monétaire et la politique budgétaire en utilisant le modèle des nouveaux keynésiens), mais qu’elle puisse générer de très larges multiplicateurs.

Le consensus universitaire selon lequel l’austérité ne pouvait être que nuisible et la relance budgétaire efficace est une raison majeure expliquant pourquoi les autorités adoptèrent une relance budgétaire au Royaume-Uni et aux Etats-Unis en 2009, et même pourquoi le FMI plaidait lui-même cette année-là en faveur d’une relance budgétaire. Il y avait toutefois certains, en particulier à Chicago, qui s’élevaient contre cette relance, mais, comme DeLong, Krugman et moi-même l’avions remarqué, ils ont simplement prouvé leur ignorance du modèle des nouveaux keynésiens. Krugman, en particulier, est très familier de la macroéconomie à la borne inférieure zéro, notamment en raison de ses travaux sur la décennie perdue du Japon.

Ce ne sont pas d’éventuelles clameurs de la part des macroéconomistes universitaires orthodoxes qui ont mis un terme à ce consensus en 2010, mais deux événements bien précis : la crise de la zone euro et la victoire de la droite au Royaume-Uni et aux Etats-Unis.

Michell prétend que parce que la question de la borne inférieure zéro n’était pas dans les manuels macroéconomiques, elle ne faisait pas partie du consensus. Mais tout le monde sait que les manuels sont en retard de plusieurs décennies et beaucoup basent toujours leur enseignement à partir du modèle IS-LM plutôt qu’à partir du modèle des nouveaux keynésiens. Maintenant il se peut que les responsables politiques de droite aient réellement été induits en erreur par ce qui est enseigné dans ces manuels et que ce ne fut qu’une simple coïncidence que ces responsables politiques aient choisi les réductions des dépenses publiques plutôt que les hausses d’impôts (et plus tard les réductions d’impôts !), mais cela semble peu probable. Vous n’avez pas nécessairement à travailler dans ce champ pour comprendre que le consensus en vigueur avant la crise financière, celui selon laquelle il fallait privilégier les variations de taux d’intérêt pour stabiliser l’activité, dépendait de la capacité à faire varier les taux d’intérêt.

S’écartant de la question de l’austérité, le billet de Michell affirme que la macroéconomie orthodoxe a toujours été fortement influencée par l’idéologie néolibérale. Pour ce faire, il donne un bref compte-rendu de l’histoire de la macroéconomie après la Seconde Guerre mondiale, qui a Friedman, un membre bien connu de la Société du Mont-Pèlerin, comme son meneur, du moins avant que la nouvelle école classique n’arrive. Il y a beaucoup de choses à dire ici, mais je vais me contenter de souligner deux points.

Premièrement, l’idée selon laquelle l’économie keynésienne concerne des épisodes de court terme de demande excessive ou insuffisante plutôt que la stagnation permanente datait d’avant Friedman et remontait aux premières tentatives visant à formaliser l’économie keynésienne. C’est ce qu’on appela le consensus néoclassique. C’est pour cette raison que le keynésien Robert Solow proposa une modélisation de la croissance qui supposait le plein emploi.

Deuxièmement, les débats autour du monétarisme dans les années soixante-dix ne portaient pas sur la validité de ce modèle keynésien, mais sur ses paramètres et l’activisme de la politique économique. Les propres contributions de Friedman à la théorie macroéconomique, telles que l’hypothèse du revenu permanent et la courbe de Phillips augmentée des anticipations, n’orientent pas forcément la théorie dans une direction néolibérale. (…) Et Friedman n’approuvait certainement pas les idées des nouveaux classiques en matière de politique macroéconomique.

Michell se rapproche peut-être de la vérité lorsqu’il affirme que l’esprit néolibéral des années quatre-vingt a peut-être eu quelque chose à voir avec le succès de la nouvelle école classique, mais je ne pense pas que ce soit du tout central. Comme je l’ai affirmé à plusieurs reprises, la révolution menée par les nouveaux classiques a réussi parce que les anticipations rationnelles faisaient sens aux yeux des économises habitués à appliquer la rationalité dans leur microéconomie et, une fois que vous acceptez les anticipations rationnelles, alors vous comprenez qu’il y a de sérieux problèmes avec le consensus keynésien qui dominait alors. Je pense que vous pouvez essayer d’affirmer qu’il y a un lien entre l’attrait des microfondations comme méthodologie et le néolibéralisme, mais je pense que ce serait un peu exagéré.

Cela m’amène à mon ultime remarque. Michell note que j’ai suggéré une influence idéologique derrière le développement de la théorie des cycles d’affaires réels, mais il se demande pourquoi je m’arrête là. Il écrit ensuite : "Il est par conséquent quelque peu étrange que, lorsqu’il discute de la relation entre l’idéologie et l’économie, Wren-Lewis choisisse de tracer une frontière entre ceux qui utilisent un modèle DSGE à prix visqueux des nouveaux keynésiens et ceux qui utilisent une version à prix flexibles des nouveaux classiques. Comme le suggère Wren-Lewis, les croyances de ce dernier seraient idéologiques, alors que les membres du premier groupe s’appuieraient sur une science libérée de l’idéologie. Cela me semble bien arbitraire. La justification de Wren-Lewis est que, malgré les preuves empiriques, le modèle des cycles d’affaires réels dénie la possibilité du chômage involontaire. Mais la version à prix visqueux des nouveaux keynésiens (qui dénie tout rôle aux inégalités, à la finance, à la monnaie, à l’activité bancaire, à la liquidité, aux défauts, au chômage de long terme, à l’usage de la politique budgétaire pour quitter la trappe à liquidité, les effets d’hystérèse du côté de l’offre et plein d’autres choses) serait selon lui acceptable".

Michell passe à côté d’une distinction cruciale. Le propos de la théorie des cycles d’affaires réels était de montrer que les cycles d’affaires réels constituent juste une réponse optimale à des chocs technologiques dans un monde où les marchés s’ajustent continuellement. Cela revenait à dénier un aspect fondamental des cycles d’affaires : le chômage involontaire. Il est absurde d’affirmer que la théorie des nouveaux keynésiens dénie toutes les choses de la liste de Michell. Ce n’est pas parce que l’on fait abstraction de quelque chose que l’on dénie celui-ci. Le modèle de Solow ne dénie pas l’existence de cycles d’affaires, mais il suppose juste (à tort ou à raison) qu’ils ne sont pas essentiels pour saisir les aspects de la croissance économique à long terme. Michell a raison lorsqu’il dit que le modèle de base des nouveaux keynésiens n’inclut pas le chômage involontaire, mais il n’y a rien dans le modèle des nouveaux keynésiens qui dénie cette possibilité. En fait, il est même assez facile d’élaborer un modèle qui le fasse apparaître.

Pourquoi le modèle de base des nouveaux keynésiens n’inclut-il pas le chômage involontaire ? La meilleure chose que l’on puisse lire à ce sujet se trouve dans la Bible de Woodford. L’idée fondamentale est de se focaliser sur un modèle qui permet aux variations de la demande globale d’être la force conductrice derrière les cycles d’affaires. Je pense que c’est vrai : c’est bien la demande globale qui génère ces cycles et le chômage involontaire en est une conséquence. Ou, pour le dire autrement, vous pouvez toujours obtenir des cycles d’affaires, même si le marché du travail est toujours à l’équilibre.

Il est plutôt tiré par les cheveux de suggérer, comme Michell semble le faire, que le développement des modèles des nouveaux keynésiens a quelque chose à voir avec la politique de la troisième voie de Tony Blair et de Bill Clinton. C’était la réponse inévitable à la théorie des cycles d’affaires réels, à son refus d’incorporer la rigidité des prix (alors même que les données empiriques confirment cette dernière) et à son incapacité à faire apparaître un chômage involontaire.

C’est tout. (…) Je ne pense pas non plus (…) que l’influence idéologique soit confinée aux pans de la macroéconomie associés à la nouvelle école classique. Mais, de la même façon qu’il est absurde de dénier une telle influence, il est erroné d’imaginer que la discipline et l’idéologie sont inextricablement liées l’une à l’autre. La généralisation de l’austérité en 2010 en est une preuve. »

Simon Wren-Lewis, « Macroeconomics and Ideology », in Mainly Macro (blog), 16 novembre 2016. Traduit par Martin Anota

jeudi 20 octobre 2016

La recherche en macroéconomie depuis la crise



« Des événements économiques extrêmes ont souvent remis en question les idées que les économistes ont du fonctionnement de l’économie et mis en évidence les limites de leur savoir collectif. Pour donner deux exemples bien connus, la Grande Dépression des années trente et la stagflation des années soixante-dix ont amené les économistes à reconsidérer la façon par laquelle ils pensaient les phénomènes économiques. Plus récemment, la crise financière et la fragile reprise qui l’a suivie ont pu constituer un point tournant similaire. Aujourd’hui, j’aimerais considérer certains sujets sur lesquels les événements de ces dernières années ont révélé les limites de la compréhension que les économistes peuvent avoir de l’économie et préciser quelles sont les questions fondamentales auxquelles la profession doit apporter une réponse. Certaines de ces questions ne sont pas nouvelles, mais avec les récents événements il est encore plus pressant d’y répondre. (…)

L’influence de la demande globale sur l’offre globale


La première question que j’aimerais poser concerne la distinction entre l’offre globale et la demande globale : Y a-t-il des circonstances dans lesquelles les variations de la demande globale sont susceptibles d’avoir un effet significatif et durable sur l’offre globale ?

Avant la Grande Récession, la plupart des économistes auraient probablement répondu à cette question par un "non". Ils auraient largement été d’accord avec l’idée de Robert Solow (1997) selon laquelle la production économique à long terme est principalement tirée par l’offre, c’est-à-dire le montant de production de biens et services que l’économie est capable de produire, étant données ses ressources en travail et capital et les technologies existantes. La demande globale, à l’inverse, était vue comme expliquant les fluctuations de court terme autour d’une tendance de long terme déterminée par l’offre et principalement exogène. Cette conclusion mérite d’être reconsidérée, puisque le niveau de l’activité économique a échoué à retourner à sa tendance d’avant-crise dans la plupart des pays développés. Cette expérience d’après-crise suggère que les fluctuations de la demande globale peuvent avoir un effet significatif et durable sur l’offre globale, c’est-à-dire sur la production potentielle. Ou, comme Larry Summers (2014) a pu le demander en inversant la loi de Say, ne serait-il pas possible qu’une insuffisance de la demande entraîne une insuffisance de l’offre ?

L’idée selon laquelle les chutes durables de la demande globale peuvent affecter négativement l’offre globale (un effet que l’on appelle communément "effet d’hystérèse") n’est pas nouvelle ; par exemple, une telle éventualité était discutée au milieu des années quatre-vingt, au regard de la performance des marchés du travail européens. Olivier Blanchard et Larry Summers (1986) se demandaient notamment à l’époque si le taux de chômage d’équilibre à long terme (ou taux de chômage "naturel") ne s’était pas accru de façon permanente dans les économies européens en raison de la persistance du chômage à un niveau élevé.

Mais l’intérêt pour ce sujet s’est récemment accentué à la lumière du ralentissement persistant de la croissance économique que l’on a vu dans la plupart des pays développés depuis la crise. Diverses études ont récemment avancé des preuves empiriques transnationales suggérant que les récessions sévères et durables ont effectivement présenté certains de ces effets de long terme au cours de long terme, même pour les ralentissements qui semblent essentiellement, voire totalement, été provoqués par un choc de demande. Il y a notamment celle de Greg Howard, Robert Martin et Beth Anne Wilson (2011), celle de Robert Martin, Teyanna Munyan et Beth Anne Wilson (2015) ou encore celle d’Olivier Blanchard, Eugenio Cerutti et Lawrence Summers (2015). Au regard de l’expérience des Etats-Unis, une étude estime que le niveau de production potentielle est désormais inférieure de 7 % au niveau qu’il aurait atteint s’il avait continué de suivre la trajectoire d’avant-crise et elle affirme que l’essentiel de ces dommages du côté de l’offre est attribuable à diverses dynamiques associées à une sévère récession et à une lente reprise. En particulier, l’étude constate que dans le sillage de la crise, les Etats-Unis ont connu une réduction modeste de l’offre de travail en conséquence de la réduction de l’immigration et une chute du taux d’activités au-delà de ce qui peut être expliqué par la conjoncture et les facteurs démographiques, aussi bien qu’un ralentissement marqué du taux de croissance tendanciel de la productivité du travail. Le dernier reflète probablement un rythme inhabituellement lent d’accumulation de capital physique depuis la crise et, plus conjoncturellement, le brutal déclin des dépenses en recherche-développement et une lenteur dans la création de nouvelles entreprises ces dernières années.

Si nous supposons que les effets d’hystérèse sont à l’œuvre après les fortes récessions, la question que l’on est naturellement amené à se poser est s’il est alors possible de renverser ces effets négatifs du côté de l’offre en laissant temporairement place à une "économie à haute pression" (high-pressure economy), avec une demande globale robuste et un marché du travail en tensions. On peut certainement identifier des canaux par lesquels cela pourrait être possible. Un accroissement des ventes d’entreprises élèverait presque certainement la capacité productive de l’économie en encourageant des dépenses supplémentaires en capital, en particulier s’il y a une moindre incertitude vis-à-vis de l’avenir. En outre, un marché du travail en tensions peut inciter de potentiels travailleurs à entrer dans la vie active et encourager les transitions d’un emploi à l’autre qui améliorent l’appariement entre les salariés et les emplois, donc stimulent la productivité. Finalement, une forte demande peut éventuellement générer de significatifs gains de productivité en accroissant les niveaux plus élevés de dépenses en recherche-développement et stimulant la création d’entreprises innovantes.

Les effets d’hystérèse (et la possibilité qu’ils puissent être inversés) peuvent avoir d’importantes implications pour la conduite des politiques monétaires et budgétaire. Par exemple, en raison des effets hystérèse, les responsables politiques doivent agir rapidement et agressivement en réponse à une récession, parce que cela contribuerait à réduire la sévérité et la durée de la récession, ce qui limiterait alors les dommages qui sont alors susceptibles de déprimer l’offre. En outre, si une bonne conjoncture peut contribuer à inverser les dommages du côté de l’offre une fois qu’ils sont apparus, alors les responsables des politiques économiques peuvent chercher à être plus accommodants durant les reprises qu’ils ne l’auraient à le faire si l’offre était indépendante de la demande.

Davantage de recherches sont cependant nécessaires pour mieux comprendre l’influence des fluctuations de la demande globale sur l’offre globale. Du point de vue de la politique économique, nous avons bien sûr à garder en tête l’idée qu’une politique monétaire accommodante, si elle est maintenue trop longtemps, peut avoir des coûts supérieurs aux bénéfices, notamment en accroissant le risque d’instabilité financière ou en remettant en cause la stabilité des prix. Plus généralement, les bénéfices et coûts potentiels de la poursuite d’une telle stratégie restent difficiles à quantifier, et d’autres politiques économiques peuvent être plus adaptées pour répondre aux problèmes du côté de l’offre de l’économie.

L’hétérogénéité


J’aimerais à présent demander si les différences individuelles au sein de larges groupes d’agents économiques peuvent influencer les dynamiques économiques au niveau agrégé et ainsi quels effets une telle hétérogénéité peut avoir sur la demande globale.

La plupart des macroéconomistes travaillent avec des modèles où des groupes d’agents individus, tels que les ménages ou les entreprises, sont traités comme un simple agent "représentatif" dont le comportement est censé représenté celui du groupe dans son ensemble. Par exemple, plutôt que de modéliser explicitement l’action de nombreux ménages différents, un modèle macroéconomique peut en fait supposer que le comportement d’un simple ménage « moyen » peut décrire le comportement agrégé de tous les ménages.

Avant la crise financière, les modèles à agent représentatif étaient le paradigme dominant pour analyser plusieurs questions macroéconomiques. Cependant, une approche désagrégée semble nécessaire pour comprendre certains aspects clés de la Grande Récession. Pour donner un exemple, considérons les effets d’une baisse des prix de l’immobilier sur la consommation. Même si les ménages réduisent typiquement leurs dépenses en réponse à une chute de la valeur de leur patrimoine, la plupart des ménages dont la valeur du patrimoine immobilier était devenue négative en raison de la chute des prix ont pu réduire leurs dépenses encore plus fortement en raison d’un moindre accès à l’emprunt. Une telle dynamique modifie la relation entre le patrimoine immobilier (qui était resté significativement positif au niveau agrégé) et les dépenses de consommation pour l’économie dans son ensemble. Une telle modification d’une relation agrégée serait difficile à prédire ou comprendre sans utiliser des données et modèles désagrégés.

Plus généralement, étudier les effets de l’hétérogénéité des ménages et des entreprises peut nous aider à mieux comprendre la sévérité de la récession et la faiblesse de la subséquente reprise. Au niveau des ménages, les récentes études constatent que l’hétérogénéité peut amplifier les effets des chocs négatifs, un résultat qui s’explique largement par les ménages qui ont une faible valeur nette et qui ont brutalement accru leur épargne lors d’une récession. Au niveau des entreprises, certaines preuves empiriques suggèrent que les contraintes financières ont eu un effet négatif particulièrement large sur l’emploi dans les petites entreprises et les nouvelles entreprises, des facteurs qui peuvent contribuer à expliquer la sévérité de la Grande Récession et la faiblesse de la subséquente reprise. Plus généralement, si les plus grandes entreprises qui cherchent à se développer ont un meilleur accès au crédit que les plus petites entreprises, la croissance globale de l’investissement et de l’emploi peut dépendre en partie de la répartition des ventes entre différents types d’entreprises. Pour modéliser l’une de ces dynamiques, il faut nécessairement utiliser un modèle à agents hétérogènes. (…)

Les relations entre la finance et l’économie réelle


Ma troisième question est (…) : comment le secteur financier interagit-il avec le reste de l’économie ? A la lumière de la bulle immobilière et des événements subséquents, les responsables de la politique économique ont clairement besoin de mieux comprendre quels genres de développements contribuent à une crise financière. Quelle est la relation entre, d’une part, l’accumulation excessive de dette et, d’autre part, la valeur de l’immobilier et d’autres types de collatéraux ? Quels facteurs freinent ou accélèrent le processus de désendettement qui s’ensuit ? Est-ce que la récession qui résulte d’une crise financière dépend des particularités de la crise, notamment des dommages apportés aux bilans des ménages ? Comment la nature et le degré des interconnexions entre entreprises financières affectent la propagation et l’amplification des turbulences que connaissent le système financier et l’ensemble de l’économie ? Enfin et surtout, qu’est-ce que la politique monétaire et la supervision financière peuvent faire pour réduire la fréquence et la sévérité des crises futures ? (…)

La dynamique de l’inflation


Ma quatrième question touche le cœur de la politique monétaire : Qu’est-ce qui détermine l’inflation ?

Selon moi, le cadre standard pour réfléchir aux dynamiques de l’inflation utilisé par les économistes, notamment au sein des banques centrales, avant la crise financière reste conceptuellement utile aujourd’hui. Voici une description simplifiée de ce cadre : l’inflation se caractérise par une tendance sous-jacente qui a été assez constante depuis le milieu des années quatre-vingt-dix ; précédemment, cette tendance semblait baisser au cours du temps, influencée par l’inflation passée et d’autres conditions économiques. La théorie et les données empiriques suggèrent que cette tendance est fortement influencée par les anticipations d’inflation qui, à leur tour, dépendent de la politique monétaire. En particulier, la remarquable stabilité de diverses mesures d’inflation anticipée au cours des dernières années représente a priori les fruits des efforts soutenus de la Fed depuis le début des années quatre-vingt-dix pour ramener, puis stabiliser l’inflation à un faible niveau. L’ancrage des anticipations d’inflation qui a résulté de cette politique n’empêche pas cependant l’inflation de fluctuer d’année en année en réponse à l’influence temporaire des variations des prix de l’énergie et à d’autres perturbations. En outre, l’inflation va avoir tendance à aller au-dessus ou en-dessous de sa tendance sous-jacente selon que l’utilisation des ressources (qui servent d’indicateur des coûts marginaux des entreprises) est durablement forte ou faible.

Même si ce cadre général pour réfléchir au processus d’inflation reste utile, ses aspects quantitatifs ont été remis en question lors de la Grande Récessions et la lente reprise qui la suivit. Par exemple, l’influence des conditions du marché du travail sur l’inflation au cours des dernières années semble être plus faible qu’on ne le pensait communément avant la crise financière. Certes l’inflation a chuté durant la récession, mais le déclin a été assez modeste au regard de la forte hausse du chômage ; de même, les salaires et les prix ont augmenté peu lors de la reprise. On ne sait pas encore si cette réduction de la sensibilité s’explique par la récession ou si elle date au contraire d’avant-crise et n’a été révélée que sous des conditions extrêmes. La cause sous-jacente à ce changement reste inconnue. Est-ce que la moindre sensibilité reflète des changements structurels, tels que la mondialisation ou bien un plus grand rôle pour le capital intangible dans la production qui ont réduit l’importance des fluctuations conjoncturelles de l’activité domestique pour les coûts marginaux et le pouvoir de marché des entreprises ? Ou est-ce que cela reflète la réticence bien connue (ou bien la moindre capacité) des entreprises à réduire les salaires nominaux de leurs salariés (…) ? (…)

Surtout, nous devons en savoir plus à propos de la façon par laquelle les anticipations d’inflation sont formées et comment la politique monétaire les influence. Finalement, l’inflation effective et l’inflation anticipée sont liées à la cible d’inflation de la banque centrale, qu’importe que la cible soit explicite ou non. Mais comment ce processus d’ancrage s’opère-t-il ? Est-ce qu’une banque centrale doit garder l’inflation effective proche de la cible pendant plusieurs années avant que les anticipations d’inflation soient complètement conformes ? Ou bien, est-ce que les autorités peuvent influencer matériellement les anticipations d’inflation directement et rapidement en simplement annonçant leurs intentions de poursuivre un objectif d’inflation particulier à l’avenir ? Ou est-ce que la vérité se tient entre ces deux extrêmes, un changement dans les anticipations nécessitant des communications claires à propos de l’objectif d’inflation des autorités, des actions politiques concrètes pour démontrer leur engagement à atteindre cet objectif et au moins un certain succès à pousser l’inflation effective vers le niveau désiré de façon à démontrer la faisabilité de la stratégie ? Bien que l’expérience historique suggère qu’un changement des anticipations d’inflation du public serait ni rapide, ni facile, il n’est pas clair laquelle de ces possibilités est correcte.

Avec des taux d’intérêt nominaux de court terme à la borne inférieure effective ou proches de celle-ci dans plusieurs pays, la question de savoir comment les anticipations sont formées a pris plus d’importance. Sous de telles circonstances, plusieurs banques centrales ont cherché des moyens supplémentaires pour stimuler leur économie, notamment l’adoption de politiques qui visent directement à influencer les anticipations des futurs taux d’intérêt et de l’inflation. (…) En outre, ces nouvelles stratégies peuvent à nouveau être nécessaires à l’avenir, étant donnée que l’économie mondiale est susceptible de continuer de connaître des taux d’intérêt historiquement faibles, si bien qu’il est peu probable qu’une baisse les taux d’intérêt de court terme soit une réponse adéquate à toute nouvelle récession.

Les liens internationaux


Avant de clore, mentionnons un dernier domaine où davantage d’études sont nécessaires : les effets des changements de politique monétaire aux Etats-Unis sur les conditions économiques et financières en vigueur dans le reste du monde et les canaux à travers lesquels ces effets étrangers peuvent rétroagir pour influencer l’économie américaine. Bien sûr, les effets de débordement de la politique monétaire sur le reste du monde ont fait l’objet d’un réel débat entre économistes depuis la Grande Dépression et de nombreuses analyses formelles datent des années soixante. Mais cette question a reçu un plus grand intérêt avec l’adoption de politiques monétaires non conventionnelles après la Grande Récession et, encore plus récemment, la divergence des politiques monétaires parmi les principales banques centrales des pays développés.

Plus largement, les mesures de politique monétaire dans un pays se répercutent aux autres économies à travers trois principaux canaux : les variations des taux de change ; les fluctuations de la demande domestique, qui altèrent les importations de l’économie ; et les changements dans les conditions financières domestiques (notamment les taux d’intérêt et les prix d’actif) qui affectent les conditions financières à l’étranger via des canaux comme celui du rééquilibrage des portefeuilles. Les études réalisées par les économistes de la Fed suggèrent que les effets de débordement de la politique monétaire américaine sur les autres économies sont positifs : les politiques visant à stimuler l’économie américaine stimulent également l’activité étrangère, dans la mesure où les effets négatifs de la dépréciation du dollar sont compensés par les effets positifs associés à l’accroissement des importations américaines et à l’assouplissement des conditions financières à l’étranger. Cependant, cette question est loin d’être pleinement éclairée, comme bien d’autres questions connexes, notamment les suivantes : Est-ce que les actions de la politique monétaire adoptées par la Fed affectent différemment les pays développés et les pays en développement ? Est-ce que les politiques monétaires non conventionnelles se répercutent différemment sur les autres pays ? Et dans quelle mesure les taux d’intérêt et les conditions financières en vigueur aux Etats-Unis sont influencés par les mesures accommodantes adoptées par les banques centrales étrangères ? (…) »

Janet Yellen, « Macroeconomic research after the crisis », discours prononcé à la 60ème conférence annuelle de la Banque de réserve fédérale de Boston, le 14 octobre 2016. Traduit par Martin Anota

vendredi 14 octobre 2016

Quelques nouvelles réflexions sur les modèles DSGE



« Plusieurs économistes ont récemment écrit à propos des avantages et inconvénients des modèles d’équilibre général stochastiques (dynamic stochastic general equilibrium models, DSGE). Outre moi-même, il y a eu Narayana Kocherlakota, Simon Wren-Lewis, Paul Romer, Steve Keen, Anton Korinek, Paul Krugman, Noah Smith, Roger Farmer et Brad DeLong.

Voici quelques remarques supplémentaires relatives à ce débat :

Je crois qu’il y a un large accord autour des trois propositions suivantes ; je ne vais pas davantage les discuter, mais je vais ensuite poursuivre ma réflexion.

1. La macroéconomie concerne l’équilibre général.

2. Différents types de modèles d’équilibre général sont nécessaires pour différents objectifs. Pour l’exploration et la pédagogie, les critères retenus doivent être ceux de transparence et de simplicité ; pour cela, les modèles DSGE constituent un bon véhicule. Pour la prévision, le critère doit être celui de la précision de la prévision, or les modèles purement statistiques peuvent, pour l’heure, s’avérer meilleurs à la prévision. Pour la prévision conditionnelle, que l’on utilise par exemple pour connaître les répercussions de la modification d’une politique économique, des modèles plus structurels sont nécessaires, mais ils doivent coller aux données et l’on ne doit pas être obnubilé par leurs fondations microéconomiques.

3. La modélisation et l’estimation en équilibre partielle sont essentielles pour comprendre les mécanismes particuliers qui sont pertinents en macroéconomie. Ce n’est seulement que lorsqu’ils sont bien compris qu’il devient essentiel de comprendre leurs effets en équilibre général. Chaque macroéconomiste n’a pas à travailler sur des modèles d’équilibre général (il y a une division du travail).

Voici deux propositions plus controversées :

1. Les modèles DSGE dans la panoplie des modèles d’équilibre général ont pour rôle spécifique de fournir un ensemble de « Meccano » macroéconomiques de base, c’est-à-dire une plateforme formelle, analytique pour la discussion et l’intégration de nouveaux éléments : par exemple, comme base à partir de laquelle nous pouvons explorer le rôle des négociations sur le marché du travail, le rôle de la fixation des prix sur les marchés des biens, le rôle des banques dans l’intermédiation, le rôle des contraintes de liquidité sur la consommation, le rôle des équilibres multiples, etc. Certains semblent penser que c’est un rôle dangereux et contreproductif, une perte de temps, ou tout du moins qu’il y ait un coût d’opportunité élevé. Je ne le crois pas. Je crois que chercher une telle structure est non seulement utile, mais aussi possible.

2. Les modèles DSGE ne peuvent jouer ce rôle que s’ils sont construits sur des microfondations explicites. Ce n’est pas parce que les modèles avec microfondations sont plus vénérables que d’autres, mais parce qu’avec toute autre approche, il est plus difficile d’intégrer de nouveaux éléments et d’avoir un dialogue formel. Pour ceux qui croient qu’il y a peu de distorsions (disons, ceux qui croient l’approche des cycles d’affaires réels), c’est une approche simple et naturelle. Pour ceux d’entre nous qui croient qu’il existe de nombreuses distorsions contribuant à faire émerger les fluctuations macroéconomiques, cela allonge et complique le périple (…). On aimerait qu’il y ait un raccourci et un point de départ différent ; je ne pense pas que ce soit possible.

La marche à suivre


Si nous n’acceptons pas les deux propositions ci-dessus, alors les modèles DSGE ne sont clairement pas la voix à prendre, fin de la discussion. Il y a plein d’autres choses à faire dans la vie. Mais si, cependant, nous les acceptons (même avec une certaine réticence), alors le rejet complet des modèles DSGE n’est pas une option. La discussion doit porter sur la nature des microfondations et les distorsions que les modèles courantes possèdent et sur la façon par laquelle nous pouvons faire mieux.

Est-ce que les modèles DSGE courants représentent un ensemble de Meccano basique, un ensemble que la plupart des macroéconomistes acceptent d’utiliser comme point de départ ? (…) Je crois que la réponse est non. (J’ai présenté mes objections dans le document que j’ai publié il y a quelques mois.) Donc, les priorités pour la recherche sont évidentes à mes yeux :

Premièrement, pouvons-nous élaborer un modèle basique que la plupart de nous serions enclins à prendre comme point de départ, de la même façon que le modèle IS-LM a pu être un point de départ largement accepté il y a longtemps ? Au vu des avancées technologiques et de la facilité avec laquelle on peut utiliser les programmes de simulation, un tel modèle peut et doit probablement être substantiellement plus large que le modèle IS-LM, mais pourtant toujours rester transparent. A mes yeux, cela signifie qu’il faut partir du modèle des nouveaux keynésiens, mais en utilisant des équations relatives à la consommation et à la fixation des prix qui soient plus réalistes et en y intégrant les décisions relatives au capital donc à l’investissement.

Deuxièmement, pouvons-nous ensuite explorer de sérieuses améliorations sur divers plans ? Pouvons-nous avoir un modèle du comportement du consommateur plus réaliste ? Comment pouvons-nous nous écarter des anticipations rationnelles, tout en gardant l’idée que les ménages et les entreprises s’inquiètent pour l’avenir ? Quelle est la meilleure manière d’introduire l’intermédiation financière ? Comment pouvons-nous traiter les problèmes d’agrégation (qui ont été largement passés sous silence) ? Comment voulons-nous procéder pour l’estimation (qui est sérieusement déficiente) ? Et, pour chacune de ces thèmes, si nous n’aimons pas la manière par laquelle on les traite actuellement, quoi proposons-nous comme alternative ? Ce sont des choses dont nous devons discuter, pas de grandes paroles sur l’opportunité ou non d’utiliser les modèles DSGE ou sur l’utilité de la macroéconomie en général. »

Olivier Blanchard, « Further thoughts on DSGE models. What we agree on and what we do not », 3 octobre 2016. Traduit par Martin Anota

mercredi 5 octobre 2016

Wren-Lewis, Blanchard et les limites de la modélisation DSGE

Ne sous-estimez pas le pouvoir des microfondations !


« Brad DeLong s’est demandé pourquoi le modèle des nouveaux keynésiens (qui a initialement été proposé pour simplement montrer comment les prix visqueux dans un cadre de cycles d’affaires réels pouvaient générer des effets keynésiens) a pu réussir à devenir le modèle dominant dans la macroéconomie moderne, malgré ses diverses insuffisances empiriques. (…) DeLong dit que sa question est intimement reliée à la question suivante : "pourquoi les modèles qui ont été microfondés d’une façon que nous savons erronée sont préférés aux modèles qui essayent de respecter les propriétés que nous observons au niveau empirique ?"

J’estime que les deux questions sont en fait la même. Le modèle des nouveaux keynésiens est la manière microfondée de faire de l’économie keynésienne et les modèles microfondés (les modèles DSGE) sont de rigueur dans la macroéconomie universitaire, donc tout universitaire orthodoxe qui désirerait analyser le cycle d’affaires d’une perspective keynésienne va utiliser une variante du modèle des nouveaux keynésiens. Pourquoi les modèles microfondés sont dominants ? De mon point de vue, c’est une question méthodologique, à propos de l’importance relative de la cohérence "interne" (théorique) des modèles versus leur cohérence "externe" (empirique).

Comme la macroéconomie était très différente il y a cinquante ans, c’est une question méthodologique très intéressante de se demander pourquoi les choses ont changé, même si vous pensez que le changement a grandement amélioré la façon de faire de la macroéconomie (comme je le pense). Selon moi, la (contre-)révolution des nouveaux classiques était avant tout une révolution méthodologique. Cependant, il y a deux problèmes avec une telle discussion. Premièrement, les économistes ne sont généralement pas à l’aise lorsqu’il s’agit de parler de méthodologie. Deuxièmement, il va être difficile de faire admettre à un macroéconomiste sous un certain âge que ce soit une question méthodologique ; celui-ci ne verra les microfondations que comme une manière de corriger ce qui s’est révélé être des insuffisances par le passé.

Donc, par exemple, vous entendrez dire que la cohérence interne est clairement un aspect essentiel de tout modèle, même si elle est acquise en sacrifiant la cohérence externe. Vous entendrez comment la critique de Lucas montre que tout modèle qui n’est pas microfondé est inadéquat pour analyser les politiques économiques, plutôt que ce soit simplement un aspect de l’arbitrage complexe entre cohérence interne et cohérence externe. Plusieurs macroéconomistes aujourd’hui ne saisissent pas que l’adoption des microfondations est un choix méthodologique plutôt qu’un simple moyen de corriger les erreurs passées. Je pense que cela a deux implications pour ceux qui veulent débattre de l’hégémonie des microfondations. La première est que le débat doit se porter sur la méthodologie, plutôt que sur les modèles pris individuellement. Les déficiences avec des modèles microfondés particuliers, comme le modèle des nouveaux keynésiens, sont généralement admises et, du point de vue des microfondations, elles fournissent simplement un agenda pour de nouvelles recherches. Deuxièmement, le manque de familiarité avec cette méthodologie signifie que le débat ne peut présumer un savoir qui n’existe pas. (Et affirmer qu’un tel savoir est nécessaire est un point pertinent pour l’enseignement de l’économie, mais c’est inutile si vous essayez de changer le discours actuel.) Cela complique le débat, mais je suis certain qu’il ne l’empêche pas. »

Simon Wren-Lewis, « Do not underestimate the power of microfoundations », in Mainly Macro (blog), 3 avril 2015. Traduit par Martin Anota



Blanchard à propos de la modélisation DSGE


« Olivier Blanchard, l'ancien économiste en chef du FMI, a écrit un bref article où il s'est montré critique vis-à-vis des modèles DSGE. Pour résumer, les blogueurs ont réagi à son article en suggérant qu’il s’est montré trop précautionneux dans ses propos : la modélisation DSGE domine complètement la macroéconomie universitaire et il est impossible que celle-ci considère soudainement ce programme de recherche comme un énorme gâchis. (Je suis d’accord avec Blanchard à l’idée que la modélisation DSGE ne soit pas une perte de temps.) Ce qui doit être débattu, ce n’est pas l’existence des modèles DSGE, mais leur hégémonie.

Blanchard recommande notamment à ce que la modélisation DSGE "devienne moins impérialiste. (…) La profession (j’entends avant tout les éditeurs des grandes revues) doit prendre conscience qu’il est nécessaire d’avoir différents modèles pour assurer différentes tâches". Le morceau le plus important dans cette phrase est celui entre parenthèses. Il fait référence à une distinction entre les modèles pleinement microfondés et les "modèles de politique économique". Ces derniers ont notamment été appelés par le passé "modèles économétriques structurels" ; ce sont les modèles auxquels Lucas et Sargent se sont attaqués.

Ces modèles économétriques structurels ont continué d’être utilisés comme modèles de base dans plusieurs institutions-clés de politique économique (sauf la Banque d’Angleterre) pour une bonne raison, mais la plupart des universitaires ont suivi Lucas et Sargent en considérant que ces modèles comme ne relèvent pas de la "bonne" macroéconomie. Leur raisonnement est simplement erroné, comme je l’ai indiqué ici. Comme Blanchard le note, ce sont les éditeurs des revues les plus en vue qui doivent en prendre conscience et arrêter d’insister pour que chaque modèle macroéconomique soit nécessairement microfondé. Dès lors qu’ils laisseront de la place pour l’éclectisme, alors les universitaires seront capables de choisir quelles méthodes ils préfèrent utiliser.

Dans une autre remarque qu’il destine aux éditeurs de revues, Blanchard touche le cœur du problème avec la macroéconomie d’aujourd’hui. Il écrit que "toute discussion d’un nouveau mécanisme ne doit pas nécessairement se faire dans un cadre d’équilibre générale". L’exemple dont il discute (et que j’ai moi-même utilisé dans le même contexte) est celui de la consommation. Les modélisateurs DSGE se sont bien sûr souvent écartés de l’équation d’Euler, mais je les soupçonne de l’avoir fait (…) plus pour une convenance analytique que pour une question de réalisme.

Ce qui semble souvent manquer dans la macroéconomie aujourd’hui est une connexion entre les personnes travaillant sur l’analyse en équilibre partiel (comme la consommation) et les modélisateurs de l’équilibre général. La préférence des éditeurs des revues les plus prestigieuses pour la seconde suggère que la première est d’une moindre valeur. A mes yeux, cela a déjà eu d’importants coûts. L’échec à prendre au sérieux les preuves empiriques montrant l’importance de la disponibilité du crédit pour la consommation contribue à expliquer pourquoi la macroéconomie n’a pas su adéquatement modéliser la réaction à la crise financière (…). Même si vous n’acceptez pas cela, l’échec de la plupart des modèles DSGE à inclure tout genre de comportement d’épargne de précaution est pernicieux lorsque la modélisation DSGE est en situation de monopole dans la "bonne" modélisation.

Les critiques à l’encontre de l’hégémonie des modèles DSGE que formulent les non-économistes, les macroéconomistes qui n’utilisent pas ces modèles ou encore les responsables de politique économique n’ont jusqu’à présent eu que peu d’impact sur les éditeurs des revues les plus prestigieuses. Peut-être que des critiques émanant d’un des meilleurs macroéconomistes au monde sont susceptibles d’avoir plus de poids. »

Simon Wren-Lewis, « Blanchard on DSGE », in Mainly Macro (blog), 12 août 2016. Traduit par Martin Anota

mercredi 28 septembre 2016

Wren-Lewis, les microfondations et la critique de Romer

Paul Romer sur la macroéconomie


« C’est ironique de voir que le projet des microfondations, qui devait faire de la macroéconomie une autre application de la microéconomie, a laissé la macroéconomie avec très peu d’amis parmi les autres économistes. La dernière diatribe en date vient de Paul Romer. Oui, elle est injuste et, oui, elle est truffée de passages peu convaincants, mais il ne sera pas ignoré par ceux qui sont en-dehors de la macroéconomie orthodoxe. C’est en partie parce qu’il discute de questions sur lesquelles la macroéconomie moderne est extrêmement vulnérable.

La première vulnérabilité est son traitement des données. Ce que dit Paul sur l’identification montre que la macroéconomie a besoin d’utiliser toutes les informations précises dont elle a à disposition pour paramétrer ses modèles. Pourtant, les modèles microfondés, les seuls modèles que l’on considère comme acceptables dans les revues les plus prestigieuses pour l’analyse théorique comme pour l’analyse empirique, sont normalement plutôt sélectifs en ce qui concerne les données sur lesquelles ils se focalisent. Les preuves empiriques tant micro que macro sont soit ignorées parce qu’elles sont considérées comme gênantes, soit inscrites sur une liste de choses à faire pour de futures recherches. C’est une conséquence inévitable lorsque l’on fait de la cohérence interne un critère d’admissibilité pour qualifier un travail de publiable.

La seconde vulnérabilité est un conservatisme qui découle de sa méthodologie. Le critère des microfondations pris dans sa forme stricte rend certains processus impossibles à modéliser : par exemple, modéliser les prix visqueux où les coûts de menus constituent un paramètre clé. Plutôt, la modélisation DSGE utilise des astuces, comme les contrats de Calvo. Mais qui décide si ces astuces représentent des microfondations acceptables ou bien des éléments ad hoc, voire invraisemblables ? La réponse dépend pour beaucoup des conventions en vigueur parmi les macroéconomistes or, comme toutes les conventions, celles-ci évoluent lentement. A nouveau, c’est un problème qui découle de la méthodologie des microfondations.

Les propos que Romer tient à propos des effets réels de la politique monétaire et de l’insistance que certains portent aux chocs de productivité comme moteurs des cycles d’affaires sonnent datés. (…). Pourtant il fallut beaucoup de temps pour que les modèles de cycles d’affaires réels soient remplacés par les modèles des nouveaux keynésiens et vous verrez toujours des modèles de cycles d’affaires réels. Des éléments issus de la contre-révolution néoclassique des années quatre-vingt persistent toujours dans certains lieux. Il y a quelques années j’ai entendu parler à un séminaire d’une analyse où la crise financière était modélisée comme un large choc négatif de productivité.

C’est seulement dans une discipline qui considère qu’avoir de robustes microfondations constitue la seule manière acceptable de modéliser que des praticiens se sentent peu à l’aise à l’idée d’inclure les prix visqueux au motif que leurs microfondations (les astuces mentionnées ci-dessus) soient problématiques. C’est seulement dans cette discipline que des chercheurs respectés affirment qu’en raison de ces piètres microfondations il vaut mieux ignorer quelque chose comme les prix visqueux quand il s’agit de travailler sur les politiques, un argument qui ferait bien rire si on l’entendait dans une autre discipline scientifique. C’est la seule discipline où l’on débat pour déterminer s’il vaut mieux modéliser ce que l’on peut microfonder plutôt que modéliser ce que l’on voit. D’autres économistes comprennent le problème, mais plusieurs macroéconomistes pensent toujours que tout cela est assez normal. »

Simon Wren-Lewis, « Paul Romer on macroeconomics », in Mainly Macro (blog), 20 septembre 2016. Traduit par Martin Anota



Qu’est-ce qui ne va pas avec le modèle des cycles d’affaires réels ?


« Les modèles DSGE, les modèles que les macroéconomistes orthodoxes utilisent pour modéliser les cycles d’affaires, sont fondés sur le modèle des cycles d’affaires réels. Nous savons (presque) tous que le projet des cycles d’affaires réels a échoué. Donc pourrait-on trouver acceptable d’avoir quelque chose qui se fonderait sur un tel modèle ? Comme le dirait Donald Trump, que se passe-t-il ?

Le modèle de cycles d’affaires réels de base contient une fonction de production reliant la production au capital (possédé par les individus) et au travail plus un élément stochastique représentant le progrès technique, une identité reliant l’investissement et le capital, une identité du revenu national posant la production comme la somme de la consommation et de l’investissement, les conditions de productivité marginale (découlant de la maximisation du profit par des entreprises représentatives en environnement parfaitement concurrentiel) donnant le salaire réel et le taux d’intérêt réel et le problème d’optimisation du consommateur représentatif pour la consommation, l’offre de travail et le capital.

Quel est le gros problème avec ce modèle ? (…) Ignorons le capital, parce que dans le modèle canonique des nouveaux keynésiens le capital n’apparaît pas. Si vous dites que c’est le rôle proéminent conféré aux chocs associés au progrès technique, je vous dirais que je suis d’accord pour dire que c’est un gros problème : toutes les équations comportementales doivent contenir des événements stochastiques qui peuvent aussi générer un choc dans cette économie, mais les modèles des nouveaux keynésiens le font à divers degrés. Si vous dites que c’est l’hypothèse d’équilibrage du marché du travail, je vous dirais que c’est aussi un gros problème. Cependant, à mes yeux, rien de tout cela ne constitue le plus grand problème avec le modèle des cycles d’affaires réels. Le plus gros problème, c’est l’hypothèse d’ajustement continu des marchés des biens et services, autrement dit l’hypothèse de prix pleinement flexibles. C’est l’hypothèse qui amène à conclure que la politique monétaire n’a pas d’impact sur les variables réelles. Maintenant, un modélisateur de cycles d’affaires réels pourrait répondre : comment le savez-vous ? Sûrement qu’il fait sens de voir si un modèle qui suppose une flexibilité des prix peut générer quelque chose comme des cycles d’affaires ?

La réponse à cette question est non, il ne le fait pas. Il ne le fait pas parce que nous savons qu’il ne le peut pas pour une simple raison : le chômage lors d’une récession est involontaire et ce modèle ne peut générer de chômage involontaire, mais seulement des variations volontaires de l’offre de travail, en conséquence des variations à court terme du salaire réel. Une fois que vous acceptez le fait que le chômage lors des récessions est involontaire (et les preuves empiriques en faveur d’une telle idée sont très robustes), vous comprenez pourquoi le projet des cycles d’affaires réels ne marche pas.

Donc pourquoi les modèles de cycles d’affaires réels n’ont-ils jamais décollé ? Parce que la révolution des nouveaux classiques a prétendu que toutes les choses que nous connaissions avant elle devaient être écartées au motif qu’elles ne s’appuyaient pas sur la bonne méthodologie. Mais aussi parce que la bonne méthodologie, en l'occurrence la méthodologie des microfondations, permit au chercheur de sélectionner quelles preuves empiriques (micro ou macro) étaient admissibles. Cela, à son tour, explique pourquoi la méthodologie des microfondations s’est retrouvée au centre de toute critique de la macroéconomie moderne. Je laisse sous silence pourquoi les modélisateurs de cycles d’affaires réels ont écarté les preuves empiriques montrant que le chômage est involontaire.

Le modèle des nouveaux keynésiens, bien qu’il n’ait peut-être ajouté qu’une seule équation au modèle des cycles d’affaires réels, a réussi à corriger sa principale faille : son échec à reconnaître le savoir prérévolutionnaire à propos de ce qui provoque les cycles d’affaires et de ce que vous devez faire pour les combattre. Dans ce sens, le fossé qu’il a creusé avec l’héritage qu’il tire de la théorie des cycles d’affaires réels a été profond. Est-ce que l’analyse des nouveaux keynésiens est toujours entravée par sa filiation avec la théorie des cycles d’affaires réels ? La réponse est complexe (voir par exemple ici) et elle tient à la fois du oui et du non. Mais à nouveau, je serais plutôt enclin à affirmer que ce qui entrave davantage les avancées de la macroéconomie moderne est sa dépendance à une méthodologie très particulière.

Un dernier point. Beaucoup de personnes en dehors de la macroéconomie orthodoxe aiment décrire la modélisation DSGE comme une stratégie de recherche dégénérative. Je pense que c’est une affirmation très difficile à étayer et qu’elle n’est pas convaincante aux yeux des économistes orthodoxes. Ce que j’affirme par contre, (…) c’est qu’il n’y a pas de bonne raison justifiant pourquoi la modélisation des microfondations devrait être la seule stratégie de recherche employée par les économistes universitaires. Je mets au défi quiconque de mettre en doute cette idée. »

Simon Wren-Lewis, « What is so bad about the RBC model? », in Mainly Macro (blog), 20 août 2016. Traduit par Martin Anota

lundi 22 août 2016

Comment l’équilibre de Nash a révolutionné la théorie des jeux



« John Nash est arrivé à l’Université de Princeton en 1948 pour commencer son doctorat avec une lettre de recommandation d’une seule phrase : "c’est un génie en mathématiques". Il n’a pas déçu. A l’âge de 19 ans et avec seulement un cours d’économie universitaire à son nom, il réalisa au cours des 14 premiers mois qui ont suivi l’obtention de son diplôme le travail qui finirait, en 1994, par lui faire gagner le "prix Nobel d’économie" pour sa contribution à la théorie de jeux.

Le 16 novembre 1949, Nash envoya une note plus grande qu’une page aux Proceedings of the National Academy of Sciences, où il développa le concept qui a depuis reçu le nom d’"équilibre de Nash". Ce concept décrit une situation stable qui résulte de personnes ou d’institutions prenant rationnellement des décisions en se basant sur ce qu’ils pensent que les autres vont faire. A un équilibre de Nash, personne n’est capable d’améliorer sa propre situation en changeant de stratégie : chaque personne fait aussi bien qu’elle le peut, même si cela ne se traduit pas par un dénouement optimal pour l’ensemble de la société. Avec d’élégants développements mathématiques, Nash montra que chaque "jeu" caractérisé par un nombre limité de joueurs, qui ne disposent chacun que d’un nombre limité d’options à choisir, présente au moins un tel équilibre.

Ses intuitions étendirent le champ de la science économique. Sur les marchés parfaitement concurrentiels, où il n’y a pas de barrières à l’entrée et où les produits de chacun sont identiques, aucun acheteur ou vendeur ne peut individuellement influencer le marché : personne ne va prêter attention à ce que les autres font. Mais la plupart des marchés ne sont pas comme cela : les décisions des rivaux et des clients importent. Des ventes aux enchères au marché du travail, l’équilibre de Nash donna à la science lugubre une manière de faire des prédictions dans le monde réel en s’appuyant sur l’information relative aux incitations auxquelles chaque personne est soumise.

Un exemple en particulier est souvent utilisé pour symboliser l’équilibre : le dilemme du prisonnier. Nash a utilisé l’algèbre et les chiffres pour décrire cette situation dans un article publié en 1951, mais la version qui est familière aux étudiants en économie est bien plus frappante. (…) Il implique deux truands placés dans deux cellules de prison séparées qui se voient accorder chacun la même proposition de la part du procureur. Si tous les deux confessent un meurtre sanglant, ils auront une peine de dix ans de prison. Si l’un des deux reste silencieux, tandis que l’autre le dénonce, alors ce dernier obtiendra une remise de peine, tandis que le premier sera emprisonné à vie. Et si tous les deux restent muets, alors chacun ne sera inculpé que pour un délit mineur et ne passera qu’un an en prison. Il n’y a qu’une solution dans le dilemme du prisonnier que l’on puisse qualifier d’équilibre de Nash : chacun balance l’autre. Pour chacun, c’est la meilleure réponse à la stratégie de l’autre ; comme l’autre peut avoir craché le morceau, le balancer assure d’éviter la prison à perpétuité. Ce dénouement est vraiment tragique : si les deux truands avaient pu mettre en place une certaine forme de coordination, ils auraient pu se retrouver au final dans une meilleure situation pour chacun.

L’exemple montre que les foules peuvent être aussi bien égoïstes que judicieuses ; ce qui est le mieux pour l’individu peut être désastreux pour le groupe. Cette issue tragique n’est que trop banale dans le monde réel. Libres de piller les mers, les individus vont pêcher bien plus que ce qui est optimal pour le groupe, ce qui entraîne l’épuisement des stocks de poissons. Si les salariés se font concurrence pour impressionner leur chef en restant travailler plus longtemps au bureau, la main-d’œuvre va s’épuiser. Les banques sont incitées à prêter plus qu’il n’est prudent de le faire lorsque les prix de l’immobilier explosent.

L’équilibre de Nash a aidé les économistes à comprendre comment des individus qui cherchent à améliorer leur situation peuvent former des foules autodestructrices. Qui plus est, il les a aidés à s’attaquer au problème : ils doivent juste s’assurer que chaque individu fait face aux meilleures incitations possibles. Si les choses vont toujours mal (par exemple, si les parents refusent de vacciner leurs enfants contre la rougeole), c’est peut-être parce que les gens n’agissent pas dans leur propre intérêt. Dans ce cas, le défi de la politique publique se situe dans le domaine de l’information.

L’idée de Nash avait des antécédents. En 1838, l’économiste français Antoine Augustin Cournot a théorisé ce qui se passera si, dans un marché avec où seules deux entreprises sont en concurrence, chacune voyait les désavantages qu’il y a à accroître sa part de marché en stimulant sa production : en l’occurrence, cela réduirait les prix et les profits. Involontairement, Cournot a donné un exemple d’équilibre de Nash. Il fait sens pour chaque entreprise de fixer ses niveaux de production en se basant sur la stratégie de ses concurrents ; les consommateurs, cependant, se retrouvent avec moins de biens et avec des prix plus élevés que si une concurrence à plein régime avait prévalu.

Le mathématicien hongrois John Neumann fut un autre pionnier. En 1928, l’année où Nash est né, von Neumann proposa une première théorie des jeux formelle, montrant que, dans les jeux à deux personnes et à somme nulle, il y aurait toujours un équilibre. Quand Nash partagea ses trouvailles avec von Neumann, qui était alors un demi-dieu intellectuel, ce dernier les considéra comme "triviales", en y voyant qu’une simple extension des siens. En fait, le fait que von Neumann se soit focalisé sur les jeux à deux personnes et à somme nulle n’offrait seulement qu’un ensemble très étroit d’applications pour sa théorie. La plupart d’entre elles étaient militaires. C’est le cas de la destruction mutuelle assurée, dans laquelle l’équilibre est atteint en armant les adversaires avec les armes nucléaires (certains ont suggéré que le personnage de film Docteur Folamour était basé sur von Neumann). Rien de tout cela n’était particulièrement utile pour observer les situations du monde réel, notamment la plupart des formes de marché, dans lesquelles la victoire d’un parti n’implique pas forcément la défaite de l’autre.

Néanmoins, les économistes partagèrent initialement l’avis de von Neumann et négligèrent largement la découverte de Nash. Ce dernier s’est lancé dans d’autres aventures mathématiques, mais les espoirs qu’elles nourrissaient s’effondrèrent lorsqu’en 1959 il commença à souffrir de délires et de paranoïa. (…) Alors même qu’il combattait sa maladie mentale, son concept d’équilibre devint de plus en plus central dans la discipline. La part des articles d’économie citant l’équilibre de Nash a été multipliée par sept depuis 1980, et le concept a été utilisé pour résoudre plusieurs problèmes de politique dans le monde réel. Un fameux exemple en est le système hospitalier américain, qui se trouvait dans les années quarante à un mauvais équilibre de Nash. (...)

L’équilibre de Nash n’aurait pas reçu son statut actuel sans quelques améliorations apportées à l’idée originelle. Premièrement, dans de nombreuses situations, il peut y avoir plus d’un équilibre de Nash. Les conducteurs choisissent sur quel côté de la route conduire en optant pour la meilleure réponse au comportement des autres conducteurs, avec des résultats très différents, en fonction de l’endroit où ils habitent ; ils roulent à gauche en Grande-Bretagne, mais à droite aux Etats-Unis. Au grand dam des économistes férus d’algèbre, la compréhension des stratégies nécessite de connaître les normes et habitudes sociales. Le théorème de Nash ne suffit pas.

Une seconde amélioration passe par la prise en compte des menaces non crédibles. Si un adolescent menace de fuguer si sa mère lui confisque son téléphone portable, alors il y a un équilibre de Nash où elle lui rend le portable pour maintenir la paix. Mais Reinhard Selten, un économiste allemand qui partagea avec John Nash et John Harsanyi le "prix Nobel d’économie" en 1994, affirmaie que ce n’est pas une issue plausible. La mère doit savoir que la menace de son enfant ne tient pas : qu’importe à quel point la perte d’un portable est tragique, une nuit dans les rues serait pire. Elle doit juste confisquer le portable pour forcer son fils à se focaliser sur ses devoirs.

Les travaux de Selten permettent aux économistes de restreindre le nombre possible d’équilibres de Nash. Harsanyi s’attaqua au fait que dans plusieurs jeux dans le monde réel, les gens ne sont pas sûrs de ce que leurs adversaires désirent. Les économistes auraient du mal à analyser les meilleures stratégies pour deux tourtereaux cherchant un lieu pour une date donnée sans avoir une idée de ce que l’autre préfère. En imbriquant les croyances de chaque personne dans le jeu (par exemple, la croyance que l’autre aime les pizzas autant que les sushis), Harsanyi rendit le problème solvable. Un problème différent persistait. Le pouvoir prédictif de l’équilibre de Nash dépend de la rationalité du comportement. Pourtant les êtres humains sont loin de toujours adopter un comportement rationnel. Dans les expérimentations répliquant le cadre du dilemme du prisonnier, environ la moitié des gens choisissent d’avouer. Pour les économistes qui se sont attelés à imbriquer la rationalité (et Nash) dans leurs modèles, c’est problématique. A quoi bon mettre en place les bonnes incitations si les gens n’agissent pas dans leur meilleur intérêt ? Tout n’était pas perdu. Les expérimentations ont aussi montré que l’expérience rend les joueurs plus avisés ; au dixième tour, seulement 10 % des joueurs environ refusaient d’avouer. Cela a amené les économistes à être plus prudents à propos de l’application de l’équilibre de Nash. Avec des jeux plus compliqués et des jeux où les joueurs n’ont pas la chance d’apprendre de leurs erreurs, ses intuitions ne marchent pas aussi bien.

L’équilibre de Nash joue toutefois un rôle central dans la microéconomie moderne. Nash est mort dans un accident de voiture en 2015 ; il avait alors retrouvé sa santé mentale, repris l’enseignement à l’université de Princeton et reçu un "prix Nobel" collectif pour avoir montré que les interactions au sein du groupe importent davantage que tout individu. »

The Economist, « Game theory: Prison breakthrough », 20 août. Traduit par Martin Anota

mercredi 6 juillet 2016

IS-LM et la macroéconomie moderne

« Beaucoup de lecteurs (…) ont demandé une explication du modèle IS-LM. (…)

Rappelons qu’IS-LM fait référence, d'une part, à la relation entre l’investissement (I) et l’épargne (S) et, d'autre part, à la relation entre la liquidité (L) et la monnaie (M) (…). La première chose que vous devez savoir est qu’il y a plusieurs manières correctes d’expliquer le modèle IS-LM, parce qu’il s’agit d’un modèle mettant en interaction plusieurs marchés et vous pouvez ainsi y entrer via différents angles ; chacun d’entre eux peut constituer un bon point de départ.

Mon approche favorite consiste à considérer IS-LM comme une manière de réconcilier deux approches à première vue incompatibles à propos de la détermination des taux d’intérêt. Selon l’une d’entre elles, le taux d’intérêt est déterminé par l’offre et la demande de fonds prêtables, de capitaux : c’est l’approche par les "fonds prêtables". Selon la seconde, le taux d’intérêt est déterminé par l’arbitrage entre les obligations, qui rapportent des intérêts à leur détenteur, et la monnaie, qui n’en rapporte pas, mais qui peut être utile pour réaliser des transactions et elle a par conséquent une valeur spéciale en raison de sa liquidité : c’est l’approche par la "préférence pour la liquidité". (Certes, des choses proches de la monnaie rapportent des intérêts, mais pas autant que les actifs les moins liquides.)

Comment ces deux approches peuvent-elles être exactes ? Parce que nous sommes au minimum en train de parler de "deux" variables, pas d’une seule ; le PIB comme le taux d’intérêt. Et l’ajustement du PIB est ce qui permet aux fonds prêtables et à la préférence pour la liquidité de tenir simultanément.

Commençons du côté des fonds prêtables. Supposons que l’épargne désirée et les dépenses d’investissement désirées soient couramment égales l’une à l’autre et que quelque chose pousse le taux d’intérêt à la baisse. Est-ce qu’il doit augmenter pour retrouver son niveau initial ? Pas nécessairement. Un excès d’investissement désiré par rapport à l’épargne désirée peut entraîner une expansion de l’activité économique, ce qui pousse le revenu à la hausse. Et puisqu’une partie de la hausse du revenu va être épargnée (et en supposant que la demande d’investissement n’augmente pas autant) une hausse suffisamment large du PIB peut restaurer l’égalité entre l’épargne désirée et l’investissement désirée à un nouveau taux d’intérêt.

Cela signifie que les fonds prêtables ne déterminent pas le taux d’intérêt en soi ; ils déterminent un ensemble de combinaisons possibles du taux d’intérêt et du PIB, avec de plus faibles taux d’intérêt correspondant à des PIB plus élevés. Et c’est cela la courbe IS.

Parallèlement, les gens qui décident de la façon d’allouer leur richesse font des arbitrages entre monnaie et obligations. Il y a une demande de la monnaie décroissante : plus le taux d’intérêt est élevé, plus les gens vont utiliser leurs liquidités pour obtenir de plus hauts rendements. Supposons que la banque centrale garde l’offre de monnaie momentanément fixe ; dans ce cas, le taux d’intérêt doit être tel qu’il permet d’équilibrer cette demande avec la quantité de monnaie. Et la banque centrale peut faire varier le taux d’intérêt en changeant l’offre de monnaie : l’offre de monnaie augmente et le taux d’intérêt doit chuter pour pousser les gens à détenir une plus grande quantité de monnaie.

Et nous obtenons ainsi IS-LM :

Paul_Krugman__modele_IS_LM_equilibre.png

Le point où les courbes se croisent détermine à la fois le PIB et le taux d’intérêt et, à ce point précis, les fonds prêtables et la préférence pour la liquidité sont simultanément valides.

Pourquoi utiliser le modèle IS-LM ? Tout d’abord, il vous aide à éviter certaines erreurs, comme l’idée selon laquelle, parce que l’épargne doit être égale à l’investissement, les dépenses publiques ne peuvent entraîner une hausse des dépenses totales (…). Et il permet également d’éviter certaines confusions comme l’idée selon laquelle les déficits publics, en poussant les taux d’intérêt à la hausse, sont en fait susceptibles d’alimenter la contraction de l’activité économique. Plus spectaculairement, IS-LM se révèle être très utile pour considérer les considérations extrêmes comme celles que nous voyons actuellement, dans lesquelles la demande privée s’est tellement contractée que l’économie reste déprimée alors même que le taux d’intérêt est nul. Dans cette situation, le graphique ressemble plutôt à cela :

Paul_Krugman__modele_IS_LM_trappe_a_liquidite.png

Pourquoi est-ce que la courbe LM est-elle plate à zéro ? Parce que si le taux d’intérêt chutait sous zéro, les gens préféreraient juste détenir de la liquidité, plutôt que des obligations. A la marge, alors, la monnaie est juste détenue comme réserve de valeur et les variations de l’offre de monnaie n’ont aucun effet. C’est ce qu’on appelle la trappe à liquidité.

Et le modèle IS-LM permet de faire quelques prévisions à propos de ce qui se passe lorsque l'économie est piégée dans une trappe à liquidité. Les déficits budgétaires poussent la courbe IS vers la droite ; dans la trappe à liquidité, cela n’a pas d’effets sur le taux d’intérêt. Les accroissements de l’offre de monnaie ne font rien du tout. C’est pourquoi, au début de l’année 2009, lorsque le Wall Street Journal, les partisans de l’économie autrichienne et d’autres usual suspects prétendaient qu’il y aurait une hausse des taux d’intérêt et une explosion de l’inflation, ceux qui comprenaient le modèle IS-LM prévoyaient que les taux resteraient faibles et que même un triplement de la base monétaire ne serait pas inflationniste. Les événements ont donné raison à ces derniers (malgré quelques gros titres momentanés sur une inflation poussée par les prix des matières premières) et donné tort à ceux qui prophétisaient une explosion des taux d’intérêt et de l’hyperinflation.

Oui, IS-LM simplifie beaucoup les choses, mais on ne peut se contenter de ce modèle. Il a fait ce que tout bon modèle économique est supposé faire : donner sens à ce que nous voyons et nous permettre de faire des prévisions particulièrement utiles sur ce qui se passe dans des circonstances inhabituelles. Les économistes qui comprennent le modèle IS-LM ont été bien plus utiles et pertinentes pour parler de la récente crise que ceux qui ne le comprennent pas. »

Paul Krugman, « IS-LMentary », in Conscience of a Liberal (blog), 9 octobre 2011. Traduit par Martin Anota



« (…) Je fais une courte pause dans la révision de mon manuel, mais j’ai toujours la macroéconomie en tête et me demande qu’elle est la meilleure manière de l’enseigner. Retournons à un vieux sujet, en l’occurrence la pertinence et l’actualité du cadre hicksien d’IS-LM, dans contexte quelque peu différent.

Quand la Grande Récession a frappé, il y a eu une forte division dans le monde des économistes entre ceux qui avaient appris et apprécié le vieux cadre hicksien et ceux qui ne l’avaient pas appris ou l’avaient rejeté. Pourtant ce cadre permit de faire quelques prédictions importantes. Par exemple, il suggère que les choses seraient différentes à la borne inférieure zéro. Les accroissements de la base monétaire (même s’ils sont larges) ne seraient pas inflationnistes. Les déficits budgétaires ne pousseraient pas les taux d’intérêt à la hausse. Et les multiplicateurs budgétaires seraient bien plus larges qu’ils le sont en temps normal, car en temps normal toute expansion ou contraction budgétaire est susceptible d’être compensée par la politique monétaire.

C’étaient des prédictions particulièrement controversées à l’époque, mais elles furent vérifiées dans les faits subséquents. Certains critiques en sont réduits à affirmer que les idées hicksiennes sont parvenues à s’avérer justes pour de mauvaises raisons.

Mais voilà le problème : procéder à une analyse hicksienne en public est toujours extrêmement mal vu parmi les économistes. C’est ad hoc, non microfondé, désordonné en ce qui concerne les relations intertemporelles ; les modèles DSGE avec prix visqueux sont mieux vus. Publier des trucs à la IS-LM, même dans un forum politique, reste compliqué et n’est généralement possible que pour des vieux économistes disposant d’un capital professionnel suffisant.

Combien perd-on en conséquence ? Ce qui m’a motivé a été la lecture de l’analyse réalisée par Gauti Eggertsson, Neil Mehrotra, Sanjay Singh et Lawrence Summers (2016) sur la contagion de la stagnation séculaire. C’est un travail sérieux et je suis d’accord avec les principales conclusions ; je suis aussi un grand admirateur de chaque économiste qui y a contribué, en particulier de Gauti, qui étudiait les bizarreries économiques associées à la trappe à liquidité longtemps avant que cela devienne un sujet à la mode.

(…) Je sais que c’est en partie parce que je vieillis que je suis de moins en moins tolérant avec l’affutage algébrique que j’ai moi-même eu l’habitude d’utiliser par le passé. Vous restez convaincus du vieux principe selon lequel le niveau optimal de difficulté technique dans les articles est précisément celui de vos propres articles. (…)

Que peut-on obtenir en délaissant l’extrême rigueur (le cadre des générations imbriquées, la modélisation explicite des contraintes d’endettement, et ainsi de suite) ? Supposons que vous répondiez à cette question à l’ancienne, en utilisant Mundell-Fleming, la version d’IS-LM en économie ouverte. Vous réduiriez cela (comme Olivier Blanchard l’a suggéré dans un mail) à un diagramme de Metzler, avec le taux de change (prix de la devise étrangère) sur l’axe des abscisses et les taux d’intérêt sur les axes des ordonnées.

Paul_Krugman__taux_de_change_taux_d__interet_Mundel_Fleming.png

L’idée ici est qu’une dépréciation de la devise nationale provoque une expansion économique de l’économie domestique, à laquelle la banque centrale va réagir en resserrant sa politique monétaire, d’où la droite croissante ; parallèlement, elle provoque une contraction à l’étranger, à laquelle la banque centrale étrangère va réagir en assouplissant sa politique monétaire, d’où la droite décroissante. Mais toutes les deux font face à une borne inférieure zéro (zero lower bound), d’où les droites horizontales.

Avec une mobilité parfaite des capitaux et des anticipations statiques, les taux d’intérêt doivent être égalisés, donc l’équilibre est l’endroit où les deux lignes se croisent. Et il est maintenant évident qu’un choc adverse touchant l’étranger, représenté par les flèches rouges, va pousser les taux d’intérêt à la baisse dans les deux économies. Si le choc suffit à conduire l’économie étrangère à la borne inférieure zéro, cela va faire la même chose à l’économie domestique, avec la transmission via le taux de change. En d’autres termes, l’Europe peut exporter sa stagnation séculaire aux Etats-Unis via un faible euro et un dollar fort.

Bien sûr, vous apprenez bien plus de l’article d’Eggertsson et alii, en ce qui concerne le rôle des contraintes de crédit dans l’apparition de la stagnation ou encore l’impact des limites à la mobilité des capitaux dans la limitation de sa diffusion au reste du monde. Mais le coût en termes de complexité et lourdeur est large. Et cette lourdeur peut même nous amener à manquer certaines intuitions. L’article d’Eggertsson et alii, nécessairement, de l’analyse des états réguliers. Pourtant je crois que la transmission de la trappe à liquidité dépend du caractère permanent ou transitoire du choc, tel qu’il est perçu par les agents, or vous perdez cette intuition en supposant un état régulier.

Mais, certains lecteurs ne manqueront pas de noter que j’ai déjà moi-même utilisé ce genre de cadre, par exemple dans mon analyse originelle de la trappe à liquidité et dans le travail que j’ai réalisé avec Gauti sur le désendettement. Oui, c’est vrai, mais c’est en partie pour parvenir à passer la barrière anti-Hicks (…). En fait, je ne croyais pas vraiment en la trappe à liquidité jusqu’à ce que je la voie éclater dans un modèle néo-keynésien, et mettre sous forme d’équations le processus de désendettement m’a réellement aidé à clarifier ma pensée ici aussi.

Donc, dans l’absolu, je ne suis pas contre l’idée d’une modélisation plus poussée. Ce qui m’inquiète, c’est la prohibition des modèles simples, ad hoc, qui permettent pourtant de rendre compte de l’essentiel des intuitions (dans le cas de la stagnation séculaire et de sa contagion internationale, je suis sûr que ces modèles en fournissent 90 % des intuitions) sous une forme qui est bien plus utile pour les débats de politique économique dans le monde réel. (…) »

Paul Krugman, « Tl;dr and modern macroeconomics », in The Conscience of a Liberal (blog), 20 juin 2016. Traduit par Martin Anota

vendredi 3 juin 2016

Comment devons-nous enseigner la macroéconomie aux étudiants après la crise ?



« (…) Comme je dois réaliser la septième édition de mon manuel de macroéconomie destiné aux étudiants, je suis confronté à la question suivante : comment devons-nous enseigner la macroéconomie aux étudiants après la crise ? Voici certaines de mes conclusions. (Je me concentre ici sur les court et moyen termes ; j’écrirai un autre billet pour discuter de la manière par laquelle nous devons enseigner la théorie de la croissance.)

La relation investissement-épargne (IS)


La relation IS reste la clé pour comprendre les variations à court terme de la production. A court terme, la demande de biens et services détermine le niveau de la production. Si les agents désirent épargner plus, alors la demande décline, ce qui pousse la production à la baisse. Sauf dans des circonstances exceptionnelles, la même chose reste vraie pour la consolidation budgétaire. J’ai été frappé par le nombre de fois où il a fallu, durant la crise, à expliquer le "paradoxe de l’épargne" et combattre la ligne Hoover-allemande ("réduisez votre déficit budgétaire, mettez de l’ordre dans votre maison, et ne vous inquiétez pas, l’économie sera en bonne santé"). Quelqu’un qui partage ce point de vue doit expliquer comment cela peut être cohérent avec la relation IS.

La demande de biens et services dépend, à son tour, du taux d’intérêt auquel les ménages et les entreprises peuvent emprunter (et non du taux directeur fixé par la banque centrale). John Maynard Keynes a eu raison d’insister sur le rôle des esprits animaux. L’incertitude, le pessimisme, justifié ou non, dépriment la demande globale et peuvent être très largement auto-réalisateurs. Les inquiétudes à propos des perspectives futures influencent les décisions prises aujourd’hui. De telles inquiétudes sont probablement la source de notre faible croissance.

La relation entre la préférence pour la liquidité et l’offre de monnaie


La relation LM, dans sa formulation traditionnelle, est la relique d’une époque où les banques centrales se focalisaient sur l’offre de monnaie plutôt que sur le taux d’intérêt. Dans sa formulation initiale, une hausse de la production entraîne une hausse de la demande de monnaie et une hausse mécanique du taux d’intérêt. La réalité est aujourd’hui différente. Les banques centrales considèrent le taux directeur comme leur principal instrument (…). Donc, l’équation LM doit être remplacée, assez simplement, par le taux directeur décidé par la banque centrale, sachant que ce dernier est susceptible de buter sur sa borne inférieure zéro (zero lower bound). (…). Ce changement a déjà eu lieu dans les modèles des nouveaux keynésiens ; il doit maintenant s’opérer dans les manuels destinés aux étudiants.

Intégrer le système financier dans les modèles macroéconomiques


Si la crise nous a enseigné quelque chose, c’est l’importance du système financier pour la macroéconomie. Traditionnellement, le système financier a été quelque peu ignoré dans les textes macroéconomiques destinés aux étudiants. Le même taux d’intérêt apparaît dans les équations IS et LM ; en d’autres termes, les ménages et les entreprises sont supposés emprunter au taux directeur fixé par la banque centrale. Nous avons appris que ce n’est pas le cas et que les choses peuvent par conséquent aller très mal.

Ce que l’enseignant doit faire, selon moi, est d’introduire deux taux d’intérêt, le taux directeur fixé par la banque centrale dans l’équation LM et le taux d’intérêt auquel les ménages et les entreprises peuvent emprunter, qui entre dans l’équation IS, et ensuite discuter de la manière par laquelle le système financier détermine l’écart entre les deux. Je vois cela comme l’extension nécessaire du traditionnel modèle IS-LM. Un simple modèle de banques montrant le rôle du capital, d’un côté, et le rôle de la liquidité, d’un autre côté, peut être pas mal. Plusieurs des questions qui ont été soulevées durant la crise, par exemple à propos des pertes et des assèchements de liquidité, peuvent être discutées et intégrées dans le modèle IS-LM. Avec cette extension, on peut montrer à la fois les effets des chocs sur le système financier et la manière par laquelle le système financier modifie les effets des autres chocs touchant l’économie.

La demande agrégée et l’offre agrégée


En ce qui concerne l’offre, ce que l’on appelle le modèle demande agrégée-offre agrégée doit être éliminé. Il est bancal et, pour de bonnes raisons, les étudiants ont du mal à la comprendre.

Son principal point est de montrer comment la production retourne naturellement à son potentiel sans changement en termes de politique économique, via un mécanisme qui apparaît peu pertinent en pratique : une baisse de la production entraîne une baisse du niveau des prix, ce qui entraîne, pour un stock donné de monnaie, un accroissement du stock réel de monnaie, ce qui entraîne une baisse du taux d’intérêt, puis une hausse de la demande et donc de la production. C’est un enchaînement d’événements long et complexe avec un réalisme douteux. Ce qui est central à l’ajustement est l’hypothèse d’une constance de l’offre de monnaie nominale, ce qui à nouveau n’est pas la façon par laquelle les banques centrales agissent. Et l’idée selon laquelle les économies retournent naturellement à leur trajectoire normale a été éreinté par les événements de ces sept dernières années.

Ces difficultés sont évitées si on utilise simplement la relation de type courbe de Phillips pour caractériser le côté de l’offre. La production potentielle ou, de manière équivalente, le taux naturel du chômage, est déterminé par l’interaction entre la fixation du salaire et la fixation des prix. Si la production est supérieure à son potentiel ou si le chômage est inférieur à son taux naturel, alors l’économie subit des pressions inflationnistes. La nature des pressions dépend de la formulation des anticipations, une question centrale pour les développements courants. Si les gens s’attendent à ce que l’inflation soit la même que dans un passé proche, les pressions se traduisent par une hausse du taux d’inflation. Si les gens s’attendent à ce que l’inflation soit assez constante, comme il semble être le cas aujourd’hui, alors les pressions se traduisent par une plus forte inflation et non pas par une inflation en accélération. Ce qui se passe pour l’économie, si elle revient sur sa tendance historique, dépend alors de la façon par laquelle la banque centrale ajuste le taux directeur en réponse à ces pressions inflationnistes.

A nouveau, cette manière de discuter du côté de l’offre est déjà standard dans les présentations les plus avancées et dans le modèle des nouveaux keynésiens (bien que la spécification à la Calvo utilisée dans ce modèle, aussi élégante soi-elle, est arbitrairement contraignante et ne rend pas justice aux faits). Il est temps de l’intégrer dans le modèle présenté aux étudiants. »

Olivier Blanchard, « How to teach intermediate macroeconomics after the crisis? », 2 juin 2016. Traduit par Martin Anota

samedi 26 mars 2016

L’équivalence ricardienne et l’effet Fisher : les mal-nommés

« En économie, comme dans d’autres disciplines, il est commun de donner aux modèles, aux théorèmes et aux résultats empiriques le nom de leurs concepteurs. (…) Ou peut-être pas. Ou quelque chose de très différent peut arriver, comme peuvent vous le dire David Ricardo et Irving Fisher.

L’équivalence ricardienne


Beaucoup pensent que David Ricardo (1772-1823) a été à l’origine de l’idée selon laquelle il ne fait aucune différence pour le gouvernement de financer ses dépenses via l’impôt ou l’emprunt dans la mesure où les contribuables, qui anticipent une hausse du fardeau fiscal futur lorsque leur gouvernement s’endette, sont indifférents entre ces deux modes de financement. Pour arriver à une telle conclusion, il faut penser que les contribuables ordinaires réduisent leur consommation aujourd’hui pour se préparer à un plus lourd fardeau fiscal dans les décennies qui viennent. Si c’est vrai, l’efficacité de la politique budgétaire en serait grandement réduite.

Il n’est pas juste d’attribuer cette proposition à Ricardo parce que, même s’il développa la logique qui la sous-tend, il n’était pas convaincu par cette proposition. Selon Ricardo (1817), "On aurait tort de conclure de tout ce que je viens de dire que je regarde le système des emprunts comme le meilleur moyen de fournir aux dépenses extraordinaires de l’État. C’est un système qui tend a nous rendre moins industrieux, à nous aveugler sur notre situation". (…) Brad DeLong et Martha Olney (2006) ont vu juste : "Cette idée des effets à long terme (mais aussi à court terme) de la dette publique et des déficits budgétaires est appelée 'équivalence ricardienne' en référence à David Ricardo, qui ne semble pourtant pas la soutenir ; elle devrait plutôt être appelée 'équivalence barrovienne', en référence à son partisan le plus fervent et le plus habile, le macroéconomiste de Harvard, Robert Barro".

L’effet Fisher


Beaucoup ont attribué à Irving Fisher l’idée selon laquelle les taux d’intérêt réels sont insensibles aux variations de l’inflation et ont pu penser que Fisher considéra une telle insensibilité comme quelque chose de naturel. Par exemple, Okun (1981) déclara : "Comme Fisher le vit, une hausse supplémentaire de 1 point de pourcentage de l’inflation attendue accroit le taux de rendement nominal attendu sur les actifs capitaux réels de 1 point de pourcentage et elle induit une hausse parallèle de 1 point de pourcentage des rendements des obligations et des bons du Trésor pour maintenir les rendements attends à l’équilibre". De plus, en utilisant les données trimestrielles relatives aux Etats-Unis, Feldstein et Eckstein (1970) écrit : "les données confirment donc les deux hypothèses fisheriennes fondamentales : (1) à long terme, le taux d’intérêt réel est (approximativement) insensible au taux d’inflation, mais (2) à court terme, le taux d’intérêt réel chute lorsque le taux d’inflation augmente". Si cela est vrai, cette proposition suggère que la politique monétaire et la politique budgétaire sont moins efficaces qu’on ne le croit, car les taux d’intérêt réels, mais aussi d’autres agrégats macroéconomiques comme l’investissement et l’épargne seraient insensibles aux variations de l’inflation via l’intérêt réel, du moins à court terme.

La relation empirique que l’on appelle effet Fisher porte mal son nom par ce que les propres données de Fisher (1930) sur les taux d’intérêt et les taux d’inflation à New York, Londres, Paris, Berlin, Calcutta et Tokyo entre 1825 et 1927 suggèrent que les taux d’intérêt nominaux ne reflètent pas vraiment les variations de l’inflation, (…) même à long terme. (…) Toutes les données de Fisher montrent que les taux d’intérêt évoluent plus lentement que l’inflation et changent moins que l’inflation. (…) Les données de Fisher suggèrent des cycles d’inflation d’une durée moyenne de six ans, mais les données relatives aux taux d’intérêt ne présentent pas de tels cycles. Cela suggère une faible sensibilité des taux d’intérêt nominaux à l’inflation. L’effet Fisher, selon lequel l’inflation varie de 1 point de pourcentage quand les taux d’intérêt nominaux augmentent de 1 point de pourcentage, porte bien mal son nom en tant que résultat empirique. C’est plutôt une possibilité théorique que les données de Fisher ne soutiennent pas.

(…) Dans les données de Fisher, la déflation était presque aussi commune que l’inflation, ce qui suggère que la déflation contribue à pousser les taux d’intérêt et le fardeau de la dette à la hausse, entraînant alors défiance, ventes en détresse, banqueroutes, paniques bancaires, contraction de la production et des échanges et hausse du chômage. Il peut ne pas y avoir de controverse à propos de l’idée que la déflation pousse les taux d’intérêt réels à la hausse lorsque les taux d’intérêt nominaux refusent d’aller en-deçà de zéro, comme ce fut le cas dans les données de Fisher. Il peut avoir été naturel à cette époque de s’attendre à ce que les taux d’intérêt nominaux ne suivent pas l’inflation, parce que des accélérations d’inflation étaient souvent suivies par une déflation, puisque les anticipations d’inflation étaient bien ancrées par l’étalon-or.

Ces résultats sont cohérents avec ceux de Fisher lui-même. Comme Tobin (1987) et Dimand (1999), parmi d’autres, ont pu le souligner, la théorie des taux d’intérêt de Fisher et sa lecture des données historiques lui suggéraient que les taux d’intérêt réels variaient inversement avec l’inflation et que l’ajustement des taux d’intérêt nominaux à l’inflation prenait beaucoup de temps (Fisher, 1896). Selon Fisher (1930), "lorsque les prix augmentent, le taux d’intérêt tend à être élevé, mais pas aussi élevé qu’il devrait l’être pour compenser la hausse des prix ; et lorsque les prix chutent, le taux d’intérêt tend à être faible, mais pas aussi faible qu’il le devrait pour compenser la chute des prix". Fisher (1930) décrit la relation entre les taux d’intérêt et le taux d’inflation comme suit : "Lorsque le niveau des prix chute, le taux d’intérêt nominal chute légèrement, mais le taux d’intérêt réel augmente grandement, tandis que lorsque le niveau des prix augmente, le taux d’intérêt nominal s’élève un peu, mais le taux d’intérêt nominal chute fortement". (…) »

Thorvaldur Gylfason, Helgi Tomasson et Gylfi Zoega (2016), « Misnomers », in VoxEU.org, 24 mars. Traduit par Martin Anota

vendredi 22 janvier 2016

La macroéconomie universitaire orthodoxe fait-elle preuve d’éclectisme ?

« Eric Lonergan a publié un petit billet bien intéressant à lire (…) où il y fait une remarque importante de manière simple et claire (…). Les grandes modèles et les grandes écoles de pensée ne sont pas vrais ou faux, ils sont juste plus ou moins applicables aux différentes situations. Vous devez vous appuyer sur les modèles des nouveaux keynésiens lors des récessions, mais les modèles de cycles d’affaires réels peuvent décrire certains booms dénués d’inflation. Vous avez besoin de Minsky dans une crise financière, notamment pour empêcher la suivante. Comme le dit Dani Rodrik, il y a plein de modèles et les vraies questions portent sur leur applicabilité.

Si nous acceptons cela, la question que je veux poser est si la macroéconomie orthodoxe est également éclectique. (…) Ma réponse est à la fois oui et non.

(…) Il y a actuellement un large programme de recherche qui cherche à incorporer le secteur financier et (quelques fois) le potentiel pour les crises financières, dans les modèles DSGE, donc bientôt nous pourrions nous retrouver avec du Minsky. En effet, la variété de modèles que la macroéconomie universitaire utilise actuellement est bien plus large que ça.

Est-ce que cela signifie que la macroéconomie universitaire est fragmentée en diverses cliques, certaines grosses et certaines petites ? Pas vraiment (…). Je pense que n’importe lequel de ces modèles peut être présenté à un séminaire universitaire et que l’auditoire aurait une certaine idée de ce qu’il cherche à dire, qu’il serait capable de soulever des questions et de soulever des critiques d’ordre interne à l’encontre de ce modèle. Ceci est parce que ces modèles (à la différence de ceux d’il y a plus de 40 ans) utilisent un langage commun. L’idée selon laquelle le classement universitaire des économistes comme Lucas doit changer au fil d’événements comme la récente crise financière semble erroné de ce point de vue.

Cela signifie que la gamme d’hypothèses que les modèles (les modèles DSGE par exemple) peuvent faire est énorme. Il n’y a rien sur un plan formel qui impose à ce que chaque modèle suppose des marchés du travail parfaitement concurrentiels où la théorie du produit marginal de la répartition soit valide ou même où il n’y a pas de chômage involontaire, comme certains économistes hétérodoxes l’affirment parfois. La plupart du temps, les agents dans ces modèles sont supposés être optimisateurs, mais je connais plusieurs articles dans les revues les plus prestigieuses qui incorporent quelques agents non optimisateurs dans des modèles DSGE. Donc il n’y a en principe aucune raison justifiant que l’économie comportementale ne puisse pas être incorporée. Si trop de modèles universitaires apparaissent vraiment différemment, je pense que cela reflète la sociologie de la macroéconomie et l’histoire de la pensée macroéconomique plus qu’autre chose (…).

Cela signifie aussi que l’éventail de questions auxquelles les modèles (les modèles DSGE) peuvent s’attaquer est également large. Pour prendre juste un exemple : l’idée selon laquelle la crise financière fut provoquée par des inégalités croissantes qui amenèrent les plus modestes à se surendetter. C’est le thème d’un article publié en 2013 par Michael Kumhof, Romain Ranciere et Pablo Winant. Et pourtant le modèle qu’ils utilisent pour répondre à cette question est un modèle DSGE avec juste quelques petites modifications. Il n’y a rien de fondamentalement hétérodoxe là-dedans.

Donc pourquoi les perceptions populaires sont-elles si différentes ? Pourquoi les gens parlent-ils d’écoles de pensées ? Je pense qu’il y a deux raisons à ça. Premièrement, même si tout ce que j’ai dit ci-dessus est valable dans le cadre de la compréhension et du discours universitaires, ça ne vaut pas dans le cadre de la politique économique. Quand ça touche à la politique économique, nous devons déterminer quels modèles les universitaires estiment être appropriés pour des problèmes de politique économique données, or les divisions peuvent être ici particulièrement profondes. Deuxièmement, il y a plein de personnes en dehors du cercle universitaire qui parlent d’économie auprès d’une large audience (et qui présentent généralement une certaine orientation politique) et ils se considèrent souvent comme appartenant à telle ou telle école de pensée.

En termes de pratique de travail plutôt que de finalité des décisions de politique macroéconomique, la plupart des macroéconomistes universitaires se considéreraient eux-mêmes comme éclectiques (…). Mais cette idée et le langage commun que les universitaires orthodoxes utilisent m’amènent au « non » à ma question originelle. Le thème commun des travaux dont j’ai parlés jusqu’à présent est qu’ils sont microfondés. Les modèles sont construits à partir du comportement individuel.

Vous pouvez noter que je n’ai pas parlé jusqu’à présent de l’une des écoles de pensée dont parle Eric : la théorie marxiste. Ce qu’Eric veut souligner ici apparaît clairement dans sa première phrase : "Bien que les économistes soient célèbres pour modéliser les individus comme mus par leur seul intérêt personnel, la plupart des macroéconomistes ignorent la possibilité que les groupes agissent aussi dans leur propre intérêt". Ici je pense que sur ce plan la macroéconomie orthodoxe n’est pas éclectique. Les microfondations visent seulement à fonder le comportement macroéconomique sur l’agrégation des comportements individuels.

J’ai publié plusieurs billets où j’affirme que cette absence d’éclectisme, qui conduit à exclure les travaux non microfondés, est profondément problématique, pas tant parce que l’orthodoxie se révèle alors incapable de faire face à la théorie marxiste (…), mais parce que cela la conduit à ignorer d’autres parties du monde macroéconomique réel. (…) Mais pour moi, du moins, c’est un point méthodologique, plutôt que quelque chose associé à une quelconque école de pensée. Les tentatives visant à lier les deux (…) ne sont sources que de confusion.

La confusion provient (…) de la contre-révolution des nouveaux classiques des années soixante-dix et quatre-vingt. Cette révolution, comme la plupart des révolutions, ne fut pas éclectique ! Elle s’avéra révolutionnaire sur le plan méthodologique, en affirmant que tout modèle doit être microfondé, et, en termes de macroéconomie orthodoxe, elle fut une réussite complète. Elle essaya également de révolutionner le champ de la politique économique et de supplanter l’économie keynésienne, mais elle se solda en définitive par un échec. Mais, peut-être à cause de ça, la méthodologie et la politique économique s’en trouvèrent embrouillées. La macroéconomie universitaire apparaît très éclectique lorsque l’on voit l’éventail de questions de politique économique auxquelles elle peut s’attaquer et de conclusions auxquelles elle peut aboutir, mais en termes de méthodologie, c’est plutôt l’opposé. »

Simon Wren-Lewis, « Is mainstream academic macroeconomics eclectic? », in Mainly Macro (blog), 13 janvier 2016. Traduit par Martin Anota

samedi 28 novembre 2015

Petite autobiographie intellectuelle de Douglass North



« (…) Je ne peux pas dire que j’ai appris beaucoup en économie formelle lorsque j’étais étudiant à Berkeley. Les professeurs qui m’ont le plus influencé étaient Robert Brady, Leo Rogin, un marxiste et un professeur d’histoire de la pensée économique très influent, et Melvin Moses Knight (le frère de Frank Knight), qui était très certainement agnostique à propos de la théorie, mais qui connaissait parfaitement les faits et arrière-plans en histoire économique. Il devint mon mentor et mon directeur de thèse à Berkeley. Mais j’avais beau chercher à apprendre par cœur les théories que j’étais supposé connaître, je ne parvenais pas vraiment à les comprendre. Ce ne fut pas avant que j’obtienne mon premier emploi, à l’Université de Washington à Seattle, et que je commence à jouer aux échecs avec Don Gordon, alors jeune et brillant théoricien, que j’ai réellement appris la théorie économique. Durant les trois années au cours desquelles j’ai joué aux échecs tous les jours, de midi à deux heures de l'après-midi, j’ai peut-être réussi à battre Don aux échecs, mais il m’enseigna l’économie. La chose la plus importante qu’il m’ait enseignée, ce fut à raisonner comme un économiste et cette compétence constitue peut-être l’ensemble d’outils le plus important que j’ai pu acquérir au cours de ma vie.

J’ai écrit ma thèse sur l’histoire de l’assurance-vie aux Etats-Unis et (…) je suis allé à la côte Est pour réaliser mon travail de fourmi. Cette année-là se révéla être très productive. Non seulement j’ai pu assister aux séminaires de Robert K. Merton en sociologie à Columbia, mais je suis aussi allé à l’école entrepreneuriale d’Arthur Cole à Harvard, si bien que Joseph Schumpeter finit par avoir une forte influence sur moi. Mes premiers travaux et mes premières publications visèrent à développer l’analyse de l’assurance-vie de ma thèse et ses relations avec les activités de banque d’investissement. J’ai ensuite développé un cadre analytique pour observer la croissance économique régionale et cela mena à la publication de mon premier article dans le Journal of Political Economy, appelé "Location Theory and Regional Economic Growth". Cette étude m’amena finalement à développer les bases d’une théorie de la croissance économique.

J’ai eu la chance de rencontrer Solomon Fabricant lors d’une conférence organisée par l’Economic History Association. C’était le directeur de recherche du National Bureau of Economic Research. En 1956-1957, j’ai été invité à passer une année au Bureau comme associé de recherche. Ce fut une année très importante dans ma vie. Cela me permit non seulement de rencontrer plusieurs des plus grands économistes qui passèrent au NBER, mais j’ai pu également passer une journée chaque semaine à Baltimore avec Simon Kuznets et réaliser les travaux empiriques qui se soldèrent par ma célèbre étude quantitative de la balance des paiements des Etats-Unis de 1790 à 1860. (…)

Entre mon année au NBER et 1966-1967, année où je partis pour Genève (…), j’ai réalisé mes plus importants travaux sur l’histoire économique américaine, dont mon premier livre, The Economic Growth of the United States from 1790 to 1860. Ce fut une analyse simple de la manière par laquelle les marchés fonctionnent dans le cadre d’un modèle de croissance par l’export.

A cette époque, en 1960, il y avait beaucoup d’efforts visant à transformer l’histoire économique. Durant l’année au cours de laquelle j’étais au NBER, ce dernier et l’Economic History Association proposaient le premier programme quantitatif sur la croissance de l’économie américaine et ils avaient organisé une conférence dans le cadre de ce programme à Williamstown, au Massachusetts, à la fin du printemps de l’année 1957. Cette conférence marqua réellement le début de la nouvelle histoire économique, mais le programme prit une autre tournure, lorsque Jon Hughes et Lance Davis, deux de mes anciens étudiants (…), organisèrent la première conférence visant à réunir les chercheurs en histoire économique intéressés à l’idée de développer et d’appliquer une théorie économique et des méthodes quantitatives à l’histoire. La première conférence eut lieu en février de l’année 1960. Ce programme fut une réelle réussite et les économistes le reçurent avec enthousiasme. Les départements d’économie ont rapidement cherché à recruter des chercheurs de la nouvelle histoire économique ou, comme nous nous appelions nous-mêmes, des cliométriciens (Clio étant la muse de l’histoire). Comme j’ai développé un programme universitaire avec mon collègue Morris David Morris à l’Université de Washington, nous avions pu attirer certains des meilleurs étudiants qui travaillaient en histoire économique et, durant les années soixante et au début des années soixante-dix, le marché du travail fut très dynamique et nos étudiants ont pu facilement trouver une place aux Etats-Unis.

En 1966-1967, j’ai décidé que je devais délaisser l’histoire économique des Etats-Unis pour celle de l’Europe, puis, une fois que je reçus la subvention pour vivre à Genève pendant un an, j’ai décidé de changer d’outils. Changer d’outils a radicalement changé ma vie, puisque j’ai été rapidement convaincu que les outils de la théorie économique néoclassique ne pouvaient nous permettre d’expliquer le type de changement sociétal fondamental qui caractérise les économies européennes depuis le Moyen-Âge. Nous avions besoin de nouveaux outils, mais ces derniers n’existaient pas encore. Ce fut durant la longue période durant laquelle je recherchais un cadre susceptible de fournir de nouveaux outils d’analyse que mon intérêt pour la nouvelle économie institutionnelle et les inquiétudes qu’elle suscita évoluèrent. En résultèrent deux livres, un coécrit avec Lance Davis, Institutional Change and American Economic Growth, et un autre coécrit avec Robert Thomas, The Rise of the Western World: A New Economic History.

Ces deux livres furent des tentatives visant à développer quelques outils d’analyse institutionnelle et pour les appliquer à l’histoire économique. Tous deux étaient encore fondés sur la théorie néoclassique et il y avait trop d’impasses qui ne faisaient pas sens : comme l’idée que les institutions étaient efficientes. Peut-être de façon plus problématique, il n’était pas possible d’expliquer les piètres performances économiques de long terme dans un cadre néoclassique. Donc j’ai commencé à chercher à identifier ce qui n’allait pas. Les croyances individuelles étaient évidemment importantes pour les choix que les individus font et seule la myopie extrême des économistes les empêchait de comprendre que les idées, les idéologies et les préjugés importent. Une fois que vous reconnaissez ça, vous ne pouvez que remettre en question le postulat de rationalité.

Le long chemin que j’ai parcouru pour développer un nouveau cadre analytique m’amena à prendre au sérieux toutes ces considérations ; à développer une vision des institutions qui expliquerait pourquoi les institutions produisent des résultats qui échouent à générer de la croissance économique à long terme ; à développer un modèle d’économie politique afin de pouvoir expliquer la source sous-jacente des institutions. Finalement, on avait à expliquer pourquoi les gens ont les idéologies et les idées qui déterminent les choix qu’ils font.

Dans Structure and Change in Economic History (1981), j’ai abandonné l’idée que les institutions sont efficientes et j’ai cherché à expliquer pourquoi des règles "inefficientes" tendent à exister et à se perpétuer. C’état lié à une théorie simple et néoclassique de l’Etat qui peut expliquer pourquoi l’Etat peut produire des règles qui n’encouragent pas la croissance économique. J’étais toujours insatisfait de notre compréhension du processus politique et j’ai donc cherché des collègues susceptibles d’être intéressés par le développement de modèles politico-économiques. Cela m’amena à quitter l’Université de Washington en 1983, après y avoir été pendant 33 ans, et à aller à l’Université Washington à St. Louis, où il y avait un groupe enthousiaste de jeunes politologues et économistes qui cherchaient à développer de nouveaux modèles d’économie politique. Cela s’avéra être un déménagement des plus fructueux. J’ai créé le Center in Political Economy, qui continue d’être un centre de recherche créatif.

Le développement d’un cadre politico-économique pour explorer le changement institutionnel de long terme m’occupa durant toutes les années quatre-vingt et m’amena à publier Institutions, Institutional Change and Economic Performance en 1990. Dans ce livre, j’ai commencé à réfléchir sérieusement au postulat de rationalité. Il est clair que nous devons réussir à expliquer pourquoi les gens font les choix qu’ils font ; pourquoi des idéologies comme le communisme ou le fondamentalisme musulman peuvent façonner les choix que les gens font et orienter la trajectoire que suivent les économies sur de longues périodes de temps. On ne peut simplement pas prendre en compte les idéologies sans creuser en profondeur dans la science cognitive pour chercher à comprendre la manière par laquelle l’esprit apprend et fait des choix. Depuis 1990, mes divers travaux visent à traiter cette question. J’ai toujours beaucoup de chemin à parcourir, mais je crois que comprendre comment les gens font des choix ; sous quelles conditions le postulat de rationalité s’avère être un outil utile ; et comment les individus font des choix dans un contexte d’incertitude et d’ambigüité sont des questions fondamentales auxquelles nous devons répondre de façon à faire davantage de progrès dans les sciences sociales. (…)

Depuis que j’ai reçu le prix Nobel en 1993, j’ai continué mes recherches visant à développer un cadre analytique qui améliorerait notre compréhension des changements économiques, sociaux et politiques de long terme. Avec cet objectif en tête, j’ai davantage creusé la science cognitive et j’ai cherché à comprendre la manière par laquelle l’esprit et le cerveau fonctionnent et comment cela est lié à la manière par laquelle les gens font leurs choix et adoptent leurs systèmes de croyances. Cela sous-tend clairement le changement institutionnel et est une condition préalable pour développer une théorie à propos du changement institutionnel. J’ai aussi cherché à intégrer la théorie politique, économique et sociale puisqu’une théorie pertinente du changement économique ne peut être développée dans le seule cadre de la science économique, mais doit s’imprégner des sciences sociales et de la science cognitive. L’un des résultats de ces travaux fut le livre (…) Understanding the Process of Economic Change. Ces divers efforts m’ont notamment amené à m’associer avec Ronald Coase (qui gagna le prix Nobel en 1991) pour créer l’International Society for the New Institutional Economics. »

Douglass C. North, autobiographie publiée en 1993, complétée en mai 2005. Traduite par Martin Anota



aller plus loin... lire « Les institutions comme source d’avantage comparatif »

samedi 5 septembre 2015

Le jour où la macroéconomie changea

« C’est bien sûr ridicule, mais qui s’en soucie. Le jour de la conférence organisée par la Fed de Boston en 1978 revêt une signification symbolique. C’est le jour où Lucas et Sargent changèrent la manière par laquelle on fait de la macroéconomie. Ou, comme le dirait Paul Romer, c’est le jour où la vieille garde rejeta les idées des nouveaux venus et s’assura qu’il y ait une révolution nouvelle classique en macroéconomie plutôt qu’une évolution nouvelle classique. Ou, comme le dirait Ray Fair, qui était par ailleurs présent à la conférence, c’est le jour où la macroéconomie commença à mal aller.

Ray Fair est un peu un héros pour moi. Lorsque j’ai quitté le National Institute pour devenir un universitaire formel, j’avais pour but (avec l’aide essentielle de deux collègues excellents et courageux) de construire un nouveau modèle économétrique de l’économie britannique, qui incorporerait la dernière théorie, en l’occurrence la théorie des nouveaux keynésiens, mais qui incorporerait également quelques aspects additionnels, pour par exemple prendre en compte la possible influence des conditions de crédit sur la consommation. A la différence d’un modèle DSGE, cela impliquait autant que possible de s'appuyer sur l’estimation économétrique. J’avais précédemment travaillé avec le modèle du Trésor et configuré ensuite ce qui constitue désormais le modèle NIGEM qu’utilise le National Institute en adaptant un modèle global utilisé par le Trésor et finalement j’ai eu en charge de développer le modèle domestique de l’institut. Mais créer un nouveau modèle à partir de rien en l’espace de deux ans était une autre paire de manches. Le conseil du Conseil de Recherche Economique et Sociale (ESRC) me donna de l’argent pour le faire, mais je savais que plusieurs de ses membres pensaient que je n’y parviendrai pas. En croyant (avec raison) que c’était possible, Ray Fair fut une réelle source d’inspiration pour moi.

Je suis d’accord avec Ray Fair à l’idée que ce qu’il appelle les modèles de type Commission Cowles ou ce que j’appelle les modèles économétriques structurels, couplés avec l’estimation économétrique d'une unique équation qui leur est sous-jacente, aient beaucoup à offrir et que la macroéconomie universitaire ne devrait pas les ignorer. Ayant passé les quinze dernières années à travailler avec les modèles DSGE, je suis plus optimiste sur leurs vertus que ne l’est Fair. A la différence de Fair, je veux des modèles DSGE encore plus sophistiqués. Je suis également en désaccord avec ce qu’il pense des anticipations rationnelles : le modèle du Royaume-Uni que j’ai construit avait des anticipations rationnelles dans toutes les relations clés.

Il y a trois ans, lorsqu’Andy Haldane suggéra que les modèles DSGE étaient en partie responsables de la crise financière, je n’étais pas d’accord avec lui (comme je l’ai écrit dans ce billet). Ensuite, j’ai commencé à penser (et je continue de croire) que la banque centrale dispose des informations et des ressources pour savoir ce qui se passait avec l’endettement des banques commerciales et qu’elle ne doit pas utiliser les modèles DSGE comme une excuse pour ne pas avoir rendu publiques ses inquiétudes à l’époque.

Cependant, si nous élargissons cela hors de la banque centrale, à l’ensemble de la communauté universitaire, je pense qu’il a un point légitime. J’ai déjà parlé des travaux que Carrol et Muellbauer ont réalisés. Ces deux auteurs montrent que vous devez prendre en compte les conditions de crédit si vous voulez expliquer les séries temporelles d’avant-crise relatives à la consommation au Royaume-Uni et aux Etats-Unis. Les modèles DSGE peuvent éviter ce problème, mais des modèles économétriques structurels plus traditionnels auraient plus de difficultés à le faire. Donc, peut-être que si la macroéconomie universitaire avait donné une plus grande priorité à l’explication de ces séries temporelles, elle aurait été mieux préparée pour comprendre l’impact de la crise.

Que dire à propos de l’affirmation selon laquelle seuls les modèles DSGE qui présentent une cohérence interne sont capables de donner un conseil politique fiable ? Pour un autre projet, j’ai relu un article de Chari et alii publié en 2008 dans l’American Economic Journal: Macroeconomics. Les auteurs y affirmaient que les modèles des nouveaux keynésiens n’étaient pas encore utiles pour l’analyse politique parce qu’ils n’étaient pas proprement microfondés. Ils avaient écrit : "Une tradition, qui a notre préférence, consiste à garder le modèle le plus simple possible, d’avoir un nombre limité de paramètres, motivés par les faits microéconomiques, et d’accepter la réalité qu’un tel modèle ne peut, ni doit être cohérent avec la plupart des aspects des données. Un tel modèle peut toujours être très utile pour éclairer notre réflexion quant à la politique économique". C’est bien là où vous vous retrouvez lorsque vous vous laissez submerger par une vision puriste à propos de la cohérence interne, de la critique de Lucas et ainsi de suite. Vous risquez de finir par penser cela : "si je n’arrive pas à comprendre quelque chose, il vaut mieux que suppose que ça n’existe pas". »

Simon Wren-Lewis, « The day macroeconomics changed », in Mainly Macro (blog), 27 août 2015. Traduit par Martin Anota

vendredi 21 août 2015

Réforme et révolution en macroéconomie

« Dans une série de billets qu’il a récemment publiés (notamment celui-ci et celui-là), Paul Romer a cherché à comprendre pourquoi les macroéconomistes se sont scindés en deux groupes, en l’occurrence les économistes d’eau douce (freshwater) d’un côté et les économistes d’eau de mer (saltwater). Selon lui, cela ne peut s’expliquer par la seule volonté des nouveaux classiques de lancer une révolution ; l’attitude défensive et méprisante de la part de plusieurs keynésiens traditionnels y était aussi pour beaucoup.

(…) Je ne doute pas que beaucoup de keynésiens (…) réagirent d’une manière défensive et méprisante. Ils étaient, après tout, sur un terrain particulièrement glissant. Ce terrain n’était pas les grands macromodèles économétriques, mais une équation : la courbe de Phillips traditionnelle. Celle-ci fait dépendre l’inflation à l’instant t des anticipations d’inflation à l’instant t et l’écart du chômage par rapport à son taux naturel. Ajoutez-y les anticipations rationnelles et vous montrez que les écarts par rapport au taux naturel sont aléatoires et que l’économie keynésienne devient hors de propos. Par conséquent, beaucoup de macroéconomistes keynésiens virent les anticipations rationnelles (et par conséquent toutes les propositions des nouveaux classiques) comme une menace à leur existence même et ils réagirent en cherchant à dénigrer les anticipations rationnelles plutôt qu’en questionnant la courbe de Phillips traditionnelle. Par conséquent, le statu quo disparut (1).

Nous savons maintenant que cette défaite fut temporaire, parce que les nouveaux keynésiens finirent par proposer leur version de la courbe de Phillips et par faire éclore une nouvelle “synthèse”. Mais cela prit du temps et vous pouvez décrire les événements de l’époque de deux manières différentes. Vous pouvez penser que les nouveaux classiques ont toujours eu l’objectif de renverser (et non d’améliorer) l’économie keynésienne, qu’ils pensaient avoir réussi à le faire et qu’ils ignorèrent par conséquent tout simplement la nouvelle économie nouvelle keynésienne. Ou bien vous pouvez penser que la réaction initialement ferme des keynésiens traditionnels suscita une manière alternative de faire les choses dont Paul déplore et cherche à expliquer la persistance. (Je ne sais pas quelle histoire est la plus proche de la vérité. Dans ce billet, je donnais crédit à la première, mais Paul et d’autres m’ont convaincu que j’avais tort.) Dans l’un et l’autre cas, vous pouvez en conclure que les choses auraient pu mieux se passer en macroéconomie s’il y avait eu davantage de réforme que de révolution.

Je ne veux pas débattre ici de l’économie keynésienne, mais me pencher sur des choses encore plus fondamentales : la manière par laquelle les preuves empiriques sont traitées en macroéconomie. Vous pouvez considérer que la contre-révolution des nouveaux classiques repose sur deux piliers. Le premier pilier concerne l’économie keynésienne et c’est celui dont tout le monde aime bien parler. Mais le second pilier est peut-être plus important, du moins en ce qui concerne la manière par laquelle la macroéconomie est faite l’université. Ce fut la révolution des microfondations, qui conduisit tout d’abord au développement des modèles de cycles d’affaires réels, puis des modèles DSGE. Comme Paul l’écrit : "Lucas et Sargent avaient bien raison en 1978 quand ils affirmèrent qu’il y avait quelque chose d’erroné, d’inévitablement erroné, avec les grands modèles de simulation macro. Le travail universitaire basé sur ces modèles s’effondra".

Ce que je me demande, c’est si la réforme n’aurait également pas été préférable à la révolution en ce qui concerne ce deuxième pilier.

Il y a tout d’abord deux choses à dire de la citation de Paul. Bien sûr, il n’y avait pas beaucoup d’universitaires qui travaillaient à l’époque directement sur de larges modèles de simulation macroéconomiques, mais par contre beaucoup d’universitaires réalisaient un travail économétrique sur des séries temporelles autour d’équations qui pouvait être utilisé dans ces modèles ou bien analysaient de petits modèles agrégés dont les équations n’étaient pas microfondées, mais qui étaient justifiées par une combinaison éclectique de théorie et d’empirie. Ce travail au sein de l’université disparut et fut remplacé par la modélisation microfondée.

Deuxièmement, la critique de Lucas et Sargent a été fatale dans le sens où elle modifia la façon par laquelle les universitaires travaillent (et la manière par laquelle ils considèrent ces modèles de simulation économétriques) (…). Mais elle ne fut pas fatale dans un sens plus général. Comme Brad DeLong le souligne, ces modèles de simulation économétriques survirent dans les secteurs privé et public (par exemple au sein de la Fed américaine ou de l’OBR britannique). Au Royaume-Uni, ils survirent dans le secteur universitaire jusqu’à la fin des années quatre-vingt-dix, puis l’université contribua à les faire disparaître.

Je ne pense pas une seconde que ces modèles soient un substitut adéquat pour la modélisation DSGE. Je ne doute absolument pas que la modélisation DSGE soit une bonne manière de faire de la théorie macroéconomique et j’en ai beaucoup appris en la pratiquant. Il est également évident qu’il y avait beaucoup d’erreurs avec les larges modèles économétriques dans les années soixante-dix. Je me demande s’il fut une bonne chose pour l’université de les rejeter complètement et d’éviter le travail économétrique qu’elle réalisait pour les nourrir.

Il est difficile pour les macroéconomistes universitaires formés depuis les années quatre-vingt de s’attaquer à cette question, parce qu’on leur a appris que ces modèles et techniques sont inévitablement erronés dans la mesure où ils souffrent de la critique de Lucas et de problèmes d’identification. Mais les modèles DSGE, en tant que guide pour la politique économique, sont également erronés parce qu’ils sont trop simples. L’unique propriété que les modèles DSGE ont est la cohérence interne. Prenez un modèle DSGE, modifiez quelques équations afin qu’il colle mieux aux données et vous obtenez ce qui est peut être qualifié de modèle économétrique structurel. C’est de façon interne incohérent, mais dans la mesure où le modèle colle mieux aux données, il peut être un meilleur guide pour la politique économique.

Au Royaume-Uni, dans les années quatre-vingt et quatre-vingt-dix, les modèles économétriques structurels évoluèrent de façon à minimiser les problèmes soulevés par la critique de Lucas en incorporant les anticipations rationnelles (ainsi que d’autres idées des nouveaux classiques) et des améliorations furent apportées à l’économétrie des séries temporelles afin de faire face aux problèmes d’identification. Si vous le voulez, vous pouvez dire que les modèles économétriques structurels se rapprochèrent des modèles DSGE, mais où la cohérence interne fut sacrifiée lorsqu’elle se révéla clairement incompatible avec les données.

Ce sont des choses difficiles à accepter pour ceux qui ont appris que les modèles économétriques structurels d’époque sont obsolètes et inévitablement erronés dans un sens plus fondamental. On vous dira que, pour prévoir, vous pouvez soit utiliser un modèle DSGE, soit un genre de modèle VAR (virtuellement) athéorique, ou bien que les responsables politiques n’ont pas d’autre choix que d’utiliser un modèle DSGE lorsqu’ils analysent la politique économique. Ces deux idées sont simplement fausses.

Il y a quelque chose de paradoxal ici. A une époque où les universitaires travaillant dans d’autres champs d’économie faisaient moins de théorie et sont devenus plus empiriques, la macroéconomie est allée dans la direction opposée, adoptant en bloc une méthodologie qui faisait de la cohérence théorique interne des modèles une priorité sur leur capacité à reproduire les données. Une alternative (à travers laquelle la modélisation DSGE aurait été inspirée par des manières plus traditionnelles de faire de la macroéconomie tout en inspirant celles-ci) était possible, mais les nouveaux classiques et la révolution des microfondations mirent à l’écart cette possibilité.

Est-ce que c’est important ? En quoi ce pilier de la révolution des nouveaux classiques a été coûteux ?

Voici ici une réponse. Alors même qu’il est faux de suggérer que les modèles DSGE ne peuvent incorporer le secteur financier ou une crise financière, les universitaires ne cherchent pas à expliquer pourquoi certains des travaux qui sont aujourd’hui réalisés ne l’ont pas été avant la crise financière. Il est souvent suggéré qu’il n’y avait aucune raison de faire cela avant la crise. Ce n’est pas vrai. Prenons la consommation comme exemple. Lorsque l’on regarde les séries temporelles (non filtrées) pour la consommation au Royaume-Uni et aux Etats-Unis, il est difficile d’éviter de donner de l’importance à l’évolution graduelle des conditions de crédit au cours des deux ou trois dernières décennies (cf. les travaux de Carroll et Muellbauer auxquels j'ai déjà fait référence). Si ce genre de travail avait reçu une plus grande attention (…), cela nous aurait amené à chercher à comprendre pourquoi les conditions de crédit changèrent, ce qui nous aurait alors amené à nous pencher sur des questions impliquant les interactions entre les secteurs réel et financier. Si cela avait été le cas, la macroéconomie aurait pu être mieux préparée pour examiner l’impact du secteur financier.

Bref, l’économie keynésienne n’est pas le seul domaine où la réforme aurait été plus productive que la révolution suite à la critique de Lucas et Sargent (1979).

(1) La question n’est pas de savoir si les anticipations sont généralement rationnelles ou non. C’est que toute théorie des cycles d’affaires qui repose sur des anticipations d’inflation irrationnelles apparaît improbable. Croyons-nous vraiment que les cycles d’affaires disparaîtraient si seulement les anticipations d’inflation étaient rationnelles ? Les doctorants des années soixante-dix et quatre-vingt le comprirent, ce qui explique pourquoi la plupart d’eux rejetèrent la position keynésienne traditionnelle. Aussi, comme Paul Krugman le souligne, plusieurs économistes keynésiens apprécièrent l’idée d’incorporer les idées des nouveaux classiques.

Simon Wren-Lewis, « Reform and revolution in macroeconomics », in Mainly Macro (blog), 19 août 2015. Traduit par Martin Anota

lundi 27 juillet 2015

L’histoire populaire de la Grande Inflation

« Voici une histoire que les économistes racontent souvent à leurs étudiants. Après que Phillips ait découvert sa courbe, qui relie l’inflation au chômage, Samuelson et Solow suggérèrent en 1960 qu’elle impliquait un arbitrage sur lequel les responsables pouvaient s’appuyer. Ils peuvent de façon permanente avoir un peu moins de chômage au prix d’un peu plus d’inflation. Les autorités publiques utilisèrent cette possibilité, mais elles ne comprirent pas pourquoi l’inflation n’augmenta pas qu’un peu : elle ne cessa pas d’augmenter. Vint ensuite Milton Friedman à la rescousse. Dans le discours présidentiel qu’il tint en 1968, il affirma que l’inflation dépendait aussi des anticipations d’inflation, ce qui signifiait que le courbe de Phillips de long terme était verticale et qu’il n’y avait pas d’arbitrage permanent entre l’inflation et le chômage. Les autorités publiques le comprirent et la hausse régulière de l’inflation que l’on avait observé durant les années soixante et soixante-dix s’interrompit.

C’est une jolie petite histoire, en particulier si vous aimez l’idée que tous les grands désastres macroéconomiques découlent des erreurs de la macroéconomie dominante. Cependant, même un étudiant à moitié endormi aurait quelques difficultés avec cette histoire. Pourquoi cela prit plus de dix ans pour que les idées de Friedman soient adoptées par les responsables politiques, alors que l’erreur présumée de Samuelson et Solow semble avoir été adoptée rapidement ? Même si vous pensez que le problème d’inflation ne commença réellement qu’à partir des années soixante-dix, cela implique un retard de 10 ans dans le mécanisme de transmission du savoir, ce qui est un peu étrange.

Cependant rien de tout cela n’importe, parce que cette histoire populaire est tout simplement fausse. Ce sujet a fait l’objet d’une petite discussion sur les blogs (voir notamment Robert Waldmann) et la meilleure source est James Forder. Il y a des études (par exemple celle-ci), mais la source la plus complète est désormais son livre, qui présente une étude complète de cette histoire populaire. Il affirme qu’elle est fausse dans tous les domaines. Non seulement Samuelson et Solow n’ont pas affirmé qu’il y a un arbitrage permanent entre l’inflation et le chômage que les autorités publiques peuvent exploiter, mais ces dernières n’ont jamais cru qu’il y avait un arbitrage. Donc d’où vient cette histoire populaire ? Elle vient de Friedman lui-même, dans le discours qu’il prononça en 1977 lorsqu’il reçut le prix Nobel.

Forder parle de bien d’autres choses dans son livre, notamment de l’ampleur à laquelle l’affirmation de Friedman en 1968 selon laquelle les anticipations sont importantes fut particulièrement originale (elle ne l’était pas). Il décrit aussi comment et pourquoi l’histoire de Friedman s’est tellement enracinée qu’elle devint populaire. La raison pour laquelle je parle de tout cela dans ce billet est que je suis en train de finaliser une étude sur le mécanisme de transmission du savoir et l’adoption de l’austérité en 2010, et je vouais me pencher à nouveau sur les précédentes crises macroéconomiques.

Si ce n’était pas la croyance dans l’arbitrage de long terme entre inflation et chômage, qu’est-ci qui poussa l’inflation à graduellement s’accélérer durant les deux précédentes décennies ? Forder a beaucoup à dire sur le sujet, mais je vais poursuivre en me contentant de ma propre réflexion. Je pense que deux choses étaient importantes : l’idée que la gestion de la demande globale était principalement conçue pour atteindre le plein emploi et le fait que le plein emploi était prioritaire sur l’objectif de stabilité des prix. Bien que de plus en plus d’économistes au cours de cette période commencèrent à voir le problème de politique économique dans un cadre de courbe de Phillips, beaucoup espéraient toujours que d’autres mesures comme les politiques de prix et de revenus (au Royaume-Uni en particulier, mais aussi aux Etats-Unis) pouvaient surmonter la logique de courbe de Phillips. La primauté de l’objectif de plein emploi signifiait que le problème était souvent décrit comme une inflation par les coûts (cost-push inflation) plutôt que comme une hausse du taux de chômage naturel.

Si vous trouvez cela difficile à imaginer, imaginez ce que les historiens diront de la période actuelle aux alentours de 2050. Par alors, les non-linéarités de la courbe de Phillips et le pouvoir que la cible d’inflation avait en ancrant les anticipations d’inflation étaient fermement enracinés dans la pensée orthodoxe. Avec le bénéfice du recul, ces historiens seront surpris de calculer l’ampleur à laquelle les ressources ont été perdues quelques décennies plus tôt parce que les décideurs politiques sont devenus obnubilés par une cible d’inflation de 2 % et par les déficits budgétaires. Ils vont raconter avec amusement que beaucoup d’économistes et de décideurs politiques qui pensaient que la manière de traiter avec une insuffisance de la demande globale était la mise en œuvre de "réformes structurelles". Au lieu de construire des histoires populaires, ils vont noter que même lorsque la plupart des économistes réalisèrent ce qui était nécessaire pour se fourvoyer à nouveau, les décideurs politiques étaient extrêmement réticents à changer la cible d’inflation. »

Simon Wren-Lewis, « The F story about the Great Inflation », in Mainly Macro (blog), 26 juillet 2015. Traduit par Martin Anota

- page 1 de 3