« Il y a un récit dans notre champ selon lequel la macroéconomie se serait perdue. Même si j’ai une certaine sympathie pour ce récit, je pense qu’il s’agit davantage d’une description de la macroéconomie d’il y a dix ans que de la macroéconomie d’aujourd’hui. Aujourd’hui, la macroéconomie est en passe d’être remise sur pied. En conséquence, selon moi, l’état de la macroéconomie est actuellement bien meilleur qu’il ne l’a été depuis fort longtemps.

Le plus important problème avec la macroéconomie au cours des dernières décennies est qu’elle a été trop théorique. Je n’entends pas par là que la théorie est inutile. Au contraire, la théorie est un élément essentiel d’une science saine. Mais une science saine a besoin d’un certain équilibre entre théorie et travail empirique. La macroéconomie a perdu cet équilibre dans les années 1980 et ne le retrouve qu’à présent.

La plupart des récits que l'on entend de l’évolution de la macroéconomie se focalisent sur l’évolution de la théorie macroéconomique et en particulier sur la révolution des anticipations rationnelles. Une part trop négligée de cette histoire est que la révolution des anticipations rationnelles a éloigné la macroéconomie du travail empirique. Cela fut en partie parce que la modélisation qui respecte les standards de rigueur avancés par Robert Lucas et ses camarades de révolution constituait une tâche difficile et par conséquent particulièrement absorbante. Mais ce n’est pas la seule raison.

Pour des raisons qui ne sont pas entièrement claires, une grande proportion de macroéconomistes en vint à croire que la critique de Lucas impliquait que les méthodes empiriques quasi-expérimentales ne pouvaient pas être utilisées en macroéconomie. L’idée que les changements de politique économique puissent radicalement altérer les régularités empiriques (c’est-à-dire la critique de Lucas) finit par être interprétée comme impliquant que la seule façon de faire du travail empirique en macroéconomie était de concevoir des modèles d’équilibre général de l’ensemble de l’économie pleinement spécifiés et d’évaluer le modèle entier (soit par des méthodes d’inférence avec information complète, soit par adéquation des moments). Thomas Sargent, par exemple, a mis l’accent sur l’idée de "restrictions inter-équations" (cross-equation restrictions). Il semble que cette ligne de pensée ait amené pendant plusieurs décennies beaucoup de macroéconomistes à avoir une vue étroite en ce qui concerne la façon de réfléchir à propos du travail empirique en macroéconomie.

Le malentendu n’a jamais été complet. Il y a eu des poches isolées de travaux empiriques en macroéconomie qui employaient des méthodes de variables instrumentales, par exemple en utilisant les délais comme instruments lorsqu’il s’agit d’estimer des courbes de Phillips ou des équations d’Euler. (...) Il y a eu une petite minorité de chercheurs en macroéconomie empirique qui saisit la valeur des méthodes quasi-expérimentales. Mais une grande fraction des macroéconomistes rejeta une telle analyse en la considérant comme erronée et une fraction encore plus grande de macroéconomistes (notamment moi-même) se sont révélés confus et incohérents quant à savoir quand et comment les méthodes quasi-expérimentales pouvant être utilisées en macroéconomie (en rejetant souvent ces méthodes hors de cadres non familiers tout en étant heureux de les utiliser dans d’autres cadres plus familiers).

Ce malentendu a sérieusement freiné les progrès en macroéconomie empirique pendant toute une génération. Au cours de cette période, la microéconomie appliquée connut une révolution de la crédibilité qui amené divers types de méthodes quasi-expérimentales à être plus fréquemment utilisés dans plusieurs champs de la science économique. La macroéconomie est restée en retrait. Il est utile de noter deux choses à ce propos. Premièrement, le travail quasi-expérimental est particulièrement difficile en macroéconomie dans la mesure où l’identification est très difficile dans un cadre d’équilibre général. Deuxièmement, une partie substantielle de la microéconomie appliquée devint bien plus déséquilibrée dans l’autre direction, dans la mesure où la théorie se retrouva écartée. Récemment, alors que la macroéconomie se rattrapait sur le plan empirique, il semble que de plus en plus de chercheurs en microéconomie appliquée aient aussi commencé à embrasser plus étroitement la complémentarité des méthodes quasi-expérimentales et de la modélisation structurelle, c’est-à-dire à prendre "le meilleur des deux mondes" comme Todd et Wolpin l’ont récemment dit. A cet égard, la macroéconomie était probablement en avance et peut même avoir influencé les collègues en microéconomie appliquée.

Durant la période au cours de laquelle la théorie dominait en macroéconomie, beaucoup de progrès ont été réalisés sur le front théorique. Mais en étant si dominé par la théorie, le champ a été très exposé à un autre problème : les modèles dans lesquels les marchés fonctionnent bien sont (habituellement) plus faciles à résoudre que les modèles dans lesquels les marchés fonctionnent mal. Ce fait simple a d’importantes conséquences parce qu’il génère un biais sur la théorie économique en faveur des modèles dans lesquels les marchés fonctionnent bien. Puisque les modèles dans lesquels les marchés qui fonctionnent bien sont plus faciles à résoudre, les chercheurs tendent à travailler avec de tels modèles. L’hypothèse par défaut à propos d’un marché est typiquement qu’il est parfaitement concurrentiel. Les chercheurs vont souvent introduire une friction soigneusement construite dans un endroit précis de leur modèle et focaliser leur analyse sur les implications de cette friction. Mais tous les autres marchés dans le modèle sont typiquement modélisés comme étant parfaitement concurrentiels par simple souci de simplicité.

Le chercheur lambda a pour habitude de supposer que quasiment tous les marchés sont parfaitement concurrentiels, si bien qu’il ignore les conséquences de ces hypothèses. Il prend comme données certaines implications de ces hypothèses de concurrence pure et parfaite, dans la mesure où il n’y voit qu’une simple implication logique et non la conséquence d’hypothèses simplificatrices susceptibles d’être erronées qu’il utilise, comme tous ceux qu’il connait, depuis plusieurs années. Prenons un exemple qui m’est cher, l’idée que les propensions marginales à consommer soient extrêmement faibles dans plusieurs modèles macroéconomiques. Cette hypothèse a de larges répercussions sur le comportement de ces modèles (par exemple, les chèques versés dans le cadre de la relance seraient inutiles). Pendant plusieurs années, je n’ai jamais rencontré un modèle où ce n’était pas le cas (…). Donc, j’ai été grandement lobotomisé pour croire que ces aspects de ces modèles étaient les bonnes choses à faire. Mais ensuite, à un certain moment, je finis par apprécier de voir comment des modèles avec risque idiosyncratique non assurable pouvaient se comporter différemment et ce fut comme être frappé par la foudre. Comment avais-je pu ne pas voir à quel point l’hypothèse simplificatrice de concurrence pure et parfaite était critique à cet égard ? (Il y a plein d’autres exemples. L’un des plus notoires en économie du travail a à voir avec les implications du relèvement du salaire minimum.)

L’un des rôles cruciaux du travail empirique est de confronter les théoriciens et les responsables de la politique économique à des faits qui les aident à voir si les modèles qu’ils utilisent sont ou non bien adaptés pour analyser tel ou tel aspect de la réalité qui les intéresse. Le fait que la macroéconomie ait mal saisi la valeur des méthodes quasi-expérimentales a été un réel handicap pour le développement du champ à cet égard. Certains faits sont simples et n’ont pas besoin de méthodes quasi-expérimentales pour établir (la prime relative aux actions en constitue un bon exemple). Mais plusieurs faits empiriques essentiels sont hors d’atteinte sans méthode quasi-expérimentale (par exemple, les estimations des propensions marginales à consommer, les multiplicateurs budgétaires, la pente de la courbe de Phillips, les élasticités de substitution intertemporelle, les effets des chocs monétaires, etc.). Sans un ensemble robuste de telles estimations pour guider le développement de la théorie, la littérature théorique se retrouve à la dérive et risque de se perdre en mer.

Heureusement, les choses ont commencé à s’améliorer rapidement sur ce front en macroéconomie. En particulier parmi les jeunes chercheurs. Le brouillard des restrictions inter-équations se lève et on commence à mieux saisir la valeur des méthodes quasi-expérimentales. Par exemple, on saisit de mieux en mieux qu’avec l’aide d’un instrument (ou d’une certaine source de variation exogène) on peut estimer divers types d’effets causaux sans spécifier un modèle structurel complet de l’ensemble de l’économie. (Les méthodes de données de panel et diverses bases de données non traditionnelles ont également beaucoup aidé.)

On peut toujours faire face à des questions du type "mais X et Y ne sont-ils pas des variables endogènes qui sont déterminées conjointement en équilibre général ?" même lorsqu’on a passé beaucoup de temps à expliquer la nature de la variation exogène que l’on exploite ; et l’on fait toujours face à des regards vides en certaines occasions lorsque l’on répond à de telles questions avec une version de "oui, tout comme P et Q dans un cadre d’offre et de demande, mais cela ne signifie pas qu’il n’est pas possible d’estimer par des variables instrumentales". Cependant de telles situations apparaissent de moins en moins fréquemment.

Les estimations crédibles d’un éventail toujours plus large de statistiques empiriques émergent en macroéconomie et cela commence à mieux guider le travail théorique et l’élaboration de la politique économique. Prenons quelques exemples : nous avons maintenant un ensemble de travaux de haute qualité indiquant que les propensions marginales à consommer sont assez larges. C’est le fait empirique fondamental qui favorise les modèles HANK par rapport aux modèles nouveaux keynésiens traditionnels. Mais ce fait a aussi d’importantes conséquences quand il touche aux effets macroéconomiques des politiques qui soutiennent les revenus de la population au cours des récessions. Nous avons aussi un ensemble important de travaux de haute qualité indiquant que les multiplicateurs budgétaires sont larges (…). Ce va dans le même sens que le fait relatif aux propensions marginales à consommer élevées : la relance peut substantiellement accroître la production dans des situations où la politique est accommodante (par exemple à la borne inférieure zéro). De plus, nous avons de plus en plus de travaux indiquant que la pente de la courbe de Phillips est modeste. Cela implique qu’un boom qui mène à une surchauffe de l’économie aura de modestes effets sur l’inflation aussi longtemps que les anticipations d’inflation restent ancrées. (Il y a pléthore de bons exemples.)

La macroéconomie a perdu beaucoup de temps à se rattraper en ce qui touche l’usage des méthodes empiriques quasi-expérimentales. Cela crée un problème de stock et de flux. Le stock de travail empirique utilisant les méthodes quasi-expérimentales en macroéconomie reste bas et les problèmes posés par un tel travail restent importants en raison des difficultés d’identification dans un cadre d’équilibre général. Mais le flux est très différent du stock : il y a un important flux de travail empirique quasi-expérimental de qualité en macroéconomie. En observant ce flux, on peut raisonnablement affirmer que le champ rejoint un équilibre sain entre théorie et travail empirique. Je suis optimiste en pensant que cela va amener de plus en plus de gens à conclure que la macroéconomie a de nouveau "retrouvé sa voie". Je crois vraiment qu’elle l’a retrouvée. »

Jón Steinsson, « A new macroeconomics? », 2 juillet 2021. Traduit par Martin Anota



aller plus loin...

« La stagflation et la lutte des méthodologies en macroéconomie »

« Modèles DSGE : quels développements depuis la crise ? »

« Les modèles DSGE font-ils progresser la science économique ? »