Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Epistémologie et histoire de la pensée

Fil des billets

lundi 10 octobre 2022

Prix Nobel 2022 : Bernanke, Diamond et Dybvig ont montré le rôle central des banques dans les crises financières

Ben_Bernanke_Douglas_Diamond_Philip_Dybvig__prix_Nobel_d__economie_2022.png

« La Grande Dépression des années 1930 a paralysé les économies à travers le monde pendant plusieurs années et elle a eu de désastreuses conséquences sociétales. Cependant, nous avons réussi à mieux gérer les crises financières ultérieures grâce aux travaux des lauréats de cette année, Ben Bernanke, Douglas Diamond et Philip Dybvig. Ils ont démontré qu’il est important de prévenir les effondrements généralisés des banques...

Nous sommes tous liés d'une façon ou d'une autre aux banques. Nos revenus sont versés sur un compte bancaire et nous utilisons les moyens de paiement des banques, que ce soit les applications mobiles ou des cartes bancaires, quand nous faisons des achats dans un supermarché ou payons une note de restaurant. A certains moments de notre vie, beaucoup d’entre nous ont besoin d’emprunter auprès des banques, par exemple pour acheter une maison ou un appartement. C’est également le cas pour les entreprises : elles ont besoin de pouvoir faire régler leurs transactions et de financer leurs investissements. Dans la plupart des cas, ces services sont aussi fournis par une banque.

Nous considérons comme garanti que ces services fonctionnent comme ils le doivent, sauf par moments en raison de brefs problèmes techniques. Parfois, cependant, l’ensemble ou une partie du système bancaire dysfonctionne et une crise financière survient. Des banques s’effondrent, il devient plus cher voire impossible d’emprunter, les prix plongent sur les marchés de l’immobilier ou d’autres actifs. Si cette progression n’est pas stoppée, l’économie entière peut entrer dans une spirale baissière avec la hausse du chômage et la multiplication des faillites de banques. Certains des plus grands effondrements économiques au cours de l’Histoire ont été des crises financières.

D’importantes questions à propos des banques

Si les difficultés des banques peuvent provoquer autant de dommages, pouvons-nous nous passer des banques ? Les banques ont-elles nécessairement à être aussi instables et, dans ce cas, pourquoi ? Comment la société peut-elle améliorer la stabilité du système bancaire ? Pourquoi les conséquences d’une crise bancaire durent-elles aussi longtemps ? Et, si les banques font faillite, pourquoi de nouvelles banques ne peuvent-elles pas immédiatement être mises en place de façon à ce que l’économie puisse rapidement être remise sur pieds ? Au début des années 1980, les lauréats de cette année, Ben Bernanke, Douglas Diamond et Philip Dybvig ont posé dans trois articles les fondements scientifiques pour la recherche moderne portant sur ces questions.

Diamond et Dybvig ont développé des modèles théoriques qui expliquent pourquoi les banques existent, comment leur rôle dans la société les rend vulnérables aux rumeurs à propos de leur éventuel effondrement et comment la société peut réduire cette vulnérabilité. Ces intuitions fondent la régulation bancaire moderne.

A travers l’analyse statistique et des recherches à partir de sources historiques, Bernanke a démontré que l’effondrement des banques a joué un rôle décisif dans la dépression mondiale des années 1930, la pire crise dans l’histoire moderne. L’effondrement du système bancaire explique pourquoi la contraction de l’activité a été aussi profonde et aussi durable qu'elle l'a été.

Les travaux de Bernanke montrent que les crises bancaires peuvent avoir des conséquences catastrophiques. Cette intuition illustre l’importance du bon fonctionnement de la régulation bancaire et fonde les décisions de politique économique prises durant la crise financière de 2008-2009. Lors de celle-ci, Bernanke était à la tête de la banque centrale américaine, la Réserve fédérale, et il a pu ainsi mettre à profit ce qu’il a appris de ses travaux pour décider au mieux de la politique économique. Plus tard, quand la pandémie a éclaté en 2020, des mesures significatives ont été prises pour éviter une crise financière mondiale. Les idées des lauréats ont joué un rôle important pour assurer que ces dernières crises ne se développent pas en nouvelles dépressions avec des conséquences dévastatrices pour la société.

Des crises bancaires à l'origine de la Grande Dépression

Le principal travail pour lequel Bernanke est aujourd’hui reconnu est un article publié en 1983, dans lequel il a analysé la Grande Dépression des années 1930. Entre janvier 1930 et mars 1933, la production industrielle américaine chuta de 46 % et le chômage grimpa à 25 %. La crise se répandit comme un incendie, entraînant une forte contraction économique dans l’essentiel du monde. En Grande-Bretagne, le chômage a atteint 25 % et en Australie 29 %. En Allemagne, la production industrielle a presque été divisée par deux et plus d’un tiers de la population active s’est retrouvée sans emploi. Au Chili, le revenu national chuta de 33 % entre 1929 et 1932. Partout, des banques s’effondrèrent, des gens furent poussés à quitter leur logement et la pauvreté se généralisa également dans les pays riches. A travers le monde, les économies ne commencèrent à connaître une reprise que vers le milieu de la décennie.

Avant que Bernanke ne publie son article, la croyance conventionnelle parmi les experts était que la dépression aurait pu être empêchée si la banque centrale américaine avait imprimé plus de billets. Bernanke partagea aussi l’opinion qu’un manque de monnaie avait probablement contribué à la contraction de l’activité, mais il ne croyait pas que ce mécanisme explique pourquoi la crise fut si profonde et si longue. Bernanke montra que sa principale cause était le déclin de la capacité du système bancaire à canaliser l’épargne vers les investissements productifs. En utilisant une combinaison de sources historiques et de méthodes statistiques, son analyse montra quels facteurs étaient importants derrière la chute du produit intérieur brut (PIB). Il conclut que les facteurs qui étaient directement liés à l’effondrement des banques contribuaient à la part du lion de la contraction de l’activité.

La dépression débuta avec une récession tout à fait normale en 1929, mais en 1930 celle-ci se transforma en une crise bancaire. Le nombre de banques chuta au cours des trois années suivantes, souvent en raison de ruées bancaires. Celles-ci surviennent quand les gens qui avaient déposé de l’argent dans leur banque s’inquiètent à propos de la survie de celle-ci et se ruent aux guichets pour retirer leur épargne. Si trop de personnes se comportent ainsi simultanément, les réserves de la banque ne pourront couvrir tous les retraits et elle sera forcée de réaliser une vente d’actifs en catastrophe, avec potentiellement d’importantes pertes. Finalement, cela peut conduire la banque à la faillite.

La crainte que les ruées bancaires se multiplient entraîna une chute des dépôts dans les autres banques et beaucoup de banques devinrent frileuses à l'idée d'accorder de nouveaux prêts. Les dépôts furent placés dans des actifs qui pouvaient être rapidement vendus si les déposants désiraient soudainement retirer leur argent. Ces problèmes avec l’obtention de nouveaux prêts bancaires compliquèrent le financement des investissements pour les entreprises et détériora la situation financière des fermiers et des ménages. Il en résulta la pire récession mondiale dans l’Histoire moderne.

Avant l’étude de Bernanke, l'idée généralement admise était que la crise bancaire était une conséquence du déclin de l’économie plutôt qu’une cause de celui-ci. Bernanke montra que les effondrements bancaires jouèrent un rôle décisif dans la transformation de la récession en une dépression profonde et prolongée. Une fois que la banque fait faillite, la relation que celle-ci entretient avec son emprunteur est rompue ; cette relation contient un savoir qui s’avère nécessaire à la banque pour qu’elle gère efficacement ses prêts. La banque connaît ses emprunteurs, elle a une information détaillée à propos de la façon par laquelle ils utilisent leur argent ou des exigences nécessaires pour que le prêt soit remboursé. Construire un tel stock d’informations prend un long moment et il ne peut pas être facilement transféré à d’autres prêteurs quand une banque fait faillite. Réparer un système bancaire dysfonctionnel peut en conséquence prendre plusieurs années, une période au cours de laquelle l’économie fonctionne mal. Bernanke a démontré que l’économie n’a pas commencé à rebondir tant que l’Etat n’avait pas adopté de puissantes mesures pour empêcher que de nouvelles paniques bancaires surviennent.

Pourquoi les banques sont-elles nécessaires ?

Pour comprendre pourquoi une crise bancaire peut avoir de telles conséquences désastreuses, nous devons savoir ce que les banques font vraiment : elles reçoivent de la monnaie de personnes faisant des dépôts et elles la canalisent à leurs emprunteurs. Cette intermédiation est loin d’être un simple transfert mécanique, parce qu’il y a des conflits fondamentaux entre les besoins des épargnants et ceux des emprunteurs. Quelqu’un qui reçoit un prêt pour financer l’achat d’un logement ou d’un investissement de long terme doit être assuré que le prêteur ne va pas soudainement lui demander de rendre son argent. D’un autre côté, un épargnant désire avoir la possibilité d'utiliser une partie de son épargne dans les plus brefs délais.

La société doit résoudre ces conflits. Si les entreprises ou les ménages peuvent être forcés à rembourser leurs prêts n’importe quand, les investissements de long terme deviennent impossibles. Cela aurait des conséquences dévastatrices. L’économie ne peut fonctionner sans un système financier qui crée assez de moyens de paiement facilement accessibles et sécurisés. (...)

Le modèle de Diamond et Dybvig

Douglas Diamond et Philip Dybvig ont montré que le problème que nous venons de décrire peut être résolu par des institutions qui sont construites exactement comme les banques. Dans un article de 1983, ils développent un modèle théorique qui explique comment les banques créent de la liquidité pour les épargnants tout en permettant aux emprunteurs d’accéder à des financements de long terme. Malgré le fait que ce modèle soit relativement simple, il capture le mécanisme central de l’activité bancaire : pourquoi il fonctionne, mais aussi pourquoi le système est de façon inhérente vulnérable et nécessite d’être réglementé.

Le modèle dans cet article se fonde sur l’idée que les ménages épargnent une certaine partie de leur revenu tout en ayant le besoin d’avoir la possibilité de retirer leur monnaie quand ils le veulent. Personne ne sait en avance si et quand le besoin de monnaie surviendra, mais il ne surviendra pas au même instant pour l’ensemble des ménages. En parallèle, il y a des projets d’investissement qui nécessitent un financement. Ces projets sont profitables à long terme, mais s’ils sont terminés hâtivement, les rendements vont être très faibles.

Dans une économie sans banques, les ménages doivent faire des investissements directs dans ces projets. Les ménages qui ont besoin de monnaie rapidement vont être forcés de mettre un terme rapidement à ces projets et ils vont en conséquence avoir de très faibles rendements, avec seulement un faible montant de monnaie disponible pour leur consommation. D’un autre côté, les ménages qui n’ont pas besoin d’achever les projets aussi tôt vont jouir de bons rendements et ainsi pouvoir consommer beaucoup. Dans une telle situation, les ménages vont demander une solution qui leur permette d’accéder instantanément à leur monnaie sans que cela ne réduise significativement leurs rendements. Si une telle solution peut être mise en place, ils seront enclins à accepter des rendements à long terme légèrement plus faibles.

Dans leur article, Diamond et Dybvig expliquent comment les banques apparaissent naturellement comme intermédiaires et fournissent cette solution. La banque offre des comptes où les ménages peuvent déposer leur monnaie. Elle prête ensuite la monnaie à des projets de long terme. Les déposants peuvent retirer leur monnaie quand ils le veulent, sans perdre autant que s’ils avaient fait un investissement direct et mis un terme précocement au projet. Ces hauts rendements sont financés par des ménages qui épargnent pour un horizon plus éloigné, perdant un certain rendement à long terme relativement à ce qu’ils auraient gagné s’ils avaient fait un investissement direct dans le projet.

Les banques créent de la monnaie

Diamond et Dybvig montrent que ce processus est celui par lequel les banques créent de la liquidité. La monnaie sur les comptes des déposants est un passif pour la banque, tandis que les actifs de la banque comprennent des prêts à des projets de long terme. Les actifs de la banque ont une longue maturité, parce qu’elle promet aux emprunteurs qu’ils n’auront pas à rembourser rapidement leurs prêts. D’un autre côté, les passifs de la banque ont une courte maturité : les déposants peuvent accéder à leur monnaie quand ils le veulent. La banque est un intermédiaire qui transforme des actifs avec une longue maturité en des comptes bancaires avec une courte maturité. C’est ce que l’on appelle la transformation de maturité.

Les épargnants peuvent utiliser leurs comptes de dépôt pour des paiements directs. La banque a donc créé de la monnaie à partir, non pas de rien, mais des projets de long terme auxquels elle a prêté de la monnaie. Les banques sont parfois critiquées pour leur création de monnaie, mais c’est précisément pour cela qu’elles existent.

Vulnérables aux rumeurs

Il est facile de voir que la transformation de maturité est utile pour la société, mais les lauréats démontrent aussi que le modèle d’affaires des banques est vulnérable. Une rumeur peut se répandre en suggérant que davantage d’épargnants désirent retirer leur monnaie, mais que la banque ne peut satisfaire toute la demande. Qu’elle soit fondée ou non, cette rumeur peut inciter les déposants à se ruer à leur banque pour retirer leur monnaie dans la crainte que celle-ci ne fasse faillite. Une ruée bancaire s’ensuit. Pour payer tous ses déposants, la banque est forcée de faire rembourser en avance ses prêts en cours, ce qui amène les projets d’investissement à long terme à être terminés précocement et entraîne des ventes d’actifs en catastrophe. Les pertes qui en résultent peuvent amener la banque à faire faillite. Le mécanisme que Bernanke a montré comme étant l’amorce de la dépression des années 1930 est donc une conséquence directe de la vulnérabilité inhérente des banques.

Diamond et Dybvig présentent aussi une solution au problème de la vulnérabilité des banques, sous la forme d’une assurance-dépôt par le gouvernement. Quand les déposants savent que l’Etat a garanti leur monnaie, ils n’ont plus besoin de se ruer à la banque dès qu’une rumeur de détresse bancaire se propage. Cela stoppe une ruée bancaire avant même qu’elle ne débute. L’existence d’une assurance-dépôt fait qu’elle n’a en théorie jamais à être utilisée. Cela explique pourquoi la plupart des pays ont maintenant adopté un tel dispositif. (…)

Au fondement de la réglementation bancaire moderne

Les travaux pour lesquels Bernanke, Dybvig et Diamond ont été récompensés ont été cruciaux pour la recherche ultérieur qui a amélioré notre compréhension des banques, de la réglementation bancaire, des crises bancaires et de la façon par laquelle ces dernières doivent être gérée. Les intuitions théoriques de Diamond et Dybvig à propos de l’importance des banques et de leur inhérente vulnérabilité fournissent les fondations pour la réglementation bancaire moderne, qui vise à créer un système financier stable. Avec les analyses des crises financières réalisées par Bernanke, nous comprenons mieux pourquoi la réglementation échoue parfois, l’énorme ampleur des conséquences et ce que les pays peuvent faire pour stopper une crise bancaire lorsqu’elle éclate, comme au début de la récente pandémie.

De nouveaux intermédiaires financiers qui, comme les banques, gagnent de la monnaie de la transformation de maturité ont émergé en-dehors du secteur bancaire réglementé au début des années 2000. Des ruées touchant ce système bancaire parallèle (shadow banks) ont joué un rôle clé dans la crise financière de 2008-2009. Les théories de Diamond et Dybvig fonctionnent également bien pour analyser de tels événements même si, en pratique, la réglementation ne peut pas toujours suivre la nature changeante du système financier.

La recherche ne peut pas fournir des réponses définitives sur la façon de réglementer le système financier. L’assurance-dépôt ne fonctionne pas toujours comme on s’y attend : elle peut inciter les banques à s’engager dans une spéculation risquée dont les contribuables ont à payer la facture quand elle tourne mal. La nécessité de sauver le système bancaire durant les crises peut aussi entraîner des profits inacceptables pour les propriétaires et salariés des banques. D’autres types de règles à propos du capital bancaire et des règles qui limitent le montant d’emprunt dans l’économie peuvent donc s’avérer nécessaires. Les avantages et inconvénients de telles règles doivent être analysés et la façon par laquelle elles fonctionnent peut changer au cours du temps.

Comment réglementer les marchés financiers pour qu’ils assurent correctement leur fonction (canaliser l’épargne vers les investissements productifs sans provoquer régulièrement des crises) est une question à laquelle planchent encore les chercheurs et les politiciens. Les travaux qui ont été récompensés cette année et ceux qui se sont appuyés sur eux ont permis à ce que la société soit mieux équipée pour répondre à ce défi. Ils réduisent le risque que les crises financières se développent en longues dépressions avec de sévères répercussions sur la société, ce qui est d’un grand bénéfique pour nous tous. »

L'Académie royale des sciences de Suède, « The laureates explained the central role of banks in financial crises. Popular science background », 10 octobre 2022. Traduit par Martin Anota



aller plus loin...

« Les contributions de Bernanke à la science économique »

« Les répercussions réelles des ruées bancaires »

« Les modèles ne saisissent toujours pas ce qu’est une banque »

mercredi 29 juin 2022

Un bref essai sur les différences entre Marx et Keynes

« Ce bref texte a été stimulé par ma récente lecture de la traduction française de l’Essai sur l’économie de Marx que Joan Robinson a écrit en 1942, ainsi que de divers autres textes que Robinson a pu écrire à propos de Marx, de Marshall et de Keynes. (La traduction et la préface sont d’Ulysse Lojkine.) Sa rédaction a aussi été stimulée par la très bonne présentation de la vie de Joan Robinson et de l’Essai que vient juste de publier Carolina Alvers dans The Journal of Economic Perspectives.

(...) J’ai toujours eu de bonnes connaissances de Marx, mais puisque j’ai fini il y a tout juste deux mois un long chapitre sur les idées de Marx concernant la distribution du revenu (pour mon prochain livre) qui évoque ses réflexions sur le salaire réel, l’augmentation de la composition organique du capital, la baisse tendancielle du taux de profit, etc., j’ai tout cela bien en tête.

C’est un peu moins le cas pour Keynes. Mais j’ai eu, il y a très longtemps, une personne exceptionnelle pour me faire découvrir la Théorie générale. Abba Lerner, l’un des premiers disciples de Keynes, m’a donné des cours particuliers. Après avoir lu un chapitre de la Théorie générale, je devais le résumer, le discuter, puis envoyer mon texte à Abba qui, la semaine suivante, m'en envoyait la correction. J’admirais Keynes pour son génie. Je me souviens toujours (…) de son chapitre sur le "taux d’intérêt propre" (…) que Lerner m’a fait lire et relire. Mais je n’ai pas du tout suivi les développements de la macroéconomie keynésienne et je ne m’intéresse généralement pas à la macroéconomie. Donc, ici, je parlerai de ce que je pense de Keynes, pas des Keynésiens.

Avec l’Essai, l’objectif de Joan Robinson était d’amorcer un "rapprochement" entre l’économie de Marx et celle de Keynes, en montrant les similarités entre la vision qu’avait Marx des relations capitalistes de production, des relations se traduisant par un manque de demande effective, et les thèmes de la Théorie générale. Voici l’une des citations de Marx : "la cause ultime pour toutes les crises réelles est la conjonction entre, d’une part, la pauvreté des masses et les restrictions dans leur consommation et, d’autre part, la tendance de la production capitaliste à chercher à accroître les forces productives, comme si la capacité absolue de consommation de la société leur fixait une limite" (Le Capital, livre 3, chapitre XXX). (…) Ou, comme l’écrit Marx (je paraphrase), pour chaque capitaliste pris individuellement, ses travailleurs sont ses "ennemis" (il veut les payer moins), mais les travailleurs des autres capitalistes sont ses "amis", dans la mesure où ils peuvent être ses consommateurs. Quand tous les capitalistes cherchent à réduire la rémunération des travailleurs et y parviennent, c’est une crise économique qui en résulte.

L’autre explication des crises économiques chez Marx est la croissance déséquilibrée des secteurs qui produisent les biens de consommation et ceux qui produisent les biens d’investissement, mais l’hypothèse a moins d’importance pour les keynésiens. Robinson a aussi fourni un très bon résumé des autres idées de Marx, notamment de sa théorie de la valeur-travail, du problème de la transformation, de la baisse tendancielle du taux de profit, etc., mais elle se focalise, comme je l’ai indiqué, sur l’origine des crises et la demande effective.

Quand nous mettons en regard Marx, Marshall et Keynes, Robinson affirme que nous devrions essayer de séparer dans l’étude de chacun les propositions "scientifiques" à propos du fonctionnement de l’économie des moteurs "idéologiques" : chez Marx, la conviction que le capitalisme est un mode de production historique (et donc transitoire) ; chez Marshall, l’hypothèse du capitalisme comme la façon "naturelle" d’organiser la production ; et chez Keynes, un désir d’améliorer le capitalisme ou de le sauver de l’autodestruction.

A mes yeux, il semble que la différence entre Marx et Keynes n’est pas tant une différence idéologique (bien que je ne dénierais pas que la différence idéologique soit réelle) qu’une différence dans l’horizon temporel qu’ils utilisent dans leurs analyses. (Je pense que Schumpeter avait quelque chose de similaire en tête, donc ce n’est peut-être pas une idée très originale.)

Pour Marx, l’horizon temporel est toujours le long terme, même quand il évoque les crises. Les crises sont des manifestations à court terme des problèmes (inhérents) de long terme auxquels la production capitaliste fait face et il n’est donc pas surprenant que des auteurs marxistes comme Grossman, Boukharine et Mandel auraient (…) vu l’imbrication entre la baisse tendancielle du taux de profit à long terme et l’instabilité à court terme comme condamnant le capitalisme. (Il n’est pas non plus surprenant que Robinson rejette la baisse tendancielle du taux de profit, mais soutienne l’explication des crises.) Tout chez Marx, comme Joan Robinson l’a bien vu, est historique. Le lecteur est toujours projeté vers l’avenir, dans une réflexion à propos des forces fondamentales qui meuvent le capitalisme.

Chez Keynes, la situation est différente, presque inverse. L’édifice entier de Keynes (pas nécessairement keynésien) est le court terme : l’objectif est de stabiliser l’économie et de retourner à la situation de plein emploi ou proche du plein emploi. Keynes n’est pas particulièrement concerné par le long terme du capitalisme. Implicitement, je pense, il croyait que le capitalisme pourrait rester en place aussi longtemps qu’il est "réparé" de façon à produire au plein emploi des ressources. "Réparer", cela peut impliquer un investissement orienté par le gouvernement ou l’euthanasie du rentier, mais Keynes n’était pas un puriste : il aurait pris n’importe quel outil, même un outil socialiste, pour corriger les dysfonctionnements.

Illustrons la différence entre le long terme de Marx et le court terme de Keynes avec deux concepts où les auteurs semblent parler de la même chose : "les esprits animaux" et "l’armée industrielle de réserve". L’idée d’"esprits animaux" a été introduite par Keynes pour expliquer les décisions des capitalistes en matière d’investissement : la plupart du temps, les capitalistes ne sont pas mus par un calcul exact entre gain espéré et perte attendue, mais agissent selon leurs pulsions (les "esprits animaux") et si, pour une quelconque raison, ces pulsions changent, l’économie peut connaître de soudaines variations de la demande. Joan Robinson explique comment cette incitation à investir largement irrationnelle (dans le sens strict du terme) est similaire à l’idée de Marx selon laquelle les capitalistes cherchent toujours non seulement à atteindre le profit maximal, mais aussi à le réinvestir. Pour Marx, ils ne deviennent capitalistes que lorsqu’ils ne consomment pas le profit, mais le réinvestissent. L’accumulation est (pour utiliser un autre passage célèbre) "Moïse et tous les prophètes". Dans les deux cas, nous voyons que les incitations à investir sont données de l’extérieur de l’économie proprement dite : via des élans soudains d’optimisme ou de pessimisme ou par ce que nous pouvons appeler "l’esprit capitaliste". Mais dans le cas de Keynes, le concept est mobilisé pour expliquer les fluctuations de court terme ; chez Marx, c’est la caractéristique définitionnelle de la classe dans son ensemble et donc du long terme.

Prenons maintenant l’exemple de l’"armée industrielle de réserve" qui croît et se contracte au gré des fluctuations de l’activité économique. Cette notion est très similaire à l’idée de chômage conjoncturel qui joue un si grand rôle chez Keynes (elle est derrière toute sa Théorie générale). Mais l’"armée de réserve" de Marx est une caractéristique constante, donc de long terme, du capitalisme. Les capitalistes en ont besoin pour discipliner le travail et si, au cours de certaines périodes, l’armée de réserve rétrécit, réduisant le pouvoir relatif de la classe capitaliste, des forces la ramenant à la vie se mettent en œuvre : les investissements économisant le travail. L’armée de réserve peut ne jamais disparaître chez Marx. Chez Keynes, par contre, le chômage cyclique doit idéalement être ramené à zéro. C’est quelque chose que le capitalisme, lorsqu’il est judicieusement géré, peut éliminer. A nouveau, les horizons sont différents : pour Marx, c’est un aspect structurel de long terme ; pour Keynes, il résulte du jeu entre les variables économiques.

Marx a été le premier à étudier les caractéristiques historiques fondamentales du capitalisme ; Keynes, le dernier caméraliste. Marx était un historien qui croyait que l’économie façonnait l’Histoire ; Keynes, le plus brillant conseiller du pouvoir. Avec Le Capital, nous avons une Bible du capitalisme ; Avec la Théorie générale, nous avons Le Prince pour la gestion économique du capitalisme. »

Branko Milanovic, « A short essay on the differences between Marx and Keynes », in globalinequality (blog), 29 juin 2022. Traduit par Martin Anota

lundi 21 février 2022

Entretien avec la macroéconomiste Emi Nakamura

Emi_Nakamura.png

« Si vous demandez à n'importe quel économiste de vous dire quelles sont les stars de la profession à l’heure actuelle, le nom d’Emi Nakamura sera probablement au sommet de la liste. En 2019, Nakamura a gagné la médaille John Bates Clark, l’une des deux plus prestigieuses récompenses en science économique et en l’occurrence une récompense qui va rarement à un macroéconomiste. Venant à l’origine du Canada et travaillant maintenant à Berkeley, l’Université de Californie, elle continue d’amasser les publications dans les revues les plus prestigieuses à un rythme stupéfiant.

J’ai rencontré pour la première fois Nakamura en 2011, quand j’étais encore étudiant. Elle était venue dans le Michigan parler de son étude "Fiscal Stimulus in a Monetary Union: Evidence from U.S. Regions" avec son coauteur régulier Jón Steinsson. Cette analyse fournissait certains des éléments empiriques montrant le plus clairement que la relance budgétaire stimule la croissance économique et elle a eu un grand impact dans le débat universitaire qui faisait alors rage quant à savoir s’il fallait utiliser la politique budgétaire pour stimuler l’économie dans le sillage de la crise de 2008.

Depuis, Nakamura a continué de travailler sur des sujets très pertinents pour les débats courants autour de la politique économique. A titre d’exemple, son récent article réalisé avec Hazell, Herreno et Steinsson, "The Slope of the Phillips Curve: Evidence from U.S. States", a été le principal article qui a guidé mes propres réflexions à propos de l’actuelle inflation. Je suis également un très grand fan de son document de travail "A Plucking Model of Business Cycles", qui a le potentiel selon moi de nous aider à comprendre la reprise actuelle. (...)

En parallèle, Nakamura a aussi œuvré à améliorer la macroéconomie elle-même. Le champ macroéconomique traversait une crise profonde après 2008 : la crise financière et la récession avaient montré que quelque chose n’allait vraiment pas et beaucoup de gens (notamment moi-même) ont souligné à quel point les théories s’étaient éloignées de la réalité empirique. Mais au lieu de se contenter de s’en plaindre, Nakamura a simplement cherché à régler ces problèmes. Elle a travaillé sur la façon d’identifier les chocs de politique monétaire avec des données à haute fréquence, sur la façon de déceler les effets des politiques en observant leurs effets différenciés selon les régions et sur d’autres innovations méthodologiques qui permettent à la macroéconomie de gagner en scientificité. En 2018, elle a écrit avec Steinsson un article de synthèse à propos de la nouvelle macroéconomie empirique qui, je pense, va finir par avoir une très grosse influence sur la direction de la profession.

Dans l’entretien qui suit, j’ai évoqué avec Nakamura l’inflation et ce que nous devons faire la concernant, la façon par laquelle théorie et éléments empiriques interagissent en macroéconomie et le futur de la macroéconomie.

Noah Smith : Je pense que nous devrions commencer en parlant de l’inflation, qui est l’un des sujets macroéconomiques que tout le monde a en tête aujourd’hui. Quelles sont selon vous les principales causes de l’inflation que nous connaissons aujourd’hui aux Etats-Unis (et, dans une moindre mesure, dans d’autres pays développés) ? Pouvons-nous nous attendre à ce qu’elle disparaisse d’elle-même ou devons-nous prendre certaines mesures pour nous en débarrasser ?

Emi Nakamura : La récente hausse de l’inflation est bien plus forte que ce que l’expérience historique nous aurait amené à prédire (une hausse de l’inflation d’environ 1/3 % pour toute baisse d’un point de pourcentage du taux de chômage). Je pense que plusieurs facteurs ont joué un rôle important.

Tout d’abord, après un long hiatus au cours duquel ils ont cessé de jouer un rôle majeur dans l’inflation, les chocs d’offre sont de retour ! La plus dramatique de ces perturbations a touché le marché du travail. Le taux d’activité aux Etats-Unis est inférieur de 1,5 % et jusqu’à présent la baisse est assez persistante. Et les chocs touchant l’offre de travail vont au-delà de cela : beaucoup de travailleurs sont malades ou en quarantaine (ou risquent de l’être). La baisse du taux d’activité est bien plus ample que celle observée dans la zone euro et cela peut s’expliquer en partie par le fait que les pays-membres de la zone euro ont mis en œuvre des politiques qui ont maintenu les travailleurs en lien avec leur emploi durant la pandémie. Peu ont anticipé la persistance des effets de la pandémie sur le taux d’activité et il est très difficile de dire comment cela évoluera au cours des deux prochaines années. Certains de ces travailleurs peuvent revenir au travail, mais d’autres, en particulier ceux qui ont pris leur retraite, peuvent ne pas le faire. Il y a eu aussi d’autres chocs d’offre importants : il est plus cher de faire fonctionner une garderie ou une usine en raison des restrictions sanitaires dues à la Covid-19. Il était dur de trouver des exemples de chocs d’offre pour faire cours aux étudiants de science économique, mais l’épidémie de Covid-19 en fournit de bons.

Deuxièmement, il y a eu une réallocation de la demande des services vers les biens. Au cours de la Grande Récession, la fraction des dépenses dépensée dans les biens a chuté. C’est l’opposé que l’on a vu lors de l’épidémie de Covid-19 : la fraction de dépenses dans les biens a fortement augmenté. C’est un autre changement tectonique dans l’économie qui, je pense, contribue à mettre les chaines de valeur sous pression. Beaucoup plus de gens travaillent depuis leur domicile et ils ont tous besoin d’ordinateurs et donc des semi-conducteurs nécessaires pour construire ces ordinateurs. Tous ces biens doivent être transportés aux Etats-Unis et au domicile des gens. C’est une "pression" du côté de l’offre, mais pas vraiment un "choc d’offre" parce que sa cause première est une hausse de la demande (du moins pour certains genres de biens). Mais un récent document de travail présenté à la conférence de Jackson Hole souligne que les changements séculaires de la demande peuvent mener à des pressions similaires à celles générées par les chocs d’offre. A nouveau, j’ai beaucoup d’incertitude à propos de la durée que prendra le retour de la consommation des gens à la normale. Je pense que certains de ces changements dans la consommation sont liés à des changements du côté de l’offre de travail que j’ai déjà mentionnés auparavant : quand vous retournez au travail, vous achetez des services complémentaires au travail (le café sur le trajet de votre bureau, la salade pour votre déjeuner, etc.). Dans la mesure où les gens télétravaillent davantage (et moins de gens travaillent tout court), cela peut rendre certains changements de la demande persistants.

Troisièmement, il y a eu une reprise très rapide et un important soutien des dépenses de la part des pouvoirs publics. Les ménages ont accumulé un large montant d’épargne et la dépense de cette épargne contribue sans doute à la demande. Conceptuellement, on peut s’attendre à ce que ces pressions sur la demande soient capturées par le taux de chômage. Le taux de chômage est toujours plus élevé que ce qu’il était avant la crise de la Covid-19, mais il y a plusieurs éléments empiriques suggérant que le taux de chômage fournit une image incomplète du degré de tensions sur le marché du travail : les postes vacants (…) sont assez élevés relativement à la période précédant la pandémie, malgré un chômage plus élevé, et de plus faibles taux d’emploi. (…)

Une chose qui n’a pas beaucoup contribué à l’inflation jusqu’à présent est un relèvement des anticipations d’inflation de long terme. Aussi bien les enquêtes que les mesures tirées de l’observation des marchés suggèrent que les anticipations d’inflation à plus long terme restent assez stables. Jusqu’à présent, la Fed a réussi à stabiliser les anticipations de long terme et c’est une belle réussite. L’objectif est, bien sûr, d’éviter que ces chocs d’offre et les chocs touchant les prix relatifs ne deviennent le genre de forte inflation autoréalisatrice que nous avons vécue à la fin des années 1970. Il y a eu une accélération notable des anticipations d’inflation de long terme au cours du récent passé, mais jusqu’à présent elle a été limitée. C’est l’un des objectifs premiers de la Fed ces jours-ci de faire en sorte de les maintenir ainsi.

Noah Smith : Parlons des anticipations d’inflation. Dans le cadre de mes propres réflexions, je me suis beaucoup appuyé sur la récente analyse que vous avez réalisée avec Hazell, Herreno et Steinsson, dans laquelle vous expliquez que l’inflation des années 1970 est en partie due aux chocs pétroliers, mais aussi en partie due à un changement de régime dans les croyances à propos de la volonté de la Fed à combattre l’inflation. Cela m’amène à me rassurer en voyant que les anticipations de marché et les anticipations de plus long terme tirées des enquêtes semblent contenues. Est-ce que cela signifie que la Fed en fait assez aujourd’hui ? Ou doit-elle chercher activement à ramener l’inflation à sa cible de 2 % ?

Emi Nakamura : Je suis également rassurée de voir que les anticipations de plus long terme restent contenues (…). Il y a une accélération significative à la fin de la série, mais jusqu’à présent, elle reste limitée. Mais les anticipations de marché sont prédites sur ce que les marchés s’attendent de la part de la Fed. Il y a un élément relevant de la prophétie autoréalisatrice derrière, comme dans beaucoup de choses en macroéconomie. Donc, aussi longtemps que le marché s’attend à ce que la Fed fera ce qu’il faut pour contenir l’inflation, nous ne verrons pas un tel mouvement dans les anticipations d’inflation à long terme. La Fed travaille dur pour préserver cela. Mais nous ne pouvons considérer cela comme garanti. En d’autres lieux et à d’autres époques, même aux Etats-Unis, les anticipations d’inflation de long terme ont été bien moins ancrées. Un gros défi pour la Fed est que lorsque vous réussissez quelque chose (par exemple, si ses efforts permettent d’éviter le "mauvais équilibre" où les gens perdent confiance à propos des anticipations d’inflation de long terme, alors vous ne voyez pas le contrefactuel), la crise que vous évitez ne se matérialise justement pas. Par exemple, les politiques de liquidité de la Fed au début de la pandémie peuvent avoir permis d’éviter une crise financière. Mais nous ne verrons jamais le contrefactuel.

Noah Smith : Aujourd’hui, beaucoup de monde parle à propos de l’article de Jeremy Rudd, remettant en cause l’idée que nous comprenions vraiment comment les anticipations d’inflation influencent l’inflation. Qu’en pensez-vous ? Les macroéconomistes croient-ils excessivement en la puissance des anticipations ? Après tout, vous avez réalisé une étude avec McKay et Steinsson montrant que le forward guidance est probablement moins efficace que ce que les gens pensent, parce que les consommateurs et les entreprises ont un pouvoir limité pour répondre aux choses qui surviennent loin dans le futur. Cet article semblait aller dans le sens avec une littérature théorique de plus en plus importante questionnant l’idée que chacun fait ses décisions en se basant sur une réflexion de très long terme. Est-ce que cela façonne la façon par laquelle nous considérons l’inflation aujourd’hui ?

Emi Nakamura : Je pense qu’il est difficile de faire sens des épisodes de très grosse inflation sans donner de rôle aux anticipations d’inflation. Comment l’inflation peut-elle augmenter de dizaines ou centaines de pourcentage par an, puis retourner à zéro en se basant sur la seule pente de la courbe de Phillips ? D’un point de vue théorique, faire jouer un rôle aux anticipations d’inflation signifie simplement que les dirigeants d’entreprises prennent en compte l’avenir lorsqu’ils décident de la fixation de leurs prix. De combien les salaires vont-ils augmenter ? De combien les concurrents vont augmenter leurs prix ? De combien les fournisseurs vont-ils augmenter les leurs ? Ces questions sont assez saillantes dans les périodes de forte inflation, par exemple, dans les négociations salariales. Il y a une jolie anecdote à ce propos dans une interview de Paul Volcker. Volcker avait rencontré un homme d’affaires qui sortait à peine de négociations salariales et qui se félicitait d’avoir accordé au terme de celle-ci une hausse de salaires de 13 % pour ses salariés (ce qui suggère qu’il anticipait une forte inflation l’année suivante).

Quand l’inflation est vraiment très faible, comme aux Etats-Unis pendant une longue période avant l’épidémie de Covid-19, il y a beaucoup d’éléments empiriques suggérant que les gens ne prêtent pas beaucoup d’attention à l’inflation. Après tout, cela n’importe guère ni pour les firmes, ni pour les travailleurs. C’est quelque chose que j’ai noté en enseignant : les étudiants américains ont souvent très peu d’idée de ce que signifie l’inflation lorsqu’ils arrivent, mais les étudiants latino-américains semblent comprendre comme de façon innée, peut-être en raison de l’environnement dans lequel ils sont nés.

Je ne suis pas en désaccord avec l’idée que nos modèles donnent probablement un poids excessif à l’influence des choses de très long terme sur le comportement courant. Il est utile de réfléchir à la façon par laquelle les prédictions de ces modèles changent avec la rationalité limitée.

Noah Smith : Quelles sont selon vous les tendances les plus intéressantes ou importantes dans la théorie macroéconomique ces derniers temps ?

Emi Nakamura : Je suis une macroéconomiste empirique, donc peut-être qu’il n’est pas surprenant que je sois excité de voir une forte connexion entre travaux théoriques et analyses empiriques à partir des microdonnées, aussi bien que l’usage croissant de méthodes empiriques quasi-expérimentales dans plusieurs domaines de la macroéconomie. Je pense que trouver des façons de connecter la théorie aux données est une précondition pour rendre plus convaincantes les implications normatives de nos modèles, comme Milton Friedman le soulignait dans son discours de réception du Prix Nobel ou plus en détails ici. Les progrès que nous pouvons réaliser en établissant de façon convaincante les faits nous permettent de mieux évaluer quelles théories sont les plus utiles. Cela peut aussi être une source réelle d’inspiration pour proposer de nouveaux modèles ou de nouvelles idées théoriques, quand nous trouvons des résultats empiriques auxquels nous ne nous attendions pas.

Noah Smith : Il est intéressant que vous mentionniez les Essais d’Economie positive de Friedman pour soutenir l’idée de connecter la théorie aux données. C’est dans cet essai que Friedman a fait une analogie entre la macroéconomie et le billard. Il affirmait que, tout comme le joueur de billard n’a pas besoin de comprendre la physique pour jouer, les macroéconomistes n’ont pas à comprendre les spécificités de la prise de décision économique pour modéliser le comportement économique qui en résulte. En d’autres mots, il semblait affirmer que nous n’avions pas besoin que les modèles macroéconomiques collent aux données empiriques, mais qu’il fallait juste qu’ils collent aux données macroéconomiques. Et pourtant, au cours des dernières années, la profession semble s’être résolue à aller contre l’idée de Friedman. En fait, votre article de 2008 "Identification in Macroeconomics" est le meilleur résumé que je connaisse de cette tendance à vérifier les modèles macroéconomiques à partir de données microéconomiques. Etes-vous d’accord à l’idée que cela a constitué un changement majeur ?

Emi Nakamura : l’analogie du joueur de billard contient des éléments de vérité, mais je n’aimerais pas l’utiliser comme argument pour rejeter les données. Si nous avions de larges bases de données avec beaucoup de variations aléatoires des variables pertinentes, peut-être que nous pourrions nous concentrer sur les seules données macroéconomiques. Mais en pratique, nous avons surtout des bases de données limitées, avec beaucoup de variations non aléatoires. Les données macroéconomiques ont tendance à être confondues par de nombreux changements structurels et institutionnels et, en outre, de nombreux problèmes apparaissent lorsque l’on évalue la causalité parce que nous ne pouvons utiliser des essais randomisés. Donc, je pense que cela fait sens d’essayer de combiner les approches micro et macro, parce que nous avons plus confiance à l’idée qu’un modèle avec des hypothèses réalistes fonctionnera davantage dans des contextes pour lesquels nous n’avons guère été capables d’analyser les effets qu’un autre modèle collant tout autant que le premier aux données observées, mais s’appuyant sur des hypothèses non réalistes. (…)

Noah Smith : Je suis définitivement de votre côté sur ce point et mon sentiment est que la plupart des jeunes macroéconomistes le sont aussi. L’utilisation de données microéconomiques pour valider des morceaux de modèles macroéconomiques semble avoir le potentiel de mener à un âge d’or de progrès rapides en macroéconomie. Ce qui m’amène aux questions suivantes : 1) Quelles sont selon vous certaines des lignes de recherche les plus excitantes qui sont suivies en macroéconomie ? 2) Quelles sont les lignes d’enquête les plus importantes qui n’ont pas reçu assez d’attention jusqu’à présent selon vous ?

Emi Nakamura : La recherche en économie monétaire a été particulièrement excitante dans les années qui ont suivi la Grande Récession, parce que les questions en termes de politique économique sont si importantes, parce qu’il y a plein de nouvelles données et parce que les outils de la politique monétaire changent. (…) Ce n’est pas parce qu’une question a été étudiée par le passé que nous sommes tous convaincus par la réponse. De nombreuses études aboutissant à la même conclusion en utilisant des méthodes différentes et, espérons-le, de plus en plus convaincantes peuvent avoir une certaine valeur pour cimenter nos vues sur un sujet (par exemple, pensons aux divers articles qui ont contribué à changer les vues des économistes à propos de la propension marginale à consommer). Je suis également très intéressée par les travaux sur la mesure macroéconomique, qui n’est pas assez étudiée à mon sens.

Noah Smith : Si vous pouviez donner un conseil à de jeunes macroéconomistes en début de carrière, lequel serait-il ?

Emi Nakamura : Quand j’étais étudiante à Princeton, j’avais lu la formule "questionniez les hypothèses" sur un mur du bureau de l’un de mes professeurs, Bo Honore. Quand j’étais venue à mon entretien d’embauche à Berkeley il y a quelques années, j’étais assise dans le bureau de Jim Powell, le chef du département à l’époque. J’avais jeté un coup d’œil au-dessus et aperçu la même formule, "questionniez les hypothèses". Une fois digérée la sensation de déjà-vu, j’ai appris que la formule était tirée d’une contre-culture hippie quand Bo et Jim déambulaient dans les quartiers de Berkeley. Je suis presque sûr que la formule n’était initialement pas un conseil de recherche pour les apprentis économistes, mais je pense toujours que c’est l’un des meilleurs conseils que j’ai eus et peut-être le meilleur à transmettre. »

Noah Smith, « Emi Nakamura, macroeconomist », entretien avec Emi Nakamura, 21 février 2022. Traduit par Martin Anota



aller plus loin...

« Les anticipations d’inflation importent-elles vraiment pour l’inflation ? »

« De la stagflation à la Grande Inflation, ou comment le regard des économistes sur les années 1970 a changé »

« Comment la recherche macroéconomique a évolué ces quarante dernières années »

lundi 25 octobre 2021

Economie du socialisme et de la transition : la vie et l’œuvre de János Kornai

« Le grand économiste hongrois János Kornai nous a quittés. Il fut l’un des intellectuels les plus importants du vingtième siècle. Il vécut sous le nazisme et le communisme, les deux régimes totalitaires du vingtième siècle. Né dans une famille juive à Budapest, il perdit son père et l’un de ses frères à cause des nazis. Comme beaucoup d’autres jeunes juifs en Europe centrale qui survécurent à l’Holocauste, il fut pendant deux ans un partisan enthousiaste du communisme, le grand ennemi du nazisme. Au bout de quelques années, il en était désenchanté, en particulier lorsqu’il prit connaissance des purges staliniennes en Hongrie au début des années 1950.

Sa thèse en économie, Overcentralization in Economic Administration, était remplie de faits relatifs aux vices de la planification centrale et représenta un grand bol d’air frais dans l’atmosphère intellectuelle à l’époque. Il présenta sa thèse juste avant la répression soviétique de la Révolution hongroise de 1956. Sa soutenance fut suivie par une grande foule et constitua l’un des événements intellectuels majeurs de cette année-là. Etant donnée la visibilité de sa thèse, quand la répression vint, il perdit son poste à l’Institut d’économie (…), fut interrogé et se retrouva finalement avec des postes marginaux, d’abord au Bureau de Planification de l’Industrie légère, puis à l’Institut de Recherche de l’Industrie textile.

Au lieu de se décourager ou de plonger dans le cynisme, il utilisa le temps libre qu’il avait dans ces emplois obscurs pour étudier sérieusement l’économie et mieux se former à la recherche économique qui se faisait en Occident, de l’autre côté du Rideau de Fer. Son travail sur la planification à deux niveaux avec Tamás Lipták fut publié dans la revue Econometrica et devint un article important dans la littérature sur l’économie de la planification. Il en obtint une véritable reconnaissance de la part d’économistes proéminents de l’époque, notamment Kenneth Arrow, Leonid Hurwicz, Tjalling Koopmans et Edmond Malinvaud. Les autorités hongroises, qui étaient plus ouvertes que les autres régimes communistes, lui permirent même de voyager pour assister à des conférences en Occident, bien que sous la supervision étroite de la police secrète.

Au lieu de se contenter de devenir l’économiste le plus en vue concernant l’Europe centrale et orientale (avec le plus âgé Leonid Kantorovich, l’inventeur de la programmation linéaire, qui reçut le prix Nobel d’économie en 1975), Kornai écrit en 1971 un livre avec le titre provocateur, Anti-Equilibrium, qui représenta une virulente critique de la pertinence de la théorie de l’équilibre générale, le joyau de la couronne de la théorie économique. Ce livre proposa aussi d’ajouter des considérations relatives à la sphère informationnelle de l’économie, en développant des thèmes comme l’asymétrie informationnelle, la négociation, les conventions, les routines, les aspirations, des thèmes qui furent ensuite développés par d’autres économistes.

La thèse la plus développée de ce livre était que les économies capitalistes sont dans un état permanent d’excès d’offre (surproduction), tandis que les économies centralement planifiées sont dans un état constant d’excès de demande (pénurie). Kornai a tiré toutes les implications de cette analyse avec de minutieux détails. Je me souviens avoir évoqué des arguments de son livre dans mon cours sur l’équilibre général à l’université, ce qui ennuya sûrement le professeur. Olivier Blanchard me raconta un jour qu’il eut une expérience similaire. Le livre de Kornai était extrêmement populaire parmi les jeunes économistes rebelles qui voulaient changer le monde.

Son magnum opus, Socialisme et économie de la pénurie (Economics of Shortage), a été publié en 1980. Alors que ses précédents travaux sur l’économie de la planification étaient essentiellement théoriques (toute cette littérature était très éloignée du fonctionnement réel de la planification), ce fut le premier livre à proposer une analyse systématique et puissante de la façon par laquelle l’économie socialiste fonctionnait en pratique. En débutant avec le concept de contrainte budgétaire lâche (ou molle) (dans les économies socialistes, les entreprises publiques qui faisaient des pertes n’étaient jamais fermées), Kornai expliqua comment cela menait à une hausse de la demande par les entreprises, les rendant peu sensibles aux variations des prix. Ce supplément de demande menait à des pénuries généralisées qui influençaient profondément le comportement des dirigeants d’entreprises, des consommateurs et des planificateurs.

Aucun autre livre n’analysa les effets des pénuries d’une façon aussi complète sur des centaines de pages. Il approfondit son analyse dans Le Système Socialiste : l’économie politique du communisme (The Socialist System: The political economy of communism) en 1992, qu’il put écrire sans avoir à s’autocensurer et en expliquant clairement le rôle du Parti communiste dans l’instauration institutionnelle de l’économie socialiste.

Quand le Mur de Berlin chuta et que les régimes communistes s’effondrèrent les uns après les autres à la fin de l’année 1989, Kornai écrit un bref livre, The Road to a Free Economy, présentant un programme clair pour une transition économique vers l’économie de marché. Comme beaucoup d’autres économistes, notamment moi-même, il s’est opposé aux privatisations de masse et marqua ses préférences pour un développement organique du secteur privé. La plupart de ses idées concernant la transition se révélèrent correctes.

Il continua d’écrire des articles influents à propos de la transition et les réformes durant les années quatre-vingt-dix, même si déjà sa santé de détériorait. Il a fait sensation il y a deux ans en exprimant ses regrets d’avoir conseillé le régime communiste chinois pour créer un "Frankenstein", en l’occurrence une économie capitaliste très efficace dans le cadre d’un régime communiste représentant la plus importante menace pesant sur la liberté dans le monde aujourd’hui, en raison de sa force croissante et de ses ambitions hégémoniques.

Tout au long du processus de transition, il a toujours insisté sur ses "préférences lexicographiques" : la liberté, les droits humains et la démocratie prévalant sur la croissance économique et le bien-être matériel. Après avoir vécu sous le nazisme et le communisme, il était triste de voir à la fin de sa vie la démocratie en Hongrie être démantelée par le régime Orbán.

Contrairement à beaucoup de mes amis, en particulier des coauteurs comme Yingyi Qian et Chenggang Xu, je n’ai jamais été son étudiant, mais ses livres ont eu, et ont toujours, une profonde influence sur la pensée en tant qu’économiste. La première fois où je l’ai rencontré, j’étais encotre étudiant et il était président de l’European Economic Association en 1987. Inutile de préciser que j’étais très intimidé par lui et il me fallut beaucoup de courage pour l’approcher pour parler à propos de recherche.

(…) Il n’est plus avec nous désormais, mais il continuera de m’inspirer et d’inspirer bien d’autres chercheurs. Un véritable héros intellectuel ! »

Gérard Roland, « Economics of socialism and transition: The life and work of János Kornai, 1928-2021 », 23 octobre 2021. Traduit par Martin Anota

lundi 11 octobre 2021

Card, Angrist et Imbens, ou comment les expériences naturelles peuvent aider à répondre à d’importantes questions

David_Card_Joshua_Angrist_Guido_Imbens__prix_Nobel_d__economie_2021.png

« Les lauréats de cette année, David Card, Joshua Angrist et Guido Imbens, ont montré que les expériences naturelles peuvent être utilisées pour répondre à d’importantes questions de société, par exemple pour savoir comment le salaire minimum et l’immigration peuvent affecter le marché du travail. Ils ont aussi clarifié quelles conclusions à propos de la cause et de l’effet peuvent être tirées lorsque l'on utilise cette approche. Ensemble, ils ont révolutionné la recherche empirique dans les sciences économiques…

Pour prendre les bonnes décisions, nous devons comprendre les conséquences de nos choix. Cela s’applique aussi bien aux individus qu’aux responsables de la politique publique : les jeunes qui prennent leurs décisions en matière de poursuite d’études veulent savoir comment celles-ci affecteront leur revenu futur ; les politiciens considérant un éventail de réformes veulent savoir comment celles-ci affecteront l’emploi et la répartition du revenu, par exemple. Cependant, répondre à de grandes questions à propos de la cause et de l’effet n’est pas facile, parce que nous ne saurons jamais ce qui se serait passé si nous avions fait un choix différent.

Une façon d’établir une causalité est d’utiliser des expériences randomisées, où les chercheurs répartissent les individus à des groupes de contrôle de façon aléatoire. Cette méthode est utilisée pour étudier l’efficacité de nouveaux médicaments, parmi d’autres choses, mais elle n’est pas adaptée pour étudier plusieurs questions de société. Par exemple, nous ne pouvons pas réaliser une expérience aléatoire déterminant qui ira à l’université et qui n’y ira pas.

Malgré ces problèmes, les lauréats de cette année ont montré qu’il était possible de répondre à plusieurs des grandes questions de société. Leur solution consiste à utiliser des expériences naturelles, c’est-à-dire des situations survenant dans la vraie vie qui ressemblent à des expériences randomisées. Ces expériences naturelles peuvent résulter de variations naturelles aléatoires, de règles institutionnelles ou de changements de politique publique. Dans un travail pionnier au début des années 1990, David Card a analysé certaines questions centrales en économie du travail (telles que les effets d’un salaire minimum, de l’immigration et de l’éducation) en utilisant cette approche. Les résultats de ces études ont remis en cause la croyance conventionnelle et suscité de nouveaux travaux, auxquels Card a continué d’apporter d’importantes contributions. Globalement, nous avons à présent une bien meilleure compréhension du fonctionnement du marché du travail qu’il y a trente ans.

Les expériences naturelles diffèrent des essais cliniques sur un point important. Dans un essai clinique, le chercheur a le contrôle total sur l’identité des personnes qui se voient proposer un traitement et est ainsi susceptible de le recevoir (le groupe de traitement) et sur celle des personnes qui ne se voient pas proposer le traitement et qui ne le reçoivent pas par conséquent (le groupe de contrôle). Dans une expérience naturelle, le chercheur a aussi accès aux données du traitement et des groupes de contrôle, mais, à la différence d’un essai clinique, les individus peuvent eux-mêmes avoir choisi s’ils veulent participer à l’intervention qui est proposée. Cela rend encore plus difficile d’interpréter les résultats d’une expérience naturelle. Dans une étude innovante de 1994, Joshua Angrist et Guido Imbens ont montré quelles conclusions à propos de la causalité peuvent être tirées d’expériences naturelles dans lesquelles les gens ne peuvent être forcés de participer au programme qui est étudié (ni interdits de le faire). Le cadre qu’ils ont créé a radicalement changé la façon par laquelle les chercheurs s’attaquent aux questions empiriques en utilisant les données d’expériences naturelles ou d’expériences de terrain randomisées.

Un exemple d’expérience naturelle


Prenons un exemple concret pour illustrer comment fonctionne une expérience naturelle. Une question qui est pertinente pour la société et les jeunes considérant leur avenir est de savoir combien vous gagnez de salaire en plus en choisissant d’étudier plus longtemps. Une tentative initiale pour répondre à cette question peut impliquer de regarder les données sur le lien entre la rémunération des gens et leur éducation. Par exemple, pour les hommes nés aux Etats-Unis durant les années 1930, les rémunérations étaient en moyenne 7 % plus élevées pour ceux qui avaient une année supplémentaire d’éducation.

Donc, pouvons-nous conclure qu’une année supplémentaire d’éducation ajoute 7 % à votre revenu ? La réponse à cette question est non : les gens qui choisissent de rester longtemps scolarisés diffèrent de plusieurs façons de ceux qui choisissent de vite quitter l’école. Par exemple, certains peuvent être talentueux pour étudier et pour travailler. Ces gens sont susceptibles de continuer d’étudier, mais ils auraient tout de même probablement eu un revenu élevé s’ils ne l’avaient pas fait. Il se peut aussi que ce soit seulement ceux qui s’attendent à ce que l’éducation rapporte qui choisissent d’étudier plus longtemps.

Des problèmes similaires surviennent si vous voulez savoir comment le revenu affecte l’espérance de vie. Les données montrent que les gens avec des revenus plus élevés vivent plus longtemps, mais est-ce vraiment dû à leurs revenus plus élevés ou est-ce que ces gens avaient d’autres attributs qui expliquent à la fois qu’ils vivent plus longtemps et qu’ils gagnent plus ? Il est facile de trouver des exemples où il y a des raisons de se demander si la corrélation implique vraiment une relation de causalité.

Donc, comment pouvons-nous utiliser une expérience naturelle pour examiner si des années additionnelles d’éducation affectent le revenu futur ? Joshua Angrist et son collègue Alan Krueger (maintenant décédé) ont montré comment cela peut être fait dans un article majeur. Aux Etats-Unis, les enfants peuvent quitter l’école lorsqu’ils atteignent 16 ou 17 ans, en fonction de l’Etat où ils sont scolarisés. Parce que tous les enfants qui sont nés au cours d’une année donnée commencent l’école à la même date, les enfants qui sont nés plus tôt dans l’année peuvent quitter l’école plus tôt que les enfants nés plus tard. Quand Angrist et Krueger ont comparé les gens nés au premier trimestre avec ceux nés au quatrième trimestre, ils constatèrent que le premier groupe avait, en moyenne, passé moins de temps à l’école. Les gens nés au premier trimestre ont aussi eu des revenus plus faibles que ceux nés au quatrième trimestre. Lorsqu’ils atteignaient l’âge adulte, ils avaient à la fois moins d’éducation et de moindres revenus que ceux nés plus tard dans l’année.

Angrist_Krueger__association_entre_scolarite_education_et_revenu.png

La date de naissance est aléatoire, Angrist et Krueger ont été capables d’utiliser cette expérience naturelle pour établir une relation causale montrant qu’un surcroît d’éducation mène à un revenu plus élevé : l’effet d’une année additionnelle d’éducation sur le revenu était de 9 %. Ce fut surprenant que cet effet soit plus fort que la corrélation entre l’éducation et le revenu, qui équivalait à 7 %. Si les gens ambitieux et intelligents ont à la fois des niveaux d’éducation plus élevés et de plus hauts revenus (qu’importe l’éducation) nous aurions dû voir l’opposé : la corrélation aurait dû être plus forte que la relation causale. Cette observation suscita de nouvelles questions à propos de la façon d’interpréter les résultats des expériences naturelles, des questions auxquelles Joshua Angrist et Guido Imbens apportèrent par la suite une réponse.

Il serait facile de croire que des situations qui permettent les expériences naturelles sont très rares, en particulier celles qui peuvent être utilisées pour répondre à des questions importantes. La recherche au cours des trente dernières années a montré que ce n’est pas le cas : les expériences naturelles surviennent fréquemment. Par exemple, ils peuvent survenir en raison de changements dans certaines régions d’un pays (…) ou les seuils de revenu dans les systèmes socio-fiscaux, ce qui signifie que certains individus sont exposés à une intervention, pendant que d’autres individus, similaires, ne le sont pas. Il y a donc un hasard inattendu qui répartit les individus entre groupes de contrôle et groupes de traitement, fournissant aux chercheurs des opportunités pour découvrir des causalités.

Mieux comprendre le marché du travail

Les effets d’un salaire minimum

Au début des années 1990, le consensus parmi les économistes était qu’une hausse du salaire minimum détériore l’emploi parce qu’elle augmente les coûts des entreprises. Cependant, les éléments empiriques soutenant cette conclusion n’étaient pas très convaincants : il y avait en effet plusieurs études qui indiquaient une corrélation négative entre salaire minimum et emploi, mais est-ce que cela signifiait pour autant qu’une hausse du salaire minimum entraînait un chômage plus élevé ? Il peut y avoir une causalité inverse : quand le chômage augmente, les employeurs peuvent fixer de plus faibles salaires, ce qui alimente la demande en faveur d’une hausse du salaire minimum.

Pour étudier comment le salaire minimum affecte l’emploi, Card et Krueger ont utilisé une expérience naturelle. Au début des années 1990, le salaire horaire minimum dans l’Etat du New Jersey est passé de 4,25 dollars à 5,05 dollars. Etudier simplement ce qui s’est passé dans le New Jersey après cette hausse ne donne pas une réponse fiable à la question, comme de nombreux autres facteurs peuvent influencer le niveau d’emploi au cours du temps. Comme avec les expériences randomisées, un groupe de contrôle était nécessaire, c’est un groupe où les salaires ne changent pas, mais pour lequel tous les autres facteurs sont les mêmes.

David_Card_Alan_Krueger__fast-foods_Pennsylvanie_New_Jersey.png

Card et Krueger ont noté qu’il n’y a pas eu de revalorisation du salaire minimum dans l’Etat voisin de Pennsylvanie. Bien sûr, il peut y avoir des différences entre les deux Etats, mais il est probable que les marchés du travail évoluent assez similairement à proximité de la frontière entre les deux Etats. Donc, Card et Kruger ont étudié l’évolution de l’emploi dans deux zones voisines, le New Jersey et l’est de la Pennsylvanie, qui ont un marché du travail similaire, mais où le salaire minimum a augmenté d'un seul côté de la frontière, mais non l’autre. Il n’y avait pas de raison apparente de croire qu’un facteur autre que la hausse du salaire minimum (tel que la situation économique) affecterait différemment l’emploi des deux côtés de la frontière. Donc, si un changement dans le nombre de salariés était observé dans le New Jersey et non de l’autre côté de la frontière, il y avait de bonnes raisons d’interpréter ce changement comme un effet de la hausse du salaire minimum.

Card et Kruger se sont focalisés sur l’emploi dans les fast-foods, un secteur où la rémunération est faible et pour lequel le salaire minimum importe. Contrairement aux précédents travaux, ils trouvent qu’une hausse du salaire minimum n’a pas d’effet sur le nombre de salariés. David Card est arrivé à la même conclusion dans deux études au début des années 1990. Ce travail pionnier a suscité une vague d’études. La conclusion générale est que les effets négatifs d’une revalorisation du salaire minimum sont faibles et significativement plus faibles que ce que l’on croyait il y a trente ans.

Emploi dans le New Jersey et en Pennsylvanie (en indices, base 100 en février 1992)

David_Card_Alan_Krueger__emploi_New_Jersey_Pennsylvanie_apres_hausse_salaire_minimum.png

Le travail réalisé par Card au début des années 1990 a aussi suscité de nouveaux travaux cherchant à expliquer l’absence d’effets négatifs sur l’emploi. Une possible explication est que les entreprises peuvent répercuter la hausse des coûts à leurs clients sous la forme de prix plus élevés, sans réduction significative de la demande. Une autre explication est que les firmes qui dominent leur marché du travail local peuvent maintenir les salaires à un faible niveau. Quand les entreprises ont un tel pouvoir de marché, nous ne pouvons pas déterminer à l’avance comment l’emploi sera affecté par les changements du salaire minimum. Les diverses études inspirées par celle de Card et Krueger ont considérablement amélioré notre compréhension du marché du travail.

Des travaux sur l’immigration et l’éducation

Une autre question importante est de savoir comment l’immigration affecte le marché du travail. Pour vraiment répondre à cette question, il faudrait savoir ce qui se serait passé s’il n’y avait pas eu d’immigration. Parce que les immigrés sont susceptibles de s’installer dans les régions avec un marché du travail en expansion, comparer simplement les régions avec immigrés et celles sans immigrés ne suffit pas pour établir une relation causale. Un événement unique dans l’histoire américaine a donné lieu à une expérience naturelle, que David Card a utilisée pour déterminer comment l’immigration affecte le marché du travail. En avril 1980, Fidel Castro a de façon inattendue autorisé tous les Cubains qui le désiraient à quitter le pays. Entre mai et septembre, 125.000 Cubains émigrèrent aux Etats-Unis. Beaucoup d’entre eux s’installèrent à Miami, qui connut une hausse de la population active d’environ 7 %. Pour examiner comment cet afflux de travailleurs a affecté le marché du travail de Miami, David Card a comparé les tendances des salaires et de l’emploi à Miami avec l’évolution des salaires et de l’emploi dans quatre autres villes.

Malgré l’énorme hausse de l’offre de travail, Card n’a pas trouvé d’effet négatif pour les résidents de Miami avec de faibles niveaux d’éducation. Les salaires n’ont pas chuté et le chômage n’a pas augmenté relativement aux autres villes. Cette étude a généré de nombreux travaux empiriques et nous avons à présent une meilleure compréhension des effets de l’immigration. Par exemple, les études subséquentes ont montré que la hausse de l’immigration a un effet positif sur le revenu de plusieurs groupes de natifs, mais négatif sur ceux qui sont issus d’une vague récente d’immigration. Une explication est que les autochtones se tournent vers des emplois qui nécessitent une bonne maîtrise de la langue native et là où ils ne sont pas en concurrence avec les immigrés pour l’emploi.

Card a aussi fait d’importantes contributions en ce qui concerne l’impact des ressources scolaires sur la trajectoire future des étudiants sur le marché du travail. A nouveau, ses résultats remettent en cause la croyance conventionnelle : de précédentes études suggéraient que la relation entre ressources accrues et performance scolaire, aussi bien que les opportunités ultérieures sur le marché du travail, est faible. Cependant, un problème était que les précédents travaux n’avaient pas considéré la possibilité d’une allocation de ressources compensatrices. Par exemple, il est probable que les responsables investissent davantage dans la qualité éducationnelle dans les écoles où la réussite des élèves est plus faible.

Pour examiner si les ressources scolaires ont un impact sur la trajectoire ultérieure des étudiants sur le marché du travail, David Card et Alan Krueger ont comparé les rendements de l’éducation pour les personnes qui vivaient dans le même Etat aux Etats-Unis, mais qui avaient grandi dans des Etats différents, par exemple ceux qui avaient grandi en Alabama ou dans l’Iowa, mais qui vivaient désormais en Californie. L’idée est que les personnes qui ont déménagé en Californie et qui ont le même niveau d’éducation sont comparables. Si les rendements de l’éducation diffèrent, c’est probablement dû au fait que l’Alabama et l’Iowa n’ont pas investi autant dans leur système éducatif. Card et Krueger ont constaté que les ressources sont importantes : les rendements de l’éducation augmentent avec la densité d’enseignants dans l’Etat dans lequel les individus ont grandi.

Cette recherche a aussi inspiré de nombreuses études. Il y a désormais des éléments empiriques montrant de façon robuste que les investissements dans l’éducation influencent la trajectoire ultérieure des étudiants sur le marché du travail. Cet effet est particulièrement fort pour les étudiants issu de milieux défavorisés.

Un nouveau cadre pour étudier les relations causales

Dans tous les scénarii réalistes, l’effet d’une intervention (par exemple, l’effet d’une année supplémentaire de scolarité) varie d’une personne à l’autre. En outre, les individus ne sont pas affectés de la même façon par une expérience naturelle. La possibilité de quitter l’école à 16 ans va peu affecter ceux qui avaient déjà prévu d’aller à l’Université. Des problèmes similaires surviennent dans les études basées sur des expériences, parce que nous ne pouvons typiquement pas forcer les individus à participer à une intervention. Le sous-groupe qui finira par participer se composera probablement d’individus croyant qu’ils vont tirer un bénéfice de l’intervention. Cependant, un chercheur qui analyse les données sait seulement qui participe, non pourquoi ; il n’y a pas d’informations indiquant quelles personnes ont seulement participé parce qu’on leur en a donné la possibilité grâce à l’expérience naturelle (ou l’expérience randomisée) et quelles personnes y auraient de toute façon participé. Comment peut-on établir une relation causale entre éducation et revenu ?

Joshua_Angrist_Guido_Imbens__effet_de_traitement_moyen_local.png

Joshua Angrist et Guido Imbens se sont attaqués à ce problème dans une étude influente du milieu des années 1990. En l’occurrence, ils se sont posé la question suivante : dans quelles conditions pouvons-nous utiliser une expérience naturelle pour estimer les effets d’une intervention particulière, telle qu’un cours d’informatique, quand les effets varient d’un individu à l’autre et que nous n’avons pas complètement contrôlé qui participe ? Comment pouvons-nous estimer cet effet et comment doit-il être interprété ?

Si l’on simplifie un peu, nous pouvons imaginer une expérience naturelle comme si elle répartissait aléatoirement les individus entre un groupe de traitement et un groupe de contrôle. Le groupe de traitement a la possibilité de participer à un programme, tandis que le groupe de contrôle n’en a pas la possibilité. Angrist et Imbens ont montré qu’il est possible d’estimer l’effet du programme en appliquant un processus en deux étapes (connu sous le nom de "méthode des variables instrumentales"). La première étape évalue comment l’expérience naturelle affecte la probabilité de participer à un programme. La deuxième étape considère alors cette probabilité quand elle évalue l’effet du programme effectif. Au prix de quelques hypothèses, qu’Imbens et Angrist ont formulées et discutées en détails, les chercheurs peuvent donc estimer l’impact du programme, même quand il n’y a pas d’information sur l’identité de ceux qui ont été affectés par l’expérience naturelle. Une importante conclusion est qu’il est seulement possible d’estimer l’effet parmi les personnes qui ont changé leur comportement en conséquence de l’expérience naturelle. Cela implique que la conclusion d’Angrist et Krueger à propos de l’effet sur le revenu d’une année supplémentaire de scolarité (un gain qu’ils ont estimé être de 9 %) s’applique seulement aux personnes qui ont effectivement choisi de quitter l’école quand la possibilité leur a été donnée. Il n’est pas possible de déterminer quels individus sont inclus dans ce groupe, mais nous pouvons déterminer sa taille. L’effet pour ce groupe a été qualifié d’"effet de traitement moyen local".

Joshua Angrist et Guido Imbens ont donc montré exactement quelles conclusions à propos de la cause et de l’effet peuvent être tirées des expériences naturelles. Leur analyse est aussi pertinente pour les expériences randomisées où nous n’avons pas un contrôle complet sur l’identité des participants à l’intervention, ce qui est le cas de presque toutes les expériences de terrain. Le cadre développé par Angrist et Imbens a été largement adopté par les chercheurs qui travaillent avec des données observationnelles. En clarifiant les hypothèses nécessaires pour établir une relation causale, leur cadre a aussi augmenté la transparence (et donc la crédibilité) de la recherche empirique. (...) »

L'Académie royale des sciences de Suède, « Natural experiments help answer important questions », 11 octobre 2021. Traduit par Martin Anota



aller plus loin... lire « L’immigration nuit-elle à l’emploi ? »

- page 1 de 16