Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Emi Nakamura

Fil des billets

lundi 21 février 2022

Entretien avec la macroéconomiste Emi Nakamura

Emi_Nakamura.png

« Si vous demandez à n'importe quel économiste de vous dire quelles sont les stars de la profession à l’heure actuelle, le nom d’Emi Nakamura sera probablement au sommet de la liste. En 2019, Nakamura a gagné la médaille John Bates Clark, l’une des deux plus prestigieuses récompenses en science économique et en l’occurrence une récompense qui va rarement à un macroéconomiste. Venant à l’origine du Canada et travaillant maintenant à Berkeley, l’Université de Californie, elle continue d’amasser les publications dans les revues les plus prestigieuses à un rythme stupéfiant.

J’ai rencontré pour la première fois Nakamura en 2011, quand j’étais encore étudiant. Elle était venue dans le Michigan parler de son étude "Fiscal Stimulus in a Monetary Union: Evidence from U.S. Regions" avec son coauteur régulier Jón Steinsson. Cette analyse fournissait certains des éléments empiriques montrant le plus clairement que la relance budgétaire stimule la croissance économique et elle a eu un grand impact dans le débat universitaire qui faisait alors rage quant à savoir s’il fallait utiliser la politique budgétaire pour stimuler l’économie dans le sillage de la crise de 2008.

Depuis, Nakamura a continué de travailler sur des sujets très pertinents pour les débats courants autour de la politique économique. A titre d’exemple, son récent article réalisé avec Hazell, Herreno et Steinsson, "The Slope of the Phillips Curve: Evidence from U.S. States", a été le principal article qui a guidé mes propres réflexions à propos de l’actuelle inflation. Je suis également un très grand fan de son document de travail "A Plucking Model of Business Cycles", qui a le potentiel selon moi de nous aider à comprendre la reprise actuelle. (...)

En parallèle, Nakamura a aussi œuvré à améliorer la macroéconomie elle-même. Le champ macroéconomique traversait une crise profonde après 2008 : la crise financière et la récession avaient montré que quelque chose n’allait vraiment pas et beaucoup de gens (notamment moi-même) ont souligné à quel point les théories s’étaient éloignées de la réalité empirique. Mais au lieu de se contenter de s’en plaindre, Nakamura a simplement cherché à régler ces problèmes. Elle a travaillé sur la façon d’identifier les chocs de politique monétaire avec des données à haute fréquence, sur la façon de déceler les effets des politiques en observant leurs effets différenciés selon les régions et sur d’autres innovations méthodologiques qui permettent à la macroéconomie de gagner en scientificité. En 2018, elle a écrit avec Steinsson un article de synthèse à propos de la nouvelle macroéconomie empirique qui, je pense, va finir par avoir une très grosse influence sur la direction de la profession.

Dans l’entretien qui suit, j’ai évoqué avec Nakamura l’inflation et ce que nous devons faire la concernant, la façon par laquelle théorie et éléments empiriques interagissent en macroéconomie et le futur de la macroéconomie.

Noah Smith : Je pense que nous devrions commencer en parlant de l’inflation, qui est l’un des sujets macroéconomiques que tout le monde a en tête aujourd’hui. Quelles sont selon vous les principales causes de l’inflation que nous connaissons aujourd’hui aux Etats-Unis (et, dans une moindre mesure, dans d’autres pays développés) ? Pouvons-nous nous attendre à ce qu’elle disparaisse d’elle-même ou devons-nous prendre certaines mesures pour nous en débarrasser ?

Emi Nakamura : La récente hausse de l’inflation est bien plus forte que ce que l’expérience historique nous aurait amené à prédire (une hausse de l’inflation d’environ 1/3 % pour toute baisse d’un point de pourcentage du taux de chômage). Je pense que plusieurs facteurs ont joué un rôle important.

Tout d’abord, après un long hiatus au cours duquel ils ont cessé de jouer un rôle majeur dans l’inflation, les chocs d’offre sont de retour ! La plus dramatique de ces perturbations a touché le marché du travail. Le taux d’activité aux Etats-Unis est inférieur de 1,5 % et jusqu’à présent la baisse est assez persistante. Et les chocs touchant l’offre de travail vont au-delà de cela : beaucoup de travailleurs sont malades ou en quarantaine (ou risquent de l’être). La baisse du taux d’activité est bien plus ample que celle observée dans la zone euro et cela peut s’expliquer en partie par le fait que les pays-membres de la zone euro ont mis en œuvre des politiques qui ont maintenu les travailleurs en lien avec leur emploi durant la pandémie. Peu ont anticipé la persistance des effets de la pandémie sur le taux d’activité et il est très difficile de dire comment cela évoluera au cours des deux prochaines années. Certains de ces travailleurs peuvent revenir au travail, mais d’autres, en particulier ceux qui ont pris leur retraite, peuvent ne pas le faire. Il y a eu aussi d’autres chocs d’offre importants : il est plus cher de faire fonctionner une garderie ou une usine en raison des restrictions sanitaires dues à la Covid-19. Il était dur de trouver des exemples de chocs d’offre pour faire cours aux étudiants de science économique, mais l’épidémie de Covid-19 en fournit de bons.

Deuxièmement, il y a eu une réallocation de la demande des services vers les biens. Au cours de la Grande Récession, la fraction des dépenses dépensée dans les biens a chuté. C’est l’opposé que l’on a vu lors de l’épidémie de Covid-19 : la fraction de dépenses dans les biens a fortement augmenté. C’est un autre changement tectonique dans l’économie qui, je pense, contribue à mettre les chaines de valeur sous pression. Beaucoup plus de gens travaillent depuis leur domicile et ils ont tous besoin d’ordinateurs et donc des semi-conducteurs nécessaires pour construire ces ordinateurs. Tous ces biens doivent être transportés aux Etats-Unis et au domicile des gens. C’est une "pression" du côté de l’offre, mais pas vraiment un "choc d’offre" parce que sa cause première est une hausse de la demande (du moins pour certains genres de biens). Mais un récent document de travail présenté à la conférence de Jackson Hole souligne que les changements séculaires de la demande peuvent mener à des pressions similaires à celles générées par les chocs d’offre. A nouveau, j’ai beaucoup d’incertitude à propos de la durée que prendra le retour de la consommation des gens à la normale. Je pense que certains de ces changements dans la consommation sont liés à des changements du côté de l’offre de travail que j’ai déjà mentionnés auparavant : quand vous retournez au travail, vous achetez des services complémentaires au travail (le café sur le trajet de votre bureau, la salade pour votre déjeuner, etc.). Dans la mesure où les gens télétravaillent davantage (et moins de gens travaillent tout court), cela peut rendre certains changements de la demande persistants.

Troisièmement, il y a eu une reprise très rapide et un important soutien des dépenses de la part des pouvoirs publics. Les ménages ont accumulé un large montant d’épargne et la dépense de cette épargne contribue sans doute à la demande. Conceptuellement, on peut s’attendre à ce que ces pressions sur la demande soient capturées par le taux de chômage. Le taux de chômage est toujours plus élevé que ce qu’il était avant la crise de la Covid-19, mais il y a plusieurs éléments empiriques suggérant que le taux de chômage fournit une image incomplète du degré de tensions sur le marché du travail : les postes vacants (…) sont assez élevés relativement à la période précédant la pandémie, malgré un chômage plus élevé, et de plus faibles taux d’emploi. (…)

Une chose qui n’a pas beaucoup contribué à l’inflation jusqu’à présent est un relèvement des anticipations d’inflation de long terme. Aussi bien les enquêtes que les mesures tirées de l’observation des marchés suggèrent que les anticipations d’inflation à plus long terme restent assez stables. Jusqu’à présent, la Fed a réussi à stabiliser les anticipations de long terme et c’est une belle réussite. L’objectif est, bien sûr, d’éviter que ces chocs d’offre et les chocs touchant les prix relatifs ne deviennent le genre de forte inflation autoréalisatrice que nous avons vécue à la fin des années 1970. Il y a eu une accélération notable des anticipations d’inflation de long terme au cours du récent passé, mais jusqu’à présent elle a été limitée. C’est l’un des objectifs premiers de la Fed ces jours-ci de faire en sorte de les maintenir ainsi.

Noah Smith : Parlons des anticipations d’inflation. Dans le cadre de mes propres réflexions, je me suis beaucoup appuyé sur la récente analyse que vous avez réalisée avec Hazell, Herreno et Steinsson, dans laquelle vous expliquez que l’inflation des années 1970 est en partie due aux chocs pétroliers, mais aussi en partie due à un changement de régime dans les croyances à propos de la volonté de la Fed à combattre l’inflation. Cela m’amène à me rassurer en voyant que les anticipations de marché et les anticipations de plus long terme tirées des enquêtes semblent contenues. Est-ce que cela signifie que la Fed en fait assez aujourd’hui ? Ou doit-elle chercher activement à ramener l’inflation à sa cible de 2 % ?

Emi Nakamura : Je suis également rassurée de voir que les anticipations de plus long terme restent contenues (…). Il y a une accélération significative à la fin de la série, mais jusqu’à présent, elle reste limitée. Mais les anticipations de marché sont prédites sur ce que les marchés s’attendent de la part de la Fed. Il y a un élément relevant de la prophétie autoréalisatrice derrière, comme dans beaucoup de choses en macroéconomie. Donc, aussi longtemps que le marché s’attend à ce que la Fed fera ce qu’il faut pour contenir l’inflation, nous ne verrons pas un tel mouvement dans les anticipations d’inflation à long terme. La Fed travaille dur pour préserver cela. Mais nous ne pouvons considérer cela comme garanti. En d’autres lieux et à d’autres époques, même aux Etats-Unis, les anticipations d’inflation de long terme ont été bien moins ancrées. Un gros défi pour la Fed est que lorsque vous réussissez quelque chose (par exemple, si ses efforts permettent d’éviter le "mauvais équilibre" où les gens perdent confiance à propos des anticipations d’inflation de long terme, alors vous ne voyez pas le contrefactuel), la crise que vous évitez ne se matérialise justement pas. Par exemple, les politiques de liquidité de la Fed au début de la pandémie peuvent avoir permis d’éviter une crise financière. Mais nous ne verrons jamais le contrefactuel.

Noah Smith : Aujourd’hui, beaucoup de monde parle à propos de l’article de Jeremy Rudd, remettant en cause l’idée que nous comprenions vraiment comment les anticipations d’inflation influencent l’inflation. Qu’en pensez-vous ? Les macroéconomistes croient-ils excessivement en la puissance des anticipations ? Après tout, vous avez réalisé une étude avec McKay et Steinsson montrant que le forward guidance est probablement moins efficace que ce que les gens pensent, parce que les consommateurs et les entreprises ont un pouvoir limité pour répondre aux choses qui surviennent loin dans le futur. Cet article semblait aller dans le sens avec une littérature théorique de plus en plus importante questionnant l’idée que chacun fait ses décisions en se basant sur une réflexion de très long terme. Est-ce que cela façonne la façon par laquelle nous considérons l’inflation aujourd’hui ?

Emi Nakamura : Je pense qu’il est difficile de faire sens des épisodes de très grosse inflation sans donner de rôle aux anticipations d’inflation. Comment l’inflation peut-elle augmenter de dizaines ou centaines de pourcentage par an, puis retourner à zéro en se basant sur la seule pente de la courbe de Phillips ? D’un point de vue théorique, faire jouer un rôle aux anticipations d’inflation signifie simplement que les dirigeants d’entreprises prennent en compte l’avenir lorsqu’ils décident de la fixation de leurs prix. De combien les salaires vont-ils augmenter ? De combien les concurrents vont augmenter leurs prix ? De combien les fournisseurs vont-ils augmenter les leurs ? Ces questions sont assez saillantes dans les périodes de forte inflation, par exemple, dans les négociations salariales. Il y a une jolie anecdote à ce propos dans une interview de Paul Volcker. Volcker avait rencontré un homme d’affaires qui sortait à peine de négociations salariales et qui se félicitait d’avoir accordé au terme de celle-ci une hausse de salaires de 13 % pour ses salariés (ce qui suggère qu’il anticipait une forte inflation l’année suivante).

Quand l’inflation est vraiment très faible, comme aux Etats-Unis pendant une longue période avant l’épidémie de Covid-19, il y a beaucoup d’éléments empiriques suggérant que les gens ne prêtent pas beaucoup d’attention à l’inflation. Après tout, cela n’importe guère ni pour les firmes, ni pour les travailleurs. C’est quelque chose que j’ai noté en enseignant : les étudiants américains ont souvent très peu d’idée de ce que signifie l’inflation lorsqu’ils arrivent, mais les étudiants latino-américains semblent comprendre comme de façon innée, peut-être en raison de l’environnement dans lequel ils sont nés.

Je ne suis pas en désaccord avec l’idée que nos modèles donnent probablement un poids excessif à l’influence des choses de très long terme sur le comportement courant. Il est utile de réfléchir à la façon par laquelle les prédictions de ces modèles changent avec la rationalité limitée.

Noah Smith : Quelles sont selon vous les tendances les plus intéressantes ou importantes dans la théorie macroéconomique ces derniers temps ?

Emi Nakamura : Je suis une macroéconomiste empirique, donc peut-être qu’il n’est pas surprenant que je sois excité de voir une forte connexion entre travaux théoriques et analyses empiriques à partir des microdonnées, aussi bien que l’usage croissant de méthodes empiriques quasi-expérimentales dans plusieurs domaines de la macroéconomie. Je pense que trouver des façons de connecter la théorie aux données est une précondition pour rendre plus convaincantes les implications normatives de nos modèles, comme Milton Friedman le soulignait dans son discours de réception du Prix Nobel ou plus en détails ici. Les progrès que nous pouvons réaliser en établissant de façon convaincante les faits nous permettent de mieux évaluer quelles théories sont les plus utiles. Cela peut aussi être une source réelle d’inspiration pour proposer de nouveaux modèles ou de nouvelles idées théoriques, quand nous trouvons des résultats empiriques auxquels nous ne nous attendions pas.

Noah Smith : Il est intéressant que vous mentionniez les Essais d’Economie positive de Friedman pour soutenir l’idée de connecter la théorie aux données. C’est dans cet essai que Friedman a fait une analogie entre la macroéconomie et le billard. Il affirmait que, tout comme le joueur de billard n’a pas besoin de comprendre la physique pour jouer, les macroéconomistes n’ont pas à comprendre les spécificités de la prise de décision économique pour modéliser le comportement économique qui en résulte. En d’autres mots, il semblait affirmer que nous n’avions pas besoin que les modèles macroéconomiques collent aux données empiriques, mais qu’il fallait juste qu’ils collent aux données macroéconomiques. Et pourtant, au cours des dernières années, la profession semble s’être résolue à aller contre l’idée de Friedman. En fait, votre article de 2008 "Identification in Macroeconomics" est le meilleur résumé que je connaisse de cette tendance à vérifier les modèles macroéconomiques à partir de données microéconomiques. Etes-vous d’accord à l’idée que cela a constitué un changement majeur ?

Emi Nakamura : l’analogie du joueur de billard contient des éléments de vérité, mais je n’aimerais pas l’utiliser comme argument pour rejeter les données. Si nous avions de larges bases de données avec beaucoup de variations aléatoires des variables pertinentes, peut-être que nous pourrions nous concentrer sur les seules données macroéconomiques. Mais en pratique, nous avons surtout des bases de données limitées, avec beaucoup de variations non aléatoires. Les données macroéconomiques ont tendance à être confondues par de nombreux changements structurels et institutionnels et, en outre, de nombreux problèmes apparaissent lorsque l’on évalue la causalité parce que nous ne pouvons utiliser des essais randomisés. Donc, je pense que cela fait sens d’essayer de combiner les approches micro et macro, parce que nous avons plus confiance à l’idée qu’un modèle avec des hypothèses réalistes fonctionnera davantage dans des contextes pour lesquels nous n’avons guère été capables d’analyser les effets qu’un autre modèle collant tout autant que le premier aux données observées, mais s’appuyant sur des hypothèses non réalistes. (…)

Noah Smith : Je suis définitivement de votre côté sur ce point et mon sentiment est que la plupart des jeunes macroéconomistes le sont aussi. L’utilisation de données microéconomiques pour valider des morceaux de modèles macroéconomiques semble avoir le potentiel de mener à un âge d’or de progrès rapides en macroéconomie. Ce qui m’amène aux questions suivantes : 1) Quelles sont selon vous certaines des lignes de recherche les plus excitantes qui sont suivies en macroéconomie ? 2) Quelles sont les lignes d’enquête les plus importantes qui n’ont pas reçu assez d’attention jusqu’à présent selon vous ?

Emi Nakamura : La recherche en économie monétaire a été particulièrement excitante dans les années qui ont suivi la Grande Récession, parce que les questions en termes de politique économique sont si importantes, parce qu’il y a plein de nouvelles données et parce que les outils de la politique monétaire changent. (…) Ce n’est pas parce qu’une question a été étudiée par le passé que nous sommes tous convaincus par la réponse. De nombreuses études aboutissant à la même conclusion en utilisant des méthodes différentes et, espérons-le, de plus en plus convaincantes peuvent avoir une certaine valeur pour cimenter nos vues sur un sujet (par exemple, pensons aux divers articles qui ont contribué à changer les vues des économistes à propos de la propension marginale à consommer). Je suis également très intéressée par les travaux sur la mesure macroéconomique, qui n’est pas assez étudiée à mon sens.

Noah Smith : Si vous pouviez donner un conseil à de jeunes macroéconomistes en début de carrière, lequel serait-il ?

Emi Nakamura : Quand j’étais étudiante à Princeton, j’avais lu la formule "questionniez les hypothèses" sur un mur du bureau de l’un de mes professeurs, Bo Honore. Quand j’étais venue à mon entretien d’embauche à Berkeley il y a quelques années, j’étais assise dans le bureau de Jim Powell, le chef du département à l’époque. J’avais jeté un coup d’œil au-dessus et aperçu la même formule, "questionniez les hypothèses". Une fois digérée la sensation de déjà-vu, j’ai appris que la formule était tirée d’une contre-culture hippie quand Bo et Jim déambulaient dans les quartiers de Berkeley. Je suis presque sûr que la formule n’était initialement pas un conseil de recherche pour les apprentis économistes, mais je pense toujours que c’est l’un des meilleurs conseils que j’ai eus et peut-être le meilleur à transmettre. »

Noah Smith, « Emi Nakamura, macroeconomist », entretien avec Emi Nakamura, 21 février 2022. Traduit par Martin Anota



aller plus loin...

« Les anticipations d’inflation importent-elles vraiment pour l’inflation ? »

« De la stagflation à la Grande Inflation, ou comment le regard des économistes sur les années 1970 a changé »

« Comment la recherche macroéconomique a évolué ces quarante dernières années »

lundi 6 mai 2019

Le prix de tout, la valeur de l’économie : une médaille Clark pour Emi Nakamura



« C’est fantastique et mérité (…) que la médaille John Bates Clark soit décernée à Emi Nakamura, qui a récemment quitté Columbia pour Berkeley. C’est la première médaille Clark qui est décernée à un macroéconomiste au vingt-et-unième siècle. La Grande Récession, les changements massifs dans le commerce international, l’essor de zones monétaires comme la zone euro, le saving glut et ses effets sur les taux d’intérêt, le changement dans l’ouverture aux entrées fébriles de capitaux, etc. : il s’est passé énormément de choses au niveau macroéconomique au cours des deux décennies qui se sont écoulées depuis qu’Andrei Shleifer a gagné la médaille Clark. Il est difficile d’imaginer ce qui peut être plus important pour un économiste à comprendre que ces dynamiques.

Au cours des vingt dernières années, la macroéconomie a connu quelque chose d’inhabituel : elle est devenue semblable à l’organisation industrielle ! Un bref rappel historique pourrait être utile. Le terme "macroéconomie" est dû à Ragnar Frisch, dans l’article qu’il publia en 1933 sur la propagation des chocs économiques. Il écrivait : "L’analyse macrodynamique (…) essaye de donner un compte-rendu de l’ensemble du système économique pris dans son entièreté. Evidemment dans ce cas il est impossible de procéder à une analyse des détails. Bien sûr, il est toujours possible de réaliser une analyse macrodynamique en détail si nous nous confinons à une théorie purement formelle. En effet, il est toujours possible par un système adapté d’indices et d’exposants, etc., d’introduire pratiquement tous les facteurs que nous pouvons imaginer. (…) Une telle théorie, cependant, n’aurait qu’un intérêt limité. Il ne serait guère possible d’étudier des problèmes fondamentaux tels que la forme exacte de la solution (…). Ces derniers problèmes sont des problèmes majeurs dans l’analyse du cycle d’affaires. De façon à s’attaquer à ces problèmes sur une base macrodynamique (…), nous devons délibérément négliger une masse considérable de détails de l’image".

Et c’est ce que nous avons fait. Les keynésiens ont ramené les microfondations de la macroéconomie dans une poignée de paramètres globaux pertinents. La critique de Lucas affirma que nous pouvons simplifier certaines choses (plusieurs agents en un agent représentatif, par exemple), mais que nous devons toujours commencer notre analyse avec les paramètres fondamentaux que sont les préférences, les contraintes et les technologies. La synthèse néoclassique a combiné ces paramètres bruts avec les rigidités nominales (les prix visqueux, l’information limitée, et ainsi de suite). Mais le principal point de Frisch demeurait : à quoi servent ces paramètres théoriques plus profonds si nous ne pouvons estimer leur valeur et leurs effets macroéconomiques ? Comme Einstein nous l’a enseigné, le but du scientifique devrait être de simplifier le plus possible les choses, mais pas davantage.

Il y a deux choses qui ont récemment changé en macroéconomie. Premièrement, la puissance de calcul offre désormais la possibilité d’estimer ou de calibrer de très complexes modèles dynamiques et stochastiques, avec des agents tournés vers l’avenir, avec des trajectoires de prix à l’équilibre ou en dehors de l’équilibre, avec diverses frictions ; c’est en cela que la macroéconomie a commencé à ressembler un peu comme l’organisation industrielle, avec les paramètres microéconomiques à la base. Mais deuxièmement, et de nouveau de façon analogue à l’organisation industrielle, le montant de données disponibles pour le chercheur a crû énormément. Nous avons maintenant des données sur les prix qui nous disent exactement quand les prix changent et de quel montant, comment ces changements se propagent le long des chaines de valeur et d’un pays à l’autre, comment ils interagissent avec les impôts, et ainsi de suite. Le problème de Frisch a dans un sens été résolu : nous n’avons plus le même arbitrage entre utilité et profondeur lorsque nous étudions la macroéconomie.

Nakamura est surtout connue pour utiliser cette profonde combinaison de données et de théorie pour comprendre comment les entreprises fixent leurs prix. Les rigidités des prix jouent un rôle particulièrement important dans les théories de la macroéconomie qui impliquent potentiellement de l’inefficacité. Considérons une version (quelque peu expurgée) de la théorie des cycles d’affaires réels. Ici, des chocs touchent l’économie : par exemple, un cartel du pétrole réduit l’offre de pétrole pour des raisons politiques. Les entreprises doivent réagir à ce choc "réel" du côté de l’offre en réorganisant l’activité économique. Le choc réel se propage ensuite d’un secteur à l’autre. Le rôle de la politique monétaire dans un tel monde est limité : une récession reflète simplement la réaction des entreprises au changement réel dans l’environnement économique.

Cependant, quand les prix sont "visqueux", ce n’est plus vrai. La vitesse à laquelle les chocs réels se propagent et la distorsion que les prix visqueux introduisent peuvent être affectées par la politique monétaire, puisque les firmes vont réagir aux changements de leurs anticipations d’inflation en changeant la fréquence à laquelle ils révisent les prix. Golosov et Lucas dans le Journal of Political Economy affirmèrent, théoriquement et empiriquement, que les effets en termes de bien-être des "prix visqueux" ou de "coûts de menu" n’étaient pas très significatifs. L’extraction de ces effets de bien-être est assez sensible à plusieurs aspects des données et de la théorie. Dans quelle mesure y a-t-il une dispersion des prix à court terme plutôt qu’une chance exogène pour toutes les entreprises dans un secteur de changer leurs prix ? Notons que la dispersion des prix est difficile à maintenir à moins que nous ayons des coûts de recherche pour le consommateur (sinon chacun achèterait au vendeur le moins cher), donc la dispersion des prix ajoute un défi technique non trivial. De combien les prix changent-ils dans la réalité (…) ? Quand l’inflation est plus forte, est-ce que les entreprises ajustent aussi fréquemment, mais plus amplement, leurs prix (rappelons-nous du fameux doublement du prix du Coca-Cola), ou est-ce qu’elles ajustent les prix plus souvent en modifiant leurs prix dans la même proportion qu’elles le faisaient dans des environnements de faible inflation ? Combien d’hétérogénéité y a-t-il dans les pratiques de fixation des prix d’un secteur à l’autre et dans quelle mesure ces différences affectent les conséquences des prix en termes de bien-être étant donné les relations entre secteurs ?

Nakamura nous a amenés très loin dans ces questions. Elle a construit d’incroyables bases de données, proposé des stratégies d’identification très astucieuses pour séparer les modèles de fixation des prix et utilisé ces outils pour grandement améliorer notre compréhension de l’interaction entre rigidités des prix et cycle d’affaires. Son article sur les "cinq faits" utilise des microdonnées du Bureau of Labor Statistics pour montrer que les soldes représentent la moitié des "modifications de prix" que les chercheurs avaient précédemment estimées, que les prix changent plus vite lorsque l’inflation est plus forte et qu’il y a une forte hétérogénéité entre les secteurs dans le comportement de changement des prix. En faisant remonter ces données jusqu’aux années soixante-dix, Nakamura et ses coauteurs montrent aussi que les environnements à forte inflation ne provoquent pas plus de dispersion des prix : en fait, les entreprises révisent leurs prix plus souvent. Robert Lucas dans ses Macroeconomic Priorities avait fait valoir de façon convaincante que les coûts du cycle d’affaires en termes de bien-être étaient bien plus faibles que les coûts d’inflation et que les coûts d’inflation étaient eux-mêmes bien plus faibles que les coûts de distorsions fiscales. Comme Nakamura le souligne, si vous croyez cela, alors ne vous étonnez pas de donner la priorité à la stabilité des prix et à la politique fiscale ! (Beaucoup ont chipoté sur le raisonnement de Lucas, mais même en ajoutant des agents hétérogènes il est difficile de faire apparaître que les cycles d’affaires se traduisent par de larges coûts, cf. Krusell et alii (2009)). Mieux comprendre les vrais coûts de l’inflation, via l’effet retour de l’expansion monétaire sur la fixation des prix, va grandement aider les responsables de la politique économique pour calibrer les coûts et bénéfices de la stabilité des prix vis-à-vis des autres objectifs macroéconomiques.

Bien qu’elle soit généralement connue en tant que macroéconomiste empirique, Nakamura a aussi publié plusieurs articles (en l’occurrence notamment avec son mari Jon Steinsson) sur la théorie de la fixation des prix. Par exemple, pourquoi les prix sont-ils à la fois visqueux et impliquent aussi des soldes ? Dans un article astucieux publié dans le Journal of Monetary Economics, Nakamura et Steinsson modélisent une fixation des prix par les firmes face à des consommateurs sujets à des habitudes. Si la firme ne se contraint pas elle-même, elle a l’incitation à accroître les prix une fois que les consommateurs acquièrent leur habitude sur un produit (…). Pour éviter ces problèmes d’incohérence temporelle, les entreprises aimeraient s’engager à une trajectoire de prix avec une certaine flexibilité pour répondre aux changements de la demande. Un équilibre à ce modèle de type contrat relationnel implique un prix-plafond avec des soldes quand la demande chute : des prix rigides et des soldes, comme nous l’avons vu dans les données ! Dans un second article théorique avec Steinsson et Alisdair McKay, Nakamura observe dans quelle mesure la communication à propos des futurs taux d’intérêt nominaux peut affecter les comportements. En principe, beaucoup : si vous me dites que la Fed va garder les taux d’intérêt réels à un faible niveau pendant plusieurs années (de faibles taux dans le futur accroissent la consommation dans le futur, ce qui accroît l’inflation dans le futur, ce qui réduit les taux réels aujourd’hui), je vais emprunter. Mais le fait d’introduire les contraintes d’emprunt et le risque de revenu signifie que je ne vais jamais emprunter beaucoup d’argent : je peux connaître un mauvais choc demain et me retrouver à la rue. Donner cinq années au forward guidance à propos des taux d’intérêt plutôt qu’une année ne va par conséquent pas vraiment affecter mon comportement : c’est le désir de détenir de l’épargne de précaution qui limite mon emprunt, pas le taux d’intérêt.

Nakamura mérite le prix qu’elle a reçu, tant elle a joué un rôle de premier plan dans la réorientation de la macroéconomie qui l’a rendue, d’une part, plus empirique et, d’autre part, plus "microéconomique" sur le plan théorique. Sa focale est ciblée sur certaines des énigmes clés pour les responsables de la politique économique. Il est impossible de couvrir un aussi large champ dans un unique billet (…), mais heureusement il y a deux résumés faciles à lire et de qualité de ses principaux travaux. D’une part, dans l’Annual Review of Economics, elle a compilé les nouveaux faits empiriques sur les changements des prix, les tentatives pour identifier le lien entre politique monétaire et changements des prix et les implications pour la théorie du cycle d’affaires. D’autre part, dans le Journal of Economic Perspectives, elle discute de la façon par laquelle les macroéconomistes ont tenté d’identifier les paramètres théoriques de façon plus crédible. (…) J’hésite à m’arrêter ici tant Nakamura a publié de nombreux articles influents, mais je finirais en évoquant brièvement deux points que vous devriez davantage explorer. Du côté des dépenses publiques, elle a utilisé les chocs de dépenses locaux et un modèle robuste pour estimer le multiplicateur budgétaire national des dépenses publiques. Deuxièmement, elle a récemment suggéré que les récessions tendent à durer plus longtemps depuis que les femmes quittent moins massivement qu’auparavant la production domestique pour la vie active. »

Kevin Bryan, « The price of everything, the value of the economy: A Clark medal for Emi Nakamura », in A Fine Theorem (blog), 1er mai 2019.

lundi 7 mars 2016

Emi Nakamura et la viscosité des prix

« Avant les travaux sur les données microéconomiques, la plupart des études sur la politique monétaire ont utilisé une hypothèse comme "les prix changent une fois par an". Cela se basait sur des preuves empiriques très limitées (…). En 2004, Mark Bils et Peter Klenow ont publié une étude très importante qui utilisait des données qui étaient bien plus larges que ce que les gens utilisaient auparavant. Ils ont observé les données non publiées sous-jacentes à l’indice des prix à la consommation et ils ont montré que les prix varient beaucoup, en l'occurrence beaucoup plus que ce que les économistes qui travaillent sur la politique monétaire ont traditionnellement supposé dans leurs modèles ; ils ont constaté que les prix changeaient presque tous les quatre mois en moyenne. (...) Pourtant, même si nous voyons de nombreuses variations des prix dans les données microéconomiques, le taux d’inflation au niveau agrégé peut être très visqueux. (…) Les prix apparaissent bien plus rigides que ce qu’ils semblent de prime abord.

(...) Pour moi, la principale conséquence de la viscosité des prix est que les chocs de demande importent. Les chocs de demande peuvent provenir de nombreuses sources : les prix des logements, la relance budgétaire, les esprits animaux, et ainsi de suite. Mais la prédiction clé est que les prix ne s’ajustent pas suffisamment pour éliminer l’impact des chocs de demande. Par exemple, Atif Mian et Amir Sufi ont souligné que le déclin du patrimoine immobilier a joué un rôle très important dans la Grande Récession. Et si vous pensez à une situation où les taux d’intérêt sont contraints par leur borne inférieure, ce qui signifie que les taux d’intérêt nominaux sont fixes, ce qui se passe dans les modèles efficients de l’économie, comme un modèle de cycle d’affaires réels, est que le taux d’intérêt réel doit chuter pour que l’économie revienne au plein emploi. Mais cela requiert un ajustement extrêmement flexible des prix : les prix devraient plonger d’un coup et ensuite remonter lentement. Cela réduirait les taux d’intérêt réels en générant de l’inflation. Mais avec les prix visqueux, les prix ne "sautent" pas. En fait, les prix chutent lentement, ce qui entraîne une déflation et une hausse des taux d’intérêt réels, soit l’exact opposé de ce qui est censé se passer.

(…) Il y a beaucoup de preuves empiriques tirées des données agrégées qui suggèrent que les prix ne répondent même pas complètement lorsqu’ils changent. Si les décisions en termes de prix d’une entreprise dépendent de ce que font les autres entreprises, alors même si une entreprise change ses prix, elle peut ne les ajuster qu’en partie. Et alors les autres entreprises n’ajustent les leurs que partiellement, et ainsi de suite. Tout cela entre dans le cadre des rigidités réelles et il y a plusieurs sources derrières elles. Par exemple, il y a les intrants intermédiaires : si vous achetez beaucoup de biens et services auprès de d’autres entreprises, alors si elles n’ont pas encore augmenté leurs prix, vous ne voulez pas augmenter vos prix, et ainsi de suite. La concurrence en est un autre exemple : si vos concurrents n’ont pas relevé leurs prix, vous pouvez ne pas vouloir relever les vôtres. La même chose arrive si certains changements de prix sont sur pilote automatique, ou si les personnes qui changent les prix ne sont pas complètement en train de réagir aux nouvelles macroéconomiques ; c’est le cœur de la littérature sur l’information visqueuse. Ces effets de second tour signifient que l’inflation peut être visqueuse longtemps après que tous les prix de l’économie se soient ajustés. (…)

Je pense que la Grande Récession a amené à accentuer en macroéconomie l’importance des frictions keynésiennes traditionnelles. Le choc qui mena à la Grande Récession a probablement été une combinaison de chocs financiers et de chocs immobiliers, mais ce qui s’est passé après semble très keynésien. La production et l’emploi ont chuté, tout comme l’inflation. Et pour que les chocs de demande aient un grand impact, il doit y avoir certaines frictions dans l’ajustement des prix. Les modèles qui ont réussi à expliquer la Grande Récession ont typiquement été ceux qui ont combiné des frictions nominales avec un choc financier d’un certain genre pour les entreprises ou les ménages. (…)

Selon moi, le débat sur la "désinflation manquante" est quelque peu trompeur. Plusieurs preuves empiriques qui suggèrent que la courbe de Phillips s'est redressée proviennent de données de la fin des années soixante-dix et du début des années quatre-vingt, c'est-à-dire de la Grande Inflation et de la désinflation Volcker. Mais vous devez garder à l’esprit que c’était la période où les anticipations des gens à propos de l’inflation changeaient fortement. Il y a deux caractéristiques de la courbe de Phillips qui sont importantes : sa pente, qui indique de combien l’inflation répond aux écarts de production (output gaps), et une composante associée aux anticipations d’inflation. Beaucoup des événements que nous avons connus à la fin des années soixante-dix et au début des années quatre-vingt peuvent avoir davantage à voir avec les anticipations changeantes à propos de l’inflation à long terme. Je ne pense pas que nous puissions extrapoler de ces trouvailles ce que nous pourrions nous attendre sur la réaction de l’inflation aujourd’hui.

Les estimations de la courbe de Phillips qui ont utilisé les données récentes suggèrent actuellement que la courbe de Phillips est très plate. Par exemple, dans les études sur les réactions des marchés aux réunions du comité de politique monétaire de la Fed que j’ai réalisées avec Jón Steinsson (…), nous avons constaté que la réponse de l’inflation anticipée est très faible même à de larges variations des taux d’intérêt réels anticipés. Il y a des estimations des modèles DSGE utilisant des données récentes qui constatent aussi des courbes de Phillips très plates, et il y a des approches non structurelles également. De cette perspective, la réponse de l’inflation à la récente récession ne m’étonne pas. »

Entretien avec Emi Nakamura, in Richmond Fed, Econ Focus, troisième trimestre 2015. Traduit par Martin Anota



aller plus loin...

« Macroéconomie des prix visqueux »

« Pourquoi l'inflation est-elle si faible et stable ? »

« Les errances de la courbe de Phillips en zone euro »

« Comment expliquer le comportement de l’inflation et de l’activité suite à la Grande Récession ? »