Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Ben Bernanke

Fil des billets

mardi 20 décembre 2022

Les banques, le crédit et les fluctuations économiques

« (…) L’activité bancaire et les marchés du crédit peuvent connaître des tensions. J’expliquerai très précisément ce que j’entends par "tensions". Celles-ci entraînent une hausse du coût d’emprunt et une réduction de la disponibilité du crédit. La chose importante est que les tensions sur le marché du crédit peuvent avoir des répercussions macroéconomiques très conséquentes. Je proposerai deux études de cas. La première porte sur la Grande Dépression des années 1930 et la seconde sur la crise financière mondiale de 2007-2009. Si j’ai le temps, je parlerai un peu de la façon par laquelle ces idées sont entrées dans la macroéconomie standard relative aux cycles d’affaires ordinaires et à la politique monétaire ordinaire. Elles ont influencé l’analyse standard des situations en dehors des crises, ainsi que des épisodes comme la crise financière mondiale.

Afin d’éclaircir ce que j’entends par "marchés du crédit sous tensions", évoquons l’économie du prêt. Les marchés du crédit sont très différents des autres marchés, par exemple du marché des pommes, parce qu’ils impliquent une information imparfaite et des asymétries d’information, ce qui signifie que l’une des partis à la transaction en sait plus que l’autre à propos du produit qui est échangé. Dans ce cas, les emprunteurs tendent à en savoir plus que les prêteurs à propos de leurs propres capacités financières, de leurs projets, de leurs risques, de ce qu’ils vont faire avec le crédit. (…) Des personnes qui se savent très risquées vont venir emprunter : c’est ce qu’on appelle la "sélection adverse". Des personnes peuvent emprunter et utiliser ce crédit pour faire autre chose que ce qu’elles sont censées faire avec : c’est ce qu’on appelle le "risque moral" ou l’"aléa moral". Vous avez donc besoin des banques (…), parce que les banques surmontent ces problèmes d’information en filtrant les emprunteurs. Elles leur font remplir de nombreux formulaires, elles les surveillent, elles leur imposent des restrictions sur ce qu’ils peuvent faire avec l’argent et elles leur demandent des garanties. Donc, le propre des banques est de surmonter les problèmes d’information qui imprègnent les marchés du crédit.

Ce n’est pas sans coût. Le coût de l’attribution d’un prêt inclut tous les coûts que la banque doit supporter pour filtrer, surveiller les emprunteurs potentiels. Un concept que je vais utiliser tout au long de mon exposé est la "prime de financement externe" (external finance premium). C’est fondamentalement le coût qu’il y a à accorder un crédit en plus du taux d’intérêt sans risque. Considérez-la comme ce que doit obtenir la banque pour faire des prêts plutôt que pour détenir des titres sûrs. (...)

Il est important d’avoir conscience que (…) les banques elles-mêmes empruntent. Elles doivent avoir les fonds qui leur sont nécessaires pour prêter aux emprunteurs ultimes. (…) Elles tendent à emprunter à court terme, des dépôts ou d’autres types de monnaie à court terme, ce qui a de la valeur pour les clients parce que cette monnaie peut être facilement convertie en liquidités quand c’est nécessaire et elle fournit un moyen de transactions de façon à acheter et à vendre. Donc, les banques tendent à dépendre étroitement de financements à court terme, ce qui les rend vulnérables aux ruées bancaires.

Les paniques bancaires sont un vrai danger. Quand des paniques ou des ruées bancaires sont en cours, les banques deviennent très prudentes. Elles arrêtent de prêter aux emprunteurs risqués parce qu’elles veulent maintenir la confiance. C’est ce qu’on appelle la "fuite vers la qualité" (flight to quality) : elles achètent des titres très sûrs comme les bons du Trésor. Le problème est que, si les banques cessent d’accorder des prêts au secteur privé, toutes les compétences qu’elles développent, toute l’information qu’elles ont accumulée, toutes les relations qu’elles ont établies, etc., (…) tout cela est gâché parce qu’elles ne prêtent pas au secteur privé. (...)

Ainsi, la prime de financement externe dépend de la valeur nette des emprunteurs et des prêteurs. Et elle est liée à l’état de l’économie. D’un côté, si la prime de financement externe est très élevée, c’est-à-dire s’il est très coûteux d’accorder des prêts au secteur privé, ce que j’entends par marchés du crédit sous turbulences, (…) le prêt devient rare, le crédit est moins disponible et cela va évidemment ralentir l’économie. D’un autre côté, si l’économie est faible pour une quelconque raison, par exemple en raison d’un choc pétrolier ou de tout autre événement qui affecte la valeur nette, la santé financière des prêteurs et emprunteurs, il devient plus compliqué de faire des prêts. (…) La prime de financement externe est affectée par l’économie ; l’économie affecte la prime de financement externe.

GRAPHIQUE Une mesure de la prime de financement externe

Bernanke_Gilchrist_Zakrajsek__prime_de_financement_externe__external_finance_premium.png

Il y a eu une tentative pour mesurer la prime de financement externe. On la trouve dans un article de Simon Gilchrist et Egon Zakrajšek. Ils ont observé l’écart entre le rendement sur les obligations d’entreprise et celui des titres du Trésor de la même maturité. Cette série remonte jusqu’aux années 1970. C’est un indicateur indirect de la prime de financement externe. Quand cette valeur est élevée, cela indique que les marchés du crédit connaissent d’importantes tensions. Les barres grises se réfèrent aux périodes de récession. Vous remarquez deux choses. D’une part, la prime de financement externe tend à augmenter durant les récessions. D’autre part, elle est devenue plus volatile au fil du temps, en partie parce que les emprunteurs sont devenus plus dispersés. (...)

Faisons une petite étude de cas, celle de la Grande Dépression. Au cours des 25 dernières années, de nombreux travaux ont suggéré que la Grande Dépression des années 1930, un événement majeur, a été provoquée en grande partie par un Etalon-or dysfonctionnel. Avant la Première Guerre mondiale, la plupart des pays ancrèrent leur devise à l’or, ce qui maintint les taux de change fixes et promut le commerce international, etc. L’étalon-or a été suspendu durant la guerre. Après la guerre, on essaya de le reconstruire. Mais (…) le nouvel étalon-or présenta des défauts structurels et, en outre, il y eut beaucoup d’hostilité entre la France et l’Allemagne après la guerre, si bien que ces pays ne coopérèrent pas pour faire fonctionner l’étalon-or. En conséquence, l’étalon-or s’effondra à la fin des années 1920 et au début des années 1930. Cet effondrement entraîna une contraction des offres de monnaie à travers le monde et poussa par ce biais les prix à la baisse (…).

Dans les années 1930, il y a eu de la déflation, les prix chutèrent, et certains travaux empiriques suggèrent que l’étalon-or a joué un rôle important. J’ai moi-même travaillé sur cette question. J’ai pendant longtemps été très intéressé par la Grande Dépression. Les éléments empiriques suggèrent que les pays qui ont quitté relativement tôt l’étalon-or, pour une raison ou une autre, comme la Grande-Bretagne, le Japon et les pays scandinaves, ont connu une reprise plus rapide suite à la dépression que ceux qui restèrent plus longuement dans l’étalon-or, comme la France et la Suisse. Cette idée est devenue centrale dans l’explication de la Grande Dépression, mais il y a toujours des problèmes et des questions qui demandent une réponse.

Quel a été le mécanisme à l’œuvre ? Pourquoi la déflation a-t-elle entraîné de fortes baisses de la production ? Pourquoi la reprise a-t-elle été si lente aux Etats-Unis et dans d’autres pays ? Selon moi, les turbulences sur le marché du crédit, conjuguées à l’Etalon-or, ont été une cause très importante de la dépression. Il y a eu de fortes turbulences sur le marché du crédit dans les années 1930. Aux Etats-Unis, il y avait à l’époque 25.000 banques. Beaucoup d'entre elles étaient de très petite taille, quelques unes étaient de très grande taille. Environ 40 % des banques disparurent entre 1929 et 1933. Pourquoi ont-elles disparu ? Elles firent faillite ou furent absorbées par d’autres banques. Cela a eu lieu parce qu’il y a eu des vagues massives de ruées bancaires. Les gens perdirent confiance envers les banques et en retirèrent leur monnaie. Les banques qui fermèrent ne purent bien sûr pas accorder de prêts et celles qui survécurent devinrent extrêmement réticentes à en accorder. Du côté des débiteurs, il y a eu une vague d’insolvabilité et de défauts de paiement.

(…) Une enquête menée en 1933, observant 22 villes, a montré que les taux de défaut de paiement des propriétaires sur les prêts hypothécaires allaient de 21 % à 62 % (…). Environ la moitié de toute la dette hypothécaire des fermiers était délinquante en 1933. C’est bien pire que ce que nous avons vu durant la crise financière mondiale. Les emprunteurs privés étaient alors en très grande difficulté et ne pouvaient continuer de rembourser leur prêt. Et les enquêtes menées auprès des banques montrent qu’elles essayaient, non pas d’accorder de nouveaux prêts, mais de liquider les prêts existants et qu'elles refusaient tout nouveau prêt, sauf pour les emprunteurs les plus sûrs, qui n’étaient guère nombreux. Donc, entre ce qui est arrivé aux banques, les ruées bancaires et ce qui est arrivé aux emprunteurs, le marché du crédit a été en définitive paralysé.

A présent, cela contribue à expliquer plusieurs faits intéressants concernant la Grande Dépression. (…) Tout d’abord, aux Etats-Unis, les prix ont baissé de 20 % entre 1931 et 1933. Pourquoi cela a-t-il été si dommageable ? L’une des raisons a été l’effet sur les emprunteurs. Imaginez un fermier. Il doit rembourser chaque mois un certain montant pour son crédit immobilier. Or, le prix des choses qu’il récolte baisse de 30 %, de 40%, de 50 %, de 60 %, comment va-t-il continuer de rembourser ? Il risque de ne pas y parvenir. Donc, la chute des prix affecte l’économie en détériorant la situation de nombreux emprunteurs.

Une forte reprise s’amorça en 1933, quand Franklin Roosevelt devint Président. Selon moi, Roosevelt fit deux choses qui améliorèrent l’économie. (…) Il rompit la relation liant le dollar à l’or, sortit les Etats-Unis de l’étalon-or. Voilà ce qui fut important. Mais l’autre chose qu’il fit a été de stabiliser le système bancaire. Rapidement après son arrivée à la présidence, il appela à une fermeture des banques, toutes les banques eurent à fermer. Il promit à la population américaine qu’elles ne rouvriraient pas tant que le gouvernement ne les avait pas inspectées et il se fit confiant à l’idée qu’elles soient viables. Et ensuite le Congrès adopta l’assurance-dépôt, qui garantissait que les petits déposants seraient remboursés si leur banque faisait faillite. Cela stabilisa immédiatement le système bancaire et, comme ce dernier redevint fonctionnel, la reprise s’accéléra.

Pour autant, même après la sortie de l’étalon-or, la reprise fut très lente. (…) En 1941, le taux de chômage était toujours de 15 % aux Etats-Unis, c’est-à-dire à un niveau très élevé. Donc, ce fut une reprise très lente, mais pourquoi ? J’affirmerai que, d’une part, les banques, certes moins en difficulté, restaient très frileuses et les emprunteurs en difficulté. Il leur fallut beaucoup de temps pour sortir de leurs problèmes de dette. Pour cette raison, le crédit resta contraint et cela empêcha l’économie de connaître une reprise plus rapide.

Dans un travail que j’ai réalisé avec Harold James, un historien de Princeton, nous avons étudié 24 pays et avons comparé la sévérité de leurs crises bancaires. Nous avons constaté que, toute chose égale par ailleurs, les pays où le système bancaire resta stable, comme la Suède, le Japon, les Pays-Bas, réalisèrent de meilleures performances que les pays où il y eut de sévères crises bancaires, comme l’Allemagne, l’Autriche et les Etats-Unis. Donc, certains éléments empiriques confortent l’idée que l’effondrement du système bancaire a été une cause de la Grande Dépression.

Ma seconde étude de cas porte sur la Grande Récession de 2007-2009. J’ai affirmé que la Grande Dépression avait été le produit de deux forces principales, l’étalon-or et la crise financière ou l’effondrement des marchés du crédit. Je vais affirmer que l’effondrement des marchés du crédit fut la principale raison pour la récession de 2007-2009 et pour la très lente reprise qui s’ensuivit.

Il y a eu des changements dans le système financier entre 1929 et 2007. Aux Etats-Unis, plusieurs intuitions financières qui n’étaient pas officiellement des banques grossirent : les sociétés de prêt hypothécaire, les sociétés de crédit à la consommation, les banques d’investissements, les fonds monétaires, les véhicules hors bilan de titrisation... Je pourrais poursuive un long moment. Toutes ces sociétés ou véhicules accordaient des prêts ou détenaient des instruments de crédit, mais il ne s’agissait pas de banques. Le fait qu’elles n’étaient pas des banques signifie fait qu’elles n’étaient pas éligibles à l’assurance-dépôt. Or, elles se finançaient en s’endettant à court terme, ce qui les rendait vulnérables à d’éventuelles ruées.

Aujourd’hui, tout le monde connait les prêts subprime et sait à quel point ils furent désastreux, mais pourquoi ont-ils été si désastreux ? L’une des choses qui nous a surpris à la Réserve fédérale était que les prêts subprime ne constituaient pas une large classe d’actifs. L’un d’entre nous estima que si tous les prêts subprime du monde perdirent toute leur valeur en une journée, ce serait comme une mauvaise journée sur le marché boursier, ce ne serait presque rien. Les prêts subprime ont été si dommageables parce qu’ils étaient disséminés dans l’ensemble du système financier : ils étaient détenus dans les portefeuilles des banques et du système bancaire parallèle, beaucoup d’instruments dérivés étaient liés aux prêts subprime, des titrisations incluaient des prêts subprime, etc.

Les investisseurs financiers, en particulier dans le système bancaire parallèle, mais aussi dans les banques commerciales, craignirent soudainement que leur institution soit très exposée au crédit subprime et à d’autres prêts hypothécaires de mauvaise qualité. Ces institutions connurent une ruée, peut-être une ruée lente dans certains cas, ce qui les poussa à vendre leurs actifs parce qu’elles n’avaient pas les liquidités pour faire des prêts : c’est ce qu’on appelle des ventes en catastrophe ou des ventes forcées (fire sales). Celles-ci firent s’écrouler le prix des instruments de crédit, poussèrent à la hausse les taux d’intérêt sur le crédit et amenèrent au bord de l’insolvabilité le système bancaire parallèle et même de très nombreuses banques majeures en Europe et aux Etats-Unis. (...)

Donc, comme lors de la Grande Dépression, les tensions touchant les marchés du crédit ont été à l’origine de la récession très sévère de 2007-2009 et à la lente reprise subséquente. (…) Lors de la crise financière internationale de 2007-2009, ce fut la panique financière qui poussa les marchés financiers et les institutions financières au bord de la faillite, c’est elle qui constitua le facteur le plus important qui explique la sévérité de la récession. En particulier après l’effondrement de Lehman Brothers en septembre 2008, il y a eu une paralysie complète des prêteurs, des institutions financières, et cela a eu des effets très négatifs sur l’économie.

Voici des éléments empiriques tirés d’un article que j’ai écrit en 2018 pour la Brookings Institution. La ligne noire représente la trajectoire suivie par le PIB réel des Etats-Unis, la zone grisée indique la récession. Vous pouvez voir le PIB chuter lors de la récession. La ligne bleue représente ce que j’ai appelé l’indicateur de panique, (…) que l’on obtient lorsque l’on utilise des variables reliées à la panique financière, des choses qui affectent les prêteurs, comme le coût de financement des banques, par exemple, ou le prix de la titrisation du crédit. Comme vous pouvez le voir (…), l’indicateur de panique, c’est-à-dire de turbulences touchant les prêteurs, prévoit extrêmement bien le PIB. Ce que j’appelle l’indicateur de défauts de paiement, qui mesure le taux d’emprunteurs hypothécaires qui ne parviennent plus à rembourser, est corrélé avec le PIB observé, mais plus faiblement. Je ne dis pas qu’il s’agit d’un résultat général, mais, en ce qui concerne cet épisode, la crise touchant Wall Street a été plus importante que les difficultés que connurent les consommateurs et les propriétaires, aussi dangereuses et dommageables qu’elles furent.

Ben_Bernanke__Grande_Recession_PIB_panique_financiere_defauts_de_paiement.png

Quelles sont les implications de tout cela ? (…) Quand le système financier s’effondra dans les années 1930, avant l’arrivée de Roosevelt au pouvoir, on ne fit rien pour empêcher cet effondrement, si bien qu’il se poursuivit et les marchés du crédit se retrouvèrent paralysés. L’une des leçons que l’on a tirées de la Grande Dépression selon moi est que nous ne pouvons pas laisser cela survenir. La Réserve fédérale et le Trésor ont précisément cherché à stopper la crise financière internationale et à faire en sorte que les institutions financières prêtent à nouveau. C’est ce qu’il faut faire une fois que la crise a éclaté. Le mieux est de ne pas avoir de crise tout court. Comment y parvient-on ? Je pense qu’il est très important d’avoir une réglementation financière qui veille à ce que les institutions financières soient sûres et saines, c’est-à-dire qu’elles aient un bon capital, qu’elles aient des portefeuilles sûrs, qu’elles ne prennent pas de risques excessifs, etc. Et vous devez avoir une approche macroprudentielle, ce qui signifie que vous ne devez pas seulement regarder individuellement les institutions, mais devez également considérer l’ensemble du système et vous demander comment des problèmes touchant un segment du système peuvent en affecter d’autres segments. (...)

Je vais un peu parler de la façon par laquelle ces travaux sont entrés dans la macroéconomie orthodoxe, comment ils devinrent partie intégrante de l’analyse des cycles d’affaires ordinaires (…). Ces modèles de turbulences du crédit peuvent contribuer à expliquer pourquoi les récessions tendent à durer autant qu’elles le font. Même s’il n’y a eu en tout et pour tout qu’un unique choc, une récession va avoir tendance à durer un moment. Et une raison à cela est que, quand un choc touche l’économie, par exemple à nouveau une crise énergétique, cela détériore le revenu et la richesse, cela accroît la prime de financement externe dans l’économie, le marché du crédit devient moins efficace, les difficultés des emprunteurs s’accentuent, les banques deviennent plus frileuses, cela réduit la disponibilité du crédit et tout cela amplifie les effets du choc. L’économie s’en trouve affaiblie plus longtemps que n’a duré le choc initial. Et, dans l’autre sens, s’il y a un choc positif à l’économie, cela améliore la situation des emprunteurs et des prêteurs, cela réduit la prime de financement externe et renforce l’économie. Donc, les facteurs de crédit ou les turbulences sur les marchés du crédit tendent à amplifier les récessions ordinaires et les booms ordinaires, un phénomène que mes coauteurs, Mark Gertler et Simon Gilchrist, et moi avons appelé l’"accélérateur financier" (financial accelerator). Mark, Simon et moi avons créé un modèle macro-économétrique qui incorpore ces facteurs et nous avons constaté que nous pourrions mieux coller aux données, mieux reproduire le comportement effectif de l’économie avec un modèle comme celui-ci.

Nous avons également regardé comment la politique monétaire affecte l’économie. La politique monétaire semble être assez puissante. (…) Et c’est un peu intrigant parce que, par exemple, les études portant sur l'investissement des grosses entreprises montrent que celui-ci n'est pas sensible aux taux d’intérêt de court terme. Donc, qu’est-ce qui fait que l’économie ralentit quand la banque centrale relève ses taux d’intérêt ? Eh bien, ces théories nous donnent quelque chose appelé le "canal du crédit" (credit channel) de la politique monétaire. Si la banque centrale relève ses taux d’intérêt et freine l’économie, cela va avoir tendance à accroître la prime de financement externe en détériorant la situation des emprunteurs et des prêteurs, en réduisant l’emploi, les profits, etc., et cela va déprimer l’économie. Donc, c’est un canal à travers lequel la politique monétaire peut affecter l’économie. Il s’agit donc d’un autre domaine pour lequel ces théories ont contribué, selon moi, à ce que nous comprenions mieux la macroéconomie ordinaire.

(…) Beaucoup de tout cela devrait à présent vous être familier, mais il y a quarante ans, lorsque j’avais 29 ans et que j’écrivais l’article qui fut cité par le Comité Nobel, il y avait très peu d’attention portée à l’instabilité financière en macroéconomie. George Akerlof, un récipiendaire du Nobel, écrivit un très intéressant article historique affirmant que les écoles de pensée en macroéconomie, comme l’école keynésienne, par exemple, ne donnait pas de place à l’instabilité financière comme facteur affectant l’économie. (…) Quand la crise financière éclata en 2008, les modèles de la Réserve fédérale sous-estimaient son impact sur l’économie, parce qu’ils n’étaient pas conçus de façon à prendre en compte le plein effet des turbulences sur les marchés du crédit. Donc, évidemment, pour comprendre les effets des crises financières sur l’économie, nous devons comprendre ces relations. (...) »

Ben Bernanke, « Banking, credit, and economic fluctuations », discours prononcé à la remise du Nobel d’économie, le 9 décembre 2022. Traduit par Martin Anota



aller plus loin...

« Les contributions de Bernanke à la science économique »

« Les répercussions réelles des ruées bancaires »

« Quels sont les canaux de transmission de la politique monétaire conventionnelle ? »

« Endettement, déflation et crises financières »

lundi 10 octobre 2022

Prix Nobel 2022 : Bernanke, Diamond et Dybvig ont montré le rôle central des banques dans les crises financières

Ben_Bernanke_Douglas_Diamond_Philip_Dybvig__prix_Nobel_d__economie_2022.png

« La Grande Dépression des années 1930 a paralysé les économies à travers le monde pendant plusieurs années et elle a eu de désastreuses conséquences sociétales. Cependant, nous avons réussi à mieux gérer les crises financières ultérieures grâce aux travaux des lauréats de cette année, Ben Bernanke, Douglas Diamond et Philip Dybvig. Ils ont démontré qu’il est important de prévenir les effondrements généralisés des banques...

Nous sommes tous liés d'une façon ou d'une autre aux banques. Nos revenus sont versés sur un compte bancaire et nous utilisons les moyens de paiement des banques, que ce soit les applications mobiles ou des cartes bancaires, quand nous faisons des achats dans un supermarché ou payons une note de restaurant. A certains moments de notre vie, beaucoup d’entre nous ont besoin d’emprunter auprès des banques, par exemple pour acheter une maison ou un appartement. C’est également le cas pour les entreprises : elles ont besoin de pouvoir faire régler leurs transactions et de financer leurs investissements. Dans la plupart des cas, ces services sont aussi fournis par une banque.

Nous considérons comme garanti que ces services fonctionnent comme ils le doivent, sauf par moments en raison de brefs problèmes techniques. Parfois, cependant, l’ensemble ou une partie du système bancaire dysfonctionne et une crise financière survient. Des banques s’effondrent, il devient plus cher voire impossible d’emprunter, les prix plongent sur les marchés de l’immobilier ou d’autres actifs. Si cette progression n’est pas stoppée, l’économie entière peut entrer dans une spirale baissière avec la hausse du chômage et la multiplication des faillites de banques. Certains des plus grands effondrements économiques au cours de l’Histoire ont été des crises financières.

D’importantes questions à propos des banques

Si les difficultés des banques peuvent provoquer autant de dommages, pouvons-nous nous passer des banques ? Les banques ont-elles nécessairement à être aussi instables et, dans ce cas, pourquoi ? Comment la société peut-elle améliorer la stabilité du système bancaire ? Pourquoi les conséquences d’une crise bancaire durent-elles aussi longtemps ? Et, si les banques font faillite, pourquoi de nouvelles banques ne peuvent-elles pas immédiatement être mises en place de façon à ce que l’économie puisse rapidement être remise sur pieds ? Au début des années 1980, les lauréats de cette année, Ben Bernanke, Douglas Diamond et Philip Dybvig ont posé dans trois articles les fondements scientifiques pour la recherche moderne portant sur ces questions.

Diamond et Dybvig ont développé des modèles théoriques qui expliquent pourquoi les banques existent, comment leur rôle dans la société les rend vulnérables aux rumeurs à propos de leur éventuel effondrement et comment la société peut réduire cette vulnérabilité. Ces intuitions fondent la régulation bancaire moderne.

A travers l’analyse statistique et des recherches à partir de sources historiques, Bernanke a démontré que l’effondrement des banques a joué un rôle décisif dans la dépression mondiale des années 1930, la pire crise dans l’histoire moderne. L’effondrement du système bancaire explique pourquoi la contraction de l’activité a été aussi profonde et aussi durable qu'elle l'a été.

Les travaux de Bernanke montrent que les crises bancaires peuvent avoir des conséquences catastrophiques. Cette intuition illustre l’importance du bon fonctionnement de la régulation bancaire et fonde les décisions de politique économique prises durant la crise financière de 2008-2009. Lors de celle-ci, Bernanke était à la tête de la banque centrale américaine, la Réserve fédérale, et il a pu ainsi mettre à profit ce qu’il a appris de ses travaux pour décider au mieux de la politique économique. Plus tard, quand la pandémie a éclaté en 2020, des mesures significatives ont été prises pour éviter une crise financière mondiale. Les idées des lauréats ont joué un rôle important pour assurer que ces dernières crises ne se développent pas en nouvelles dépressions avec des conséquences dévastatrices pour la société.

Des crises bancaires à l'origine de la Grande Dépression

Le principal travail pour lequel Bernanke est aujourd’hui reconnu est un article publié en 1983, dans lequel il a analysé la Grande Dépression des années 1930. Entre janvier 1930 et mars 1933, la production industrielle américaine chuta de 46 % et le chômage grimpa à 25 %. La crise se répandit comme un incendie, entraînant une forte contraction économique dans l’essentiel du monde. En Grande-Bretagne, le chômage a atteint 25 % et en Australie 29 %. En Allemagne, la production industrielle a presque été divisée par deux et plus d’un tiers de la population active s’est retrouvée sans emploi. Au Chili, le revenu national chuta de 33 % entre 1929 et 1932. Partout, des banques s’effondrèrent, des gens furent poussés à quitter leur logement et la pauvreté se généralisa également dans les pays riches. A travers le monde, les économies ne commencèrent à connaître une reprise que vers le milieu de la décennie.

Avant que Bernanke ne publie son article, la croyance conventionnelle parmi les experts était que la dépression aurait pu être empêchée si la banque centrale américaine avait imprimé plus de billets. Bernanke partagea aussi l’opinion qu’un manque de monnaie avait probablement contribué à la contraction de l’activité, mais il ne croyait pas que ce mécanisme explique pourquoi la crise fut si profonde et si longue. Bernanke montra que sa principale cause était le déclin de la capacité du système bancaire à canaliser l’épargne vers les investissements productifs. En utilisant une combinaison de sources historiques et de méthodes statistiques, son analyse montra quels facteurs étaient importants derrière la chute du produit intérieur brut (PIB). Il conclut que les facteurs qui étaient directement liés à l’effondrement des banques contribuaient à la part du lion de la contraction de l’activité.

La dépression débuta avec une récession tout à fait normale en 1929, mais en 1930 celle-ci se transforma en une crise bancaire. Le nombre de banques chuta au cours des trois années suivantes, souvent en raison de ruées bancaires. Celles-ci surviennent quand les gens qui avaient déposé de l’argent dans leur banque s’inquiètent à propos de la survie de celle-ci et se ruent aux guichets pour retirer leur épargne. Si trop de personnes se comportent ainsi simultanément, les réserves de la banque ne pourront couvrir tous les retraits et elle sera forcée de réaliser une vente d’actifs en catastrophe, avec potentiellement d’importantes pertes. Finalement, cela peut conduire la banque à la faillite.

La crainte que les ruées bancaires se multiplient entraîna une chute des dépôts dans les autres banques et beaucoup de banques devinrent frileuses à l'idée d'accorder de nouveaux prêts. Les dépôts furent placés dans des actifs qui pouvaient être rapidement vendus si les déposants désiraient soudainement retirer leur argent. Ces problèmes avec l’obtention de nouveaux prêts bancaires compliquèrent le financement des investissements pour les entreprises et détériora la situation financière des fermiers et des ménages. Il en résulta la pire récession mondiale dans l’Histoire moderne.

Avant l’étude de Bernanke, l'idée généralement admise était que la crise bancaire était une conséquence du déclin de l’économie plutôt qu’une cause de celui-ci. Bernanke montra que les effondrements bancaires jouèrent un rôle décisif dans la transformation de la récession en une dépression profonde et prolongée. Une fois que la banque fait faillite, la relation que celle-ci entretient avec son emprunteur est rompue ; cette relation contient un savoir qui s’avère nécessaire à la banque pour qu’elle gère efficacement ses prêts. La banque connaît ses emprunteurs, elle a une information détaillée à propos de la façon par laquelle ils utilisent leur argent ou des exigences nécessaires pour que le prêt soit remboursé. Construire un tel stock d’informations prend un long moment et il ne peut pas être facilement transféré à d’autres prêteurs quand une banque fait faillite. Réparer un système bancaire dysfonctionnel peut en conséquence prendre plusieurs années, une période au cours de laquelle l’économie fonctionne mal. Bernanke a démontré que l’économie n’a pas commencé à rebondir tant que l’Etat n’avait pas adopté de puissantes mesures pour empêcher que de nouvelles paniques bancaires surviennent.

Pourquoi les banques sont-elles nécessaires ?

Pour comprendre pourquoi une crise bancaire peut avoir de telles conséquences désastreuses, nous devons savoir ce que les banques font vraiment : elles reçoivent de la monnaie de personnes faisant des dépôts et elles la canalisent à leurs emprunteurs. Cette intermédiation est loin d’être un simple transfert mécanique, parce qu’il y a des conflits fondamentaux entre les besoins des épargnants et ceux des emprunteurs. Quelqu’un qui reçoit un prêt pour financer l’achat d’un logement ou d’un investissement de long terme doit être assuré que le prêteur ne va pas soudainement lui demander de rendre son argent. D’un autre côté, un épargnant désire avoir la possibilité d'utiliser une partie de son épargne dans les plus brefs délais.

La société doit résoudre ces conflits. Si les entreprises ou les ménages peuvent être forcés à rembourser leurs prêts n’importe quand, les investissements de long terme deviennent impossibles. Cela aurait des conséquences dévastatrices. L’économie ne peut fonctionner sans un système financier qui crée assez de moyens de paiement facilement accessibles et sécurisés. (...)

Le modèle de Diamond et Dybvig

Douglas Diamond et Philip Dybvig ont montré que le problème que nous venons de décrire peut être résolu par des institutions qui sont construites exactement comme les banques. Dans un article de 1983, ils développent un modèle théorique qui explique comment les banques créent de la liquidité pour les épargnants tout en permettant aux emprunteurs d’accéder à des financements de long terme. Malgré le fait que ce modèle soit relativement simple, il capture le mécanisme central de l’activité bancaire : pourquoi il fonctionne, mais aussi pourquoi le système est de façon inhérente vulnérable et nécessite d’être réglementé.

Le modèle dans cet article se fonde sur l’idée que les ménages épargnent une certaine partie de leur revenu tout en ayant le besoin d’avoir la possibilité de retirer leur monnaie quand ils le veulent. Personne ne sait en avance si et quand le besoin de monnaie surviendra, mais il ne surviendra pas au même instant pour l’ensemble des ménages. En parallèle, il y a des projets d’investissement qui nécessitent un financement. Ces projets sont profitables à long terme, mais s’ils sont terminés hâtivement, les rendements vont être très faibles.

Dans une économie sans banques, les ménages doivent faire des investissements directs dans ces projets. Les ménages qui ont besoin de monnaie rapidement vont être forcés de mettre un terme rapidement à ces projets et ils vont en conséquence avoir de très faibles rendements, avec seulement un faible montant de monnaie disponible pour leur consommation. D’un autre côté, les ménages qui n’ont pas besoin d’achever les projets aussi tôt vont jouir de bons rendements et ainsi pouvoir consommer beaucoup. Dans une telle situation, les ménages vont demander une solution qui leur permette d’accéder instantanément à leur monnaie sans que cela ne réduise significativement leurs rendements. Si une telle solution peut être mise en place, ils seront enclins à accepter des rendements à long terme légèrement plus faibles.

Dans leur article, Diamond et Dybvig expliquent comment les banques apparaissent naturellement comme intermédiaires et fournissent cette solution. La banque offre des comptes où les ménages peuvent déposer leur monnaie. Elle prête ensuite la monnaie à des projets de long terme. Les déposants peuvent retirer leur monnaie quand ils le veulent, sans perdre autant que s’ils avaient fait un investissement direct et mis un terme précocement au projet. Ces hauts rendements sont financés par des ménages qui épargnent pour un horizon plus éloigné, perdant un certain rendement à long terme relativement à ce qu’ils auraient gagné s’ils avaient fait un investissement direct dans le projet.

Les banques créent de la monnaie

Diamond et Dybvig montrent que ce processus est celui par lequel les banques créent de la liquidité. La monnaie sur les comptes des déposants est un passif pour la banque, tandis que les actifs de la banque comprennent des prêts à des projets de long terme. Les actifs de la banque ont une longue maturité, parce qu’elle promet aux emprunteurs qu’ils n’auront pas à rembourser rapidement leurs prêts. D’un autre côté, les passifs de la banque ont une courte maturité : les déposants peuvent accéder à leur monnaie quand ils le veulent. La banque est un intermédiaire qui transforme des actifs avec une longue maturité en des comptes bancaires avec une courte maturité. C’est ce que l’on appelle la transformation de maturité.

Les épargnants peuvent utiliser leurs comptes de dépôt pour des paiements directs. La banque a donc créé de la monnaie à partir, non pas de rien, mais des projets de long terme auxquels elle a prêté de la monnaie. Les banques sont parfois critiquées pour leur création de monnaie, mais c’est précisément pour cela qu’elles existent.

Vulnérables aux rumeurs

Il est facile de voir que la transformation de maturité est utile pour la société, mais les lauréats démontrent aussi que le modèle d’affaires des banques est vulnérable. Une rumeur peut se répandre en suggérant que davantage d’épargnants désirent retirer leur monnaie, mais que la banque ne peut satisfaire toute la demande. Qu’elle soit fondée ou non, cette rumeur peut inciter les déposants à se ruer à leur banque pour retirer leur monnaie dans la crainte que celle-ci ne fasse faillite. Une ruée bancaire s’ensuit. Pour payer tous ses déposants, la banque est forcée de faire rembourser en avance ses prêts en cours, ce qui amène les projets d’investissement à long terme à être terminés précocement et entraîne des ventes d’actifs en catastrophe. Les pertes qui en résultent peuvent amener la banque à faire faillite. Le mécanisme que Bernanke a montré comme étant l’amorce de la dépression des années 1930 est donc une conséquence directe de la vulnérabilité inhérente des banques.

Diamond et Dybvig présentent aussi une solution au problème de la vulnérabilité des banques, sous la forme d’une assurance-dépôt par le gouvernement. Quand les déposants savent que l’Etat a garanti leur monnaie, ils n’ont plus besoin de se ruer à la banque dès qu’une rumeur de détresse bancaire se propage. Cela stoppe une ruée bancaire avant même qu’elle ne débute. L’existence d’une assurance-dépôt fait qu’elle n’a en théorie jamais à être utilisée. Cela explique pourquoi la plupart des pays ont maintenant adopté un tel dispositif. (…)

Au fondement de la réglementation bancaire moderne

Les travaux pour lesquels Bernanke, Dybvig et Diamond ont été récompensés ont été cruciaux pour la recherche ultérieur qui a amélioré notre compréhension des banques, de la réglementation bancaire, des crises bancaires et de la façon par laquelle ces dernières doivent être gérée. Les intuitions théoriques de Diamond et Dybvig à propos de l’importance des banques et de leur inhérente vulnérabilité fournissent les fondations pour la réglementation bancaire moderne, qui vise à créer un système financier stable. Avec les analyses des crises financières réalisées par Bernanke, nous comprenons mieux pourquoi la réglementation échoue parfois, l’énorme ampleur des conséquences et ce que les pays peuvent faire pour stopper une crise bancaire lorsqu’elle éclate, comme au début de la récente pandémie.

De nouveaux intermédiaires financiers qui, comme les banques, gagnent de la monnaie de la transformation de maturité ont émergé en-dehors du secteur bancaire réglementé au début des années 2000. Des ruées touchant ce système bancaire parallèle (shadow banks) ont joué un rôle clé dans la crise financière de 2008-2009. Les théories de Diamond et Dybvig fonctionnent également bien pour analyser de tels événements même si, en pratique, la réglementation ne peut pas toujours suivre la nature changeante du système financier.

La recherche ne peut pas fournir des réponses définitives sur la façon de réglementer le système financier. L’assurance-dépôt ne fonctionne pas toujours comme on s’y attend : elle peut inciter les banques à s’engager dans une spéculation risquée dont les contribuables ont à payer la facture quand elle tourne mal. La nécessité de sauver le système bancaire durant les crises peut aussi entraîner des profits inacceptables pour les propriétaires et salariés des banques. D’autres types de règles à propos du capital bancaire et des règles qui limitent le montant d’emprunt dans l’économie peuvent donc s’avérer nécessaires. Les avantages et inconvénients de telles règles doivent être analysés et la façon par laquelle elles fonctionnent peut changer au cours du temps.

Comment réglementer les marchés financiers pour qu’ils assurent correctement leur fonction (canaliser l’épargne vers les investissements productifs sans provoquer régulièrement des crises) est une question à laquelle planchent encore les chercheurs et les politiciens. Les travaux qui ont été récompensés cette année et ceux qui se sont appuyés sur eux ont permis à ce que la société soit mieux équipée pour répondre à ce défi. Ils réduisent le risque que les crises financières se développent en longues dépressions avec de sévères répercussions sur la société, ce qui est d’un grand bénéfique pour nous tous. »

L'Académie royale des sciences de Suède, « The laureates explained the central role of banks in financial crises. Popular science background », 10 octobre 2022. Traduit par Martin Anota



aller plus loin...

« Les contributions de Bernanke à la science économique »

« Les répercussions réelles des ruées bancaires »

« Les modèles ne saisissent toujours pas ce qu’est une banque »

mardi 7 janvier 2020

Les nouveaux outils de la politique monétaire

« Depuis les années quatre-vingt, les taux d’intérêt autour du monde ont eu tendance à baisser, en conséquence d'une plus faible inflation, de forces démographiques et technologiques qui ont accru l’épargne désirée relativement à l’investissement désiré au niveau mondial, ainsi que d’autres facteurs. Bien que la faible inflation et de faibles taux d’intérêt puissent apporter certains bénéfices, le nouvel environnement suscite des problèmes pour les banques centrales. Ces dernières avaient traditionnellement eu recours aux baisses de taux d’intérêt de court terme pour stimuler des économies déprimées. Un niveau de taux d’intérêt généralement faible signifie que, face à une contraction économique ou une inflation indésirablement faible, les banques ont une moindre marge de manœuvre que par le passé pour procéder à une baisse conventionnelle des taux.

Cette contrainte sur la politique monétaire a beaucoup inquiété durant la crise financière mondiale et dans son sillage, comme la Réserve fédérale et d’autres banques centrales majeures ont réduit leurs taux de court terme à zéro ou quasiment. Avec leurs économies en chute libre et leurs méthodes traditionnelles épuisées, les banques centrales se sont tournées vers de nouveaux outils peu testés, notamment l’assouplissement quantitatif (quantitative easing) et le forward guidance. Les nouveaux outils de politique monétaire (leur fonctionnement, leur efficacité, leurs limites, leur capacité à accroître la marge de manœuvre dont disposent effectivement les autorités monétaires) sont le sujet de l’allocution présidentielle que j’ai donnée le 4 janvier à la conférence annuelle de l’American Economic Association à San Diego. Comme je l’explique ci-dessous, mon discours conclut que les nouveaux outils de politique monétaire sont efficaces et que, au vu des estimations actuelles du taux d’intérêt neutre, l’assouplissement quantitatif et le forward guidance peuvent fournir l’équivalent de 3 points de pourcentage additionnels de baisses de taux de court terme. L’article sur lequel mon discours s’est basé est disponible ici. Ci-dessous, je résume certaines de mes principales conclusions.

Les achats par la banque centrale d’actifs financiers de plus long terme, connus sous le nom d'assouplissement quantitatif (quantitative easing ou QE), se sont révélés être un outil efficace pour assouplir les conditions financiers et relancer l’activité économique lorsque les taux d’intérêt de court terme sont à leur borne inférieure. L’efficacité de l'assouplissement quantitatif ne dépend pas du fait qu’il soit ou non déployé durant une période de turbulences sur les marchés.

Le quantitative easing opère via deux principaux canaux : en réduisant l’offre nette d’actifs de plus long terme, ce qui accroît leurs prix et réduit leurs rendements ; et en signalant l’intention des autorités monétaires de maintenir les taux de court terme pendant une période prolongée. Ces deux canaux contribuèrent à assouplir les conditions financières dans l’ère d’après-crise.

Les premiers cycles de quantitative easing, comme le programme QE1 de la Fed au début de l’année 2009, ont eu un gros impact sur les marchés financiers quand ils furent annoncés, mais les annonces des cycles suivants, par exemple l’annonce du programme QE2 en novembre 2010, ont suscité une bien moindre réaction de la part des marchés. Cette différence amène à penser que le quantitative easing n’est efficace que lorsqu’il est déployé durant des périodes de turbulences sur les marchés, comme ce fut le cas au début de l’année 2009, mais pas à d’autres moments, ce qui amène douter de l’utilité du quantitative easing pour l’élaboration de la politique monétaire en temps normal. Cependant, comme le montre mon article, la plupart des études privilégie une autre explication en notant que ces derniers cycles de quantitative easing étaient largement anticipés par les participants de marché : du fait de cette anticipation, les effets attendus des programmes étaient déjà incorporés dans les cours des titres lorsqu’ils furent officiellement annoncés. Les études qui contrôlent les anticipations de marché quant au niveau et au contenu des achats d’actifs constatent que plusieurs programmes de QE se sont révélés puissants, avec des effets qui ne diminuent pas durant les périodes de calme sur les marchés ou lorsque la taille du bilan de la banque central augmente.

D’autres études, basées sur des modèles de structure des taux d’intérêt, constatent que les effets des achats d’actifs sur les rendements étaient durables et économiquement significatifs. Par exemple, une étude méticuleuse constate que l’effet cumulé des achats d’actifs de la Fed sur les rendements des bons du Trésor à dix ans a été supérieur à 120 points de base à l’instant où les achats nets stoppèrent. Les études des programmes d’achats d’actifs au Royaume-Uni et dans la zone euro constatent que les effets sur les marchés financiers sont quantitativement similaires à ceux observés aux Etats-Unis. Le canal de la signalisation (signaling channel) du quantitative easing était également important et il restait puissant. Comme je l’ai souligné lorsque j’étais président de la Fed, c’est ce que montrait en négatif l’"accès de colère" (taper tantrum) des marchés en 2013, la perspective que les achats d’actifs puissent ralentir amène les participants de marché à s’attendre à des hausses plus rapides du taux directeur.

Le forward guidance, bien qu’il ne soit pas particulièrement efficace dans l’immédiate période d’après-crise, est devenu de plus en plus puissant au cours du temps comme il a gagné en précision et en agressivité. Les changements dans le cadre de politique économique peuvent rendre le forward guidance efficace à l’avenir.

Le forward guidance est la communication de la banque centrale à propos de ses anticipations relatives à l’évolution de l’économie et de ses projets de politique monétaire. Il aide le public à comprendre comment les autorités monétaires vont répondre aux changements des perspectives économiques et permet aux autorités monétaires de s’engager à des politiques de taux "plus faibles plus longtemps". De telles politiques, en convainquant les participants au marché que les autorités monétaires vont retarder la hausse du taux directeur même si l’économie se renforce, peut aider à assouplir des conditions financières et relancer l’activité économique dans la période courante.

Le forward guidance de la Fed en 2009-2010 était qualitatif par nature et n’a pas réussi à convaincre les participants de marché que les taux resteraient plus faibles plus longtemps. Cependant, à partir de 2011, un guidage plus explicite qui lia tout d’abord le taux directeur à des dates spécifiques, puis au comportement du chômage et de l’inflation, persuada les marchés que les taux resteraient faibles. Le guidage devint également plus explicite, sophistiqué et agressif dans d’autres grandes banques centrales. Par exemple, la Banque d’Angleterre lia aussi le guidage aux conditions économiques, tandis que la BCE a utilisé le guidage pour aider le public à comprendre la relation dans sa boîte à outils de politique monétaire.

Le forward guidance pourrait gagner en efficacité s’il était incorporé dans le cadre formel de la banque centrale. Par exemple, l’idée de "politiques de compensation" (makeup policies) que considère actuellement la Fed, celle de compenser l’inflation inférieure à la cible au cours d’une période par une inflation supérieure à la cible au cours de la période suivante, revient à mettre le forward guidance en place avant la prochaine rencontre avec les taux nuls. Cette préparation rendrait le guidage plus clair, plus prévisible et plus crédible lorsqu’il sera nécessaire.

Certaines banques centrales étrangères majeures ont fait un usage efficace d’autres nouveaux outils de politique monétaire, tels que des achats de titres privés, les taux d’intérêt négatifs, le financement de programmes de prêt et de contrôle de courbe des taux.

Chacun de ces outils a des coûts et des bénéfices, mais ils se sont aussi révélés utiles dans certaines circonstances. La Fed n’a pas utilisé d'autres nouveaux outils que le quantitative easing et le forward guidance, mais, dans les limites juridiques de son action, elle ne doit pas exclure d’autres options. Par exemple, le contrôle de la courbe des taux (à un horizon plus court que la Banque du Japon, disons deux ans) peut être utilisé pour améliorer le forward guidance de la Fed, comme l’a récemment suggéré Lael Brainard, l’un des gouverneurs de la Fed. Le financement des programmes de prêts peut être utile dans des situations où les contraintes sur le prêt bancaire et sur la disponibilité du crédit nuisent à la transmission de la politique monétaire. La Fed doit aussi considérer l’idée de maintenir une ambiguïté constructive à propos de l’usage futur des taux négatifs, parce qu’il y a des situations où les taux de court terme négatifs peuvent fournir une marge utile à la politique monétaire ; et parce qu’exclure complètement les taux négatifs peut limiter la capacité future de la Fed à réduire les taux de long terme par le quantitative easing ou d’autres moyens en créant un plancher effectif pour les taux de long terme.

Pour la plus grande partie, les coûts et risques des nouveaux outils de politique monétaire se sont révélés être modestes. L’exception possible concerne les risques d’instabilité financière, qui requièrent de la vigilance.

L’incertitude à propos des coûts et des risques des nouveaux outils de politique monétaire rend les banques centrales prudentes à propos de leur usage, du moins initialement. Pour l’essentiel, ces coûts et risques (notamment les possibilités d’un dysfonctionnement des marchés, une forte inflation, la difficulté de sortir de ces politiques, la hausse des inégalités de revenu et les moins-values sur le portefeuille de la banque centrale) se sont révélés modestes. Par exemple, les inquiétudes à propos de la forte inflation découlaient d’un monétarisme crû qui ne considérait pas l’idée que la vitesse de circulation de la base monétaire chuterait avec de faibles taux d’intérêt. L’inflation a récemment été trop faible plutôt que trop élevée. La littérature internationale sur les effets distributionnels de la politique monétaire constate que, lorsque tous les canaux de l’influence de la politique monétaire sont pris en compte, l’assouplissement monétaire a des effets distributionnels faibles et peut-être même progressifs. Le risque de moins-values sur le portefeuille de la Fed n’a jamais été élevé, mais au cours de la dernière décennie la Fed a remis plus de 800 milliards de dollars en profits au Trésor, trois fois plus qu’avant-crise.

Il y a plus d’incertitude à propos des liens entre l’argent facile et les taux faibles, d’un côté, et les risques d’instabilité financière, de l’autre. L’assouplissement monétaire fonctionne en partie en accroissant la propension des investisseurs financiers et des prêteurs à prendre des risques, ce que l’on appelle le canal de la prise de risque (risk-taking channel). En périodes de récession et de turbulences financières, encourager les investisseurs financiers et les prêteurs à prendre des risques raisonnables est un objectif approprié pour la politique monétaire. Les problèmes surviennent quand, à cause d’un comportement qui n’est pas parfaitement rationnel ou de mauvaises incitations institutionnelles, la prise de risque devient excessive. La vigilance et des politiques appropriées, notamment les politiques macroprudentielles et réglementaires, sont essentielles.

Une question connexe est si les nouveaux outils de politique monétaire font peser de plus grands risques d’instabilité que les politiques traditionnelles ou que l’environnement de faible taux qui perdurerait si la banque centrale se contentait d'actions conventionnelles. Il n’y a pas beaucoup de preuves empiriques suggérant que ce serait le cas. Par exemple, le quantitative easing aplatit la courbe des taux, ce qui réduit l’incitation pour une transformation de maturités risquée ; il écarte le risque de duration, ce qui accroît la capacité de prise de risque nette du secteur privé ; et il accroît l’offre d’actifs sûrs, liquides.

Le supplément de marge de manœuvre que les nouveaux outils peuvent donner à la politique monétaire dépend crucialement du niveau du taux d’intérêt nominal neutre. Si ce dernier est compris entre 2 et 3 %, comme le suggèrent les estimations pour les Etats-Unis, alors les simulations de modèle suggèrent que le quantitative easing et le forward guidance peuvent fournir un supplément de marge de manœuvre équivalent à 3 points de pourcentage, ce qui compenserait largement les effets de la borne inférieure sur les taux. Pour cet éventail du taux neutre, il est préférable d’utiliser les nouveaux outils de politique monétaire que de relever la cible d’inflation pour accroître la marge de manœuvre de la politique monétaire.

Le taux d’intérêt neutre est le taux d’intérêt compatible avec le plein emploi et l’inflation à la cible à long terme. A long terme, au taux d’intérêt neutre la politique monétaire n’est ni expansionniste, ni restrictive. La plupart des estimations actuelles pour le taux nominal neutre pour les Etats-Unis sont compris entre 2 et 3 %. Par exemple, la prévision médiane des participants du comité de politique monétaire de la Fed pour le taux des fonds fédéraux à long terme est de 2,5 %. Les modèles basés sur les données macroéconomiques et financières donnent actuellement des estimations du taux neutre américain entre 2,5 et 3 %.

Mon étude rapporte des résultats tirés de simulations réalisées à partir de FRB/US, le principal modèle macro-économétrique du comité de la Réserve fédérale, afin de comparer les performances à long terme de diverses politiques monétaires alternatives. Quand le taux nominal neutre est faible, les politiques traditionnelles (qui dépendent de la gestion du taux d’intérêt de court terme et n’utilisent pas les nouveaux outils) réalisent de mauvaises performances dans les simulations, ce qui est cohérent avec les précédentes études. Le problème avec les politiques traditionnelles est qu’elles n’ont plus de marge de manœuvre lorsque le taux de court terme bute sur zéro.

Je compare les politiques traditionnelles aux politiques couplées à une combinaison de quantitative easing et de forward guidance. (…) Quand le taux nominal neutre est compris entre 2 et 3 %, alors les simulations suggèrent que cette combinaison de nouveaux outils de politique monétaire peut fournir un supplément de marge de manœuvre équivalent à 3 points de pourcentage. Autrement dit, avec l’aide du quantitative easing et du forward guidance, la politique monétaire réalise d’aussi bonnes performances qui si le taux neutre nominal était compris entre 5 et 6 %. Dans les simulations, le supplément de 3 points de pourcentage de la marge de manœuvre de la politique monétaire compense les effets de la borne inférieure zéro (zero lower bound) sur les taux de court terme.

Une autre façon de gagner en marge de manœuvre consiste à relever la cible d’inflation de la Fed, puisque cela devrait en définitive relever le taux d’intérêt nominal neutre. Cependant, pour obtenir un supplément de marge de manœuvre équivalent à 3 points de pourcentage comme permettent de le faire le quantitative easing et le forward guidance, cela nécessiterait de relever la cible d’inflation d’au moins 3 points de pourcentage, c’est-à-dire de 2 à 5 %. Cette approche aurait d’importants coûts de transition (notamment l’incertitude et la volatilité associées au désancrage des anticipations d’inflation et à leur réancrage à un niveau plus élevé), ainsi que les coûts d’une inflation en permanence plus élevée. Tant que le taux d’intérêt neutre est supérieur à 2 %, il semble préférable d’utiliser activement les nouveaux outils de politique monétaire plutôt que de relever la cible d’inflation. Il y a cependant une réserve : Si le taux d’intérêt nominal neutre est bien inférieur à 2 %, alors les nouveaux outils n’ajoutent pas assez de marge de manœuvre de politique monétaire pour compenser les effets de la borne inférieure. Dans ce cas, d’autres mesures pour accroître la marge de politique monétaire, notamment le relèvement de la cible d’inflation, peuvent s’avérer nécessaire.

Mes conclusions relativement optimistes à propos des nouveaux outils monétaires dépendent crucialement du maintien du taux d’intérêt neutre au-delà de 2 %. Dans les simulations, quand le taux nominal neutre est bien inférieur à 2 %, toutes les stratégies monétaires deviennent significativement moins efficaces. Dans ce cas, bien que le quantitative easing et le forward guidance permettent de donner un supplément de marge de manœuvre à la politique, les nouveaux outils peuvent ne pas parvenir à compenser les effets de la borne inférieure. En outre, dans ce cas, toute approche de politique monétaire, utilisant ou non les nouveaux outils, est susceptible d’impliquer des périodes prolongées au cours desquelles les taux de court terme sont à leur borne inférieure, aussi bien que des rendements de plus long terme souvent nuls ou négatifs, une situation qui génère des risques d’instabilité financière ou d’autres coûts.

Actuellement, les taux d’intérêt de court terme et de long terme aux Etats-Unis sont inférieurs à 2 %. Or, comme je l’ai noté, les estimations du taux d’intérêt neutre sont comprises entre 2 et 3 %, ce qui implique que la politique monétaire est aujourd’hui légèrement accommodante. Mes résultats de simulations dépendent du taux neutre, non du niveau courant des taux d’intérêt. Il y a néanmoins une forte incertitude à propos des niveaux courants et futurs du taux nominal neutre. S’il s’avère qu’ils sont inférieurs à 2 %, alors cela plaiderait en faveur d’un relèvement modeste de la cible d’inflation et peut-être d’une plus grande intervention de la politique budgétaire pour faire face aux contractions de l’activité économique. Pour l’instant, une approche prudente consisterait à accroître la contracyclicité de la politique budgétaire, par exemple en accroissant l’usage des stabilisateurs automatiques.

Il y a une leçon à retenir pour toutes les banques centrales : il est crucial de maintenir l’inflation et les anticipations d’inflations à proximité de la cible.

Mes simulations ne s’appliquent qu’aux Etats-Unis et les conclusions quantitatives ne peuvent être directement étendues à d’autres pays. Deux conclusions s’appliquent toutefois ailleurs : (1) les nouveaux outils de politique monétaire, notamment le quantitative easing et le forward guidance, doivent faire partie intégrante de la boîte à outils de la politique monétaire ; (2) la politique monétaire en général est d’autant moins efficace que le taux d’intérêt neutre est faible. En Europe et au Japon, où la politique monétaire ne parvient pas à atteindre ses objectifs, l’essentiel du problème découle des anticipations d’inflation qui ont trop chuté, ce qui a déprimé les taux d’intérêt nominaux neutres et limité la marge de manœuvre dont disposent les banques centrales. Dans ces juridictions, la politique budgétaire est nécessaire pour relever les anticipations d’inflation. Si elle peut effectivement être utilisée, alors la politique monétaire, complétée par les nouveaux outils monétaires, devrait retrouver l’essentiel de sa puissance.

Dans les dernières décennies du vingtième siècle, les principaux défis pour les banques centrales étaient l’inflation élevée et l’instabilité des anticipations d’inflation. Les présidents de la Fed Paul Volcker et Alan Grenspan ont gagné la guerre en ramenant l’inflation à de faibles niveaux et en ancrant les anticipations d’inflation. L’inflation bénigne a promu à son tour la croissance économique et la stabilité, notamment en donnant aux autorités monétaires plus de marge de manœuvre pour répondre aux fluctuations de l’emploi et de la production sans s’inquiéter d’une forte inflation. Nous avons presque bouclé la boucle : dans un monde où de faibles d’intérêt nominaux neutres menacent la capacité des banques centrales à répondre aux récessions, la faible inflation peut être dangereuse. En conformité avec les cibles d’inflations "symétriques" qu’elles ont indiqué suivre, la Fed et d’autres banques centrales doivent s’attaquer à une inflation trop faible au moins aussi vigoureusement qu’elles résistent à une inflation trop élevée. Bien que les nouveaux outils monétaires ont montré leur utilité et peuvent gagner en efficacité dans le futur, il est crucial de maintenir l’inflation et les anticipations d’inflation proches de la cible pour préserver ou accroître la marge de manœuvre des banques centrales. »

Ben Bernanke, « The new tools of monetary policy », 4 janvier 2020. Traduit par Martin Anota



aller plus loin...

Quelle est l’efficacité de l’assouplissement quantitatif ?

La stratégie de forward guidance

Quelle est l’efficacité du forward guidance à la borne inférieure zéro ?

A zéro et en-deçà. Que nous enseigne la récente expérience avec les taux d’intérêt négatifs ?

Comment la politique monétaire non conventionnelle affecte les inégalités ?

mardi 27 juin 2017

Quand la croissance ne suffit pas



« (…) Malgré des indicateurs positifs, pourquoi les Américains sont-ils si insatisfaits ? Les raisons sont complexes et elles ne sont pas seulement d’ordre économique. Sans chercher à être exhaustif, je vais souligner ici quatre tendances inquiétantes qui aident à comprendre notre amertume.

Premièrement, la stagnation des revenus du travailleur médian. Depuis 1979, la production réelle par tête aux Etats-Unis a augmenté de 80 % et pourtant, au cours de cette période, la rémunération hebdomadaire des travailleurs à temps plein n’a augmenté que de 7 % en termes réels. En outre, ces gains résultent surtout de la hausse des salaires et du temps de travail des femmes. Pour les hommes, les rémunérations hebdomadaires réelles médianes ont en fait décliné depuis 1979. Bref, malgré la croissance économique, la classe moyenne a du mal à maintenir son niveau de vie.

Deuxièmement, le déclin de la mobilité économique et sociale. L’un des piliers de l’image que se donnent les Etats-Unis est l’idée du rêve américain, selon laquelle chacun peut atteindre une position élevée dans la société en faisant preuve de détermination et en travaillant dur. Cependant, La mobilité ascendante aux Etats-Unis semble avoir significativement décliné suite à la Seconde Guerre mondiale. Par exemple, dans une étude intitulée "The Fading American Dream", Raj Chetty et ses coauteurs ont étudié l’un des indicateurs de la mobilité ascendante, la probabilité qu’un enfant gagne plus que ses parents en grandissant. En utilisant les données du Census, ils constatent que 90 % des Américains qui sont nés au cours des années quarante ont fini par gagné plus que leurs parents, mais cela ne sera le cas que de 50 % de ceux qui sont nés dans les années quatre-vingt. D’autres études constatent que les Etats-Unis présentent, parmi les pays développés, l’un des taux de mobilité intergénérationnel, mesuré par exemple par la corrélation entre les revenus des parents et ceux de leurs enfants. Les Etats-Unis ont beau se voir comme une une société sans classes, ils sont parvenus à fortement rigidifier leur stratification sociale, notamment via la ségrégation résidentielle et éducationnelle, le jeu des réseaux sociaux et l’homogamie.

La stagnation des salaires médians et le déclin de la mobilité sont bien sûr liés à la hausse tendancielle des inégalités de revenu et de richesse, qui sont bien plus prononcées aux Etats-Unis que dans les autres pays développés. En particulier, de fortes inégalités tendent à freiner la mobilité économique, en accroissant les avantages éducationnels et sociaux relatifs des plus aisés. (Alan Krueger, mon ancien collègue de l’Université de Princeton, a appelé de "courbe de Gatsby le Magnifique" cette relation négative entre inégalité et mobilité sociale que l’on observe d’un pays à l’autre.) Je pense que les frustrations associés à la stagnation des revenus et au manque de mobilité sociale sont plus importantes aux yeux de la plupart des Américains que les inégalités en tant que telles. Les Américains tendent à mieux tolérer les inégalités que les citoyens des autres pays, en mettant davantage l’accent sur l’égalité des chances que sur l’égalité des places.

La troisième tendance adverse est l’aggravation du dysfonctionnement social associé aux zones et aux groupes démographiques en difficultés économiques. Par exemple, deux de mes anciens collègues de l’Université de Princeton, Anne Case et Angus Deaton, ont publié une importante étude sur la morbidité et la mortalité parmi les Américains de la classe populaire blanche (plus précisément ceux qui n’ont qu’un diplôme du secondaire). Ils ont constaté que les taux de mortalité autour de la quarantaine des Américains de la classe populaire blanche se sont brutalement aggravés relativement aux autres groupes démographiques des Etats-Unis ou aux classes populaires européennes. Case et Deaton ont qualifié cette surmortalité parmi la classe populaire blanche comme les "morts de désespoir" (deaths of despair), en raison du déclin concomitant des indicateurs de bien-être économique et social et en raison du rôle important joué par des facteurs comme l’addiction aux opioïdes, l’alcoolisme et le suicide. En effet, en 2015, plus d’Américains sont morts d’overdoses de drogue (…) que d’accidents de voiture, d’accidents liés aux armes à feu ou aux crimes.

Parce que la classe populaire blanche s’est révélée cruciale au cours des dernières élections, ses problèmes ont reçu bien plus d’attention depuis. Cependant, le problème du dysfonctionnement social au sein de la population économiquement fragilisée est bien plus large. Par exemple, l’une des tendances économiques les plus inquiétantes est le déclin du taux d’activité des hommes d’âge intermédiaire (de 25 à 54 ans), qui s’observe dans tous les groupes démographiques. En 1960, environ 97 % des hommes d’âge intermédiaire étaient actifs ; aujourd’hui, seulement 88 % d’entre eux le sont. Les études constatent que beaucoup des hommes qui ne travaillent pas dans le secteur formel sont vraiment inactifs, dans le sens où ils ne s’occupent ni d’enfants, ni de personnes âgées par exemple. Les taux d’activité des hommes d’âge intermédiaire sont plus faibles aux Etats-Unis que dans la plupart des pays européens, malgré la faiblesse des marchés européens dans ces derniers. L’une des explications possibles pour cette divergence tient aux différences en matière de système judiciaire. Le taux d’incarcération élevé des Etats-Unis laisse de nombreux hommes, notamment des Afro-Américains, avec un casier carcéral, ce qui réduit leurs opportunités d’emploi, même plusieurs années après leur libération.

Le quatrième et dernier facteur que je vais souligner, intimement lié aux autres, est l’aliénation politique et la défiance vis-à-vis des institutions, qu’elles soient publiques ou privées. En particulier, les Américains ont généralement peu confiance dans la capacité de leurs gouvernements, en particulier de leur gouvernement fédéral, à représenter convenablement leurs intérêts, sans parler de leur capacité à résoudre leurs problèmes. Selon un récent sondage, seulement 20 % des Américains déclarent avoir confiance en la capacité du gouvernement de Washington à prendre les bonnes décisions, que ce soit "tout le temps" ou "la plupart du temps". L’incapacité à empêcher la crise financière mondiale n’a bien sûr pas aidé les choses, mais ces attitudes étaient déjà présentes dans les années soixante-dix. Dans un récent ouvrage, Strangers in Their Own Land, la sociologue Arlie Russell Hochschild détaille les années qu’elle a vécues parmi une communauté conservatrice de Louisiane. L’un de ses constats les plus frappants est la réticence des Louisianais à soutenir les efforts fédéraux pour protéger l’environnement local, malgré les risques de santé substantiels auxquels ils font face en conséquence de la pollution générée par les raffineries de pétrole et d’autres industries. Cette opposition semble résulter en partie des valeurs traditionnelles d’indépendance, mais elle reflète aussi le scepticisme bien ancré vis-à-vis de la sincérité des responsables du gouvernement et de leur capacité à améliorer les choses à un coût économique raisonnable. »

Ben Bernanke, « When the growth is not enough », discours prononcé à la conférence organisée par la BCE à Sintra, le 26 juin 2017. Traduit par Martin Anota

mardi 18 avril 2017

Comment la Fed doit-elle réagir à la borne inférieure zéro ?


« (…) En utilisant des modèles économétriques pour simuler la performance de l’économie américaine, Michael Kiley et John Roberts ont constaté que, sous certaines hypothèses, les taux d’intérêt de court terme pourraient être à l’avenir à zéro entre 30 % et 40 % du temps, ce qui réduirait la marge dont dispose la Fed pour assouplir sa politique monétaire lorsque cela est nécessaire. Par conséquent, leurs simulations prédisent que la future performance économique sera en moyenne molle, avec une inflation bien inférieure à la cible de 2 % que suit la Fed et avec une production inférieure à son potentiel. (…) La Fed doit maintenant expliquer comment elle fera face aux prochains épisodes où ses taux seront contraints par leur borne zéro. Dans ce billet, je vais discuter des avantages et inconvénients d’une proposition majeure, qui consisterait pour la Fed à relever sa cible d’inflation officielle. Les arguments en faveur de cette proposition sont, au mieux, nuancés. En me basant sur les analyses de Kiley et Roberts, je vais ensuite considérer certaines alternatives que je crois plus prometteuses.

Les arguments en faveur du relèvement de la cible d’inflation

Le risque de buter sur la borne inférieure zéro dépend surtout du niveau « normal » des taux d’intérêt, c’est-à-dire du niveau des taux que l’on s’attend à voir prévaloir lorsque l’économie opère au plein emploi avec une stabilité des prix et une politique monétaire neutre. Qu’est-ce qui détermine le taux normal ? En général, un taux d’intérêt peut être exprimé comme la somme du taux réel (ou ajusté à l’inflation) et du taux d’inflation attendu. Les estimations actuelles du taux d’intérêt réel susceptible de prévaloir durant les temps normaux tournent autour de 1 %, bien en-dessous des estimations du passé récent. Avec l’engagement de la Fed à maintenir l’inflation proche de 2 % à plus long terme, un taux réel de 1 % implique que le niveau moyen des taux d’intérêt (nominaux) devrait être à l’avenir autour de 3 %. Comme Kiley et Roberts le montrent via leurs simulations, ce faible niveau accroît grandement le risque que, toute chose égale par ailleurs, la politique monétaire se retrouve contrainte par la borne inférieure zéro. Cela signifie que dans un monde de taux durablement faibles nous pouvons fréquemment nous retrouver dans des situations où la Fed aimerait réduire son taux directeur, mais où elle est incapable de le faire. Cela ne manquera pas de peser sur la performance économique.

Une solution potentielle à ce problème que des économistes d’envergure comme Olivier Blanchard ont proposée consisterait pour la Fed à relever sa cible d’inflation. Supposons par exemple que la Fed fixe sa cible d’inflation à 3 % et que le taux d’intérêt réel normal reste à 1 %. Si les marchés sont confiants quant à la capacité de la Fed à atteindre constamment la cible, alors le niveau normal des taux d’intérêt devrait aussi augmenter. Dans cet exemple, il passerait de 3 % à 4 %, ce qui permettrait d’accroître la marge dont dispose la banque centrale pour réduire son taux d’intérêt en périodes de récession ou de faible inflation.

Le soutien en faveur d’un relèvement de la cible semble s’accroître avec les craintes à propos de la borne inférieure zéro. Dans un récent billet (…), Stephen Cecchetti et Kermit Schoenholtz citent quatre arguments en faveur d’un tel relèvement : i) le déclin persistant des taux d’intérêt normaux ; ii) des constats (comme ceux de Kiley et Roberts) selon lesquels la fréquence et la sévérité des futurs épisodes de borne inférieure zéro pourraient être pires que ce que l’on pensait précédemment, en dépit du faible niveau des taux d’intérêt normaux ; iii) certaines preuves empiriques, tirées d’une étude portant sur les années 1970, suggérant que les coûts d’une plus forte inflation peuvent être moindres que ce que l’on pensait précédemment ; et iv) des calculs qui suggèrent que les mesures d’inflation standards pourraient surévaluer bien plus qu’on ne le pensait la hausse du coût de la vie.

Je vais ajouter un autre avantage important à cette approche : un relèvement de la cible d’inflation de la Fed est une mesure relativement simple à mettre en œuvre et facile à communiquer au public. En particulier, le cadre de politique de la Fed, qui est déjà construit autour du ciblage du taux d’inflation, n’aurait pas à changer.

Quelques arguments contre le relèvement de la cible d’inflation

Il y a cependant certains raisons amenant à penser qu’un relèvement de la cible d’inflation de la Fed puisse ne pas être une aussi bonne idée que ça. Premièrement, beaucoup des récents propos qui ont été tenus à propos le choix optimal d’une cible d’inflation semblent anhistoriques, dans le sens où ils discutent de ce que serait la cible d’inflation idéale 1) si nous partions de rien et 2) si nous étions certains que les conditions présentes persisteraient indéfiniment. Bien sûr, nous ne partons pas d’une table rase : Il a fallu des années de démonstrations de réussites pour que la Fed et les autres banques centrales parviennent à fermement ancrer les anticipations d’inflation du public aux niveaux actuels, ce qui contribua à stabiliser l’inflation et à améliorer les résultats de politique économique. Il peut être difficile et coûteux d’ancrer les anticipations d’inflation (et donc les taux d’intérêt normaux) à un niveau plus élevé, en particulier lorsque, en entreprenant cela, la Fed montre qu’elle désire déplacer la cible pour ce qui apparaît comme étant des raisons tactiques.

Il est probable que les déterminants de la cible d’inflation, tels que le taux d’intérêt réel qui prévaut, les coûts de l’inflation et la nature du mécanisme de transmission de la politique monétaire, changent à l’avenir. Si la Fed relevait sa cible d’inflation aujourd’hui en se basant principalement sur le faible niveau des taux d’intérêt réels, changerait-elle plus tard à nouveau la cible en réponse à de nouveaux changements des fondamentaux ? Il serait important de le clarifier lorsque le premier changement sera entrepris. Dans un monde changeant, caractérisé par une crédibilité imparfaite et une information incomplète, les anticipations d’inflation du secteur privé ne sont pas faciles à gérer. En particulier, le calcul coûts-bénéfices d’un changement de cible doit incorporer les coûts de transition, notamment le risque de générer de l’instabilité sur les marchés et une incertitude économique.

Deuxièmement, bien que qu’il s’avère difficile et controversé de quantifier les coûts économiques de l’inflation, nous savons que l’inflation est très impopulaire parmi la population. Cela peut être dû à des raisons que les économistes jugent peu convaincantes : par exemple, les gens peuvent croire que les hausses de salaire qu’ils reçoivent sont pleinement acquises (c’est-à-dire, qu’elles ne sont pas dues en partie à l’inflation), tout en blâmant l’inflation pour l’érosion du pouvoir d’achat de ces salaires. Ou peut-être que le public perçoit des coûts d’inflation (la plus grande difficulté à calculer et à planifier lorsque l’inflation est élevée, par exemple) que les économistes ont des difficultés à quantifier. Si l’antipathie du public envers l’inflation se justifie dans un sens ou un autre, le relèvement de la cible d’inflation (ou le soutien de l’inflation) serait difficile à mettre en œuvre, ce qui réduirait la crédibilité d’une telle annonce par la Fed. Si le relèvement de la cible n’est pas crédible, les taux d’intérêt normaux ne vont pas s’accroître, si bien que l’objectif même de ce relèvement ne sera pas atteint. D’une perspective politique, il semble que, pour le leadership de la Fed, le relèvement de la cible d’inflation soit dominé par une stratégie consistant à faire preuve d’un plus fort activisme à la borne inférieure, ce qui constitue l’approche que la plupart des économiques considèrent être la plus efficace.

Troisièmement, les analyses théoriques suggèrent qu’un relèvement de la cible d’inflation ne soit dans aucun cas la réponse optimale aux inquiétudes relatives à la borne inférieure. Comme on le comprend désormais bien, la réponse préférée sur le plan théorique (voir ici et pour les formulations classiques) consiste pour la Fed à promettre à l’avance de suive une politique de compensation (make-up) : en l’occurrence, si la présence de la borne inférieure fait que la politique est plus restrictive qu’elle ne l’aurait sinon été, la Fed doit compenser cela en gardant les taux d’intérêt plus faibles plus longtemps après que la borne inférieure ait cessé d’être contraignante, la durée de la période de compensation étant d’autant plus longue que l’épisode de borne inférieure aura été sévère. Si (…) les participants au marché et le public comprennent cette promesse et la jugent crédible, alors l’anticipation d’un assouplissement monétaire dans le futur devrait amortir le déclin de la production et de l’inflation au cours de la période où la borne inférieure est contraignante.

De cette perspective, relever la cible d’inflation est une politique inefficace à deux égards. Premièrement, comme Michael Woodford l’a souligné, cela force la société à supporter les coûts d’une plus forte inflation en tout temps, tandis que sous la politique optimale l’inflation s’accroît seulement temporairement suite aux épisodes de borne inférieure. Deuxièmement, une hausse unique de la cible d’inflation ne calibre pas de façon optimale la vigueur de la réponse de la politique lors d’un épisode de borne inférieure donné à la durée ou à la sévérité de cet épisode. Les simulations de Kiley et Roberts confirment qu’un relèvement de la cible d’inflation permet à la Fed de répondre plus efficacement aux récessions qu’il n’est possible de le faire sous leur scénario de base avec les politiques d’avant-crise. Mais ils constatent aussi que relever la cible d’inflation n’améliore pas autant la performance que certaines stratégies alternatives (voir ci-dessous), et ce même si l’on ignore les coûts d’une hausse permanente de l’inflation associée à une cible plus élevée.

Y a-t-il de meilleures réponses à la borne inférieure qu’un relèvement de la cible d’inflation ?

Si la Fed juge le relèvement de la cible d’inflation comme étant peu efficace, que peut-elle faire d’autre pour réduire la fréquence et la sévérité des futurs épisodes de borne inférieure zéro ? Une possibilité (…) consisterait simplement à reprendre et améliorer les approches utilisées entre 2008 et 2015. Les stratégies que la Fed a utilisées pour répondre à la borne inférieure zéro inclurent initialement une réduction agressive des taux d’intérêt, l’assouplissement quantitatif, le guidage des anticipations (forward guidance) à propos des futures trajectoires de taux d’intérêt et une stratégie de « gestion du risque » qui se traduit par une remontée très prudente de zéro lorsque le temps de la normalisation arrive. Comme je l’ai précédemment noté, beaucoup de responsables au sein de la Fed et d’économistes ont aussi appelé à un usage plus actif de la politique budgétaire lors des forts ralentissements de l’activité. Cette approche plus incrémentale a l’avantage de ne pas requérir de brutaux changements du cadre actuel de la politique de la Fed et certaines études suggèrent que cela peut marcher, du moins avec les ralentissements modérés, même sans soutien de la part de la politique budgétaire. Cependant, il n’est pas clair que cette approche plus conservatrice suffise pour faire face à une très brutale récession qui pousserait les taux à leur borne inférieure pendant une période prolongée.

Si la Fed veut aller plus loin, elle pourrait considérer l’idée de changer ce qu’elle cible, c’est-à-dire d’abandonner le ciblage d’inflation pour cibler une autre variable économique. Plusieurs cibles alternatives ont été proposées et chacune d’entre elles a aussi bien des avantages que des inconvénients. Une possibilité est le ciblage du niveau des prix. En ciblant un niveau des prix, la Fed s’engagerait à compenser les ratés qu’elle a essuyés en recherchant son niveau d’inflation désiré. Par exemple, si l’inflation chute sous 2 % pendant un temps, la Fed compenserait cela en cherchant une inflation supérieure à 2 % jusqu’à ce que l’inflation moyenne soit retournée à 2 %. L’adoption du ciblage du niveau des prix serait préférable au relèvement de la cible d’inflation, comme le ciblage du niveau des prix est à la fois plus cohérent avec le mandat de stabilité des prix de la Fed et comme il se rapproche d’une politique monétaire de compensation optimale. (Suite à un épisode de borne inférieure zéro, une banque centrale ciblant le niveau des prix serait engagée à compenser toute chute de l’inflation.)

Le ciblage du niveau des prix a également des inconvénients. Par exemple, si une hausse des prix du pétrole ou un autre choc d’offre accroît temporairement l’inflation, une banque centrale qui chercherait à cibler le niveau des prix serait forcée à resserrer sa politique monétaire pour pousser à la baisse les taux d’inflation subséquents, même si l’économie est en pleine récession. A l’inverse, une banque centrale qui ciblerait l’inflation peut « regarder au-delà » d’une hausse temporaire de l’inflation, laissant le passé de l’inflation au passé.

Une autre alternative serait d’essayer de mettre en œuvre une stratégie de compensation optimale, consistant pour la Fed à s’engager à compenser les effets de la borne inférieure zéro en maintenant les taux à un faible niveau pendant un certain temps après que la borne inférieure ait cessé d’être contraignante, la durée de cette période de compensation dépendant explicitement de la sévérité de l’épisode de borne inférieure. Kiley et Roberts considèrent diverses politiques de ce type et montrent dans leurs simulations qu’elles réduisent la fréquence des épisodes de borne inférieure zéro et éliminent largement leurs coûts, tout en maintenant l’inflation moyenne proche de 2 %. Il faut toutefois que la banque centrale communique clairement cette approche et s’assure à ce qu’elle soit crédible, puisque la politique ne marchera pas si les participants au marché et le public ne croient pas que la banque centrale respectera sa promesse de garder les taux à un faible niveau. Cependant, la récente expérience de la Fed avec le forward guidance suggère que de tels engagements par les banques centrales peuvent être efficaces. Ils seraient probablement plus efficaces si les principes de cette approche étaient exposés et expliqués en temps normal, lorsque la borne zéro n’est pas contraignante.

Comme le ciblage du niveau des prix et les politiques de compensation sont intimement liées, elles peuvent être combinées de diverses façons. Par exemple, en promettant de ramener le niveau des prix à sa trajectoire tendancielle après une période à la borne inférieure zéro, la Fed peut utiliser le langage du ciblage du niveau des prix pour préciser son engagement à compenser son incapacité à agir adéquatement lorsque les taux étaient à zéro. (…) »

Ben Bernanke, « The zero lower bound on interest rates: How should the Fed respond? », 13 avril 2017. Traduit par Martin Anota



aller plus loin...

« Et si les banques centrales ciblaient une inflation de 4 % ? »

« Quelle est la cible d’inflation optimale ? »

« La stratégie de forward guidance »

« Quelle est l’efficacité du forward guidance à la borne inférieure zéro ? »

« Quels sont les effets macroéconomiques des mesures non conventionnelles de la Fed ? »

- page 1 de 3