Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Monnaie et finance

Fil des billets

vendredi 11 septembre 2020

La nouvelle stratégie de la Fed : davantage de discrétion, moins de prévention

« L’emploi peut se retrouver à son niveau maximal tel qu’on l’estime en temps réel ou au-delà sans susciter d’inquiétude, à moins que cela ne s’accompagne de signes d’accélérations indésirables de l’inflation ou de l’émergence d’autres risques qui peuvent nous empêcher d’atteindre nos objectifs. »

Jerome Powell, président de la Réserve fédérale, lors de la conférence de Jackson Hole du 27 août 2020.



Dans ce billet, nous identifions trois facteurs clés motivant la revue stratégique de la Fed et soulignons trois grands changements dans la stratégie du comité de politique monétaire. En outre, nous identifions d’importantes questions auxquelles le comité devra apporter une réponse lorsqu’il cherchera à mettre en place son nouveau cadre de politique monétaire. En particulier, l’adoption du ciblage flexible de l’inflation moyenne implique un changement dans la fonction de réaction du comité. Comment cette redéfinition de l’objectif influencera-t-elle la réponse systématique du comité aux variations de la croissance économique, du chômage, de l’inflation et des conditions financières ? Sous un ciblage flexible de l’inflation moyenne, la cible d’inflation effective au cours des prochaines années dépend aussi de l’expérience passée avec l’inflation. Quelle est cette relation ?

Peut-être que la Fed a été avant tout poussée à changer de stratégie en prenant conscience que le niveau soutenable des taux d’intérêt nominaux a décliné. Ce changement se manifeste à travers les révisions à la baisse des prévisions des taux des fonds fédéraux à long terme. Par conséquent, la banque centrale s’inquiète à l’idée de voir le taux directeur buter fréquemment à sa borne inférieure effective, dans la mesure où la marge de manœuvre de la Fed en matière de politique monétaire conventionnelle s’en trouverait réduite. L’idée du ciblage flexible de l’inflation moyenne est de relever la cible d’inflation lorsque l’inflation est faible. En réduisant le taux d’intérêt réel anticipé en de telles circonstances, le ciblage flexible de l’inflation moyenne réduit la nécessité d’utiliser le forward guidance et les outils de bilan à la borne inférieure zéro (voir notre précédent billet).

Deuxièmement, comme le président Powell le souligne dans la citation en ouverture, le lien entre le marché du travail et l’inflation est plus lâche que par le passé, ce qui rend plus difficile d’estimer le niveau de chômage compatible avec la stabilité des prix.

Troisièmement, pour l’essentiel, l’inflation s’est retrouvée sous les 2 % depuis 2012, quand le comité de politique a pour la première fois présenté sa cible quantitative. (Selon l’indice des prix, l’inflation s’est retrouvée en moyenne entre 1,3 % et 1,8 % par an au cours des huit dernières années.) Avec une inflation durablement inférieure à la cible, l’inquiétude est que les anticipations d’inflation finissent par chuter, ce qui accroîtrait les taux d’intérêt réels anticipés et resserrerait en conséquence les conditions financières, en particulier quand le taux directeur est proche de zéro. Comme le président Powell l’a souligné, "nous avons vu cette dynamique perverse affecter d’autres économies majeures à travers le monde et nous avons constaté qu’une fois tombé dans une telle situation il peut être très difficile d’en sortir".

En combinant ces trois facteurs, le comité de politique monétaire a considéré qu’il était nécessaire de répondre à l’asymétrie fondamentale de la politique monétaire conventionnelle : quand l’inflation s’élève au-dessus de sa cible, la banque centrale peut relever les taux d’intérêt, ce qui réduit la demande globale et atténue l’inflation. Cependant, si l’inflation est trop faible, quand le taux d’intérêt est à sa borne zéro, la politique conventionnelle n’est plus disponible pour davantage stimuler la demande globale, alimenter l’inflation et s’assurer que les anticipations d’inflation restent bien ancrées. L’expérience des dernières années aux Etats-Unis et à l’étranger a suscité des inquiétudes à la Fed quant à une telle éventualité.

Donc, quels sont les principaux changements quant aux objectifs de plus long terme du comité de politique monétaire ? Nous en soulignons trois : (I) l’introduction d’un ciblage flexible de l’inflation moyenne ; (ii) un relâchement des efforts pour prévenir une accélération de l’inflation ; (iii) un engagement explicite pour entreprendre une revue publique du cadre de politique monétaire "à peu près tous les cinq ans".

Le premier de ces trois objectifs vise à s’attaquer au maintien durable de l’inflation en-deçà de sa cible de 2 %. Le deuxième revient à admettre que la capacité de la Fed à prévoir l’inflation est limitée. Il dénote une moindre inquiétude à propos des marchés du travail sous tension et, dans le double mandat de la Fed, donne plus de poids à l’objectif de plein emploi relativement à celui de la stabilité des prix. Le troisième fournit un horizon temporel pour réévaluer l’adéquation du cadre de politique monétaire du comité. En se focalisant sur les deux premiers, les changements génèrent un biais vers une inflation moyenne plus élevée de façon à contrer l’asymétrie fondamentale inhérente à la politique conventionnelle de taux d’intérêt.

Nous avons discuté du ciblage de l’inflation moyenne en détails dans notre précédent billet. La version "flexible" de la Fed lui laisse une formidable discrétion. En rejetant toute "formule", l’approche définit ni la fenêtre de temps passée pour mesurer les déviations de l’inflation, ni la fenêtre de temps future pour ramener l’inflation à sa moyenne cible. De tels détails clés étant absents, le comité de politique monétaire devra communiquer d’une réunion à l’autre son objectif d’inflation à court terme. La capacité du comité à influencer les anticipations d’inflation à la borne inférieure (un motif clé pour adopter le ciblage flexible de l’inflation moyenne) va dépendre de la clarté avec laquelle il communiquera son objectif et de la crédibilité de son engagement pour l’atteindre. Plus la déclaration sera claire (à propos de l’objectif d’inflation et de l’horizon temporel), plus elle sera efficace pour réduire les taux d’intérêt réels anticipés quand le taux directeur butera sur sa borne inférieure.

Au même instant, la nouvelle déclaration laisse ouvertes d’importantes questions à propos de ce qui déclenchera un changement dans l’objectif d’inflation à moyen terme. Par exemple, si l’inflation courante ou l’inflation anticipée s’élèvent à 3 %, cela suffira-t-il pour amorcer un changement ? Alors que le ciblage flexible de l’inflation moyenne vise à rendre le niveau des prix à long terme plus prévisible, quelle variation de l’inflation à court terme le comité tolérera-t-il ?

Pour prendre un exemple simple, au cours des cinq dernières années, l’écart cumulé de l’inflation par rapport à sa cible de 2 % s’élève à 2,5 points de pourcentage (lorsque l’on mesure l’inflation à partir de l’indice des prix à la consommation). Si le comité de politique monétaire désire compenser une partie de cet écart au cours des cinq prochaines années (en ciblant sur dix ans un taux moyen d’inflation de 2 %), alors il devra atteindre une inflation de 2,5 % en moyenne. Alternativement, s’il désire rattraper plus rapidement l’écart, disons sur trois ans, alors la cible sera plus proche de 3 %. Plus le comité sera clair par rapport à sa fonction de réaction (notamment à propos de l’horizon au cours duquel il tend à restaurer l’inflation à l’objectif de plus long terme de 2 %), plus il sera probable que ses actions se révéleront stabilisatrices.

En ce qui concerne la moindre importance donnée à la prévention de l’inflation, le changement clé concerne la façon par laquelle la Fed considère l’emploi maximal. Plutôt que de décider de la politique monétaire en réaction aux "déviations", à la hausse comme à la baisse, par rapport à l’emploi maximal (comme dans une règle de Taylor typique), la nouvelle déclaration se focalise sur les écarts à la baisse par rapport à l’emploi maximal. Comme l’évoquait la citation de Powell en ouverture, le lien entre un faible taux de chômage et l’accélération de l’inflation n’est plus aussi robuste que par le passé. Selon nous, ce changement explicite simplement ce que la Fed faisait déjà en pratique. Rappelons-nous qu’en 2019 la Fed a réduit les taux d’intérêt de 75 points de base, alors même que le taux de chômage était à 3,5 %, un niveau qui n’avait pas été atteint depuis cinquante ans. (...)

Pour résumer, et ce en cohérence avec la réaction limitée des marchés financiers, nous ne voyons dans la nouvelle déclaration de la Fed qu’une modeste révision de ses pratiques. Etant donné que l’on s’attend à une longue période de taux d’intérêt nuls, la nouvelle stratégie de la Fed répond à l’accroissement du risque d’avoir une inflation trop faible relativement au risque d'avoir une inflation trop forte.

Cela dit, la réaction des marchés peut aussi refléter un profond scepticisme quant à la capacité de la Fed à relever l’inflation, en particulier dans une telle récession. Elle a régulièrement échoué à atteindre la cible de 2 % depuis qu’elle l’a annoncée. Pourquoi devrait-on croire qu’elle est capable de ramener l’inflation au-delà de 2 % ces prochains temps ? Peut-on vraiment croire que la Fed est vraiment différente des autres grandes banques centrales qui ont passé l’essentiel de leur temps la dernière décennie à essayer de stimuler l’inflation pour la ramener à sa cible sans y parvenir ? (…)

Par conséquent, la différence la plus manifeste à moyen terme tiendra dans la communication de la Fed, dans ce qu’elle dit à propos de sa politique monétaire. Comme Ben Bernanke, l’ancien président de la Fed avait l’habitude de le dire, "la politique monétaire, c’est 98 % de paroles et 2 % d’actions". C’est encore davantage de communication lorsque, comme à présent, le taux directeur se retrouve contraint vers zéro. Plus le comité de politique monétaire pourra nous en dire à propos de la façon par laquelle il utilisera systématiquement la plus grande discrétion qu’il se donne dans son nouveau cadre, plus son action sera efficace. »

Stephen Cecchetti et Kermit Schoenholtz, « The Fed's new strategy: More discretion, less preemption », in Money & Banking (blog), 29 août 2020. Traduit par Martin Anota

jeudi 30 avril 2020

La théorie monétaire moderne et le mythe de la "monnaie-hélicoptère"

« (…) La théorie monétaire moderne (modern monetary theory, MMT) a fait l’objet d’une attention sans précédent maintenant que les responsables de la politique économique adoptent de massives mesures pour combattre la pandémie du Covid-19. En discutant de l’approche du "quoiqu’il en coûte" de la Réserve fédérale, Joe Kernen de CNBC conclut que "nous sommes tous des MMTers à présent". Et dans un récent commentaire, Willem H. Buiter de l’Université de Columbia a affirmé que "l’essentiel de la réponse des Etats-Unis prendra la forme de la monnaie-hélicoptère, une application de la" théorie monétaire moderne "dans laquelle la banque centrale finance la relance budgétaire en achetant de la dette publique émise pour financer des baisses d’impôts ou des hausses de dépenses publiques".

Comme ces remarques le montrent, beaucoup de commentateurs semblent voir la théorie monétaire moderne comme un plan pour faire tourner la presse à imprimer, que se soit pour envoyer de la monnaie aux ménages après approbation du Congrès ou pour fournir des liquidités aux marchés financiers via les actions de la Fed. Avec la récente adoption aux Etats-Unis d’un plan de relance de 2.100 milliards de dollars, nous serions désormais engagés dans ce que Buiter appelle "une expérimentation massive avec l'hétérodoxe" théorie monétaire moderne.

Ces commentateurs se trompent entièrement. La théorie monétaire moderne ne soutient pas l’assouplissement quantitatif (quantitative easing), ni ne prescrit des "largages d’hélicoptère" pour la simple raison qu’il n’y a pas d’alternative de "monnaie-hélicoptère au financement d’un plan de relance budgétaire. En fait, la théorie monétaire moderne décrit comment un gouvernement qui émet sa propre monnaie dépense, taxe et vend des obligations. Ainsi, la théorie démontre qu’un gouvernement comme celui des Etats-Unis ne fait pas face à des contraintes financières.

Au cours normal des opérations, le Trésor américain (le bras dépensier du gouvernement) et la Fed (la banque du gouvernement) se coordonnent de telle façon que le Trésor puisse dépenser et taxer les montants autorisés. Alors que le Congrès s’approprie les fonds, la Fed s’assure à ce que (…) les émissions obligataires se déroulent sans problème. Cependant, la Fed est aussi la banque des banques, si bien qu’elle prend des mesures pour s’assurer à ce que les dépenses et impôts du Trésor ne perturbent pas le système financier. (Comme les paiements vont et sortent des comptes bancaires privés, il y a toujours un risque que les banques soient à court ou inondées de réserves).

A nouveau, cette analyse est descriptive : elle explique simplement comment le gouvernement opère et comment les 2.100 milliards de dollars seront dépensés. Le Trésor va émettre des obligations et les vendre ensuite via des enchères. La Fed, comme d’habitude, va s’assurer, via ses prêts ou ses propres achats, à ce qu’il y ait une offre de réserves suffisante dans le système pour payer les obligations nouvellement émises. (En effet, la Fed s’est déjà engagée à acheter des obligations avant même que le Congrès ait adopté le plan de relance.) Les primary dealers (les banques et les institutions financières approuvées) qui doivent participer à de telles enchères vont continuer à le faire.

En d’autres termes, tout va se passer de la même façon qu’auparavant, lorsqu’il n’y avait pas de pandémie ou d’urgence nationale. A aucun moment quelqu’un ne va actionner la presse à imprimer ou lancer des "largages d’hélicoptère". La question, alors, est ce que "faire tourner la planche à billets" pourrait signifier dans le contexte du système monétaire moderne. Les commentateurs qui utilisent une telle expression se réfèrent à la Fed créditant les comptes bancaires au nom du Trésor sans nouvelles émissions obligataires, c’est-à-dire sans drainer de réserves du système.

Contrairement à ce que suggèrent les commentateurs, une telle action du gouvernement n’est pas une grosse affaire. Que nous soyons en temps normal ou au milieu d’une crise, les ventes d’obligations du Trésor ne sont pas une opération d’emprunt : en fait, elles sont utilisées pour maintenir les taux d’intérêt. Le fait basique est bien compris quand il touche à la Fed, qui a elle-même déclaré que les achats obligataires constituaient une opération de maintenance du taux d’intérêt. Et parce que la Fed paie désormais des intérêts sur les réserves, ses comptes de réserves peuvent agir comme substitut pour les émissions obligataires, du moins aussi longtemps que la maintenance du taux d’intérêt est concernée. Il peut toujours y avoir de bonnes raisons à ce que le Trésor émette des obligations, telles que la fourniture d’actifs sûrs portant intérêt aux ménages ou aux institutions financières, mais financer les dépenses du Trésor n’en est pas une.

Les prescriptions de la théorie monétaire moderne n’ont rien à voir avec l’envoi de "liquidités" aux ménages ou aux banques. La Fed n’applique pas la théorie monétaire moderne quand elle s’engage dans l’assouplissement quantitatif ou prête des centaines de milliards de dollars aux institutions financières. La théorie monétaire moderne souligne seulement le fait que la Fed ne fait face à aucune contrainte financière sur sa capacité d’acheter des actifs ou à prêter ; elle ne prescrit aucune action particulière dans cette direction et elle est en fait sceptique à propos de telles politiques.

S’il y a un aspect du plan de relance américain qui fait écho à la théorie monétaire moderne, c’est le fait qu’il ne soit pas "réglé". Les partisans de la théorie monétaire moderne ont toujours martelé que nous devons cesser d’attacher de telles chaînes (accroître les impôts ou réduire les dépenses publiques ailleurs) pour financer les dépenses. Abolir de telles conditions pourrait ou non accroître le déficit budgétaire. Mais, indépendamment de ce qui se passera finalement sur le plan budgétaire, la dépense prendra toujours la forme de paiements faits par la Fed au nom du Trésor. Il n’y a ni presse à imprimer, ni recettes fiscales qui soient nécessaires.

Donc, que prescrit la théorie monétaire moderne? En termes de propositions concrètes de politique publique, les économistes de la théorie monétaire moderne soutiennent depuis longtemps l’idée d’un Etat employeur en dernier ressort, c’est-à-dire d’un programme de garantie de l’emploi universel financé au niveau fédéral qui agirait comme un stabilisateur macroéconomique en temps de crise. Les emplois, non la liquidité, est la réponse de la théorie monétaire moderne aux récessions. Elle appelle à passer les paies au Budget fédéral, à faire travailler les bénéficiaires (en répondant à la crise, quand cela peut être fait en sécurité) et à laisser le secteur privé les réembaucher lorsque l’économie amorce sa reprise.

Les partisans de la théorie monétaire moderne ont toujours soutenu que les dépenses publiques ne sont seulement limitées que par la capacité économique disponible. Les Etats-Unis atteignent rarement de telles contraintes de dépenses en temps normal et, dans le cas de l’actuelle crise, la contrainte à laquelle nous faisons face prend la forme d’un massif choc d’offre négatif. Mais c’est largement dû à une inadéquate préparation au désastre. S’il n’y a pas assez de lits d’hôpital pour soigner les patients, un surcroît de dépenses ne va pas aider. Alors que les Etats-Unis sont contraints dans leur réponse à cette crise, une incapacité à financer les dépenses publiques n’en sera jamais la raison. Une fois que nous aurons surmonté la menace immédiate que fait peser la pandémie à notre santé, nous devrons maintenir les dépenses publiques de façon à nous préparer à la prochaine crise, en résistant à tous les appels à restreindre le Budget au motif fallacieux que l’austérité budgétaire est nécessaire pour rembourser la dette publique. »

Yeva Nersisyan et L. Randall Wray, « The myth of "helicopter money" », 20 avril 2020. Traduit par Martin Anota



aller plus loin... lire « La théorie monétaire moderne sous le scalpel d’un postkeynésien sceptique »

lundi 2 mars 2020

Une introduction aux ruées et paniques bancaires

« (…) Une banque promet à ses clients un accès immédiat à la liquidité. Les déposants peuvent retrouver leurs fonds à leur valeur faciale quand ils le désirent : premier arrivé, premier servi. D’autres créanciers de court terme peuvent faire la même chose, mais plus ou moins rapidement, en ne reconduisant pas leurs prêts. Et les ménages et entreprises qui payent des frais pour un engagement de crédit peuvent emprunter quand ils le veulent.

Pour les banques qui détiennent des actifs illiquides (comme la Bailey Brothers’ Building and Loan du film classique de Frank Capra), ces promesses de liquidité à la demande sont la source clé de la vulnérabilité. La même chose s’applique pour d’autres institutions bancaires (les banques de facto ou les institutions du système bancaire parallèle, les shadow banks) qui fournissent des services similaires à ceux que proposent les banques traditionnelles, en utilisant leurs bilans pour transformer des actifs illiquides, à longue échéance et risqués en actifs liquides, de courte échéance et peu risqués.

Une ruée bancaire (bank run) survient quand tous les déposants désirent réaliser un large volume de retraits simultanément. Une banque qui ne peut honorer cette soudaine demande fait faillite. Même les banques solvables (celles dont les actifs ont une valeur supérieure à celle de leurs dette) font faillite si elles ne peuvent convertir leurs actifs en liquidité assez rapidement (et avec peu de pertes) pour satisfaire les demandes des clients.

Une panique bancaire (banking panic) est le pluriel d’une ruée bancaire : quand les clients se ruent à de multiples banques. Nous qualifions de contagion la diffusion des ruées d’une banque à d’autres ; c’est le même terme qui est utilisé pour décrire la propagation d’un pathogène biologique.

L’histoire moderne des ruées et paniques bancaires commence au dix-septième siècle et s’étend jusqu’à aujourd’hui (…). Aucun pays n’y est immunisé : même les pays développés avec des systèmes financiers sophistiqués connaissent des crises bancaires (voir Laeven et Valencia). Surtout, ces perturbations sont typiquement associées à certaines des plus fortes contractions de l’activité économique enregistrées en temps de paix.

GRAPHIQUE Pertes en production occasionnées par les plus graves crises bancaires dans les pays développés depuis 1970 (en % du PIB potentiel)

Laeven_Valencia__pertes_production_PIB_crises_bancaires_pays_developpes.png
source : Laeven et Valencia

Dans ce billet, nous caractérisons les sources des paniques et ruées bancaires, puis les outils dont nous disposons pour les prévenir ou les atténuer.

La théorie des ruées et paniques bancaires


La théorie moderne des ruées bancaires trouve son origine dans le modèle de Diamond et Dybvig. Dans ce dernier, la fragilité d’une banque vient directement des services de liquidité qu’elle fournit. Alors qu’elle détient des actifs illiquides, la banque offre aux déposants averses au risque de l’immédiateté : en l’occurrence, les déposants peuvent faire des retraits à la valeur faciale à la demande à n’importe quel moment. La banque est solvable (la valeur de ses actifs dépasse celle de ses dettes), mais elle est illiquide parce qu’elle ne peut pas convertir ses actifs immédiatement en liquidité sans connaître d’importantes pertes. Dans ce cadre, (…) ceux qui se ruent en premier aux guichets de la banque sont remboursés en totalité, alors que ceux qui patientent (ou ne vont pas assez rapidement à la banque) peuvent ne rien recevoir.

Dans le modèle Diamond-Dybvig, les ruées bancaires reflètent le déplacement d’un bon équilibre, où personne ne panique et où les retraits surviennent aléatoirement au cours du temps, à un mauvais équilibre, où les déposants impatients essayent tous de faire des retraits simultanément. Le bon équilibre, où chacun a confiance envers la banque, est fragile, tout comme ce fut le cas avec la Building and Loan de George Bailey. Cela signifie que les ruées bancaires sont autoréalisatrices : quand certains déposants croient que les autres vont se ruer à la banque, ils ont une incitation à se ruer en premier à celle-ci. Comme Doug Diamond l'a ensuite dit, "même les tâches solaires (sunspots) peuvent provoquer des ruées bancaires si tout le monde croit qu’elles le font".

En pratique, cependant, les tâches solaires ne provoquent généralement pas de ruées bancaires (…). En fait, ces dernières surviennent plutôt quand quelque chose survient et suscite un doute quant à la valeur des actifs de la banque. Dans l’ère de l’activité bancaire nationale des Etats-Unis (de 1863 à 1913), les ruées bancaires coïncidaient typiquement avec le pic des cycles d’affaires quand, en se tournant vers l’avenir, les créanciers des banques pouvaient anticiper une hausse des défauts de remboursement des emprunteurs (voir par exemple Gorton). Et des chocs dramatiques avec un impact économique significatif entraînaient une détérioration rapide des anticipations. Bruner et Carr attribuent les origines de la panique américaine de 1907 à l’effondrement de la liquidité provoqué par le séisme de San Francisco de 1906.

Dans le modèle Diamond-Dybvig, la seule incertitude à propos de la valeur des actifs de la banque est s’il va y avoir une ruée bancaire. Dans leur cadre stylisé, la panique elle-même force les banques à liquider en catastrophe leurs actifs à prix bradés, en donnant aux déposants une incitation à se ruer aux guichets. Dans un cadre plus réaliste, la difficulté que les créanciers ont pour observer la valeur des actifs de la banque rend la banque vulnérable aux ruées bancaires, une difficulté qui s’intensifie dans le sillage d’un large choc.

Ce problème de l’"attribut caché" (hidden attribute), dans lequel un prêteur ne peut observer sans coûts la solvabilité d’un emprunteur, est un aspect classique de la sélection adverse (…). En ne connaissant pas la valeur des actifs d’une banque après un choc, les déposants se posent des questions sur sa solvabilité. Ils peuvent aussi s’inquiéter à l’idée que la banque puisse être à peine solvable, avec seulement un petit tampon en fonds propres pour absorber les pertes d’une vente forcée d’actifs (ou un nouveau choc). Plus ce tampon est perçu comme faible, plus l’incitation à se ruer aux guichets est forte. (...)

Sans surprise, c’est en raison de l'antisélection que les ruées bancaires déclenchent des paniques bancaires. Quand les déposants d’une banque sont les témoins d’une ruée bancaire dans une autre banque, ils se posent naturellement des questions sur la solvabilité de la première. Ils ne peuvent être sûrs de celle-ci parce que leur banque est comme une boîte noire : ils ne peuvent observer sans coûts la valeur de ses actifs. En d’autres termes, les nouvelles à propos d’une ruée bancaire amène chacun à prendre conscience qu’il peut y avoir d’autres "lemons" parmi les banques.

Surtout, les déposants n’ont pas besoin de croire que leur banque est insolvable pour se ruer aux guichets. Il suffit qu’ils craignent qu’il n’y ait pas assez de fonds propres pour absorber les pertes résultant de la vente d’actifs en catastrophe provoquée par une ruée bancaire. Cette crainte va être bien plus forte si le système bancaire dans son ensemble est perçu comme sous-capitalisé. Dans ce cadre, un cercle vicieux peut apparaître : les ruées bancaires amènent les banques à vendre leurs actifs en catastrophe, ce qui aggrave les pertes en capital et accroître la vulnérabilité du système bancaire aux chocs. Pour maintenir la résilience des banques face à une telle incertitude, il est nécessaire qu’il y ait un minimum (…) de financement par voie de fonds propres.

Comme la contagion biologique, la contagion financière survient d’une "exposition commune" à un choc. Cependant, à la différence de la contagion biologique, qui résulte typiquement d’une transmission directe, la contagion financière n’a pas besoin de prendre la forme d’une série de défauts en cascade survenant d’une exposition à une contrepartie spécifique en faillite. Il peut y avoir un choc commun (comme un plongeon généralisé des prix d’actifs) qui suscite des doutes quant à la valeur des actifs de plusieurs banques. Le choc rend celles-ci collectivement vulnérables, entraînant une hausse du coût du financement et déclenchant des ventes forcées d’actifs. Une autre différence est que la propagation d’une maladie prend du temps dans la mesure où elle requiert habituellement une période d’incubation. La contagion financière peut survenir extrêmement rapidement.

Comment prévenir et atténuer les ruées et paniques bancaires


Le premier objectif d’un filet de sécurité financier public est d’empêcher qu’une ruée bancaire survienne ou s’aggrave. La première composante du filet de sécurité est le prêteur en dernier ressort. Comme l’indiquait Bagehot au dix-neuvième siècle, un système financier moderne a besoin d’une banque centrale prête à prêter sans limites aux entreprises solvables en contrepartie d’un bon collatéral fourni à un taux de pénalité. Les concepteurs de la Réserve fédérale fondaient le mandat originel du système sur ce principe : l’offre d’une monnaie élastique face aux perturbations financières. A condition que les banques soient bien capitalisées, l’existence d’un prêteur en dernier ressort crédible prévient les ruées bancaires.

La deuxième composante du filet de sécurité est une garantie publique. Les garanties publiques rendent les passifs bancaires insensibles aux informations : les nouvelles relatives à la performance des actifs d’une bancaire n’altèrent pas l’attractivité de la détention des passifs de cette dernière. A moins que les déposants doutent de la volonté ou de la capacité du gouvernement à payer, il n’y a pas d’incitation à se ruer aux guichets. Et, même si une banque faisait faillite, il n’y aurait pas d’incitation à se ruer aux guichets d’une autre banque. Les garanties crédibles empêchent les paniques bancaires.

L’assurance-dépôts (qui trouve son origine aux Etats-Unis avec la Federal Deposit Insurance Corporation et qui existe à présent dans près de 150 pays) est la forme la plus commune que prend cette garantie publique. Les gouvernements peuvent aussi garantir d’autres passifs bancaires, comme le faisait le FDIC en 2008 avec son Temporary Liquidity Guarantee Program. (...) »

Stephen Cecchetti et Kermit Schoenholtz, « Bank runs and panics: A primer », in Money & Banking (blog), 2 mars 2020. Traduit par Martin Anota



aller plus loin...

« Quel est le coût d'une crise financière ? »

« Les coûts ignorés de la crise financière »

jeudi 7 mars 2019

Quatre faits stylisés sur les crises financières

« (…) La crise financière a démontré que, même dans une économie développée telle que les Etats-Unis, des perturbations financières peuvent endommager toute une économie. La crise et la faible reprise qui l’a suivie ont suscité une explosion d’études cherchant à préciser les liens étroits qui existent entre le secteur financier et le reste de l’économie. De telles études sont importantes pour les institutions en charge de la politique économique puisqu’elle leur permet de réduire le risque de nouvelles crises ou leur fourni un guide pour atténuer les répercussions de celles-ci lorsqu’elles éclatent.

Les crises financières sont caractérisées par un déclin soudain et généralisé des prix d’actifs, une forte perturbation des marchés financiers et un sévère resserrement du crédit qui entraîne une contraction de l’activité économique. Avant la crise de 2007-2009, les modèles macroéconomiques les plus utilisés par les principales banques centrales autour du monde excluaient largement les institutions financières et, par conséquent, ne tenaient pas compte de la possibilité que de tels événements surviennent. Au cours de la dernière décennie, plusieurs avancées ont été faites pour répondre à ces manques. Cependant, jusqu’à présent, une approche commune pour intégrer les crises financières aux modèles macroéconomiques n’a pas encore émergé.

(…) Les modèles que les chercheurs utilisent pour comprendre les crises financières doivent être capables de répliquer les faits stylisés mis en évidence par les données historiques. Je me focalise sur quatre faits à propos des crises. Parvenir à reproduire ces schémas dans un seul modèle est un important défi pour construire des modèles macroéconomiques réalistes des crises financières. (…)

Les crises sont des événements rares. En moyenne, les crises surviennent environ tous les 25 ans ou même encore moins fréquemment. A l’inverse, une récession commence typiquement tous les 8 ans. Ce fait pose déjà un problème immédiat lorsque l’on étudie empiriquement les crises financières. Pour obtenir assez d’observations pour étudier les schémas communs autour des crises, les chercheurs ont besoin de larges échantillons de données. En l’occurrence, ces échantillons doivent couvrir de nombreux pays et s’étendre sur plusieurs décennies. Donc, les études s’appuient habituellement sur des sources historiques et implique souvent un fastidieux travail d’archive.

Les booms du crédit tendent à précéder les crises. Un large éventail d’études historiques a montré que les crises financières ne sont pas vraiment des événements aléatoires qui seraient indépendants des conditions macroéconomiques. En effet, les crises surviennent typiquement à la fin d’une expansion, après une période prolongée d’accumulation de déséquilibres macrofinanciers.

L’un des déterminants clés des crises que la littérature a mis en évidence est le volume de crédit accordé aux entreprises non financières et aux ménages. Par exemple, Moritz Schularick et Alan Taylor (2012) ont constaté que la croissance agrégée du crédit est un indicateur avancé assez fiable. Nous le voyons sur le graphique, montrant la variation annuelle en pourcentage du crédit dans les années avant et après les crises à partir de données relatives à 17 pays développés de 1870 à 2013. Dans la période qui précède la crise, le crédit s’accroît typiquement à un rythme rapide, chute brutalement autour de l’éclatement de la crise et reste déprimé par la suite.

GRAPHIQUE Variation du crédit autour des crises financières (en %)

Paul_Pascal__comportement_credit_avec_apres_crise_financiere.png

Les crises financières sont associées à des récessions sévères. Lorsqu’une crise financière éclate, la production décline typiquement plus fortement que durant une récession normale. En outre, la chute de la production est même plus forte si la crise est précédée par une accumulation de crédit, comme l’ont par exemple constaté Òscar Jordà, Moritz Schularick et Alan Taylor (2013). Par exemple, le PIB chute de 30 % à 50 % de plus au cours d’une récession synchrone à une crise financière par rapport à une récession normale (Paul, 2019). Une explication potentielle est que l’accès au crédit se restreint autour du début de la crise qui affecte l’activité économique, comme le montre le graphique.

Les déclencheurs ultimes des crises peuvent être relativement petits. Même si la production chute fortement lors d’une crise, ce n’est peut-être pas en raison d’un large choc qui aurait touché l’économie. Par exemple, Gorton et Ordonez (2014) estiment que les pertes sur les titres adossées sur crédit hypothécaire lors de la crise financière de 2007-2009 (…) étaient en fait assez modestes. Le système financier américain a peut-être avoir été particulièrement vulnérable à de petits chocs autour de 2007, donc un déclencheur similaire à une autre période aurait pu ne pas entraîner une perturbation aussi importante dans le système financier.

Pour résumer, les crises financières présentent les caractéristiques suivantes : elles sont des événements rares qui sont typiquement précédés par une accumulation du crédit, sont associés à de plus fortes récessions qu’à la normale et ne sont pas nécessairement déclenchées par de larges chocs. Ces faits empiriques posent des défis aux modèles macroéconomiques. Pourquoi la fragilité financière apparaît-elle durant les bonnes périodes, lorsque le crédit s’accroît ? De plus, quel mécanisme de propagation transforme des chocs qui ne sont pas particulièrement larges en de sévères événements macroéconomiques ? (…) »

Pascal Paul, « Modeling financial crises », Federal Reserve Bank of San Francisco, Economic Letter, n° 2019-08, mars 2019. Traduit par Martin Anota



aller plus loin...

« Anatomie des booms du crédit »

« Quels liens entre crédit, instabilité financière et macroéconomie ? »

mardi 3 avril 2018

Le discours présidentiel de Friedman, 50 ans après

« En mars 1968, l’article “The role of monetary policy” de Milton Friedman (reprenant son allocution présidentielle à l’American Economic Association) a été publié dans l’American Economic Review.. Cinquante ans après, les économistes se penchent à nouveau sur ce célèbre article.

Gregory Mankiw et Ricardo Reis soulignent que les anticipations, le long terme, la courbe de Phillips et les potentiel et limites de la politique monétaire sont toujours des sujets de recherche très actifs. Dans un futur proche, il se pourrait que la faible croissance économique que l’on a connue depuis la récession de 2008-2009 amène à un réexamen de l’hypothèse du taux de chômage naturel de Friedman. A ce point, l’explication la plus simple est que cette stagnation est due à un ralentissement de la productivité qui n’est pas lié au cycle d’affaires. Il se peut aussi, cependant, que cette faible croissance contredise la vision classique du long terme de Friedman, que ce soit via les effets d’hystérèse ou via l’insuffisance chronique de demande globale. De futurs travaux peuvent très bien confirmer la vision de Friedman et se tourner vers la formation des anticipations pour une meilleure compréhension de la courbe de Phillips, visant à un meilleur modèle de référence de ce qui pourrait remplacer tant les anticipations adaptatives que les anticipations rationnelles. Mankiw et Reis affirment que le rôle de la politique monétaire évolue actuellement et s’est éloigné des sujets que Friedman a développés dans son allocution présidentielle. L’avenir promet des progrès dans quatre domaines : l’interaction entre les politiques budgétaire et monétaire, le rôle des réserves bancaires, les taux d’intérêt proches de zéro et la stabilité financière.

Olivier Blanchard s’est demandé si nous devons rejeter l’hypothèse de taux de chômage naturel. L’hypothèse a certes été controversée à l’époque, mais elle a vite été acceptée par une majorité et constitue le paradigme dominant en macroéconomie depuis lors. Elle est partie intégrante dans la réflexion et les modèles utilisés par les banques centrales et elle fonde le cadre du ciblage d’inflation qu’utilisent la plupart des banques centrales aujourd’hui. Récemment, la crise financière mondiale et la récession qui en a résulté ont alimenté les débats autour du réalisme de cette hypothèse, et ce pour deux raisons. Premièrement, le niveau de la production apparaît avoir été irrévocablement affecté par la crise et la récession qui l’a suivie. Deuxièmement, à l’inverse de l’hypothèse accélérationniste, un chômage élevé n’entraîne pas une inflation de plus en plus faible, mais juste une inflation faible. Blanchard considère les preuves macroéconomiques et microéconomiques comme suggestives, mais pas concluantes, pour rejeter l’hypothèse du taux naturel. Les décideurs politiques doivent garder l’hypothèse de taux naturel comme leur hypothèse nulle, mais aussi garder l’esprit ouvert et considérer des alternatives.

Robert Hall et Thomas Sargent affirment que l’effet de court terme de l’allocution a été d’inciter beaucoup à vérifier l’affirmation de Friedman selon laquelle non seulement l’inflation anticipée importe pour l’inflation courante, elle importe aussi point par point dans la détermination de l’inflation courante. Dans la version alors existante de la courbe de Phillips, comme Friedman l’a souligné, la courbe de Phillips de long terme est devenue verticale et le taux de chômage (…) reste insensible aux choix de la banque centrale en matière d’inflation. A plus long terme, l’hypothèse de Friedman d’un déplacement point par point de la courbe de Phillips a été acceptée par de plus en plus d’économistes. L’idée plus générale que les variables réelles telles que le chômage, l’emploi et la production sont insensibles au régime monétaire commença à être acceptée et cette idée s’est généralisée au point de remplacer le concept de neutralité monétaire. Hall et Sargent croient que le principal message de Friedman, en l’occurrence l’hypothèse d’invariance à propos des résultats de long terme, a prévalu au cours du dernier demi-siècle parce qu’elle était confortée par des preuves relatives à plusieurs économies sur plusieurs années. Les travaux ultérieurs ont modifié les idées de Friedman relatives aux effets transitoires et n’ont pas été cléments avec la courbe de Phillips, mais Hall et Sargent affirment que l’hypothèse d’invariance a tenu bien, même si la courbe de Phillips n’a gardé la même place en tant qu’équation structurelle dans les modèles macroéconomiques.

John Cochrane a publié un long billet discutant de la contribution de Friedman, qui selon lui aurait pu avoir pour sous-titre « neutralité et non-neutralité » : la politique monétaire est neutre à long terme, mais pas à court terme. Mais ce que Friedman, l’empiriste, aurait dit aujourd’hui, après avoir vu le comportement sauvage de la vélocité de la monnaie lors des années 1980 et la stabilité surprenant de l’inflation à la borne zéro dans nos rétroviseurs ? Que penserait-il de l’idée de John Taylor selon laquelle varier les taux d’intérêt plus amplement que l’inflation, tout en restant dans le cadre qu’il posa, stabilise le niveau des prix en théorie et, apparemment, dans la pratique des années 1980 ? Cochrane pense que, malgré les événements ultérieurs, la conception de Friedman de la politique monétaire a eu une influence durable, même bien davantage que sa conception de la courbe de Phillips. L’idée selon laquelle les banques centrales sont toutes-puissantes, non seulement pour contrôler l’inflation, mais aussi en tant que principal instrument de gestion macroéconomique, est commune aujourd’hui, mais Friedman nous rappelle qu’elle ne l’a pas toujours été. Aujourd’hui, la Fed est créditée ou accusée d’être la principale cause derrière les variations des taux d’intérêt à long terme, des taux de change, des cours boursiers, des prix des matières premières et des prix de l’immobilier ; en outre, certains à l’intérieur et à l’extérieur de la Fed commencent à observer le taux d’activité, les inégalités et d’autres maux. (…) Cochrane pense que nous devrions prendre du recul et prendre comprendre que la Fed est bien moins puissante que ne le suggèrent tous ces commentaires.

Edward Nelson discute de sept erreurs commises à propos de l’article de Friedman : (1) "The Role of Monetary Policy" n’aurait pas été la première déclaration publique où Friedman a évoqué l’hypothèse du taux naturel ; (2) la courbe de Phillips à la Friedman-Phelps aurait déjà été présente dans l’analyse de Samuelson et Solow (1960) ; (3) la spécification de la courbe de Phillips de Friedman se baserait sur la concurrence parfaite et non sur les rigidités nominales ; (4) Le récit que Friedman (1968) a fait de la politique monétaire lors de la Grande Dépression contredirait celui de l’Histoire monétaire ; (5) Friedman (1968) aurait déclaré qu’une expansion monétaire maintiendrait le taux de chômage et le taux d’intérêt réel sous leurs taux naturels au cours des deux décennies suivantes ; (6) la borne inférieure zéro sur les taux d’intérêt nominaux invaliderait l’hypothèse de taux naturel ; (7) ce qu’a dit Friedman (1968) sur l’ancrage du taux d’intérêt aurait été réfuté par la révolution des anticipations rationnelles. Nelson explique pourquoi ces idées sont fausses et infère les aspects clés de l’analyse sous-jacente de Friedman (1968).

Scott Sumner attire l’attention sur la deuxième note de base de page dans l’article de Friedman de 1968, où il croit y voir Friedman anticiper les raisons pour lesquelles les cibles d’inflation ou du PIB nominal peuvent être supérieurs au ciblage de la monnaie. Sumner a publié un autre billet où il explique pourquoi remplacer le ciblage d’inflation par le ciblage du PIB nominal résoudrait de nombreux problèmes. La relation empirique que Friedman s’est rompue une décennie après la publication de son article : les récessions n’ont plus été précédées par des ralentissements brutaux de la croissance de M2. Sumner affirme que la rupture dans la relation empirique qui a amené Friedman à préconiser le ciblage de l’offre de monnaie contribue à expliquer pourquoi, plus tard dans sa vie, il a soutenu l’approche du ciblage d’inflation de Greenspan : Friedman était un pragmatique, donc lorsque les faits changeaient, il changeait d’avis.

David Glasner note que l’interprétation standard du raisonnement de Friedman est la suivante : puisque les tentatives visant à accroître la production et l’emploi par l’expansion monétaire sont vaines, la meilleure politique qu’une autorité monétaire doit poursuivre doit être une politique stable et prévisible qui maintient l’économie au plus proche de sa trajectoire de croissance optimale à long terme telle qu’elle est déterminée par des facteurs réels. Donc, la meilleure politique consisterait à trouver une règle claire et prévisible pour imposer aux autorités monétaires le comportement qu’elles doivent adopter, pour empêcher qu’une mauvaise gestion monétaire ne devienne par inadvertance une force déstabilisatrice écartant l’économie de sa trajectoire de croissance optimale. Au cours des cinquante ans qui ont suivi l’allocution de Friedman, ce message a été repris par les économistes monétaires et les banques centrales, ce qui a amené à un large consensus en faveur du ciblage d’inflation et, désormais, d’une cible d’inflation annuelle de 2 %. Mais cette interprétation, que Friedman a lui-même fait de son propre raisonnement, ne découle en fait pas de l’idée selon laquelle l’expansion monétaire ne peut affecter la trajectoire de croissance d’équilibre à long terme d’une économie. L’idée de la neutralité monétaire est un pur exercice de statique comparative, qui nous enseigne quelque chose, mais pas autant que Friedman et ses successeurs le pensaient. »

Silvia Merler, « Milton Friedman’s "The role of monetary policy" – 50 years later », in Bruegel (blog), 3 avril 2018. Traduit par Martin Anota



aller plus loin...

« Quel est l’héritage du discours présidentiel de Friedman ? »

« Le taux de chômage naturel, un concept suranné »

- page 1 de 11