Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Silvia Merler

Fil des billets

jeudi 18 octobre 2018

La croissance et l’environnement au menu du prix Nobel d’économie 2018

« Le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel a été attribué cette année à William Nordhaus et à Paul Romer pour avoir intégré le changement climatique et l’innovation technologique à l’analyse macroéconomie de long terme. Nous passons en revue les réactions de plusieurs économistes à cette annonce.

Sur VoxEU, Kevin Bryan a évoqué comment les lauréats du prix Nobel d’économie de cette année ont élaboré leurs contributions et comment ces dernières sont liées entre elles. Cela faisait plusieurs années que l’on s’attendait à ce que Nordhaus et Romer reçoivent cette récompense, mais c’est le fait qu’ils l’aient reçue en même temps qui a surpris : Nordhaus est surtout connu pour ses travaux en économie environnementale et Romer pour sa théorie de la croissance endogène. Mais après réflexion, les liens entre leurs travaux apparaissent évidents.

Avec Romer, nous avons un modèle d’équilibre général pour réfléchir aux raisons pour lesquelles les gens produisent de nouvelles technologies. La connexion avec Nordhaus se fait avec un problème qui est à la fois provoqué et résolu par la croissance. La croissance en tant qu’objectif de politique économique n’était pas remise en cause dans les années soixante, mais au début des années soixante-dix les inquiétudes environnementales font leur apparition. Les « modèles d’évaluation intégrés » ont de l’épargne endogène à la Solow et précisent l’arbitrage entre croissance économique et changement climatique, mais met aussi en évidence l’importance critique du taux d’escompte social et des micro-estimations du coût d’ajustement au changement climatique. (…)

Martin Sandbu affirme qu’au cours de notre existence, les changements technologique et environnemental ont transformé la façon par laquelle nos économies fonctionnent. La prochaine fois que nous nous émerveillerons à propos de notre application de smartphone favorite ou que nous nous inquiéterons de la plus grande fréquence des intempéries, affirme Sandbu, nous devrons avoir une pensée pour Romer et Nordhaus. Grâce à eux, nous sommes mieux armés pour trouver les bonnes politiques pour traiter avec la question de l’innovation ou du changement climatique. Ils méritent leur prix.

Peter Dorman a voulu parler d’une personne qui n’a pas reçu le prix Nobel et dont l’absence de consécration est lourde de signification. Nordhaus a passé plusieurs années à débattre avec Martin Weitzman, qui rejetait l’approche en termes de coût social du carbone au motif qu’une bonne politique doit se baser sur le principe d’assurance visant à éviter le pire scénario. Son "théorème lugubre" démontre que, sous certaines hypothèses, la probabilité d’événements extrêmes ne baisse pas aussi rapidement que s’élève de catastrophe augmente, si bien que leur coût attend s’accroît sans limite ; et cela s’applique aux scénarii du changement climatique.

Les travaux de Weitzman sont souvent invoqués par ceux qui croient qu’une action plus agressive est nécessaire pour limiter le réchauffement climatique. Par conséquent, quand les économistes spéculaient sur l’identité du prochain lauréat du prix Nobel et considéraient l’hypothèse d’une attribution de la récompense à Nordhaus, ils pensaient que Weitzman serait son colistier. Selon Dormans, le combo Nordhaus-Romer est si artificiel et si peu convaincant qu’il est difficile de penser que le prix qui n’a pas été attribué à Weitzman est aussi important que celui qui a été attribué à Nordhaus et qu’il s’agit clairement d’un message politique sur la bonne façon de gérer le changement climatique et la mauvaise façon de gérer le changement climatique.

Timothy Terrell n’est pas du même avis. Il pense que le comité Nobel a promu la réglementation environnementale avec son dernier choix. Les deux lauréats appellent à un plus grand rôle pour l’Etat : Romer lorsqu’il suggère que le gouvernement doit investir dans la recherche-développement et utiliser la réglementation des brevets pour stimuler la croissance économique ; Nordhaus lorsqu’il indique que le gouvernement doit agir pour empêcher un changement climatique pernicieux. (…)

David Warsh affirme que Nordhaus et Romer ont beau avoir travaillé sur des problèmes apparemment différents et n’ont que rarement été cités ensemble, leurs travaux se combinent pour donner lieu à un argument convaincant. En s’efforçant de modéliser le plus finement possible l’interaction entre la présence de carbone dans l’atmosphère, le changement climatique et la croissance économique, Nordhaus a rendu possible l’estimation des dommages provoqués par la hausse des températures. Une taxe carbone (que Nordhaus et bien d’autres économistes considèrent comme préférable au système de marchés de droits à polluer comme celui de l’Accord de Paris) peut empêcher les dommages les plus sérieux : elle doit tout d’abord être fixée à un faible niveau pour ensuite augmenter et ce tant qu’il le faut pour contenir les dommages. Romer, de son côté, a créé un cadre analytique dans lequel l’anticipation d’une telle taxe conduit à une vague d’innovations qui permettraient de réduire les émissions de carbone. (…)

Noah Smith écrit que, en plus d’honorer deux chercheurs dont les contributions ont profondément influencé leur champ respectif, la récompense fait écho à quelque chose dont le monde commence à manquer, en l’occurrence la croissance économique. Dans la mesure où la croissance ralentit et où la productivité stagne dans le monde riche, les intuitions de Romer sont plus importantes que jamais. »

Silvia Merler, « The 2018 Nobel prize: Growth and the environment », in Bruegel (blog), 15 octobre 2018. Traduit par Martin Anota



aller plus loin... lire le résumé des travaux de Nordhaus et Romer par l'Académie des sciences de Suède et la synthèse d'Alexandre Delaigue

lundi 10 septembre 2018

Dix ans après Lehman Brothers

« Dix ans après la faillite qui a ébranlé l’économie mondiale, nous passons en revue ce que les économistes pensent des leçons qui ont été tirées de la crise financière mondiale.

Adam Tooze a écrit un nouveau livre, épais de 700 pages, sur l’histoire financière et économique de la dernière décennie judicieusement appelé Crashed. Le livre porte sur quatre grands thèmes : la réponse adoptée immédiatement suite à la crise, la crise de la zone euro, la généralisation de l’austérité budgétaire dans les pays développés après 2010 et enfin l’essor des mouvements populistes en Europe et aux Etats-Unis. Vous pouvez trouver une recension du livre dans The Economist et Tooze publie sur son blog de nombreux billets où il revient sur des thèmes qu’il aborde dans son livre.

Christine Lagarde nous dit sur le blog du FMI que l’anniversaire nous donne l’occasion d’évaluer la réponse apportée à la crise au cours de la dernière décennie. Lagarde dit que nous avons fait un long chemin, mais qu’il n’est pas encore terminé : le système est plus sûr, mais pas assez sûr ; et la croissance a rebondi, mais elle n’est pas assez partagée. Pour compliquer les choses, le paysage de l’économie politique a changé, avec un moindre engagement à la coopération internationale. Trop de banques, en particulier en Europe, restent fragiles et le capital bancaire doit probablement s’accroître davantage.

La culture, les valeurs et l’éthique n’ont pas beaucoup changé, dans la mesure où le secteur financier continue de donner la priorité au profit immédiat plutôt qu’à la prudence, au court-terme plutôt qu’à la soutenabilité. Dans ce contexte, Lagarde pense qu’une réforme clé pourrait consister à introduire davantage de commandement féminin en finance, pour deux raisons. D’une part, une plus grande diversité permet d’élargir la réflexion et d’éviter la pensée unique. D’autre part, cette diversité se traduira par davantage de prudence, avec moins de décisions imprudentes comme celles qui ont été à l’origine de la crise. S’il y avait eu davantage de Lehman Sisters et moins de Lehman Brothers, le monde aurait été bien différent aujourd’hui.

Martin Wolf dit que, depuis la crise, les politiques et décideurs de politique économique ont essayé de nous ramener vers le passé plutôt que vers un avenir différent. Pour être plus précis, ils ont essayé de revenir à un meilleur passé, de la même façon qu’ils avaient cherché à le faire en 1918. En 1918, ils voulaient principalement revenir à un meilleur passé en matière de relations internationales ; après la crise de 2008, ils ont voulu revenir à une meilleure version du passé en matière de réglementation financière. Dans les deux cas, il s’agissait de laisser le reste inchangé. Le principal objectif de la politique économique au lendemain de la crise était de procéder à un sauvetage : stabiliser le système financier et restaurer la demande globale. Un tel sauvetage consistait à utiliser les bilans publics pour contenir l’effondrement du système financier, à réduire les taux d’intérêt, à laisser les déficits budgétaires s’accroître à court terme tout en limitant l’expansion budgétaire discrétionnaire et à introduire de nouvelles réglementations financières complexes.

A la différence des années trente, cela empêcha l’effondrement de l’économie et permis une reprise (fragile). La crise financière marque un échec dévastateur du libre marché suite au creusement des inégalités dans plusieurs pays. Pourtant, contrairement à ce qui s’est passé dans les années soixante-dix, les décideurs de politique économique ont peu questionné les rôles respectifs des gouvernements et des marchés. Il est peu surprenant que les populistes soient si populaires, au vu de cette inertie, une inertie que Wolf explique davantage par la puissance de certains intérêts privés que par l’absence de nouvelles idées.

Harold James écrit que la crise financière de 2008 a nourri trois grands récits chez les responsables de la politique économique et les faiseurs d’opinion. Premièrement, après Lehman, l’Histoire mondiale de la spéculation financière, le livre que Charles Kindleberger publia en 1978 en s’appuyant sur les travaux de Hyman Minsky sur les cycles financiers, a connu un regain de popularité et il a été interprété comme une mise en garde contre "fondamentalisme du marché". Le deuxième récit considère que la chute de Lehman fait écho au krach de Wall Street de 1929 et à la Grande Dépression. Le troisième récit était que l’effondrement de Lehman augurait la fin du capitalisme américain. Aucun des deux premiers récits n’est vraiment correct. La crise ne fut pas un échec de marché, mais plutôt le produit d’institutions non marchandes opaques et dysfonctionnelles qui se sont perversement de plus en plus enchevêtrées. Elle a révélé le problème de la complexité et non des marchés en tant que tels.

Le troisième récit s’est révélé exact : la prédominance financière et politique des Etats-Unis s’est effritée. Elle se fondait sur la puissance économique et politique, mais elle dépendait aussi de quelque chose de plus fondamental : la croyance en la capacité des Etats-Unis à honorer ses promesses à long terme. La crise a ébranlé cette croyance, même si la puissance économique et politique des Etats-Unis n’a que légèrement diminué. La contagion la plus profonde était intellectuelle, pas financière. Le comportement financier ne s’opère pas dans le vide et le même genre d’esprit court-termiste et hyperactif qui a conduit à Lehman s’enracinait aussi à l’époque dans le reste de la société.

Howard Davies se demande si la crise financière a été utile. Il y a eu des changements significatifs : les plus grandes banques ont maintenant trois à quatre fois plus de capital et du capital de meilleure qualité, qu’elles n’en avaient en 2007 ; des tampons supplémentaires sont exigés des institutions systémiques ; la gestion du risque a été grandement renforcée ; et les pouvoirs d’intervention des régulateurs sont bien plus robustes. Le soutien politique en faveur d’un resserrement de la réglementation reste également fort, enfin, partout sauf aux Etats-Unis. Il y a un domaine, cependant, où peu de choses ont progressé : alors que la réglementation financière s’est matériellement renforcée depuis la crise de 2008, sa mise en œuvre reste entre les maints d’un patchwork d’agences nationales. La diversité structurelle des réformes d’après-crise qui en résultent ne contribue pas à assurer de la cohérence dans la mise en place de normes mondiales.

Philip Stephens écrit dans le Financial Times que l’héritage de la crise financière mondiale peut avoir été une ré-imagination de l’économie de marché. Mais le processus impulsé par l’effondrement de Lehman Brothers en septembre 2008 a produit deux grands perdants : la démocratie libérale et l’ouverture des frontières. Les coupables (qui incluent les banquiers, les banquiers centraux, les régulateurs, les politiciens et les économistes) se sont dédouanés de toute responsabilité et, malgré, les réformes réglementaires, la vie a repris son cours habituel à Wall Street et à la City de Londres. Le monde a certainement changé, mais pas d’une façon ordonnée, structurée qui aurait marqué une réforme intelligente.

Après une décennie de stagnation des revenus et d’austérité budgétaire, personne ne peut se dire surpris de voir que ceux qui ont été les plus affectés par les répercussions économiques du krach ont rejeté les élites en soutenant des populistes. Stephens pense que les historiens vont finir par décrire l’année 2008 comme l’instant où les nations les plus puissantes du monde ont renoncé à leur leadership international et où la mondialisation s’est inversée. Le reste du monde a naturellement tiré comme conclusion qu’il avait peu de choses à apprendre de l’Occident. Beaucoup pensaient à l’époque que l’effondrement du communisme présagerait d’une hégémonie permanente de démocraties ouvertes, libérales. En fait, ce qui va vraiment intriguer les historiens, c’est le fait que l’ancien régime ait été si complaisant (ou complice, plutôt) face à sa propre destruction. »

Silvia Merler, « Lehman Brothers: 10 Years After », in Bruegel (blog), 10 septembre 2018. Traduit par Martin Anota__

mardi 28 août 2018

La crise turque

« Les marchés financiers ont été très nerveux à propos de la Turquie ces dernières semaines. Nous passons en revue les opinions des économistes à propos des risques économiques, politiques et géopolitiques et les opportunités de cette situation.

Jamie Powell et Colby Smith écrivent (…) que la crise turque ressemble à l’un de ces classiques effondrements que connaissent les pays émergents : une économie en forte croissance financée par une dette de court terme libellée en dollar et dirigée par un homme fort ayant un penchant pour nommer des proches dans les positions clés du gouvernement. Ainsi, cela rappelle la crise asiatique de 1997 et 1998 (…).

Brad Setser pense que la Turquie partage certes certaines similarités avec les pays qui ont subi la crise asiatique dans les années quatre-vingt-dix, mais qu’il y a aussi d’importantes différences. Les banques turques sont la principale raison pour laquelle la crise de change peut se transformer une crise de financement, en laissant la Turquie sans réserves suffisantes pour éviter un défaut majeur. Mais, à la différence des banques asiatiques, la Turquie a été capable d’utiliser le financement externe en devises étrangères pour soutenir un boom domestique en prêtant des lires aux ménages. Les banques turques n’ont vraiment pas besoin d’emprunter en devises étrangères auprès du reste du monde pour soutenir le niveau actuel de leurs prêts en devises étrangères aux entreprises turques et leur besoin apparent de financement de marché est en lires, non en dollars. En outre, le boom réel du crédit n’est pas venu du prêt en devises étrangères aux entreprises, mais plutôt des prêts en lire aux ménages. Le mystère financier (que Setser va ensuite expliquer) n’est pas de savoir comment les banques ont prêté des devises étrangères aux entreprises domestiques, mais comment elles ont utilisé l’emprunt externe en devises étrangères pour soutenir un prêt domestique en lires.

GRAPHIQUE Dette externe de la Turquie (en milliards de dollars)

Brad_Setser__Dette_externe_de_la_Turquie.png

source : Brad Setser (2018)

Jacob Funk Kirkegaard écrit que les développements économiques poussent inévitablement la Turquie à s’approcher du FMI pour son deuxième renflouement depuis le début du siècle. Les difficultés fondamentales de la Turquie dérivent des déficits jumeaux qu’elle a creusés ces dernières années. Ce qui aggrave les problèmes de la Turquie, ce sont diverses difficultés politiques liées à sa relation avec l’OTAN, l’UE et les Etats-Unis, comme le pays n’a jamais été aussi isolé sur le plan international au cours de ces dernières décennies qu’aujourd’hui. La route pointe donc vers le FMI, mais le Fonds risque de ne pas vouloir aider la Turquie sans que celle-ci adopte en contrepartie des sévères mesures d’austérité, des mesures qui risquent d’affaiblir la mainmise d’Erdogan sur le pouvoir. Mais Erdogan a un certain levier politique potentiel (assez déplaisant), comme une imminente attaque imminente du gouvernement syrien juste au sud de la frontière turque pourrait facilement amorcer un afflux de réfugiés au nord de la Syrie. La décision de la Turquie d’ouvrir ou non ses frontières et d’offrir un refuge aux Syriens pourrait bien dépendre (…) de l’aide économique de l’Occident ou des termes d’un plan de sauvetage du FMI.

Grégory Claeys et Guntram Wolff ne sont pas d’accord à cette idée et affirment qu’une correction des politiques macroéconomiques de la Turquie est nécessaire, mais qu’il est trop tôt pour dire si la Turquie aura besoin d’un programme de sauvetage. Les décideurs européens doivent cependant réfléchir sur ce que doit être la position de l’UE à l’égard de la Turquie. Une crise financière dans un pays voisin de l’UE peut avoir un impact négatif direct sur l’économie de l’UE, principalement via l’exposition de ses banques opérant en Turquie et via le commerce. En outre, une crise en Turquie peut déclencher de possibles effets domino politiques et des changements conséquents dans la politique migratoire de la Turquie, sans mentionner des menaces géopolitiques. Si un programme du FMI était infaisable et si les pays de l’UE en venaient à la conclusion qu’il est dans leur intérêt d’éviter une escalade de la crise turque, l’UE pourrait essayer d’organiser un plan de soutien financier via son programme d’assistance macrofinancière réservé aux pays partenaires hors de l’UE. Mais dans ce cas, l’UE doit décider si un tel instrument doit être utilisé pour obtenir des avancées en matière de valeurs démocratiques ou si l’UE doit avoir une approche plus fonctionnelle et limiter la conditionnalité sur des politiques macro-structurelles spécifiques. (…)

Jim O’Neill estime que la Turquie doit maintenant fortement resserrer sa politique monétaire, réduire l’emprunt étranger et se préparer à l’éventualité d’une sévère récession, durant laquelle l’épargne domestique ne se reconstituera que lentement. Parmi les puissances régionales, la Russie est parfois mentionnée comme possible sauveteur. Alors qu’il n’y a aucun doute que Vladimir Poutine aimerait utiliser la crise turque pour éloigner davantage la Turquie de ses alliés de l’OTAN, Erdogan et ses conseillers se tromperaient s’ils pensaient que la Russie puisse combler le vide financier de la Turquie : une intervention du Kremlin aurait peu d’effet sur la Turquie et exacerberait les défis économiques de la Russie.

José Antonio Ocampo affirme plutôt que les schémas durables dans les pays émergents peuvent ne plus s’appliquer. Au pic des turbulences turques, dans la semaine entre le 8 et le 15 août, les devises de l’Argentine, de l’Afrique du Sud et de la Turquie se sont dépréciées de 8 % à 14 % vis-à-vis du dollar américain. Pourtant les devises des autres pays émergents ne se sont pas dépréciées de plus de 4 %. Cela suggère que la contagion ne se fait pas aussi facilement que par le passé et lue des arrêts brusques (sudden stops) sont peut-être moins probables que par le passé. Même les économies les plus affectées étaient capables de limiter les effets de la chute de leur devise. Cela semble refléter une nouvelle résilience face à la contagion qui s’est formée au cours des dix dernières années, voire plus. Mais cela ne signifie pas que les économies émergentes sont immunisées ; au contraire, elles ont de quoi s’inquiéter, notamment avec l’escalade d’une guerre commerciale. Des politiques réfléchies, avec une amélioration globale du filet de sécurité financier de la part du FMI, restent par conséquent de la plus haute importance. (…) »

Silvia Merler, « The Turkish crisis », in Bruegel (blog), 27 juillet 2018. Traduit par Martin Anota



aller plus loin...

« De l’arrêt soudain à la déflation par la dette »

« Comment les pays émergents peuvent-ils gérer l'effondrement des flux de capitaux ? »

« Les hauts et les bas de la croissance turque »

dimanche 22 juillet 2018

L’économie des actifs intangibles

« Les économistes ont discuté des implications de l’essor de l’économie immatérielle en lien avec l’hypothèse de la stagnation séculaire (…). Nous passons en revue les récentes contributions sur le sujet.

Haskel et Westlake affirment que le récent essor de l’économie immatérielle peut jouer un rôle important pour expliquer la stagnation séculaire. Au cours des deux dernières décennies, l’investissement en actifs intangibles a été régulièrement de plus en plus important relativement à l’investissement dans les actifs tangibles : en 2013, pour chaque euro d’investissement dans les actifs tangibles, les principaux pays développés dépensaient 1,1 euro dans les actifs intangibles. D’un point de vue de mesure, les actifs intangibles peuvent être classés en trois grandes catégories : les actifs liés à l’informatique, les propriétés en matière d’innovation et les compétences des entreprises. Les actifs intangibles partagent quatre aspects économiques : leur capacité à être déployés sur une grande échelle sans s’altérer (scalability), la nature irrécouvrable des dépenses qui ont été nécessaires pour les créer (sunkenness), leur tendance à générer des effets de débordement (spillovers) et leur capacité à créer des synergies (spillovers). Haskel et Westlake affirment que, pris ensemble, ces mesures et ces propriétés économiques peuvent nous aider à comprendre la stagnation séculaire.

GRAPHIQUE Investissement dans les actifs tangibles et les actifs intangibles dans les grands pays développés (en % du PIB)

Jonathan_Haskel__Stian_Westlake__investissement_actifs_intangibles_part_PIB.png

Le premier lien entre l’investissement intangible et la stagnation séculaire est, selon Haskel et Westlake, le problème de mesure. Si nous mesurons mal l’investissement, alors l’investissement, le PIB et sa croissance peuvent être sous-évalués. Deuxièmement, puisque les actifs intangibles tendent à générer plus d’effets de débordement, un ralentissement dans la croissance du capital intangible se manifesterait dans les données à travers un ralentissement de la croissance de la productivité globale des facteurs. Troisièmement, les entreprises riches en actifs intangibles se développent fortement, ce qui contribuer à creuser l’écart entre les entreprises les plus efficaces et les moins efficaces. Quatrièmement, la croissance de la productivité globale des facteurs peut être plus lente parce que les actifs intangibles génèrent moins d’effets de débordement qu’ils n’avaient l’habitude de le faire.

Des arguments similaires ont été avancés avant. Par exemple, Caggese et Pérez-Orive ont affirmé que de faibles taux d’intérêt nuisent à la réallocation du capital tout en réduisant la productivité et la production agrégées dans les économies qui dépendent fortement sur le capital intangible. Ils utilisent un modèle dans lequel des entreprises contraintes en termes de crédit peuvent seulement emprunter en utilisant comme collatéraux leurs actifs tangibles et dans lequel il y a un large écart en termes de productivité entre elles. Dans l’économie intense en actifs tangibles avec des entreprises fortement endettées, de faibles taux d’intérêt facilitent l’emprunt et accélèrent les remboursements de dette, tout en réduisant la mauvaise allocation des facteurs et en accroissant la production agrégée. Inversement, une hausse de la part du capital intangible dans la production réduit la capacité d’emprunt et accroît les détentions en liquidités des entreprises, si bien que celles-ci cessent d’être emprunteuses nettes pour devenir créancières nettes. Dans cette économie intense en actifs intangibles, la capacité des entreprises à acheter du capital intangible en utilisant des profits passés est limitée par les faibles taux d’intérêt parce que ces derniers accroissent le prix du capital et ralentissent l’accumulation de l’épargne pour les entreprises. Par conséquent, l’émergence de technologies intangibles peut freiner l’activité, même quand elles remplacent des actifs tangibles moins productifs.

Kiyotaki et Zhang examinent comment la production agrégée et la répartition des revenus interagissent avec l’accumulation de capital intangible au cours du temps et au fil des générations. Dans ce modèle à générations imbriquées, les compétences des dirigeants (le capital intangible), outre celles de la main-d’œuvre, sont essentielles pour la production. De plus, les compétences managériales sont acquises par de jeunes travailleurs quand ils sont formés par des dirigeants âgés sur le tas. Comme la formation est coûteuse, elle devient un investissement dans du capital intangible. Ils montrent que lorsque les jeunes font face à des contraintes de financement, une petite différence dans les dotations initiales entre les jeunes travailleurs se traduit par d’amples inégalités dans l’assignation et l’accumulation d’actifs intangibles. Un choc négatif touchant les dotations peut générer une stagnation durable et un essor dans les inégalités.

Doettling et Perotti affirment que le progrès technique qui améliore la productivité des compétences et du capital intangible peut expliquer l’essentiel des tendances financières à long terme depuis 1980. Comme la création d’actifs intangibles nécessite du capital humain plutôt que des investissements physiques, les entreprises ont moins besoin de financements extérieurs. Comme le capital intangible devient plus productif, les innovateurs gagnent une part croissante du revenu. L’effet d’équilibre général est une chute de la demande de crédit, avec une baisse de l’investissement en actifs tangibles et une baisse des taux d’intérêt. Un autre effet est une stimulation des prix d’actifs et une hausse de la demande de crédit pour financer les achats de logements. Avec la hausse des prix de l’immobilier et le creusement des inégalités, les ménages sont amenés à s’endetter et le risque de défaut de remboursement augmente. Même si les changements démographiques, les flux de capitaux et le commerce contribuent également à générer un excès d’épargne et à modifier la productivité des facteurs, les auteurs croient que seul un fort déplacement technologique vers les actifs intangibles peut expliquer toutes les tendances majeures, notamment la polarisation du revenu et une réallocation du crédit hors des activités productives (…).

Les actifs intangibles soulèvent des questions du côté de la politique. En passant en revue le livre de Haskel et Westlake et en se penchant tout particulièrement sur les quatre caractéristiques des actifs intangibles que les auteurs identifient, Martin Wolf affirme que celles-ci bouleversent le fonctionnement habituel d’une économie de marché, notamment parce que les actifs intangibles sont mobiles et sont donc difficiles à taxer. Cette transformation de l’économie demande, selon Wolf, que soit réexaminée la politique publique autour de cinq questions. Premièrement, les cadres pour la production de la propriété intellectuelle sont plus importants, mais les monopoles en matière de propriété intellectuelle peuvent être coûteux. Deuxièmement, puisque les synergies sont si importantes, les responsables politiques doivent se demander comment les encourager. Troisièmement, il est difficile de financer l’investissement intangible, donc le système financier va devoir changer. Quatrièmement, le fait qu’il soit difficile de s’approprier les gains tirés de l’investissement intangible peut créer un sous-investissement chronique dans une économie de marché et le gouvernement va avoir à jouer un rôle important dans le partage des risques. Enfin, les gouvernements doivent aussi se demander comment s’attaquer aux inégalités créées par les actifs intangibles, notamment dans le sillage de l’essor d’entreprises géantes. (…)

En recensant le même livre, le marxiste Michael Roberts affirme que le titre ("Capitalism without capital") est inapproprié pour décrire l’économie intangible. Pour la théorie marxiste, ce qui importe est la relation exploitrice entre les propriétaires des moyens de production (qu’ils soient tangibles ou non) et les producteurs de valeur (qu’il s’agisse de travailleurs manuels ou "mentaux"). De ce point de vue, le savoir est produit par le travail mental, mais ce n’est en définitive pas différent du travail manuel. Ce qui est important selon Roberts, c’est que les découvertes, généralement faites par des équipes de travailleurs mentaux, sont appropriées par le capital et contrôlés par des brevets, la propriété intellectuelle ou des moyens similaires. La production de savoir est alors dirigée vers le profit. Dans le cadre du capitalisme, l’essor de l’investissement intangible mène donc à un creusement des inégalités entre capitalistes et le contrôle des actifs intangibles par un petit nombre de grandes entreprises peut très bien affaiblir la capacité à trouver de nouvelles idées et à les développer. Par conséquent, les nouveaux secteurs meneurs investissent de plus en plus dans les actifs intangibles, tandis que l’investissement global chute avec la productivité et la profitabilité. Selon Roberts, cela suggère que la loi des profits de Marx n’est pas modifiée, mais intensifiée. (…) » https://thenextrecession.wordpress.com/2017/12/10/capitalism-without-capital-or-capital-without-capitalism/

Silvia Merler, « Economy of Intangibles », in Bruegel (blog), 16 juillet 2018. Traduit par Martin Anota

mercredi 4 juillet 2018

Guerre commerciale : et si la Chine répliquait en vendant ses bons du Trésor américain ?

« La Chine a le plus gros excédent commercial bilatéral vis-à-vis des Etats-Unis, mais elle est aussi la plus grande détentrice de titres publics américains. Alors que la Chine a commencé à contrer les droits de douane américains, les économistes ont discuté de la possibilité que la Chine se débarrasse de ses bons du Trésor américains. Nous passons en revue les récents commentaires à ce sujet. (…)

Brad Setser (…) observe depuis longtemps les évolutions du portefeuille externe de la Chine. Il a notamment estimé ce qui se passerait si la Chine commençait à vendre son portefeuille de bons du Trésor américains. Si elle vendait la totalité des bons du Trésor qu’elle possède, ces ventes représenteraient environ 6 % du PIB américain, ce qui accroîtrait les taux d’intérêt de long terme d’environ 30 points de base. L’impact serait plus important à court terme, mais ensuite les taux américains s’accroitraient (relativement aux taux européens), ce qui pousserait des fonds privés dans le marché américain de titres à revenu fixe. Si les ventes chinoises poussaient les taux de long terme américains à la hausse et déprimeraient l’économie américaine, la Fed ralentirait logiquement le rythme de ses hausses de taux directeurs ou la réduction de son bilan dans le cadre de son "resserrement quantitatif".

En surface, les Etats-Unis semblent vulnérables : le stock de bons du Trésor que le marché doit absorber pour financer le déficit budgétaire croissant des Etats-Unis est énorme et si la Chine commençait à vendre ceux qu’elle possède, le montant de titres américains que les investisseurs non chinois auraient à absorber serait massif. Cependant, Setser, pense que les ventes chinoises seraient d’une certaine façon faciles à contrer, comme la Fed peut ralentir ses hausses de taux et peut répondre aux ventes chinoises en changeant le rythme de sa réduction de bilan. De son côté, le Trésor peut commencer à émettre davantage de titres de court terme au lieu de titre de moyen terme, ce qui compenserait l’impact des ventes de titre de long terme par la Chine (…). De plus, la Fed peut accroître la maturité de ses détentions. Globalement, Setser pense que le gouvernement américain doit davantage s’inquiéter à l’idée que la Chine vende d’autres actifs que des bons du Trésor, parce que les ventes de bons du Trésor sont, en un sens, faciles à contrer.

Martin Sandbu pense que l’analyse de Setser est correcte, mais pas la fin de l’histoire. Si la Chine prenait davantage d’actifs à haut rendement à la place d’obligations à faible rendement ou poursuivait une politique de non-financement de l’économie américaine, alors l’économie américaine devrait payer plus pour financer son déficit de compte courant ou réduire sa position extérieure. Une telle brèche dans le "privilège exorbitant" qui permet aux Etats-Unis de profiter de taux d’emprunt externe faibles pourrait facilement s’auto-renforcer, dans la mesure où d’autres vont demander un rendement plus élevé pour la détention d’actifs américains. Si cela mène à une chute du dollar et à un plus faible déficit, alors cela peut être soutenu et pourrait même être en lien avec ce que Trump voit comme désirable. Cela étant dit, ce gouvernement n’est pas sur le point de resserrer sa ceinture, donc ce serait au secteur privé de le faire via une baisse de l’investissement de la part des entreprises ou une baisse de la consommation de la part des ménages.

Michael Pettis a écrit un long billet dans lequel il affirme que si la Chine menace de répliquer à une action commerciale des Etats-Unis en réduisant ses achats de titres publics américains, non seulement ce serait une menace vide, mais en outre, ce serait exactement ce que Washington voudrait. Pettis passe en revue cinq façons par lesquelles Pékin peut réduire les achats de titres publics américains. Il affirme que certaines d’entre elles ne changeraient rien, ni pour la Chine, ni pour les Etats-Unis ; d’autres ne changeraient rien pour la Chine, mais réduiraient le déficit commercial américain soit en réduisant le chômage américain, soit en réduisant la dette américaine ; et une dernière façon qui réduirait le déficit commercial américain en réduisant le chômage américain ou en réduisant la dette américaine, mais réduirait aussi l’excédent commercial chinois en accroissant le chômage chinois ou en augmentant la dette chinoise. La conclusion de Pettis est qu’en achetant moins de titres publics américains, Pékin laisserait les Etats-Unis dans la même situation ou dans une meilleure situation, mais qu’ainsi la Chine se verrait sa situation rester inchangée ou se dégrader.

Jeffrey Frankel a écrit un billet plus général où il note les raisons pour lesquelles il pense que la Chine ne pliera pas dans la guerre commerciale de Trump. Dans ce billet, il met en lumière le fait que le pays excédentaire est souvent dans une meilleure position parce qu’il a accumulé des créances financières vis-à-vis des pays déficitaires ; dans le cas des détentions chinoises de bons du Trésor américains, les créances représentaient plus de mille milliards de dollars. Si le gouvernement chinois vendait les bons du Trésor, la chute de leur prix nuirait autant à la Chine qu’aux Etats-Unis. Néanmoins, cela n’invalide pas le point. En effet, la Chine n’a pas nécessairement à décider de les vendre. Comme la dette américaine augmente et que les taux d’intérêt américains augmentent (deux tendances qui vont certainement se poursuivre cette année), le conflit commercial pourrait produire des rumeurs que les Chinois arrêtent d’acheter des titres du Trésor américain, ce qui réduire les cours des obligations américaines et accroîtrait leurs taux d’intérêt. (…)

Edward Harrison pense que la Chine ne peut pas utiliser comme levier les bons du Trésor qu’elle possède dans la mesure où, si les Chinois voulaient vraiment utiliser les obligations publiques comme arme, ils devraient soit laisser flotter leur monnaie, soit la réévaluer. Et cela, selon Harrison, ce n’est pas du tout ce qu’ils veulent faire puisqu’une réévaluation réduirait leurs exportations et freinerait leur croissance économique. Il s’attend à ce que le conflit commercial actuelle escalade et que les gens diagnostiquent mal les contraintes, avec pour conséquence que les mauvais diagnostics accroissent au final les conflits et non les diminuent. »

Silvia Merler, « US tariffs and China’s holding of Treasuries », in Bruegel (blog), 2 juillet 2018. Traduit par Martin Anota

mercredi 20 juin 2018

Démographie et croissance à long terme

« Les économistes se sont penchés sur les relations entre démographie et croissance à long terme, dans le contexte de l’hypothèse de la stagnation séculaire. Nous passons en revue les récentes contributions sur ce sujet.

Cooley et Henrikson affirment que les facteurs démographiques ne peuvent pas expliquer entièrement le ralentissement à long terme de la croissance, mais qu’ils y contribuent certainement. Le changement démographique est persistant et prévisible. Dans la plupart des pays développés, l’âge moyen va s’accroître et l’espérance de vie va sûrement s’allonger. Cela peut avoir d’importantes conséquences pour la croissance économique à long terme. Les politiques économiques qui cherchent à atténuer les effets du vieillissement sur la croissance à long terme vont avoir à inciter davantage les ménages à offrir davantage de capital et de travail au cours de leur cycle de vie, en particulier leur offre de travail en fin de vie active.

Dans un entretien en podcast, Hal Varian dit que si la technologie ne peut pas stimuler davantage la productivité, alors nous avons un réel problème. Dans trente ans, la main-d’œuvre mondiale ne ressemblera plus à celle d’aujourd’hui, comme la population en âge de travail dans plusieurs pays, en particulier dans les pays développés, commence à décliner. Alors que certains travailleurs craignent aujourd’hui de perdre leur emploi à cause de la technologie, les économistes se demandent si cette dernière va suffisamment stimuler la productivité pour compenser les effets du vieillissement sur celle-ci ; c’est ce qu’on appelle le "paradoxe de la productivité". Varian pense qu’il y a trois forces à l’œuvre. L’une d’entre elles est le manque d’investissement au sortir de la Grande Récession, comme les entreprises ont été lentes à retrouver leurs niveaux d’investissement d’avant-crise. La deuxième force a été la diffusion de la technologie, l’écart croissant entre certaines des entreprises les plus avancées et les entreprises les moins avancées. Et troisièmement, les indicateurs existants ont du mal à saisir la nouvelle économie. Varian croit que la démographie est importante, en particulier maintenant que les générations du baby boom, qui constituaient l’essentiel de la main-d’œuvre des années soixante-dix aux années quatre-vingt-dix, partent à la retraite, mais vont continuer à consommer.

Ferrero, Gross et Neri pensent que la démographie importe pour la stagnation séculaire et les faibles taux d’intérêt. Ils développent un modèle dynamique de panel pour les pays de la zone euro et réalisent une analyse contrefactuelle du passé en imaginant ce qui se serait passé si les ratios de dépendance avaient été plus favorables entre 2006 et 2015 qu’ils ne l’ont été. De plus, ils présentent aussi une évaluation contrefactuelle des performances futures, en supposant que les ratios de dépendance varient en lien avec les projections assez adverses de la Commission européenne, avec des hypothèses plus favorables pour la période 2016-2025. Dans les deux cas, les projections contrefactuelles suggèrent un rôle économiquement et statistiquement pertinent pour la démographie. Les taux d’intérêt auraient été plus élevés et la croissance économique plus forte sous des hypothèses favorables. En ce qui concerne l’évaluation des performances futures, les taux d’intérêt resteraient à des niveaux relativement faibles sous l’hypothèse que la démographie évolue comme le prévoit la Commission européenne et ne s’accroîtrait visiblement que sous des hypothèses optimistes pour les ratios de dépendance.

L’étude antérieure de Gottfries et Teulings a avancé que la démographie a joué un rôle important dans la réduction des taux d’intérêt. La hausse de l’espérance de vie, qui n’a pas été compensée par une hausse de l’âge de départ à la retraite, a entraîné un accroissement du stock d’épargne. Celui-ci va se traduire par des hausses de prix pour les actifs dont l’offre est fixe (comme l’immobilier) plutôt que par un supplément de capital. Les remèdes potentiels pour absorber l’épargne supplémentaire sont le recul de l’âge de départ à la retraite et une extension des systèmes par répartition. De même, Aksoy, Basso, Grasl et Smith estiment que le vieillissement démographique prévu pour les prochaines décennies devrait grandement contribuer à réduire la croissance de la production et des taux d’intérêt réels dans les pays de l’OCDE.

Mais ce n’est pas une conclusion qui fait consensus. Une étude antérieure de Favero et Galasso affirme que les tendances démographiques en Europe ne soutiennent pas empiriquement l’hypothèse de stagnation séculaire. Leurs données suggèrent que la structure en âge de la population génère moins de croissance à long terme, mais des taux réels positifs. Les politiques pour la croissance deviennent très importantes. Ils évaluent la pertinence de la structure démographique pour le choix entre ajustements macroéconomiques et réformes structurelles et ils montrent que les personnes d’âge intermédiaire et les personnes âgées ont une vision plus négative des réformes, de la compétitivité et de la mondialisation que les jeunes. Leurs résultats suggèrent que les vieux pays (ceux dont les personnes âgées représentent une part importante de la population) doivent davantage se tourner vers les ajustements macroéconomiques, tandis que les jeunes nations soutiennent davantage les réformes structurelles.

Cervellati, Sunde et Zimmermann adoptent une perspective mondiale, de long terme sur les récents débats à propos de la stagnation séculaire, qui se sont jusqu’à présent focalisés sur le court terme. L’analyse est motivée par l’observation des interactions entre dynamique économique et transition démographique qui sont survenues ces 150 dernières années dans le monde développé. Dans la mesure où les taux de croissance élevés par le passé ont en partie résulté de changements singuliers qui se sont produits durant la transition économique et démographique, la croissance est susceptible de s’affaiblir une fois que la transition sera achevée. Parallèlement, une transition similaire est sur la voie dans la plupart des pays en développement, avec de profondes conséquences pour les perspectives de développement dans ces pays, mais aussi pour le développement comparatif mondial. Les preuves empiriques qui sont mises en avant suggèrent que les dynamiques démographiques de long terme ont potentiellement d’importantes implications pour les perspectives d’accumulation du capital humain et physique, l’évolution de la productivité et la question de la stagnation séculaire.

Adair Turner affirme que la tendance baissière du taux de fertilité américain que l’on observe actuellement serait embêtante si une forte croissance et la confiance économique nécessitaient une main-d’œuvre plus importante, mais les études parviennent difficilement à trouver une corrélation entre fécondité et résultats économiques et les Etats-Unis n’ont pas à s’inquiéter. Comme les gens vivent plus longtemps et, en l’occurrence, plus longtemps avec une bonne santé, les âges de départ à la retraite peuvent et doivent être repoussés. Et avec la perspective d’une ample automatisation, qui menace d’entraîner une croissance à faible salaire et d’alimenter les inégalités, une expansion de la population active n’est ni nécessaire, ni bénéfique, et une légère contraction de l’offre de travailleurs peut créer des incitations à améliorer la production et soutenir la croissance du salaire réel. »

Silvia Merler, « Demographics and long run growth », in Bruegel (blog), 18 juin 2018. Traduit par Martin Anota

samedi 9 juin 2018

La crise italienne

« Les élections italiennes ont eu des difficultés à produire un gouvernement. Alors que le pays va vers l’une des plus graves crises constitutionnelles de son histoire, nous passons en revue les récents commentaires que l'on a pu entendre sur ce sujet.

Ferdinando Giugliano note comment le Président italien a été présenté comme un ennemi de la démocratie après avoir refusé d’accepter un eurosceptique comme ministre des Finances, alors que les partis contestataires que sont la Ligue et le M5S (…) ont été salués comme les défenseurs de la volonté du peuple. Plus la querelle dure, plus il paraît manifeste que les populistes se livrent à des manœuvres politiciennes. Les populistes prétendent faire de la politique différemment, mais leurs manœuvres montrent que ce n’est pas le cas. Et celles-ci ne sont pas sans nuire au pays.

Ashoka Mody note dans Bloomberg que le Président Mattarella a sapé l’euro. En rejetant le choix d’une coalition élue par le peuple, il peut très bien avoir déclenché une crise financière d’où il sera difficile de sortir et qui peut mettre en péril tout le projet européen. Sans aucun doute, Savona a été un choix rude : le "plan B" qu’il a proposé dans le cas d’une sortie de la zone euro était irréalisable et alarmant et aurait ainsi très certainement fait du mal à l’Italie. Mais Mody pense qu’au-delà de sa rhétorique absurde, la coalition M5S-Ligue fait certaines propositions sensées et qu’au lieu de donner aux eurosceptiques l’opportunité de composer avec les complexités de l’exercice du pouvoir, Mattarella cherche à établir un autre gouvernement technocratique. En essayant de préserver l’orthodoxie européenne, cela peut déchainer des forces destructrices qui ne peuvent être contrôlées.

Jakob Funk Kirkegaard pense aussi que Mattarella a placé l’Italie sur une trajectoire de confrontation politique aussi bien au niveau domestique qu’avec les marchés financiers et le reste de l’Europe. L’Europe a déjà été sur cette trajectoire par le passé : avec la Grèce à l’été 2015. Mais tout comme le Premier Ministre Alexis Tsipras a indiqué qu’il n’était pas contre l’euro lors du référendum du 5 juillet 2015 qui a demandé au peuple si la Grèce devait accepter les conditions du renflouement par la Troïka, aujourd’hui les dirigeants des deux principaux partis italiens, Matteo Salvini de la Ligue et Louigi Di Maio du M5S, vont certainement dire qu’ils ne s’opposent pas au maintien de l’Italie dans la zone euro. Ils vont probablement lancer une autre compagne électorale en Italie pour savoir si l’Italie doit "tenir tête à l’Allemagne et à Bruxelles" pour étendre la souveraineté de l’Italie et sa capacité à décider de ses propres affaires budgétaires et économiques. Une autre victoire pour les deux partis serait dangereuse et elle serait interprétée dans le reste de la zone euro comme signalant que "les Italiens veulent partir" de la zone euro, tout comme ce fut le cas de la Grèce après le référendum de juillet 2015. La meilleure chose pour l’Allemagne, l’Italie et l’Europe serait qu’en juin les dirigeants européens acceptent d’accroître communément le contrôle aux frontières européennes et l’acceptation des réfugiés en consacrant plus de ressources à cette question qui préoccupe tant en Italie et dans le reste du continent.

Jean Pisani-Ferry pense que Mattarella a tracé une ligne séparant les choix constitutionnels des choix politiques. Dans sa logique, les décisions politiques peuvent être prises librement par un gouvernement réunissant une majorité parlementaire et le Président n’a pas le droit de remettre en cause de telles décisions. Les choix constitutionnels, à l’inverse, nécessitent un type différent de procédure de prise de décision qui assure que les électeurs soient adéquatement informés des possibles conséquences de leur décision. Cela soulève deux questions. Premièrement, quelles sont exactement les questions constitutionnelles ? En Europe, l’appartenance à l’UE fait partie de la loi fondamentale de plusieurs pays. Deuxièmement, quel type de procédures doit s’appliquer à des choix vraiment constitutionnels ? La plupart des pays n’ont pas d’article dans leur propre constitution qui définisse comment mettre un terme à l’appartenance à l’UE ou à la zone euro. Aussi longtemps que l’appartenance à l’UE et à la zone euro fait l’objet d’un large consensus, ces distinctions n’étaient des questions dignes d’intérêt que pour les experts juridiques. Ce n’est plus le cas et le débat les concernant ne risque pas de s’arrêter prochainement. Il est donc temps de faire de la distinction entre engagements européens authentiquement constitutionnels et ceux qui ne le sont pas une partie explicite de l’ordre politique de nos pays.

Daniel Gros se demande qui a perdu l’Italie. La majorité de la population a aujourd’hui une mauvaise opinion de l’UE, ce qui constitue un renversement complet par rapport au début de l’euro, quand le pays voyait la nouvelle devise comme un remède pour ses propres problèmes économiques, en l’occurrence une forte inflation (et des taux d’intérêt élevés). Les politiciens populistes affirment que les règles du Pacte de Stabilité et de Croissance ne leur permettent pas de stimuler la demande et l’emploi. Mais cela ne démontre pas que l’appartenance à la zone euro explique les mauvaises performances économiques de l’Italie : l’Espagne, le Portugal et l’Irlande, qui ont aussi dû réduire leurs déficits dans l’adversité, connaissent une plus forte reprise que l’Italie. Gros en conclut que les racines de la crise actuelle sont domestiques ; elles ont peu à voir avec les règles budgétaire ou l’absence de partage des risques au niveau européen. La faible croissance de l’Italie depuis le tournant du siècle ne s’explique pas par l’investissement, l’éducation ou des indicateurs de libéralisation des marches ; le seul domaine dans lequel la performance relative de l’Italie s’est détériorée depuis 1999-2000 est la qualité dans la gouvernance du pays. L’euro est devenu un bouc-émissaire et cela fait obstacle aux réformes nécessaires. (...)

Harold James écrit dans Project Syndicate que la colation M5S-Ligue joue la stratégie du fou. Cette dernière repose tout d’abord sur la capacité de générer une incertitude suffisamment forte pour nuire aux autres pays. Deuxièmement, son gouvernement doit être capable de convaincre tout le monde que ce sont les électeurs qui l'appellent à prendre des décisions "folles". Dans le cas de l’Italie, les populistes ont capitalisé sur le désenchantement des électeurs envers un parti de centre-gauche dont l’orientation pro-européenne a échoué à délivrer des résultats. Troisièmement, il doit y avoir une division claire entre les "faucons" et les "colombes" dans le gouvernement du fou. Dans le cas de la coalition M5S-Ligue, un faucon était nécessaire comme contrepoids au président pro-européen Sergio Mattarella. Cela pourquoi les populistes ont choisi Paolo Savona comme Ministre de l’Economie et des Finances. Quand Mattarella a rejeté la nomination, la coalition a quitté les discussions, précipitant la crise actuelle. Finalement, pour réussir, un gouvernement fou doit avoir un plan de guerre plausible pour provoquer une perturbation générale. Par exemple la coalition M5S-Liguea suggéré qu’elle pourrait émettre une devise parallèle, ce qui donna davantage de crédibilité à sa menace de poursuivre une expansion budgétaire en violation des règles de l’UE. Dénoncer les dangers de la stratégie du fou ne suffira pas pour la battre. Les électeurs doivent aussi être convaincus que de meilleures alternatives sont possibles et que l’intégration européenne peut encore sauvegarder leurs intérêts. Au cours des prochains mois, avant que se tiennent les prochaines élections en Italie et les européennes en mai 2019, les dirigeants européens vont avoir du temps (mais pas beaucoup) pour montrer que l’intégration européenne n’est pas synonyme de paralysie politique et de stagnation économique.

Selon Olivier Blanchard, Silvia Merler et Jeromin Zettelmeyer, la composition de la coalition à venir et son accord pour gouverner ne permettent pas d’imaginer une séquence politique qui ne se solde pas par une collision avec les marchés financiers et l’Union européenne. L’ampleur du creusement du déficit qui résulterait de l’adoption des mesures annoncées va probablement violer toutes les règles budgétaires domestiques et européennes et placer la dette publique sur une trajectoire insoutenable. Pour sortir de la trajectoire de collision, il faudrait que soit la Ligue, soit le M5S recule, or il y a peu de chances qu’un des deux partis le fasse volontairement. Par conséquent, un scénario dans lequel le gouvernement corrige la trajectoire avant que la situation s’envenime apparaît improbable. Un scénario dans lequel l’Italie perd l’accès aux marchés, ne parvient pas à négocier avec les autorités européennes et opte pour la sortie de la zone euro est tout à fait imaginable, mais il reste toutefois peu probable, dans la mesure où le gouvernement peut finir par reprendre ses esprits et où il peut faire face à des contraintes constitutionnelles ou politiques. »

Silvia Merler, « The Italian crisis », in Bruegel (blog), 4 juin 2018. Traduit par Martin Anota

samedi 26 mai 2018

La science économique a-t-elle échoué ?

En janvier 2018, la Oxford Review of Economic Policy a publié un numéro édité par David Vines et Samuel Wills qui est dédié au projet de reconstruire la théorie macroéconomique. (…) Le numéro bénéficie notamment des contributions d’Olivier Blanchard, de Simon Wren-Lewis, de Joseph Stiglitz, de Paul Krugman et de Ricardo Reis. Elle a déclenché un débat qui est toujours en cours et que nous allons passer en revue.

Martin Sandbu a affirmé que la science économique peut être plus ouverte sans pour autant perdre en rigueur. L’approche autour de la modélisation DSGE peut être suffisamment assouplie pour qu’elle permette d’élargir l’éventail d’hypothèses à propos des comportements microéconomiques et l’éventail de relations macroéconomiques auxquels ceux-ci donnent lieu. Mais le pluralisme va conduire inévitablement à de nouveaux désaccords sur les hypothèses microéconomiques que l’on peut qualifier d’ad hoc et celles que l’on peut considérer comme fondées. Mais un pluralisme intégré dans un cadre commun est préférable à un "pluralisme par juxtaposition", où des approches méthodologiques fondamentalement différentes ne cherchent absolument pas à dialoguer les unes avec les autres.

Martin Wolf a écrit dans le Financial Times que les véritables tests pour l’économie consistent à savoir si ses adeptes comprennent ce qui peut mal tourner dans l’économie et comment y remédier. Quand la crise financière a éclaté en 2007, elle a surpris une bonne partie de la profession, si bien qu’elle a échoué au premier de ces tests. Elle s’est révélée plus efficace au deuxième test, mais elle nécessite néanmoins d’être reconstruite.

L’analyse de la théorie macroéconomique fondamentale suggère une ignorance substantielle du fonctionnement de nos économies. Nous pouvons ne jamais comprendre comment de tels systèmes complexes fonctionnent vraiment. Cela ne signifie pas qu’il est inutile d’améliorer notre compréhension. Mais, en pratique, il peut être justifié de se focaliser sur deux autres tâches : la première consiste à rendre l’économie plus résistante aux conséquences des euphories et aux paniques ; la seconde consiste à la guérir aussi rapidement que possible. Dans les deux cas, nous devons poursuivre notre réflexion.

Ferdinando Giugliano affirme que nous devons lutter contre la fausse économie. Les critiques auxquels les universitaires ont fait face depuis la crise ont aussi ouvert la porte à des vues économiques alternatives qui ont peu ou aucun de fondement académique. Plusieurs économistes qui colportent des théories hautement non conventionnelles s’en tirent sans aucune forme d’examen. La discipline est bien plus ouverte à une variété de vues que ses critiques le concèdent, mais cela signifie les soumettre à un degré de rigueur pour lequel la plupart de ces dissidents ne sont pas préparés.

Les médias peuvent jouer un meilleur rôle en distinguant entre les théories économiques qui ont été essayées et testés et les spéculations avec peu de fondement académique. Cependant, les économistes orthodoxes doivent aussi en faire beaucoup plus pour défendre leur profession dans le débat public. Ils doivent faire attention à ce que les théories universitaires peuvent et ne peuvent pas dire et, surtout, les économistes orthodoxes doivent continuer d’améliorer leur discipline de façon à regagner la confiance du public.

Peter Doyle est aussi en désaccord avec Martin Wolf. Il pense que les efforts de reconstruction que Wolf salue n’ont, même il y a une décennie, apporté aucun changement substantiel à l’état de savoir de la profession, ni apporté aucune véritable lumière sur la genèse de la crise. Le problème mis en lumière par la crise n’est pas, selon Doyle, que la science doit être reconstruite. Les professionnels qui l’utilisent proprement, bien qu’ils soient peu, ont mis en avant les risques sous-jacents bien en avance, mais ils ont été ignorés (…). En fait, le problème était et est toujours comment la science est utilisée par ceux qui jouent un rôle éminent dans l’arène mondiale. (...)

Lajor Bokros répond à Martin Wolf dans le Financial Times en affirmant que nous ne devrions pas faire porter le blâme sur la science si les politiciens n’apprennent pas. La plus grande erreur est probablement que la macroéconomie orthodoxe ne fasse pas clairement savoir que les crises sont absolument inévitables. La question, par conséquent, n’est alors pas comment empêcher une crise, mais plus modestement : comment ralentir l’accumulation de bulles d’investissement alimentées par une croissance insoutenable du crédit et de la dette et comment atténuer les conséquences négatives économique, financière et sociales après le déclenchement de la crise. C’est là où les gouvernements ont un rôle important à jouer dans l’économie de marché capitaliste et c’est là où plusieurs gouvernements ont échoué misérablement il y a une décennie.

Sur le Financial Times se déroule actuellement un débat sur le sujet, un débat qui a commencé avec une discussion entre Tom Clark et Chris Giles. Tom Clark pense que l’économie a échoué et que l’essentiel du travail des économistes est en vérité simplement de l’arithmétique sociale dans laquelle le raisonnement économique colore un peu (ou par moments déforme) l’interprétation. L’économie contemporaine saisit le monde comme une série de déviations par rapport à une vision irréaliste de marchés omniprésents et parfaits. Le vieux paradigme cadre toujours les prescriptions en matière de politique économique, mais dans un monde de flux, où les fortunes sont façonnées par des processus dynamiques comme l’invention et la guerre, l’économie est entraînée par une quête d’équilibres stables.

Chris Giles pense que l’économie n’a pas échoué et que, aussi longtemps que vous ne vous attendez pas à de la divination, elle se révèle remarquablement efficace. L’économie consiste fondamentalement à étudier comment le monde fonctionne et comment le rendre meilleur. Les bons économistes n’affirment pas être capables de prédire le futur ou répondre à toutes les questions avec précision, mais ils peuvent utiliser une variété d’outils, de données et de théories pour offrir un aperçu et améliorer notre compréhension des choses. L’économie apprend de ses erreurs, bien qu’il y ait beaucoup de mauvaise économie : la pensée aléatoire, que ce soit celle des économistes orthodoxes qui sont accrochés rigidement à une école de pensée et les prétendus hétérodoxes qui font exactement la même chose, mais avec un autre ensemble de théories rigides. (...)

The Economist (…) a publié une série de trois articles critiques. Le premier affirme que plusieurs résultats en microéconomie sont fragiles et qu’à la lumière du fait que l’économie jouisse d’une plus grande influence sur la politique que d’autres sciences sociales, alerter sur les défauts des travaux publiés ne mène pas forcément au nihilisme, mais il serait sage de se montrer sceptique face à tout résultat pris isolément. Un autre article affirme que les économistes comprennent peu les causes de la croissance, alors même que l’économie de la croissance doit être centrale à la discipline, en raison de l’impact que la croissance peut avoir sur les niveaux de vie des gens. Les questions que cela pose sont objectivement difficiles et les réponses reposent davantage dans l’histoire et la politique que dans d’élégantes équations, mais tant que les économistes n’auront pas su donner de meilleures réponses dans ce domaine, ils n’auront pas gagné le droit à la confiance. Le dernier article affirme que les économistes ne parviennent pas non plus à comprendre vraiment les cycles d’affaires et que la macroéconomie doit s’attaquer à ses problèmes méthodologiques si elle espère maintenir son influence et limiter les dommages provoqués par la prochaine crise.

Howard Reed pense que nous devons (…) tout d’abord, (…) accepter l’idée qu’il n’est pas possible d’offrir une analyse de l’économie qui soit détachée de toute valeur. Deuxièmement, l’analyse doit se fonder sur le comportement des êtres humains que nous observons, plutôt que sur ce que l’économie néoclassique considère être le comportement que devrait adopter « un agent économique (ou une entreprise) rationnel ». Troisièmement, nous devons mettre la vie bonne au centre de l’analyse, plutôt que de privilégier les domaines qui sont les plus faciles à analyser via les mathématiques linéaires de la fin du dix-neuvième siècle. Le progrès technique et les relations de pouvoir entre les entreprises, les travailleurs et les gouvernements doivent être au cœur du discours et de la recherche économiques. Enfin, la science économique doit être pluraliste. Au cours du dernier demi-siècle, l’économie néoclassique a graduellement colonisé d’autres sciences sociales comme la sociologie et la science politique. Il est temps que ce processus s’inverse de façon à ce qu’il y ait des échanges dans les deux sens et un échange de connaissance mutuellement bénéfique entre les disciplines.

Noah Smith a férocement réfuté sur Twitter les propos de The Economist aussi bien que la réponse de Reed, en affirmant que la plupart des critiques de l’économie sont enlisées dans le passé. Les attaques basiques contiennent une part de vérité, mais désormais les lacunes qu’elles évoquent sont bien connues. Plusieurs allégations semblent obsolètes. Par exemple, Reed prétend que les économistes "célèbrent un culte" au "temple" des modèles classiques comme la théorie de l’équilibre générale telle qu’elle a été développée par Kenneth Arrow et Gerard Debreu et que la théorie du consommateur souvent "ne dit rien du tout".

Smith pense que Reed se trompe sur l’état de la profession et ne semble pas comprendre ce que les économistes modernes font pour vivre. L’idée semble être que les économistes s’engagent principalement dans une entreprise déductive, prodiguant une haute théorie venant de monts olympiens, mais la plupart des économistes parcourent des montagnes de données, s’échinent à glaner les faits à propos du fonctionnement réel du monde. La critique standard que The Economist porte sur la profession des économistes n’est pas juste fastidieuse et erronée dans ses détails ; ce que la revue pense sur ce que devrait être le devenir de la science économique est sapé par une image déformée de ce qu’est la profession aujourd’hui.

Simon Wren-Lewis avance trois raisons pour expliquer le flot ininterrompu de critiques que Noah Smith a identifiés, mais il affirme que l’économie est aussi une cible facile parce que elle a été historiquement très insulaire et, par conséquent, assez différente des autres sciences sociales. Wren-Lewis pense que cela est dû au fait que presque toute l’économie peut être dérivée des axiomes basiques du choix rationnel, tandis qu’il n’y a rien qui se rapproche d’un tel arbre déductif dans les autres sciences sociales. Les limites de ce qui peut être fait avec quelques axiomes à propos des choix rationnels ont mené ces dernières années l’économie à devenir de plus en plus empiriques et à s’écarter de cette théorie déductive, mais elle garde de cette insularité une regrettable gueule de bois. Comme discipline, l’économie montre peu d’intérêt à l’idée de communiquer son savoir fondamental à d’autres, que ce soit dans le monde universitaire ou avec le monde extérieur. Cette épidémie d’articles à propos de l’échec de l’économie reflète en partie cet échec de communication. Surtout, des événements comme le Brexit et ou l’élection de Trump sont un signal d’alarme signifiant aux économistes, en tant que collectif, doivent faire mieux lorsqu’ils communiquent les intuitions fondamentales de l’économie. »

Silvia Merler, « Did economics fail? », in Bruegel (blog), 7 mai 2018. Traduit par Martin Anota

mercredi 18 avril 2018

Les banques centrales à l’âge du populisme

« Les élections de ces deux dernières années ont montré que nous vivons dans une époque où le populisme politique et économique joue un rôle important. Quelles en sont les conséquences pour les banques centrales ? Nous passons en revue les commentaires sur la question (…).

Charles Goodhart et Rosa Lastra (…) affirment que le consensus qui a entouré l’indépendance des banques centrales dans la mise en œuvre d’une politique monétaire visant à promouvoir la seule stabilité des prix a été remis en cause dans le sillage de la crise financière mondiale, avec l’essor du populisme d’un côté et l’élargissement des mandats des banques centrales de l’autre. Après avoir considéré les arguments économiques en faveur de l’indépendance aussi bien que l’existence d’effets en termes de distribution, de direction et de durée, leur article examine différentes dimensions du débat sur la façon par laquelle le populisme (ou simplement le mécontentement général suscité par l’idée de statu quo) affecte l’indépendance de la banque centrale. Même s’il est possible (mais incertain) que la politique monétaire puisse continuer à être opérée de façon indépendante, Goodhart et Lastra estiment qu’il est possible que l’effacement de l’indépendance des banques centrales dans le champ de la stabilité financière remette aussi en question leur indépendance plus générale. Il est par conséquent selon eux important d’avoir en place des mécanismes adéquats pour « garder les gardiens » de la stabilité monétaire et financière.

Dani Rodrik écrit que le populisme dans le domaine économique est certes pratiquement toujours nocif, mais que le populisme économique peut être parfois justifié ; c’est par exemple le cas lorsqu’il remet en question la focalisation excessive des banques centrales indépendantes sur le maintien de l’inflation à un faible niveau. Une partie du contrecoup populiste que l’on observe aujourd’hui découle de la croyance, pas totalement injustifiée, que la délégation à des agences autonomes ou la conformité à des règles ne servent pas la société, mais seulement une caste minoritaire d’"insiders". Des banques centrales indépendantes ont joué un rôle crucial dans la réduction de l’inflation dans les années quatre-vingt et quatre-vingt-dix. Mais dans l’actuel environnement marqué par une faible inflation, leur focalisation excessive sur la stabilité des prix crée un biais déflationniste et s’avère en tension avec l’emploi et la croissance économique. Rodrik affirme que dans de tels cas, il est raisonnable de relâcher les contraintes pesant sur la politique économique et de réintroduire du pouvoir aux gouvernements élus dans l’élaboration de la politique économique. (…)

Lucrezia Reichlin a affirmé l’année dernière qu’avec l’essor des mouvements populistes, leurs reproches quant aux autorités monétaires indépendantes peuvent désormais modifier la relation entre banques centrales, Trésors et législateurs. L’éventail des critiques à l’encontre des banques centrales proviennent à la fois de la gauche et de la droite et certaines d’entre elles rejoignent une crainte que nourrissent certains économistes conservateurs, celle selon laquelle les banques centrales auraient joué un rôle excessif dans la gestion de l’économie depuis la crise financière de 2008. Mais alors que les populistes tendent à appeler à réduire l’indépendance politique et opérationnelle des banques centrales et à élargir leur mandat, les économistes conservateurs veulent l’inverse. Reichlin pense que les solutions populistes sont peut-être ne pas être adaptées, mais que les problèmes que les populistes ont identifiés en ce qui concernent les banques centrales sont réels. Si nous croyons que les banques centrales doivent être protégées des interférences politiques de court terme lorsqu’elles poursuivent des objectifs de politique monétaire, cela nous amène à mettre en place des réformes qui vont permettre une coordination démocratiquement responsable (accountable) entre les autorités monétaires, budgétaires et financières.

Jacqueline Best affirme que de la politique doit être ramenée dans la politique monétaire. Bien que l’exceptionnalisme technocratique est tentant, en particulier face à la menace d’une démocratie illibérale, il est également dangereux, dans la mesure où il réduit la responsabilité (accountability) sans même parvenir à dégager entièrement la politique de la politique monétaire. Cette déconnexion avec le public alimente au final le genre de contrecoup populiste que le monde a récemment connu, en politisant davantage la politique monétaire avec potentiellement des conséquences très désastreuses. C’est le paradoxe de la crédibilité de la politique monétaire : bien que la théorie économique prétende que la crédibilité monétaire et la faible inflation dépendent du retrait du politique, au final, dans une société démocratique, la crédibilité dépend aussi de la légitimité du système monétaire et de ses institutions à mettre en œuvre des politiques qui marchent.

Edward Hadas affirme que les autorités monétaires s’appuient sur un modèle dangereusement simpliste de la réalité et qu’elles ont besoin d’une approche plus humble et plus réaliste. Pour l’heure, cette révolte n’est pas allée loin, même si Narendra Modi, le premier ministre populiste indien, a ignoré la banque centrale indienne lorsqu’il retira sans prévenir tous les billets à haute valeur faciale de la circulation. Mais Hadas affirme que les banquiers dans le reste du monde ne doivent pas avoir l’esprit tranquille ; leur position politique est fragile, dans la mesure où non seulement elles n’ont pas pu empêcher une crise mondiale en 2008, mais aussi où elles ont présidé une décennie de médiocre croissance économique. Une partie du problème, affirme Hadas, est que les autorités monétaires sont focalisées sur le contrôle du taux de l’inflation des prix à la consommation et qu’elles affirment être apolitiques et au-dessus de la mêlée financière. Mais ces idées simplistes ne produisent pas de bonnes politiques. Les autorités monétaires doivent, selon Hadas, abandonner leurs fantaisies, rechercher à atteindre plusieurs objectifs, notamment chercher à limiter la volatilité des prix d’actifs, veiller à la santé du système financier, ramener les taux de change à des valeurs justes, soutenir la croissance économique et stimuler la création de l’emploi, tout en acceptant un surcroît de supervision politique. »

Silvia Merler, « Central banks in the age of populism », in Bruegel (blog), 19 mars 2018. Traduit par Martin Anota

mardi 3 avril 2018

Le discours présidentiel de Friedman, 50 ans après

« En mars 1968, l’article “The role of monetary policy” de Milton Friedman (reprenant son allocution présidentielle à l’American Economic Association) a été publié dans l’American Economic Review.. Cinquante ans après, les économistes se penchent à nouveau sur ce célèbre article.

Gregory Mankiw et Ricardo Reis soulignent que les anticipations, le long terme, la courbe de Phillips et les potentiel et limites de la politique monétaire sont toujours des sujets de recherche très actifs. Dans un futur proche, il se pourrait que la faible croissance économique que l’on a connue depuis la récession de 2008-2009 amène à un réexamen de l’hypothèse du taux de chômage naturel de Friedman. A ce point, l’explication la plus simple est que cette stagnation est due à un ralentissement de la productivité qui n’est pas lié au cycle d’affaires. Il se peut aussi, cependant, que cette faible croissance contredise la vision classique du long terme de Friedman, que ce soit via les effets d’hystérèse ou via l’insuffisance chronique de demande globale. De futurs travaux peuvent très bien confirmer la vision de Friedman et se tourner vers la formation des anticipations pour une meilleure compréhension de la courbe de Phillips, visant à un meilleur modèle de référence de ce qui pourrait remplacer tant les anticipations adaptatives que les anticipations rationnelles. Mankiw et Reis affirment que le rôle de la politique monétaire évolue actuellement et s’est éloigné des sujets que Friedman a développés dans son allocution présidentielle. L’avenir promet des progrès dans quatre domaines : l’interaction entre les politiques budgétaire et monétaire, le rôle des réserves bancaires, les taux d’intérêt proches de zéro et la stabilité financière.

Olivier Blanchard s’est demandé si nous devons rejeter l’hypothèse de taux de chômage naturel. L’hypothèse a certes été controversée à l’époque, mais elle a vite été acceptée par une majorité et constitue le paradigme dominant en macroéconomie depuis lors. Elle est partie intégrante dans la réflexion et les modèles utilisés par les banques centrales et elle fonde le cadre du ciblage d’inflation qu’utilisent la plupart des banques centrales aujourd’hui. Récemment, la crise financière mondiale et la récession qui en a résulté ont alimenté les débats autour du réalisme de cette hypothèse, et ce pour deux raisons. Premièrement, le niveau de la production apparaît avoir été irrévocablement affecté par la crise et la récession qui l’a suivie. Deuxièmement, à l’inverse de l’hypothèse accélérationniste, un chômage élevé n’entraîne pas une inflation de plus en plus faible, mais juste une inflation faible. Blanchard considère les preuves macroéconomiques et microéconomiques comme suggestives, mais pas concluantes, pour rejeter l’hypothèse du taux naturel. Les décideurs politiques doivent garder l’hypothèse de taux naturel comme leur hypothèse nulle, mais aussi garder l’esprit ouvert et considérer des alternatives.

Robert Hall et Thomas Sargent affirment que l’effet de court terme de l’allocution a été d’inciter beaucoup à vérifier l’affirmation de Friedman selon laquelle non seulement l’inflation anticipée importe pour l’inflation courante, elle importe aussi point par point dans la détermination de l’inflation courante. Dans la version alors existante de la courbe de Phillips, comme Friedman l’a souligné, la courbe de Phillips de long terme est devenue verticale et le taux de chômage (…) reste insensible aux choix de la banque centrale en matière d’inflation. A plus long terme, l’hypothèse de Friedman d’un déplacement point par point de la courbe de Phillips a été acceptée par de plus en plus d’économistes. L’idée plus générale que les variables réelles telles que le chômage, l’emploi et la production sont insensibles au régime monétaire commença à être acceptée et cette idée s’est généralisée au point de remplacer le concept de neutralité monétaire. Hall et Sargent croient que le principal message de Friedman, en l’occurrence l’hypothèse d’invariance à propos des résultats de long terme, a prévalu au cours du dernier demi-siècle parce qu’elle était confortée par des preuves relatives à plusieurs économies sur plusieurs années. Les travaux ultérieurs ont modifié les idées de Friedman relatives aux effets transitoires et n’ont pas été cléments avec la courbe de Phillips, mais Hall et Sargent affirment que l’hypothèse d’invariance a tenu bien, même si la courbe de Phillips n’a gardé la même place en tant qu’équation structurelle dans les modèles macroéconomiques.

John Cochrane a publié un long billet discutant de la contribution de Friedman, qui selon lui aurait pu avoir pour sous-titre « neutralité et non-neutralité » : la politique monétaire est neutre à long terme, mais pas à court terme. Mais ce que Friedman, l’empiriste, aurait dit aujourd’hui, après avoir vu le comportement sauvage de la vélocité de la monnaie lors des années 1980 et la stabilité surprenant de l’inflation à la borne zéro dans nos rétroviseurs ? Que penserait-il de l’idée de John Taylor selon laquelle varier les taux d’intérêt plus amplement que l’inflation, tout en restant dans le cadre qu’il posa, stabilise le niveau des prix en théorie et, apparemment, dans la pratique des années 1980 ? Cochrane pense que, malgré les événements ultérieurs, la conception de Friedman de la politique monétaire a eu une influence durable, même bien davantage que sa conception de la courbe de Phillips. L’idée selon laquelle les banques centrales sont toutes-puissantes, non seulement pour contrôler l’inflation, mais aussi en tant que principal instrument de gestion macroéconomique, est commune aujourd’hui, mais Friedman nous rappelle qu’elle ne l’a pas toujours été. Aujourd’hui, la Fed est créditée ou accusée d’être la principale cause derrière les variations des taux d’intérêt à long terme, des taux de change, des cours boursiers, des prix des matières premières et des prix de l’immobilier ; en outre, certains à l’intérieur et à l’extérieur de la Fed commencent à observer le taux d’activité, les inégalités et d’autres maux. (…) Cochrane pense que nous devrions prendre du recul et prendre comprendre que la Fed est bien moins puissante que ne le suggèrent tous ces commentaires.

Edward Nelson discute de sept erreurs commises à propos de l’article de Friedman : (1) "The Role of Monetary Policy" n’aurait pas été la première déclaration publique où Friedman a évoqué l’hypothèse du taux naturel ; (2) la courbe de Phillips à la Friedman-Phelps aurait déjà été présente dans l’analyse de Samuelson et Solow (1960) ; (3) la spécification de la courbe de Phillips de Friedman se baserait sur la concurrence parfaite et non sur les rigidités nominales ; (4) Le récit que Friedman (1968) a fait de la politique monétaire lors de la Grande Dépression contredirait celui de l’Histoire monétaire ; (5) Friedman (1968) aurait déclaré qu’une expansion monétaire maintiendrait le taux de chômage et le taux d’intérêt réel sous leurs taux naturels au cours des deux décennies suivantes ; (6) la borne inférieure zéro sur les taux d’intérêt nominaux invaliderait l’hypothèse de taux naturel ; (7) ce qu’a dit Friedman (1968) sur l’ancrage du taux d’intérêt aurait été réfuté par la révolution des anticipations rationnelles. Nelson explique pourquoi ces idées sont fausses et infère les aspects clés de l’analyse sous-jacente de Friedman (1968).

Scott Sumner attire l’attention sur la deuxième note de base de page dans l’article de Friedman de 1968, où il croit y voir Friedman anticiper les raisons pour lesquelles les cibles d’inflation ou du PIB nominal peuvent être supérieurs au ciblage de la monnaie. Sumner a publié un autre billet où il explique pourquoi remplacer le ciblage d’inflation par le ciblage du PIB nominal résoudrait de nombreux problèmes. La relation empirique que Friedman s’est rompue une décennie après la publication de son article : les récessions n’ont plus été précédées par des ralentissements brutaux de la croissance de M2. Sumner affirme que la rupture dans la relation empirique qui a amené Friedman à préconiser le ciblage de l’offre de monnaie contribue à expliquer pourquoi, plus tard dans sa vie, il a soutenu l’approche du ciblage d’inflation de Greenspan : Friedman était un pragmatique, donc lorsque les faits changeaient, il changeait d’avis.

David Glasner note que l’interprétation standard du raisonnement de Friedman est la suivante : puisque les tentatives visant à accroître la production et l’emploi par l’expansion monétaire sont vaines, la meilleure politique qu’une autorité monétaire doit poursuivre doit être une politique stable et prévisible qui maintient l’économie au plus proche de sa trajectoire de croissance optimale à long terme telle qu’elle est déterminée par des facteurs réels. Donc, la meilleure politique consisterait à trouver une règle claire et prévisible pour imposer aux autorités monétaires le comportement qu’elles doivent adopter, pour empêcher qu’une mauvaise gestion monétaire ne devienne par inadvertance une force déstabilisatrice écartant l’économie de sa trajectoire de croissance optimale. Au cours des cinquante ans qui ont suivi l’allocution de Friedman, ce message a été repris par les économistes monétaires et les banques centrales, ce qui a amené à un large consensus en faveur du ciblage d’inflation et, désormais, d’une cible d’inflation annuelle de 2 %. Mais cette interprétation, que Friedman a lui-même fait de son propre raisonnement, ne découle en fait pas de l’idée selon laquelle l’expansion monétaire ne peut affecter la trajectoire de croissance d’équilibre à long terme d’une économie. L’idée de la neutralité monétaire est un pur exercice de statique comparative, qui nous enseigne quelque chose, mais pas autant que Friedman et ses successeurs le pensaient. »

Silvia Merler, « Milton Friedman’s "The role of monetary policy" – 50 years later », in Bruegel (blog), 3 avril 2018. Traduit par Martin Anota



aller plus loin...

« Quel est l’héritage du discours présidentiel de Friedman ? »

« Le taux de chômage naturel, un concept suranné »

lundi 19 mars 2018

Que pensent les économistes des droits de douane américains sur l’acier et l’aluminium ?

« L’administration américaine a annoncé qu’elle envisageait d’instaurer des tarifs douaniers (de 25 %) sur l’acier et (de 10 %) sur l’aluminium, soi-disant pour des raisons de sécurité nationale. Nous passons en revue ce que les économistes ont pu dire sur ce bouleversement dans la politique commerciale américaine.

Chad Brown pense que ce genre de protection a des répercussions économiques et institutionnelles considérables et généralisées, pour diverses raisons. Premièrement, il réduira un montant significatif d’importations. Les nouveaux tarifs douaniers accroîtront probablement les coûts pour les constructeurs automobiles, les fabricants de conserves, les projets d’infrastructures et même l’industrie de la défense. Deuxièmement, les Etats-Unis n’ont pas déclenché de protection dans le cadre de la loi de la sécurité nationale depuis plus de 30 ans ; Reagan est le dernier à avoir imposé des restrictions dans le cadre de cette loi en 1986. L’instauration de tarifs douaniers sur l’acier et l’aluminium peut amener beaucoup à affirmer que le commerce fait peser d’autres menaces sur la sécurité nationale. Troisièmement, Brown pense que l’enquête amorcée dans le cadre de cette loi n’a pas été transparente (…). Quatrièmement, Brown affirme que la loi accorde au Président la discrétion incroyable de décider unilatéralement de la taille et de la forme de la restriction commerciale aussi bien que de sa durée. Cinquièmement, même si l’OMC permet aux pays d’imposer des restrictions quand la sécurité nationale est menacée, utiliser ce prétexte menace le système commercial basé sur des règles. (...)

Jared Bernstein dit qu’il est certain que les tarifs douaniers vont faire plus de mal que de bien, mais il affirme que cela ne signifie pas qu’il n’y a pas de problème. Il cite un article du Washington Post décrivant les impressionnants gains de productivité dans la production d’acier et se demande alors pourquoi les Etats-Unis, si ces derniers sont si productifs dans l’acier, présentent un tel déséquilibre persistant dans ce secteur. Il se peut que les gains de productivité des autres pays dans la production d’acier aient été plus grands ou que leurs coûts du travail soient plus faibles, mais, du moins dans l’industrie manufacturière dans son ensemble, il ne semble pas que ce soit le cas : les coûts unitaires du travail des Etats-Unis, sur une base dollars, sont inférieurs à ceux de la plupart des partenaires à l’échange, à la fois en niveaux et en termes de croissance. Bernstein pense qu’au cœur du problème, il pourrait y avoir l’énorme contribution de la Chine à l’excès de capacité mondiale, qui neutralise les gains de productivité. (...)

Noah Smith pense que les tarifs douaniers ne sont généralement pas une bonne façon de promouvoir l’industrie domestique. Ils encouragent les producteurs américains à se focaliser sur le marché captif local au lieu de trouver des façons de faire face à la concurrence rude et agité qui s’exerce au niveau mondial. Si les consommateurs américains sont forcés de n’utiliser que les produits domestiques, l’acier et l’aluminium américains risquent de finir par apparaître comme des produits de mauvaise qualité. Et si les métaux sont plus chers, cela risque non pas d’aider mais d’endommager l’industrie. Les défenseurs des tarifs douaniers affirment que l’acier et l’aluminium sont importants pour la défense nationale, mais les constructeurs de navires militaires vont devoir payer des métaux plus chers, notamment les fabricants de tanks, d’avions, d’armes et d’autres équipements cruciaux de défense. Les tarifs douaniers ne vont pas non plus ramener de bons emplois dans les usines d’acier et d’aluminium : depuis 1990, la production de métaux aux Etats-Unis est restée assez constante, mais le nombre de personnes employées dans ce secteur a régulièrement chuté, sous l’effet du progrès technique. Donc Smith pense que les Etats-Unis se sont infligé une sévère blessure en adoptant des tarifs douaniers sur les métaux.

Jeffrey Sachs affirme que cela pourrait être le premier coup tiré dans une guerre commerciale insensée et destructive. Qu’importe ce que les producteurs américains d’acier gagneront d’une guerre commerciale, ce gain sera moindre que les pertes que connaîtront les utilisateurs d’acier et les consommateurs, notamment en raison des coûts sociaux associés à la protection d’emplois non compétitifs. Mais l’essoufflement du marché boursier reflète la possibilité de quelque chose de plus désastreux : le glissement vers une guerre commerciale mondiale dans laquelle tous les pays, notamment les Etats-Unis, seraient perdants. L’économie mondiale a déjà connu un tel scénario par le passé : les guerres commerciales du début des années trente contribuèrent à déclencher, puis aggraver et prolonger la Grande Dépression. Sachs croit que les mesures de Trump reposent sur trois erreurs. Premièrement, Trump pense que les Etats-Unis génèrent des déficits commerciaux avec des pays comme la Chine et l’Allemagne parce que les Etats-Unis se font flouer d’une façon ou d’une autre par ceux-ci. La vraie raison est que les Etats-Unis épargnent trop peu et consomment de trop. Deuxièmement, Trump pense que les barrières commerciales vont protéger les Etats-Unis, mais même si ces mesures peuvent temporairement protéger l’acier américain, elles ne vont pas protéger la société américaine. Troisièmement, Trump croit que les barrières commerciales américaines vont faire ployer la Chine et renforcer la domination économique et militaire des Etats-Unis, mais la Chine et l’Europe vont sûrement riposter.

Martin Wolf écrit dans le Financial Times que ces tarifs douaniers ne sont pas importants en soi, mais que le motif avancé pour les justifier, leur niveau et leur durée, la volonté de cibler les alliés proches et la déclaration du Président selon laquelle « les guerres commerciales sont bonnes et faciles à gagner » présagent un surcroît de protectionnisme. Cette action est susceptible de marquer le début de la fin de l’ordre commercial multilatéral fondé sur les règles que les Etats-Unis avaient eux-mêmes instauré. Un point crucial est que cette action ne vise pas la Chine, qui représente moins de 1 % des importations américaines d’acier. Ses victimes sont des amis et alliés : le Brésil, le Canada, l’Union européenne, le Japon et la Corée du Sud. Ce n’est pas non plus une mesure prise contre une certaine forme de commerce déloyal. C’est une politique purement protectionniste visant à sauver les vieilles industries. Pourtant, même en ce sens, la justification est bien fragile : la production américaine d’acier et d’aluminium stagne depuis plusieurs années. Si cette action fait réellement sens à Trump, qu’est-ce qui ne le fait pas ?

Brad DeLong pense qu’au final les consommateurs américains paieront pour les tarifs douaniers. De telles mesures protectionnistes vont affecter chaque secteur de l’industrie américaine d’une façon ou d’une autre et les industriels qui utilisent l’acier et l’aluminium comme intrants vont certainement répercuter sur leurs prix de vente une partie du surcroît de coûts qu’elles subiront. Donc, Trump a essentiellement proposé une nouvelle taxe sur les résidents américains, en l’occurrence les consommateurs et les industries exportatrices, et ce fardeau sera en grande partie supporté par ses propres partisans au cœur des Etats-Unis et dans la Rust Belt.

Dani Rodrik estime que plusieurs commentateurs ont réagi de façon excessive à la possibilité de tarifs douaniers en prédisant une "guerre commerciale", voire pire, mais la réalité est que les mesures commerciales de Trump, du moins celles qu’il a adoptées jusqu’à présent, ne représentent pas grand-chose. En l’occurrence, elles ne pèsent pas lourd, que ce soit en termes d’échelle et d’ampleur, par rapport aux mesures adoptées par l’administration de Ronald Reagan dans les années quatre-vingt. Les politiques de Trump violent l’esprit, si ce n’est la lettre, des accords commerciaux d’aujourd’hui, les restrictions commerciales de Reagan ont exploité les lacunes des accords alors en vigueur. Même si leur impact global reste limité, les restrictions commerciales de Trump ont une teneur plus unilatérale, directe. Une autre différence avec les mesures adoptées sous Reagan, c’est que nous vivons une étape plus avancée de la mondialisation que les problèmes qui l’ont accompagnée sont plus grands et que les forces du nationalisme et du nativisme sont probablement plus puissantes aujourd’hui qu’à toute autre époque depuis la fin de la Seconde Guerre mondiale. Alors que les politiques de Trump visent prétendument à restaurer de l’équité dans le commerce mondial, elles exacerbent ces problèmes plutôt qu’elles ne les améliorent. Un tel protectionnisme est un artifice, pas un programme sérieux pour la réforme commerciale. »

Silvia Merler, « Are we steel friends? », in Bruegel (blog), 12 mars 2018. Traduit par Martin Anota

lundi 12 février 2018

Autour de la récente chute des cours boursiers

« Les valeurs boursières ont chuté la semaine dernière, ce qui a amené beaucoup à se poser des questions et suscité des débats, notamment à propos des causes sous-jacentes. Nous passons en revue les avis des économistes sur la question...

John Cochrane a publié un long billet visant à expliquer les fluctuations boursières, où il examine en profondeur les prix d’actifs, le ratio cours sur dividende, la prime de risque et la volatilité. La question qui se pose est la suivante : est-ce que les taux d'intérêt réels de long terme augmentent enfin (et reviennent à ce qui rapproche de la norme historique) et, si oui, pourquoi ? La bonne nouvelle, affirme Cochrane, est que nous arrivons dans une période de plus forte croissance. Cela augmenterait la croissance réelle, avec une petite baisse des cours boursiers, mais avec aussi des rendements boursiers plus élevés et des rendements obligataires en hausse. Il y a aussi une mauvaise nouvelle : après avoir voté une réduction d’impôts qui va creuser les déficits (…), les meneurs du Congrès viennent de se mettre d’accord pour accroître les dépenses publiques de 200 milliards de dollars. Cochrane affirme qu’à un certain moment les marchés obligataires disent "non" et que les taux réels augmentent parce que la prime de risque augmente. La bonne nouvelle nous amène à anticiper une certaine inflation si l'on croit en la courbe de Phillips ; avec la mauvaise nouvelle, on peut s'attendre à une stagflation en raison de la situation budgétaire.

Tyler Cowen estime que le déclin des prix d’actifs peut être une bonne chose (...). Il affirme que ce niveau élevé des prix d’actifs reflète une réalité de la création de richesses, c’est-à-dire le fait qu’il y ait un déséquilibre entre la richesse mondiale et les moyens sûrs de transférer cette richesse dans le futur. Les marchés boursiers de Chine et de Russie ne sont pas sûrs et pas très bien développés et plusieurs autres pays émergents, comme la Turquie et le Brésil, ont été affaiblis par l’incertitude et les désordres politiques. Donc, en termes relatifs, les actifs de haute qualité, fortement liquides et habituellement sûrs sont devenus chers et nous nous retrouvons avec des price-earning ratios particulièrement élevés et des rendements négatifs sur les titres publics sûrs. Comme les rapports positifs se multiplient concernant l’économie américaine, les actifs sûrs peuvent devenir moins importants en tant que réserves de valeur relativement sûres et donc leur prix peut chuter. Cette dynamique des prix ne traduit pas forcément la présence de bulles mais, dans un monde où la richesse est créée plus rapidement que ne s’améliorent les institutions, elle peut signaler que la prime de risque est peut-être plus importante qu’on ne le pense.

Paul Krugman dit que, d’un côté, nous ne devrions pas supposer qu’il y a une bonne raison à l’origine de la chute du marché ; quand les cours boursiers se sont effondrés en 1987, il s’agissait d’une panique auto-réalisatrice. D’un autre côté, nous ne devons pas non plus supposer que la chute des cours boursiers nous dise grand-chose à propos des perspectives économiques futures ; le krach de 1987, par exemple, a été suivi par une croissance solide. Pourtant, les turbulences sur le marché doit nous amener à nous pencher plus sérieusement sur les perspectives économiques. S’il y a une nouvelle derrière la chute, c’est bien la publication du dernier rapport sur l’emploi, qui a montré une hausse, certes significative, mais pas énorme, des salaires. Krugman affirme que c’est une bonne nouvelle (elle suggère en effet que l’économie américaine est proche du plein emploi), mais cela signifie aussi que la croissance américaine ne pourra plus venir du retour des chômeurs à l’emploi. Il affirme que l’économie américaine risque certainement de voir sa croissance ralentir et que les analyses disponibles suggèrent que la croissance au cours de la prochaine décennie tournera autour de 1,5 % par an, soit la moitié de ce qu’avait promis Trump.

Matthew Klein, du Financial Times, se penche sur la crainte des marchés qu’une accélération de la croissance des salaires alimente l’inflation des prix à la consommation ou, tout du moins, que la Fed réagisse à une telle perspective en resserrant sa politique monétaire. Il affirme que les derniers chiffres ne valident pas pour l’heure ce que croient les participants du marché. Si l’on prend une moyenne sur six mois, il semble que la croissance des salaires ait ralenti depuis la seconde moitié de 2016. Il y a aussi des raisons qui nous amènent à douter que cette croissance des salaires puisse se traduire par une hausse des prix à la consommation : en général, ce sont surtout les personnes à faibles revenus qui tendent à davantage dépenser et à moins épargner, donc ceux qui s’inquiètent qu’une hausse des salaires puisse stimuler le pouvoir d’achat des consommateurs et éroder les marges doivent se focaliser sur les secteurs à faibles rémunérations, or la croissance salariale y a ralenti. Klein souligne aussi l’importance du secteur financier au regard de la croissance salariale. Il estime que ce serait ironique si les agents financiers se convainquaient de vendre leurs actions en raison de la publication d’une unique donnée, en l’occurrence une donnée qui a été perturbée par la hausse agressive de leurs propres rémunérations, une hausse qu’ils ont justifié par l’évolution du marché, elle-même en partie justifiée par la stabilité de l’inflation.

Stephen Williamson (…) pense qu’il n’y a pas réellement de signe d’excès inflationniste dans les données. Il y a, par contre, des signes que l’inflation et l’inflation anticipée sont très proches de ce qui est cohérent avec une cible d’inflation de 2 %, pour un futur indéfini. Il pense qu’il peut y avoir un risque en termes de décisions de politique monétaire, néanmoins, comme la Fed est aussi proche (…) d’atteindre ses objectifs. L’inflation est arrivée récemment, lorsque les taux d’intérêt nominaux ont augmenté. C’est cohérent avec la logique néo-fisherienne, celle selon laquelle il faut augmenter le taux d’intérêt nominal si l’on veut davantage d’inflation. Bien sûr, l’inflation était faible en 2014-2015 en partie en raison d’une chute du prix du pétrole brut. Néanmoins, certains ont affirmé que l’inflation ralentirait en conséquence des hausses du taux directeur de la Fed et ce n’est pas ce qui s’est passé. Le problème est que la Fed pourrait continuer d’accroître les taux d’intérêt alors même que ce n’est pas nécessaire, ce qui va amener l’inflation à dépasser sa cible, ce qui incitera en retour la Fed à relever davantage ses taux et continuera d’éloigner l’inflation de sa cible. Heureusement, c’est une route politiquement difficile à emprunter, donc il doute que cela arrive.

Dambisa Moyo affirme que, malgré la récente chute des valeurs boursières, l'atmosphère haussière qui soutient les actions reste déconnectée de la réalité et reste sourde aux réserves exprimées par les dirigeants politiques, tandis que le marché évalue mal les défis structurels, en particulier l’endettement mondial croissant et insoutenable et la piètre perspective budgétaire, notamment aux Etats-Unis, où le prix de cette reprise est une dette croissante. En 2018, les chefs d’entreprises et les participants de marché doivent garder en tête (…) que nous nous rapprochons de la date où il faudra payer la facture pour la reprise actuelle. Les fluctuations qu’ont connues les marchés des capitaux ces derniers jours suggèrent qu’ils prennent conscience de cet inévitable règlement. »

Silvia Merler, « The stock market slide », in Bruegel (blog), 12 février 2018. Traduit par Martin Anota

samedi 3 février 2018

Cinq ans d’Abenomics

« Cinq ans ont passé depuis que le Premier ministre Shinzō Abe a été élu en 2012 et a commencé à mettre en œuvre ce qu’on qualifie d’"Abenomics", c’est-à-dire un ensemble de mesures macroéconomiques basées sur "trois flèches" : l’assouplissement monétaire, la relance budgétaire et les réformes structurelles. Cinq ans après, peut-on dire que l’Abenomics a été efficaces ? Nous passons en revue plusieurs commentaires qui ont récemment été tenus à ce sujet.

The Economist note que la devise du Japon s’est dépréciée d’environ vis-à-vis du dollar depuis novembre 2012 et que l’indice boursier Nikkei 225 a augmenté de plus 150 % sur la même période. Cela a contribué à relancer l’économie et le PIB japonais a augmenté sans discontinuité ces sept derniers trimestres, soit pour la plus longue période de croissance ininterrompue depuis 16 ans. Les exportations ont beaucoup contribué à cette performance, mais l’investissement privé a aussi augmenté de plus de 18 % en termes nominaux au cours des cinq dernières années. 2,7 millions d’emplois nets ont été créés, malgré une démographie défavorable. Pourtant, l’inflation ne s’est pas vraiment accélérée : l’indice des prix (si l’on exclut les aliments frais) a augmenté de seulement 0,7 % dans l’année qui précéda septembre 2017. La faible performance en matière d’inflation peut notamment s’expliquer par le fait que les salaires n’ont pas augmenté aussi rapidement qu’on ne l’attendait, en partie parce que la majorité des travailleurs japonais ont des contrats permanents et que leur salaire suit principalement le coût de la vie. Une seconde raison pourrait être la hausse de la population active, dans la mesure où davantage de femmes, de personnes âgées et dans une certaine mesure aussi de travailleurs étrangers sont entrés sur le marché du travail. En outre, là où le coût de la vie a augmenté, certaines firmes ont trouvé des façons d’accroître la productivité plutôt que les prix, en investissant dans des technologies économes en travail.

The_Economist__PIB_nominal_Japon_Abenomics_Shinzo_Abe.png

Scott Sumner (…) est d’accord à l’idée que l’impact le plus important de l’Abenomics a été sur le PIB nominal, ce dernier ayant suivi une tendance à la baisse jusqu’à l’élection d’Abe. Selon la théorie du monétarisme de marché, un PIB nominal élevé peut être utile pour répondre à deux problèmes : les excès d’endettement et un chômage cyclique élevé. L’Abenomics a été très efficace sur les deux fronts. Le chômage a chuté à 2,7 %, le niveau le plus faible en 23 ans ; et le ratio dette publique sur PIB a atteint un palier, après avoir explosé et atteint un taux dangereux ces dernières décennies. Les prix sont à la hausse ces cinq dernières années et la dynamique est certainement meilleure que la déflation qui que le Japon connaissait avant le déploiement de l’Abenomics, mais l’inflation est toujours inférieure à la cible de 2 %.

(…) Sumner affirme aussi qu’une inflation de 1 % est trop faible et que la Banque du Japon doit assouplir sa politique monétaire, pour deux raisons. Premièrement, Japon a fixé une cible d’inflation officielle de 2 % et une fois qu’une cible d’inflation cible est fixée, elle doit être atteinte pour que la politique monétaire reste crédible (la crédibilité étant cruciale pour la gestion des futures crises). Deuxièmement, Sumner pense que la Banque du Japon s’est trompée en utilisant les taux d’intérêt comme instrument de politique monétaire, parce que même une inflation de 2 % au Japon ne suffit probablement pas pour éviter la borne zéro lors d’une récession. Donc le Japon est dans une étrange situation où il n’a pas besoin de relance monétaire, mais où la Banque du Japon doit néanmoins adopter une relance monétaire parce que, si elle ne le faisait pas, le Japon pourrait chuter dans une récession à l’instant où la Banque du Japon perdrait en crédibilité.

Erik Norland (…) pense que l’Abenomics n’a pas encore pleinement dévoilé ses effets. L’économie japonaise s’est améliorée depuis 2012, mais elle a ralenti depuis début 2015 et l’expérience de la Banque du Japon avec les taux d’intérêt négatifs de court terme ne semble pas avoir été une réussite (Norland affirme que les taux négatifs ont empêché le Japon de retrouver des taux d’inflation positifs). Environ la moitié de la hausse temporaire de l’inflation en 2013-2014 peut être attribuée au passage de la TVA de 5 % à 8 % et, bien que cela n’ait pas été un thème majeur de la campagne, il faudra faire attention au possible relèvement de la TVA de 8 % à 10 %, qui accroîtrait l’activité préachat mais pourrait temporairement ralentir l’activité après la hausse. Une autre question qui a été évitée durant la compagne est celle de l’énergie nucléaire. Le gouvernement d’Abe a permis un retour progressif et partiel au nucléaire, qui doit limiter le déficit budgétaire du Japon et réduire la croissance de la demande de pétrole brut et de gaz naturel. Globalement, le Japon bénéfice actuellement d’un contexte international favorable, en l’occurrence de la première croissance mondiale synchronisée depuis 2007 ; mais la Chine pose un risque majeur, comme 25 % des exportations du Japon dirigées vers la Chine ou Hong Kong et qu’ils ont tous deux accumulé d’amples dettes. Norland pense que les niveaux de dette élevés du Japon vont probablement le laisser à de faibles taux d’intérêt de court terme ces prochaines années, malgré une meilleure performance économique.

Lechevalier et Monfort affirment que, au cours des cinq dernières années, les politiques proactives poursuivies dans le cadre de l’Abenomics ont joué un rôle décisif dans l’inversion d’une des causes du ralentissement japonais, en l’occurrence l’incohérence des politiques économiques, et qu’elles rapportent maintenant leurs premiers résultats. Cependant ils soulignent que, dans cinq ans, les performances ont été en-deçà des objectifs, en particulier en ce qui concerne l’inflation et la croissance du PIB. Ils sont plus critiques au regard des questions de long terme et pensent que l’Abenomics peut en définitive échouer en raison de l’incapacité à clairement définir un modèle de croissance pour la nation au cours des deux prochaines décennies. Selon Lechevalier et Monfort, le problème n’est pas tant le manque de réformes structurelles que leur capacité limitée à relever le potentiel de croissance du pays.

Un point similaire a été souligné par Shaori Shibata, qui affirme que les remèdes de style keynésien qui font partie intégrante de l’Abenomics n’ont pas été capables de répondre au problème de faible demande que connaît le Japon à plus long terme, en particulier en termes de consommation privée. C’est en grande partie à cause des mesures de libéralisation qui forment également partie intégrante de l’Abenomics et qui ne sont pas compatibles avec les remèdes keynésiens qui ont été adoptés. Alors que l’Abenomics a le potentiel (du moins à court et moyen termes) pour améliorer la profitabilité des entreprises, en l’absence d’une mesure visant à redistribuer la richesse des entreprises au travail, l’Abenomics représente aussi à l’avenir un danger pour la croissance économique du Japon.

Heizo Takenaka écrit que les performances économiques ont beau s’être clairement améliorées, il demeure toujours plusieurs défis sérieux. Les efforts pour la consolidation budgétaire et la revitalisation des économies régionales sont lents ; le creusement des écarts de revenu n’a pas été traité ; malgré les progrès économiques, la compétitivité du Japon relativement au reste du monde s’est davantage détériorée ; et les universités japonaises continuent de perdre des places dans les classements internationaux. En fin de compte, il est vrai que l’Abenomics a significativement stimulé l’économie, mais qu’elle peine à faire face aux changements rapides qui ont lieu dans le reste du monde. (…) »

Silvia Merler, « Abenomics, five years in », in Bruegel (blog), 8 janvier 2018. Traduit par Martin Anota



aller plus loin...

aller plus loin...

« Quelle est l’efficacité de l’Abenomics ? »

« La politique budgétaire est-elle efficace au Japon ? »

jeudi 14 décembre 2017

La querelle autour des modèles DSGE continue

« Les modèles dynamiques stochastiques d’équilibre général DSGE ont fait l’objet de vives critiques depuis la crise financière. Un récent document de Christiano, Eichenbaum et Trabandt (qui cherchent à défendre les modèles DSGE) a suscité toute une vague de réactions dans la blogosphère économique. Nous passons en revue les plus récentes contributions à ce sujet…

Un récent document de travail réalisé par Christiano, Eichenbaum et Trabandt sur les modèles dynamiques stochastiques d’équilibre général (DSGE) a suscité de nombreuses réactions sur la blogosphère. Dans ce document, les auteurs affirment que les modèles DSGE d’avant-crise ont certes eu des défauts que la crise a mis en évidence, mais que des progrès ont été réalisés au cours des dix dernières années, notamment en incorporant des fictions financières et l’hétérogénéité dans les modèles DSGE. Christiano et ses coauteurs s’attendent ainsi à ce que les modèles DSGE restent un outil primordial à la disposition des macro-économistes pour étudier les phénomènes agrégés et la politique économique, parce qu’il n’y aurait tout simplement pas d’alternative crédible pour l’analyse de la politique économique dans un monde où diverses forces économiques se font concurrence.

De nombreuses critiques suscitées par le document de travail se réfèrent à la première version publiée en ligne, qui n’est cependant plus disponible (la dernière version est celle datée du 27 novembre). Noah Smith a cité quelques extraits de la première version, en particulier un passage dans laquelle Christiano et ses coauteurs qualifient de "dilettantes" les personnes qui n’aiment pas les modèles DSGE, au motif que celles-ci mettraient certes en avant l’existence des forces concurrentes à l’œuvre (et jugent leur importance relative via d’implicites expériences de pensée) sans pouvoir jamais donner de sérieuses recommandations en matière de politique économique. Smith affirme que la ligne de défense des modèles DSGE que proposent Christiano et ses coauteurs comme seule façon de faire des prédictions quantitatives à propos des effets des changements de politique économique est erronée, parce qu’il y a au moins deux autres approches très communes, en l’occurrences les modèles économétriques structurels et les modèles autorégressifs vectoriels (VAR) structurels. Un modèle structurel n’est en outre pas toujours nécessaire pour faire des prédictions quantitatives à propos de la politique économique, comme cela peut être réalisé sous forme réduite. Quand les changements de politique économique peuvent être traités comme des expériences naturelles, leurs effets (notamment les effets d’équilibre général) peuvent être mesurés directement au lieu d’être inférés à partir d’un modèle structurel. Mais Christiano et ses coauteurs ignorent l’existence des expériences naturelles, malgré la popularité croissante de cette approche en science économique.

Bradford DeLong souligne que les modèles nouveaux keynésiens ont été élaborés pour montrer que les conclusions des vieux keynésiens et des vieux monétaristes en matière de politique économique étaient relativement robustes et qu’elles n’étaient pas remises en cause par l’acceptation de l’hypothèse des anticipations rationnelles. Ils ont été élaborés pour montrer qu’il est extrêmement fragile de conclure à l’insensibilité des variables réelles vis-à-vis des politiques systématiques. Lucas et ses disciples suivirent ensuite Prescott sur le territoire des cycles d’affaires réels, en prenant une erreur résiduelle et en affirmant qu’elle constitue leur principale variable conductrice exogène. Le cadre DSGE fut alors construit afin que les nouveaux keynésiens puissent communiquer avec les partisans des cycles d’affaires réels. Rien de tout cela n’a permis, jusqu’à présent, de faire des progrès concrets dans la compréhension des propriétés émergentes en matière de politique macroéconomique des économies réelles.

Jo Mitchell pense que Christiano et ses coauteurs cherchent à affirmer qu’on ne peut pas faire de la macroéconomie correctement sans modèle DSGE. Mais sur quelle base pouvons-nous dire que la macroéconomie DSGE est « faite proprement » ? Il y a deux endroits où l’on peut procéder à une validation empirique : les données microéconomiques et les données macroéconomiques. Trente ans de recherche en matière de modèles DSGE n’ont produit qu’un seul résultat empiriquement plausible : la courbe de Phillips augmentée des anticipations. Et elle était déjà bien connue avant. Il y a un revirement ironique ici : la faillite de la courbe de Phillips dans les années soixante-dix traça la voie vers la réussite pour les nouveaux classiques. La faillite de la courbe de Phillips à présent (dans l’autre direction) laisse les modèles DSGE avec aucun accomplissement vérifiable. Le document de Christiano et ses coauteurs a au moins un mérite : celui de confirmer ce que les macro-économistes au sommet de la discipline pensent à propos de leurs collègues sur les échelons inférieurs, en particulier ceux qui adoptent une position critique. (...)

Selon Chris Surro, le problème avec les modèles DSGE n’est pas qu’ils sont incapables d’expliquer des phénomènes économiques spécifiques : ils peuvent expliquer quasiment n’importe quel phénomène que vous pouvez imaginer, mais nous n’avons finalement aucun moyen pour décider quels modèles sont meilleurs que d’autres, si ce n’est en les confrontant aux données qu’ils sont censés expliquer. Tout ce que le modèle DSGE apporte est un ensemble d’hypothèses que tout le monde sait fausses (…). Christiano et ses coauteurs ne font rien pour répondre à cette critique. Surra affirme que la macroéconomie doit faire l’exact opposé : commencer par avoir les bonnes hypothèses. Puisque nous nous ne serons jamais capables de capturer toutes les complexités d’une véritable économie, l’économie du modèle est différente d’une économie réelle. Cependant, si les hypothèses qui fondent cette économie fictive sont réalistes, le modèle peut toujours fournir des réponses qui sont pertinentes pour le monde réel. Un modèle qui colle aux faits, mais dont les hypothèses sont irréalises, ne peut apporter des réponses pertinentes. »

Silvia Merler, « The DSGE model quarrel (again) », in Bruegel (blog), 11 décembre 2017. Traduit par Martin Anota

dimanche 10 décembre 2017

Une bulle sur le marché du Bitcoin ?

« Le prix du Bitcoin vient juste de passer les 11.000 dollars. Il y a un an, il valait moins de 800 dollars. Les économistes et les commentateurs s’inquiètent donc de plus en plus à l’idée qu’il puisse s’agir d’une bulle qui n’attend plus qu’à éclater. Nous passons en revue divers commentaires sur le sujet.

Le prix du Bitcoin a atteint et dépassé les 11.000 dollars, alors qu’il s’élevait à seulement 800 dollars il y a un an (cf. graphique). Selon The Economist (…), les cours sur le marché boursier sont certes élevés depuis quelques temps, les actions ne connaissent pas la même effervescence qu’ils ont connue avec la bulle internet de 1999-2000. Cette effervescence s’est déplacée au monde des crypto-monnaies comme le Bitcoin ou l’Ethereum. L’attrait dont elles bénéficient s’explique par trois choses : le fait que l’offre soit limitée ; les craintes à propos de la valeur à long terme des monnaies fiduciaires dans une ère d’assouplissement quantitatif ; et l’anonymat qu’elles permettent. Ces trois facteurs expliquent pourquoi le Bitcoin fait l’objet d’une certaine demande, mais pas pourquoi son prix a récemment augmenté. Peut-être que la demande de Bitcoin a augmenté du fait que certains s’attendent à ce que le blockchain, la technologie qui sous-tend le Bitcoin, finisse par être utilisé dans l’ensemble de l’industrie financière. Mais vous pouvez créer des blockchains indépendamment du Bitcoin ; les succès respectifs des blockchains et du Bitcoin ne sont pas inextricablement liés. Il est plus probable que la demande de Bitcoin augmente précisément parce que son prix augmente.

The_Economist__prix_bitcoin_recherches_google.png

source : The Economist (2017)

Bloomberg a publié un article sur ce qui pourrait faire éclater la bulle du Bitcoin. Premièrement, avec les divisions parmi les développeurs autour de la façon d’améliorer le réseau du Bictoin (…),différentes versions de la devise ont émergé de l’originale. Une fragmentation excessive peut se révéler catastrophique pour le Bitcoin, exactement comme elle l’a été pour le système financier américain durant l’ère de la banque libre. Deuxièmement, le spectre d’une répression complète sur les crypto-monnaies reste un risque extrême très présent, dans la mesure où le Bitcoin a pu être par le passé un moyen pour acheter des matériaux illicites, un véhicule pour la fuite des capitaux et une victime de détournements. Troisièmement, l’actif peut tomber entre les mains de hackers, comme ce fut le cas en 2011. Mais le piratage de 31 millions de dollars de la devise alternative "tether" un peu plus tôt ce mois n’a ralenti que momentanément la progression du Bictoin. Quatrièmement, l’introduction de futures peut amener davantage d’investisseurs à des prises de positions qui poussent les prix à la baisse. Cinquièmement, l’échec des échanges des grandes crypto-monnaies à gérer le trafic le jour où le Bitcoin a atteint les 10.000 dollars a rendu manifestes les problèmes de flexibilité auxquels les crypto-monnaies font face comme véhicules spéculatifs. Enfin, la soudaine hausse parabolique du Bitcoin est une énigme. Par conséquent, qu’est-ce qui nous empêche de penser qu’il puisse connaître soudainement la même trajectoire à la baisse?

Les économistes sont intervenus dans le débat, quelques fois en proposant des solutions extrêmes. Dans un entretien accordé à Quartz, Robert Shiller affirme que le Bitcoin est actuellement le meilleur exemple d’exubérance irrationnelle ou de bulle spéculative, alimentée par l’idée que les gouvernements ne peuvent le stopper, ni le réguler, qui résonne avec l’angoisse de notre époque. Dans un récent entretien accordé à Bloomberg, Joseph Stiglitz a dit que le Bitcoin rencontre le "succès seulement en raison des possibilités de contournement qu’il offre, du peu de surveillance dont il fait l’objet" et qu’il "doit être prohibé" parce qu’"il n’assure aucune fonction socialement utile".

Jean Tirole écrit dans le Financial Times qu’il y a plusieurs raisons d’être prudent à l’égard du Bitcoin ; les investisseurs doivent être protégés et l’on doit empêcher les banques réglementées, les assureurs et les fonds de pensions de s’exposer à ces instruments. Tirole affirme que le Bitcoin est une pure bulle, un actif sans valeur intrinsèque, donc insoutenable si la confiance disparaît. La valeur sociale du Bictoin est également douteuse : à la différence de l’assurance traditionnelle, il ne génère pas de seigneuriage, mais des "mining pools" s’affrontent pour obtenir des Bitcoins en investissant dans la puissance de calcul et en dépensant en électricité. Le Bictoin est peut-être un rêve libertarien, mais c’est un vrai mal de crâne pour ceux qui voient la politique publique comme un complément nécessaire aux économies de marché. Il est toujours trop souvent utilisé pour l’évasion fiscale ou le blanchiment d’argent et il présente des problèmes en ce qui concerne la capacité des banques centrales à mettre en œuvre des politiques contracyliques. Les avancées technologiques peuvent améliorer l’efficacité des transactions financières, mais elles ne doivent pas nous amener à oublier les fondamentaux économiques.

Kenneth Rogoff pense qu’à long terme la technologie va se développer, mais que le prix du Bitcoin va s’effondrer. La suite des événements va dépendre de la réaction des gouvernements et du succès que rencontreront les divers concurrents au Bitcoin dans leurs tentatives de pénétrer le marché. En principe, il est facile de cloner ou d’améliorer la technologie du Bitcoin, mais pas de dupliquer sa réputation, sa crédibilité et le large écosystème d’applications qui se sont accumulées autour de lui. Pour l’instant, l’environnement réglementaire reste chaotique, mais si le Bitcoin perdait de son quasi-anonymat, il serait difficile de justifier son prix actuel. Peut-être que les spéculateurs du Btcoin parient qu’il va toujours y avoir un consortium d’Etat rebelles qui autorisera l’usage du Bictoin ou même des acteurs étatiques tels que la Corée du Nord qui l’exploiteront. Il est également difficile de voir ce qui empêcherait les banques centrales de créer leurs propres devises digitales et d’utiliser la réglementation pour faire pencher la balance en leur faveur jusqu’à ce qu’elles gagnent. La longue histoire des monnaies nous enseigne que les innovations du secteur privé finissent par être réglementées et appropriées par l’Etat.

Tyler Cowen avait l’habitude de considérer le Bitcoin comme une bulle, mais plus maintenant. Il affirme que nous devons considérer que le Bitcoin joue de plus en plus un rôle qu'a pu tenir l’or, voire l’art. L’or, aussi, dans ses fonctions de couverture s’apparente à une "bulle", mais n’en est pas une. Il est difficile à transporter, mais il a une certaine valeur supplémentaire parce qu’il est perçu comme un actif central et qu’il n’est pas positivement corrélé avec le portefeuille de marché d’une façon simple. La même chose est exacte pour le Bitcoin, mais ce genre d’effervescence peut persister pendant des siècles. L’or sert moins en tant qu’instrument de couverture, en partie parce que l’inflation a été faible et en partie parce que la Chine et l’Inde ont dominé le marché de l’or (…). Donc, de nouvelles et meilleures couvertures sont nécessaires. Et le Bitcoin est un bon candidat à cet égard.

John Cochrane pense que ce qui se passe avec le Bictoin s’apparente à un phénomène parfaitement "normal". Combinez un rendement d’opportunité et une demande spéculative avec une offre temporairement limitée, plus une offre de substituts temporairement limitée, et vous obtenez une hausse du prix du Bitcoin. Cela peut aider s’il y a une forte asymétrie d’information ou d’opinion pour stimuler les échanges et, étant donné l’origine douteuse de la demande de Bitcoin (il n’y a pas de rapports annuels sur le volume que la mafia russe veut placer à l’étranger la semaine prochaine) c’est également possible.

Izabella Kaminska a un long article (…) où elle explique pourquoi les futures en Bitcoin et une structure de marché bien imparfaite posent problème. Elle écrit aussi dans le Financial Times que le véritable investissement n’est pas la même chose que le jeu et que, dans un contexte où la crypto-monnaie fait l’objet d’un fort engouement, les régulateurs doivent souligner cette distinction. Pendant des décennies, les régulateurs à travers du monde ont cherché à atténuer les effets négatifs du jeu. Pendant longtemps, les zones de jeu autorisées confinées à des zones géographiques spécifiques ont semblé constituer la solution optimale. Ce n’est plus le cas avec l’avènement d’Internet. Les contraintes géographiques ont commencé à perdre de leur sens, tandis que l’innovation (notamment l’invention de crypto-monnaies) a remis en cause l’efficacité des interdictions. Même si les échanges de crypto-monnaies étaient interdis, il est probable que certaines juridictions continueraient de les autoriser, que des portes dérobées soient créées en ligne pour continuer de servir les clients dans les zones restreintes. Cela ne laisse aujourd’hui qu’une option aux régulateurs. Les activités associées au jeu doivent être stigmatisées et non promues. »

Silvia Merler, « The Bitcoin Bubble », in Bruegel (blog), 4 décembre 2017. Traduit par Martin Anota

vendredi 24 novembre 2017

La courbe de Phillips a-t-elle disparu ?

« La courbe de Phillips suggère un arbitrage entre inflation et chômage. Les économistes ont récemment débattu sur sa possible disparition aux Etats-Unis et en Europe. Nous rapportons quelques uns des derniers commentaires.

Un article de The Economist affirme que la courbe de Phillips peut avoir disparu pour de bon, en montrant un graphique de l’inflation moyenne et du chômage cyclique pour les économies développées, c’est-à-dire où la courbe semble s’aplatir au cours du temps (cf. graphique 1). The Economist se réfère aussi à une récente étude de trois économistes de la Réserve fédérale de Philadelphie, affirmant que la courbe de Phillips n’est pas très utile pour prévoir l’inflation : les prévisions de leurs modèles de courbe de Phillips tendent à être inconditionnellement inférieures à celles d’un modèle de prévision univarié. Les prévisions tirées de la courbe de Phillips semblent plus précises lorsque l’économie est faible et moins précises lorsque l’économie est robuste, mais toute amélioration des prévisions disparaît au cours de la période qui suit 1984.

GRAPHIQUE 1 Inflation sous-jacente et chômage cyclique dans les pays développés (moyennes trimestrielles)

The_Economist__courbe_de_Phillips_pays_developpes_inflation_chomage_cyclique.png

source : The Economist (2017), d'après les données du FMI et de l'OCDE

Jeremie Banos et Spyros Michas affirment (…) que la courbe de Phillips cassée est un symptôme d’une révision à la baisse des anticipations d’inflation. Le cadre de la courbe de Phillips est peu efficace pour prévoir l’inflation, même après avoir bidouillé ses deux principales composantes : les anticipations d’inflation et (dans une moindre mesure) le NAIRU. Les anticipations d’inflation semblent être bien ancrées, mais personne ne sait où. Et le NAIRU peut, du moins théoriquement, chuter jusqu’à 0 % avant que l’inflation s’accélère de façon significative.

Larry Summers fait également parti de ceux qui pensent que la courbe de Phillips s’est enrayée et qui croient que le facteur explicatif le plus important est que le pouvoir de négociation des employeurs s’est accru et que celui des travailleurs a décliné. La technologie a donné aux employeurs plus de leviers pour contenir les salaires ; d’un autre côté, divers facteurs ont réduit le levier des travailleurs. Pour une variété des raisons, notamment une moindre disponibilité du crédit immobilier et la perte de valeur des logements existants, il est plus difficile de déménager que par le passé. La baisse de l’épargne dans le sillage de la crise signifie que plusieurs familles ne peuvent se permettre une quelconque interruption de travail. Summers affirme que les syndicats ont longtemps joué un rôle crucial dans l’économie américaine pour équilibrer le rapport de force entre les employeurs et les salariés, et donc les Etats-Unis n’ont jamais autant eu besoin des syndicats.

Andrew Haldane fait la même remarque pour le Royaume-Uni (cf. graphique 2), en considérant la désyndicalisation comme un symptôme du changement des relations salariés-employeurs. En 1990, environ 38 % des salariés en Grande-Bretagne étaient syndiqués. (…) En 2016, il s’élevait à 23 %. Aujourd’hui, environ 6 millions de salariés sont syndiqués, moins de la moitié du pic d’environ 13 millions à la fin des années soixante-dix.

GRAPHIQUE 2 Courbe de Phillips au Royaume-Uni

Andrew_Haldane__courbe_de_Phillips_Royaume-Uni.png

John Hanksworth et Jamie Durham ont suggéré (…) qu’en plus du rôle de la désyndicalisation, l’accroissement de l’immigration à destination du Royaume-Uni depuis 2004 peut aussi avoir joué un certain rôle dans la moindre sensibilisation de la croissance salariale vis-à-vis de l’accroissement de la demande de travail, dans la mesure où il rendit l’offre de travail plus élastique. Avec les évolutions de la politique migratoire du Royaume-Uni, ce facteur pourrait être moins important après le Brexit. C’est susceptible d’aggraver les pénuries de travailleurs de compétences spécifiques au Royaume-Uni, mais aussi de soutenir les hausses de salaire en bas de l’échelle (en plus des effets des hausses futures attendues du salaire minimum national).

Robert Waldmann (…) affirme que l’argument selon lequel l’ancrage des anticipations élimine la relation entre politique monétaire et résultats réels se fonde sur l’hypothèse selon laquelle, une fois que les agents économiques ont saisi la règle de politique, les modifications des taux d’intérêt, des agrégats monétaires et des taux d’inflation provoqués par la politique monétaire ne seraient pas corrélés avec les variables réelles. D’une manière ou d’une autre, ce qui était tout d’abord une hypothèse finit par avoir les traits d’une vérité révélée. Le simple fait, cependant, est que l’inflation et le chômage sont toujours corrélés, et ce même désormais que l’inflation est stable, et elle peut être prédite. La courbe de Phillips est actuellement bien vivante et bien portante en Europe, du moins si nous regardons l’inflation salariale moyenne dans les 15 pays qui constituaient déjà l’Union européenne en 1997 en comparaison avec le taux de chômage moyen.

Enfin, Gavyn Davies affirme que la courbe de Phillips a beau être dissimulée, elle existe toujours sous la surface. En se focalisant sur les Etats-Unis, il pose cinq questions. Premièrement, utilisons-nous les bonnes mesures de l’inflation et du chômage ? L’inflation salariale semble être au cœur de l’énigme entourant la courbe de Phillips, mais l’usage des séries de salaires horaires moyens et d’autres données officielles similaires peut avoir suggéré que la faible inflation salariale est plus visqueuse qu’elle ne l’est en réalité. Deuxièmement, des forces mondiales peuvent contenir l’inflation américaine, par exemple la présence de capacités de production inutilisées, notamment dans la zone euro, peut exercer des pressions baissières sur l’inflation américaine. Troisièmement, la courbe de Phillips est toujours visible dans les données des différentes Etats des Etats-Unis : si la courbe nationale a été dissimulée par des chocs structurels, notamment la mondialisation, ces chocs ont dû s’être appliqués assez uniformément dans les différents Etats de l’Union. Quatrièmement, la version standard de la courbe de Phillips inclut toujours un terme pour les anticipations d’inflation. Quand les anticipations sont révisées à la baisse, on s’attend à ce que l’inflation des prix et des salaires change dans la même direction, même si le chômage est stable ou décline. La récente révision à la baisse des anticipations d’inflation peut expliquer en partie pourquoi l’inflation enregistrée est restée faible, même si le chômage a chuté sous le taux naturel. Cinquièmement, les chocs d’inflation sont plus amples que les modifications des coefficients de la courbe de Phillips. Dans l’ensemble, le travail empirique semble par conséquent soutenir l’existence d’une relation négative entre chômage et inflation aux Etats-Unis et la zone euro ces dernières années. Cette relation a été dissimulée par d’autres chocs, non liés au chômage, qui ont d’importants effets sur l’inflation, mais elle n’a pas disparu. »

Silvia Merler, « Has the Phillips curve disappeared? », in Bruegel (blog), 21 novembre 2017. Traduit par Martin Anota

mardi 20 juin 2017

Le problème de la Fed avec l’inflation

« La Fed a relevé son principal taux directeur d’un quart de point de pourcentage. Cette mesure n’a surpris personne, mais elle a amené les économistes à s’interroger sur la relation de la Fed avec l’inflation. Nous passons en revue les plus récentes contributions.

Joseph Gagnon (…) affirme que la réunion de la Fed a eu son lot de surprises. Premièrement, Janet Yellen a affirmé que la baisse de 2 % à 1,5 % en avril du taux d’inflation que privilégie la Fed s’expliquait par une évolution exceptionnelle et transitoire des prix des services de téléphonie mobile et des produits pharmaceutiques en mars. Gagnon se demande si le comité fédéral d’open market (FOMC) ne renouerait pas avec sa mauvaise manie des années soixante-dix, lorsqu’il persistait à expliquer le niveau d’inflation d’alors en mettant sans cesse en avant des facteurs exceptionnels. Deuxièmement, le comité fédéral a donné des détails sur la façon par laquelle il comptait graduellement réduire son bilan et il a indiqué que le processus pourrait débuter à un moment ou un autre au cours de l’année. Yellen a refusé de dire si le comité fédéral augmenterait ses taux lors de la réunion où elle débuterait la contraction de bilan, mais Gagnon pense que la contraction de bilan peut commencer en septembre et que la prochaine hausse de taux peut attendre jusqu’à décembre. Troisièmement, Yellen a été interrogée à propos d’une lettre signée par divers économistes appelant le comité de politique monétaire à relever sa cible d’inflation ou à changer le cadre de sa politique monétaire pour éviter que l’inflation demeure sous la cible et elle s’est montrée étonnamment ouverte à cette suggestion, en disant qu’il s’agit d’une question très importante que le comité de politique monétaire étudierait.

Jared Bernstein se demande aussi si la Fed ne serait pas en train de mener une vieille guerre. Certes l’économie américaine est proche du plein emploi, mais la hausse de l’indicateur préféré de la Fed, le déflateur des dépenses de consommation personnelle, est inférieur à la cible d’inflation de 2 % et ralentit. Elle a ralenti en passant de 1,8 % lors des deux premiers mois de l’année à 1,6 % au cours des deux derniers mois. Les anticipations restent également basses (inférieures à 2 %). C’est l’opposé de ce à quoi on pourrait s’attendre si les tensions sur le marché du travail alimentaient la hausse des prix et c’est une raison légitime pour ne pas chercher à appuyer sur les freins avec une autre hausse des taux. (…) En regardant les prévisions de la Fed concernant l’évolution future de l’inflation, Bernstein note que la Fed croit que l’inflation va rejoindre l’inflation de 2 %, mais l’inflation observée continue d’ignorer ses prédictions. Cela suggère un problème avec le modèle.

Larry Summers a présenté les cinq raisons l’amenant à penser que la Fed est peut-être en train de commettre une erreur. Premièrement, la Fed n’est en ce moment pas crédible avec les marchés. Ses points prédisent quatre hausses de taux au cours des 18 mois alors que le marché s’attend à moins de deux hausses. Les marchés ne partagent pas l’opinion de la Fed selon laquelle l’accélération de l’inflation constitue un risque majeur ; en fait, ils ne croient pas que la Fed atteigne sa cible d’inflation de 2 % de si tôt. Deuxièmement, la Fed affirme qu’elle a un engagement symétrique concernant sa cible d’inflation de 2 %. Après une décennie où l’inflation a été inférieure à sa cible, la politique monétaire doit être fixée en vu de relever modestement la cible d’inflation durant un boom avec l’anticipation que l’inflation va décliner au cours de la récession suivante. Une cible d’inflation plus élevée implique une politique monétaire bien plus souple que ce qui est actuellement envisagé. Troisièmement, les attaques préventives contre l’inflation, telles que les attaques préventives contre pays, dépendent de la capacité à juger les menaces de façon précise. La vérité est que nous avons peu de capacité pour juger quand l’inflation va s’accélérer de façon significative. La courbe de Phillips est au mieux peu présente dans les données relatives aux 25 dernières années. Quatrièmement, il y a une bonne raison de croire qu’un niveau donné de taux est biens moins expansionniste que par le passé en raison de forces structurelles qui contribuent à accroître les propensions à épargner tout en réduisant les propensions à investir. Cinquièmement, pour abandonner sa connexion à la stabilité des prix, la Fed doit seulement affirmer que son objectif est d’assurer que l’inflation atteigne en moyenne 2 % au cours de très longues périodes de temps. Ensuite, elle doit faire savoir que l’inflation a beau être persistante, il est très difficile de la prévoir et signaler qu’elle va se focaliser sur les données relatives à l’inflation et aux anticipations d’inflation plutôt que des indicateurs de production et du chômage pour prévoir l’inflation. Avec tout cela pris en compte, la Fed ramènerait ses prévisions de taux d’inflation à celles du marché et gagnerait en crédibilité. Cela permettrait à l’inflation de se rapprocher de la cible de 2 % et donnerait plus de marge pour que l’emploi et la production s’accroissent davantage.

David Beckworth affirme que soit la Fed est l’institution la plus malchanceuse du monde, soit la Fed a un problème. Il croit que la Fed a commencé à avoir un problème avec l’inflation à 2 % à peu près lorsqu’a éclaté la Grande Récession. Le résumé des prévisions économiques du comité fédéral montre une tendance centrale des membres du comité depuis 2008 à indique qu’il voit l’inflation optimale non pas à 2 %, mais quelque part entre 1 et 2 %. La performance effective de l’indicateur d’inflation préféré de la Fed, le déflateur des dépenses de consommation personnelle, est cohérente avec cette idée. Celui-ci s’est élevé en moyenne à environ 1,5 % de % depuis la reprise, c’est-à-dire depuis le milieu de l’année 2009. Beckworth affirme que c’est révélateur des préférences et ne découle pas d’une série d’incidents provoquée par la malchance. La Fed ne cible explicitement une inflation de 2 % que depuis 2012, mais plusieurs études ont montré qu’elle a implicitement fait cela depuis les années quatre-vingt-dix. Donc cela a réellement été un problème pour la Fed pendant plus de huit ans et les remarques de Janet Yellen en deviennent décevantes à entendre. On penserait qu’après quasiment une décennie au cours de laquelle l’inflation a été inférieure à sa cible de 2 % il pourrait y avoir une prise de conscience de la part du comité fédéral qu’il "traite les 2 % comme un plafond plutôt que comme une cible" (comme l’a affirmé Neel Kashkari, le président de la Réserve fédérale de Minneapolis).

Cardiff Garcia (…) se montre également critique quant à la décision de la Fed. Il affirme que depuis le tout début de la reprise, la Fed a eu une vision trop pessimiste du potentiel dont dispose l’économie pour réduire le chômage avant de buter sur des obstacles structurels. La Fed s’est aussi montrée bien pessimiste quant au potentiel du marché du travail à se cicatriser lors des premières années de la reprise. Le taux de long terme attendu n’a commencé à chuter de nouveau qu’à partir du milieu de l’année 2013, comme le taux de chômage continua de poursuivre sa baisse tendancielle. Dans la mesure où le taux de chômage est parvenu à atteindre 4,3 % sans que l’inflation s’accélère, la Fed semble avoir eu une vision excessivement pessimiste de la capacité de l’économie à rebondir. La question est alors : A-t-elle eu raison de ne pas s’attendre à ce que le taux chute autant qu’il le fit ? Avec le recul, il est impossible de dire oui. En réponse à une question qu’on lui avait posée, Janet Yellen suggéra qu’il est toujours difficile d’estimer le taux de chômage de long terme. Garcia affirme qu’elle a raison, mais tirer des leçons du passé signifie reconnaître les erreurs passées. Si la Fed avait saisi plus tôt la nature de l’économie, peut-être qu’elle aurait compris qu’elle pouvait être plus agressive (…). On pourrait penser que l’échec continu de la Fed à (…) maintenir de façon soutenable l’inflation à proximité de la cible et (…) une croissance plus saine des salaires trouve son origine dans cette erreur passée. Etant donné que l’estimation de long terme du taux de chômage reste au-dessus du taux actuel malgré la faiblesse de l’inflation et de la croissance des salaires, on pourrait aussi penser que la Fed continue de commettre cette erreur. »

Silvia Merler, « The Fed’s problem with inflation », in Bruegel (blog), 19 juin 2017. Traduit par Martin Anota



« Un plein emploi en trompe-l’œil aux Etats-Unis »

« La courbe de Phillips est-elle bien morte ? (édition américaine) »

lundi 5 juin 2017

Comment l’immigration affecte-t-elle les salaires des natifs ? Zoom sur l’exode de Mariel

« Comment l’immigration affecte-t-elle les salaires des travailleurs locaux ? Une façon de répondre à cette question consiste à exploiter une expérience naturelle. L’exode de Mariel de 1980 constitue une expérience idéale (puisqu’il s’est traduit par une hausse soudaine et ample du nombre de travailleurs peu qualifiés dans une unique ville), mais ses conséquences sont toujours violemment débattues.

En 1980, 125.000 immigrés (essentiellement peu qualifiés) sont arrivés à Miami en passant par la baie de Mariel, à Cuba, en l’espace de quelques mois. En 1990, David Card a étudié les effets de l’exode de Mariel sur le marché du travail de Miami. Les exilés de Mariel accrurent la population active de Miami de 7 % et l’offre de travail des professions et secteurs peu qualifiés encore bien plus amplement, dans la mesure où la plupart des immigrés étaient dépourvus de qualifications. Néanmoins, Card conclut au terme de son analyse que l’arrivée des exilés de Mariel n’a finalement eu d’effet ni sur les salaires, ni sur le taux de chômage des travailleurs peu qualifiés, même parmi les Cubains qui étaient issus de précédentes vagues d’immigration. Card a suggéré que la capacité du marché du travail de Miami à absorber rapidement les immigrés de Mariel s’expliquait par son ajustement aux précédentes vagues d’immigrés.

GRAPHIQUE Nombre d’immigrés cubains à Miami

George_Borjas__Nombre_d_immigres_cubains_a_Cuba_exode_de_Mariel.png

source : Borjas (2015)

Ethan Lewis a étudié deux explications possibles des résultats de Card : (1), si après l’exode Miami a accru sa production de biens manufacturés intensifs en travail non qualifié, lui permettant d’"exporter" l’impact de l’exode ; et (2) si la ville de Miami s’est adaptée à l’exode en adoptant de nouvelles technologies complémentaires avec le travail qualifié plus lentement qu’elle ne l’aurait sinon fait. Les résultats de Lewis suggérèrent que les salaires n’ont pas été sensibles aux chocs d’immigration locaux parce que la technologie de production s’adapte aux offres locales de facteurs. Bodvarsson et ses coauteurs affirment qu’une raison pour laquelle l’immigration n’a pas eu d’effet négatif manifeste sur les salaires des natifs est que les immigrants, en tant que consommateurs, contribuent à la demande de services produits par les natifs. Ils ont modélisé une économie où les travailleurs dépensent leurs salaires sur un bien produit localement, puis ont testé cela en réexaminant l’exode de Mariel. Ils ont alors trouvé des preuves empiriques robustes suggérant que l’exode a augmenté la demande de travail.

En 2015, George Borjas a publié la première version d’un article qui renverse complètement les résultats de la littérature existante sur le choc d’offre de Mariel. Borjas y affirme que toute tentative crédible visant à mesurer l’impact salarial doit prendre en compte les qualifications des immigrés avec celles des travailleurs déjà en place. Au moins 60 % des Marielitos étaient des élèves qui avaient décroché au lycée et n’avaient ainsi pas obtenu de diplôme du secondaire, or l’analyse des salaires dans ce groupe faiblement qualifié suggère que l’exode de Mariel a affecté la structure des salaires de Miami. Le salaire des décrocheurs du secondaire à Miami a fortement chuté, de 10 à 30 % (…).

En 2015, Peri et Yasenov ont réexaminé les effets de l’exode de Mariel sur le salaire et l’emploi en utilisant une méthode de contrôle synthétique pour choisir un groupe de contrôle pour Miami de façon à mieux coller aux caractéristiques de marché du travail au cours des huit années qui précédèrent l’exode. En analysant les salaires et les taux de chômage, ils n’ont constaté aucun écart significatif entre Miami et son groupe de contrôle de 1980 à 1983.

Peri et Yasenov ont aussi répliqué les résultats de Borjas et ils ont alors constaté qu’une large déviation négative des salaires des décrocheurs du secondaire à Miami n’apparaît que lorsqu’on utilise les données de l’enquête courante sur la population de mars. En outre, la déviation est significative seulement dans un sous-échantillon obtenu en éliminant les femmes hispaniques non cubaines et en sélectionnant une gramme étroite d’âge (ceux âgés de 25 à 59 ans) parmi les décrocheurs du secondaire. Ces choix très drastiques font que l’échantillon de Miami est tellement étroit qu’il ne comprend que 15-20 observations par année et que l’erreur de mesure dans les salaires moyens de Miami peuvent être de 20 à 30 % pour un tel échantillon. Ils affirment que ces restrictions sont problématiques parce qu’elles éliminent les groupes de travailleurs sur lequel l’effet de l’exode de Mariel devrait être particulièrement fort. Ils montrent qu’en ajustant l’échantillon de Borjas pour inclure ces sous-groupes de décrocheurs du secondaire ou en observant des résultats alternatifs, les différences entre Miami et le groupe de contrôle après 1979 varient énormément (…) si on utilise les données de mars de l’enquête courante sur la population.

Borjas a répondu avec un second article où il cherche à isoler la source des résultats contradictoires. Il y affirme que les principales raisons expliquant la divergence entre les résultats sont que Peri et Yasenov (…) ignorent l’effet contaminant d’un accroissement du taux d’activité des femmes. Ils incluent aussi des hispaniques non cubains dans l’analyse, mais ils ignorent qu’au moins un tiers de ces Hispaniques sont nés à l’étranger et ont immigré dans les années quatre-vingt. Enfin, ils incluent des travailleurs âgés de 16 à 18 ans dans l’échantillon. Parce que presque tous ces "travailleurs" sont toujours au lycée et n’ont pas encore obtenu un diplôme du secondaire, cette très large population d’élèves du secondaire est systématiquement mal classifiée comme constituant des décrocheurs du secondaire. Borjas affirme que c’est une erreur fondamentale dans la construction des données, qui contamine l’analyse et contribue à dissimuler le véritable effet du choc d’offre de Mariel.

Plus récemment, Clemens et Hunt ont affirmé que la divergence des résultats auxquels aboutissent les analyses respectives de Card, de Borjas et de Peri et Yasenov de l’exode de Mariel peut s’expliquer par un soudain changement dans la composition raciale des données qu’ils ont utilisées, c’est-à-dire l’enquête courante sur la population (Current Population Survey). Cette enquête est réalisée chaque mois et les deux ensembles de données tirés de celle-ci incluent aussi les salaires des travailleurs. Clemens et Hunt soulignent que les méthodes de l’enquête ont été améliorées en 1980 afin de couvrir davantage d’hommes afro-américains faiblement qualifiés, dans la mesure où ces derniers étaient jusqu’alors sous-représentés. A partir de 1981, l’échantillon d’hommes afro-américains faiblement qualifiés couvert par l’enquête s’est modifié, en incluant relativement plus d’hommes afro-américains n’ayant pas obtenu un diplôme du secondaire et relativement moins d’hommes afro-américains qui réussirent à obtenir un diplôme du secondaire.

Donc, en 1980, un événement a coïncidé avec l’exode de Mariel : la fraction d’afro-américains doubla soudainement dans le sous-groupe de travailleurs de Miami n’ayant au maximum qu’un diplôme du secondaire qu’analyse Borjas (2017). Aucune hausse similaire n’est survenue dans le sous-groupe de natifs ayant au maximum un diplôme du secondaire analysé par Card (1990) dans le même ensemble de données, ni dans les villes de contrôle utilisées par Card ou Borjas. Clemens et Hunt affirment qu’en raison de la large divergence de salaires entre les travailleurs afro-américains et les autres travailleurs n’ayant pas obtenu de diplôme du secondaire, cette forte hausse (…) peut entièrement expliquer la magnitude des effets mesurés par Borjas (2017) relativement au résultat nul de Card (1990). La chute de salaire identifiée par Borjas serait par conséquent entièrement fallacieuse. (…) »

Silvia Merler, « The Mariel boatlift controversy », in Bruegel (blog), 5 juin 2017. Traduit par Martin Anota



aller plus loin... lire « L’immigration nuit-elle à l’emploi ? »