Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

dimanche 10 décembre 2017

Une bulle sur le marché du Bitcoin ?

« Le prix du Bitcoin vient juste de passer les 11.000 dollars. Il y a un an, il valait moins de 800 dollars. Les économistes et les commentateurs s’inquiètent donc de plus en plus à l’idée qu’il puisse s’agir d’une bulle qui n’attend plus qu’à éclater. Nous passons en revue divers commentaires sur le sujet.

Le prix du Bitcoin a atteint et dépassé les 11.000 dollars, alors qu’il s’élevait à seulement 800 dollars il y a un an (cf. graphique). Selon The Economist (…), les cours sur le marché boursier sont certes élevés depuis quelques temps, les actions ne connaissent pas la même effervescence qu’ils ont connue avec la bulle internet de 1999-2000. Cette effervescence s’est déplacée au monde des crypto-monnaies comme le Bitcoin ou l’Ethereum. L’attrait dont elles bénéficient s’explique par trois choses : le fait que l’offre soit limitée ; les craintes à propos de la valeur à long terme des monnaies fiduciaires dans une ère d’assouplissement quantitatif ; et l’anonymat qu’elles permettent. Ces trois facteurs expliquent pourquoi le Bitcoin fait l’objet d’une certaine demande, mais pas pourquoi son prix a récemment augmenté. Peut-être que la demande de Bitcoin a augmenté du fait que certains s’attendent à ce que le blockchain, la technologie qui sous-tend le Bitcoin, finisse par être utilisé dans l’ensemble de l’industrie financière. Mais vous pouvez créer des blockchains indépendamment du Bitcoin ; les succès respectifs des blockchains et du Bitcoin ne sont pas inextricablement liés. Il est plus probable que la demande de Bitcoin augmente précisément parce que son prix augmente.

The_Economist__prix_bitcoin_recherches_google.png

source : The Economist (2017)

Bloomberg a publié un article sur ce qui pourrait faire éclater la bulle du Bitcoin. Premièrement, avec les divisions parmi les développeurs autour de la façon d’améliorer le réseau du Bictoin (…),différentes versions de la devise ont émergé de l’originale. Une fragmentation excessive peut se révéler catastrophique pour le Bitcoin, exactement comme elle l’a été pour le système financier américain durant l’ère de la banque libre. Deuxièmement, le spectre d’une répression complète sur les crypto-monnaies reste un risque extrême très présent, dans la mesure où le Bitcoin a pu être par le passé un moyen pour acheter des matériaux illicites, un véhicule pour la fuite des capitaux et une victime de détournements. Troisièmement, l’actif peut tomber entre les mains de hackers, comme ce fut le cas en 2011. Mais le piratage de 31 millions de dollars de la devise alternative "tether" un peu plus tôt ce mois n’a ralenti que momentanément la progression du Bictoin. Quatrièmement, l’introduction de futures peut amener davantage d’investisseurs à des prises de positions qui poussent les prix à la baisse. Cinquièmement, l’échec des échanges des grandes crypto-monnaies à gérer le trafic le jour où le Bitcoin a atteint les 10.000 dollars a rendu manifestes les problèmes de flexibilité auxquels les crypto-monnaies font face comme véhicules spéculatifs. Enfin, la soudaine hausse parabolique du Bitcoin est une énigme. Par conséquent, qu’est-ce qui nous empêche de penser qu’il puisse connaître soudainement la même trajectoire à la baisse?

Les économistes sont intervenus dans le débat, quelques fois en proposant des solutions extrêmes. Dans un entretien accordé à Quartz, Robert Shiller affirme que le Bitcoin est actuellement le meilleur exemple d’exubérance irrationnelle ou de bulle spéculative, alimentée par l’idée que les gouvernements ne peuvent le stopper, ni le réguler, qui résonne avec l’angoisse de notre époque. Dans un récent entretien accordé à Bloomberg, Joseph Stiglitz a dit que le Bitcoin rencontre le "succès seulement en raison des possibilités de contournement qu’il offre, du peu de surveillance dont il fait l’objet" et qu’il "doit être prohibé" parce qu’"il n’assure aucune fonction socialement utile".

Jean Tirole écrit dans le Financial Times qu’il y a plusieurs raisons d’être prudent à l’égard du Bitcoin ; les investisseurs doivent être protégés et l’on doit empêcher les banques réglementées, les assureurs et les fonds de pensions de s’exposer à ces instruments. Tirole affirme que le Bitcoin est une pure bulle, un actif sans valeur intrinsèque, donc insoutenable si la confiance disparaît. La valeur sociale du Bictoin est également douteuse : à la différence de l’assurance traditionnelle, il ne génère pas de seigneuriage, mais des "mining pools" s’affrontent pour obtenir des Bitcoins en investissant dans la puissance de calcul et en dépensant en électricité. Le Bictoin est peut-être un rêve libertarien, mais c’est un vrai mal de crâne pour ceux qui voient la politique publique comme un complément nécessaire aux économies de marché. Il est toujours trop souvent utilisé pour l’évasion fiscale ou le blanchiment d’argent et il présente des problèmes en ce qui concerne la capacité des banques centrales à mettre en œuvre des politiques contracyliques. Les avancées technologiques peuvent améliorer l’efficacité des transactions financières, mais elles ne doivent pas nous amener à oublier les fondamentaux économiques.

Kenneth Rogoff pense qu’à long terme la technologie va se développer, mais que le prix du Bitcoin va s’effondrer. La suite des événements va dépendre de la réaction des gouvernements et du succès que rencontreront les divers concurrents au Bitcoin dans leurs tentatives de pénétrer le marché. En principe, il est facile de cloner ou d’améliorer la technologie du Bitcoin, mais pas de dupliquer sa réputation, sa crédibilité et le large écosystème d’applications qui se sont accumulées autour de lui. Pour l’instant, l’environnement réglementaire reste chaotique, mais si le Bitcoin perdait de son quasi-anonymat, il serait difficile de justifier son prix actuel. Peut-être que les spéculateurs du Btcoin parient qu’il va toujours y avoir un consortium d’Etat rebelles qui autorisera l’usage du Bictoin ou même des acteurs étatiques tels que la Corée du Nord qui l’exploiteront. Il est également difficile de voir ce qui empêcherait les banques centrales de créer leurs propres devises digitales et d’utiliser la réglementation pour faire pencher la balance en leur faveur jusqu’à ce qu’elles gagnent. La longue histoire des monnaies nous enseigne que les innovations du secteur privé finissent par être réglementées et appropriées par l’Etat.

Tyler Cowen avait l’habitude de considérer le Bitcoin comme une bulle, mais plus maintenant. Il affirme que nous devons considérer que le Bitcoin joue de plus en plus un rôle qu'a pu tenir l’or, voire l’art. L’or, aussi, dans ses fonctions de couverture s’apparente à une "bulle", mais n’en est pas une. Il est difficile à transporter, mais il a une certaine valeur supplémentaire parce qu’il est perçu comme un actif central et qu’il n’est pas positivement corrélé avec le portefeuille de marché d’une façon simple. La même chose est exacte pour le Bitcoin, mais ce genre d’effervescence peut persister pendant des siècles. L’or sert moins en tant qu’instrument de couverture, en partie parce que l’inflation a été faible et en partie parce que la Chine et l’Inde ont dominé le marché de l’or (…). Donc, de nouvelles et meilleures couvertures sont nécessaires. Et le Bitcoin est un bon candidat à cet égard.

John Cochrane pense que ce qui se passe avec le Bictoin s’apparente à un phénomène parfaitement "normal". Combinez un rendement d’opportunité et une demande spéculative avec une offre temporairement limitée, plus une offre de substituts temporairement limitée, et vous obtenez une hausse du prix du Bitcoin. Cela peut aider s’il y a une forte asymétrie d’information ou d’opinion pour stimuler les échanges et, étant donné l’origine douteuse de la demande de Bitcoin (il n’y a pas de rapports annuels sur le volume que la mafia russe veut placer à l’étranger la semaine prochaine) c’est également possible.

Izabella Kaminska a un long article (…) où elle explique pourquoi les futures en Bitcoin et une structure de marché bien imparfaite posent problème. Elle écrit aussi dans le Financial Times que le véritable investissement n’est pas la même chose que le jeu et que, dans un contexte où la crypto-monnaie fait l’objet d’un fort engouement, les régulateurs doivent souligner cette distinction. Pendant des décennies, les régulateurs à travers du monde ont cherché à atténuer les effets négatifs du jeu. Pendant longtemps, les zones de jeu autorisées confinées à des zones géographiques spécifiques ont semblé constituer la solution optimale. Ce n’est plus le cas avec l’avènement d’Internet. Les contraintes géographiques ont commencé à perdre de leur sens, tandis que l’innovation (notamment l’invention de crypto-monnaies) a remis en cause l’efficacité des interdictions. Même si les échanges de crypto-monnaies étaient interdis, il est probable que certaines juridictions continueraient de les autoriser, que des portes dérobées soient créées en ligne pour continuer de servir les clients dans les zones restreintes. Cela ne laisse aujourd’hui qu’une option aux régulateurs. Les activités associées au jeu doivent être stigmatisées et non promues. »

Silvia Merler, « The Bitcoin Bubble », in Bruegel (blog), 4 décembre 2017. Traduit par Martin Anota

samedi 2 décembre 2017

L’élaboration et la réception du discours présidentiel de Friedman

« Dans quelques semaines, le fameux discours présidentiel où Milton Friedman a introduit la notion de taux de chômage d’équilibre et s’est opposé à l’usage de la courbe de Phillips dans la politique macroéconomique fêtera ses 50 ans. Il a atteint plus de 8.000 citations, c’est-à-dire davantage que l’ensemble des preuves de l’existence d’un équilibre général apportées par Arrow, Debreu et McKenzie, davantage que l’article de Lucas où celui-ci avance sa fameuse critique. Dans un article qui sera présenté à la session anniversaire organisée par l’American Economic Association en janvier, Greg Mankiw et Ricardo Reis se sont demandé "ce qui explique la grande influence de ce travail", qu’ils interprètent comme "le point de départ pour les modèles d’équilibre général stochastiques dynamiques" (DSGE). Ni leur article, ni la contribution d’Olivier Blanchard qui sera également présentée à cette conférence, ne montrent comment l’allocution de Friedman a pu capturer l’opinion des macroéconomistes. C’est une tâche pour laquelle les historiens de la pensée économique (dont aucun n’est invité à la session anniversaire) sont les mieux équipés. En l’occurrence, plusieurs travaux historiques ont récemment éclairé comment Friedman a élaboré son allocution et comment celle-ci s’est divulguée.

L’élaboration de l’allocution présidentielle de Friedman


Un vendredi soir de décembre 1967, dans le Sheraton Hall de Washington, le président de l’American Economic Association Milton Friedman commença son allocution présidentielle ainsi : "Il y a un large accord à propos des objectifs majeurs de la politique économie : un emploi élevé, des prix stables et une croissance rapide. Il y a par contre plus de désaccords à l’idée que ces objectifs puissent être mutuellement compatibles ou, parmi ceux qui les considèrent comme incompatibles, à propos les modalités par lesquelles ils peuvent et doivent se substituer l’un à l’autre. Il y a plus de désaccords à propos du rôle que divers instruments de politique économique peuvent et doivent jouer pour atteindre les divers objectifs. Mon sujet ce soir portera sur le rôle d’un de ces instruments – la politique monétaire",

Comme l’a expliqué James Forder, Friedman a réfléchi à son allocution pendant au moins 6 mois. En juillet, il avait écrit un premier brouillon, appelé "Can full employment be a criterion of monetary policy?" ("Le plein emploi peut-il être un critère de politique monétaire ?"). A cette époque, Friedman voulait remettre en cause l’idée qu’il existe un arbitrage entre inflation et chômage. L’idée "que le plein emploi (…) puisse être atteint et doive être un critère spécifique de politique monétaire, que cette dernière doive être accommodante quand le chômage est élevé (…) est tellement tenue pour acquise qu’il vous sera difficile de croire que (…) cette croyance est fausse", écrit-il. L’une des raisons qu’il invoque est qu’il existe un "taux de chômage naturel (…), dont le niveau serait celui qui serait généré par un système walrasien d’équations d’équilibre", un chômage qu’il est difficile de cibler. Il a ensuite cherché à expliquer pourquoi il n’y avait pas, en fait, d’arbitrage à long terme entre inflation et chômage.



Dans l’essentiel du raisonnement, il n’y a pas de référence explicite à la "courbe de Phillips" ; cette dernière n’est discutée sur deux pages. Friedman, qui avait, en restant à la LSE en 1952, abondamment discuté de l’inflation et des anticipations avec notamment William Phillips et Phillip Cagan, expliqua que la confusion entre salaires réels et nominaux du premier était peut-être compréhensible dans une ère de prix stables, mais qu’elle était désormais devenue problématiques. En effet, comme l’inflation pousse les salaires réels (et le chômage) à la baisse, les anticipations s’adaptent : "il y a toujours un arbitrage temporaire entre l’inflation et le chômage ; il n’y a pas d’arbitrage permanent. L’arbitrage temporaire ne vient pas de l’inflation en soi, mais de l’inflation non anticipée, c’est-à-dire généralement une accélération de l’inflation", conclut-il.

Mais au final, l’allocution que Friedman donna en décembre couvrit un domaine beaucoup plus vaste. L’allocution commença avec la démonstration que la politique monétaire ne peut pas ancrer les taux d’intérêt et la section sur le taux de chômage naturel s’est trouvée complétée par des réflexions sur la façon par laquelle la politique monétaire doit être conduite. En lien avec ce qu’il conseillait depuis 1948, Friedman suggéra que les autorités monétaires devaient obéir à trois principes : (1) ne pas faire de la politique monétaire une force perturbatrice ; (2) cibler des grandeurs que les autorités peuvent contrôler et (3) éviter de brutales fluctuations. Ces trois principes seraient mieux combinés quand la banque centrale "adopte publiquement une politique visant à atteindre un taux régulier de croissance comme celui d’un total monétaire précis", ce qui fut par la suite appelé la "règle de k %" de Friedman.

L’interprétation habituelle de l’allocution de Friedman est précisément celle véhiculée par Mankiw et Reis, c’est-à-dire celle d’une réaction à la présentation de la courbe de Phillips par Samuelson et Solow en 1960 comme un "menu d’options entre divers degrés de chômage et de stabilité des prix". Mankiw et Reis supposent que cette interprétation, avec l’idée que l’arbitrage puisse varier au cours du temps, était si acceptée qu’ils considèrent Samuelson, Solow et leurs disciples comme le seul public auquel Friedman cherchait à s’attaquer. Pourtant, Forder et Robert Leeson, entre autres, ont apporté des preuves robustes que les macroéconomistes présentaient déjà une approche bien plus subtile du ciblage du chômage dans la politique monétaire. La nature des anticipations et la forme des anticipations faisaient l’objet de nombreuses discussions aussi bien aux Etats-Unis qu’au Royaume-Uni. Samuelson, Phelps, Cagan, Hicks ou Phillips avaient régulièrement indiqué, aussi bien dans des publications universitaires que dans des journaux, que l’idée d’un arbitrage doit être sérieusement nuancée en théorie et ne doit en aucun cas guider la politique monétaire à la fin des années soixante. Friedman lui-même avait déjà consacré tout une chronique en 1966 dans Newsweek pour expliquer pourquoi il y aurait "une récession inflationniste".

Cet environnement intellectuel, aussi bien que le changement de focale de la version définitive de cette allocution amena Forder à conclure qu’"il n’y a pas de preuve que Friedman ait voulu mettre l’accent sur un quelconque argument à propos des anticipations ou de la courbe de Phillips et (…) qu’il n’aurait pas trouvé un tel argument nouveau, surprenant ou intéressant". Nous sommes en désaccord avec cette idée. En effet, un discours devant l'AEA constituait un forum dont Friedman ne pouvait négliger la portée, d'autant plus que les débats académiques et politiques sur la politique monétaire prenaient de l'ampleur à l'époque. Le lendemain de l’allocution de Friedman, William Poole, de John Hopkins, présenta un article intitulé "Monetary Policy in an Uncertain World" ("La politique monétaire dans un monde incertain"). Six moins après, la Réserve fédérale de Boston tint une conférence sur "le contrôle des agrégats monétaires". Présentée comme la première d’une "série couvrant une large gamme de problèmes financiers ou monétaires", son propos était de faciliter les échanges sur l’"une des questions de politique économique les plus pressantes actuellement, le rôle de la monnaie dans l’activité économique". Cela amena Samuelson, David Meiselman, James Tobin, Alan Meltzer, John Kareken à se pencher ensemble sur le "modus operandi de la Réserve fédérale", James Duesenberry sur "les tactiques et les cibles de la politique monétaire" et le membre du comité Sherman Maisel sur "le contrôle des agrégats monétaires". Lorsqu’il ouvrit la conférence, Samuelson proposa à ce que "la question centrale qui soit débattue les jours suivants en connexion avec la macroéconomie soit la doctrine du monétarisme", citant, non pas la récente allocution de Friedman, mais son Histoire monétaire des Etats-Unis de 1963, réalisée avec Anna Schwartz. Cette même année, le Journal of Money, Credit and Banking a été créé, suivi par le Journal of Monetary Economics en 1973. Les économistes ont joué un plus grand rôle à la Fed depuis 1965, quand Ando et Modigliani furent chargés de développer d’un large modèle macroéconométrique (…).

En réfléchissant au "rôle de la politique monétaire" à un tel moment crucial, Friedman essayait donc de s’adresser à des publics bien différents. C’est pour cela que son discours était à la fois théorique, historique et orienté vers la politique économique, qu’il a amalgamé divers arguments avec l’objectif de proposer un ensemble convaincant. Le fait que, dans des contextes et des débats scientifiques changeants, ces différents publics aient retenu, souligné et naturalisé différents morceaux de l’ensemble nous empêche de bien suivre sa divulgation et de bien saisir son influence.

Le discours de Friedman dans le contexte des années soixante-dix


La divulgation au sein du monde universitaire


Ce sont les macroéconomistes universitaires auquel Friedman s’adressa le plus directement. Le récit canonique (celui dont Mankiw et Reis font écho) est que l’allocution de Friedman a ouvert la voie au déclin du keynésianisme et à l’essor de la nouvelle école classique, pour ne pas dire des modèles DSGE. Mais certaines recherches historiques en cours que l’un d’entre nous (Aurélien) réalise en collaboration avec Goulven Rubin suggèrent que ce furent plutôt des économistes keynésiens (et non les nouveaux classiques) qui impulsèrent la diffusion de l’hypothèse du taux de chômage naturel. Un protagoniste clé fut Robert Gordon, qui venait juste d’achever sa thèse sur les "problèmes de la mesure de l’investissement réel dans le secteur privé de l’économie américaine" sous la direction de Solow au MIT lorsque Friedman fit son discours. Il rejeta initialement l’hypothèse de taux de chômage naturel ; il ne l’adopta que bien après, dans ce qui deviendra le modèle du manuel élémentaire des nouveaux keynésiens à la fin des années soixante-dix.

Ce n’est pas la théorie qui l’amena à changer d’avis. Ce furent les données empiriques : dans la courbe de Phillips où l’inflation salariale dépend des anticipations d’inflation et du chômage que Solow et lui-même estimèrent séparément en 1970, le paramètre associé aux anticipations d’inflation était extrêmement faible, chose qui l’amena à rejeter l’argument accélérationniste de Friedman. Par conséquent, Gordon trouvait que l’impact du changement de la composition de la population active (en termes d’âge et de sexe) sur le taux de chômage structurel, mis en lumière par George Perry, constituait une meilleure explication pour l’accélération de l’inflation à la fin des années soixante. En 1973, le paramètre avait suffisamment augmenté pour que l’économiste keynésien change d’avis. Il importa le taux de chômage naturel dans un modèle sans apurement avec une concurrence imparfaite et des rigidités salariales, ce qui permettait de faire apparaître un chômage involontaire et surtout préservait la justification de politiques monétaires actives de stabilisation.

Le manuel de 1978 où Gordon introduisit son cadre offre globale-demande globale présenta tout un chapitre sur la courbe de Phillips, dans lequel il s’appuyait explicitement sur l’allocution de Friedman pour expliquer pourquoi la courbe était supposée verticale à long terme. Les éditions suivantes continuèrent de se référer au taux de chômage naturel et à la verticalité à long terme, mais plutôt expliqués avec la concurrence imparfaite et la rigidité des salaires. 1978 fut aussi l’année où Stanley Fischer et Rudiger Durnbusch publièrent leur ouvrage Macroeconomics (le modèle des manuels de macro ultérieurs). Les deux auteurs firent allusion à un possible arbitrage à long terme, mais comme Gordon, établie sur une courbe de Phillips verticale à long terme. A la différence de Gordon, cependant, ils présentèrent immédiatement des fondations "keynésiennes".

Au même instant, les nouveaux classiques empruntèrent une autre voie. Ils se proposèrent d’"améliorer" les propos de Friedman en les rendant cohérents avec les anticipations rationnelles, en pointant la conséquence théorique de cette nouvelle classe de modèles pour la politique monétaire. En 1972, Robert Lucas montra clairement que la règle de "k %" de Friedman est optimale dans son modèle d’anticipations rationnelles avec asymétrie d’informations et Thomas Sargent et Neil Wallace confirmèrent bientôt qu'"une règle de croissance de X pourcents pour l’offre de monnaie est optimale dans ce modèle, du point de vue de la minimisation de la variance de la production réelle". La critique de Lucas de 1976 insista davantage sur le fossé entre le contenu des modèles macroéconométriques structuraux keynésiens, notamment ceux utilisés par la Fed, et les idées de Friedman.

L’impact sur la politique économique


Divers économistes au Sheraton Hall de Washington et notamment Friedman lui-même eurent bientôt pour tâche d’évaluer la pertinence de l’allocution pour la politique économique. C’est Arthur Burns, l’analyste des cycles d’affaires au NBER, l’économiste de Rutgers qui convainquit le jeune Friedman de poursuivre une carrière d’économiste, qui présida la session de l’American Economic Association. Il quitta la salle convaincu par Friedman que l’inflation découle des anticipations adaptatives. Lors d’une audience de confirmation au Congrès en décembre 1969, il déclara : "je pense que la courbe de Phillips est une généralisation, une généralisation très sommaire, pour les mouvements de court terme et je pense que même à court terme la courbe de Phillips peut être changée". Quelques semaines après, il fut placé à la tête de la Réserve fédérale. Edward Nelson a montré comment, au grand désarroi de Friedman, les vues changeantes de Burns l’amenèrent rapidement à appuyer le contrôle des prix et des salaires que proposait par Nixon et qui fut instauré en août 1971. En réaction, les monétaristes Karl Brunner et Allan Meltzer fondèrent en 1973le "comité parallèle d’open market" (Shadow Open Market Committee). Comme l’expliqua par la suite Meltzer, "Karl Brunner et moi-même avons décidé d’organiser un groupe pour critiquer cette décision et signaler en quoi c’est une erreur d’affirmer que les contrôles peuvent stopper l’inflation".



Alors que les contrôles des prix et des salaires étaient supprimés en 1974, l’indice des prix à la consommation augmenta soudainement de 12 % (suite au choc pétrolier d’octobre 1973) et le chômage augmentait, pour atteindre 9 % en 1975. Ce double fléau, que le politicien britannique Ian MacLeod qualifia de "stagflation" en 1965, divisa profondément le pays (aussi bien que les économistes, comme le montre la fameuse couverture du Time en 1971). A quoi devait-on tout d’abord s’attaquer, au chômage ou à l’inflation ? En 1975, le sénateur Proxmire, membre du comité sur l’activité bancaire du Sénat, soumit une résolution qui visait à forcer la Fed à se coordonner avec le Congrès, en prenant en compte la hausse de la production et "l’emploi maximal" avec la stabilité des prix dans ses objectifs, et à présenter des "fourchettes numériques" pour la croissance de la masse monétaire. Friedman fut appelé à témoigner et le rapport du Sénat qui en résulta fit écho à l’affirmation de son allocution de 1968 selon laquelle il n’y aurait pas d’"arbitrage à long terme" : "il semble qu’il n’y ait pas d’arbitrage à long terme. Par conséquent, il n’y a pas besoin de choisir entre le chômage et l’inflation. Plutôt, l’emploi maximal et la stabilité des prix sont des objectifs compatibles (…) à long terme (…) à condition que la stabilité soit atteinte avec une croissance des agrégats monétaires et de crédit qui soit compatible avec la croissance du potentiel productif de l’économie".

S’il n’y a pas d’arbitrage à long terme, alors rechercher explicitement l’emploi maximal n’était pas nécessaire. La stabilité des prix favoriserait l’emploi et le programme de politique économique de Friedman s’en trouverait confirmé.

La Résolution 133 qui en résulta n’empêcha toutefois pas le personnel de la Fed de saper les tentatives du Congrès visant à prendre le contrôle de la politique monétaire : sa stratégie consistait à présenter un ensemble confus de cinq mesures différentes d’agrégats monétaires et de crédit. Entretemps, d’autres assauts sur le mandat de la Fed gagnèrent en vigueur. Les activistes de l’emploi, en particulier ceux qui, dans le sillage de Coretta Scott King, faisaient valoir que les travailleurs noirs étaient tout particulièrement touchés par le chômage, multiplièrent les manifestations. En 1973, le parlementaire noir de Californie Augustus Hawkins a organisé une conférence pour dessiner les contours d’une "politique de plein emploi pour l’Amérique". On demanda aux participants de discuter des ébauches d’un projet de loi soumis conjointement par Hawkins et le sénateur du Minnesota Hubert Humphrey, membre du Comité économique mixte. Promulguée en 1978 sous le nom de "loi du plein emploi et de la croissance équilibrée" (Full Employment ad Balanced Growth Act), cette loi institua la surveillance de la politique monétaire par le Congrès. Elle exige de la Fed qu’elle fournisse un compte-rendu deux fois par an auprès du Congrès et qu’elle établisse et suive une règle monétaire qui prenne en compte l’inflation et le chômage. Les conséquences de la loi ont donné lieu à de vifs débats dès 1976 au sein de l’American Economic Association, dans le Journal of Monetary Economics ou dans la revue Challenge. Les passions suscitées par la loi contrastèrent avec les effets de celle-ci sur la politique monétaire, effets qui, de nouveau, furent limités. L’année suivante, Paul Volcker prit la tête de la Fed et, en octobre, il annonça abruptement que la Fed fixerait des règles contraignantes pour la création de réserves et laisserait les taux d’intérêt dériver si nécessaire.

Une transmission compliquée entre sphère universitaire et décideurs publics


L’allocution de 1967 circula donc initialement dans la sphère universitaire et dans les cercles de politique publique, avec des retombées qui n’ont pas toujours plu à Friedman. Le taux de chômage naturel a été adopté par certains économistes keynésiens parce qu’il semblait robuste sur le plan empirique ou, tout du moins, utile, mais il fut introduit dans des modèles soutenant une politique monétaire discrétionnaire de stabilisation. Les règles de politique monétaire furent graduellement introduites dans le cadre légal présidant la conduite de la politique monétaire, mais elles le furent avec l’objectif de réorienter la Fed vers la poursuite de l’emploi maximal. Paradoxalement, on a beau avoir l’habitude de présenter les travaux des nouveaux classiques comme le canal de transmission clé par lequel l’allocution s’est diffusée dans la science économique et au-delà de celle-ci, ces travaux semblent à première vue n’avoir qu’un lien lointain avec la politique économique.

En effet, on doit lire attentivement les articles séminaux des années soixante-dix qui sont habituellement associés à la "révolution des nouveaux classiques" pour trouver des références au contexte trouble de la politique économique. Le cadre de l’article de Finn Kydland et Edward Prescott sur "la règle versus la discrétion" ("Rules versus discretion"), dans lequel l’usage des anticipations rationnelles mit en lumière des problèmes de crédibilité et d’incohérences temporelles, était entièrement théorique. Il se conclut par la phrase cryptique : "il peut y avoir des accords institutionnels qui rendent le changement des règles de politique économique un processus difficile et chronophage sauf dans les situations d’urgence. Un possible accord institutionnel consisterait pour le Congrès à introduire des règles de politique monétaire et budgétaire et à ce que ces règles deviennent effectives après seulement un délai de deux ans. Cela rendrait la politique discrétionnaire impossible". De même, Sargent et Wallace débutèrent leur article sur la "déplaisante arithmétique monétariste" ("unpleasant monetarist arithmetic") de 1981 en discutant de l’allocution présidentielle de Friedman, mais ils s’empressèrent d’ajouter que l’article avait été conçu comme une démonstration théorique de l’impossibilité de contrôler l’inflation. Aucune des controverses institutionnelles ne fut mentionnée, mais l’auteur avait fini l’un de ses travaux antérieurs avec cette phrase : "Nous avons écrit cet article, non pas parce que nous pensons que notre hypothèse à propos du jeu que se livrent les autorités monétaires et budgétaires décrit la façon par laquelle les politiques monétaires et budgétaire doivent être coordonnées, mais par crainte qu’elle puisse décrire la façon par laquelle le jeu est actuellement joué".

Robert Lucas fut le seul à écrire un article qui débattit explicitement du programme monétaire de Friedman et pourquoi il avait "un impact si limité". Présenté à la conférence du NBER en 1978, il lui fut demandé de discuter de "ce que la politique économique aurait dû être en 1973-1975", mais il déclina. La question était "mal posée", selon lui. La source du chaos économique des années soixante-dix, continua-t-il, se situait dans l’incapacité à construire des institutions monétaires et budgétaires appropriées, chose dont il discuta abondamment. En mentionnant la "révolte des contribuables", il salua la Proposition 13 de la Californie qui visait à limiter les taxes sur la propriété. Il défendit ensuite la Résolution 133, qui exigeait de la Fed qu’elle annonce au préalable des cibles de croissance monétaire, en espérant un prolongement plus contraignant.

Cette distance contraste avec la volonté des économistes monétaristes et keynésiens de discuter des accords institutionnels monétaires américains en vigueur dans les travaux universitaires et dans la presse. C’est particulièrement étrange étant donné que ces économistes travaillaient dans l’œil du cyclone (institutionnel). Sargent, Wallace et Prescott étaient alors des économistes à la Réserve fédérale de Minneapolis et l’article de Sargent et Wallace mentionné ci-dessus avait été publié par la revue trimestrielle de celle-ci. Même si aucun d’entre eux ne semblait s’intéresser en priorité aux débats autour de la politique économique, leur influence intellectuelle était manifeste dans les déclarations des responsables de la Réserve fédérale de Minneapolis. Son président, Mark Willes, un ancien doctorant en économie monétaire de l’Université de Columbia, était impatient de prêcher l’évangile des nouveaux classiques au comité fédéral d’open market. "Il n’y a pas d’arbitrage entre l’inflation et le chômage" martela-t-il dans une lecture à l’Université de Minnesota. Il ajouta plus tard que : "C’est bien sûr principalement à la communauté universitaire et à d’autres groupes de recherche que nous nous adressions… Si vous voulez avoir une politique économique efficace, vous devez avoir une théorie cohérente du fonctionnement de l’économie… Friedman ne semble pas non plus complètement convaincant. Peut-être que les partisans des anticipations rationnelles ici… ont la réponse ultime. A ce stade, seuls Heaven, Neil Wallace et Tom Sargent la connaissent probablement".

Si les débats faisaient rage aussi bien à la Réserve fédérale de Minneapolis qu’à l’Université du Minnesota, c’était parce que les politiques conçues pour atteindre l’emploi maximal étaient conçues par le sénateur du Minnesota Humphrey, lui-même conseillé par un ancien collègue de Sargent et Wallace, le célèbre économiste keynésien Walter Heller, qui fut un membre du Council of Economic Advisers (CEA) et un architecte de la réduction d’impôts de Kennedy en 1964.
La vie autonome de l’allocution présidentielle dans les années quatre-vingt et quatre-vingt-dix

L’allocution présidentielle de Friedman semble faire l’objet d’un surcroît de citations dans les années quatre-vingt et quatre-vingt-dix, mais c’est encore une hypothèse qui doit être vérifiée. Nous faisons le pari que les macroéconomistes en sont venus à relire l’allocution dans le sillage de la détérioration des conditions économiques qu’ils associèrent au ciblage de Volcker. Après que l’expérience de la cible monétaire ait été interrompue en 1982, les macroéconomistes s’intéressèrent de plus en plus aux accords institutionnels et aux instruments de politique économique. Nous croyons que ce changement apparaît le plus manifestement dans les écrits de John Taylor. Leeson raconte comment les travaux de Taylor (qui était un étudiant de cycle supérieur à l’époque où Friedman fit son allocution présidentielle) se focalisèrent sur la théorie de la politique monétaire. Après ses deux passages au CEA en tant qu’économiste, il était obsédé par la façon de rendre la politique monétaire plus malléable. Il fut de plus en plus convaincu à l’idée d’inclure les pratiques monétaires dans l’analyse, un processus qui culmina avec la formulation de la règle de Taylor en 1993 (dans un article qui est aujourd’hui davantage cité que l’allocution présidentielle de Friedman). Un changement de l’intérêt des universitaires (que l’on peut interpréter comme se rapprochant de l’esprit, si ce n’est du contenu, de l’allocution de Friedman) a aussi été manifeste dans les discussions autour des cibles de revenu nominal dans les années quatre-vingt. Ici, les débats universitaires précédèrent les réformes de politique économique, dans la mesure où le double mandat de la Fed vis-à-vis de l’inflation et du chômage n’est apparu dans une déclaration du comité fédéral d’open market que sous Ben Bernanke, en 2010, dans le sillage de la crise financière (…). Cette reconnaissance tardive peut, à nouveau, fournir une nouvelle lecture de l’allocution présidentielle de Friedman, une vieille dame dont le charme apparaît intemporel. »

Beatrice Cherrier et Aurélien Goutsmedt, « The making and dissemination of Milton Friedman’s 1967 AEA presidential address », in The Undercover Historian (blog), le 27 novembre 2017. Traduit par Martin Anota

samedi 25 novembre 2017

La « décroissance » est illusoire dans un monde pauvre et inégal

« J’ai récemment discuté sur Twitter ou via mails avec deux personnes qui sont de grands partisans de la "décroissance". De ces échanges, j’en retire l’impression qu’ils ne sont pas conscients du degré d’inégalité et de pauvreté que connaît le monde aujourd’hui et des arbitrages que nous aurions à faire si nous décidions de fixer le volume de biens et services produits et consommés dans le monde à son niveau actuel.

Je cherche juste à présenter quelques calculs sommaires qui ne peuvent qu’être précisés avec plus de rigueur si nous voulons sérieusement examiner les alternatives.

Supposons, pour simplifier l’exposé, que nous interprétions la "décroissance" comme la décision de fixer le PIB mondial à son niveau actuel (en supposant tout d’abord par là même que le montant d’émissions serait lui-même fixé à son niveau actuel). Alors, à moins que nous ne modifions la répartition du revenu, nous condamnerions alors à une pauvreté permanente abjecte presque 15 % de la population mondiale, celle qui vit actuellement avoir moins de 1,90 dollars par jour et, plus largement, le quart de l’humanité, celle qui vit avec moins de 2,50 dollars par jour. (…).

Garder autant de personnes dans la pauvreté extrême de façon à ce que les riches puissent continuer de jouir de leurs niveaux de vie actuels n’est évidemment pas quelque chose que les partisans de la décroissant cautionnent. L’un de mes correspondants a explicitement rejeté ce scénario. Que devons-nous faire alors ? Ils disent que nous pouvons, bien sûr, accroître les revenus des pauvres et réduire le revenu des riches, de façon à ce que nous restions au niveau du PIB mondial actuel. Donc, supposons que nous décisions de "permettre" à chacun d’atteindre le niveau de revenu médian qui existe actuellement dans les pays occidentaux et que nous réduisions graduellement les revenus des riches (que nous supposons tous vivre en Occident pour simplifier le raisonnement) à mesure que les autres se rapprochent de la cible.

Le "problème" est que le revenu médian après impôt en Occident (environ 14.600 dollars par personne chaque année) correspond au 91ème centile de la répartition mondiale des revenus. Clairement, si nous laissons 90 % des gens accroître leurs revenus à ce niveau, cela crèverait la cible de PIB plusieurs fois (2,7 fois pour être exact). Nous ne pouvons être aussi "généreux". Supposons ensuite que nous laissions chacun atteindre seulement le niveau de revenu qui est légèrement plus élevé que le 10ème centile occidental, en l’occurrence celui du 13ème centile occidental (qui correspond à 5.500 dollars par personne chaque année). Maintenant, par un "heureux hasard", le 13ème centile occidental coïncide avec le revenu moyen mondial, qui correspond au 73ème centile mondial. Nous aurions à accroître le revenu des 73 % les plus modestes, mais aussi à réduire le revenu des 27 % les plus riches, pour que chacun vive à la moyenne mondiale.

Quelle réduction de revenu cela impliquerait-il pour les 27 % les plus riches au monde (ceux dont le revenu est supérieur à la moyenne mondiale) ? Leurs revenus devraient être amputés de près des deux tiers. La plupart d’entre eux, comme nous l’avons dit, vivent en Occident. La paupérisation de l’Occident ne passerait pas par des transferts de revenus vers les pauvres : nous leur amènerions à moins produire et à moins gagner. La paupérisation de l’Occident s’opèrerait via une réduction graduelle et soutenue de la production et du revenu jusqu’à ce que chaque "riche" perde suffisamment de façon à ce qu’il se retrouve à la moyenne mondiale. En moyenne, comme nous l’avons vu, c’est environ les deux tiers, mais les très riches auraient à perdre plus : le décile mondial supérieur aurait à perdre 80 % de son revenu ; (…) les 5 % les plus riches auraient à perdre 84 % de leur revenu ; et ainsi de suite. Les usines, les trains, les aéroports, les écoles auraient à fonctionner le tiers de leur temps normal ; l’électricité, le chauffage et l’eau chaude seraient disponibles seulement 8 heures par jour ; les voitures ne pourraient être conduites qu’une journée sur trois ; nous travaillerons environs 13 heures par semaine (et ainsi les prévisions que Keynes a formulé dans ses "Perspectives économiques pour nos petits-enfants" seront vérifiées), etc. ; tout cela de façon à ce que nous produisons seulement un tiers des biens et services que l’Occident produit actuellement.

Arrêtons-nous un instant pour considérer l’énormité de ce qui est proposé ici. Le Gini mondial doit aller à zéro, alors qu’il atteint actuellement 65. Le monde devrait passer d’un niveau d’inégalité qui est globalement plus élevé que celui de l’Afrique du Sud à une égalité complète, une égalité qui n’a jamais été observée dans une quelconque société. Les pays ont des difficultés à mettre en œuvre des politiques qui réduisent le Gini de 2-3 points et nous proposons d’enlever 65 points de Gini.

De plus, on prévoit que la population mondiale s’accroisse de plusieurs millions. Le PIB que nous ciblons devra soutenir davantage de personnes. Bref, le revenu moyen devra nécessairement chuter.

Du côté positif, malgré tout, un tel resserrement dramatique de la répartition du revenu changera les schémas de consommation. Nous savons que les riches ont une plus forte émission moyenne par dollar dépensé que les pauvres. C’est parce qu’ils consomment davantage de biens et services intensifs en émissions (comme les vols en avions et la viande) que les pauvres. Pousser tout le monde au même niveau signifierait que les émissions totales produites par le nouveau PIB (qui resterait le même en valeur mais dont la composition changerait) serait moindre. Il y aurait donc une certaine marge de manœuvre qui nous permettrait soit de laisser des gens dans une meilleure situation que les autres, soit de laisser tout le monde atteindre un niveau moyen légèrement plus élevé que celui du 13ème centile occidental.

Disons que la hausse de la population et le déclin de l’émission moyenne d’émissions par dollar dépensé se compensent entièrement l’un l’autre : nous retournerions au scénario originel décrit précédemment, lorsque nous supposions que chacun aurait à vivre au niveau de l’actuel 13ème centile occidental et que le monde riche aurait à perdre environ les deux tiers de son revenu.

Il ne me semble pas que cette perspective (…) soit susceptible de trouver un réel soutien politique partout, même parmi les décroissants, dont certains auraient à réduire leur consommation de peut-être 80 ou 90 %. Si nous voulons sérieusement réfléchir à la façon par laquelle réduire les émissions, il serait plus logique de, non pas s’engager dans les illusions de la décroissance dans un monde très pauvre et inégal, mais de réfléchir à la façon par laquelle les biens et services intensifs en émissions pourraient être taxés de façon à ce qu’on les consomme moins. La hausse de leurs prix relatifs réduirait le revenu réel des riches (qui les consomment) et réduirait, même légèrement, les inégalités mondiales. Evidemment, nous devons penser à propos de comment les nouvelles technologies peuvent être utilisées pour rendre le monde plus respectueux à l’environnement. Mais la décroissance n’est pas la voie à suivre. »

Branko Milanovic, « The illusion of "degrowth" in a poor and unequal world », in globalinequality (blog), 18 novembre 2017. Traduit par Martin Anota



aller plus loin... lire « Environnement : l'impossible équation décroissante » d'Alexandre Delaigue

vendredi 24 novembre 2017

La courbe de Phillips a-t-elle disparu ?

« La courbe de Phillips suggère un arbitrage entre inflation et chômage. Les économistes ont récemment débattu sur sa possible disparition aux Etats-Unis et en Europe. Nous rapportons quelques uns des derniers commentaires.

Un article de The Economist affirme que la courbe de Phillips peut avoir disparu pour de bon, en montrant un graphique de l’inflation moyenne et du chômage cyclique pour les économies développées, c’est-à-dire où la courbe semble s’aplatir au cours du temps (cf. graphique 1). The Economist se réfère aussi à une récente étude de trois économistes de la Réserve fédérale de Philadelphie, affirmant que la courbe de Phillips n’est pas très utile pour prévoir l’inflation : les prévisions de leurs modèles de courbe de Phillips tendent à être inconditionnellement inférieures à celles d’un modèle de prévision univarié. Les prévisions tirées de la courbe de Phillips semblent plus précises lorsque l’économie est faible et moins précises lorsque l’économie est robuste, mais toute amélioration des prévisions disparaît au cours de la période qui suit 1984.

GRAPHIQUE 1 Inflation sous-jacente et chômage cyclique dans les pays développés (moyennes trimestrielles)

The_Economist__courbe_de_Phillips_pays_developpes_inflation_chomage_cyclique.png

source : The Economist (2017), d'après les données du FMI et de l'OCDE

Jeremie Banos et Spyros Michas affirment (…) que la courbe de Phillips cassée est un symptôme d’une révision à la baisse des anticipations d’inflation. Le cadre de la courbe de Phillips est peu efficace pour prévoir l’inflation, même après avoir bidouillé ses deux principales composantes : les anticipations d’inflation et (dans une moindre mesure) le NAIRU. Les anticipations d’inflation semblent être bien ancrées, mais personne ne sait où. Et le NAIRU peut, du moins théoriquement, chuter jusqu’à 0 % avant que l’inflation s’accélère de façon significative.

Larry Summers fait également parti de ceux qui pensent que la courbe de Phillips s’est enrayée et qui croient que le facteur explicatif le plus important est que le pouvoir de négociation des employeurs s’est accru et que celui des travailleurs a décliné. La technologie a donné aux employeurs plus de leviers pour contenir les salaires ; d’un autre côté, divers facteurs ont réduit le levier des travailleurs. Pour une variété des raisons, notamment une moindre disponibilité du crédit immobilier et la perte de valeur des logements existants, il est plus difficile de déménager que par le passé. La baisse de l’épargne dans le sillage de la crise signifie que plusieurs familles ne peuvent se permettre une quelconque interruption de travail. Summers affirme que les syndicats ont longtemps joué un rôle crucial dans l’économie américaine pour équilibrer le rapport de force entre les employeurs et les salariés, et donc les Etats-Unis n’ont jamais autant eu besoin des syndicats.

Andrew Haldane fait la même remarque pour le Royaume-Uni (cf. graphique 2), en considérant la désyndicalisation comme un symptôme du changement des relations salariés-employeurs. En 1990, environ 38 % des salariés en Grande-Bretagne étaient syndiqués. (…) En 2016, il s’élevait à 23 %. Aujourd’hui, environ 6 millions de salariés sont syndiqués, moins de la moitié du pic d’environ 13 millions à la fin des années soixante-dix.

GRAPHIQUE 2 Courbe de Phillips au Royaume-Uni

Andrew_Haldane__courbe_de_Phillips_Royaume-Uni.png

John Hanksworth et Jamie Durham ont suggéré (…) qu’en plus du rôle de la désyndicalisation, l’accroissement de l’immigration à destination du Royaume-Uni depuis 2004 peut aussi avoir joué un certain rôle dans la moindre sensibilisation de la croissance salariale vis-à-vis de l’accroissement de la demande de travail, dans la mesure où il rendit l’offre de travail plus élastique. Avec les évolutions de la politique migratoire du Royaume-Uni, ce facteur pourrait être moins important après le Brexit. C’est susceptible d’aggraver les pénuries de travailleurs de compétences spécifiques au Royaume-Uni, mais aussi de soutenir les hausses de salaire en bas de l’échelle (en plus des effets des hausses futures attendues du salaire minimum national).

Robert Waldmann (…) affirme que l’argument selon lequel l’ancrage des anticipations élimine la relation entre politique monétaire et résultats réels se fonde sur l’hypothèse selon laquelle, une fois que les agents économiques ont saisi la règle de politique, les modifications des taux d’intérêt, des agrégats monétaires et des taux d’inflation provoqués par la politique monétaire ne seraient pas corrélés avec les variables réelles. D’une manière ou d’une autre, ce qui était tout d’abord une hypothèse finit par avoir les traits d’une vérité révélée. Le simple fait, cependant, est que l’inflation et le chômage sont toujours corrélés, et ce même désormais que l’inflation est stable, et elle peut être prédite. La courbe de Phillips est actuellement bien vivante et bien portante en Europe, du moins si nous regardons l’inflation salariale moyenne dans les 15 pays qui constituaient déjà l’Union européenne en 1997 en comparaison avec le taux de chômage moyen.

Enfin, Gavyn Davies affirme que la courbe de Phillips a beau être dissimulée, elle existe toujours sous la surface. En se focalisant sur les Etats-Unis, il pose cinq questions. Premièrement, utilisons-nous les bonnes mesures de l’inflation et du chômage ? L’inflation salariale semble être au cœur de l’énigme entourant la courbe de Phillips, mais l’usage des séries de salaires horaires moyens et d’autres données officielles similaires peut avoir suggéré que la faible inflation salariale est plus visqueuse qu’elle ne l’est en réalité. Deuxièmement, des forces mondiales peuvent contenir l’inflation américaine, par exemple la présence de capacités de production inutilisées, notamment dans la zone euro, peut exercer des pressions baissières sur l’inflation américaine. Troisièmement, la courbe de Phillips est toujours visible dans les données des différentes Etats des Etats-Unis : si la courbe nationale a été dissimulée par des chocs structurels, notamment la mondialisation, ces chocs ont dû s’être appliqués assez uniformément dans les différents Etats de l’Union. Quatrièmement, la version standard de la courbe de Phillips inclut toujours un terme pour les anticipations d’inflation. Quand les anticipations sont révisées à la baisse, on s’attend à ce que l’inflation des prix et des salaires change dans la même direction, même si le chômage est stable ou décline. La récente révision à la baisse des anticipations d’inflation peut expliquer en partie pourquoi l’inflation enregistrée est restée faible, même si le chômage a chuté sous le taux naturel. Cinquièmement, les chocs d’inflation sont plus amples que les modifications des coefficients de la courbe de Phillips. Dans l’ensemble, le travail empirique semble par conséquent soutenir l’existence d’une relation négative entre chômage et inflation aux Etats-Unis et la zone euro ces dernières années. Cette relation a été dissimulée par d’autres chocs, non liés au chômage, qui ont d’importants effets sur l’inflation, mais elle n’a pas disparu. »

Silvia Merler, « Has the Phillips curve disappeared? », in Bruegel (blog), 21 novembre 2017. Traduit par Martin Anota

samedi 18 novembre 2017

Une défense bien maladroite des modèles DSGE

« Je suis lessivé par le bashing dont la macroéconomie fait l’objet. J’ai déjà dit ce que j’avais à dire sur le sujet. Et je vois beaucoup de jeunes macroéconomistes faire du bon boulot. Et il y a des gens plus qualifiés que moi et avec une plus grande légitimité pour critiquer la méthodologie en macroéconomie. (…) Mais parfois je dois donner des conseils de marketing à certains de mes collègues macroéconomistes.

La nouvelle ligne de défense des modèles DSGE que proposent Christiano, Eichenbaum et Trabandt donne de sacrés frissons. Nous pouvons notamment y lire que : "Ceux qui n’aiment pas les modèles stochastiques dynamiques d’équilibre général (DSGE) sont des dilettantes. En les qualifiant ainsi, nous entendons qu’ils ne sont pas sérieux en matière d’analyse de politique économique. Pourquoi disons-nous cela ? Les questions de politique macroéconomique impliquent des arbitrages entre les forces qui s’affrontent dans l’économie. Il n’est malheureusement pas facile d’évaluer la puissance relative de ces forces pour telle ou telle question en matière de politique économique. Une stratégie consisterait à réaliser des expériences dans les économies réelles. Cette stratégie n’est pas disponible en sciences sociales. Comme Lucas (1980) l’a souligné crûment il y a près de quatre décennies, le seul endroit où nous pouvons faire des expériences, c’est dans nos modèles. Aucune théorisation a priori ou régression à partir de données microéconomiques ne peut se substituer à ces expériences. Les dilettantes qui évoquent seulement l’existence de forces concurrentes à l’œuvre (et qui jugent de façon informelle leur importance relative via des expériences de pensée implicites) ne peuvent jamais donner de conseils sérieux en matière de politique économique".

(…) C’est si stupide que l’on pourrait même se demander si Christiano et ses coauteurs ne nourrissent pas en fait le projet d’inciter davantage de monde à rejoindre les rangs des détracteurs des modèles DSGE.

Premièrement, ce n’était pas une bonne idée de qualifier de "dilettantes" ceux qui critiquent les modèles DSGE. Jusqu’à présent, la meilleure critique des modèles DSGE qu’on a pu récemment entendre (selon moi) provient d’Anton Korinek (…). Korinek est un macroéconomiste spécialisé dans les modèles DSGE. Il gagne sa vie en faisant des modèles DSGE. Mais selon Christiano et ses coauteurs, le fait qu’il pense que son propre champ ait des problèmes fait de lui une "dilettante".

D’accord, mais soyons généreux et supposons que Christiano et ses coauteurs ne savent pas ce qu’a pu dire Korinek (ni même ce qu’ont pu dire Ricardo Caballero, Paul Romer, Paul Pfleiderer, etc.). Supposons qu’ils ne parlent que de personnes comme Joseph Stiglitz, qui a vraiment l'air d’une dilettante ces derniers jours, de blogueurs comme moi (qui suis une sacrée dilettante) ou encore des gens de l’INET. Même dans ce cas, ce déluge de propos méprisants reste tout à fait déplacé.

Pourquoi ? Parce que déclarer que les personnes extérieures à votre champ ne sont jamais qualifiées pour critiquer celui-ci vous donne l’air d’être renfermé et arrogant. Chaque économiste connaît l’idée de capture du réglementateur. Il n’est pas difficile d’imaginer que les chercheurs puissent également être capturés, par exemple, que si les seules personnes qui sont autorisées à critiquer X sont les gens qui gagnent leur vie en faisant X, alors tous les détracteurs potentiels vont avoir un intérêt à préserver le statu quo.

En d’autres mots, l’essai de Christiano et de ses coauteurs n’est peut-être rien d’autre qu’un mémo envoyé aux outsiders où ils leur demandent de se taire et de continuer à envoyer les chèques.

Deuxièmement, Christiano et ses coauteurs ont donné des munitions à la foule qui proclame que "l’économie n’est pas une science" en utilisant le mot "expériences" lorsqu’ils font référence aux simulations de modèle. Brad DeLong a déjà écrit à propos de cette terminologie malheureuse. Chacun sait que les simulations de modèles ne sont pas des expériences, donc insister obstinément à mal utiliser le mot contribue juste à donner l’air de pseudoscience à l’économie aux yeux des observateurs extérieurs.

Troisièmement, Christiano et ses coauteurs ont tout simplement tort. Leur défense des modèles DSGE consiste fondamentalement à dire que c’est le "seul jeu en ville", la seule façon de faire des prédictions quantitatives à propos des effets des changements de politique économique.

C’est faux. Il y au moins deux autres approches qui sont régulièrement utilisées : les modèles vectoriels autorégressifs (VAR) structurels et les modèles économétriques structurels. Les modèles VAR structurels sont souvent utilisés pour l’analyse de la politique économique dans les travaux universitaires. Les modèles économétriques structurels sont utilisés par les banques centrales pour éclairer les décisions de politique économique. Ces deux types de modèles affirment être structurels. Une telle affirmation fait rire beaucoup de monde. Mais à nouveau, beaucoup rient aussi des modèles DSGE.

En fait, vous n’avez même pas à avoir toujours besoin d’un modèle structurel pour faire des prédictions quantitatives à propos de la politique économique ; souvent, vous pouvez le faire sous forme réduite. Quand les changements de politique économique peuvent être traités comme des expériences naturelles, leurs effets (notamment leurs effets d’équilibre général !) peuvent être mesurées directement plutôt qu’être inférés directement à partir d’un modèle structurel.

Comme Justin Wolfers l’a indiqué sur Twitter, au moins l’une des questions que Christiano et ses coauteurs prétendent ne trouver une réponse qu’à travers les simulations DSGE peut tout à fait trouver une réponse sous forme réduite : "Est-ce qu’une extension des allocations chômage accroît le chômage ? D’un côté, la croyance conventionnelle affirme qu’un montant plus élevé d’allocations se traduit par des salaires plus élevés et aggrave le chômage. D’un autre côté, si le taux d’intérêt nominal est relativement insensible aux conditions économiques, alors la hausse des salaires accroît l’inflation. La baisse des taux d’intérêt réels qui en résulte stimule la demande globale, donc alimente l’activité économique et réduit le chômage. Lequel de ces effets prédomine ?"

En 2015, John Coglianese s’est attaqué à cette question sans utiliser de modèle DSGE : "J’ai analysé une expérience naturelle suscitée par l’extension de l’assurance-chômage fédérale aux Etats-Unis durant la Grande Récession et j’ai mesuré son effet sur le chômage au niveau de chaque Etat. J’ai exploité une caractéristique de cette extension de l’assurance-chômage avec laquelle l’erreur d’échantillonnage aléatoire dans l’enquête nationale altérait la durée d’indemnisation du chômage dans plusieurs Etats, ce qui se traduisait par des variations aléatoires du nombre de semaines d’indemnisation au niveau de l’Etat".

Christiano et ses coauteurs occultent totalement l’existence des expériences naturelles. Ils affirment qu’en l’absence d’expériences de laboratoire, les simulations de modèles sont les meilleures simulations que nous puissions avoir. L’approche des expériences naturelles a beau voir sa popularité s’accroître rapidement économie, elle n’est même pas enregistrée sur leurs écrans de radar. Ce n’est pas une bonne vision des choses.

Finalement, Christiano et ses coauteurs adoptent un ton d’arrogance désinvolte à un moment où le monde (notamment le reste des économistes) appelle avec raison à une plus grande humilité de la part des macroéconomistes. Les modèles DSGE les plus réputés, les plus communs (ceux qui ont justement été créés par Christiano et Eichenbaum) ont spectaculairement échoué entre 2008 et 2012. Ce n’est pas le genre de chose qui vous donne le droit d’être arrogant, mais plutôt quelque chose pour laquelle vous devriez vous excuser. Maintenant, la profession a corrigé ces modèles en y ajoutant la finance, une borne inférieure zéro (zero lower bound), des non-linéarités, etc. Il reste à voir si ces nouvelles modélisations marchent bien avec les échantillons. Heureusement, ils ont l'air plus efficace.

Mais la charge de la preuve incombe aux concepteurs de modèles DSGE, non sur leurs détracteurs. Christiano et ses coauteurs devraient jeter un coup d’œil autour d’eux et réaliser que les gens en-dehors de leur petit cercle ne sont pas convaincus. Les banques centrales utilisent toujours des modèles économétriques structurels, le jugement humain et beaucoup d’autres outils. Les personnels de l’industrie financière n’utilisent pas du tout les modèles DSGE. Même au sein du monde universitaire, l’usage des modèles DSGE est probablement sur le déclin.

En d’autres mots, Christiano et ses coauteurs et les autres grands défenseurs de modèles DSGE sont toujours bien payés pour concevoir des modèles DSGE, mais ils ne sont pas en train de gagner la lutte intellectuelle qui se tient à l’échelle du monde. La rhétorique méprisante qui emplit cet essai ne va pas les aider. Même Miles Kimball, qui a passé sa carrière à faire des modèles DSGE et qui a apporté des contributions décisives aux modèles qui rendirent célèbres Christiano et Eichenbaum, a été déçu par cet essai.

Regardez. Il y a de bonnes lignes de défense que l’on peut avancer pour la macroéconomie moderne et la modélisation DSGE. Ricardo Reis en a apporté une bonne un peu plus tôt cette année. Fabio Ghironi en a apporté une autre. Tous deux se sont montrés humbles et intelligents dans leurs essais. Ils font savoir l’importance cruciale des preuves empiriques et d’une diversité d’approches. Ils font aussi savoir que les macroéconomistes doivent faire mieux et que cela va prendre du temps. Ils comptent sur les jeunes pour faire du bon travail, chercher à améliorer les choses et prendre de nouvelles directions. Ce sont les défenses de la macroéconomie dont la profession a besoin.

L’idée des modèles DSGE n’est pas mauvaise. Travailler sur les modèles DSGE n’est pas nécessairement un effort vain. Tous les concepteurs de modèles DSGE ne sont pas aussi méprisants et bouffis d’orgueil que les dépeignent l’essai de Christiano et de ses coauteurs. Il y a plein de gens qui font du bon boulot dans ce domaine, qui essayent d’améliorer la performance des modèles macroéconomiques. Mais une rhétorique comme celle-ci finit par nuire à leur tâche, plutôt qu’à les aider. »

Noah Smith, « The "cackling cartoon villain" defense of DSGE », in Noahpinion (blog), 15 novembre 2017. Traduit par Martin Anota

vendredi 17 novembre 2017

Inégalités, investissement et théorie du ruissellement

« Je n’ai jamais su déterminer si l’économie du ruissellement (trickle-down) était une véritable théorie ou un épouvantail que les gauchistes attribuaient à la droite. J’ai par conséquent été très surpris de voir Tim Worstall défendre l’idée selon laquelle "un plus grand investissement de la part des plus riches d’entre nous (ce qui constitue le revers de la plus grande propension marginale à dépenser des pauvres) enrichit la société au cours du temps".

Cette affirmation, cependant, ne me semble pas correcte. Si elle l’était, nous verrions l'investissement s'accroître suite à une hausse des inégalités. Mais ce n’est pas le cas. Mon graphique montre que la part de l’investissement dans le PIB augmentait et que les inégalités déclinaient dans les années cinquante et soixante, puis, à partir du milieu des années quatre-vingt, l’investissement a chuté et les inégalités ont augmenté.

GRAPHIQUE Inégalités de revenu et investissement au Royaume-Uni

Chris_Dillow__investissement_inegalites_Royaume-Uni.png

C’est l’exact opposé de ce que nous nous attendrions à voir si Tim avait raison. C’est, cependant, cohérent avec les études du FMI, qui montre que les inégalités tendent à réduire la croissance économique (si vous voulez des explications de ce résultat, lisez le brillant Sam Bowles).

Pour voir pourquoi les inégalités réduisent l’investissement, rappelez-vous tout d’abord l’idée de Keynes selon laquelle la décision de s’abstenir de consommer ne signifie pas forcément une décision d’investir dans des actifs productifs. La moindre propension marginale à consommer des riches peut tout simplement signifier qu’ils thésaurisent leur richesse.

C’est en soi une raison qui explique la dynamique sur mon graphique : dans la mesure où une plus grande égalité signifie une plus forte propension à consommer, cela tend à accroître la demande agrégée et donc à renforcer l’effet accélérateur. Nous nous retrouvons donc avec un surcroît d’investissement et une croissance tirée par les salaires. De la même façon, les inégalités affaiblissent l’effet accélérateur et donc réduisent l’investissement et la croissance. Alternativement, de fortes inégalités peuvent amener les riches à en essuyer un contrecoup sous la forme d’une hausse d’impôts, de désordres politiques ou d’une prise de pouvoir de la gauche qui les désinciterait à investir : l’incertitude seule déprime l’investissement.

Et ensuite il y a le fait que les inégalités poussent les riches à essayer de préserver leurs privilèges en investissant dans des emplois protégés plutôt que dans des emplois productifs ou en utilisant l’Etat pour les protéger de la concurrence, par exemple en durcissant les lois sur la protection intellectuelle, en décrochant des subventions pour les banques ou des entreprises parasites ou en imposant des réglementations qui restreignent la destruction créatrice. De cette façon, l’investissement et la croissance sont trouvent freinés. En disant cela, je ne suis pas sûr de faire une affirmation très radicale. Dans un nouveau livre, Steven Teles et Brink Lindsey, que l’on peut difficilement qualifier de gauchistes enragés, écrivent que "le jeu économique a été pipé en faveur des gens au sommet… Ces dernières décennies, l’économie américaine est devenue de moins en moins ouverte à la concurrence et elle s’est davantage encombrée d’accords protégeant les insiders. Ces accords rendent notre économie moins dynamique et moins innovante".

Je ne suis pas sûr que vous puissiez esquiver cela en avançant l’idée que les inégalités accroissent l’investissement et la croissance si toutes les autres choses restent égales par ailleurs. Le problème est que les inégalités affectent à peu près tout, par exemple les politiques économiques, les institutions et la probabilité qu’une crise financière éclate. Très peu de choses sont exogènes aux inégalités.

Plutôt, je pense que vous pourriez affirmer la chose suivante : Après la Seconde Guerre mondiale, il y a eu une forte demande pour l’investissement, parce que la guerre avait retardé l’adoption d’innovations récentes. Cela a entraîné une hausse des dépenses de capital. Dans les années quatre-vingt, cependant, cette forte demande avait disparu et le ralentissement de l’innovation signifiait moins d’investissements. Tout à fait par accident, ces développements coïncidèrent avec une baisse, puis une hausse des inégalités.

En disant cela, vous pourriez certes expliquer la dynamique sur mon graphique, mais cela n’expliquerait pas le constat du FMI selon lequel les inégalités dépriment la croissance économique. Et cela ne prend absolument pas en compte les divers mécanismes via lesquels les inégalités sont susceptibles de déprimer la croissance.

Par conséquent, je rejoins Richard Murphy : il faut avouer que l’idée de ruissellement a peu de crédit. Les défenseurs des inégalités doivent trouver de meilleurs arguments. »

Chris Dillow, « Inequality, investment and trickle-down », in Stumbling & Mumbling (blog), 14 novembre 2017. Traduit par Martin Anota



aller plus loin...

« Non, la richesse ne ruisselle pas… A propos du lien entre croissance et inégalités »

« Quels liens entre inégalités, redistribution et croissance ? »

« Le creusement des inégalités entrave la croissance »

« Les inégalités sont bonnes pour la croissance des riches… pas pour celle des pauvres »

« Inégalités, confiance et croissance »

samedi 11 novembre 2017

Ce qui a réellement provoqué la crise financière

« La crise financière mondiale façonne notre perception de notre récent passé, de notre présent et de notre avenir et pourtant il n’y a pas de récit des événements qui fasse vraiment consensus. Beaucoup d’interprétations ont été proposées. Du côté des Etats-Unis, certains ont affirmé que le système financier a été submergé par l’excès d’épargne (savings glut) généré par les pays asiatiques, que la Fed a pris de mauvaises décisions en matière de politique monétaire et que les Etats-Unis ont subi une bulle immobilière (et que trop de prêts ont été accordés aux pauvres (1)). Du côté européen, l’accent a été mis sur les excès d’endettement de la périphérie de la zone euro et parfois sur les faiblesses de l’architecture de la zone euro. Pourtant, avec tout ce que j’ai lu ici et là à ce sujet, il semble que nous devrions surtout nous focaliser sur le secteur financier aussi bien aux Etats-Unis qu’en zone euro et bien sûr au Royaume-Uni. Selon moi, la crise a éclaté parce que les banques aux Etats-Unis et en Europe se sont appuyées sur un levier d’endettement trop important, si bien qu’une crise ne pouvait que survenir.

C’est pour cette raison que j’ai trouvé si intéressante la présentation que propose Tam Bayoumi de son nouveau livre.

Il affirme que presque tous les ingrédients pour la crise étaient en place dès 2002. En Europe, nous avions de très grandes banques universelles (combinant les activités de banque de détail et de banque d’investissement) qui étaient bien trop endettées. Aux Etats-Unis, les activités de banque de détail et de banque d’investissement étaient séparées, avec des réglementations strictes sur les banques de détail, mais laxistes en ce qui concerne les banques d’investissement, ce qui s’est traduit par l’essor d’un véritable système bancaire parallèle (les dépôts se déplaçant effectivement vers les banques d’investissement, comme Lehman Brothers, qui s’endettèrent à nouveau de trop). En 2002, ces deux zones étaient séparées par la géographie, mais un petit changement réglementaire en 2003 permit à ce que des liens se développent entre les deux. Ensuite, ce ne fut qu’une question de temps avant qu’éclate la crise financière mondiale, "mondiale" dans le sens où elle concernait les Etats-Unis et l’Europe.

Comment ces banques ont-elles fini par devenir surendettées ? Selon Bayoumi, la création en Europe des banques universelles constituait une tentative manquée de créer un marché bancaire européen unique. Il y eu ensuite des échecs en matière de réglementation qui permirent à ces banques de se développer (via le levier d’endettement) en manipulant leur propre pondération des risques. Cela donna à ces banques la possibilité d’opérer à grande échelle en Europe du Sud et en Amérique du Nord. Aux Etats-Unis, les banques d’investissement n’étaient pas réglementées parce que la Fed croyait fermement que la concurrence assurait une régulation efficace pour ce type de banques.

Donc, la crise financière mondiale est avant l’histoire d’un système bancaire hyperconnecté et surendetté des deux côtés de l’Atlantique, attendant simplement qu’un choc suffisamment puissant amène l’ensemble du système à son point critique. L’hypothèse, que l’histoire confirme, est que la finance est naturellement sujette à de telles crises, ce qui explique pourquoi le secteur est réglementé, donc cette histoire est aussi une histoire d’erreurs en termes de réglementation. Bayoumi affirme que chacune de ces erreurs peut être mise sur le compte de véritables erreurs intellectuelles, mais il me rejoint lorsqu’il dit qu’il est parfois difficile de dire dans quelle mesure elles résultent aussi de pressions politiques de puissants intérêts politiques.

Est-ce que les gouvernements et les régulateurs des deux côtés de l’Atlantique Nord en ont fait assez depuis la crise financière mondiale pour corriger les erreurs qui ont été commises ? La réponse est compliquée et il vaut mieux que vous lisiez le livre pour trouver la réponse de Bayoumi. J’aimerais conclure avec une observation. Dans la suite immédiate d’une crise, les gens ont tendance à s’appuyer sur leurs préjugés pour expliquer pourquoi elle a éclaté. Ceux qui voulaient s’en prendre à la politique monétaire américaine, notamment pour détourner l’attention des excès du secteur financier, en ont profité pour le faire. Ceux qui ont conçu la zone euro de façon à éviter que les gouvernements de la périphérie soient trop dépensiers ont parlé de l’endettement excessif de ces gouvernements.

Vous pouvez voir la même chose avec le Brexit et Trump. Bien que la protestation de la part des "laissés pour compte" ait joué un certain rôle, l’idée selon laquelle il s’agit des récits complets collait avec certains éléments, mais elle est tout simplement incorrecte, comme l’affirme la nouvelle étude de Gurminder K. Bhambra. Au cours du temps, les choses s’éclaircirent. Ce que cette analyse de Tam Bayoumi montre avec rigueur est que la finance doit toujours être proprement réglementée et que les échecs en matière de réglementation ont des répercussions catastrophiques.

(1) De nouvelles études empiriques suggèrent que l’effondrement de la bulle immobilière peut avoir davantage à voir avec les spéculateurs immobiliers qu’avec les emprunteurs à faible revenu. »

Simon Wren-Lewis, « What really caused the financial crisis », in Mainly Macro (blog), 9 novembre 2017. Traduit par Martin Anota

vendredi 10 novembre 2017

La macroéconomie est-elle une science ou une religion ?

« Dans un article désormais très célèbre, "The Science of Monetary Policy", qu’ils publièrent en 1999, trois grands économistes, Richard Clarida, Jordi Galí et Mark Gertler, affirmèrent que la politique monétaire est une science. Bien qu’il y ait une part de vérité dans cette affirmation, Clarida et ses coauteurs auraient pu se demander dans leur article si la macroéconomie était une religion ou une science.

La science et la religion forment un drôle de ménage. La science date du siècle des Lumières. La religion remonte à l’aube de l’histoire. La science est soutenue par le rationalisme. La religion est soutenue par le dogme. La science est mise au défi par l’expérimentation. La religion est codifiée par des érudits et protégée par un clergé. La macroéconomie présente des aspects relevant aussi bien de l’une que de l’autre.

Les macroéconomistes construisent des théories codifiées par des systèmes d’équations. Nous utilisons ces équations pour expliquer les schémas que l’on décèle dans les données économiques. A la différence des sciences expérimentales, la chimie et la physique par exemple, les macroéconomistes ne peuvent facilement expérimenter. Cela ne signifie pas que nous ne pouvons pas mettre à l’épreuve les théories existantes, mais qu’il est plus difficile de le faire. Comme les astronomes attendant qu’une nouvelle supernova explose, les macroéconomistes doivent attendre de grandes récessions ou de graves stagflations pour que nous puissions privilégier une théorie plutôt qu’une autre.

L’incapacité à expérimenter est plus sérieuse que ce que pensent la plupart des macroéconomistes. Lorsque Clarida, Galí et Gertler écrivaient leur article sur la politique monétaire, ils mettaient en avant une théorie néo-keynésienne. Cette théorie était codifiée par trois équations qu’ils utilisaient pour expliquer le PIB, le taux d’intérêt et l’inflation. Les équations néo-keynésiennes sont largement utilisées aujourd’hui par les décideurs politiques dans chaque grande banque centrale pour aider à guider la politique économique. Et si ces équations étaient incorrectes ?

Les économistes sélectionnent une théorie plutôt qu’une autre en utilisant une procédure statistique appelée maximum de vraisemblance. Nous disons que la théorie A est meilleure que la théorie B si les données que nous observons ont une plus forte probabilité d’être générées par A que par B. Dans une étude que j’ai réalisée avec Andreas Beyer, un économiste de la BCE, nous avons montré comment produire des théories qui ne peuvent pas être distinguées de cette façon. Si vous proposez avec la théorie A d’expliquer un ensemble de données X, notre procédure va produire une autre, la théorie B, qui a la probabilité identique d’avoir généré les données observées que la théorie A.

Les choses empirent. Nous donnons un exemple de ce problème où la théorie A et la théorie B fournissent des conclusions de politique contradictoires. La seule façon de les distinguer consisterait pour un décideur d’expérimenter en changeant la façon par laquelle il réagit aux données économiques. La Banque d’Angleterre peut, par exemple, relever son taux directeur, tandis qu’au même instant, le comité fédéral d’open market aux Etats-Unis réduit le taux des fonds fédéraux.

Les macroéconomistes peuvent expliquer relativement bien les données passées. Mais nous ne sommes pas trop bons lorsqu’il s’agit d’expliquer de nouveaux événements et nos théories sont toujours en évolution. En ce sens, l’économie est une science. La façon par laquelle on permet à nos modèles d’évoluer est contrôlée par un groupe de grands prêtres qui maintiennent la pureté doctrinale. En ce sens, l’économie est une religion. L’aspect religieux est important en temps normal, lorsque nous n’avons pas connu de grand événement dans le passé immédiat. A d’autres moments, peu après que nous ayons assisté à une supernova économique, l’emprise des grands prêtres devient contreproductive et c’est un temps fertile pour explorer des idées que les prêtres considèrent comme hérétiques. C’est un tel moment que nous connaissons aujourd’hui. »

Roger Farmer, « Macroeconomics: Religion or Science? », in Roger Farmer’s Economic Window (blog), 5 novembre 2017. Traduit par Martin Anota

lundi 30 octobre 2017

Portrait des cinq candidats à la présidence de la Fed

« L’administration Trump a dit qu’elle annoncera avant le 3 novembre sa décision sur la nomination de la personne qui présidera la Réserve fédérale. S’il est confirmé par le Sénat, le candidat choisi succèdera à Janet Yellen, dont le mandat s’arrête le 3 février. La Maison Blanche a indiqué qu’elle privilégiait cinq candidats. Deux d’entre eux sont d’éminents économistes qui ont réalisé d’importants travaux dans la recherche universitaire, principalement dans des universités de la côte ouest des Etats-Unis, mais qui sont aussi des praticiens de la politique macroéconomique : il s’agit de Yellen même, qui est un candidat très sérieux à sa propre succession, et John Taylor, de Stanford. Les trois autres candidats ne sont pas professionnellement formés comme économistes, mais viennent plutôt du milieu financier : Gary Cohn, Jerome Powell et Kevin Warsh. Ils travaillèrent, respectivement, à Goldman Sachs, à Dillon Read et à Morgan Stanley ; tous les trois ont une expérience gouvernementale.

Considérons tout d’abord les deux candidats qui siègent au conseil des gouverneurs à la Fed.

Yellen


Bien que Janet Yellen soit une Démocrate initialement nommée par le Président Obama, il y a plusieurs précédents historiques pour que Trump renouvelle son mandat. Ses trois prédécesseurs, Ben Bernanke, Alan Greenspan et Paul Volcker, ont tous vu leur mandat être renouvelé par un Président du parti opposé à celui qui les avait initialement nommés. Il y a des avantages à opter pour la continuité et la prédictibilité.

Yellen a fait un excellent boulot au cours de ces quatre années à la présidence de la Fed. (…) Bien qu’elle n’ait pas eu à faire face aux débuts de la crise, elle a présidé efficacement, si bien que la reprise de l’économie suite à la Grande Récession de 2007-2009 s’est poursuivie de façon régulière. Bien sûr, la politique monétaire n’est pas le seul déterminant de la performance économique nationale, en particulier sous les conditions qui ont prévalu après 2008. (Sous ces conditions, la politique budgétaire aurait été un outil bien plus puissant que la politique monétaire, malheureusement les politiciens ne se sont pas accordé leurs violons pour modifier les impôts et dépenses de façon contracyclique et non pas procyclique.) Mais il y a des choses importantes que la Fed peut faire même lorsque les taux d’intérêt sont à leur borne inférieure zéro ou proches de celle-ci et la Fed les entreprit sous la présidence de Bernanke, puis celle de Yellen. Yellen a réussi à combiner une clarté dans la communication, auprès de divers publics, avec une flexibilité dans la mise en œuvre de la politique monétaire, en modifiant adéquatement cette dernière lorsque les données en temps réel montraient de subtils changements dans les conditions économiques. Il n’est pas facile de combiner ces deux compétences, comme la transparence peut conduire à adopter la pratique du forward guidance ou à s’engager vis-à-vis de règles que les événements futurs amènent à abandonner. En conséquence, Yellen et ses collègues à la Fed méritent une grande partie du crédit pour la longueur de l’actuelle expansion économique.

Le taux de chômage était de 9,9 % quand Yellen fut introduite au conseil de la Fed en 2010, de 6,7 % lorsqu’elle prit la présidence de ce conseil en 2014 et de 4,2 % désormais. Et pourtant l’inflation ne s’est pas sensiblement accélérée. Cette combinaison de faible chômage et de faible inflation est généralement considérée comme étant le Nirvana macroéconomique.

A entendre plusieurs commentateurs récemment, le fait que l’inflation ne soit pas revenue à 2 %, voire plus, constituerait un problème majeur. Mais je ne considère pas que ce soit le cas. La Fed a su maintenir l’économie américaine au plein emploi. (Et les populistes ont tort s’ils pensent que la faiblesse des taux d’intérêt est mauvaise pour la distribution des revenus.) La différence entre une inflation de 1,5 % et une inflation de 2 %, que certains considèrent comme énorme, me semble suffisamment faible pour être une aberration temporaire ou même une erreur de mesure.

Powell


Jay Powell, qui a été au conseil pendant cinq ans, se présente naturellement comme un candidat de compromis. D’un côté, il a soutenu la stratégie de Yellen, généralement perçue comme étant "dovish". D’un autre côté, il vient des marchés financiers et il est depuis toujours un Républicain. Ces traits devraient écarter toute opposition de la part des Républicains au Congrès, notamment de ceux qui votèrent contre le renouvellement du mandat de Ben Bernanke en janvier 2010, ce qui était d’ailleurs scandaleux au regard de ses qualifications professionnelles et intriguant au regard de son histoire (Bernanke est un natif de la Caroline du Sud qui présidé le Conseil Economique de George W. Bush).

Les thésards en économie tendent à connaître et aimer leurs semblables et à douter des qualifications des autres pour les postes en haut de la hiérarchie. En effet, les docteurs en économie dominent le personnel et la présidence à la Fed. Les docteurs parmi les présidents de district étaient peut-être relativement rares il y a 70 ans, mais ils sont désormais majoritaires, et ils sont de plus en plus apparus ces dernières décennies comme nécessaires pour la présidence. La tendance est également générale dans d’autres pays. Un banquier central sans doctorat d’économie aurait des difficultés à gérer un personnel technique qualifié qui maîtrise des modèles compliqués et le jargon de l’économie universitaire. Il va de soi que certains brillants universitaires ne possèdent pas les autres traits personnels nécessaires pour être gérer et diriger une équipe. Mais même si un doctorat n’est pas une condition suffisante pour la présidence de la Fed, est-ce une condition nécessaire ?

Je suis peut-être l’un des rares économistes universitaires qui a eu la chance de connaître Jay Powell depuis 1990. Permettez-moi ainsi d’offrir mon témoignage le concernant. Contrairement à beaucoup de personne au gouvernement, dans le secteur privé et même à l’université, Powell n’est pas du genre à "ne pas savoir ce qu’il ne sait pas". Il n’a pas de complexe à admettre qu’il puisse avoir des questions sur un sujet ou un autre. Par conséquent, Powell maîtrisait le côté analytique de ce qu’il devait savoir en tant que gouverneur à la Fed. De plus, il n’aurait pas de difficulté à travailler avec les thésards du personnel. S’il est choisi, ce sera l’une des meilleures nominations qu’aura faite Trump.

Powell est généralement considéré comme une autre colombe (dove), parce qu’en tant que gouverneur à la Fed, il a voté en faveur des politiques de faible taux d’intérêt de Yellen (bien qu’il ait aussi soutenu les récents mouvements vers une normalisation des taux d’intérêt).

Warsh


Plusieurs Républicains se sont montrés très critiques vis-à-vis des tentatives de la Fed visant à stimuler l’économie américaine lors de la récession de 2007-2009, en jugeant qu’une expansion sans précédent de la base monétaire (l’aspect le plus visible de l’assouplissement quantitatif) entraînerait une forte inflation. Souvenez-vous lorsque le gouverneur du Texas Rick Perry a menacé Ben Bernanke ("on lui fera la fête au Texas") pour sa relance monétaire en 2011, c’est-à-dire lorsque le chômage était toujours de 9 %. Ces avertissements se faisaient déjà entendre au cœur de la récession, lorsque l’excès de capacités dans l’économie amenait la plupart des économistes à conclure que l’inflation était alors la dernière chose dont il fallait alors s’inquiéter. Warsh a tenu de tels propos "hawkish" en 2010, quant le chômage était de 9,5 %. On peut se demander s’il comprend comment l’économie fonctionne.

Taylor


On ne peut pas dire que John Taylor ne comprenne pas le fonctionnement de l’économie. Parmi les économistes monétaristes, c’est le cinquième le plus cité. (C’est en comptant le nombre de citations que les universitaires aiment mesurer leur réputation. Ben Bernanke est, selon cet indicateur, au premier rang des économistes monétaires.) Il est très connu pour sa règle de Taylor, un guide pour fixer les taux d’intérêt en réponse à l’inflation et à la croissance observées. Mais même avant qu’il établisse cette règle, il a apporté d’importantes contributions à la macroéconomie, notamment la théorie des contrats imbriqués qui aident à réconcilier la théorie des anticipations rationnelles et la réalité des prix visqueux.

Comme Warsh, Taylor trouve que la politique monétaire est trop souple, ce qui explique peut-être pourquoi le Wall Street Journal les a tous deux encensés. Cette critique de la Fed est davantage justifiée dans le cas du laxisme d’Alan Greenspan lors du gonflement de la bulle immobilier, dans les années qui précédèrent la crise du crédit immobilier de 2007. Mais jusqu’à 2005, Taylor était secrétaire adjoint du Trésor pour les Affaires internationales. On peut alors se demander pourquoi il n’a alors pas indiqué aux gouverneurs (en privé) qu’il jugeait la politique monétaire excessivement expansionniste en 2003 et 2004.

Cohn


Gary Cohn, actuellement directeur du Conseil Economique National de Trump ne s’y connait pas en économie monétaire, que ce soit en termes de formation technique ou d’expérience en tant que praticien. On ne connait pas ses idées sur la politique monétaire. Sur la réglementation financière, il s’est montré Trumpien en déclarant que le gouvernement a été trop dur avec les banques suite à la crise financière.

Les faucons (hawks) et les colombes (doves)


Depuis qu’Obama a accédé à la présidence en 2009, la plupart des leaders républicains se sont plaints d’une politique monétaire qu’ils jugent trop accommodante (notamment Trump, lorsqu’il faisait compagne pour la présidence, avant qu’il n’accède à la présidence en janvier et se décrive soudain finalement comme un "homme de faibles taux", alors même que l’économie atteignait le plein emploi). Les Républicains du Congrès voulaient l’adoption des règles de Taylor par la Fed. Plusieurs d’entre eux pensent toujours la même chose et c’est d’ailleurs pour cela qu’ils appellent Trump à nommer John Taylor.

L’Histoire montre que les Républicains appellent à un assouplissement de la politique monétaire lorsqu’ils ont la présidence, même des "vrais conservateurs" comme Nixon et Reagan. On peut s’attendre à ce qu’à un moment ou un autre dans le futur, peut-être à la veille des prochaines élections présidentielles, la situation des marchés financiers et de l’économie se détériora et que le Président en rendra responsable la Fed. Il dira alors, non pas que la politique monétaire est trop souple, mais qu’elle est au contraire trop restrictive.

Mais les bons banquiers centraux prennent leurs décisions de façon à choisir ce qui semble le mieux pour l’économie en se basant sur des données changeantes, pas sur ce qui convient le mieux aux besoins politiques changeants du parti au pouvoir. Les gouvernements en place ont démontré leur capacité à le faire. (…) »

Jeffrey Frankel, « The choice of candidates for next Fed chair », in Econbrowser (blog), 29 octobre 2017. Traduit par Martin Anota

jeudi 26 octobre 2017

Fed : John Taylor est-il vraiment un faucon ?

« Deux articles publiés dans la revue Bloomberg il y a une semaine se penchent sur John Taylor, l’un des grands favoris pour diriger la Réserve fédérale. Mais si le premier le qualifie de faucon (hawk), le second le qualifie de colombe (dove).

Le premier article, écrit par Garfield Clinton Reynolds, note que : "le dollar s’est apprécié et le taux sur les obligations du Trésor a chuté lundi après que Bloomberg News ait indiqué que le Président Donald Trump s’est dit impressionné par Taylor lors d’un récent entretien à la Maison blanche". Beaucoup semblent penser que cet économiste de 70 ans relèverait davantage les taux d’intérêt que ne le ferait l’actuelle présidente de la Fed, Janet Yellen, si elle restait en place. C’est notamment parce qu’il est l’architecte de la règle de Taylor, une règle largement utilisée par les responsables de la politique économique comme guide pour fixer les taux depuis qu’il l’a développée au début des années quatre-vingt-dix.

Mais le second article, rédigé par Rich Miller, affirme que "le fait que Taylor croit en l’économie de l’offre fait de lui davantage une colombe que Yellen". Miller s’explique : "alors que Taylor croit l’administration Trump peut substantiellement stimuler la croissance économique sans générer d’inflation via la déréglementation et des mesures fiscales, Yellen est plus prudente sur leurs effets. Cela suggère que le Républicain Taylor serait moins susceptible d’accroître les taux d’inflation en réponse à une accélération de l’activité qui résulterait de la mise en œuvre de ces mesures de politique économique".

Qu’est-ce qui fait d’une personne un faucon ? Le fait qu’elle favorise une politique basée sur des règles ne suffit pas. Un banquier central peut utiliser une variante de la règle de Taylor qui implique une très faible réaction à l’inflation ou qui permette une inflation très élevée en moyenne. Le fait qu’une personne croit ou non en l’efficacité des politiques d’offre ne fait pas d’elle un faucon ou une colombe. Rappelons la règle de Taylor qu’avançait Taylor dans son article de 1993 :

r = p + .5y + .5(p – 2) + 2,

où r est le taux des fonds fédéraux, y est l’écart en pourcentage du PIB réel par rapport à une cible et p est l’inflation au cours des 4 trimestres précédents. Taylor note (p. 202) que l’inflation retardée est utilisée comme indicateur pour l’inflation anticipée et y=100(Y-Y°)/Y° où Y est le PIB réel et Y° est le PIB tendanciel (un indicateur pour le PIB potentiel).

Les coefficients de 0,5 associés aux termes y et (p-2) reflètent la façon par laquelle Taylor a estimé que la Fed se comportait approximativement, mais en général une règle de Taylor peut avoir des coefficients différents en fonction des préférences de la banque centrale. Cette dernière peut aussi avoir une cible d’inflation qui ne soit pas égale à 2 % et remplacer le terme (p-2) par (p-p°). Le fait de s’engager réellement à suivre une règle de Taylor ne vous dit pas quel taux d’inflation à l’état régulier, ni quelle volatilité accepterait un banquier central. Par exemple, une banque centrale peut suivre une règle avec p°=5 et un coefficient relativement large sur y et un petit coefficient sur (p-5), ce qui permet une inflation à la fois forte et volatile.

Qu’est-ce que les croyances « du côté de l’offre » impliquent-elles ? Eh bien, Miller pense que Taylor croit que les mesures de Trump en matière de fiscalité et de déréglementation vont accroître le PIB potentiel ou Y°. Pour une valeur donnée de Y, une estimation révisée à la hausse de Y° implique une révision à la baisse de l’estimation de y, ce qui implique un r plus faible. Donc, oui, à très court terme, nous pouvons voir un plus faible r de la part d’un banquier central qui "croit" en l’économie de l’offre que ceux qui n’y croient pas, toute chose égale par ailleurs.

Mais que se passe-t-il si Y° ne s’accroît pas autant qu’un banquier central partisan de l’offre ne le pense ? Alors, le moindre r va se traduire par un p plus élevé (mais aussi un Y plus élevé), si bien que la banque centrale va réagir en accroissant r. Aussi longtemps que la banque suit le principe de Taylor (donc que la somme des coefficients de p et p-p° dans la règle soit supérieur à l’unité), alors l’inflation d’équilibre à long terme sera p°.

Les paramètres de la règle de Taylor reflètent les préférences de la banque centrale. Les variables du côté droit, comme Y°, sont l’objet d’une mesure ou d’une prévision. Cela reflète les compétences d’une banque centrale en matière de mesure et de prévision, des compétences qui dépendent de facteurs allant de la puissance des économistes de son personnel (…) à la volatilité et à l’imprévisibilité des autres conditions et politiques économiques.

Ni Taylor, ni Yellen ne semblent vouloir désirer changer la cible d’inflation pour autre chose que qu’une inflation de 2 % (et même s’ils le voulaient, ils ne pourraient pas prendre unilatéralement cette décision). Ils ne présentent par contre peut-être pas les mêmes préférences lorsqu’il s’agit de décider de stabiliser l’inflation relativement à la production et je pense que, à cet égard, Taylor est davantage faucon que Yellen.

Les tentatives de Yellen visant à chercher des mesures alternatives de conditions sur le marché du travail par le passé concernent aussi Y°. Dans certaines versions de la règle de Taylor, ce sont des mesures de chômage à la place des mesures de la production (l’idée est qu’ils varient en général de concert). La volonté de considérer de multiples mesures de l’emploi ou de la production se ramène finalement à une tentative visant à obtenir une meilleure mesure de la distance que l’économie accuse vis-à-vis de son "potentiel". Cela ne rend pas en soi une personne plus ou moins "hawkish".

Entre parenthèses, toute cette discussion présume que la politique monétaire elle-même (et, plus généralement, les déplacements de la demande globale) ne modifient pas Y°. Or la prise en compte des effets d’hystérèse amènent à rejeter cette hypothèse. »

Carola Binder, « Is Taylor a hawk or not? », in Quantitative Ease (blog), 24 octobre 2017. Traduit par Martin Anota



aller plus loin... lire « La règle de Taylor doit-elle être une référence pour la politique monétaire ? »

mardi 24 octobre 2017

Une réduction de l'impôt des entreprises profite-t-elle vraiment aux salariés ?

« Je doute beaucoup que de nouveaux faits ou de nouvelles analyses parviennent à infléchir le destin des réductions d’impôts de Trump. Il est évident aux yeux de quasiment tout le monde (et je pense même aux yeux de ceux qui appellent à celles-ci) qu'elles vont rapporter de gros bénéfices pour les riches, mais si peu, voire même aucun, pour les classes moyennes et qu’elles vont fortement accroître le déficit. En fait, ce ne sont pas seulement des conséquences probables, mais des objectifs : de gros bénéfices pour la classe des donateurs et de futurs déficits qui peuvent être utilisés comme justification pour ébranler davantage le système de protection sociale.

Pour autant, il y a une discussion assez intéressante qui se tient actuellement sur les effets des réductions d’impôts des entreprises dans une économie ouverte. Mais (selon moi) cette discussion est rendue quelque peu confuse du fait qu’elle a lieu dans le cadre de modèles de Ramsey (pour les non-initiés qui ont ignoré mes avertissements et qui sont toujours en train de me lire, sachez qu’il s’agit de modèles d’épargne optimale où les consommateurs sont immortels.) L’épargne des consommateurs ne joue en fait pas de rôle clé ici ; cela ne concerne que la mobilité internationale de capitaux et la façon par laquelle celle-ci change les choses.

Et, à mes yeux, il y a une façon géométrique assez simple pour voir d’où provient la vision optimiste selon laquelle la réduction des impôts des entreprises est une bonne chose pour les salaires. De plus, une fois que nous avons adopté ce cadre plus clair, il devient beaucoup plus facile de se demander ce qui ne va pas avec cette vision des choses (réponse : beaucoup).

Donc, envisageons une petite économie ouverte avec une main-d’œuvre fixe (parce que l’offre de travail n’est pas cruciale ici) qui peut importer des capitaux du reste du monde ou en exporter vers ce dernier. Ignorons aussi l’épargne, qui n’est pas non plus cruciale ici : le stock de capital, comme nous allons le supposer, ne change qu’à travers les entrées et sorties de capitaux. Oh, et supposons provisoirement que la concurrence est parfaite, donc que les facteurs de production sont rémunérés à leur productivité marginale.

Alors, nous pouvons représenter l’économie avec le graphique, avec le stock de capital sur l’axe des abscisses et le taux de rendement du capital sur l’axe des ordonnées. La courbe MPK est le produit marginal du capital, qui diminue avec la quantité de capital en raison de la fixité de la population active. L’aire sous la droite MPK (l’intégrale des produits marginaux des unités successives de capital) est le PIB réel de l’économie, sa production totale.

Paul_Krugman__geometrie_baisse_d__impots_des_entreprises.png

Initialement, nous supposons que l’économie fait face à un taux de rendement mondial donné r°. Cependant, le gouvernement impose un impôts sur les profits à un taux t, si bien que pour atteindre un rendement après impôt r° le capital domestique doit gagner r°/(1-t). Et, à l’équilibre initial, cette condition détermine la taille du stock de capital domestique.

Nous pouvons relever la distribution du revenu dans le graphique en regardant les aires de divers rectangles. A l’équilibre initial la production réelle s’élève à a+b+d. Ici, d est le rendement du capital après impôt, b désigne les impôts sur les profits et a (c’est-à-dire le reste) représente les salaires.

Maintenant, imaginons que nous éliminions l’impôt sur les profits (nous pouvons aussi faire une petite réduction, mais c’est plus difficile et les choses sont déjà assez complexes). A l’équilibre, le stock de capital s’accroît de ΔK, tout comme le PIB, pour s’élever à a+b+c+d+e (où, cependant, e est le rendement du capital étranger, si bien que le PNB ne s’accroît pas autant que le PIB). Les impôts sur les profits disparaissent : c’est une perte de revenu de b. Mais les salaires augmentent et s’élèvent désormais à a+b+c, c’est-à-dire augmentent de b+c, c’est-à-dire d’un montant supérieur à celui de la perte de revenu. Bravo pour la rédaction des impôts sur les entreprises !

Bon, qu’est-ce qui ne va pas avec cette vision ? Pourquoi ne devrions-nous pas la croire ? Il y a au moins quatre raisons.

Premièrement, ce n’est essentiellement pas le rendement du capital que nous taxons avec l’impôt sur les profits des entreprises ; il y a les profits de monopole et autres genres de rentes. Il n’y a pas de raison de croire que ces rentes soient associées aux afflux de capitaux, si bien que la perte de revenu sur ces taxes s’apparente juste à une perte de revenu et ne s’accompagne donc pas d’un gain pour les salaires.

Deuxièmement, la mobilité des capitaux est loin d’être parfaite.

Troisièmement, les Etats-Unis ne sont pas une petite économie ouverte. Ils peuvent affecter les taux de rendement mondiaux. (…) Nous faisons sûrement face à une courbe d’offre du capital croissante, ce qui signifie que les gains salariaux tirés des réductions d’impôts sur les profits sont plus faibles.

Enfin, (…) ce dont nous parlons ici est un équilibre de long terme, c’est-à-dire de quelque chose qui se passe après que suffisamment de capitaux étrangers aient afflué pour égaliser les taux de rendements après impôt. Comment cela se déroule-t-il ? Vous ne faites pas passer des usines par la frontière : les afflux de capitaux prennent place comme contrepartie à des déficits commerciaux, qui ont été créés par un taux de change réel temporairement surévalué. Et le genre d’ajustement dont nous parlons ici nécessiterait de déplacer beaucoup de capital, ce qui signifie de très gros déficits commerciaux, ce qui signifie un dollar fortement surévalué, ce qui dissuaderait les afflux de capitaux. Donc nous parlons d’un processus lent, prenant place sur plusieurs années. L’analyse de long terme est un guide très imparfait de l’incidence des impôts des entreprises dans tout horizon temporel qui soit pertinent politiquement. Au cours d’horizons plus courts, vous vous attendriez à ce qu’une part très limitée de la réduction d’impôts des entreprises se répercute sur les travailleurs. (…) »

Paul Krugman, « Some misleading geometry on corporate taxes », in The Conscience of a Liberal (blog), 21 octobre 2017. Traduit par Martin Anota



« (…) Il semble que pratiquement tous économistes conservateurs plus ou moins respectables qui se penchent sur le sujet ont fait une erreur algébrique et conceptuelle de base. En soi, cette erreur n’est pas du tout cruciale au débat de politique économique. D’autres questions importent bien plus, notamment les impôts sur les profits de monopole, le fait que les Etats-Unis ne soient pas une petite économie ouverte et le peu d’intérêt des conclusions d’équilibre à long terme étant donnée la lenteur de l’ajustement imposée par l’intégration imparfaite des marchés des biens.

Mais on peut penser que ce que nous voyons ici s’apparente à la fameuse erreur de programmation sur Excel lors du débat autour de l’austérité budgétaire : ce n’est pas tant l’importance de l’erreur que le fait qu’elle dénote un raisonnement désordonné, des conclusions qui sont adoptées sans vérification parce qu’elles promeuvent un agenda politique.

L’affirmation dont il est question ici, c’est celle selon laquelle les gains salariaux tirés d’une réduction de l’impôt des entreprises excède la perte de revenu d’un ratio qui dépend seulement du taux d’impôt initial, pas du tout du degré auquel le capital peut être substitué par du travail, qui doit déterminer à son tour (dans ce modèle) le montant de capital additionnel qui est attiré par la réduction d’impôts. Cela semble faux ; et ça l’est.

Je continue de penser que la façon la plus claire de faire cela est avec un diagramme simple représentant la productivité marginale du capital. Ici MPK est le produit marginal du capital, c’est-à-dire la demande de capital, et r° est le taux de rendement mondial.

Paul_Krugman__baisse_d__impots_des_entreprises_gain_salarial.png

Mais je fais une légère transformation des variables. Avec une mobilité parfaite des capitaux, à long terme nous devons avoir :

r(1-t) = r°

où r est le taux de rendement domestique et t le taux d’impôt des entreprises. Mais nous pouvons réarranger cela pour écrire

r = r° + τ

où τ = rt/(1-t) et correspond à l’impôt spécifique sur le capital, c’est-à-dire l’impôt payé par unité de capital.

Faire cela permet de rendre les choses linéaires : nous pouvons représenter une petite variation des impôts comme d τ, etc.

(…) Dans le graphique, sont représentées les conséquences à long terme d’une petite réduction d’impôt des entreprises dans une petite économie ouverte, indiquées par les deux rectangles coloriés (le petit triangle blanc est de second ordre et peut être ignoré). Il y a une perte directe de revenu, qui correspond aussi au gain salarial, égal au rectangle bleu K dτ. Une partie de cette perte de revenu est compensée par les impôts sur le capital additionnel qui arrive : dK τ. A quel point ces effets de second tour et par conséquent le ratio des gains salariaux relativement aux pertes de revenu sont-ils importants ? Cela dépend évidemment (évidemment !) de la quantité de capital qui arrive, qui dépend elle-même de la sensibilité de MPK à la quantité de capital, c’est-à-dire de la pente de la courbe MPK. Si elle est pratiquement verticale, comme Brad le note, il n’y a essentiellement pas de compensation.

Donc, l’affirmation selon laquelle seul le taux d’imposition initial importe ne peut être exacte. Comment quelqu’un pourrait imaginer le contraire ? (…) »

Paul Krugman, « The simple and misleading analytics of a corporate tax cut », in The Conscience of a Liberal (blog), 24 octobre 2017. Traduit par Martin Anota

samedi 21 octobre 2017

Petit panorama des inégalités mondiales de revenu

« Les données que la Banque mondiale a récemment publiées sur les comptes nationaux (le PIB par tête, la consommation nationale, les indices des prix à la consommation, les exportations et importations, etc.) nous permettent d’actualiser le calcul des inégalités internationales. Les choses ne sont pas toujours très évidentes et je vais devoir notamment expliquer certains choix méthodologiques. En utilisant la classification que j’ai introduite dans mon livre de 2005, World Apart, je vais passer en revue trois types d’inégalités internationales et mondiales.

Commençons avec le plus simple. Prenons le PIB par tête de tous les pays (exprimés en dollars internationaux de 2005, comparables au cours du temps, basés sur le Projet de Comparaison Internationale de 2011) et calculons l’indice de Gini avec eux. (Ignorons le fait qu’il s’agisse de pays petits ou de pays peuplés). Le nombre de pays varie comme il y a plus de pays dans le monde aujourd’hui qu’en 1952, quand notre série commence, donc le mieux est de regarder la ligne rouge seulement après 1980. Après cette date, le nombre de pays est à peu près constant et des pays indépendants devenus indépendants depuis (comme l’Ukraine, la Macédoine, la Slovaquie, l’Erythrée) étaient alors considérés comme des pays séparés, quand ils faisaient partie d’ensembles plus larges (l’URSS, la Yougoslavie, etc., produisaient des données pour leurs unités constituantes comme les Etats-Unis produisent des données comptables pour chacun de ses Etats).

Branko_Milanovic__indice_de_Gini_inegalites_mondiales_internationales.png

Que voyons-nous avec la ligne rouge ? Une hausse de l’indice de Gini entre le milieu des années quatre-vingt et les années deux mille, ce qui indique une divergence des revenus moyens des pays et ensuite, après le tournant du siècle, une convergence. La convergence s’explique essentiellement par des taux de croissance plus élevés en Afrique, en Asie et en Amérique latine que dans les pays riches, en particulier après 2007. (Ceux qui étudient l’économie de la croissance peuvent facilement reconnaître ici l’histoire de la convergence ou divergence inconditionnelle, mais calculée en utilisant l’indice de Gini plutôt qu’une régression.)

Donc ce serait la fin de l’histoire si les pays avaient la même population. Mais ce n’est évidemment pas le cas. Pour les inégalités mondiales, la convergence de la Chine et du Tchad, de l’Inde et d’Israël, ne sont pas équivalentes. Si le PIB par tête de la Chine converge vers celui des pays riches, ce sera bien plus important. Pour voir dans quelle mesure regardons la ligne bleue où nous utilisons les PIB par tête des pays comme avant mais en les pondérant maintenant par la taille de la population. Ce qui frappe, c’est de voir qu’après 1978, précisément quand la croissance chinoise s’est accélérée, la ligne bleue commence à être décroissante, tout d’abord lentement, puis ensuite de plus en plus rapidement. Après 2000, l’indice de Gini semble être en chute libre. Quand nous nous penchons un peu plus sur les données, nous constatons que jusqu’à 2000 l’essentiel de la réduction des inégalités s’explique par la dynamique chinoise. Sans la Chine, la ligne bleue aurait été croissante. Mais après 2000, même si nous ne prenons pas en compte la Chine, les inégalités pondérées en fonction de la taille des populations diminuent : elles baissent avec la croissance rapide que connaît l’Inde (et l’Indonésie, le Vietnam, etc.). C’est pourquoi nous avons maintenant deux gros moteurs derrière la réduction internationale des revenus : la Chine et l’Inde. Cependant, comme la Chine devient plus riche elle peut ne jouer encore ce rôle très longtemps. Aujourd’hui, le PIB par tête de la Chine est presque exactement le même que la moyenne mondiale, mais celui de l’Inde est inférieur de moitié à la moyenne mondiale. Donc, dans un futur proche, le taux de croissance de l’Inde comparé à celle du monde sera d’une importance capitale.

Ce serait la fin de l’histoire si dans chaque pays tous les citoyens avaient le même revenu, c’est-à-dire s’il n’y avait pas d’inégalités intranationales. Notons que la ligne bleue suppose implicitement ceci : que tous les Chinois aient le revenu moyen de la Chine, que tous les Américains aient le revenu moyen des Etats-Unis, etc. Evidemment, ce n’est pas le cas. En outre, nous savons que les inégalités de revenu dans la plupart des pays se sont accrues. Quand nous essayons de voir les inégalités entre tous les citoyens du monde (les inégalités mondiales représentées par les points verts) nous délaissons le monde de la comptabilité nationale parce que ce monde ne peut nous donner les données relatives aux revenus individuels pour aller dans le monde des enquêtes réalisées auprès des ménages. (A partir des comptes nationaux américains, je peux apprendre que la valeur moyenne de la production produite aux Etats-Unis annuellement s’élève à 53.000 dollars. Mais je n’ai aucune idée du revenu des 1 % les plus riches ou du décile inférieur. Pour cela, j’ai besoin d’utiliser enquêtes réalisées auprès des ménages.)

On devrait naturellement nous attendre à ce que les points verts se situent au-dessus de la ligne bleue. On devrait également s’attendre à voir des points verts d’autant plus éloignés de la ligne bleue que les inégalités intranationales sont importantes. C’est en effet ce que nous voyons : les inégalités mondiales, calculées en utilisant les mêmes dollars internationaux, commencent par se situer autour d’un Gini de 0,7 et ensuite, poussées vers le bas par la ligne bleue, commencer à aller vers le bas en finissant par atteindre un Gini de 0,63.

Les évolutions des inégalités mondiales reflètent aujourd’hui deux forces à l’œuvre : la convergence de l’Asie qui amène les revenus moyens de la Chine, de l’Inde, du Vietnam, de l’Indonésie, etc., à se rapprocher de ceux du monde riche et, dans une moindre mesure, le creusement des inégalités intranationales. Si dans le futur la convergence asiatique cesse et que les inégalités intranationales poursuivent leur hausse, les points verts vont peut-être revenir vers un indice de Gini de 0,7. Mais si, à l’inverse, la convergence continue, s’étend à l’Afrique, et que les inégalités intranationales cessent d’augmenter, les points verts pourraient continuer d’aller vers le bas.

Ce serait la fin de l’histoire s’il n’y avait pas un autre problème. Nos enquêtes de ménages tendent à sous-estimer les revenus supérieurs (les revenus des fameux 1 % les plus riches). Et une question peut alors se poser : peut-être que nous sous-estimons la hauteur des points verts en ne prenant pas pleinement en compte la richesse des plus aisés. Christoph Lakner et moi avons essayé, du mieux que nous puissions, ajuster les données en fonction de cela, en supposant des sous-estimations spécifiques aux pays et en accroissant, à la Pareto, les revenus pour les 10 % les plus riches. C’est ainsi que nous obtenons les points élevés de couleur orange.

Maintenant, il faut avouer que la situation n’est pas aussi splendide qu’avant : les inégalités mondiales sont faibles par rapport aux années quatre-vingt, mais la baisse est bien plus modeste qu’on ne le pensait initialement : elle serait d’environ 3,5 points de Gini et non de 7. Est-ce que l’ajustement peut entièrement inverser la baisse et suggérer que les inégalités mondiales ont en fait augmenter ? C’est possible, mais très peu probable, parce que la convergence asiatique est si forte et affecte tellement de gens (presque 3 milliards) que même une très forte hausse dans les inégalités intranationales ne peuvent pleinement compenser ce gain. Mais nous avons besoin de données supplémentaires et de meilleure qualité pour le dire avec certitude. C’est pourquoi beaucoup de ceux qui travaillent sur le sujet cherchent à combiner les données issues des enquêtes auprès des ménages (qui sont très bonnes pour 90 – 95 % des distributions nationales) avec les données fiscales qui sont meilleures pour les 1 % les plus riches et peut-être même les 5 % les plus riches.

Donc restez à l’écoute ! »

Branko Milanovic, « Figuring out various income inequalities: what can they tell us? », in globalinequality (blog), 16 octobre 2017. Traduit par Martin Anota

jeudi 19 octobre 2017

La leçon que la politique monétaire doit apprendre

« Il m’a semblé logique d’écrire un billet à propos de la récente conférence tenue par le Peterson Institute qui se proposait de "repenser la politique macroéconomique", mais Martin Sandbu a publié sur le sujet avant moi, et il a su en parler mieux que je ne le saurais en faire. (…) Il n’y a qu’un seul point dans les propos de Martin qui m’ennuie. Je vois d’un meilleur œil que lui la proposition de Bernanke selon laquelle les banques centrales devraient temporairement cibler le niveau des prix suite à une large récession (quand les taux d’intérêt butent sur leur borne inférieure). En outre, comme Tony Yates le suggère, le ciblage du PIB nominal ne résoudra pas le problème d’asymétrie que la suggestion de Bernanke cherche à résoudre.

Martin a raison lorsqu’il écrit en fin d’article qu’"il est nécessaire d’admettre qu’on a mal su gérer les choses pour mieux les gérer à l’avenir". Nous pouvons illustrer ce point avec certains chiffres. Si nous observons les prix à la consommation, l’inflation moyenne entre 2009 et 2016 était de 1,1 % dans la zone euro, de 1,4 % aux Etats-Unis et de 2,2 % au Royaume-Uni. (…) Si nous regardons les déflateurs du PIB, nous obtenons une meilleure image, puisque ceux-ci s’élevaient à respectivement 1,0 %, 1,5 % et 1,6 % pour la zone euro, les Etats-Unis et le Royaume-Uni.

Vous pouvez penser que des erreurs de cette taille ne sont pas trop mauvaises et, de toute façon, qu’y a-t-il de mal avec une si faible inflation ? Vous auriez tort de penser cela, car en période de reprise ces erreurs se traduisent par un gâchis de ressources qui peut être considérable, comme la courbe de Phillips semble actuellement être si plate. En d’autres termes, si la politique avait été plus expansionniste, la reprise aurait été un peu plus rapide et les taux d’intérêt seraient partout aujourd’hui éloignés de leur borne inférieure.

Ce que j’aimerais ajouter aux propos de Martin, c’est préciser quel est le plus grand problème avec la politique monétaire au cours de cette période, en particulier au Royaume-Uni et dans la zone euro. Ce n’est pas, selon moi, l’échec à adopter une cible de niveaux, ni même la décision de la BCE de relever ses taux en 2011 (bien que ce resserrement monétaire a été une erreur sérieuse et coûteuse). En 2009, quand les banques centrales voulaient davantage assouplir leur politique monétaire mais sentaient que les taux d’intérêt butaient sur leur borne inférieure, elles auraient dû déclarer cela :

"Nous avons perdu notre principal instrument pour contrôler l’économie. Il y a d’autres instruments que nous pourrions utiliser, mais leur impact est grandement inconnu, si bien qu’ils sont très peu fiables. Il y a une façon supérieure de stimuler l’économie dans cette situation, en l’occurrence la politique budgétaire, mais c’est bien sûr au gouvernement qu’il appartient de décider s’il va utiliser ou non cet instrument. Tant que nous ne pensons pas que l’économie aille suffisamment mieux pour que nous puissions accroître les taux d’intérêt, l’économie n’est plus sous notre contrôler."

Je ne suis pas en train de suggérer que l’assouplissement quantitatif n’a pas d’impact positif significatif sur l’économie. Mais son utilisation pourrait suggérer aux gouvernements qu’il n’est plus de leur responsabilité d’agir en vue de mettre un terme à la récession et que ce que j’appelle le consensus sur l’assignation (consensus assignment) est toujours valide. Ce n’est pas le cas : l’assouplissement quantitatif a été l’un des instruments les moins fiables que l’on puisse imaginer.

Il serait erroné de critiquer cette idée au prétexte qu’elle amènerait la banque centrale à outrepasser son mandat et à dire aux politiciens ce qu’ils ont à faire. Les membres de la BCE passent beaucoup de temps à le faire, Mervyn King a fait la même chose mais d’une façon plus discrète, tandis que Ben Bernanke a tenu les mêmes propos que ce dernier, mais plus explicitement. Avec le consensus sur l’assignation, nous avons investi les banques centrales de la mission de gérer l’économie parce que nous pensions que les taux d’intérêt sont un bien meilleur outil que la politique budgétaire. A ce titre, il est de leur devoir de nous dire quand elles ne peuvent plus assurer cette tâche plus efficacement que le gouvernement.

Une meilleure critique serait de dire qu’une déclaration de ce genre ne ferait aucune différence et nous pourrions passer des heures à en discuter. Mais cela concerne l’avenir et qui sait ce que les circonstances politiques seront alors. Il est important que les gouvernements fassent savoir que le consensus sur l’assignation n’est plus valide si les banques centrales croient qu’il y a une borne inférieure sur laquelle butent les taux d’intérêt et cela nécessite au préalable que les banques centrales l’admettent. Les économistes comme Paul Krugman, Brad DeLong et moi-même disons tout cela depuis si longtemps et si souvent, mais je pense que les banques centrales ont toujours des problèmes à pleinement accepter ce que cela signifie pour elles. »

Simon Wren-Lewis, « The lesson monetary policy needs to learn », in Mainly Macro (blog), 17 octobre 2017. Traduit par Martin Anota

samedi 14 octobre 2017

Non, la crise n'amène pas à renouveler en profondeur la pensée économique

Les fausses révolutions en économie


« (…) Quand la crise financière a éclaté, beaucoup ont appelé à formuler de nouvelles idées économiques (…). L’idée qu’il y avait implicitement derrière et que l’on considérait comme juste était que la crise révélait la défaillance de l’orthodoxie économique et la nécessité d’avoir de nouveaux concepts fondamentaux. Ceux qui appelaient à renouveler la pensée économique avaient une sorte de scénario hollywoodien en tête : des innovateurs audacieux proposeraient des idées radicales, feraient face à la résistance de la part de vieux ringards, mais ils triompheraient finalement via leur capacité supérieur à prédire les événements. Les choses ne se sont pas vraiment passées ainsi. Certes, personne ne vit la crise venir. Mais ce n’est pas parce que l’orthodoxie n’avait pas les moyens de la prévoir ; au contraire, les paniques bancaires sont un vieux sujet, présenté dans chaque manuel où sont exposés les principes fondamentaux. Si personne ne vit la crise venir, c’est en raison d’un échec empirique : peu comprirent que l’essor du système bancaire parallèle (shadow banking) rendait définitivement obsolètes les défenses bancaires qui avaient été instaurées dans le sillage de la Grande Dépression.

En fait, seuls les idéologues les plus étroits d’esprit du libre marché réagirent en montrant un réel étonnement. Les autres se tapèrent le front en s’exclamant "Diamond-Dybvig ! Comme je suis stupide ! Diamond-Dybvig bien sûr !"

Et après-crise, la macroéconomie standard se révéla assez efficace. La politique budgétaire et la politique monétaire firent ce qu’elles étaient censées faire (ou tout du moins, dans le cas de la monnaie, ne firent pas ce qu’elles n’étaient pas censées faires) à la borne inférieure zéro. Il y avait une grande marge d’amélioration, il était possible de s’appuyer sur la mère de toutes les expériences naturelles pour le travail empirique, mais il n’était pas vraiment utile de s’appuyer sur une nouvelle pensée radicale.

Néanmoins, il y a eu une prolifération de nouveaux concepts radicaux : l’austérité budgétaire serait en fait expansionniste, la politique monétaire expansionniste serait en fait déflationniste, des choses terribles arriveraient à la croissance économique quand la dette publique dépasse les 90 % du PIB. Ces idées reçurent instantanément beaucoup d’écho politique ; laissez de côté les ringards de l’establishment économique, l’establishment politique se saisit de l’occasion d’appliquer de nouvelles idées.

Qu’est-ce que ces idées avaient en commun ? Toutes avaient, explicitement ou non, des implications idéologiques conservatrices, que leurs auteurs les aient intentionnellement recherchées ou non. (Je pense que Reinhart et Rogoff ont vraiment travaillé hors de tout agenda politique. Je n’en suis pas aussi sûr pour les autres.) Et toutes ces idées se révèrent assez vite mortellement fausses.

Donc la nouvelle pensée économique qui émargea de la crise s’est révélée être, dans sa grande majorité, un ensemble de mauvaises idées servant un agenda politique conservateur. Ce n’était pas vraiment le scénario qu’on nous promettait, n’est-ce pas ?

Une fois que vous y pensez, il n’est pas trop difficile de voir comment cela s’est passé. Tout d’abord, la macroéconomie conventionnelle a bien marché, donc vous avez besoin d’innovations réellement brillantes pour qu’elle parvienne à vraiment bouleverser cette convention. Et les innovations réellement brillantes n’apparaissent pas facilement. En fait, les bouleversements de la croyance conventionnelle provinrent principalement de personnes qui, loin de transcender cette croyance, échouèrent en fait à comprendre celle-ci au préalable.

Et même s’il y a de telles personnes aussi bien à gauche qu’à droite, il y a une grande asymétrie en termes de richesse et d’influence entre les deux bords politiques. (…) Les idées confuses à droite se retrouvèrent dans les annonces de politique économique formulées par la Commission européenne et les Républicains.

(…) Beaucoup de travaux ont contribué à faire émerger le consensus ; cela ne signifie pas qu’il soit exact, mais vous devez arriver avec une idée réellement bonne si vous voulez vraiment le remettre en cause. D’un autre côté, vous pouvez avoir beaucoup d’écho politique avec une très mauvaise idée qui remet en cause le consensus, aussi longtemps que cela sert les intérêts des grands argentiers et des politiciens de droite. (…) »

Paul Krugman, « The schlock of the new », in The Conscience of a Liberal (blog), 8 octobre 2017. Traduit par Martin Anota



Il y a trop d’idéologues (et trop peu d’artisans) parmi les économistes


« Paul Krugman affirme qu’il est erroné de croire que la crise financière oblige à renouveler la pensée économique, mais que cette croyance a pourtant mener à des idées folles, mais influentes, qui ont été reprises par les grands argentiers et les politiciens de droite. Même si je suis en accord avec la plupart des propos de Krugman, je voudrais ajouter quelque chose. Ma réflexion se nourrit du dernier livre de Dani Rodrik, Straight Talk on Trade, que je n'ai pas encore fini, mais dont je parlerai plus amplement dans un prochain billet.

Dans la préface à ce livre, il raconte une petite anecdote. Il y a 20 ans, il avait demandé à un économiste d’appuyer l’un de ses livres, Has Globalization Gone Too Far?. L’économiste lui a répondu qu’il ne pouvait pas le faire, non pas parce qu’il était en désaccord avec quelque chose dans le livre, mais parce qu’il pensait que le livre "fournirait des munitions aux barbares". Dani Rodrik note que cette attitude est toujours très courante parmi les économistes. Bien sûr, on peut difficilement qualifier cette attitude d’apolitique et de scientifique.

Je pense que quelque chose de similaire peut s’être produit à la veille de la crise financière parmi les économistes travaillant dans la finance. Paul Krugman a certainement raison lorsqu’il dit que l’économie orthodoxe propose des modèles capables d’expliquer pourquoi la grande crise financière mondiale a éclaté, donc, de ce point de vue, peu de nouvelles idées sont nécessaires. Mais si aussi peu d’économistes orthodoxes ont utilisé ces modèles avant la crise financière, c’est notamment en raison d’une certaine aversion idéologique vis-à-vis de la réglementation et peut-être aussi en raison d'une certaine réticence à mordre la main qui les nourrit.

L’économie orthodoxe propose aujourd’hui des modèles très divers. Ceux qui ajoutent de nouveaux modèles à ceux-ci gagnent en prestige universitaire. Mais comment pouvez déterminer quel est le modèle que vous devez utiliser quand il s’agit d’étudier un problème en particulier ? Il faut regarder les données empiriques. Ce n’est pas une tâche triviale en raison de la nature probabiliste et diverse des données empiriques économiques. Dani Rodrik décrit ce processus a un côté davantage artisanal que proprement scientifique.

Donc, dans le cas de la crise financière mondiale, le bon artisan aurait dû constater que les nouvelles méthodes de répartition des risques étaient vulnérables aux événements d’ordre systémique. Le bon artisan aurait vu, s’il avait accès aux données, que la hausse rapide de l’endettement des banques est toujours dangereuse et, plus généralement, que les périodes au cours desquelles on entend dire que "cette fois, les choses sont différentes" ne finissent généralement pas très bien.

Dans ma propre discipline, je pense qu’il y a au moins un domaine qui n’aurait pas dû voir le jour si l’art de la sélection des modèles avait été bien appliqué. Les modèles de cycles d’affaires réels (real business cycles) n’ont jamais réussi à décrire les cycles d’affaires parce que nous savons que les hausses du chômage lors des récessions correspondent à du chômage involontaire. Si vous n’appliquez pas bien cette technique artisanale, alors ce qui peut la remplacer, c’est l’idéologie, la politique ou simplement la pensée de groupe. Ce n’est pas simplement un problème pour quelques économistes pris individuellement, c’est souvent un problème pour la majorité d’entre eux. »

Simon Wren-Lewis, « Economists: too much ideology, too little craft », in Mainly Macro (blog), 9 octobre 2017. Traduit par Martin Anota

lundi 9 octobre 2017

Richard H. Thaler, prix Nobel 2017



« L’économiste américain Richard H. Thaler est un pionnier dans l’économie comportementale, un champ de recherche dans lequel les intuitions tirées de la recherche psychologique sont appliquées à la prise de décision économique. Une perspective comportementale incorpore une analyse plus réaliste de la façon par laquelle les gens pensent et se comportent lorsqu’ils prennent des décisions économiques, ce qui fournit de nouvelles opportunités pour concevoir des mesures et institutions qui accroissent le bénéfice social.

L’économie implique de comprendre le comportement humain dans les situations de prise de décision économique et sur les marchés. Les gens sont des êtres compliqués et nous devons faire des hypothèses simplificatrices si nous désirons construire des modèles utiles. La théorie économique traditionnelle suppose que les gens ont un bon accès à l’information et peuvent la traiter parfaitement. Elle suppose aussi que nous pouvons toujours exécuter nos plans et que nous nous préoccupons de notre seul gain personnel. Ce modèle simplifié du comportement humain a aidé les économistes à formuler des théories qui ont fourni des solutions à des problèmes importants et compliqués en économie. Cependant, les décalages entre la théorie et la réalité sont parfois systématiques et significatifs. Richard Thaler a contribué à étendre et affiner l’analyse économique en considérant trois traits psychologiques qui influencent systématiquement les décisions économiques, en l’occurrence la rationalité limitée, les perceptions relatives à l’équité et le manque de contrôle de soi.

La rationalité limitée


Il n’est pas réaliste de supposer que les gens, avant chaque décision économique, considèrent toutes les alternatives réalisables et toutes les conséquences à long terme de chacune d'entre elles. C’est tout simplement une tâche insurmontable, donc les décisions sont souvent prises en utilisant une focale étroite. Herbert Simon, un autre lauréat du prix Nobel d’économie, a développé le concept de rationalité limitée (bounded rationality), un terme qui fait écho aux limites cognitives des gens et des organisations et aux règles de prise de décision simplifiées que ceux-ci utilisent. On peut trouver un exemple d’une telle limite dans la théorie de la comptabilité mentale (mental accounting), qui décrit comment les gens organisent, formulent et évaluent les décisions financières. Nous tendons à simplifier de telles décisions en créant des comptes distincts dans notre esprit, en prenant des décisions individuelles sur la base de leurs effets sur chacun de ces comptes plutôt que sur la totalité de nos actifs. On peut trouver un exemple dans la façon par laquelle les gens divisent le budget de leur ménage en un compte pour les factures du ménage, un autre pour les vacances, etc., en s'interdisant d’utiliser l’argent d’un compte pour payer quelque chose dans un autre. Ce comportement mène par moments à des coûts supplémentaires, par exemple si l’on n’utilise pas de l’argent d’un compte d’épargne à long terme pour des besoins de court terme, mais que l’on utilise à la place des prêts à la consommation onéreux. En même temps, cela peut nous aider à prévoir nos finances et à protéger notre épargne de long terme.

Un autre élément de comptabilité mentale est que nous utilisons des points de référence pour prendre plus facilement des décisions. Ils diffèrent d’une situation à une autre, c’est-à-dire entre différents comptes mentaux. Un point de référence peut être le prix auquel nous achetons un article ou le prix le plus bas que nous trouvons lorsque nous faisons des recherches sur internet, et nous utilisons ce point de référence pour évaluer si nous avons fait une "bonne affaire". Thaler a fourni de nombreux exemples de la façon par laquelle la comptabilité mentale peut, en s’appuyant sur différents points de référence, mener à des décisions qui s’avèrent étranges lorsqu’on évalue celles-ci d’une perspective économique traditionnelle. Par exemple, un consommateur trouve que la montre qu’il est prêt à acheter coûte 100 euros de moins dans un autre magasin. Il choisit d’aller dans l’autre magasin si la montre coûte 1.000 euros, mais il ne le fait pas si elle coûte 10.000 euros, même si le montant absolu d’épargne est le même dans les deux cas. L’explication est qu’il se focalise sur le pourcentage, plutôt que sur l’épargne relativement au point de référence. Un autre exemple, pris dans l’étude très connue qu’a coréalisé Thaler, est celui d’un chauffeur de taxi qui doit mettre en balance son temps de travail avec son temps libre et sa famille. Le chauffeur résout cela en se fixant des cibles pour son revenu journalier et en mettant un terme à sa journée de travail lorsqu’il a atteint cette cible. Cependant, une telle règle implique que le conducteur finit plus tôt lorsqu’il y a plein de clients et que le revenu horaire est élevé, mais qu’il doit travailler davantage les jours où la demande est faible. Avec une règle différente, il peut gagner plus en travaillant moins et la ville aurait plus de taxis les jours où beaucoup de gens ont besoin d’eux.

Nos expériences passées et nos perceptions de la propriété sont d’autres facteurs qui gouvernent notre prise de décision. Nous voulons normalement plus d’argent lorsque l’on vend quelque chose que nous possédons que nous ne sommes prêts à payer pour acheter exactement le même article, un phénomène que Thaler appelle l’"effet de dotation" (endowment effect). L’un des divers exemples est celui de la fameuse expérience de 1990, conduite par Thaler avec Daniel Kahneman (lauréat en 2002 du prix Nobel) et Jack Knetsch. Dans cette expérience, plusieurs tasses décoratives sont distribuées à des sujets choisis au hasard, qui pouvaient alors choisir s’ils voulaient ou non vendre la tasse à quelqu’un dans un second groupe qui n’avait pas reçu de tasse. Parce que les deux groupes étaient constitués aléatoirement, ils devraient en moyenne donner la même valeur aux tasses et environ la moitié des tasses devraient être vendues. Cependant, il s’avéra que, en moyenne, ceux qui ont reçu les tasses lui donnèrent une valeur plus élevée que dans le groupe de contrôle, celui qui n’en avait pas reçues, et bien moins de la moitié des tasses ont changé de propriétaire.

L’effet de dotation peut avoir des conséquences à long terme, notamment en réduisant les échanges de biens et services et en compliquant la résolution des litiges juridiques. L’explication que propose Thaler pour l’effet de dotation se fonde sur la façon par laquelle les gens tendent à éprouver une plus grande insatisfaction lors d’une perte qu’ils n’éprouvent de satisfaction avec un gain d’un montant aussi élevé, phénomène connu sous le nom d’aversion aux pertes. Se défaire de quelque chose que nous possédons déjà est perçu comme une perte, alors qu’acquérir la même chose est perçu comme un gain.

Plus généralement, ce que nous définissons comme un gain ou une perte dépend du niveau où nous plaçons le point de référence, ce qui est par conséquent important pour notre décision. Par exemple, les ventes au rabais amènent les consommateurs à placer leur prix de référence à un niveau plus élevé qu’ils ne l’auraient sinon fait en temps normal, si bien qu’ils perçoivent l’achat d’un article comme une meilleure affaire qu’ils ne l’auraient fait s’ils avaient acheté cet article au même prix, mais ailleurs. Un autre exemple est celui d’un investisseur sur le marché boursier qui ne considère pas une transaction comme un profit ou une perte tant que les actions ne sont pas vendues. Cela amène généralement les investisseurs à garder leurs actions perdantes pendant longtemps dans l’espoir "que les choses s’améliorent" et à vendre des actions gagnantes trop tôt de façon "à ramener le profit à la maison", alors qu’il est souvent plus rentable de faire l’inverse (pour des raisons fiscales par exemple).

Nos propres expériences influencent aussi les risques que nous sommes enclins à prendre. Une personne qui a récemment gagné de l’argent en Bourse ou dans un casino tend à prendre de plus grands risques qu’une personne qui a récemment perdu de l’argent. Il est moins douloureux de perdre si nous sommes toujours "dans le vert" dans notre compte mental, même si les circonstances sont exactement les mêmes (quelque chose que Thaler appelle l’"effet argent du ménage", house money effect).

Préférences sociales : qu’est-ce qui est juste ?


Lorsqu’ils prennent des décisions, les gens ne prennent pas seulement en compte ce qui leur est bénéfique. Ils ont aussi une certaine idée de ce qui est juste et ils peuvent prendre en compte le bien-être des autres aussi bien positivement (en se montrant coopératifs ou solidaires) que négativement (en se montrant jaloux ou malveillants). Des expériences à grande échelle conduites par Richard thaler et d’autres économistes comportementaux ont montré que les notions autour de la justice jouent un rôle dans la prise de décision. Les gens sont prêts à se priver de bénéfices matériels pour maintenir ce qu’ils estiment être une distribution juste. Ils sont aussi prêts à supporter un coût personnel pour punir des personnes qui ont violé des règles basiques de justice, non seulement lorsqu’ils sont eux-mêmes affectés, mais aussi lorsqu’ils voient quelqu’un d’autre se retrouver dans une situation injuste.

Une objection fréquente est que les résultats des expériences en laboratoire ne peuvent être transférés à la vraie vie, mais il est facile de trouver des exemples où les considérations de justice ont un impact en dehors du laboratoire. Une pluie inattendue peut susciter une forte demande de parapluies, mais si un commerçant accroît alors leurs prix pour faire face à la plus forte demande, plusieurs consommateurs réagissent mal et estiment que le commerçant s’est comporté avec avidité. Les entreprises qui enfreignent les normes de justice peuvent être sanctionnées par des boycotts de la part des consommateurs, ce qui peut les amener à maintenir leurs prix dans les cas où elles les auraient sinon augmentés. De plus, il y a de puissants sentiments à propos de ce qui est juste lorsqu’il s’agit de la rémunération, ce qui affecte la fixation du salaire sur le marché du travail via les comparaisons entre différents groupes de salariés. Il est difficile de faire accepter une baisse du salaire nominal (son niveau courant est le point de référence sous lequel les gens ne veulent pas qu’il chute), alors qu’il est plus facile d’accepter une hausse du salaire nominal qui est inférieure à l’inflation, même s’il conduit à la même chute du salaire réel. (…)

L’économie comportementale en pratique


L’économie comportementale a aussi remis en question le comportement rationnel tel qu’il est considéré dans des domaines tels que la finance. Richard Thaler, avec notamment Robert Shiller (prix Nobel d’économie en 2014), a contribué à la recherche en finance comportementale, un domaine dans lequel les chercheurs se sont penchés sur la volatilité (apparemment injustifiée) des marchés, une volatilité qui semble incompatible avec la théorie des marchés efficients. Thaler a aussi mis à jour ce qui s’apparente à des valeurs de marché négatives pour les actions, ce qui n’est pas rationnel dans la mesure où l’on peut toujours rejeter une action qui n’a pas de valeur. Les expériences avec des sujets qui peuvent choisir entre différents investissements montrent que les gens sont sensibles à l’horizon temporel choisi. Les investisseurs tendent aussi à préférer les titres à faible risque sur des horizons courts, mais lorsqu’on leur présente les résultats potentiels de divers investissements sur des horizons plus longs, ils sont davantage susceptibles de choisir des titres plus risqués, notamment les actions.

On peut considérer que les pratiques communes en marketing cherchent à tirer profit de l’irrationalité du consommateur. Les ventes au rabais ou les offres du type "deux achetés, le troisième offert" donnent aux consommateurs l’impression d’avoir réalisé un gain, ce qui les amène à modifier le point de référence pour évaluer les prix. Les loteries et les paris sont présentés d’une telle façon que l’on surexpose les rares gagnants et en dissimulant la multitude de perdants. De nombreux consommateurs sont séduits par des crédits aux conditions qui leur sont défavorables pour acheter un article qu’ils n’ont pas les moyens d’acheter. Les travaux de Thaler sont fréquemment cités dans la littérature du marketing et ses intuitions et ceux d’autres économistes comportementaux peuvent nous aider à reconnaître les astuces du marketing et à éviter de prendre mauvaises décisions économiques.

Dans plusieurs situations, le soi planificateur nécessite de résister aux tentations. De telles considérations sont derrière les restrictions en matière d’alcool et de drogue dans divers pays, mais dans d’autres contextes on considère que de telles restrictions vont trop loin. Les politiciens et d’autres décideurs peuvent utiliser les études en économie comportementale pour concevoir des alternatives qui s’avèrent bénéfiques à la société. Richard Thaler et Cass Sunstein ont affirmé que, dans divers domaines, les institutions publiques et privées doivent activement chercher à pousser les individus dans la bonne direction (mais en leur laissant toujours la liberté de décider). Cela s’est notamment traduit par l’introduction d’unités incitatives (nudge units) dans divers pays, notamment le Royaume-Uni et les Etats-Unis, des agences qui cherchent à réformer l’administration publique en s’appuyant sur les intuitions de l’économie comportementale. Les améliorations passent souvent par des choses simples, notamment la manière par laquelle l’option par défaut est définie, celle qui se réalise à moins que vous choisissiez activement quelque chose d’autre. Il y a des applications dans des domaines comme l’épargne retraite, le don d’organes et la politique environnementale. Les gens peuvent avoir des difficultés à épargner plus qu’ils ne le font actuellement, parce que cela réduit directement le montant qu’ils peuvent consommer aujourd’hui. Il leur est souvent plus facile de se dire qu’ils épargneront davantage à l’avenir, en particulier s’ils s’attendent à ce que leur salaire augmente. Cette intuition a été utilisée dans le programme "Save More Tomorrow", conçu par Thaler et de façon à accroître l’épargne-retraite. Le programme, dans lequel un individu s’engage à allouer une part de ses hausses futures de salaire pour l’épargne a été utilisé avec succès par diverses entreprises aux Etats-Unis. Dans certains quartiers, ce type de programme a été critiqué pour sa teneur paternaliste, mais il est important de souligner que la participation au programme est entièrement volontaire et que les participants sont libres de le quitter à n’importe quel moment.

Au total, les contributions de Richard Thaler ont jeté un pont entre les analyses économiques et psychologiques de la prise de décision des individus. Ses constats empiriques et ses intuitions théoriques ont contribué au développement du champ nouveau, mais en rapide essor, de l’économie comportementale, qui a eu un profond impact dans divers domaines de la recherche et la politique économiques. »

Académie royale des sciences de Suède, « Easy money or a golden pension? Integrating economics and psychology », octobre 2017. Traduit par Martin Anota

samedi 7 octobre 2017

Le problème des transferts et l’incidence fiscale

« Ces derniers jours, ce qui se passe dans la mise en œuvre de la politique économique aux Etats-Unis apparaît à la fois grotesque et sinistre. Le Trésor a notamment tenté de supprimer une analyse interne (…) portant sur l’incidence de l’impôt sur les entreprises. Cet article arrivait à la conclusion embarrassante que l’essentiel de l’impôt reste là où il est appliqué (avec les propriétaires du capital des entreprises), puisqu’il n’y en a qu’une petite part incombant indirectement aux travailleurs. (…) Cet article avait déjà été publié dans une revue à comité de lecture, si bien que (…) tout le monde peut tout de même continuer à le lire.

Mais laissons cette histoire de côté ; je veux parler ici de l’incidence des impôts sur les entreprises. (…) Alors que les marchés mondiaux des capitaux doivent avoir tendance à égaliser les taux de rendements après impôt à long terme, l’intégration imparfaite des marchés des biens implique que le long terme soit très long, certes pas assez pour que nous soyons tous morts, mais suffisamment long pour que l’égalisation des rendements puisse prendre plusieurs décennies.

(…) Toute cette littérature remonte à Harberger, qui envisageait une économie fermée avec un stock de capital fixe. Il a montré que dans une telle économie un impôt sur les profits incomberait au capital, fondamentalement parce que l’offre de capital est inélastique. Le contre-argument moderne est que nous vivons maintenant dans un monde de capitaux internationalement mobiles ; cela signifie que pour tout pays pris individuellement l’offre de capitaux, loin d’être fixe, est hautement élastique, parce que les capitaux peuvent aussi bien entrer que sortir du pays. En fait, pour une petite économie faisant face à des marchés des capitaux parfaits, l’élasticité de l’offre de capitaux est infinie. Cela signifie que le rendement sur le capital après impôt est fixe, donc que tout changement des taux d’imposition des entreprises doit incomber aux autres facteurs, c’est-à-dire le travail.

La plupart des analyses de l’incidence fiscale ne prête toutefois au travail qu’une faible fraction de l’impôt des entreprises, pour trois raisons. Premièrement, une grande partie des profits d’entreprises ne sont pas un rendement au capital : ce sont des rentes liées au pouvoir de monopole, à l’image de marque, aux avantages technologiques et ainsi de suite. Les afflux de capitaux ne vont pas concurrencer ces profits, donc le marché international des capitaux n’est pas pertinent pour l’incidence des impôts sur ces profits. Deuxièmement, les Etats-Unis ne sont pas un petit pays. Nous sommes suffisamment grands pour avoir un puissant effet sur les taux de rendement mondiaux. Troisièmement, l’intégration imparfaite des marchés des capitaux et des biens est une réalité. Les taux de rendements ne sont probablement pas égalisés, même pas à long terme ; de toute façon, si une réduction des impôts des entreprises apporte plus de capitaux, cela va pousser à la baisse le prix relatif des produits américains, ce qui va limiter le rendement sur le capital additionnel et donc empêcher les travailleurs d’obtenir la totalité des bénéfices de la réduction d’impôts.

Tout cela me convient. Mais je pense qu’il est aussi important de se demander comment les capitaux qui égalisent les taux de rendement sont supposés affluer. Une fois que vous vous posez cette question, vous voyez que l’analyse de long terme peut ne pas être suffisamment bonne pour des fins de politique économique.

Supposons que le gouvernement américain réduise les taux d’imposition des entreprises. Cela accroîtrait initialement le taux de rendement sur le capital après impôt, ce qui inciterait le reste du monde à placer davantage de capitaux (ou les actifs étrangers des entreprises américaines) dans le pays. Cela pousserait à la baisse le taux de rendement après impôt. Comment cela se passerait-il ? En accroissant le stock de capital américain, en réduisant le produit marginal du capital (et en accroissant celui du travail).

Mais comment le stock de capital s’accroîtrait ? (…) Ce dont nous parlons est un processus dans lequel l’investissement américain excède l’épargne américaine (ce qui signifie que nous connaissons un déficit du compte courant), ce qui accroît notre stock de capital au cours du temps. Il y a quelque chose d’ironique ici : ceux qui appellent à une réduction d’impôts pour les entreprises se disent inquiets pour la « compétitivité » et pourtant l’impact initial d’une telle mesure sera d’accroître les déficits commerciaux. (…)

J’ai passé trois décennies à souligner le sophisme de la doctrine du transfert immaculé, l’idée que les flux internationaux de capitaux se traduisent directement par de plus grands déséquilibres commerciaux. Les exportateurs et importateurs ne savent pas ou ne s’inquiètent pas à propos de l’écart entre épargne et investissement ; ils répondent aux signaux que constituent les prix et les coûts. Un afflux de capitaux génère un déficit commercial en poussant le taux de change réel à la hausse, rendant vos biens et services moins compétitifs. Et parce que les marchés des biens et services sont toujours très imparfaitement intégrés (la plus grande partie du PIB n’est en effet pas échangeable), cela nécessite de larges signaux, de grandes variations du taux de change réel, pour entraîner de significatifs changements dans le solde du compte courant.

Donc, une réduction d’impôts sur les entreprises américaines doit entraîner une appréciation du dollar, qui alourdirait le déficit du compte courant qui constitue la contrepartie d’un afflux de capitaux. Mais de combien le dollar s’appréciera-t-il ? La réponse, familière aux macroéconomistes internationaux, est que le dollar excèdera sa valeur anticipée à long terme, si bien que les gens vont s’attendre à ce qu’il se déprécie dans le futur et l’ampleur de l’appréciation est déterminée par le niveau que le dollar doit atteindre de façon à ce que la dépréciation attendue soit plus forte que la hausse des rendements après impôt en comparaison avec les autres pays.

(…) Le savoir que nous cherchons dans un ajustement unique limite l’ampleur à laquelle le dollar peut aller, ce qui limite la taille du déficit du compte courant, ce qui limite le taux auquel le stock de capital américain peut s’accroître, ce qui ralentit le processus d’égalisation des rendements. Donc le long terme dans lequel les rendements sont égalisés peut au final être assez long.

Supposons que les anticipations soient rationnelles. (Je sais, je sais – mais pour une référence cela peut être utile.) Ensuite, nous pouvons considérer le processus d’ajustement que je décris comme un petit système dynamique avec e, le taux de change, et K, le stock de capital. Un K élevé signifie un faible taux de rendement comparé avec le (...) taux de rendement étranger, donc e doit s’accroître. Un e élevé signifie de larges déficits commerciaux. Le diagramme de phases ressemble à cela :

Paul_Krugman__probleme_des_transferts_et_incidence_fiscale.png

où le point-selle est l’unique sentier le long duquel les anticipations à propos du futur taux de change sont réalisées. Vous pouvez résoudre ce sentier en linéarisant autour d’un état régulier ; les solutions à ce système ont deux racines, une négative, l’autre positive, et la racine négative vous indique le taux de convergence le long du point-selle.

A un instant donné, le stock de capital K est donné ; le taux de change e bondit pour pousser le système sur le point-selle, et ensuite il converge vers son équilibre de long terme.

Donc l’histoire d’une réduction d’impôt des entreprises va comme suit : initialement nous sommes à un point comme le point A. Ensuite, la réduction d’impôts accroît le stock de capital d’équilibre de long terme. Mais cela prend du temps pour arriver à ce point : tout d’abord, nous obtenons une appréciation de la devise, comme le montre le saut de A à B, puis nous convergeons vers C.

On peut alors se demander combien de temps cette convergence prendra. Et nous avons assez d’informations pour donner des chiffres. Je suppose que la fonction de production soit une fonction à la Cobb-Douglas, avec une part du capital de 0,3. Le ratio capital sur production est d’environ 3, ce qui implique un taux initial de rendement de 0,1. Et les modélisateurs à la Fed nous disent que l’impact du taux de change sur les exportations nettes est d’environ 0,15, ce qui signifie qu’une hausse de 10 % du dollar creuse le déficit commercial d’environ 1,5 point de PIB.

Quand je prends en compte ces chiffres, en supposant que j’ai fait les bons calculs, j’obtiens un taux de convergence de 0,059 ; ce qui signifie que c’est un écart de 6 % par rapport au long terme est éliminé chaque année. C’est très lent : il faudra une douzaine d’années pour que la moitié de l’ajustement à long terme soit réalisée.

Cela me suggère que l’ouverture aux marchés mondiaux des capitaux fait beaucoup moins de différence pour l’incidence fiscale que les gens semblent le penser à court terme, et même à moyen terme. Si vous essayez d’évaluer les effets des politiques fiscales au cours de la prochaine décennie, une analyse en économie fermée est probablement plus proche de la vérité qu’une analyse qui supposerait une égalisation instantanée des rendements entre les nations. »

Paul Krugman, « The transfer problem and tax incidence », in The Conscience of a Liberal (blog), 5 octobre 2017. Traduit par Martin Anota

vendredi 6 octobre 2017

Pourquoi réduire les impôts ne stimule pas la croissance ?

« (…) Le propos de ce billet n’est pas de ressasser les preuves empiriques qui montrent que les réductions d’impôts ne stimulent pas la croissance. Je vais plutôt réfléchir aux raisons expliquant pourquoi elles n’alimentent pas la croissance. Parce que l’idée selon laquelle elle est susceptible de le faire semble à première vue raisonnable, mais elle s’avère inexacte dans le monde réel.

Commençons avec les bases. Si vous voulez stimuler la croissance économique, c’est-à-dire accroître plus rapidement le PIB réel, alors vous avons besoin d’accroître le montant de capital, de travail ou la productivité. C’est le cas aussi bien si vous acquérez de nouveaux travailleurs, de nouveaux biens capitaux ou de nouvelles innovations que si vous utilisez du travail, du capital et des innovations qui étaient oisifs jusqu’alors. Vous voulez accroître les intrants pour accroître le PIB.

Ce qu’il y a de plus important en économie, c’est l’idée que les gens répondent aux incitations. Dans le cas des intrants, les incitations à les fournir tiennent à leurs rendements, comme les salaires, les dividendes, les intérêts ou les profits. Si vous taxez ces rendements, cela réduit les rendements et les gens vont fournir moins de travail, de capital ou d’innovations. Donc si vous réduisez cet impôt, l’idée est que les gens vont fournir plus de travail, de capital ou d’innovations. Ce n’est pas vérifié. Pourquoi est-ce que cela ne marche pas comme nous le penserions a priori ?

De faibles élasticités


Nous pensons que si vous réduisez le taux d’imposition et donc accroissez les rendements des intrants, nous accroissez par là même leur quantité. Mais pour "booster" la croissance du PIB ou pour avoir un quelconque effet appréciable sur le PIB, il faut que l’élasticité de cette offre d’intrants vis-à-vis de ces rendements soit significative.

Pour le travail, il semble y avoir plusieurs preuves empiriques robustes suggérant que cette élasticité est en fait faible. (…) On constate que cette élasticité de l’offre de travail est globalement nulle dans presque chaque cas, sauf dans le cas des femmes mariées. C’est notamment ce que montre l’étude de Saez, Slemrod et Giertz (SSG). Avec une élasticité proche de zéro, peu importe de combien vous réduisez le taux d’imposition et accroissez par là le rendement au travail (c’est-à-dire le salaire), cela n’entraîne pas de hausse substantielle de l’offre de travail. Et sans une hausse substantielle d’offre de travail, il n’y a pas de hausse significative du PIB.

Du côté du capital, c’est plus dur à estimer parce que, il est certes facile de considérer les salaires déclarés comme des paiements au travail réel, il est bien plus dur de dire quelle partie du revenu déclaré des entreprises constitue un paiement au « capital ». Les dividendes sont probablement l’une des choses les plus simples à voir, comme il s’agit de paiements directs aux actionnaires. Mais quand Yagan a analysé les répercussions de la réduction d’impôt sur dividendes de 2003, il a constaté qu’il n’y avait pas d’effet sur l’investissement des entreprises (c’est-à-dire les intrants en capital réels). En d’autres mots, l’élasticité des intrants de capital réels vis-à-vis du taux d’imposition était nulle.

Pour l’innovation, il y a des preuves empiriques plus robustes suggérant un effet de la taxation sur l’activité de R&D (bien que nous devons être prudents et distinguer entre l’activité de R&D et l’innovation elle-même). Dechezlepretre, Einio, Martin, Nguyen et Van Reenan ont publié un document de travail où ils observent comment un changement des conditions pour obtenir un crédit d’impôt pour la R&D au Royaume-Uni a pu affecter les dépenses en R&D et le dépôt de brevets ; bref, ils ont cherché à y voir un effet sur l’innovation. Ils mettent en évidence de significatifs effets des incitations fiscales relatives à la R&D sur la R&D et le dépôt de brevets. Cependant, les incitations fiscales (comme un crédit d’impôt ou la possibilité aux entreprises de retrancher les dépenses de R&D) ne sont pas tout fait la même chose qu’une variation du taux d’imposition. (…) Faire varier le taux marginal d’imposition du revenu individuel ou du revenu des entreprises, ce n’est pas la même chose que fournir des incitations fiscales en faveur de la R&D. Mais, si vous cherchez une manière d’utiliser la politique fiscale pour stimuler la croissance, alors il semble plus efficace de s’appuyer sur des incitations à la R&D et à l’innovation que de réduire les taux d’imposition sur le travail et le capital.

Nous taxons les flux financiers, pas les intrants


Si l’impact des réductions d’impôts sur le PIB est faible, c’est aussi parce que les impôts ne sont pas seulement prélevés sur les transactions qui font partie du PIB ; ils sont prélevés sur tout genre de transactions. N’oubliez pas que, chaque année, il y a des milliards (et peut-être des milliers de milliards) de transactions individuelles qui se déroulent dans l’économie. Certaines de ces transactions impliquent des paiements pour un intrant réel comme le travail ou le capital, si bien qu’elles font partie du PIB. Mais d’autres transactions sont purement financières et donc n’en font pas partie. Mais la fiscalité ne fait pas cette distinction ; vous n’êtes pas seulement imposés sur vos transactions qui contribuent au PIB ; vous êtes imposé sur la totalité (ou plutôt la plupart) des transactions où vous recevez de l’argent.

Distinguons quatre genres de transactions :

1. Lorsque la transaction est taxée et que le revenu fournit un intrant réel. Votre salaire est un exemple. Vous fournissez un intrant réel (du travail) à votre employeur et le revenu que vous gagnez en échange fait partie du PIB. Le revenu que vous gagnez est aussi sujet à l’imposition. Donc si vous réduisez le taux d’imposition sur ce revenu, vous pouvez accroître votre offre de travail, ce qui va accroître le PIB. Comme nous l’avons vu ci-dessus, cette réponse serait faible, que ce soit de la part du travail et du capital, si bien que le PIB ne s’accroîtrait pas beaucoup. Une baisse des impôts sur la R&D ou l’innovation pourrait avoir un effet plus tangible.

2. Lorsque la transaction n’est pas taxée et que le revenu ne provient pas de la fourniture d’un intrant réel. Pensez à un petit don en espèces, inférieur au seuil d’imposition, que vous obtiendriez par exemple de la part de vos grands-parents. C’est un revenu, dans le sens où vous avez une entrée d’argent, mais ce n’est pas un rendement pour un intrant réel. Il n’est pas imposé car son montant est faible.

3. Lorsque la transaction n’est pas taxée et que le revenu provient de la fourniture d’un intrant réel. Vous pouvez penser à des paiements de petite échelle pour un travail dont la rémunération est inférieure aux seuils d’imposition, comme la garde d’enfants ou d’autres services domestiques. Maintenant, comme ils n’ont pas à être déclarés, ils ne sont pas taxés, mais il est aussi possible qu’ils ne soient pas pris en compte et inclus dans le PIB. Mais, techniquement, parce qu’ils impliquent une personne fournissant un intrant réel comme le travail, ce revenu devrait être mesuré comme partie intégrante du PIB. Dans tous les cas, parce que ces transactions ne sont pas taxées, une réduction des taux d’imposition n’influencera en rien les intrants réels que les gens fournissent ici ; votre babysitter ne va proposer de faire une nuit supplémentaire la semaine si le taux marginal chute.

4. Lorsque la transaction est taxée et que le revenu ne provient pas de la fourniture d’un intrant réel. Ici nous avons tout un monde de transactions financières. Si vous achetez des actions contre de la liquidité, aucun intrant réel n’est fourni, donc cette transaction ne s’ajoute pas au PIB. Mais cette transaction est imposée, dans le sens où la plus-value qu’obtient le vendeur est sujette à l’impôt. Si vous réduisez les taux d’imposition, alors vous verrez davantage de ces transactions financières être réalisées, mais cela n’ajoutera rien au PIB. (…)

Si les réductions d’impôts ne stimulent pas la croissance du PIB, c’est notamment parce que les réductions d’impôts s’appliquent aussi bien aux transactions de type 4 qu’aux transactions de type 1. Une réduction du taux d’imposition devrait accroître ces deux types de transactions. En pratique, on constate que les élasticités associées aux transactions de type 1 sont faibles, si bien que les réductions d’impôts affectent peu la fourniture d’intrants réels. Mais les réductions d’impôts peuvent avoir un gros effet sur les transactions (financières) de type 4. Ces transactions de type 4 peuvent stimuler les revenus imposables en rendant les transactions plus attractives, mais cela n’affecterait pas la provision réelle d’intrants, donc n’accroîtrait pas le PIB. Saez, Slemrod et Giertz utilisent l’exemple de la réforme fiscale de 1986 pour le démontrer. (…)

En fait, vous pouvez affirmer que, pour accroître le PIB, l’idéal serait d’accroître les impôts sur les transactions financières (une taxe Tobin) pour réduire les incitations à faire ces transactions (de type 4), mais aussi de réduire les impôts sur les transactions de type 1 qui concernent la provision d’intrants réels et surtout fournir des incitations aux dépenses de R&D et à l’innovation.

Si vous voulez me convaincre que ces transactions financières de type 4 ont un effet important sur la croissance du PIB réel, alors vous devez me convaincre que le changement de propriété améliore l’allocation de la capacité de gestion ou me trouver un argument similaire. Pour que ce soit exact, il devrait y avoir beaucoup de changements de propriété qui n’ont actuellement pas lieu en raison d’une fiscalité jugée excessive. Mais les preuves empiriques vont à première vue contre cette idée, parce qu’il faudrait qu’il y ait eu un déclin ou une stagnation des transactions financières de ce genre au cours du temps, or ce n’est tout simplement pas le cas. (…)

(…) Affirmer que les réductions d’impôts ne vont pas avoir d’effet sur la croissance, ce n’est pas dénier la théorie de base. Une telle affirmation repose sur les faibles élasticités (qui impliquent que les réponses sont faibles) et sur la déconnexion entre les rendements qui sont imposés et les rendements qui sont payés aux intrants réels. »

Dietrich Vollrath, « Why don't tax cuts boost growth? », in Growth Economics (blog), 3 octobre 2017. Traduit par Martin Anota

dimanche 1 octobre 2017

Les baisses d’impôts de Trump ? Du vaudou, seulement du vaudou !

« J’ai aimé la comparaison historique que Binyamin Appelbaum a proposé entre, d’un côté, la réduction des impôts de Trump et, de l’autre, celles de Reagan et de Bush, même si j’ai peur qu’une telle comparaison risque de suggérer à certains que ces dernières étaient justifiées. Elles ne l’étaient pas. La réduction d’impôts de Reagan a renversé la tendance baissière à long terme du ratio dette publique sur PIB, les allègements d’impôts de Bush ont défait les progrès budgétaires des années Clinton. Inversement, la hausse d’impôts de Clinton a contribué à générer des excédents, même lorsque l’économie connaissait un boom ; ce ne sont pas les suspects habituels que prédit la droite !

GRAPHIQUE 1 Dette publique des Etats-Unis (en % du PIB)

Paul_Krugman__dette_publique_Etats-Unis.png

Cela dit, les réductions d’impôt de Trump aujourd’hui sont encore une plus mauvaise idée que celles mises en œuvre dans le cadre de la Reaganomics, et pas seulement parce que nous partons d’un niveau de dette publique bien plus élevé, un héritage de la crise financière, qui a déprimé les recettes et temporairement stimulé les dépenses. Il ne faut pas non plus oublier que nous partons d’un taux marginal d’imposition encore bien plus faible qu’à l’époque de Reagan. Voici l’histoire moderne du taux marginal d’imposition :

GRAPHIQUE 2 Taux marginal d’imposition aux Etats-Unis (en %)

Paul_Krugman__taux_marginaux_d__imposition_Etats-Unis.png

Ainsi, Reagan a réduit les taux d’imposition alors que ceux-ci s’élevaient initialement à 70 % ; Trump va les réduire, alors qu’ils sont déjà quasiment moitié moindres. Pourquoi est-ce important ? En fait, pour deux raisons. Premièrement, les réductions d’impôts sont supposées stimuler la croissance économique en accroissant le montant d’un supplément de revenu que quelqu’un peut garder pour lui-même. Quand vous partez d’un taux d’imposition de 70 %, réduire le taux d’un pourcent accroît la composante ramenée à la maison de 1/30, soit plus de 3 %. Quand vous commencez de 39,6 %, la même réduction d’impôts accroît le morceau ramené à la maison de 1/60, soit moitié moins. En d’autres mots, nous nous attendons à ce que les effets incitatifs d’une réduction d’impôts donnée soient désormais moitié moindres que ce qu’ils étaient sous Reagan.

Et supposons, pour simplifier l’exposé, que vous parvenez à obtenir un supplément de croissance économique. Dans quelle mesure ce gain de croissance générera-t-il des recettes fiscales supplémentaires ? Cela dépend du taux marginal d’imposition, qui est bien plus faible aujourd’hui qu’il ne l’était en 1981 ; il est moitié moindre. Donc, même si vous croyez que l’économie vaudou a marché sous Reagan (ce qui n’est pas le cas), il faudrait un peu plus de vaudou, environ 4 fois plus, pour qu’elle marche aujourd’hui. Ce qui nous amène à nous poser la question suivante : mais comment sont-ils parvenus à présenter cela comme un plan responsable ? Oh, mais oui : ils ont juste menti. »

Paul Krugman, « Voodoo gets even voodooier », in The Conscience of a Liberal (blog), 28 septembre 2017. Traduit par Martin Anota

vendredi 29 septembre 2017

Les marchés financiers sous-estiment les risques

« Durant la plus grande partie de 2017, le VIX (l’indice de volatilité des options du marché de Chicago) a été à son plus faible niveau depuis dix ans. Il est récemment passé sous 9, soit un niveau plus faible que celui qu'il atteignait en mars 2007, à la veille de la crise du crédit hypothécaire subprime. Il semble qu'à nouveau les investisseurs n'évaluent pas correctement à quel point le monde est risqué aujourd'hui.

Connu dans la profession comme "l’indice de la peur", le VIX mesure la sensibilité des marchés financiers vis-à-vis de l’incertitude, sous la forme de la probabilité perçue d’amples changements sur le marché boursier. Il est tiré des prix de l’option sur le marché boursier (qui ne rapporte que lorsque les prix boursiers s’élèvent ou chutent beaucoup). Le faible VIX de cette année signale que nous sommes dans un autre environnement à fort appétit pour le risque, quand les investisseurs se détournent des bons du Trésir et d’autres valeurs refuges et cherchent plutôt à "chasser le rendement" en se tournant vers des actifs plus risqués comme les actions, les obligations d’entreprise, l’immobilier et les devises de carry-trade.

GRAPHIQUE 1 L’indice VIX

Jeffrey_Frankel__Fred__indice_VIX.png

Nous n’avons pas à seulement observer l’indice VIX pour voir que les marchés traitent la période actuelle davantage comme favorable au risque qu’aux actifs sûrs. Les rendements sur les valeurs refuges étaient généralement plus faibles que les rendements parmi les actifs risqués au cours de la première moitié de l'année. D'un côté, le franc suisse s'est déprécié. D'un autre côté, le dollar australien et le yuan chinois se sont appréciés. Et les marchés boursiers ont atteint de nouveaux records à la hausse.

Le vrai risque est actuellement élevé


Pourquoi est-ce que je ne pense pas que le vrai risque soit aussi faible que ne le suggère l'indice VIX ? On peut penser à une liste inhabituellement longue de risques majeurs. Chacun d’entre eux peut n’avoir individuellement qu’une faible probabilité de survenir au cours d'un mois donné, mais cumulativement il y a une probabilité significative qu'au moins l'un d'eux survienne à un moment ou à un autre au cours des prochaines années :

L’effondrement de la bulle boursière. Les grands indices boursiers ont atteint de nouveaux records ce mois de septembre, que ce soit aux Etats-Unis ou dans le reste du monde. Les cours boursiers ont même augmenté relativement à des références comme les bénéfices ou les dividendes. Le price-earning ratio ajusté en fonction du cycle de Robert Shiller est désormais supérieur à 30. Les seules fois où il avait été aussi élevé, c'était lors des pics de 1929 et 2000, des pics qui ont tout deux été suivis par un effondrement du marché boursier.

GRAPHIQUE 2 Price-earning ratio (ajusté de Shiller)

Jeffrey_Frankel__Price-earning_ratio_ajuste_de_Robert_Shiller.png

Un éclatement de la bulle obligataire. Alan Greenspan a récemment suggéré que le marché obligataire est encore plus surévalué (par l’"exubérance irrationnelle") que le marché boursier. Après tout, les rendements sur les obligations d'entreprise ou les obligations publiques suivaient une tendance baissière de 1981 à 2016 et le marché s'y est habitué. Mais, bien sûr, les taux d'intérêt ne peuvent baisser davantage et il est prévu qu'ils finissent par s'accroître.

Quel peut être le catalyseur pour précipiter un krach sur le marché boursier ou le marché obligataire ? Un possible détonateur pourrait être une hausse de l'inflation : celle-ci amènerait les agents à anticiper que la Fed relèvera ses taux d'intérêt plus agressivement qu'on ne le pensait jusqu’alors. La BCE et d'autres banques centrales majeures semblent aussi être entrées dans un cycle de resserrement.

Les risques géopolitiques ont rarement été aussi élevés et la foi en l'influence stabilisatrice du leadership américain a rarement été aussi faible. Le risque le plus sérieux concerne les relations avec la Corée du Nord, un risque que Trump n'a pas bien géré. Mais y a aussi des risques significatifs ailleurs, notamment au Moyen-Orient. Par exemple, Trump menace d'abroger l'accord avec les Iraniens qui les empêche de construire des armes nucléaires.

Dans plusieurs domaines de politique économique, il est difficile de prédire ce que Trump va dire ou faire par la suite, mais il est facile de prédire que ce sera quelque chose sans précédent. Jusqu’à présent, les effets nocifs ont été limités, en grande partie parce que la plupart de ses délires verbaux ne se sont pas traduits par des modifications législatives. (S’il parvient par contre à expulser 800.000 jeunes travailleurs et étudiants DACA, cela peut provoquer une récession). Mais c’est un temps d’incertitude autour politique économique comme on n'en a rarement vu.

Les confrontations au Congrès américain autour du plafond de dette et la fermeture du gouvernement ont été surmontées en septembre, mais seulement parce que le problème a été reporté à la fin de l’année, quand les enjeux seront susceptibles d’être plus élevés et la catastrophe plus grave. Une crise constitutionnelle pourrait survenir, si par exemple le Conseiller Spécial trouvait que le contact entre la campagne de Trump et le gouvernement russe était illégal.

Les cygnes noirs ne sont pas imprévisibles


La situation actuelle marquée par un fort appétit vis-à-vis du risque rappelle celle de 2006 et de début 2007, la dernière fois que le VIX a été aussi faible. Alors, il n’était pas non plus trop difficile de dresser une liste de sources possibles de crises. L'un des risques les plus évidents sur la liste a été une chute des prix immobiliers aux Etats-Unis et au Royaume-Uni, étant donné que ceux-ci étaient à des niveaux exceptionnellement élevés et étaient aussi très élevés relativement à des références comme le loyer. Et pourtant les marchés agissaient comme si le risque était faible, conduisant le VIX et les taux sur les bons du Trésor américains à la baisse et les cours des actions et des titres pourris (…) à la hausse.

Quand le marché immobilier s’est effectivement effondré, on disait qu’il s’agissait d’un événement hors de toute distribution de probabilités standard, que l’on n’aurait pas pu estimer à partir des données passées ; on considérait que cela relevait de ce que l'on qualifie d’incertitude knightienne, d’incertitude radicale, d'"inconnus inconnus", de "queues épaisses" (fat tails) ou des cygnes noirs (black swans). Lorsque l'on disait que "les prix de l’immobilier n’ont jamais chuté en termes nominaux", on entendait en fait par là qu'ils n’avaient pas chuté aux Etats-Unis au cours des sept dernières décennies. Mais ils avaient chuté au Japon dans les années quatre-vingt-dix et aux Etats-Unis dans les années trente. Cela ne relevait pas de l’incertitude knightienne ; il s’agissait d’une incertitude classique liée à un ensemble de données inutilement limité à quelques décennies de données purement domestiques.

En fait, le terme "black swan" convient mieux que ne le pensent ceux qui l'utilisent. Les philosophes britanniques du dix-neuvième siècle citaient les cygnes noirs comme l’exemple quintessentiel de quelque chose dont l’existence ne peut être déduite d'un raisonnement inductif à partir des données observées. Mais c'était le cas parce qu'ils ne considéraient pas des données étendues à suffisamment de pays ou à suffisamment de siècles. (Le cygne noir est une espèce australienne qui a en fait été identifiée par les ornithologistes au dix-huitième siècle.) Si cela ne tenait qu'à moi, le "cygne noir" ne serait utilisé que pour désigner un événement extrême et rare auquel tout statisticien qui aurait pris le soin d'étudier un échantillon de données suffisamment large pourrait assigner une probabilité ex ante positive, mais qui serait qualifié d'"imprévisible" ex post par ceux qui n’avaient pas une perspective suffisamment large pour le faire.

Le cycle d’appétit et d’intolérance au risque


Pourquoi les investisseurs sous-estiment-ils périodiquement le risque ? (…) Les formules pour déterminer le prix des options requièrent une estimation statistique de la variance. Les formules pour déterminer le prix des titres adossés à des crédits hypothécaires requièrent une estimation statistique de la distribution des défauts en termes de fréquence. En pratique, les analystes estiment ces paramètres en se contentant d'étudier les données sur les dernières années, c'est-à-dire sans remonter aux précédentes décennies, notamment les années trente, ni même sans prendre en compte d'autres pays, comme le Japon. Plus généralement, dans la description du cycle que propose Minsky, une période de faible volatilité leurre les investisseurs avec l'illusion d'une sécurité, ce qui les amène à s'endetter excessivement et entraîne finalement un krach.

Peut-être que les investisseurs vont réévaluer les risques dans l'environnement actuel et le VIX s'ajustera par conséquent. Si l'histoire est un guide, on ne s'en servira pas comme tel tant que le choc négatif (quel qu'il soit) n'a pas frappé et que les marchés de titres n’ont pas chuté. »

Jeffrey Frankel, « Financial markets underestimate risk », in Econbrowser (blog), 28 septembre 2017. Traduit par Martin Anota

mercredi 20 septembre 2017

Le coût mondial de la mauvaise coordination des politiques budgétaires de la zone euro en 2012

« La Banque de France a publié un intéressant article dans son rapport d’été. Elle affirme que la zone euro, collectivement, a poussé trop loin la consolidation budgétaire (par exemple, trop d’austérité, c’est-à-dire trop de réductions de dépenses publiques et de hausses d’impôts) entre 2011 et 2013. Surtout en 2012 : "La consolidation constatée, sur la base de la variation cumulée du solde structurel primaire des administrations publiques entre 2011 et 2013 est à présent estimée par la Commission européenne à près de 2,9 % du PIB potentiel (...). En particulier, l’effort budgétaire a été de 1,5 point de PIB en 2012".

En effet, la consolidation n’a pas seulement été mise en œuvre par les pays "fragiles" pour regagner en marge de manœuvre budgétaire (Il n’est pas certain qu’ils y parvinrent, dans la mesure où un "excès de consolidation" réduit le PIB et donc n’aide pas vraiment pour réduire le ratio dette publique sur PIB, comme l’ont notamment montré Auberbach et Gorodnichenko). Les "pays robustes", disposant manifestement de marge de manœuvre budgétaire, notamment l’Allemagne, optèrent aussi pour la consolidation : "Les efforts sur ces deux années ont été très importants en Espagne et en Italie (respectivement 3 et 2 points de PIB) et notables en Allemagne (1 point) et en France (0,8 point). La consolidation budgétaire de 2012 a probablement provoqué un affaiblissement de la demande au moment où l’écart de PIB (output gap) était notable: – 2,2% en 2012.".

En d’autres mots, la somme des politiques budgétaires nationales a produit bien trop de resserrement budgétaire pour la zone euro dans son ensemble, bien plus de resserrement que la BCE ne pouvait compenser (et il n’est pas certain que la BCE ait fait tout ce qu’elle pouvait faire pour tenter de le compenser, dans la mesure où elle n’a réussi à vaincre les obstacles internes pour mettre en œuvre son assouplissement quantitatif qu’en 2014).

La Banque de France identifie aussi un scénario alternatif plausible, qui aurait réduit l’ampleur de la consolidation. Elle propose, pour 2012 : "Une consolidation avec une variation du solde structurel de 0,8 point en France, en Italie et en Espagne ainsi qu’une modeste expansion budgétaire de 0,5 point en Allemagne. Ces hypothèses conduisent à une moindre consolidation agrégée des quatre grands pays, de 1,1 point de PIB". Un ralentissement de la consolidation budgétaire en France, en Espagne et en Italie et une expansion budgétaire compensatrice en Allemagne auraient réduit la consolidation budgétaire globale en 2012, puisque celle-ci serait passée de 1,5 point de pourcentage du PIB de la zone euro à 0,4 points de pourcentage du PIB de la zone euro, ce qui se traduirait par un moindre poids sur la demande domestique. Et la Banque de France suggère également une consolidation plus modeste en 2013, une consolidation plus limitée à 0,2 % du PIB de la zone euro.

Je pense personnellement que le scénario alternatif de la Banque de France est toujours (budgétairement) trop conservateur. La France aurait pu également retarder sa consolidation budgétaire, même si la Banque de France ne veut pas le dire (1). Mais le point clé est que l’Allemagne a entrepris une consolidation lorsqu’elle n’avait clairement pas la nécessité de faire. Cette consolidation a poussé la production allemande sous son potentiel et elle a compliqué la vie de ses voisins immédiats. Et à un moment où le reste de la zone euro générait un choc négatif sur la demande mondiale.

Martin Sandbu, dans le Financial Times a noté (correctement) que l’excédent commercial de l’Allemagne avec le monde n’a pas beaucoup changé depuis environ 2013. Il affirme en outre qu’un excédent allemand large, mais constant, n’a pas été un frein sur le reste du monde au cours de cette période. Je n’en suis pas sûr : un excédent commercial signifie que les autres pays ont continuellement à générer de la demande en excès de leur production (et à plus importer qu’ils exportent) (…). Par conséquent, cela serait une bonne chose si l’excédent allemand chutait, car cela fournirait un choc positif à la demande mondiale.

Mais la défense de Sandbu (…) ne s’applique pas pour l’année 2012. Cole Frank et moi avons désagrégé la contribution que les exportations nettes ont représenté pour la croissance globale de la zone euro par pays ; et l’Allemagne s’appuyait alors sur les exportations nettes pour la croissance.

GRAPHIQUE Les contributions des exportations nettes à la croissance de la zone euro

Brad_Setser__contributions_des_exportations_nettes_a_la_croissance_de_la_zone_euro.png

Mathématiquement, une contribution de la part des exportations nettes peut venir soit d’une chute des importations (le reste du monde partage les souffrances, donc la production chute moins que la demande domestique), soit d’une hausse des exportations. Pour l’essentiel du reste de la zone euro, la contribution de la part des exportations nettes est venue d’une chute des importations. Mais pour l’Allemagne, elle est venue d’une hausse des exportations, comme l’Allemagne a compensé la chute de la demande interne de la zone euro en exportant davantage au reste du monde.

En d’autres mots, une consolidation inutile en Allemagne (et une consolidation excessive dans la zone euro) n’a pas seulement poussé la zone euro dans une récession plus profonde ; elle a aussi freiné l’économie mondiale. Le reste du monde était alors contraint en termes de demande ; l’accroissement des excédents en Allemagne signifiait moins de croissance ailleurs.

Il y a un second point ici, un point qui est aussi pertinent pour aujourd’hui que pour le passé. En ce qui concerne aujourd’hui, comme Sandbu l’a souligné, la politique budgétaire de la zone euro est la somme des politiques budgétaires de ses principaux Etats-membres. Cela peut changer, avec un gros budget pour la zone euro et un ministre des Finances de la zone euro qui ait de réelles capacités d’emprunt. Mais c’est peu probable (comme le pense notamment Martin Wolf). Par conséquent, il est essentiel de coordonner les différentes politiques budgétaires nationales pour obtenir les bonnes politiques budgétaires au niveau de la zone euro et s’assurer que la somme des politiques budgétaires nationales fasse sens pour une région qui partage une même monnaie, donc une même politique monétaire.

(1) Je pense aussi que le multiplicateur que la Banque de France applique pour calculer l’impact de son scénario alternatif est probablement trop faible ; elle a utilisé un multiplicateur compris entre 1 et 1,2. L’administration Obama, pour l’American Recovery and Reinvestment Act de 2009, a utilisé un multiplicateur de 1,5, ce qui semble un bon chiffre. La Banque de France : "Au total, une politique budgétaire ciblant l’investissement public pourrait se voir appliquer un multiplicateur de 1 à 1,2. Combiné à un moindre effort de consolidation, de 0,8 à 1,6 point de PIB entre 2012 et 2013, résultant d’une orientation budgétaire coordonnée plus souple comme décrit ci-dessus, le coût d’opportunité en croissance des carences de la coordination des politiques budgétaires en 2011-2013 se situerait ainsi entre 0,8 et 1,9 point de PIB. »

Brad Setser, « The global cost of the eurozone’s 2012 fiscal coordination failure », in Follow the Money (blog), 15 septembre 2017. Traduit par Martin Anota

- page 1 de 27