Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

samedi 21 octobre 2017

Petit panorama des inégalités mondiales de revenu

« Les données que la Banque mondiale a récemment publiées sur les comptes nationaux (le PIB par tête, la consommation nationale, les indices des prix à la consommation, les exportations et importations, etc.) nous permettent d’actualiser le calcul des inégalités internationales. Les choses ne sont pas toujours très évidentes et je vais devoir notamment expliquer certains choix méthodologiques. En utilisant la classification que j’ai introduite dans mon livre de 2005, World Apart, je vais passer en revue trois types d’inégalités internationales et mondiales.

Commençons avec le plus simple. Prenons le PIB par tête de tous les pays (exprimés en dollars internationaux de 2005, comparables au cours du temps, basés sur le Projet de Comparaison Internationale de 2011) et calculons l’indice de Gini avec eux. (Ignorons le fait qu’il s’agisse de pays petits ou de pays peuplés). Le nombre de pays varie comme il y a plus de pays dans le monde aujourd’hui qu’en 1952, quand notre série commence, donc le mieux est de regarder la ligne rouge seulement après 1980. Après cette date, le nombre de pays est à peu près constant et des pays indépendants devenus indépendants depuis (comme l’Ukraine, la Macédoine, la Slovaquie, l’Erythrée) étaient alors considérés comme des pays séparés, quand ils faisaient partie d’ensembles plus larges (l’URSS, la Yougoslavie, etc., produisaient des données pour leurs unités constituantes comme les Etats-Unis produisent des données comptables pour chacun de ses Etats).

Branko_Milanovic__indice_de_Gini_inegalites_mondiales_internationales.png

Que voyons-nous avec la ligne rouge ? Une hausse de l’indice de Gini entre le milieu des années quatre-vingt et les années deux mille, ce qui indique une divergence des revenus moyens des pays et ensuite, après le tournant du siècle, une convergence. La convergence s’explique essentiellement par des taux de croissance plus élevés en Afrique, en Asie et en Amérique latine que dans les pays riches, en particulier après 2007. (Ceux qui étudient l’économie de la croissance peuvent facilement reconnaître ici l’histoire de la convergence ou divergence inconditionnelle, mais calculée en utilisant l’indice de Gini plutôt qu’une régression.)

Donc ce serait la fin de l’histoire si les pays avaient la même population. Mais ce n’est évidemment pas le cas. Pour les inégalités mondiales, la convergence de la Chine et du Tchad, de l’Inde et d’Israël, ne sont pas équivalentes. Si le PIB par tête de la Chine converge vers celui des pays riches, ce sera bien plus important. Pour voir dans quelle mesure regardons la ligne bleue où nous utilisons les PIB par tête des pays comme avant mais en les pondérant maintenant par la taille de la population. Ce qui frappe, c’est de voir qu’après 1978, précisément quand la croissance chinoise s’est accélérée, la ligne bleue commence à être décroissante, tout d’abord lentement, puis ensuite de plus en plus rapidement. Après 2000, l’indice de Gini semble être en chute libre. Quand nous nous penchons un peu plus sur les données, nous constatons que jusqu’à 2000 l’essentiel de la réduction des inégalités s’explique par la dynamique chinoise. Sans la Chine, la ligne bleue aurait été croissante. Mais après 2000, même si nous ne prenons pas en compte la Chine, les inégalités pondérées en fonction de la taille des populations diminuent : elles baissent avec la croissance rapide que connaît l’Inde (et l’Indonésie, le Vietnam, etc.). C’est pourquoi nous avons maintenant deux gros moteurs derrière la réduction internationale des revenus : la Chine et l’Inde. Cependant, comme la Chine devient plus riche elle peut ne jouer encore ce rôle très longtemps. Aujourd’hui, le PIB par tête de la Chine est presque exactement le même que la moyenne mondiale, mais celui de l’Inde est inférieur de moitié à la moyenne mondiale. Donc, dans un futur proche, le taux de croissance de l’Inde comparé à celle du monde sera d’une importance capitale.

Ce serait la fin de l’histoire si dans chaque pays tous les citoyens avaient le même revenu, c’est-à-dire s’il n’y avait pas d’inégalités intranationales. Notons que la ligne bleue suppose implicitement ceci : que tous les Chinois aient le revenu moyen de la Chine, que tous les Américains aient le revenu moyen des Etats-Unis, etc. Evidemment, ce n’est pas le cas. En outre, nous savons que les inégalités de revenu dans la plupart des pays se sont accrues. Quand nous essayons de voir les inégalités entre tous les citoyens du monde (les inégalités mondiales représentées par les points verts) nous délaissons le monde de la comptabilité nationale parce que ce monde ne peut nous donner les données relatives aux revenus individuels pour aller dans le monde des enquêtes réalisées auprès des ménages. (A partir des comptes nationaux américains, je peux apprendre que la valeur moyenne de la production produite aux Etats-Unis annuellement s’élève à 53.000 dollars. Mais je n’ai aucune idée du revenu des 1 % les plus riches ou du décile inférieur. Pour cela, j’ai besoin d’utiliser enquêtes réalisées auprès des ménages.)

On devrait naturellement nous attendre à ce que les points verts se situent au-dessus de la ligne bleue. On devrait également s’attendre à voir des points verts d’autant plus éloignés de la ligne bleue que les inégalités intranationales sont importantes. C’est en effet ce que nous voyons : les inégalités mondiales, calculées en utilisant les mêmes dollars internationaux, commencent par se situer autour d’un Gini de 0,7 et ensuite, poussées vers le bas par la ligne bleue, commencer à aller vers le bas en finissant par atteindre un Gini de 0,63.

Les évolutions des inégalités mondiales reflètent aujourd’hui deux forces à l’œuvre : la convergence de l’Asie qui amène les revenus moyens de la Chine, de l’Inde, du Vietnam, de l’Indonésie, etc., à se rapprocher de ceux du monde riche et, dans une moindre mesure, le creusement des inégalités intranationales. Si dans le futur la convergence asiatique cesse et que les inégalités intranationales poursuivent leur hausse, les points verts vont peut-être revenir vers un indice de Gini de 0,7. Mais si, à l’inverse, la convergence continue, s’étend à l’Afrique, et que les inégalités intranationales cessent d’augmenter, les points verts pourraient continuer d’aller vers le bas.

Ce serait la fin de l’histoire s’il n’y avait pas un autre problème. Nos enquêtes de ménages tendent à sous-estimer les revenus supérieurs (les revenus des fameux 1 % les plus riches). Et une question peut alors se poser : peut-être que nous sous-estimons la hauteur des points verts en ne prenant pas pleinement en compte la richesse des plus aisés. Christoph Lakner et moi avons essayé, du mieux que nous puissions, ajuster les données en fonction de cela, en supposant des sous-estimations spécifiques aux pays et en accroissant, à la Pareto, les revenus pour les 10 % les plus riches. C’est ainsi que nous obtenons les points élevés de couleur orange.

Maintenant, il faut avouer que la situation n’est pas aussi splendide qu’avant : les inégalités mondiales sont faibles par rapport aux années quatre-vingt, mais la baisse est bien plus modeste qu’on ne le pensait initialement : elle serait d’environ 3,5 points de Gini et non de 7. Est-ce que l’ajustement peut entièrement inverser la baisse et suggérer que les inégalités mondiales ont en fait augmenter ? C’est possible, mais très peu probable, parce que la convergence asiatique est si forte et affecte tellement de gens (presque 3 milliards) que même une très forte hausse dans les inégalités intranationales ne peuvent pleinement compenser ce gain. Mais nous avons besoin de données supplémentaires et de meilleure qualité pour le dire avec certitude. C’est pourquoi beaucoup de ceux qui travaillent sur le sujet cherchent à combiner les données issues des enquêtes auprès des ménages (qui sont très bonnes pour 90 – 95 % des distributions nationales) avec les données fiscales qui sont meilleures pour les 1 % les plus riches et peut-être même les 5 % les plus riches.

Donc restez à l’écoute ! »

Branko Milanovic, « Figuring out various income inequalities: what can they tell us? », in globalinequality (blog), 16 octobre 2017. Traduit par Martin Anota

jeudi 19 octobre 2017

La leçon que la politique monétaire doit apprendre

« Il m’a semblé logique d’écrire un billet à propos de la récente conférence tenue par le Peterson Institute qui se proposait de "repenser la politique macroéconomique", mais Martin Sandbu a publié sur le sujet avant moi, et il a su en parler mieux que je ne le saurais en faire. (…) Il n’y a qu’un seul point dans les propos de Martin qui m’ennuie. Je vois d’un meilleur œil que lui la proposition de Bernanke selon laquelle les banques centrales devraient temporairement cibler le niveau des prix suite à une large récession (quand les taux d’intérêt butent sur leur borne inférieure). En outre, comme Tony Yates le suggère, le ciblage du PIB nominal ne résoudra pas le problème d’asymétrie que la suggestion de Bernanke cherche à résoudre.

Martin a raison lorsqu’il écrit en fin d’article qu’"il est nécessaire d’admettre qu’on a mal su gérer les choses pour mieux les gérer à l’avenir". Nous pouvons illustrer ce point avec certains chiffres. Si nous observons les prix à la consommation, l’inflation moyenne entre 2009 et 2016 était de 1,1 % dans la zone euro, de 1,4 % aux Etats-Unis et de 2,2 % au Royaume-Uni. (…) Si nous regardons les déflateurs du PIB, nous obtenons une meilleure image, puisque ceux-ci s’élevaient à respectivement 1,0 %, 1,5 % et 1,6 % pour la zone euro, les Etats-Unis et le Royaume-Uni.

Vous pouvez penser que des erreurs de cette taille ne sont pas trop mauvaises et, de toute façon, qu’y a-t-il de mal avec une si faible inflation ? Vous auriez tort de penser cela, car en période de reprise ces erreurs se traduisent par un gâchis de ressources qui peut être considérable, comme la courbe de Phillips semble actuellement être si plate. En d’autres termes, si la politique avait été plus expansionniste, la reprise aurait été un peu plus rapide et les taux d’intérêt seraient partout aujourd’hui éloignés de leur borne inférieure.

Ce que j’aimerais ajouter aux propos de Martin, c’est préciser quel est le plus grand problème avec la politique monétaire au cours de cette période, en particulier au Royaume-Uni et dans la zone euro. Ce n’est pas, selon moi, l’échec à adopter une cible de niveaux, ni même la décision de la BCE de relever ses taux en 2011 (bien que ce resserrement monétaire a été une erreur sérieuse et coûteuse). En 2009, quand les banques centrales voulaient davantage assouplir leur politique monétaire mais sentaient que les taux d’intérêt butaient sur leur borne inférieure, elles auraient dû déclarer cela :

"Nous avons perdu notre principal instrument pour contrôler l’économie. Il y a d’autres instruments que nous pourrions utiliser, mais leur impact est grandement inconnu, si bien qu’ils sont très peu fiables. Il y a une façon supérieure de stimuler l’économie dans cette situation, en l’occurrence la politique budgétaire, mais c’est bien sûr au gouvernement qu’il appartient de décider s’il va utiliser ou non cet instrument. Tant que nous ne pensons pas que l’économie aille suffisamment mieux pour que nous puissions accroître les taux d’intérêt, l’économie n’est plus sous notre contrôler."

Je ne suis pas en train de suggérer que l’assouplissement quantitatif n’a pas d’impact positif significatif sur l’économie. Mais son utilisation pourrait suggérer aux gouvernements qu’il n’est plus de leur responsabilité d’agir en vue de mettre un terme à la récession et que ce que j’appelle le consensus sur l’assignation (consensus assignment) est toujours valide. Ce n’est pas le cas : l’assouplissement quantitatif a été l’un des instruments les moins fiables que l’on puisse imaginer.

Il serait erroné de critiquer cette idée au prétexte qu’elle amènerait la banque centrale à outrepasser son mandat et à dire aux politiciens ce qu’ils ont à faire. Les membres de la BCE passent beaucoup de temps à le faire, Mervyn King a fait la même chose mais d’une façon plus discrète, tandis que Ben Bernanke a tenu les mêmes propos que ce dernier, mais plus explicitement. Avec le consensus sur l’assignation, nous avons investi les banques centrales de la mission de gérer l’économie parce que nous pensions que les taux d’intérêt sont un bien meilleur outil que la politique budgétaire. A ce titre, il est de leur devoir de nous dire quand elles ne peuvent plus assurer cette tâche plus efficacement que le gouvernement.

Une meilleure critique serait de dire qu’une déclaration de ce genre ne ferait aucune différence et nous pourrions passer des heures à en discuter. Mais cela concerne l’avenir et qui sait ce que les circonstances politiques seront alors. Il est important que les gouvernements fassent savoir que le consensus sur l’assignation n’est plus valide si les banques centrales croient qu’il y a une borne inférieure sur laquelle butent les taux d’intérêt et cela nécessite au préalable que les banques centrales l’admettent. Les économistes comme Paul Krugman, Brad DeLong et moi-même disons tout cela depuis si longtemps et si souvent, mais je pense que les banques centrales ont toujours des problèmes à pleinement accepter ce que cela signifie pour elles. »

Simon Wren-Lewis, « The lesson monetary policy needs to learn », in Mainly Macro (blog), 17 octobre 2017. Traduit par Martin Anota

samedi 14 octobre 2017

Non, la crise n'amène pas à renouveler en profondeur la pensée économique

Les fausses révolutions en économie


« (…) Quand la crise financière a éclaté, beaucoup ont appelé à formuler de nouvelles idées économiques (…). L’idée qu’il y avait implicitement derrière et que l’on considérait comme juste était que la crise révélait la défaillance de l’orthodoxie économique et la nécessité d’avoir de nouveaux concepts fondamentaux. Ceux qui appelaient à renouveler la pensée économique avaient une sorte de scénario hollywoodien en tête : des innovateurs audacieux proposeraient des idées radicales, feraient face à la résistance de la part de vieux ringards, mais ils triompheraient finalement via leur capacité supérieur à prédire les événements. Les choses ne se sont pas vraiment passées ainsi. Certes, personne ne vit la crise venir. Mais ce n’est pas parce que l’orthodoxie n’avait pas les moyens de la prévoir ; au contraire, les paniques bancaires sont un vieux sujet, présenté dans chaque manuel où sont exposés les principes fondamentaux. Si personne ne vit la crise venir, c’est en raison d’un échec empirique : peu comprirent que l’essor du système bancaire parallèle (shadow banking) rendait définitivement obsolètes les défenses bancaires qui avaient été instaurées dans le sillage de la Grande Dépression.

En fait, seuls les idéologues les plus étroits d’esprit du libre marché réagirent en montrant un réel étonnement. Les autres se tapèrent le front en s’exclamant "Diamond-Dybvig ! Comme je suis stupide ! Diamond-Dybvig bien sûr !"

Et après-crise, la macroéconomie standard se révéla assez efficace. La politique budgétaire et la politique monétaire firent ce qu’elles étaient censées faire (ou tout du moins, dans le cas de la monnaie, ne firent pas ce qu’elles n’étaient pas censées faires) à la borne inférieure zéro. Il y avait une grande marge d’amélioration, il était possible de s’appuyer sur la mère de toutes les expériences naturelles pour le travail empirique, mais il n’était pas vraiment utile de s’appuyer sur une nouvelle pensée radicale.

Néanmoins, il y a eu une prolifération de nouveaux concepts radicaux : l’austérité budgétaire serait en fait expansionniste, la politique monétaire expansionniste serait en fait déflationniste, des choses terribles arriveraient à la croissance économique quand la dette publique dépasse les 90 % du PIB. Ces idées reçurent instantanément beaucoup d’écho politique ; laissez de côté les ringards de l’establishment économique, l’establishment politique se saisit de l’occasion d’appliquer de nouvelles idées.

Qu’est-ce que ces idées avaient en commun ? Toutes avaient, explicitement ou non, des implications idéologiques conservatrices, que leurs auteurs les aient intentionnellement recherchées ou non. (Je pense que Reinhart et Rogoff ont vraiment travaillé hors de tout agenda politique. Je n’en suis pas aussi sûr pour les autres.) Et toutes ces idées se révèrent assez vite mortellement fausses.

Donc la nouvelle pensée économique qui émargea de la crise s’est révélée être, dans sa grande majorité, un ensemble de mauvaises idées servant un agenda politique conservateur. Ce n’était pas vraiment le scénario qu’on nous promettait, n’est-ce pas ?

Une fois que vous y pensez, il n’est pas trop difficile de voir comment cela s’est passé. Tout d’abord, la macroéconomie conventionnelle a bien marché, donc vous avez besoin d’innovations réellement brillantes pour qu’elle parvienne à vraiment bouleverser cette convention. Et les innovations réellement brillantes n’apparaissent pas facilement. En fait, les bouleversements de la croyance conventionnelle provinrent principalement de personnes qui, loin de transcender cette croyance, échouèrent en fait à comprendre celle-ci au préalable.

Et même s’il y a de telles personnes aussi bien à gauche qu’à droite, il y a une grande asymétrie en termes de richesse et d’influence entre les deux bords politiques. (…) Les idées confuses à droite se retrouvèrent dans les annonces de politique économique formulées par la Commission européenne et les Républicains.

(…) Beaucoup de travaux ont contribué à faire émerger le consensus ; cela ne signifie pas qu’il soit exact, mais vous devez arriver avec une idée réellement bonne si vous voulez vraiment le remettre en cause. D’un autre côté, vous pouvez avoir beaucoup d’écho politique avec une très mauvaise idée qui remet en cause le consensus, aussi longtemps que cela sert les intérêts des grands argentiers et des politiciens de droite. (…) »

Paul Krugman, « The schlock of the new », in The Conscience of a Liberal (blog), 8 octobre 2017. Traduit par Martin Anota



Il y a trop d’idéologues (et trop peu d’artisans) parmi les économistes


« Paul Krugman affirme qu’il est erroné de croire que la crise financière oblige à renouveler la pensée économique, mais que cette croyance a pourtant mener à des idées folles, mais influentes, qui ont été reprises par les grands argentiers et les politiciens de droite. Même si je suis en accord avec la plupart des propos de Krugman, je voudrais ajouter quelque chose. Ma réflexion se nourrit du dernier livre de Dani Rodrik, Straight Talk on Trade, que je n'ai pas encore fini, mais dont je parlerai plus amplement dans un prochain billet.

Dans la préface à ce livre, il raconte une petite anecdote. Il y a 20 ans, il avait demandé à un économiste d’appuyer l’un de ses livres, Has Globalization Gone Too Far?. L’économiste lui a répondu qu’il ne pouvait pas le faire, non pas parce qu’il était en désaccord avec quelque chose dans le livre, mais parce qu’il pensait que le livre "fournirait des munitions aux barbares". Dani Rodrik note que cette attitude est toujours très courante parmi les économistes. Bien sûr, on peut difficilement qualifier cette attitude d’apolitique et de scientifique.

Je pense que quelque chose de similaire peut s’être produit à la veille de la crise financière parmi les économistes travaillant dans la finance. Paul Krugman a certainement raison lorsqu’il dit que l’économie orthodoxe propose des modèles capables d’expliquer pourquoi la grande crise financière mondiale a éclaté, donc, de ce point de vue, peu de nouvelles idées sont nécessaires. Mais si aussi peu d’économistes orthodoxes ont utilisé ces modèles avant la crise financière, c’est notamment en raison d’une certaine aversion idéologique vis-à-vis de la réglementation et peut-être aussi en raison d'une certaine réticence à mordre la main qui les nourrit.

L’économie orthodoxe propose aujourd’hui des modèles très divers. Ceux qui ajoutent de nouveaux modèles à ceux-ci gagnent en prestige universitaire. Mais comment pouvez déterminer quel est le modèle que vous devez utiliser quand il s’agit d’étudier un problème en particulier ? Il faut regarder les données empiriques. Ce n’est pas une tâche triviale en raison de la nature probabiliste et diverse des données empiriques économiques. Dani Rodrik décrit ce processus a un côté davantage artisanal que proprement scientifique.

Donc, dans le cas de la crise financière mondiale, le bon artisan aurait dû constater que les nouvelles méthodes de répartition des risques étaient vulnérables aux événements d’ordre systémique. Le bon artisan aurait vu, s’il avait accès aux données, que la hausse rapide de l’endettement des banques est toujours dangereuse et, plus généralement, que les périodes au cours desquelles on entend dire que "cette fois, les choses sont différentes" ne finissent généralement pas très bien.

Dans ma propre discipline, je pense qu’il y a au moins un domaine qui n’aurait pas dû voir le jour si l’art de la sélection des modèles avait été bien appliqué. Les modèles de cycles d’affaires réels (real business cycles) n’ont jamais réussi à décrire les cycles d’affaires parce que nous savons que les hausses du chômage lors des récessions correspondent à du chômage involontaire. Si vous n’appliquez pas bien cette technique artisanale, alors ce qui peut la remplacer, c’est l’idéologie, la politique ou simplement la pensée de groupe. Ce n’est pas simplement un problème pour quelques économistes pris individuellement, c’est souvent un problème pour la majorité d’entre eux. »

Simon Wren-Lewis, « Economists: too much ideology, too little craft », in Mainly Macro (blog), 9 octobre 2017. Traduit par Martin Anota

lundi 9 octobre 2017

Richard H. Thaler, prix Nobel 2017



« L’économiste américain Richard H. Thaler est un pionnier dans l’économie comportementale, un champ de recherche dans lequel les intuitions tirées de la recherche psychologique sont appliquées à la prise de décision économique. Une perspective comportementale incorpore une analyse plus réaliste de la façon par laquelle les gens pensent et se comportent lorsqu’ils prennent des décisions économiques, ce qui fournit de nouvelles opportunités pour concevoir des mesures et institutions qui accroissent le bénéfice social.

L’économie implique de comprendre le comportement humain dans les situations de prise de décision économique et sur les marchés. Les gens sont des êtres compliqués et nous devons faire des hypothèses simplificatrices si nous désirons construire des modèles utiles. La théorie économique traditionnelle suppose que les gens ont un bon accès à l’information et peuvent la traiter parfaitement. Elle suppose aussi que nous pouvons toujours exécuter nos plans et que nous nous préoccupons de notre seul gain personnel. Ce modèle simplifié du comportement humain a aidé les économistes à formuler des théories qui ont fourni des solutions à des problèmes importants et compliqués en économie. Cependant, les décalages entre la théorie et la réalité sont parfois systématiques et significatifs. Richard Thaler a contribué à étendre et affiner l’analyse économique en considérant trois traits psychologiques qui influencent systématiquement les décisions économiques, en l’occurrence la rationalité limitée, les perceptions relatives à l’équité et le manque de contrôle de soi.

La rationalité limitée


Il n’est pas réaliste de supposer que les gens, avant chaque décision économique, considèrent toutes les alternatives réalisables et toutes les conséquences à long terme de chacune d'entre elles. C’est tout simplement une tâche insurmontable, donc les décisions sont souvent prises en utilisant une focale étroite. Herbert Simon, un autre lauréat du prix Nobel d’économie, a développé le concept de rationalité limitée (bounded rationality), un terme qui fait écho aux limites cognitives des gens et des organisations et aux règles de prise de décision simplifiées que ceux-ci utilisent. On peut trouver un exemple d’une telle limite dans la théorie de la comptabilité mentale (mental accounting), qui décrit comment les gens organisent, formulent et évaluent les décisions financières. Nous tendons à simplifier de telles décisions en créant des comptes distincts dans notre esprit, en prenant des décisions individuelles sur la base de leurs effets sur chacun de ces comptes plutôt que sur la totalité de nos actifs. On peut trouver un exemple dans la façon par laquelle les gens divisent le budget de leur ménage en un compte pour les factures du ménage, un autre pour les vacances, etc., en s'interdisant d’utiliser l’argent d’un compte pour payer quelque chose dans un autre. Ce comportement mène par moments à des coûts supplémentaires, par exemple si l’on n’utilise pas de l’argent d’un compte d’épargne à long terme pour des besoins de court terme, mais que l’on utilise à la place des prêts à la consommation onéreux. En même temps, cela peut nous aider à prévoir nos finances et à protéger notre épargne de long terme.

Un autre élément de comptabilité mentale est que nous utilisons des points de référence pour prendre plus facilement des décisions. Ils diffèrent d’une situation à une autre, c’est-à-dire entre différents comptes mentaux. Un point de référence peut être le prix auquel nous achetons un article ou le prix le plus bas que nous trouvons lorsque nous faisons des recherches sur internet, et nous utilisons ce point de référence pour évaluer si nous avons fait une "bonne affaire". Thaler a fourni de nombreux exemples de la façon par laquelle la comptabilité mentale peut, en s’appuyant sur différents points de référence, mener à des décisions qui s’avèrent étranges lorsqu’on évalue celles-ci d’une perspective économique traditionnelle. Par exemple, un consommateur trouve que la montre qu’il est prêt à acheter coûte 100 euros de moins dans un autre magasin. Il choisit d’aller dans l’autre magasin si la montre coûte 1.000 euros, mais il ne le fait pas si elle coûte 10.000 euros, même si le montant absolu d’épargne est le même dans les deux cas. L’explication est qu’il se focalise sur le pourcentage, plutôt que sur l’épargne relativement au point de référence. Un autre exemple, pris dans l’étude très connue qu’a coréalisé Thaler, est celui d’un chauffeur de taxi qui doit mettre en balance son temps de travail avec son temps libre et sa famille. Le chauffeur résout cela en se fixant des cibles pour son revenu journalier et en mettant un terme à sa journée de travail lorsqu’il a atteint cette cible. Cependant, une telle règle implique que le conducteur finit plus tôt lorsqu’il y a plein de clients et que le revenu horaire est élevé, mais qu’il doit travailler davantage les jours où la demande est faible. Avec une règle différente, il peut gagner plus en travaillant moins et la ville aurait plus de taxis les jours où beaucoup de gens ont besoin d’eux.

Nos expériences passées et nos perceptions de la propriété sont d’autres facteurs qui gouvernent notre prise de décision. Nous voulons normalement plus d’argent lorsque l’on vend quelque chose que nous possédons que nous ne sommes prêts à payer pour acheter exactement le même article, un phénomène que Thaler appelle l’"effet de dotation" (endowment effect). L’un des divers exemples est celui de la fameuse expérience de 1990, conduite par Thaler avec Daniel Kahneman (lauréat en 2002 du prix Nobel) et Jack Knetsch. Dans cette expérience, plusieurs tasses décoratives sont distribuées à des sujets choisis au hasard, qui pouvaient alors choisir s’ils voulaient ou non vendre la tasse à quelqu’un dans un second groupe qui n’avait pas reçu de tasse. Parce que les deux groupes étaient constitués aléatoirement, ils devraient en moyenne donner la même valeur aux tasses et environ la moitié des tasses devraient être vendues. Cependant, il s’avéra que, en moyenne, ceux qui ont reçu les tasses lui donnèrent une valeur plus élevée que dans le groupe de contrôle, celui qui n’en avait pas reçues, et bien moins de la moitié des tasses ont changé de propriétaire.

L’effet de dotation peut avoir des conséquences à long terme, notamment en réduisant les échanges de biens et services et en compliquant la résolution des litiges juridiques. L’explication que propose Thaler pour l’effet de dotation se fonde sur la façon par laquelle les gens tendent à éprouver une plus grande insatisfaction lors d’une perte qu’ils n’éprouvent de satisfaction avec un gain d’un montant aussi élevé, phénomène connu sous le nom d’aversion aux pertes. Se défaire de quelque chose que nous possédons déjà est perçu comme une perte, alors qu’acquérir la même chose est perçu comme un gain.

Plus généralement, ce que nous définissons comme un gain ou une perte dépend du niveau où nous plaçons le point de référence, ce qui est par conséquent important pour notre décision. Par exemple, les ventes au rabais amènent les consommateurs à placer leur prix de référence à un niveau plus élevé qu’ils ne l’auraient sinon fait en temps normal, si bien qu’ils perçoivent l’achat d’un article comme une meilleure affaire qu’ils ne l’auraient fait s’ils avaient acheté cet article au même prix, mais ailleurs. Un autre exemple est celui d’un investisseur sur le marché boursier qui ne considère pas une transaction comme un profit ou une perte tant que les actions ne sont pas vendues. Cela amène généralement les investisseurs à garder leurs actions perdantes pendant longtemps dans l’espoir "que les choses s’améliorent" et à vendre des actions gagnantes trop tôt de façon "à ramener le profit à la maison", alors qu’il est souvent plus rentable de faire l’inverse (pour des raisons fiscales par exemple).

Nos propres expériences influencent aussi les risques que nous sommes enclins à prendre. Une personne qui a récemment gagné de l’argent en Bourse ou dans un casino tend à prendre de plus grands risques qu’une personne qui a récemment perdu de l’argent. Il est moins douloureux de perdre si nous sommes toujours "dans le vert" dans notre compte mental, même si les circonstances sont exactement les mêmes (quelque chose que Thaler appelle l’"effet argent du ménage", house money effect).

Préférences sociales : qu’est-ce qui est juste ?


Lorsqu’ils prennent des décisions, les gens ne prennent pas seulement en compte ce qui leur est bénéfique. Ils ont aussi une certaine idée de ce qui est juste et ils peuvent prendre en compte le bien-être des autres aussi bien positivement (en se montrant coopératifs ou solidaires) que négativement (en se montrant jaloux ou malveillants). Des expériences à grande échelle conduites par Richard thaler et d’autres économistes comportementaux ont montré que les notions autour de la justice jouent un rôle dans la prise de décision. Les gens sont prêts à se priver de bénéfices matériels pour maintenir ce qu’ils estiment être une distribution juste. Ils sont aussi prêts à supporter un coût personnel pour punir des personnes qui ont violé des règles basiques de justice, non seulement lorsqu’ils sont eux-mêmes affectés, mais aussi lorsqu’ils voient quelqu’un d’autre se retrouver dans une situation injuste.

Une objection fréquente est que les résultats des expériences en laboratoire ne peuvent être transférés à la vraie vie, mais il est facile de trouver des exemples où les considérations de justice ont un impact en dehors du laboratoire. Une pluie inattendue peut susciter une forte demande de parapluies, mais si un commerçant accroît alors leurs prix pour faire face à la plus forte demande, plusieurs consommateurs réagissent mal et estiment que le commerçant s’est comporté avec avidité. Les entreprises qui enfreignent les normes de justice peuvent être sanctionnées par des boycotts de la part des consommateurs, ce qui peut les amener à maintenir leurs prix dans les cas où elles les auraient sinon augmentés. De plus, il y a de puissants sentiments à propos de ce qui est juste lorsqu’il s’agit de la rémunération, ce qui affecte la fixation du salaire sur le marché du travail via les comparaisons entre différents groupes de salariés. Il est difficile de faire accepter une baisse du salaire nominal (son niveau courant est le point de référence sous lequel les gens ne veulent pas qu’il chute), alors qu’il est plus facile d’accepter une hausse du salaire nominal qui est inférieure à l’inflation, même s’il conduit à la même chute du salaire réel. (…)

L’économie comportementale en pratique


L’économie comportementale a aussi remis en question le comportement rationnel tel qu’il est considéré dans des domaines tels que la finance. Richard Thaler, avec notamment Robert Shiller (prix Nobel d’économie en 2014), a contribué à la recherche en finance comportementale, un domaine dans lequel les chercheurs se sont penchés sur la volatilité (apparemment injustifiée) des marchés, une volatilité qui semble incompatible avec la théorie des marchés efficients. Thaler a aussi mis à jour ce qui s’apparente à des valeurs de marché négatives pour les actions, ce qui n’est pas rationnel dans la mesure où l’on peut toujours rejeter une action qui n’a pas de valeur. Les expériences avec des sujets qui peuvent choisir entre différents investissements montrent que les gens sont sensibles à l’horizon temporel choisi. Les investisseurs tendent aussi à préférer les titres à faible risque sur des horizons courts, mais lorsqu’on leur présente les résultats potentiels de divers investissements sur des horizons plus longs, ils sont davantage susceptibles de choisir des titres plus risqués, notamment les actions.

On peut considérer que les pratiques communes en marketing cherchent à tirer profit de l’irrationalité du consommateur. Les ventes au rabais ou les offres du type "deux achetés, le troisième offert" donnent aux consommateurs l’impression d’avoir réalisé un gain, ce qui les amène à modifier le point de référence pour évaluer les prix. Les loteries et les paris sont présentés d’une telle façon que l’on surexpose les rares gagnants et en dissimulant la multitude de perdants. De nombreux consommateurs sont séduits par des crédits aux conditions qui leur sont défavorables pour acheter un article qu’ils n’ont pas les moyens d’acheter. Les travaux de Thaler sont fréquemment cités dans la littérature du marketing et ses intuitions et ceux d’autres économistes comportementaux peuvent nous aider à reconnaître les astuces du marketing et à éviter de prendre mauvaises décisions économiques.

Dans plusieurs situations, le soi planificateur nécessite de résister aux tentations. De telles considérations sont derrière les restrictions en matière d’alcool et de drogue dans divers pays, mais dans d’autres contextes on considère que de telles restrictions vont trop loin. Les politiciens et d’autres décideurs peuvent utiliser les études en économie comportementale pour concevoir des alternatives qui s’avèrent bénéfiques à la société. Richard Thaler et Cass Sunstein ont affirmé que, dans divers domaines, les institutions publiques et privées doivent activement chercher à pousser les individus dans la bonne direction (mais en leur laissant toujours la liberté de décider). Cela s’est notamment traduit par l’introduction d’unités incitatives (nudge units) dans divers pays, notamment le Royaume-Uni et les Etats-Unis, des agences qui cherchent à réformer l’administration publique en s’appuyant sur les intuitions de l’économie comportementale. Les améliorations passent souvent par des choses simples, notamment la manière par laquelle l’option par défaut est définie, celle qui se réalise à moins que vous choisissiez activement quelque chose d’autre. Il y a des applications dans des domaines comme l’épargne retraite, le don d’organes et la politique environnementale. Les gens peuvent avoir des difficultés à épargner plus qu’ils ne le font actuellement, parce que cela réduit directement le montant qu’ils peuvent consommer aujourd’hui. Il leur est souvent plus facile de se dire qu’ils épargneront davantage à l’avenir, en particulier s’ils s’attendent à ce que leur salaire augmente. Cette intuition a été utilisée dans le programme "Save More Tomorrow", conçu par Thaler et de façon à accroître l’épargne-retraite. Le programme, dans lequel un individu s’engage à allouer une part de ses hausses futures de salaire pour l’épargne a été utilisé avec succès par diverses entreprises aux Etats-Unis. Dans certains quartiers, ce type de programme a été critiqué pour sa teneur paternaliste, mais il est important de souligner que la participation au programme est entièrement volontaire et que les participants sont libres de le quitter à n’importe quel moment.

Au total, les contributions de Richard Thaler ont jeté un pont entre les analyses économiques et psychologiques de la prise de décision des individus. Ses constats empiriques et ses intuitions théoriques ont contribué au développement du champ nouveau, mais en rapide essor, de l’économie comportementale, qui a eu un profond impact dans divers domaines de la recherche et la politique économiques. »

Académie royale des sciences de Suède, « Easy money or a golden pension? Integrating economics and psychology », octobre 2017. Traduit par Martin Anota

samedi 7 octobre 2017

Le problème des transferts et l’incidence fiscale

« Ces derniers jours, ce qui se passe dans la mise en œuvre de la politique économique aux Etats-Unis apparaît à la fois grotesque et sinistre. Le Trésor a notamment tenté de supprimer une analyse interne (…) portant sur l’incidence de l’impôt sur les entreprises. Cet article arrivait à la conclusion embarrassante que l’essentiel de l’impôt reste là où il est appliqué (avec les propriétaires du capital des entreprises), puisqu’il n’y en a qu’une petite part incombant indirectement aux travailleurs. (…) Cet article avait déjà été publié dans une revue à comité de lecture, si bien que (…) tout le monde peut tout de même continuer à le lire.

Mais laissons cette histoire de côté ; je veux parler ici de l’incidence des impôts sur les entreprises. (…) Alors que les marchés mondiaux des capitaux doivent avoir tendance à égaliser les taux de rendements après impôt à long terme, l’intégration imparfaite des marchés des biens implique que le long terme soit très long, certes pas assez pour que nous soyons tous morts, mais suffisamment long pour que l’égalisation des rendements puisse prendre plusieurs décennies.

(…) Toute cette littérature remonte à Harberger, qui envisageait une économie fermée avec un stock de capital fixe. Il a montré que dans une telle économie un impôt sur les profits incomberait au capital, fondamentalement parce que l’offre de capital est inélastique. Le contre-argument moderne est que nous vivons maintenant dans un monde de capitaux internationalement mobiles ; cela signifie que pour tout pays pris individuellement l’offre de capitaux, loin d’être fixe, est hautement élastique, parce que les capitaux peuvent aussi bien entrer que sortir du pays. En fait, pour une petite économie faisant face à des marchés des capitaux parfaits, l’élasticité de l’offre de capitaux est infinie. Cela signifie que le rendement sur le capital après impôt est fixe, donc que tout changement des taux d’imposition des entreprises doit incomber aux autres facteurs, c’est-à-dire le travail.

La plupart des analyses de l’incidence fiscale ne prête toutefois au travail qu’une faible fraction de l’impôt des entreprises, pour trois raisons. Premièrement, une grande partie des profits d’entreprises ne sont pas un rendement au capital : ce sont des rentes liées au pouvoir de monopole, à l’image de marque, aux avantages technologiques et ainsi de suite. Les afflux de capitaux ne vont pas concurrencer ces profits, donc le marché international des capitaux n’est pas pertinent pour l’incidence des impôts sur ces profits. Deuxièmement, les Etats-Unis ne sont pas un petit pays. Nous sommes suffisamment grands pour avoir un puissant effet sur les taux de rendement mondiaux. Troisièmement, l’intégration imparfaite des marchés des capitaux et des biens est une réalité. Les taux de rendements ne sont probablement pas égalisés, même pas à long terme ; de toute façon, si une réduction des impôts des entreprises apporte plus de capitaux, cela va pousser à la baisse le prix relatif des produits américains, ce qui va limiter le rendement sur le capital additionnel et donc empêcher les travailleurs d’obtenir la totalité des bénéfices de la réduction d’impôts.

Tout cela me convient. Mais je pense qu’il est aussi important de se demander comment les capitaux qui égalisent les taux de rendement sont supposés affluer. Une fois que vous vous posez cette question, vous voyez que l’analyse de long terme peut ne pas être suffisamment bonne pour des fins de politique économique.

Supposons que le gouvernement américain réduise les taux d’imposition des entreprises. Cela accroîtrait initialement le taux de rendement sur le capital après impôt, ce qui inciterait le reste du monde à placer davantage de capitaux (ou les actifs étrangers des entreprises américaines) dans le pays. Cela pousserait à la baisse le taux de rendement après impôt. Comment cela se passerait-il ? En accroissant le stock de capital américain, en réduisant le produit marginal du capital (et en accroissant celui du travail).

Mais comment le stock de capital s’accroîtrait ? (…) Ce dont nous parlons est un processus dans lequel l’investissement américain excède l’épargne américaine (ce qui signifie que nous connaissons un déficit du compte courant), ce qui accroît notre stock de capital au cours du temps. Il y a quelque chose d’ironique ici : ceux qui appellent à une réduction d’impôts pour les entreprises se disent inquiets pour la « compétitivité » et pourtant l’impact initial d’une telle mesure sera d’accroître les déficits commerciaux. (…)

J’ai passé trois décennies à souligner le sophisme de la doctrine du transfert immaculé, l’idée que les flux internationaux de capitaux se traduisent directement par de plus grands déséquilibres commerciaux. Les exportateurs et importateurs ne savent pas ou ne s’inquiètent pas à propos de l’écart entre épargne et investissement ; ils répondent aux signaux que constituent les prix et les coûts. Un afflux de capitaux génère un déficit commercial en poussant le taux de change réel à la hausse, rendant vos biens et services moins compétitifs. Et parce que les marchés des biens et services sont toujours très imparfaitement intégrés (la plus grande partie du PIB n’est en effet pas échangeable), cela nécessite de larges signaux, de grandes variations du taux de change réel, pour entraîner de significatifs changements dans le solde du compte courant.

Donc, une réduction d’impôts sur les entreprises américaines doit entraîner une appréciation du dollar, qui alourdirait le déficit du compte courant qui constitue la contrepartie d’un afflux de capitaux. Mais de combien le dollar s’appréciera-t-il ? La réponse, familière aux macroéconomistes internationaux, est que le dollar excèdera sa valeur anticipée à long terme, si bien que les gens vont s’attendre à ce qu’il se déprécie dans le futur et l’ampleur de l’appréciation est déterminée par le niveau que le dollar doit atteindre de façon à ce que la dépréciation attendue soit plus forte que la hausse des rendements après impôt en comparaison avec les autres pays.

(…) Le savoir que nous cherchons dans un ajustement unique limite l’ampleur à laquelle le dollar peut aller, ce qui limite la taille du déficit du compte courant, ce qui limite le taux auquel le stock de capital américain peut s’accroître, ce qui ralentit le processus d’égalisation des rendements. Donc le long terme dans lequel les rendements sont égalisés peut au final être assez long.

Supposons que les anticipations soient rationnelles. (Je sais, je sais – mais pour une référence cela peut être utile.) Ensuite, nous pouvons considérer le processus d’ajustement que je décris comme un petit système dynamique avec e, le taux de change, et K, le stock de capital. Un K élevé signifie un faible taux de rendement comparé avec le (...) taux de rendement étranger, donc e doit s’accroître. Un e élevé signifie de larges déficits commerciaux. Le diagramme de phases ressemble à cela :

Paul_Krugman__probleme_des_transferts_et_incidence_fiscale.png

où le point-selle est l’unique sentier le long duquel les anticipations à propos du futur taux de change sont réalisées. Vous pouvez résoudre ce sentier en linéarisant autour d’un état régulier ; les solutions à ce système ont deux racines, une négative, l’autre positive, et la racine négative vous indique le taux de convergence le long du point-selle.

A un instant donné, le stock de capital K est donné ; le taux de change e bondit pour pousser le système sur le point-selle, et ensuite il converge vers son équilibre de long terme.

Donc l’histoire d’une réduction d’impôt des entreprises va comme suit : initialement nous sommes à un point comme le point A. Ensuite, la réduction d’impôts accroît le stock de capital d’équilibre de long terme. Mais cela prend du temps pour arriver à ce point : tout d’abord, nous obtenons une appréciation de la devise, comme le montre le saut de A à B, puis nous convergeons vers C.

On peut alors se demander combien de temps cette convergence prendra. Et nous avons assez d’informations pour donner des chiffres. Je suppose que la fonction de production soit une fonction à la Cobb-Douglas, avec une part du capital de 0,3. Le ratio capital sur production est d’environ 3, ce qui implique un taux initial de rendement de 0,1. Et les modélisateurs à la Fed nous disent que l’impact du taux de change sur les exportations nettes est d’environ 0,15, ce qui signifie qu’une hausse de 10 % du dollar creuse le déficit commercial d’environ 1,5 point de PIB.

Quand je prends en compte ces chiffres, en supposant que j’ai fait les bons calculs, j’obtiens un taux de convergence de 0,059 ; ce qui signifie que c’est un écart de 6 % par rapport au long terme est éliminé chaque année. C’est très lent : il faudra une douzaine d’années pour que la moitié de l’ajustement à long terme soit réalisée.

Cela me suggère que l’ouverture aux marchés mondiaux des capitaux fait beaucoup moins de différence pour l’incidence fiscale que les gens semblent le penser à court terme, et même à moyen terme. Si vous essayez d’évaluer les effets des politiques fiscales au cours de la prochaine décennie, une analyse en économie fermée est probablement plus proche de la vérité qu’une analyse qui supposerait une égalisation instantanée des rendements entre les nations. »

Paul Krugman, « The transfer problem and tax incidence », in The Conscience of a Liberal (blog), 5 octobre 2017. Traduit par Martin Anota

vendredi 6 octobre 2017

Pourquoi réduire les impôts ne stimule pas la croissance ?

« (…) Le propos de ce billet n’est pas de ressasser les preuves empiriques qui montrent que les réductions d’impôts ne stimulent pas la croissance. Je vais plutôt réfléchir aux raisons expliquant pourquoi elles n’alimentent pas la croissance. Parce que l’idée selon laquelle elle est susceptible de le faire semble à première vue raisonnable, mais elle s’avère inexacte dans le monde réel.

Commençons avec les bases. Si vous voulez stimuler la croissance économique, c’est-à-dire accroître plus rapidement le PIB réel, alors vous avons besoin d’accroître le montant de capital, de travail ou la productivité. C’est le cas aussi bien si vous acquérez de nouveaux travailleurs, de nouveaux biens capitaux ou de nouvelles innovations que si vous utilisez du travail, du capital et des innovations qui étaient oisifs jusqu’alors. Vous voulez accroître les intrants pour accroître le PIB.

Ce qu’il y a de plus important en économie, c’est l’idée que les gens répondent aux incitations. Dans le cas des intrants, les incitations à les fournir tiennent à leurs rendements, comme les salaires, les dividendes, les intérêts ou les profits. Si vous taxez ces rendements, cela réduit les rendements et les gens vont fournir moins de travail, de capital ou d’innovations. Donc si vous réduisez cet impôt, l’idée est que les gens vont fournir plus de travail, de capital ou d’innovations. Ce n’est pas vérifié. Pourquoi est-ce que cela ne marche pas comme nous le penserions a priori ?

De faibles élasticités


Nous pensons que si vous réduisez le taux d’imposition et donc accroissez les rendements des intrants, nous accroissez par là même leur quantité. Mais pour "booster" la croissance du PIB ou pour avoir un quelconque effet appréciable sur le PIB, il faut que l’élasticité de cette offre d’intrants vis-à-vis de ces rendements soit significative.

Pour le travail, il semble y avoir plusieurs preuves empiriques robustes suggérant que cette élasticité est en fait faible. (…) On constate que cette élasticité de l’offre de travail est globalement nulle dans presque chaque cas, sauf dans le cas des femmes mariées. C’est notamment ce que montre l’étude de Saez, Slemrod et Giertz (SSG). Avec une élasticité proche de zéro, peu importe de combien vous réduisez le taux d’imposition et accroissez par là le rendement au travail (c’est-à-dire le salaire), cela n’entraîne pas de hausse substantielle de l’offre de travail. Et sans une hausse substantielle d’offre de travail, il n’y a pas de hausse significative du PIB.

Du côté du capital, c’est plus dur à estimer parce que, il est certes facile de considérer les salaires déclarés comme des paiements au travail réel, il est bien plus dur de dire quelle partie du revenu déclaré des entreprises constitue un paiement au « capital ». Les dividendes sont probablement l’une des choses les plus simples à voir, comme il s’agit de paiements directs aux actionnaires. Mais quand Yagan a analysé les répercussions de la réduction d’impôt sur dividendes de 2003, il a constaté qu’il n’y avait pas d’effet sur l’investissement des entreprises (c’est-à-dire les intrants en capital réels). En d’autres mots, l’élasticité des intrants de capital réels vis-à-vis du taux d’imposition était nulle.

Pour l’innovation, il y a des preuves empiriques plus robustes suggérant un effet de la taxation sur l’activité de R&D (bien que nous devons être prudents et distinguer entre l’activité de R&D et l’innovation elle-même). Dechezlepretre, Einio, Martin, Nguyen et Van Reenan ont publié un document de travail où ils observent comment un changement des conditions pour obtenir un crédit d’impôt pour la R&D au Royaume-Uni a pu affecter les dépenses en R&D et le dépôt de brevets ; bref, ils ont cherché à y voir un effet sur l’innovation. Ils mettent en évidence de significatifs effets des incitations fiscales relatives à la R&D sur la R&D et le dépôt de brevets. Cependant, les incitations fiscales (comme un crédit d’impôt ou la possibilité aux entreprises de retrancher les dépenses de R&D) ne sont pas tout fait la même chose qu’une variation du taux d’imposition. (…) Faire varier le taux marginal d’imposition du revenu individuel ou du revenu des entreprises, ce n’est pas la même chose que fournir des incitations fiscales en faveur de la R&D. Mais, si vous cherchez une manière d’utiliser la politique fiscale pour stimuler la croissance, alors il semble plus efficace de s’appuyer sur des incitations à la R&D et à l’innovation que de réduire les taux d’imposition sur le travail et le capital.

Nous taxons les flux financiers, pas les intrants


Si l’impact des réductions d’impôts sur le PIB est faible, c’est aussi parce que les impôts ne sont pas seulement prélevés sur les transactions qui font partie du PIB ; ils sont prélevés sur tout genre de transactions. N’oubliez pas que, chaque année, il y a des milliards (et peut-être des milliers de milliards) de transactions individuelles qui se déroulent dans l’économie. Certaines de ces transactions impliquent des paiements pour un intrant réel comme le travail ou le capital, si bien qu’elles font partie du PIB. Mais d’autres transactions sont purement financières et donc n’en font pas partie. Mais la fiscalité ne fait pas cette distinction ; vous n’êtes pas seulement imposés sur vos transactions qui contribuent au PIB ; vous êtes imposé sur la totalité (ou plutôt la plupart) des transactions où vous recevez de l’argent.

Distinguons quatre genres de transactions :

1. Lorsque la transaction est taxée et que le revenu fournit un intrant réel. Votre salaire est un exemple. Vous fournissez un intrant réel (du travail) à votre employeur et le revenu que vous gagnez en échange fait partie du PIB. Le revenu que vous gagnez est aussi sujet à l’imposition. Donc si vous réduisez le taux d’imposition sur ce revenu, vous pouvez accroître votre offre de travail, ce qui va accroître le PIB. Comme nous l’avons vu ci-dessus, cette réponse serait faible, que ce soit de la part du travail et du capital, si bien que le PIB ne s’accroîtrait pas beaucoup. Une baisse des impôts sur la R&D ou l’innovation pourrait avoir un effet plus tangible.

2. Lorsque la transaction n’est pas taxée et que le revenu ne provient pas de la fourniture d’un intrant réel. Pensez à un petit don en espèces, inférieur au seuil d’imposition, que vous obtiendriez par exemple de la part de vos grands-parents. C’est un revenu, dans le sens où vous avez une entrée d’argent, mais ce n’est pas un rendement pour un intrant réel. Il n’est pas imposé car son montant est faible.

3. Lorsque la transaction n’est pas taxée et que le revenu provient de la fourniture d’un intrant réel. Vous pouvez penser à des paiements de petite échelle pour un travail dont la rémunération est inférieure aux seuils d’imposition, comme la garde d’enfants ou d’autres services domestiques. Maintenant, comme ils n’ont pas à être déclarés, ils ne sont pas taxés, mais il est aussi possible qu’ils ne soient pas pris en compte et inclus dans le PIB. Mais, techniquement, parce qu’ils impliquent une personne fournissant un intrant réel comme le travail, ce revenu devrait être mesuré comme partie intégrante du PIB. Dans tous les cas, parce que ces transactions ne sont pas taxées, une réduction des taux d’imposition n’influencera en rien les intrants réels que les gens fournissent ici ; votre babysitter ne va proposer de faire une nuit supplémentaire la semaine si le taux marginal chute.

4. Lorsque la transaction est taxée et que le revenu ne provient pas de la fourniture d’un intrant réel. Ici nous avons tout un monde de transactions financières. Si vous achetez des actions contre de la liquidité, aucun intrant réel n’est fourni, donc cette transaction ne s’ajoute pas au PIB. Mais cette transaction est imposée, dans le sens où la plus-value qu’obtient le vendeur est sujette à l’impôt. Si vous réduisez les taux d’imposition, alors vous verrez davantage de ces transactions financières être réalisées, mais cela n’ajoutera rien au PIB. (…)

Si les réductions d’impôts ne stimulent pas la croissance du PIB, c’est notamment parce que les réductions d’impôts s’appliquent aussi bien aux transactions de type 4 qu’aux transactions de type 1. Une réduction du taux d’imposition devrait accroître ces deux types de transactions. En pratique, on constate que les élasticités associées aux transactions de type 1 sont faibles, si bien que les réductions d’impôts affectent peu la fourniture d’intrants réels. Mais les réductions d’impôts peuvent avoir un gros effet sur les transactions (financières) de type 4. Ces transactions de type 4 peuvent stimuler les revenus imposables en rendant les transactions plus attractives, mais cela n’affecterait pas la provision réelle d’intrants, donc n’accroîtrait pas le PIB. Saez, Slemrod et Giertz utilisent l’exemple de la réforme fiscale de 1986 pour le démontrer. (…)

En fait, vous pouvez affirmer que, pour accroître le PIB, l’idéal serait d’accroître les impôts sur les transactions financières (une taxe Tobin) pour réduire les incitations à faire ces transactions (de type 4), mais aussi de réduire les impôts sur les transactions de type 1 qui concernent la provision d’intrants réels et surtout fournir des incitations aux dépenses de R&D et à l’innovation.

Si vous voulez me convaincre que ces transactions financières de type 4 ont un effet important sur la croissance du PIB réel, alors vous devez me convaincre que le changement de propriété améliore l’allocation de la capacité de gestion ou me trouver un argument similaire. Pour que ce soit exact, il devrait y avoir beaucoup de changements de propriété qui n’ont actuellement pas lieu en raison d’une fiscalité jugée excessive. Mais les preuves empiriques vont à première vue contre cette idée, parce qu’il faudrait qu’il y ait eu un déclin ou une stagnation des transactions financières de ce genre au cours du temps, or ce n’est tout simplement pas le cas. (…)

(…) Affirmer que les réductions d’impôts ne vont pas avoir d’effet sur la croissance, ce n’est pas dénier la théorie de base. Une telle affirmation repose sur les faibles élasticités (qui impliquent que les réponses sont faibles) et sur la déconnexion entre les rendements qui sont imposés et les rendements qui sont payés aux intrants réels. »

Dietrich Vollrath, « Why don't tax cuts boost growth? », in Growth Economics (blog), 3 octobre 2017. Traduit par Martin Anota

dimanche 1 octobre 2017

Les baisses d’impôts de Trump ? Du vaudou, seulement du vaudou !

« J’ai aimé la comparaison historique que Binyamin Appelbaum a proposé entre, d’un côté, la réduction des impôts de Trump et, de l’autre, celles de Reagan et de Bush, même si j’ai peur qu’une telle comparaison risque de suggérer à certains que ces dernières étaient justifiées. Elles ne l’étaient pas. La réduction d’impôts de Reagan a renversé la tendance baissière à long terme du ratio dette publique sur PIB, les allègements d’impôts de Bush ont défait les progrès budgétaires des années Clinton. Inversement, la hausse d’impôts de Clinton a contribué à générer des excédents, même lorsque l’économie connaissait un boom ; ce ne sont pas les suspects habituels que prédit la droite !

GRAPHIQUE 1 Dette publique des Etats-Unis (en % du PIB)

Paul_Krugman__dette_publique_Etats-Unis.png

Cela dit, les réductions d’impôt de Trump aujourd’hui sont encore une plus mauvaise idée que celles mises en œuvre dans le cadre de la Reaganomics, et pas seulement parce que nous partons d’un niveau de dette publique bien plus élevé, un héritage de la crise financière, qui a déprimé les recettes et temporairement stimulé les dépenses. Il ne faut pas non plus oublier que nous partons d’un taux marginal d’imposition encore bien plus faible qu’à l’époque de Reagan. Voici l’histoire moderne du taux marginal d’imposition :

GRAPHIQUE 2 Taux marginal d’imposition aux Etats-Unis (en %)

Paul_Krugman__taux_marginaux_d__imposition_Etats-Unis.png

Ainsi, Reagan a réduit les taux d’imposition alors que ceux-ci s’élevaient initialement à 70 % ; Trump va les réduire, alors qu’ils sont déjà quasiment moitié moindres. Pourquoi est-ce important ? En fait, pour deux raisons. Premièrement, les réductions d’impôts sont supposées stimuler la croissance économique en accroissant le montant d’un supplément de revenu que quelqu’un peut garder pour lui-même. Quand vous partez d’un taux d’imposition de 70 %, réduire le taux d’un pourcent accroît la composante ramenée à la maison de 1/30, soit plus de 3 %. Quand vous commencez de 39,6 %, la même réduction d’impôts accroît le morceau ramené à la maison de 1/60, soit moitié moins. En d’autres mots, nous nous attendons à ce que les effets incitatifs d’une réduction d’impôts donnée soient désormais moitié moindres que ce qu’ils étaient sous Reagan.

Et supposons, pour simplifier l’exposé, que vous parvenez à obtenir un supplément de croissance économique. Dans quelle mesure ce gain de croissance générera-t-il des recettes fiscales supplémentaires ? Cela dépend du taux marginal d’imposition, qui est bien plus faible aujourd’hui qu’il ne l’était en 1981 ; il est moitié moindre. Donc, même si vous croyez que l’économie vaudou a marché sous Reagan (ce qui n’est pas le cas), il faudrait un peu plus de vaudou, environ 4 fois plus, pour qu’elle marche aujourd’hui. Ce qui nous amène à nous poser la question suivante : mais comment sont-ils parvenus à présenter cela comme un plan responsable ? Oh, mais oui : ils ont juste menti. »

Paul Krugman, « Voodoo gets even voodooier », in The Conscience of a Liberal (blog), 28 septembre 2017. Traduit par Martin Anota

vendredi 29 septembre 2017

Les marchés financiers sous-estiment les risques

« Durant la plus grande partie de 2017, le VIX (l’indice de volatilité des options du marché de Chicago) a été à son plus faible niveau depuis dix ans. Il est récemment passé sous 9, soit un niveau plus faible que celui qu'il atteignait en mars 2007, à la veille de la crise du crédit hypothécaire subprime. Il semble qu'à nouveau les investisseurs n'évaluent pas correctement à quel point le monde est risqué aujourd'hui.

Connu dans la profession comme "l’indice de la peur", le VIX mesure la sensibilité des marchés financiers vis-à-vis de l’incertitude, sous la forme de la probabilité perçue d’amples changements sur le marché boursier. Il est tiré des prix de l’option sur le marché boursier (qui ne rapporte que lorsque les prix boursiers s’élèvent ou chutent beaucoup). Le faible VIX de cette année signale que nous sommes dans un autre environnement à fort appétit pour le risque, quand les investisseurs se détournent des bons du Trésir et d’autres valeurs refuges et cherchent plutôt à "chasser le rendement" en se tournant vers des actifs plus risqués comme les actions, les obligations d’entreprise, l’immobilier et les devises de carry-trade.

GRAPHIQUE 1 L’indice VIX

Jeffrey_Frankel__Fred__indice_VIX.png

Nous n’avons pas à seulement observer l’indice VIX pour voir que les marchés traitent la période actuelle davantage comme favorable au risque qu’aux actifs sûrs. Les rendements sur les valeurs refuges étaient généralement plus faibles que les rendements parmi les actifs risqués au cours de la première moitié de l'année. D'un côté, le franc suisse s'est déprécié. D'un autre côté, le dollar australien et le yuan chinois se sont appréciés. Et les marchés boursiers ont atteint de nouveaux records à la hausse.

Le vrai risque est actuellement élevé


Pourquoi est-ce que je ne pense pas que le vrai risque soit aussi faible que ne le suggère l'indice VIX ? On peut penser à une liste inhabituellement longue de risques majeurs. Chacun d’entre eux peut n’avoir individuellement qu’une faible probabilité de survenir au cours d'un mois donné, mais cumulativement il y a une probabilité significative qu'au moins l'un d'eux survienne à un moment ou à un autre au cours des prochaines années :

L’effondrement de la bulle boursière. Les grands indices boursiers ont atteint de nouveaux records ce mois de septembre, que ce soit aux Etats-Unis ou dans le reste du monde. Les cours boursiers ont même augmenté relativement à des références comme les bénéfices ou les dividendes. Le price-earning ratio ajusté en fonction du cycle de Robert Shiller est désormais supérieur à 30. Les seules fois où il avait été aussi élevé, c'était lors des pics de 1929 et 2000, des pics qui ont tout deux été suivis par un effondrement du marché boursier.

GRAPHIQUE 2 Price-earning ratio (ajusté de Shiller)

Jeffrey_Frankel__Price-earning_ratio_ajuste_de_Robert_Shiller.png

Un éclatement de la bulle obligataire. Alan Greenspan a récemment suggéré que le marché obligataire est encore plus surévalué (par l’"exubérance irrationnelle") que le marché boursier. Après tout, les rendements sur les obligations d'entreprise ou les obligations publiques suivaient une tendance baissière de 1981 à 2016 et le marché s'y est habitué. Mais, bien sûr, les taux d'intérêt ne peuvent baisser davantage et il est prévu qu'ils finissent par s'accroître.

Quel peut être le catalyseur pour précipiter un krach sur le marché boursier ou le marché obligataire ? Un possible détonateur pourrait être une hausse de l'inflation : celle-ci amènerait les agents à anticiper que la Fed relèvera ses taux d'intérêt plus agressivement qu'on ne le pensait jusqu’alors. La BCE et d'autres banques centrales majeures semblent aussi être entrées dans un cycle de resserrement.

Les risques géopolitiques ont rarement été aussi élevés et la foi en l'influence stabilisatrice du leadership américain a rarement été aussi faible. Le risque le plus sérieux concerne les relations avec la Corée du Nord, un risque que Trump n'a pas bien géré. Mais y a aussi des risques significatifs ailleurs, notamment au Moyen-Orient. Par exemple, Trump menace d'abroger l'accord avec les Iraniens qui les empêche de construire des armes nucléaires.

Dans plusieurs domaines de politique économique, il est difficile de prédire ce que Trump va dire ou faire par la suite, mais il est facile de prédire que ce sera quelque chose sans précédent. Jusqu’à présent, les effets nocifs ont été limités, en grande partie parce que la plupart de ses délires verbaux ne se sont pas traduits par des modifications législatives. (S’il parvient par contre à expulser 800.000 jeunes travailleurs et étudiants DACA, cela peut provoquer une récession). Mais c’est un temps d’incertitude autour politique économique comme on n'en a rarement vu.

Les confrontations au Congrès américain autour du plafond de dette et la fermeture du gouvernement ont été surmontées en septembre, mais seulement parce que le problème a été reporté à la fin de l’année, quand les enjeux seront susceptibles d’être plus élevés et la catastrophe plus grave. Une crise constitutionnelle pourrait survenir, si par exemple le Conseiller Spécial trouvait que le contact entre la campagne de Trump et le gouvernement russe était illégal.

Les cygnes noirs ne sont pas imprévisibles


La situation actuelle marquée par un fort appétit vis-à-vis du risque rappelle celle de 2006 et de début 2007, la dernière fois que le VIX a été aussi faible. Alors, il n’était pas non plus trop difficile de dresser une liste de sources possibles de crises. L'un des risques les plus évidents sur la liste a été une chute des prix immobiliers aux Etats-Unis et au Royaume-Uni, étant donné que ceux-ci étaient à des niveaux exceptionnellement élevés et étaient aussi très élevés relativement à des références comme le loyer. Et pourtant les marchés agissaient comme si le risque était faible, conduisant le VIX et les taux sur les bons du Trésor américains à la baisse et les cours des actions et des titres pourris (…) à la hausse.

Quand le marché immobilier s’est effectivement effondré, on disait qu’il s’agissait d’un événement hors de toute distribution de probabilités standard, que l’on n’aurait pas pu estimer à partir des données passées ; on considérait que cela relevait de ce que l'on qualifie d’incertitude knightienne, d’incertitude radicale, d'"inconnus inconnus", de "queues épaisses" (fat tails) ou des cygnes noirs (black swans). Lorsque l'on disait que "les prix de l’immobilier n’ont jamais chuté en termes nominaux", on entendait en fait par là qu'ils n’avaient pas chuté aux Etats-Unis au cours des sept dernières décennies. Mais ils avaient chuté au Japon dans les années quatre-vingt-dix et aux Etats-Unis dans les années trente. Cela ne relevait pas de l’incertitude knightienne ; il s’agissait d’une incertitude classique liée à un ensemble de données inutilement limité à quelques décennies de données purement domestiques.

En fait, le terme "black swan" convient mieux que ne le pensent ceux qui l'utilisent. Les philosophes britanniques du dix-neuvième siècle citaient les cygnes noirs comme l’exemple quintessentiel de quelque chose dont l’existence ne peut être déduite d'un raisonnement inductif à partir des données observées. Mais c'était le cas parce qu'ils ne considéraient pas des données étendues à suffisamment de pays ou à suffisamment de siècles. (Le cygne noir est une espèce australienne qui a en fait été identifiée par les ornithologistes au dix-huitième siècle.) Si cela ne tenait qu'à moi, le "cygne noir" ne serait utilisé que pour désigner un événement extrême et rare auquel tout statisticien qui aurait pris le soin d'étudier un échantillon de données suffisamment large pourrait assigner une probabilité ex ante positive, mais qui serait qualifié d'"imprévisible" ex post par ceux qui n’avaient pas une perspective suffisamment large pour le faire.

Le cycle d’appétit et d’intolérance au risque


Pourquoi les investisseurs sous-estiment-ils périodiquement le risque ? (…) Les formules pour déterminer le prix des options requièrent une estimation statistique de la variance. Les formules pour déterminer le prix des titres adossés à des crédits hypothécaires requièrent une estimation statistique de la distribution des défauts en termes de fréquence. En pratique, les analystes estiment ces paramètres en se contentant d'étudier les données sur les dernières années, c'est-à-dire sans remonter aux précédentes décennies, notamment les années trente, ni même sans prendre en compte d'autres pays, comme le Japon. Plus généralement, dans la description du cycle que propose Minsky, une période de faible volatilité leurre les investisseurs avec l'illusion d'une sécurité, ce qui les amène à s'endetter excessivement et entraîne finalement un krach.

Peut-être que les investisseurs vont réévaluer les risques dans l'environnement actuel et le VIX s'ajustera par conséquent. Si l'histoire est un guide, on ne s'en servira pas comme tel tant que le choc négatif (quel qu'il soit) n'a pas frappé et que les marchés de titres n’ont pas chuté. »

Jeffrey Frankel, « Financial markets underestimate risk », in Econbrowser (blog), 28 septembre 2017. Traduit par Martin Anota

mercredi 20 septembre 2017

Le coût mondial de la mauvaise coordination des politiques budgétaires de la zone euro en 2012

« La Banque de France a publié un intéressant article dans son rapport d’été. Elle affirme que la zone euro, collectivement, a poussé trop loin la consolidation budgétaire (par exemple, trop d’austérité, c’est-à-dire trop de réductions de dépenses publiques et de hausses d’impôts) entre 2011 et 2013. Surtout en 2012 : "La consolidation constatée, sur la base de la variation cumulée du solde structurel primaire des administrations publiques entre 2011 et 2013 est à présent estimée par la Commission européenne à près de 2,9 % du PIB potentiel (...). En particulier, l’effort budgétaire a été de 1,5 point de PIB en 2012".

En effet, la consolidation n’a pas seulement été mise en œuvre par les pays "fragiles" pour regagner en marge de manœuvre budgétaire (Il n’est pas certain qu’ils y parvinrent, dans la mesure où un "excès de consolidation" réduit le PIB et donc n’aide pas vraiment pour réduire le ratio dette publique sur PIB, comme l’ont notamment montré Auberbach et Gorodnichenko). Les "pays robustes", disposant manifestement de marge de manœuvre budgétaire, notamment l’Allemagne, optèrent aussi pour la consolidation : "Les efforts sur ces deux années ont été très importants en Espagne et en Italie (respectivement 3 et 2 points de PIB) et notables en Allemagne (1 point) et en France (0,8 point). La consolidation budgétaire de 2012 a probablement provoqué un affaiblissement de la demande au moment où l’écart de PIB (output gap) était notable: – 2,2% en 2012.".

En d’autres mots, la somme des politiques budgétaires nationales a produit bien trop de resserrement budgétaire pour la zone euro dans son ensemble, bien plus de resserrement que la BCE ne pouvait compenser (et il n’est pas certain que la BCE ait fait tout ce qu’elle pouvait faire pour tenter de le compenser, dans la mesure où elle n’a réussi à vaincre les obstacles internes pour mettre en œuvre son assouplissement quantitatif qu’en 2014).

La Banque de France identifie aussi un scénario alternatif plausible, qui aurait réduit l’ampleur de la consolidation. Elle propose, pour 2012 : "Une consolidation avec une variation du solde structurel de 0,8 point en France, en Italie et en Espagne ainsi qu’une modeste expansion budgétaire de 0,5 point en Allemagne. Ces hypothèses conduisent à une moindre consolidation agrégée des quatre grands pays, de 1,1 point de PIB". Un ralentissement de la consolidation budgétaire en France, en Espagne et en Italie et une expansion budgétaire compensatrice en Allemagne auraient réduit la consolidation budgétaire globale en 2012, puisque celle-ci serait passée de 1,5 point de pourcentage du PIB de la zone euro à 0,4 points de pourcentage du PIB de la zone euro, ce qui se traduirait par un moindre poids sur la demande domestique. Et la Banque de France suggère également une consolidation plus modeste en 2013, une consolidation plus limitée à 0,2 % du PIB de la zone euro.

Je pense personnellement que le scénario alternatif de la Banque de France est toujours (budgétairement) trop conservateur. La France aurait pu également retarder sa consolidation budgétaire, même si la Banque de France ne veut pas le dire (1). Mais le point clé est que l’Allemagne a entrepris une consolidation lorsqu’elle n’avait clairement pas la nécessité de faire. Cette consolidation a poussé la production allemande sous son potentiel et elle a compliqué la vie de ses voisins immédiats. Et à un moment où le reste de la zone euro générait un choc négatif sur la demande mondiale.

Martin Sandbu, dans le Financial Times a noté (correctement) que l’excédent commercial de l’Allemagne avec le monde n’a pas beaucoup changé depuis environ 2013. Il affirme en outre qu’un excédent allemand large, mais constant, n’a pas été un frein sur le reste du monde au cours de cette période. Je n’en suis pas sûr : un excédent commercial signifie que les autres pays ont continuellement à générer de la demande en excès de leur production (et à plus importer qu’ils exportent) (…). Par conséquent, cela serait une bonne chose si l’excédent allemand chutait, car cela fournirait un choc positif à la demande mondiale.

Mais la défense de Sandbu (…) ne s’applique pas pour l’année 2012. Cole Frank et moi avons désagrégé la contribution que les exportations nettes ont représenté pour la croissance globale de la zone euro par pays ; et l’Allemagne s’appuyait alors sur les exportations nettes pour la croissance.

GRAPHIQUE Les contributions des exportations nettes à la croissance de la zone euro

Brad_Setser__contributions_des_exportations_nettes_a_la_croissance_de_la_zone_euro.png

Mathématiquement, une contribution de la part des exportations nettes peut venir soit d’une chute des importations (le reste du monde partage les souffrances, donc la production chute moins que la demande domestique), soit d’une hausse des exportations. Pour l’essentiel du reste de la zone euro, la contribution de la part des exportations nettes est venue d’une chute des importations. Mais pour l’Allemagne, elle est venue d’une hausse des exportations, comme l’Allemagne a compensé la chute de la demande interne de la zone euro en exportant davantage au reste du monde.

En d’autres mots, une consolidation inutile en Allemagne (et une consolidation excessive dans la zone euro) n’a pas seulement poussé la zone euro dans une récession plus profonde ; elle a aussi freiné l’économie mondiale. Le reste du monde était alors contraint en termes de demande ; l’accroissement des excédents en Allemagne signifiait moins de croissance ailleurs.

Il y a un second point ici, un point qui est aussi pertinent pour aujourd’hui que pour le passé. En ce qui concerne aujourd’hui, comme Sandbu l’a souligné, la politique budgétaire de la zone euro est la somme des politiques budgétaires de ses principaux Etats-membres. Cela peut changer, avec un gros budget pour la zone euro et un ministre des Finances de la zone euro qui ait de réelles capacités d’emprunt. Mais c’est peu probable (comme le pense notamment Martin Wolf). Par conséquent, il est essentiel de coordonner les différentes politiques budgétaires nationales pour obtenir les bonnes politiques budgétaires au niveau de la zone euro et s’assurer que la somme des politiques budgétaires nationales fasse sens pour une région qui partage une même monnaie, donc une même politique monétaire.

(1) Je pense aussi que le multiplicateur que la Banque de France applique pour calculer l’impact de son scénario alternatif est probablement trop faible ; elle a utilisé un multiplicateur compris entre 1 et 1,2. L’administration Obama, pour l’American Recovery and Reinvestment Act de 2009, a utilisé un multiplicateur de 1,5, ce qui semble un bon chiffre. La Banque de France : "Au total, une politique budgétaire ciblant l’investissement public pourrait se voir appliquer un multiplicateur de 1 à 1,2. Combiné à un moindre effort de consolidation, de 0,8 à 1,6 point de PIB entre 2012 et 2013, résultant d’une orientation budgétaire coordonnée plus souple comme décrit ci-dessus, le coût d’opportunité en croissance des carences de la coordination des politiques budgétaires en 2011-2013 se situerait ainsi entre 0,8 et 1,9 point de PIB. »

Brad Setser, « The global cost of the eurozone’s 2012 fiscal coordination failure », in Follow the Money (blog), 15 septembre 2017. Traduit par Martin Anota

mardi 12 septembre 2017

Les révolutions en politique économique

« La Commission on Economic Justice organisée par le think tank Institute for Public Policy Research (IPPR) vient de publier un long rapport sur l’économie britannique appelé "Time for Change". (…) Sa conclusion est que nous devons connaître une révolution en matière de mise en œuvre de la politique économique, une révolution aussi profonde que celles qui ont été associées au gouvernement Attlee et à Thatcher après la Seconde Guerre mondiale. Le raisonnement derrière l’idée de révolutions en matière de politique économique a été développé par Alfie Stirling et Laurie Laybourne-Langton dans un article publiée The Political Quarterly.

Les auteurs adaptent les idées de La Structure des révolutions scientifiques de Thomas Kuhn à la politique économique. Je ne veux pas m’attarder sur la légitimité ou les détails de cette entreprise. L’idée que certaines périodes impliquent de profonds changements dans la politique économique n’est pas vraiment controversée. De même, l’idée selon laquelle le paradigme défaillant va tout d’abord essayer de s’adapter avant d’être remplacé par l’idée révolutionnaire est facile à accepter. Vous n’avez qu’à regarder l’état des politiques actuelles au Royaume-Uni et aux Etats-Unis pour prendre au sérieux l’idée que ce qu’on appelle le néolibéralisme (l’ensemble des politiques et la vision du monde associés à Thatcher et Reagan) arrive à sa fin.

Il y a plein de choses dans l’article avec lesquelles je suis d’accord, du moins jusqu’aux conclusions. Mais je regrette que l’article se focalise de trop sur la macroéconomie et pense qu’il s’égare ainsi quelque peu. C’est comme si, après avoir emprunté l’idée de Kuhn et l’avoir appliquée à la politique économique, les auteurs se sentaient obligés de revenir à une discipline académique, la théorie macroéconomique, plutôt que de rester avec la politique économique dans son ensemble. Laissez-moi présenter comment je vois la transformation macroéconomique qui a pris place autour de l’époque de Thatcher et de Reagan.

Une énorme erreur que beaucoup de gens commettent est de penser que la théorie macroéconomique keynésienne conventionnelle était incapable d'expliquer la stagflation, mais aussi que les responsables de la politique économique adoptèrent en conséquence le monétarisme ou des idées des nouveaux classiques. La base pour comprendre la stagflation et réduire l'inflation était connue au moins depuis le fameux discours de Friedman en 1968, où celui-ci expliqua son idée de courbe de Phillips augmentée des anticipations. Cette courbe de Phillips n’a pas été utilisée pour guider la politique monétaire ou budgétaire avant la fin des années soixante-dix, car la plupart des décideurs de la politique économique et certains économistes étaient réticents à l'idée d'accroître le chômage en vue de réduire l'inflation.

Au Royaume-Uni, cet usage de la gestion de la demande globale pour contrôler l’inflation (ou sa contrepartie, qui fut l’abandon des tentatives à des contrôles directs comme les politiques de revenu) coïncida avec l’élection de Thatcher, mais aux Etats-Unis, elle fut initiée par Paul Volcker sous la présidence de Jimmy Carter. Aux Etats-Unis et au Royaume-Uni, il a été associé aux tentatives de contrôle des agrégats monétaires, mais cela ne dura que quelques années. Vous pouvez penser que l’abandon des politiques de revenu s’inscrit dans une logique néolibérale, mais je pense pour ma part qu’il s’agit plutôt de la conséquence inévitable de l’inflation à deux chiffres.

Il y a eu une révolution en théorie macroéconomique, mais j'ai souligné ailleurs qu’elle ne colle pas au cadre kuhnien. La contre-révolution menée par les nouveaux classiques n'a pas donné d'analyse alternative de l'inflation : en fait, leurs inquiétudes étaient davantage d’ordre méthodologique. Il est vrai que ceux qui promurent cette contre-révolution étaient partisans du néolibéralisme et que vous pouvez relier le réductionnisme à l'individualisme (et donc le néolibéralisme), mais je pense que l’attrait de cette contre-révolution tient davantage à une collection de bonnes idées auxquelles l'orthodoxie d’alors résista, comme les anticipations rationnelles.

Le ciblage d'inflation par les banques centrales implique une tentative de gestion de l'économie d’une façon assez similaire à celle de l'activisme budgétaire keynésienne auparavant. La banque centrale est une partie de l’État. L'indépendance de la banque centrale au Royaume-Uni date de 1997 et elle était en vigueur aux Etats-Unis bien avant Reagan. La crise financière mondiale a porté un coup fatal à ce que j'appelle le "consensus sur l’assignation" (l’idée que la gestion de la demande doit être du ressort de la politique monétaire et le contrôle de la dette publique du ressort de la politique budgétaire), mais la popularité de cette assignation doit peu au libéralisme. Beaucoup ont beau fréquemment chercher à relier le ciblage d'inflation au néolibéralisme, mais on ne peut établir un tel lien selon moi.

Il est par conséquent problématique de chercher à relier la macroéconomie à l'essor du néolibéralisme et, surtout, cela nous détourne de la réelle révolution en termes de politique économique que représenta le néolibéralisme, en l’occurrence un changement dans l'attitude des responsables politiques vis-à-vis de presque tout genre d’intervention de l’État. (…) Il y a eu un déplacement correspondant du collectif (notamment avec l’attaque des syndicats) à l'individu, notamment avec l'idée que les "créateurs de richesse" (c'est-à-dire ceux qui obtiennent les plus fortes rémunérations) doivent justement être incités à créer de la richesse en réduisant l’imposition "punitive". L'argent public devint l’"argent du contribuable" et ainsi de suite.

Cette révolution néolibérale a été victorieuse, dans le sens où elle s’est maintenue pendant plusieurs décennies. Elle a provoqué, au travers ses excès, de sérieux problèmes et il est temps de la réexaminer. Mais, ironiquement, les tentatives de mise en place d’une politique macroéconomique véritablement néolibérale (un ciblage d’inflation sans intervention, sans gestion de la demande globale) ont échoué à peine quelques années après avoir débuté. »

Simon Wren-Lewis, « Revolutions in economic policy », in Mainly Macro (blog), 12 septembre 2017. Traduit par Martin Anota

dimanche 10 septembre 2017

En économie, l’environnement peut se révéler toxique pour les femmes

« Une nouvelle étude révolutionnaire à propos des conversions en ligne entre économistes décrit et quantifie une culture de travail qui peut se révéler très hostile pour leurs membres féminins. Alice H. Wu, qui va commencer ses études doctorales à Harvard l’année prochaine, a mené cette étude dans le cadre d’une thèse primée à l’Université de Californie, Berkeley. Son étude a été particulièrement discutée parmi d’éminents économistes cet été et suscité de nombreux commentaires. David Card, un éminent économiste à Berkeley qui a été un membre du jury pour cette thèse, m’a indiqué qu’elle avait produit "un rapport très perturbant".

La sous-représentation des femmes dans les départements d’économie des plus prestigieuses universités est déjà bien connue, mais il a été difficile de juger les affirmations à propos de la culture du milieu de travail parce que les conversations objectivables ont rarement lieu en public. Les propos tenus autour de la machine à café sont difficiles à observer, encore plus à mesurer. Mais l’intersection de deux changements techniques a ouvert de nouveaux horizons pour la recherche. Premièrement, plusieurs conversations tenues autour de la machine à café ont émigré en ligne, si bien que celles-ci se traduisent par une archive informatique. En outre, les techniques d’apprentissage automatique ont été adaptées pour explorer les schémas de larges corps de textes et, par conséquent, il est désormais possible de quantifier la teneur de ce genre de commérages.

C’est ce qu’a fait Wu dans son étude "Gender Stereotyping in Academia: Evidence From Economics Job Market Rumors Forum". Elle a exploité plus d’un million de billets d’un forum de discussion en ligne anonyme fréquenté par plusieurs économistes. Le site, connu sous le nom de econjobrumors.com (son nom complet est Economics Job Market Rumors), constituait tout d’abord un lieu où les économistes pouvaient s’échanger des rumeurs à propos des personnes qui étaient embauchées ou virées au sein de la profession. Peu à peu, il est devenu une machine à café virtuelle fréquentée par des universitaires, des étudiants et d’autres personnes encore.

Il constitue maintenant une archive utile, mais imparfaite, pour étudier ce dont les économistes parlent lorsqu’ils parlent entre eux. Parce que tous les billets sont anonymes, il est impossible de savoir si leurs auteurs sont des hommes ou des femmes ou de déterminer à quel point ils sont représentatifs de l’ensemble de la profession. En effet, certains de leurs auteurs peuvent ne même pas être économistes. Mais c’est clairement un forum actif et attentivement suivi, en particulier par les plus jeunes membres de la profession.

Wu configura son ordinateur de façon à pouvoir identifier si le sujet de chaque billet portait sur un homme ou une femme. (…) Elle a ensuite adapté des techniques d’apprentissage automatique pour débusquer les termes tout particulièrement associés billets portant sur les hommes et ceux portant sur les femmes.

Les 30 mots les plus souvent associés aux discussions portant sur les femmes ont de quoi rendre mal à l’aise. Cette liste inclut notamment les termes "chaude", "lesbienne", "bb" (signifiant "bébé" sur internet), "sexisme", "seins", "anal", "épouse", "feminazie", "salope", (…) "vagin", (…) "enceinte", "grossesse", "mignonne", "mariée", (…) "superbe", (…) "béguin", "jolie", "secrétaire", "déchet", "shopping", "rendez-vous", "but non lucratif", "intentions", "sexy", "vielle" et "prostituée".

La liste des mots les plus souvent utilisés dans discussions portant sur les hommes ne présente pas de termes aussi singuliers ou hostiles. Cette liste inclut des mots qui sont pertinents par rapport à l’économie, tels que "conseiller", "autrichien" (en référence à une école de pensée en économie), "mathématicien", "fixation des prix", "manuel" et "Wharton" (l’université de l’école de commerce de Pennsylvanie alma mater du Président Trump). Beaucoup de mots associés aux discussions à propos des hommes ont un ton positif, notamment des termes comme "buts", "le plus grand" et "Nobel". (…)

Dans son étude, Wu dit que l’anonymat de ces billets en ligne "élimine toute pression sociale que les participants pourraient ressentir en formulant leurs propos" et lui a ainsi peut-être permis "de capturer ce que les gens croient, mais ne disent pas ouvertement".

De façon à évaluer plus systématiquement les thèmes sous-jacents de ces discussions, Wu est allée au-delà de la seule analyse de mots spécifiques pour explorer plus largement les sujets sur lesquels porte la discussion. Cette partie de son analyse révèle que les discussions à propos des hommes ont plus de chances d’être confinées aux sujets comme l’économie elle-même et le conseil professionnel (avec notamment des termes comme "carrière", "entretien" ou "affectation"). Les discussions portant sur les femmes sont bien plus susceptibles d’impliquer des sujets relatifs à l’information personnelle (avec des mots comme "famille", "mariée" ou "relation"), les attributs physiques (avec des mots comme "belle", "corps" ou "grosse") ou des termes relatifs au genre (comme "genre", "sexiste" ou "sexuelle").

Dans un email, David Romer, un grand macroéconomiste à Berkeley, a résumé l’article comme dépeignant "un cloaque de misogynie". Certes, le forum en ligne que Wu a étudié n’est sûrement pas représentatif de l’ensemble de la profession des économistes, même si une minorité bruyante peut suffire pour rendre un lieu de travail hostile pour les femmes économistes. Janet Currie, une économiste spécialisée en analyse empirique reconnue de Princeton (où Wu travaille comme assistante de recherche pour celle-ci), m’a dit que les constats ont eu une forte résonance parce qu’ils "quantifient systématiquement quelque chose que la plupart des femmes économistes savaient déjà". L’analyse "en dit long à propos des attitudes qui persistent dans les coins sombres de la profession", ajoute Currie. Les commérages jouent un rôle important dans toutes les professions, notamment l’économie, et ils sont souvent bénins. Mais les mensonges lancés anonymement peuvent se propager comme une traînée de poudre, blessant des carrières. Silvana Tenreyro, professeure à la London School of Economics et ancienne présidente du comité des femmes de l’Association Européenne d’Economie, m’a dit que "chaque année une crise ou deux surviennent" des rumeurs qui ont vu le jour sur le forum, "avec typiquement pour cible une étudiante".

Certains économistes disent qu’ils trouvent que les discussions sur econjobrumors.com apportent une véritable bouffée d’air frais. George Borjas, un professeur d’économie de Harvard, a écrit sur son blog l’été dernier qu’il trouvait le forum "rafraîchissant". Borjas dit : "On voit qu’il y a toujours de l’espoir pour l’humanité lorsqu’on découvre que plusieurs billets écrits par une bande de jeunes spécialistes en sciences sociales très diplômés abandonnent les entraves du politiquement correct et reflètent des préoccupations ordinaires que partagent la plupart des êtres humains normaux : le prestige, le sexe, l’argent, la recherche d’un emploi, le sexe, la faute professionnelle, les commérages, le sexe, etc.". Après avoir reçu une copie de l’étude de Wu, Borjas dit : "il y a pas mal de choses utiles sur ce forum, mais il y a aussi beaucoup de choses offensantes et embarrassantes. Le problème est que je ne suis pas sûr exactement où placer la limite".

Currie a prévenu Wu qu’écrire à ce sujet pourrait faire d’elle l’objet de harcèlements en ligne. Wu n’en fut pas pour autant découragée. S’il y a quelque chose d’optimiste que l’on peut dire à propos du futur de l’économie, Wu peut bien en être une représentation. Il est inhabituel pour une thèse sénior d’avoir ce type d’impact, mais elle n’est pas une jeune économiste ordinaire. A seulement 22 ans, elle défie aussi elle-même le stéréotype selon lequel les femmes seraient de mauvaises mathématiciennes ou codeuses, dans la mesure où son analyse démontre qu’elle maîtrise aussi bien les mathématiques que le code. Card la décrit comme "une étudiante extraordinaire". Elle est également tenace et quand j’ai demandé à Wu si le sexisme qu’elle a dévoilé l’a amenée à reconsidérer l’idée de poursuivre une carrière en économie, elle m’a déclaré que ce n’était pas le cas. "Vous voyez ces horribles choses survenir et vous voulez faire vos preuves", a-t-elle ajouté. Elle m’a dit que sa recherche suggère "que davantage de femmes doivent s’impliquer dans ce champ et ainsi en changer le paysage". »

Justin Wolfers, « Evidence of a toxic environment for women in economics », in New York Times, 18 août 2017. Traduit par Martin Anota

samedi 2 septembre 2017

Comment expliquer la résistance de l’économie chinoise ?

« (…) Après avoir décéléré pendant six années consécutives, la croissance du PIB réel chinois semble s’accélérer en 2017. La hausse annualisée de 6,9 % rapportée pour le deuxième trimestre dépasse la hausse de 6,7 % en 2016 et elle est bien supérieure au consensus international des prévisionnistes qui s’attendaient, il y a quelques mois, à ce que la croissance soit cette année plus proche de 6,5 % et ralentisse davantage en 2018, en atteignant 6 %.

J’affirme depuis longtemps que nous focaliser sur le PIB nous amène à négliger de plus profonds problèmes qui sont pourtant cruciaux pour le débat autour de la croissance chinoise. C’est parce que l’économie chinoise est au cœur d’une extraordinaire transformation structurelle, avec un modèle de producteur tiré par l’industrie laissant place à un modèle de consommateur tiré par des services de plus en plus puissants. Dans la mesure où cela implique un changement dans la structure du PIB des exportations et de l’investissement (à forts gains de productivité) vers la consommation domestique à faible croissance, le ralentissement de la croissance globale du PIB est à la fois inévitable et désirable. C’est dans ce contexte qu’il fait considérer les vulnérabilités de la Chine.

Ce débat a une longue histoire. Je l’ai tout d’abord entendu à la fin des années quatre-vingt-dix, lors de la crise asiatique. Celle-ci, après avoir touché la Thaïlande et l’Indonésie, puis la Corée du Sud et Taïwan, menaçait, pensait-on, la Chine. La une d’octobre 1998 de The Economist, dont la couverture représente une jonque chinoise attiré par un maelstrom, l’illustre bien. Pourtant, rien ne saurait être plus loin de la vérité. Une fois que la poussière autour de la virulente contagion interrégionale se dissipa, l’économie chinoise n’en fut que légèrement troublée. La croissance du PIB réel a temporairement ralenti, en atteignant 7,7 % en 1998-1999, avant d’accélérer et d’atteindre 10,3 % au cours de la décennie suivante. La résistance de l’économie chinoise lors de la Grande Crise financière en dit également beaucoup. En 2008-2009, au cœur de la pire contraction que l’économie mondiale ait connue depuis les années trente, l’économie chinoise a enregistré une croissance annuelle moyenne de 9,4 %. Si la Chine ne s’était pas montrée aussi résiliente lors de la récente crise, le PIB mondial n’aurait pas diminué de 0,1 % en 2009, mais chuté de 1,3 %, constituant la plus forte baisse de l’activité mondiale suite après la Seconde Guerre mondiale.

Les pessimistes aujourd’hui craignent que la Chine connaisse un désendettement et par conséquent un resserrement du marché de l’immobilier, deux vents contraires qui avaient touché le Japon au début des années quatre-vingt-dix avant de le faire basculer dans la récession. Encore une fois, la lentille occidentale n’est pas la bonne. Comme le Japon, la Chine est une économie qui épargne fortement et qui doit l’essentiel de sa dette à elle-même. Surtout, la Chine a plus de coussins que le Japon pour éviter les problèmes de soutenabilité. Selon le FMI, l’épargne nationale de la Chine est susceptible d’atteindre 45 % du PIB en 2017, soit un niveau bien supérieur à celui atteint par le taux d’épargne du Japon, soit 28 %. Alors que le Japon a été capable d’éviter une crise souveraine malgré une dette publique brute de 239 % du PIB, la Chine, qui possède de plus amples coussins d’épargne et un moindre fardeau souverain (puisque ce dernier atteint 49 % du PIB), est en bien meilleure posture pour éviter une telle implosion.

Certes, il ne faut pas négliger le problème que pose l’énorme dette des entreprises non financières en Chine (dans la mesure où celle-ci atteignait 157 % du PIB à la fin de l’année 2016, contre 102 % à la fin de l’année 2008). Cela rend impérieux de réformer ces prochaines années les entreprises publiques, où l’essentiel de la dette en expansion s’est concentrée. En outre, il y a toujours de bonnes raisons de s’inquiéter à propos du marché immobilier chinois. Après tout, une classe moyenne en expansion nécessite des logements abordables. Avec la part de la population chinoise vivant en villes, passant de moins de 20 % en 1980 à plus de 56 % en 2016 (pour certainement atteindre 70 % en 2030), ce n’est pas rien. Mais cela signifie que les marchés de l’immobilier chinois (à la différence de ceux des autres économies majeures pleinement urbanisées) jouissent d’un ample soutien du côté de la demande, avec une population urbaine susceptible de rester sur une trajectoire de croissance annualisée de 1-2 % au cours des 10-15 prochaines années. Avec des prix de l’immobilier qui ont augmenté de près de 50 % depuis 2005 (presque cinq fois plus que la norme mondiale, selon la BRI et le FMI), la question de l’accès à l’immobilier est source d’inquiétude. Le défi pour la Chine est de gérer prudemment la croissance de l’offre immobilière qui est nécessaire pour satisfaire les besoins en urbanisation, sans susciter de spéculation excessive et de dangereuses bulles d’actifs.

En même temps, l’économie chinoise est aussi soutenue par de robustes sources de résilience cyclique au début de l’année 2017. Le gain de 11,3 % des exportations enregistré en juin par rapport à l’année précédente contraste fortement avec les performances des années précédentes, qui ont été affectées par la faiblesse de la reprise mondiale. De même, la hausse annualisée de 10 % des ventes de détails ajustée en fonction de l’inflation sur le premier semestre (environ 45 % plus rapide que le rythme de 6,9 % de la croissance globale du PIB) est le reflet d’une impressionnante croissance des revenus des ménages et de l’essor (sûrement sous-estimé) du commerce en ligne. Les pessimistes ont longtemps observé l’économie chinoise au travers le même prisme par lequel ils observent leur propre économie, répétant une erreur classique que le l’historien Jonathan Spence a pourtant signalé il y a plusieurs années. On estime que les bulles qui ont éclaté sur les marchés d’actifs au Japon et aux Etats-Unis font peser la même menace sur la Chine. De même, on s’attend à ce que la récente croissance chinoise, si intensive en dette, ait les mêmes conséquences que lors de ces épisodes passés. Les prévisionnistes jugent difficile de résister à la tentation de superposer à la Chine ce que l’on a pu observer dans les pays développés les plus touchés par la crise. Cela n’a pas été la bonne approche par le passé ; elle est toujours inappropriée aujourd’hui. »

Stephen S. Roach, « Deciphering China’s economic resilience », 25 juillet 2017. Traduit par Martin Anota

samedi 26 août 2017

Une décennie après la crise financière

« Le 9 août 2017 marque le dixième anniversaire de la décision de la banque BNP Paribas de geler des fonds monétaires valant près de 2,2 milliards de dollars. Ceux d’entre nous qui étaient actifs sur les marchés financiers à cette époque se souviennent de cet événement comme marquant le début de la pire crise financière mondiale depuis la Grande Dépression.

Plusieurs économistes et analystes financiers affirment que nous vivons toujours avec le fardeau de cette crise et avec les forces qui l’ont amorcée. C’est en partie vrai. La croissance de la productivité et des salaires réels stagne dans plusieurs économies développées et leurs banques centrales suivent toujours des politiques monétaires non conventionnelles, telles que l’assouplissement quantitatif (quantitative easing).

Mais il est important de mettre ces développements en perspective. Plusieurs personnes, notamment la Reine d’Angleterre en novembre 2008, se demandent : "pourquoi est-ce que personne n’a vu cela arriver ?" En fait, plusieurs observateurs financiers avaient bien signalé que la hausse des prix de l’immobilier aux Etats-Unis était insoutenable, en particulier en raison du manque d’épargne des consommateurs américains.

En tant que chef économiste à la Goldman Sachs à l’époque, j’ai écrit trois analyses différentes montrant que le déficit du compte courant des Etats-Unis était insoutenable. Malheureusement, ces constats sont tombés dans l’oreille d’un sourd (…). Au début de l’année 2007, on s’attendait à ce que le déficit du compte courant américain s’élève à 6-7 % du PIB (il a depuis été révisé à 5 % pour l’ensemble de l’année). Ce chiffre élevé reflétait le fait que le solde commercial américain s’était régulièrement détérioré depuis les années quatre-vingt-dix. Dans la mesure où cette dégradation n’avait pas de conséquences négatives immédiates, les autorités ont fait preuve de laxisme et les Etats-Unis ont continué de dépenser plus qu’ils n’épargnaient.

Entretemps, la Chine a passé les années quatre-vingt-dix à exporter des produits à faible valeur ajoutée au reste du monde, pas seulement aux consommateurs américains. En 2007, son excédent de compte courant s’élevait autour de 10 % du PIB, ce qui en faisait le reflet inversé des Etats-Unis. Alors que ces derniers épargnaient trop peu, la Chine exportait de trop.

Pour certains observateurs, ce large déséquilibre international a été la source de la crise. Dans les années qui ont précédé le krach, ils affirmaient que le système financier mondial faisait simplement son travail, en trouvant des manières de plus en plus intelligentes de recycler les excédents. Bien sûr, nous savons maintenant qu’il a plutôt mal fait son travail.

Beaucoup a changé au cours de la décennie qui suivit. En 2017, la Chine va générer un excédent courant de 1,5-2 % du PIB et le déficit américain va probablement tourner autour de 2 % (ou peut-être autour de 3 %) du PIB. Cela constitue une grande amélioration pour les deux plus grandes économies au monde. Pour autant, d’autres pays ont accumulé des déséquilibres de compte courant encore plus larges au cours de la dernière décennie. L’Allemagne compte parmi eux, avec son excédent courant dépassant désormais les 8 % du PIB. Le compte courant allemand suggère qu’il y a de profonds déséquilibres qui pourraient entraîner une nouvelle crise si les politiques économiques n’étaient pas bien coordonnées. La dernière chose dont l’Europe a besoin est d’un autre renversement, comme nous l’avions vue au sommet de la crise de la dette grecque.

Le Royaume-Uni, pour sa part, va avoir un déficit de compte courant supérieur à 3 % de son PIB cette année, c’est-à-dire près de trois fois supérieur à celui qu’il connaissait il y a dix ans. Mais cela ne signifie pas forcément que le solde commercial du Royaume-Uni s’est significativement détérioré. Cela peut refléter le fait que le Royaume-Uni est un centre financier majeur et que les rendements des investissements se sont davantage déplacés au Royaume-Uni qu’ailleurs.

Bref, la croissance mondiale est aujourd’hui bien plus saine qu’il y a dix ans. Beaucoup sont déçus par le fait que la croissance réelle du PIB mondiale depuis la crise a été inférieure à ce qu’elle était au cours de la précédente décennie. Mais, depuis 2009, la pire année de la récession, la croissance de l’économie mondiale s’est maintenue en moyenne au rythme de 3,3 % par an, soit au même rythme qu’au cours des années quatre-vingt et quatre-vingt-dix.

Bien sûr, cela est largement dû à la Chine, le seul pays des BRIC dont la croissance s’est comportée cette dernière décennie telle que je l’ai anticipée (bien que l’Inde ne soit pas très loin derrière). La taille de l’économie chinoise a plus que triplé en termes nominaux depuis 2007, avec le PIB passant de 3.500 à près de 12.000 milliards de dollars. Par conséquent, la taille agrégée des BRICS est désormais autour de 18.000 milliards de dollars, ce qui est plus large que l’Union européenne et presque aussi large que les Etats-Unis.

Il y aura inévitablement une autre crise financière, donc il est utile de se demander d’où elle pourrait venir. Selon moi, il est peu probable qu’elle émerge directement du secteur bancaire, dans la mesure où celui-ci est désormais fortement régulé. Ce qui m’inquiète, c’est que plusieurs grandes entreprises dans différents secteurs ont continué de se focaliser excessivement sur les profits trimestriels, parce ces derniers déterminent la rémunération des dirigeants. Les responsables politiques doivent se pencher sérieusement sur le rôle des rachats d’actions dans ce processus. (…) Cela porterait un coup symbolique contre le malaise sous-jacent de la vie économique d’après-crise. L’Occident a besoin d’investissements réels et d’une plus forte croissance de la productivité et des salaires, et non plus de profits économiquement injustifiables. »

Jim O'Neill, « Finishing the post-crisis job », 8 août 2017. Traduit par Martin Anota

vendredi 18 août 2017

Le Japon et le fardeau de la dette publique

« (…) Il y a actuellement une très bonne raison d’écrire à propos de l’économie japonaise, et il s’agit de sa très bonne performance au deuxième trimestre de l’année 2017. La croissance annualisée s’élevait au Japon à 4 %, contre (par exemple) 1,2 % au Royaume-Uni. Ce qui est particulièrement encourageant à propos de cette performance est que la croissance japonaise est tirée par la demande domestique plutôt que par la demande étrangère. Par le passé, le Japon semblait connaître le problème symétriquement inverse à celui du Royaume-Uni : la croissance économique était compensée par le commerce extérieur, tandis que la demande domestique était faible.

Cette récente croissance ne compense pas simplement les piètres performances passées en comparaison avec les autres pays. Les comparaisons de la croissance du PIB sont trompeuses en ce qui concerne le Japon car (à la différence du Royaume-Uni et des Etats-Unis) il a relativement peu d’immigration, si bien qu’il veut mieux utiliser le PIB par tête pour établir de telles comparaisons. (Comme le souligne Noah Smith, même cela peut biaiser les comparaisons avec le Japon, dans la mesure où sa population vieillit.) Entre 2006 et 2016, le PIB par tête du Japon s’est accru d’un total d’environ 5,5 %, contre environ 5 % pour les Etats-Unis et environ 3 % pour le Royaume-Uni. C’est une bonne performance en comparaison avec d’autres économies, mais tous ces pays auraient dû avoir de plus fortes reprises suite aux récessions.

Une forte croissance est une bonne nouvelle parce que l’inflation est si faible (autour de 0,5 %) : elle est bien inférieure à la cible d’inflation de 2 %. Le gouvernement essaye de stimuler la croissance économique en utilisant une modeste relance budgétaire et un assouplissement quantitatif à grande échelle (les taux d’intérêt de court et long termes sont nuls), aussi bien qu’en mettant en œuvre diverses réformes structurelles. Mais (…) son ratio dette publique nette sur PIB est de 125 % et s’accroît (…). Il est plus élevé que celui des autres pays de l’OCDE, à l’exception de la Grèce et de l’Italie.

Est-ce que la conjonction d’une croissance économique relativement forte et une dette publique élevée déconcerte la théorie économique, comme le suggère Bill Mitchell ? Comme la monnaie à haute puissance et l’inflation, toute relation entre la dette publique et la croissance économique ne marche pas quand les taux d’intérêt sont contraints par leur borne zéro. Une dette publique élevée peut évincer l’investissement privé (bien que certains ne soient pas d’accord avec cette idée), mais pas quand les taux d’intérêt de long terme réels sont nuls et l’inflation proche de zéro. Assurer le service d’une dette élevée peut décourager l’offre de travail, mais à nouveau pas quand les taux d’intérêt sont nuls. La dette n’est pas non plus un fardeau pour les générations futures quand le taux d’intérêt réel est bien inférieur au taux de croissance.

Bien sûr, la plupart des gens pensent que de tels niveaux de dette élevés constituent une réelle menace en raison des "marchés". Mais les marchés vont seulement s’arrêter d’acheter cette dette s’ils s’attendent à un défaut ou à une inflation rampante. Il n’y a en outre aucune façon par laquelle un gouvernement possédant sa propre devise peut être forcé à faire défaut. Il est tout aussi improbable qu’il choisisse de faire défaut avec des taux d’intérêt si faibles. C’est la vérité fondamentale que les dirigeants au Royaume-Uni choisissent de taire (en prétendant le contraire).

Mais que se passe-il quand la croissance économique finit par alimenter l’inflation et que les taux d’intérêt augmentent ? Est-ce que l’endettement public posera alors problème ? Peut-être, mais seulement à long terme, si bien que le gouvernement va avoir beaucoup de temps pour réparer son toit lorsque le soleil brille. Aujourd’hui le Japon s’inquiète à propos de ses niveaux élevés de dette publique, mais il s’inquiète bien plus (et avec raison) de la combinaison d’une faible croissance économique et d’une faible inflation. En ce sens, il donne un bon exemple aux autres pays. »

Simon Wren-Lewis, « Japan and the burden of government debt », in Mainly Macro (blog), 18 août 2017. Traduit par Martin Anota

lundi 14 août 2017

Une autre leçon du Japon

« Voilà un lot de mauvaises surprises en ce qui concerne l’inflation. Aux Etats-Unis, l’indice des prix à la consommation (hors produits alimentaires et énergie) a baissé précisément à l’instant même où il était censé augmenter. Entre mars et mai, l’indice des prix est resté fondamentalement le même, à peine supérieur de 1,7 % au niveau qu’il atteignait un an auparavant. Pour une économie américaine que l’on dit proche de la terre sacrée du plein emploi, c’est une douche froide, en particulier pour la Réserve fédérale, qui a tout mis en œuvre pour ramener l’inflation à sa cible de 2 %.

C’est la même histoire qui se déroule depuis plusieurs années à l’autre bout du monde, au Japon. Mais, pour cette économie si exposée à la déflation, c’est une histoire encore plus sombre. En avril, l’indice des prix à la consommation sous-jacent a été stable par rapport à son niveau l’année précédente (…). Pour la Banque du Japon, qui utilise un arsenal sans précédent de mesures non conventionnelles pour mettre un terme à la déflation de 16,5 % que l’économie insulaire sur l’ensemble de la période comprise entre 1994 et 2013, c’est plus qu’une douche froide. C’est une (…) défaite.

Cette histoire a une dimension mondiale. Oui, il y a quelques anomalies notables, notamment le Royaume-Uni, où les pressions sur le taux de change (…) stimulent temporairement l’inflation sous-jacente à 2,4 % et la Malaisie, où le retrait des subventions sur les carburants a stimulé l’inflation globale, en laissant toutefois l’inflation sous-jacente stable à 2,5 %. Mais ce sont une poignée d’exceptions dans un monde qui manque d’inflation. Les dernières prévisions du FMI le montrent bien : malgré une modeste accélération de la croissance économique mondiale, l’inflation dans les économies avancées devrait s’élever en moyenne à moins de 2 % en 2017-2018.

Le premier chapitre de ce conte a été écrit il y a plusieurs années au Japon. Des bulles spéculatives sur les marchés d’actifs et de l’endettement excessif à (…) la détérioration de la productivité, l’expérience du Japon (avec des décennies perdues qui s’étirent désormais sur un quart de siècle) témoigne des risques qui pèsent sur les grandes économies riches.

Mais aucune leçon n’est plus importante que celle que nous offre la série d’erreurs en matière de politique économique qu’a commises la Banque du Japon. Non seulement un assouplissement imprudent de la politique monétaire a contribué à nourrir les déséquilibres qui menèrent à la crise, mais la banque centrale du pays a ensuite aggravé le problème en ramenant les taux directeurs à leur borne zéro (et même en-deçà de celle-ci), en embrassant l’assouplissement quantitatif (quantitative easing) et en manipulant les taux d’intérêt de long terme dans l’espoir de raviver l’économie. Cela a créé une dépendance malsaine dont il est bien difficile de sortir.

L’expérience japonaise depuis le début des années quatre-vingt-dix offre de nombreux enseignements et pourtant le reste du monde a échoué lamentablement à tenir compte de celles-ci. Des livres et des articles ont été écrits à ce sujet, d’innombrables conférences ont été tenues, des promesses ont été faites, comme celles de Ben Bernanke, l’ancien président de la Fed, de ne jamais répéter les erreurs du Japon. Et pourtant, jour après jour, d’autres banques centrales majeures (en particulier la Fed et la BCE) les répètent, avec des conséquences tout aussi tragiques.

La mauvaise surprise de 2017 en termes d’inflation indique trois choses. Premièrement, la relation entre l’inflation et l’atonie économique (ce que l’on appelle la courbe de Phillips) s’est enrayée. En raison de ce que le professeur de l’Université de Genève Richard Baldwin appelle le "second découplage" (second unbundling) de la mondialisation, le monde est confronté à l’excès d’offre de chaînes de valeur mondiales de plus en plus fragmentées. L’externalisation via ces chaînes de valeur accroît fortement l’élasticité de la courbe d’offre mondiale, altérant fondamentalement le concept d’atonie sur les marchés du travail et des produits, aussi bien que les pressions qu’une telle faiblesse peut exercer sur l’inflation.

Deuxièmement, la mondialisation d’aujourd’hui est intrinsèquement asymétrique. Pour diverses raisons (les surplombs résultant des récessions de bilan au Japon et aux Etats-Unis, l’épargne de précaution en Chine et la consommation anémique dans une Europe contrainte en termes de productivité), la demande globale dans la plupart des grandes économies reste sévèrement déficiente. Dans un contexte d’offre toujours en croissance, il en résulte un déséquilibre intrinsèquement déflationniste.

Troisièmement, les banques centrales sont impuissantes lorsqu’elles cherchent à atteindre la cible mouvante que constitue ce qu’on peut appeler une trappe à liquidité non stationnaire. Premièrement, comme l’a noté John Maynard Keynes durant la Grande Dépression des années trente, la trappe à liquidité décrit une situation dans laquelle les taux directeurs sont incapables de stimuler une demande agrégée en insuffisance chronique une fois que ceux-ci ont atteint leur borne zéro. Cela vous semble familier ? Le scénario aujourd’hui est une courbe d’offre mondiale en constante augmentation. Cela rend aujourd’hui les banques centrales encore plus impuissantes qu’elles ne l’étaient dans les années trente.

Ce n’est pas une maladie incurable. Dans un monde d’hyper-mondialisation (…), le traitement doit se focaliser sur le côté demande de l’équation. La plus importante leçon des années trente, aussi bien que de l’expérience moderne du Japon, est que la politique monétaire n’est pas la réponse adéquate à une insuffisance chronique de la demande agrégée. Ce sont essentiellement les autorités budgétaires qui ont pour tâche de corriger celle-ci. L’idée que les banques centrales doivent considérer l’éventualité de relever leurs cibles d’inflation est peu crédible.

Entretemps, la présidente de la Fed Janet Yellen a (finalement) raison de pousser la Fed à normaliser sa politique monétaire, mettant un terme à une expérience ratée qui n’apporte plus de bénéfices depuis longtemps. Ce que nous avons craint pendant longtemps, c’est que l’assouplissement monétaire non conventionnel échoue à stimuler l’économie réelle et que l’injection d’amples liquidités aux Etats-Unis et sur les marchés financiers mondiaux puisse nourrir des bulles spéculatives sur les marchés d’actifs, inciter à une dangereuse prise de risque et semer la voie à une nouvelle crise.

Nous ignorons l’Histoire à nos risques et périls. La dernière déception des banques centrales qui ciblent l’inflation n’a réellement rien de surprenant après tout. C’est également vrai en ce qui concerne la chute des taux d’intérêt à long terme. Nous pouvons gagner bien des choses en tirant soigneusement des leçons de l’expérience du Japon. »

Stephen Roach, « Another lesson from Japan », 26 juin 2017. Traduit par Martin Anota

vendredi 11 août 2017

Il y a tout juste dix ans éclatait la crise financière mondiale

« L’évaporation complète de la liquidité dans certains segments du marché américain de la titrisation a rendu impossible la valorisation adéquate de certains actifs (…). »

BNP Paribas, 9 août 2007



« Dans son mémorable examen des 21 livres à propos de la crise financière de 2007-2009, Andrew Lo a évoqué le film classique de Kurosawa, Rashômon, pour caractériser les remarquables différences entre ces comptes-rendus de la crise. Non seulement il n’y a pas d’accord sur les interprétations, mais il n’y en a pas non plus sur les faits : "Même sa date de départ n’est pas claire. Devons-nous marquer son commencement au pic de la bulle immobilière américaine au milieu de l’année 2006 ou avec l’effondrement de la liquidité dans le système bancaire parallèle à la fin de l’année 2007 ou bien avec le dépôt de bilan de Lehman Brothers et le passage en rendement négatif des actifs du fonds monétaire Reserve Primary Fund en septembre 2008 ?"

Selon nous, la crise a commencé il y a tout juste dix ans cette semaine. Le 9 août 2007, BNP Paribas annonça que, parce que leurs gestionnaires de fonds ne pouvaient plus valoriser les actifs dans trois fonds mutuels, ils suspendaient leurs souscriptions et rachats. Avec le recul d’une décennie, nous y voyons l’occasion propice pour revoir à la fois les signes avant-coureurs et le début de la pire crise financière depuis la Grande Dépression des années trente. Dans nos futures billets (…), nous espérons revoir d’autres aspects de la crise, notamment les diverses réponses politiques et les épisodes clés impliquant les paniques sur la Bear Stearns, Lehman Brothers, les entreprises sponsorisées par le gouvernement et AIG.

Mais, commençons par le commencement : qu’est-ce qu’une crise financière ? Selon nous, le terme se réfère au passage soudain et non anticipé d’un équilibre assez sain (caractérisé par des marchés financiers très liquides, de faibles primes de risque, un crédit facilement disponible et une faible volatilité des prix d’actifs) à un très mauvais équilibre (caractérisé par les aspects inverses). Nous utilisons le terme « équilibre » pour refléter un état persistant des conditions financières et notons qu’(…) il est facile de passer d’un bon état financier à un mauvais, mais très difficile d’aller dans le sens inverse. Le mauvais état est habituellement associé à une hausse du co-mouvement des prix d’actifs : une contagion entre les entreprises, les marchés et les juridictions géographiques ; et une rétroaction adverse entre le système financier et l’économie réelle, si bien qu’un l’un des deux se détériore, l’autre s’aggrave. (…)

(…) A l’instant de l’annonce de BNP Paribas, le système était extrêmement fragile, si bien qu’il ne fallut pas beaucoup de temps pour qu’il s’écroule. Dans cette optique, les systèmes financiers présentent des équilibres multiples, si bien qu’une crise requiert seulement une étincelle pour allumer l’explosif qui ferait basculer le système d’un bon équilibre à un mauvais. Le modèle classique de Diamond et Dybvig des paniques bancaires présente exactement cette propriété, comme une perte de confiance mène au passage autoréalisateur d’un équilibre où chacun agit comme si les banques sont solvables à un équilibre où ce n’est plus le cas.

Selon nous, cependant, la vraie question est différente : Pourquoi est-ce que le système financier était-il si vulnérable qu’une perturbation relativement faible puisse déclencher un incendie ? Quand les ingénieurs civils construisent des ponts, ils cherchent des manières de les rendre résilients aux chocs, comme les vents violents ou le passage fréquent de piétons (…). Heureusement, les ingénieurs qui observent une vulnérabilité peuvent fermer temporairement un pont et installer des absorbeurs de chocs pour qu’il puisse fonctionner en toute sécurité (…).

Nous ne pouvons fermer un système financier moderne (du moins pas longtemps) sans nuire à l’économie dans son ensemble. Donc, les concepteurs du système doivent anticiper la nécessité de mettre en place des absorbeurs de chocs. Avec le recul, nous pouvons dire avec certitude que les systèmes financiers américains et européens en 2007 nécessitaient deux absorbeurs de chocs clés dont ils étaient dépourvus : un capital adéquat pour faire face aux chutes des prix d’actifs et aux défauts et des détentions adéquates d’actifs liquides de haute qualité pour faire face à une chute temporaire de liquidité.

En 2007, la plus importante vulnérabilité était associée à une pénurie de capital. Comme Greenlaw et ses coauteurs (2008) le décrivirent, les pertes hypothécaires dégradèrent la capitalisation d’intermédiaires fortement endettés, les exposant davantage aux paniques. Et, comme Greenlaw et ses coauteurs (2011) l’expliquent également, les créanciers ne sont pas incités à attendre que les intermédiaires deviennent solvables avant de prendre panique : par conséquent, le seuil pour que se déclenche une panique est habituellement atteint quand la valeur des actifs excède encore celle des passifs.

Si les banques commerciales, les conduits (SIV), les fonds monétaires, les banques d’investissement et autres institutions financières avaient été adéquatement capitalisés et avaient un financement de dette suffisamment stable, les efforts agressifs des banques centrales visant à stimuler l’offre du crédit après août 2007 auraient été plus efficaces pour réduire les coûts de financement et les primes de liquidité. Ces mesures auraient aussi donné plus de temps aux créanciers pour trouver quels titres liés au crédit hypothécaire étaient réellement toxiques.

Alors que la pénurie de capital agrégée est importante pour le système dans son ensemble, les pénuries importent aussi pour les intermédiaires pris individuellement. Pour voir cela, considérons les estimations de risque systémique (SRISK) élaborées par le Volatility Lab de l’Université Stern de New York, défini comme la chute de capital attendue d’une firme financière individuelle conditionné à un large déclin du marché des fonds boursiers. Le SRISK constitue un stress-test en temps réel à la fois d’entreprises financières spécifiques et (du point de vue collectif) du système financier. Et, à la fin de juillet 2007, peu de temps avant le choc BNP Paribas, seulement 20 des 93 larges intermédiaires américains présentèrent une chute attendue de capital. Parmi ces 20 institutions, les 10 plus grosses représentèrent 88 % de la chute agrégée (SRISK). Chose frappante, au cours de la crise, durant les 18 mois suivants, 9 de ces 10 institutions se retrouvèrent soit fermées, soit rachetées par d’autres intermédiaires, soit nationalisées, soit renflouées avec les injections de capital du gouvernement dans le cadre du TARP de 2008 ! Si le SRISK (ou une autre mesure du risque systémique) avait été disponible pour le public en 2007, les observateurs aurait saisi le sérieux de la pénurie de capital aussi bien pour les institutions individuelles que pour le système dans son ensemble bien avant que les phases les plus aiguës de la crise se développent en 2008.

La conclusion ? Avec un recul d’une décennie, les faits clés à propos de la crise financière de 2007-2009 sont clairs. Ce qui débuta comme une perte de liquidité sur des marchés d’instruments complexes et opaques liés au crédit hypothécaire se traduisit soudainement le 9 août à l’évaporation de liquidité de financement pour les intermédiaires détenant ces titres (ou essayant de les utiliser comme collatéraux). Cet événement eut lieu parce que le système était exceptionnellement fragile, ce qui le laissait vulnérable même pour de petites perturbations. Et, ensuite, puisque les banques européennes ont été actives sur ces marchés américains, le problème acquiert une échelle internationale (du moins en Europe et en Amérique du Nord). Mais, ce qui rendit la crise si profonde et si longue (et si dommageable à l’économie mondiale), c’est que les pertes touchèrent un système financier qui était dès le début inadéquatement capitalisé. Nous espérons que, cette semaine, les régulateurs et les participants de marché prennent un instant pour se rappeler ces leçons durement apprises. »

Stephen Cecchetti et Kermit Schoenholtz, « Looking back: The financial crisis began 10 years ago this week », in Money & Banking (blog), 7 août 2017. Traduit par Martin Anota

mercredi 2 août 2017

Est-ce qu’un marché du travail flexible pose un problème pour les banquiers centraux ?

« Les récessions et les ralentissements économiques moins sévères résultent typiquement d’une insuffisance de la demande de biens et services. La seule façon de mettre un terme à ces phénomènes consiste à stimuler la demande globale d’une façon ou d’une autre. Cela peut se faire naturellement, mais aussi avec une réduction délibérée des taux d’intérêt par les banques centrales. Comment savons-nous que la demande globale est insuffisante ? Parce que le chômage s’est accru, comme la faible demande de biens incite les entreprises à moins embaucher et à licencier.

Une question qui est quelquefois posée en macroéconomie est si les travailleurs dans une récession peuvent revenir à l’emploi (price themselves into jobs) en réduisant les salaires. Au cours des précédentes récessions, les travailleurs ont été réticents à le faire. Mais supposons que nous ayons eu une récession plus longue parce que l’austérité budgétaire a freiné la reprise et qu’au cours de cette période plus longue les salaires soient devenus moins rigides. Alors, la chute des salaires réels peut ramener les chômeurs à l’emploi et réduire le chômage (1).

Ce n’est pas parce que la chute des salaires réels résout le problème d’insuffisance de la demande. (…) La baisse des salaires réels peut davantage déprimer la demande globale. Mais il est toujours possible que les travailleurs puissent revenir à l’emploi, parce que les entreprises peuvent se tourner vers des techniques de production plus intensives en travail ou échouer à investir dans de nouvelles techniques économes en travail. La production serait toujours déprimée, mais le chômage chuterait, l’emploi augmenterait et la productivité du travail stagnerait. C’est essentiellement ce que nous avons observé au Royaume-Unis au cours des dernières années.

Il est important de comprendre que, dans ces circonstances, le problème d’une demande insuffisante perdure. Les ressources sont toujours gâchées à une grande échelle. Notre situation s’améliorerait si la demande était stimulée. Comment les banquiers centraux pourraient-ils savoir si c’est le cas ou non ?

Les banquiers centraux peuvent dire qu’ils pourraient toujours savoir si la demande est insuffisante parce que les enquêtes leur disent si les entreprises ont des capacités excédentaires. Cela serait sans doute vrai dans le sillage immédiat de la récession, mais à mesure que le temps passerait le capital se déprécierait et l’investissement resterait faible parce que les entreprises utiliseraient des techniques de production plus intensives en travail. En tant qu’indicateurs d’insuffisance de la demande globale, les enquêtes deviendraient aussi peu robustes que les chiffres du chômage.

Que dire après de toutes ces mesures de l’écart de production ? Malheureusement, elles sont fondées soit sur le chômage, soit sur les enquêtes, soit sur les techniques de lissage des données. Ces dernières, parce qu’ils lissent les données de la production, disent simplement le temps qu’il faut pour qu’une reprise soit complète. Ou, pour le dire autrement, les mesures basées sur la tendance excluent effectivement la possibilité d’une période prolongée de demande insuffisante (2). Donc, collectivement, ces mesures d’écart de production ne fournissent pas d’information additionnelle à propos de l’insuffisance de la demande globale.

L’arbitre ultime pour savoir s’il y a une insuffisance de la demande globale est l’inflation. Si la demande est insuffisante, l’inflation va être inférieure à sa cible. Elle est inférieure à sa cible dans la plupart des pays aujourd’hui, notamment aux Etats-Unis, dans la zone euro et au Japon. (Au Royaume-Uni, l’inflation est supérieure à la cible en raison de la dépréciation provoquée par le Brexit, mais l’inflation salariale ne présente pas de signe d’emballement.) Donc, dans ces circonstances, les banquiers centraux doivent comprendre que la demande est insuffisante et continuer à faire tout ce qu’ils peuvent pour la stimuler.

Mais il y a un danger que les banquiers centraux regardent le taux de chômage, les enquêtes sur la capacité excédentaire et les estimations de l’écart de production et en concluent que nous n’avons plus d’insuffisance de la demande globale. Aux Etats-Unis, les taux d’intérêt augmentent et il y a certains membres du comité de politique monétaire de la Banque d’Angleterre qui aimeraient également les augmenter. Si l’insuffisance de la demande est toujours un problème, ce serait alors une grande erreur, très coûteuse, le genre d’erreur que les autorités monétaires ne doivent jamais commettre (3). Il y a une façon certaine d’éviter cette erreur, qui consiste à continuer de stimuler la demande jusqu’à ce que l’inflation dépasse sa cible.

Un argument contre cette politique attentiste est que les autorités monétaires doivent être « en avance sur la courbe », pour éviter d’abruptes hausses des taux d’intérêt si l’inflation commençait à augmenter. Les arguments comme celui-ci traitent la Grande Récession comme une simple version plus grande des récessions que nous avons connues depuis la Seconde Guerre mondiale. Mais au cours de ces précédentes récessions, les taux d’intérêt n’ont pas butté sur leur borne inférieure et nous n’avions pas eu de généralisation de l’austérité budgétaire une ou deux années à peine après le début de la récession. Ce à que nous assistons, c’est plutôt quelque chose qui se rapproche de la Grande Dépression, mais avec un marché du travail plus flexible.

(1) Les salaires réels peuvent aussi être plus flexibles parce que la Grande Récession a permis aux employeurs d’accroître l’insécurité de l’emploi, qui peut à la fois accroître la flexibilité des salaires et réduire le NAIRU. Ce qui est implicite dans cette idée, c’est le fait qu’une baisse des salaires nominaux ne se traduit pas automatiquement par une baisse des prix. Si cela avait été le cas, les salaires réels n’auraient pas chuté. (…)

(2) Elles suggèrent aussi souvent que les années qui ont immédiatement précédé la Grande Récession ont constitué une période d’ample boom, malgré toutes les preuves qui indiquent qu’il n’y a pas eu de boom en-dehors de la périphérie de la zone euro.

(3) J. W. Mason a récemment affirmé qu’une telle erreur est actuellement commise aux Etats-Unis dans un rapport détaillé. »

Simon Wren-Lewis, « Is a flexible labour market a problem for central bankers? », in Mainly Macro (blog), 2 août 2017. Traduit par Martin Anota

mercredi 26 juillet 2017

L’autre triangle des incompatibilités : le trilemme financier

« Les banques internationales sont internationales dans la vie, mais nationales dans la mort »

Mervyn King



« Les cours en économie internationale présentent habituellement aux étudiants la "trinité impossible" (ou "triangle des incompatibilités" ou encore "trilemme" en économie ouverte), à savoir l’idée selon laquelle il y a incompatibilité entre la fixité du taux de change, la libre circulation des capitaux au niveau international et l’autonomie de la politique monétaire. Pourquoi ? Parce qu’avec la mobilité internationale des capitaux dans un régime de taux de change rigide, les préférences en termes de devises des agents privés (et non des décideurs publics) déterminent la taille du bilan de la banque centrale et donc le taux d’intérêt domestique. (…)

Mais si beaucoup d’étudiants ont appris qu’un pays peut obtenir au maximum deux des trois éléments du trilemme en économie ouverte, peu d’entre eux savent qu’il existe aussi un trilemme financier. Selon celui-ci, la stabilité financière, l’intégration financière internationale et les politiques financières nationales sont incompatibles entre elles (…). Le raisonnement derrière ce second trilemme est le suivant. L’approfondissement de l’intégration financière réduit les incitations des autorités publiques nationales à agir de façon à préserver la stabilité financière au niveau mondial. Ou, pour le dire autrement, comme les bénéfices tirés des politiques de stabilité financière se diffusent au-delà des frontières du pays, les autorités nationales sont moins enclines à supporter les coûts d’une stabilisation du système au niveau national. Par conséquent, si nous poursuivons l’intégration financière, alors nous devons nous appuyer davantage sur la coordination internationale entre les différents régulateurs financiers internationaux (…). Cette conclusion s’applique partout, mais surtout au sein de la zone euro, où les responsables de politique économique désirent un marché financier pleinement intégré, mais tout en continuant de protéger leurs champions nationaux (…).

Nous estimons que Dirk Schoenmaker est celui qui a le mieux exposé le trilemme financier (…). Dans son modèle simple, le problème apparaît en comparant les bénéfices (B) et les coûts (C) de la stabilisation d’une banque lors d’une crise. La stabilisation bénéficie à l’économie en permettant d’éviter une contagion financière et, par conséquent, contribue à soutenir l’offre de crédit et l’activité économique. Les coûts sont ceux imposés aux contribuables lorsque le secteur public recapitalise les banques fragiles, comme ce fut le cas avec la plupart des renflouements au cours de la crise de 2007-2009. (…)

Dans le cas d’une banque purement domestique, un régulateur compare ces coûts et bénéfices, choisissant de mettre en œuvre une résolution soutenue par le secteur public quand les bénéfices (B) sont supérieurs aux coûts (C). Sinon, les autorités vont fermer la banque, laisser les actionnaires et les contreparties supporter les pertes. Cependant, plus la part de l’activité étrangère (s) de la banque en difficulté est large, plus les étrangers tireront relativement plus de bénéfices de la recapitalisation par rapport aux résidents domestiques. En l’absence de coopération internationale, le régulateur domestique compare les bénéfices domestiques de la stabilisation, c’est-à-dire (1-s)xB, par rapport au coût (purement domestique) de la stabilisation (C). Alors qu’une recapitalisation stabiliserait le système financier international si les bénéfices excèdent les coûts (B>C), les régulateurs nationaux vont seulement procéder à une recapitalisation publique si les bénéfices publics sont supérieurs aux coûts, c’est-à-dire si (1-s)xB>C. Dans le cas contraire, c’est-à-dire si les bénéfices des étrangers représentent une proportion suffisamment large du total, c’est-à-dire si (1-s)<C/B, alors les autorités nationales vont choisir de fermer la banque, au risque de générer une contagion et de déstabiliser le système financier international.

Le paradoxe de Mervyn King (cité en en-tête du billet) souligne ce conflit entre les bénéfices et les coûts internationaux et nationaux de la réponse à la faillite des banques internationaux. Cela signifie qu’en définitive seulement deux régimes sont cohérents avec la stabilité financière : un premier régime où l’activité transfrontalière est complète et un second régime où celle-ci est très limitée. Mais le premier régime requiert d’amples coopération et coordination entre les régulateurs nationaux. Cette coordination doit être préétablie et crédible ; elle ne peut être organisée de façon fiable et ad hoc durant une crise, lorsque les régulateurs n’ont ni le temps ni l’inclinaison à négocier des accords exceptionnels pour se partager le fardeau. Le second régime ne requiert pas de coordination, comme les incitations des régulateurs nationaux suffisent pour promouvoir des politiques de stabilisation dans une crise (c’est-à-dire, si B>C), mais avec un tel système l’économie se prive des bénéfices de la finance transfrontalière.

De notre point de vue, le trilemme financier s’applique bien au-delà du problème que rencontre Schoenmaker en recherchant un mécanisme approprié pour partager les coûts associés à la résolution des banques internationales. L’une des raisons est que les banques mondiales ne sont pas les seules sources d’instabilité transfrontalière potentielle. Les risques systémiques peuvent notamment être générés ou transmis par les activités pseudo-bancaires d’institutions non bancaires (considérons l’impact de la sortie d’un fonds monétaire de la zone euro au sommet de la crise) (…) et les vulnérabilités même dans l’architecture financière (…), pour ne citer que quelques exemples.

Une autre inquiétude est que, de façon à limiter la probabilité d’une crise financière, les coûts qu’il y a à assurer la résilience financière doivent être pré-payés en période de bonne conjoncture (disons, via des exigences en capital et en liquidité). Si les bénéfices d’une prévention de la crise débordent au-delà des frontières (comme le font les bénéfices de la résolution dans le modèle de Schoenmaker), les régulateurs nationaux seront moins incités à pré-payer la prévention des crises.

Bien évidemment, le problème du trilemme financier survient seulement si le système financier international est très intégré. A quel point est-il intégré ? (…) La réponse simple est : il ne l’a jamais été autant. Cependant la dynamique d’approfondissement rapide de l’intégration entre 1980 et 2007 s’est stoppée avec la crise financière. Et, depuis 2007, un élément d’intégration dans les pays développés (l’activité transfrontalière des banques) a décliné (comme l’ont notamment montré Lane et Milesi-Ferretti).

Le graphique ci-dessous représente un indicateur large de l’intégration financière pour lequel nous avons une longue série de données historiques : le ratio rapportant le montant des actifs et passifs externes sur le PIB. Selon cette mesure, qu’Obstfeld et Taylor appellent "la seconde vague" de la mondialisation commença autour de 1980 et dépassa "la première vague", qui a été associée à l’époque de l’étalon-or précédant la Première Guerre mondiale. Comme le dernier rapport annuel du BRI le souligne, la mondialisation financière des quarante dernières années a contribué à amélioré les niveaux de vie en soutenant le commerce international et l’investissement et en améliorant l’allocation des ressources et la gestion du risque. Parallèlement, les bénéfices nets seraient substantiellement plus larges si les coûts clés, tels que la transmissions internationale de crises que la mondialisation financière facilite, étaient mieux gérés.

GRAPHIQUE Actifs et passifs externes mondiaux (en % du PIB)

Cecchetti_Schoenholtz__BRI__Actifs_et_passifs_externes_mondiaux.png

source : BRI

(…) Vers quel équilibre de long terme du trilemme financier allons-nous ? Allons-nous vers un équilibre qui préserve ou approfondie davantage le niveau déjà élevé d’intégration ? Ou allons-nous vers un équilibre dans lequel les régulateurs et les intermédiaires restent derrière les frontières nationales pour assurer la stabilité financière ? Ou allons-nous maintenir une combinaison instable et inquiétante (comme celle actuelle) où le déséquilibre de l’intégration internationale avancée et la régulation nationale nous laisse vulnérables à de nouvelles perturbations financières survenant dans l’économie domestique ou dans le reste du monde ?

(…) Le danger d’une fragmentation financière persiste. Les régulateurs ne peuvent être sûrs que les capitaux, la liquidité et les accords de résolution en place aujourd’hui suffisent pour empêcher une autre crise. Et, parce que ces problèmes peuvent se transmettre rapidement d’un pays à l’autre dans un monde intégré, le trilemme financier nous dit que les régulateurs nationaux doivent s’inquiéter de la résilience des autres systèmes financiers. Ils doivent aussi savoir si les innovations ailleurs vont permettre aux entreprises de contourner les règles communes. Par conséquent, une plus grande coopération et un meilleur partage de l’information vont sûrement être nécessaires pour maintenir le statu quo d’une forte intégration.

En considérant ses bénéfices à long terme, nous espérons que le trilemme financier sera résolu en faveur d’un approfondissement (et non un retrait) de l’intégration financière. Mais, si la coordination se révèle inadéquate ou si l’information pertinente à propos des autres juridictions s’avère difficile à vérifier, alors il faudra opter pour le retrait. Nous commençons déjà à voir ce retrait, comme les autorités requièrent que les entreprises internationales ramènent leurs actifs, capitaux et liquidité à l’intérieur des frontières nationales. Si cette dynamique se poursuivait, ce serait une manière tristement inefficace de résoudre le paradoxe de Mervyn King. »

Stephen Cecchetti et Kermit Schoenholtz, « The other trilemma: Governing global finance », in Money & Banking (blog), 24 juillet 2017. Traduit par Martin Anota

dimanche 16 juillet 2017

Pourquoi les salaires allemands doivent augmenter

« Il y a eu un débat intéressant cette semaine entre Martin Sandbu et The Economist, qui suscita une réaction de la part de Philippe Legrain (puis à nouveau une réponse de Sandbu ici). La question qu’ils se posent est si le solde du compte courant allemand, qui a régulièrement augmenté en passant d’un léger déficit en 2000 à un large excédent de plus de 8 % du PIB ces derniers années, est un problème et, en l’occurrence, un frein sur la croissance mondiale.

Pour déterminer si un excédent courant est un problème, il est essentiel de comprendre pourquoi il apparaît. J’en ai parlé en détails à plusieurs reprises par le passé et Peter Bofinger, l’un des cinq membres du Conseils des Experts Economiques en Allemagne, en offre le même récit que moi. Pour résumer, depuis le lancement de la monnaie unique, l’Allemagne a freiné ses salaires, si bien que ceux-ci se sont accrus à un rythme qui n’était pas cohérent avec la cible d’inflation de la zone euro (une inflation inférieure, mais proche, de 2 %). Nous pouvons le voir clairement dans le graphique suivant.

GRAPHIQUE Coûts du travail unitaires relatifs (en indices, base 100 en 2000)

Simon_Wren-Lewis__couts_du_travail_unitaires_relatifs_de_l__Allemagne.png

La ligne bleue montre les coûts du travail unitaires de l’Allemagne relativement à (…) la moyenne de la zone euro. (…) En maintenant l’inflation salariale à un faible niveau entre 2000 et 2009, l’Allemagne a peu à peu acquis un avantage comparatif sur les autres pays-membres de la zone euro. Au même instant, la plupart des gens se focalisèrent sur la forte inflation à la périphérie de la zone euro. Mais comme la ligne rouge le montre, cela n’était qu’une partie de l’histoire, dans la mesure où l’inflation salariale était trop faible en Allemagne relativement aux autres pays-membres. Cet avantage comparatif qu’elle s’est peu à peu constitué eut comme conséquence d’entraîner un excédent du compte courant allemand.

Cependant, cela ne suffit pas en soi pour dire qu’il y a un problème, pour deux raisons connexes. Premièrement, peut-être que l’Allemagne est entrée dans la zone euro à un taux de change sous-évalué, si bien que le graphique ci-dessus présenterait juste une correction de ce phénomène. Deuxièmement, peut-être que l’Allemagne doit cette compétitivité à l’inclinaison du secteur privé à épargner plus qu’il n’investit et par conséquent à acheter des actifs financiers.

Il y a de bonnes raisons, notamment en ce qui concerne le vieillissement démographique que connaît l’Allemagne, de penser que ce deuxième point est exact. (…) Sur le plan démographique, cela fait sens que l’Allemagne génère un excédent de compte courant. La question clé est de savoir quelle devrait être la taille de l’excédent subséquent. Un excédent de 8 % du PIB est très large et j’ai toujours pensé qu’il était bien trop ample pour simplement refléter les préférences sous-jacentes des épargnants allemands.

Je suis heureux de voir que le FMI est d’accord avec cela. Il suggère que l’excédent de compte courant d’équilibre à moyen terme se situerait entre 2,5 % et 5,5 % du PIB. Cela suggère que la correction de compétitivité qui commença en 2009 a encore une certaine marge devant elle. Pourquoi est-ce que cela prend tant de temps ? Certains estiment que l’excédent de 8 % du PIB doit représenter un certain équilibre à moyen terme, dans la mesure où le déséquilibre provoqué par les rigidités des prix et salaires devrait s’être résorbé avec le temps. J'ai déjà taclé un tel argument il y a quelques années.

Or, pour que déséquilibre de compétitivité se résorbe, nous avons besoin soit d’une forte croissance des salaires en Allemagne, soit d’une faible croissance des salaires dans le reste de la zone euro, soit des deux. Etant donné à quel point l’inflation est faible en moyenne dans la zone euro, il est très difficile d’obtenir une plus faible inflation salariale dans le reste de la zone euro qu’en Allemagne. La réticence des entreprises à imposer des réductions de salaires ou des travailleurs à les accepter est bien connue. La réduction des déséquilibres de compétitivité dans la zone euro est restée lente dans la zone euro dans la mesure où celle-ci peinait toujours à sortir de la récession provoquée par l’austérité budgétaire et où l’inflation moyenne de la zone euro restait par conséquent faible. (1)

En ce sens, des excédents de compte courant allemands d’une telle échelle sont un symptôme de deux problèmes sous-jacents : d’une part, la réussite de l’Allemagne à gagner en compétitivité-prix vis-à-vis des autres pays-membres de la zone euro avant la crise financière mondiale et, d’autre part, l’actuelle faiblesse de l’inflation dans la zone euro. L’Allemagne peut rattraper ses erreurs passées en encourageant la hausse des salaires domestiques, soit directement, soit indirectement via une politique budgétaire expansionniste. Non seulement cela accélérerait l’ajustement, mais cela étoufferait aussi une certaine culture en Allemagne consistant à légitimer la réduction des coûts vis-à-vis des autres pays-membres en freinant les salaires. (2)

De ce point de vue, est-ce que cela signifie que les excédents de compte courant allemands freinent la croissance mondiale ? Seulement d’une façon très indirecte. Si une hausse des salaires allemands ou d’éventuelles mesures adoptées pour les accroître stimulaient la demande globale et la production en Allemagne, cela stimulerait ensuite la croissance mondiale. (Rappelez-vous que les taux d’intérêt de la BCE butent sur leur borne inférieure, donc elle se resserrerait peu en réaction à une éventuelle stimulation de la demande globale.) En stimulant ainsi la demande, l’Allemagne ne se contenterait pas d’aider le reste du monde ou d’autres pays-membres de l’union monétaire : elle corrigerait un problème qu’elle a créé de son propre chef.

(1) La résistance aux réductions de salaires nominaux devient un argument bien plus puissant pour relever la cible d’inflation dans une union monétaire où les asymétries signifient que les taux de change d’équilibre sont susceptibles de varier au cours du temps.

(2) La règle dans union monétaire est très simple. Une fois que nous avons atteint un équilibre de compétitivité, les salaires nominaux doivent s’accroître de 2 % (ce qui correspond à la cible d’inflation) de plus que la productivité nationale sous-jacente. J’ai fréquemment reçu des commentaires affirmant qu’une fixation des salaires inférieure à ce niveau améliorerait la compétitivité de la zone euro dans son ensemble. C’est incorrect, parce que si tous les pays-membres de l’union monétaire modéraient leurs salaires de la même ampleur, l’inflation de la zone euro chuterait, amenant la banque centrale à assouplir sa politique monétaire pour ramener l’inflation à 2 % et l’inflation salaire à 2 % plus la croissance de la productivité. »

Simon Wren-Lewis, « Why German wages need to rise », in Mainly Macro (blog), 14 juillet 2017. Traduit par Martin Anota



aller plus loin...

« Adopter le modèle allemand ou sauver l’euro »

« L'Allemagne doit-elle réduire ses excédents courants ? (Le tango se danse à deux) »

« L’Allemagne contre la zone euro »

jeudi 13 juillet 2017

Pourquoi les récessions suivies par l’austérité ont un impact durable sur l’activité

« Les étudiants apprennent tôt que la demande agrégée importe à court terme, mais qu’à long terme la production est déterminée du côté de l’offre. Une meilleure façon de formuler cela est de dire que l’offre s’ajuste à la demande à court terme, mais que la demande s’ajuste à l’offre à long terme. Une partie clé de cette conceptualisation est que l’offre de long terme est indépendante des variations de la demande à court terme (les expansions et les récessions). C’est une conceptualisation simple qui s’est révélée être extrêmement utile par le passé. Regardez juste les données du Royaume-Uni présentées dans ce billet : malgré les chocs pétroliers, la récession provoquée par l’expérience monétariste et la récession provoquée par la crise du système monétaire européen, la production par tête au Royaume-Uni semble être revenue à une tendance sous-jacente de 2,5 % par an après la Seconde Guerre mondiale.

Mais plus maintenant : la production par tête est désormais inférieure de plus de 15 % à cette tendance et, depuis le Brexit, cet écart s’accroît trimestre après trimestre. Dans la plupart des pays développés, il semble que la crise financière mondiale ait changé la tendance sous-jacente de la croissance. Vous trouverez plein d’histoire et d’articles qui essaient d’expliquer cela comme un ralentissement de la croissance de l’offre provoqué par un ralentissement du progrès technique qui daterait d’avant la crise financière et qui serait indépendant de la récession provoquée par celle-ci.

Dans un précédent billet, j’ai observé de récentes preuves empiriques qui suggèrent un récit différent : que la récession qui a suivi la crise financière mondiale semble avoir eu un impact permanent sur la production. Vous pouvez raconter cette histoire de deux façons. Selon la première, aujourd’hui, pour une raison ou une autre, l’offre s’est ajustée à une plus faible demande. Selon la seconde, nous sommes toujours dans une situation où la demande globale est inférieure à l’offre.

Les raisons théoriques expliquant pourquoi l’offre peut s’être ajustée à une demande plus faible ne sont pas difficiles à trouver. (Elles sont souvent regroupées par les économistes sous l’étiquette d’"effets d’hystérèse"). L’offre (en termes de production par tête) dépend du taux d’activité, du montant de capital productif dans l’économie et finalement du progrès technique, qui désigne tout ce qui améliore la façon par laquelle le travail et le capital se combinent au niveau agrégé pour générer la production. Une longue période de faible demande peut décourager les travailleurs. Elle peut aussi freiner l’investissement : un investissement peut être profitable, mais s’il n’y a pas de demande, il ne sera pas financé.

Cependant, le canal la plus évident pour lier une récession à l’offre de plus long terme est via le progrès technique, ce qui fait écho à la vaste littérature regroupée sous le terme de « théorie de la croissance endogène. Cela peut être fait via un modèle AK simple (comme Antonio Fatas le fait ic) ou en utilisant un modèle plus élaboré du progrès technique, comme le font Gianluca Benigno et Luca Fornaro dans leur analyse titrée "Stagnation traps". L’idée fondamentale est que, dans une récession, l’innovation est moins profitable, si bien que les entreprises font moins d’innovations, ce qui entraîne une moindre croissance de la productivité et donc de l’offre. Narayana Kocherlakota a développé cette idée, comme vous pouvez le voir avec l’exemple qu’il donne ici.

Le second type d’explications est attrayant, en partie parce que le mécanisme qui est censé ramener la demande vers l’offre (en l’occurrence la politique monétaire) a été hors d’action pendant une longue période en raison de la borne inférieure zéro (zero lower bound). (La borne inférieure joue également un rôle important dans le modèle développé par Benigno et Fornaro.) Cependant, pour certains, ce type d’explications semble actuellement exclue dans la mesure où le chômage est proche des niveaux d’avant-crise au Royaume-Uni et aux Etats-Unis.

J’ai trois problèmes différents avec l’idée selon laquelle nous n’aurions plus un problème de demande insuffisante au motif que le chômage serait faible. Le premier, et le plus évident, est que le taux de chômage naturel peut être, pour diverses raisons, considérablement plus faible qu’il ne l’était avant la crise financière mondiale. Le deuxième problème est (…) de faibles salaires réels peuvent avoir encouragé les entreprises à utiliser des techniques plus intensives en travail. Si c’est ce qui s’est passé, cela ne signifie pas que le problème d’insuffisance de la demande ait été écarté, mais juste qu’il est moins manifeste. (Pour ceux qui ont un problème conceptuel avec cela, pensez juste au modèle le plus simple des nouveaux keynésiens, qui suppose un marché qui s’équilibre parfaitement, mais qui présente pourtant une insuffisance de la demande.)

Le troisième problème se focalise sur la nature de tout ralentissement de la productivité provoqué par le manque d’innovations. Une question clé, à laquelle les articles cités ci-dessus ne s’attaquent pas directement, est si nous parlons de la recherche à la frontière ou davantage de la mise en œuvre des innovations (par exemple, copier ce que font les entreprises situées à la frontière.) Il y a certaines preuves empiriques qui suggèrent que le ralentissement de la productivité peut refléter l’absence de cette dernière. C’est très important, parce que si c’est le cas, cela implique que le ralentissement est réversible. J’ai affirmé que les banques centrales doivent prêter davantage d’attention à ce que j’ai appelé le retard d’innovation (c’est-à-dire à l’écart entre les meilleurs techniques et ce que les entreprises emploient effectivement) et au lien que celui-ci entretien avec l’investissement et la demande agrégée.

Tout cela montre qu’on ne manque pas d’idées pour saisir comment une récession sévère et une lente reprise peuvent avoir des effets durables. S’il y a un problème, c’est davantage le fait que la conceptualisation simple dont j’ai parlé au début de ce billet a façonné étroitement la façon par laquelle la plupart des gens pensent. Si l’un des mécanismes dont j’ai parlé est important, alors cela signifie que la folie de l’austérité a eu un impact qui peut durer au moins une décennie plutôt que quelques années. »

Simon Wren-Lewis, « Why recessions followed by austerity can have a persistent impact », in Mainly Macro (blog), 12 juillet 2017. Traduit par Martin Anota



aller plus loin...

« L’austérité laisse des cicatrices permanentes sur l’activité »

« L’hystérèse, ou comment la politique budgétaire a retrouvé sa légitimité »

- page 1 de 26