Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

mardi 13 novembre 2018

Que se passe-t-il du côté des inégalités mondiales ?

« Avec les inégalités domestiques et le "populisme" au centre des attentions, la focale s’est naturellement détournée de la question des inégalités de revenu mondiales. Depuis que j’ai quitté la Banque mondiale, j’ai moins accès aux données (certaines d’entre elles sont mieux obtenues auprès de la Banque mondiale, en particulier en ce qui concerne les pays les plus pauvres qui ne sont pas couverts par la Luxembourg Income Study). Mais on peut toujours réaliser une petite actualisation (grâce aussi à la contribution de Christoph Lakner) en prenant en compte la période allant jusqu’à 2013.

Il est utile de commencer avec un petit point technique. Lorsque l’on compare, comme je vais le faire ici, les résultats de l’année 2013 avec les résultats antérieurs, allant jusqu’à 1988, on fait face au choix suivant : (i) soit utiliser de meilleurs chiffres pour la période allant de 2000 à 2013, des chiffres basés sur des données microéconomiques et concernant 100 centiles de la population pour chaque pays, avec de meilleures données pour l’Inde, (ii) soit comprimer ces chiffres en déciles-pays pour les rendre plus comparables avec les données de l’année 1988 (quand nous avions des données moins détaillées avec moins de fractiles). J’ai décidé d’opter pour la deuxième option, mais si nous avions eu à nous focaliser sur la seule période récente (disons, celle qui débute à partir de 2000), j’aurais préféré utiliser la première option.

Est-ce que les données tirées des enquêtes auprès des ménages collent raisonnablement bien avec ce que nous savons avec les comptes nationaux ? La réponse est oui. Le graphique ci-dessous montre les taux de croissance mondiaux annuels moyens du PIB par tête et du revenu moyen des enquêtes réalisées auprès des ménages au cours des périodes de cinq ans, tous exprimés en dollars internationaux de 2011. Les deux lignes bleues varient ensemble en atteignant une croissance maximale de 3 % par tête et par an au cours de la période précédant la crise financière mondiale avant de chuter à seulement 1 % par tête et par an au cours des cinq années suivantes.

GRAPHIQUE 1 Taux de croissance annuel des revenus médian et moyen mondiaux (en %)

Branko_Milanovic__croissance_revenu_moyen_median_mondial.png

Mais il y a une chose particulièrement frappante et intéressante que nous ne pouvons pas voir dans les comptes nationaux, mais que l'on peut trouver dans les enquêtes réalisées auprès des ménages : la forte hausse du revenu mondial médian (le revenu du 50ème centile mondial). Ce revenu positionnel qui reflète des taux de croissance élevés des populations relativement pauvres en Asie (Chine, Inde, Vietnam, Indonésie, etc.) a, au cours des 25 dernières années, toujours augmenté plus rapidement que le revenu mondial moyen et la période la plus récente (allant de 2008 à 2013), l’écart entre la croissance médiane et la croissance moyenne a augmenté : le revenu médian a augmenté au rythme moyen de 6 % par an, tandis que le revenu moyen n’a augmenté qu’au rythme de 1 %.

La réduction de la distance entre la moyenne et la médiane est souvent prise comme indiquant une réduction des inégalités (pour les répartitions asymétriques). Et c’est en effet le cas ici. En 1988, le revenu moyen par tête du monde était juste au-dessus de 4.000 dollars PPA et le revenu médian juste au-dessus de 1.000 dollars PPA ; un quart de siècle après, ces montants s’élevaient respectivement à 5.500 et 2.200 dollars PPA. Donc, le ratio moyenne sur médiane est passé de 4 à 2,5. Le coefficient de Gini mondial est passé de 0,69 à 0,62 : l’indice de Theil mondial est passé de 0,92 à 0,73. L’essentiel du déclin a eu lieu au cours des cinq dernières années de la période. En 2008, l’indice mondial de Gini était de 0,67, légèrement en-dessous de la valeur qu’il atteignait à l’époque de la Chute du Mur de Berlin. Ce qui s’est passé après 2008, ce fut le ralentissement ou la décroissance des pays riches et la poursuite d’une croissance rapide en Asie, couplés avec l’absence d’aggravation des inégalités de revenu nationales dans les gros pays comme la Chine, la Russie, le Royaume-Uni et le Brésil. Même aux Etats-Unis, les inégalités de revenu ont baissé en conséquence du choc touchant les plus hauts revenus lors de la crise, avant d’augmenter à nouveau à partir de 2013 (or cette période n’est pas prise en compte ici).

Est-ce que cela signifie que tout va bien ? Pas vraiment. Des mesures des inégalités comme le ratio moyenne sur médiane ou la part détenue par les 1 % les plus riches sont fragmentaires ; elles prennent seulement en compte ce qui s’est passé à deux points de la distribution. Des mesures synthétiques comme l’indice de Gini sont, sur ce plan, meilleures (parce qu’elles prennent en compte l’ensemble de la distribution), mais elles compriment toute cette information en un unique chiffre. Pour avoir une meilleure vision de ce qui se passe, nous voulons observer diverses parties de la répartition et diverses mesures.

Je vais donner deux exemples. La croissance de la médiane, qui est, comme nous l’avons vu, une évolution positive et encourageante, a aussi une autre face : elle laisse de côté ceux sous la médiane dont les revenus n’ont pas augmenté aussi rapidement que la médiane. Si nous prenons par exemple le niveau de revenu égal à la moitié de la médiane, qui est souvent utilisé comme une mesure de la pauvreté relative, alors nous notons que le nombre de personnes sous ce niveau de revenu a augmenté de 300 millions et que le pourcentage de la population mondiale gagnant moins de la moitié de la médiane est resté le même (cf. graphique 2). C’était le cas de 28 % de la population mondiale en 1998, cette part s’élève maintenant à 26 %.

GRAPHIQUE 2 Nombre de personnes relativement pauvre dans le monde et leur part dans la population mondiale

Branko_Milanovic__part_nombre_de_pauvres_dans_le_monde.png

Malgré la baisse des inégalités mondiales, la part du revenu reçue par les 1 % les plus riches au monde est aussi restée inchangée. En 1988, cette part était de 11,3 % ; elle a ensuite augmenté pour atteindre 13,5 % en 2003 et 2008 avant de retourner à 11 %, comme la crise a touché les pays riches qui "offraient" l’essentiel de ces hauts revenus. Etant donné que nous ratons probablement un chiffre croissant de super-riches ou que ces derniers cachent davantage leurs actifs que par le passé, il est très probable que la vraie part des 1 % les plus riches ait même augmenté.

Nous avons donc apparemment des développements paradoxaux pour le dernier quart de siècle : d’un côté, la forte hausse du revenu mondial médian et la baisse des inégalités mondiales lorsque nous mesurons celles-ci par des indicateurs synthétiques comme l’indice de Gini ou l’indice de Theil ; mais d’un autre côté, la hausse de la part des 1 % les plus riches au monde et la hausse du nombre de personnes en pauvreté relative (essentiellement en Afrique). Ce dernier point nous ramène à la question controversée du manque de convergence de l’Afrique et son recul croissant par rapport à l’Asie (et, bien sûr) par rapport au reste du monde.

Donc le monde est-il meilleur, comme Bill Gates voudrait nous faire croire ? Oui, c’est le cas sur plusieurs plans : le revenu moyen en 2013 est presque 40 % plus élevé qu’il l’était en 1988 et les inégalités mondiales ont diminué. Mais n’y a-t-il pas aussi des mauvaises nouvelles ? Oui : la même part de la population mondiale est laissée à l’écart et les 1 % les plus riches s’enrichissent davantage que les autres. Donc, nous avons en même temps la croissance de la classe "médiane" mondiale et une accentuation de la polarisation dans le monde. »

Branko Milanovic, « What is happening with global inequality? », in globalinequality (blog), 12 novembre. Traduit par Martin Anota

samedi 10 novembre 2018

Que diable s’est-il passé au Brésil ?

« (…) Voilà ce que j’en pense : le Brésil semble avoir été frappé par une tempête parfaite de malchance et de mauvaise politique économique, avec trois aspects clés. Premièrement, l’environnement mondial s’est brutalement détérioré, avec une chute des prix pour les matières premières exportées, alors que ces dernières sont toujours cruciales pour l’économie brésilienne. Deuxièmement, les dépenses privées domestiques ont aussi plongé, peut-être en raison d’une accumulation excessive de dette. Troisièmement, la politique économique, au lieu de combattre le ralentissement de l’activité, l’a exacerbé, avec de l’austérité budgétaire et un resserrement monétaire alors même que l’économie vacillait.

Peut-être la première chose à dire à propos de la crise brésilienne est de dire ce qu’elle n’est pas. Au cours des dernières décennies, ceux qui suivent la macroéconomie internationale ont eu l’habitude d’entendre parler de crises d’"arrêt soudain" (sudden stop) dans les flux de capitaux, crises au cours desquelles les investisseurs se détournent abruptement d’un pays sur lequel ils avaient porté leur dévolu. C’est l’histoire de la crise mexicaine de 1994-1995, de la crise asiatique de 1997-1999 et de la crise de l’Europe du sud après 2009. C’est aussi ce que nous semblons voir aujourd’hui en Turquie et en Argentine.

Nous savons comment se poursuit cette histoire : le pays affligé voit son taux de change baisser (ou, dans le cas des pays de la zone euro, ses taux d’intérêt augmenter). Une dépréciation de devise ordinaire stimule l’économie, en rendant ses produits plus compétitifs sur les marchés mondiaux. Mais les pays qui connaissent un arrêt soudain se sont souvent fortement endettés en devises étrangères, si bien que la dépréciation de la devise détériore le bilan de ses résidents, provoquant une chute sévère de la demande domestique. Et les responsables de la politique économique ont bien peu de bonnes options : accroître les taux d’intérêt pour soutenir la devise va davantage détériorer la demande intérieure.

Mais alors que vous pourriez penser que le Brésil était dans une situation similaire (la chute de 9 % du PIB réel par tête est comparable à celle que l’on a observée par le passé lors des épisodes d’arrêts soudains), il s’avère que ce n’est pas le cas. En fait, le Brésil ne s’est pas vraiment endetté en devises étrangères et que les effets de devise sur les bilans ne semblent pas jouer un grand rôle dans l’histoire. Que s’est-il alors passé ?

Tout d’abord, l’environnement économique mondial s’est grandement dégradé. Le Brésil s’est quelque peu diversifié dans les activités industrielles, mais il est toujours très dépendant des exportations de matières premières, celles dont les prix ont chuté. Comme le graphique 1 le montre, les termes de l’échange du Brésil (le ratio rapportant les prix à l’exportation sur les prix de l’importation) se sont fortement détériorés.

GRAPHIQUE 1 Termes de l’échange du Brésil

Paul_Krugman__Bresil_termes_de_l__echange.png

Cela aurait été dommageable dans tous les cas, mais cette détérioration est allée de paire avec une chute brutale de la consommation domestique (cf. graphique 2). Atif Mian et ses coauteurs nous disent que c’est lié à une hausse de la dette des ménages au cours des années précédentes ; le Brésil a connu quelque chose qui ressemble davantage à la déflation par la dette que les pays développés ont connue en 2008 qu’une crise traditionnelle des pays émergents.

GRAPHIQUE 2 Croissance des dépenses de consommation publique et privée au Brésil (en %)

Paul_Krugman__Bresil_consommation_privee_publique.png

Cependant, ce qui a vraiment fait du mal au Brésil, c’est la façon par laquelle il a répondu à ces chocs : les politiques budgétaire et monétaire ont aggravé les choses.

Du côté budgétaire : Le Brésil connaît des problèmes de solvabilité de long terme. Mais ces derniers nécessitent des solutions de long terme. Ce qui s’est passé, c’est que le gouvernement de Roussef a décidé de fortement réduire les dépenses publiques au milieu de la contraction. Que pensaient-ils ? Il semble qu’ils se soient laissés convaincre par la doctrine de l’austérité expansionniste.

Et pour couronner le tout, la politique monétaire a été brutalement resserrée, avec une forte hausse des taux d’intérêt (cf. graphique 3). Que s’est-il passé ?

GRAPHIQUE 3 Taux d’intérêt sur les bons du Trésor brésiliens

Paul_Krugman__Bresil_taux_d__interet_bons_du_Tresor.png

Selon moi, le taux de change s’est déprécié en raison de la dégradation des termes de l’échange, envoyant l’inflation temporairement plus élevée (cf. graphique 4). Et la banque centrale a paniqué, se focalisant sur le problème de l’inflation au détriment de l’économie réelle. Maintenant que la hausse des prix provoquée par l’appréciation de la devise est finie, l’inflation est désormais faible au regard de ses valeurs passées, mais le mal est fait.

GRAPHIQUE 4 Taux de change effectif du réal brésilien et indice des prix à la consommation du Brésil

Paul_Krugman__Bresil_inflation_taux_de_change.png

C’est une histoire spectaculaire et déprimante. Et cette combinaison de malchance et de mauvaise politique économique a sûrement joué un rôle dans le désastre politique qui suivit. »

Paul Krugman, « What the Hell Happened to Brazil? », 9 novembre 2018. Traduit par Martin Anota

samedi 3 novembre 2018

La perversion de la politique budgétaire américaine

« Comment beaucoup l’ont souligné, la baisse d’impôt de Trump a constitué un véritable changement par rapport aux principes normaux de politique budgétaire. Historiquement, l’économie américaine a eu tendance à connaître de gros déficits budgétaires lorsqu’elle était déprimée et de plus petits déficits, voire des excédents, lorsqu’elle était forte. Mais aujourd’hui le déficit explose alors même que le chômage est faible. C’est irresponsable et démontre que les grands discours des Républicains sur les déficits n’ont toujours été que du vent (…)

Mais ce qui a été moins souligné, c’est que cela s’inscrit dans quelque chose de plus large : la politique budgétaire déraille depuis 2010, non pas au vu de ce qui se passe du côté de la dette nationale, mais au vu de ce qui se passe sur le plan macroéconomique.

Voici ce que la politique budgétaire doit faire : elle doit soutenir la demande globale lorsque l’économie est faible et elle doit retirer ce soutien lorsque l’économie est robuste. Comme John Maynard Keynes le disait, "l’expansion, et non la récession, est le bon moment pour l’austérité". Et jusqu’à l’année 2010, les Etats-Unis ont plus ou moins suivi cette prescription. Depuis lors, cependant, la politique budgétaire est devenue perverse : d’abord l’austérité malgré le chômage élevé, maintenant l’expansion budgétaire malgré le faible chômage.

J’illustre ce point avec un graphique utilisant l’indicateur d’impact budgétaire calculé par le Hutchins Center de la Brookings Institution, qui estime quelle part de la croissance économique à court terme s’explique par la politique budgétaire à tous les niveaux du gouvernement. Le graphique représente l’indicateur de Hutchins et le taux d’intérêt depuis 2000 ; je fais apparaître deux périodes, une première allant de 2000 à fin 2009 et une seconde allant de 2010 jusqu’à aujourd’hui.

GRAPHIQUE Taux de chômage et orientation de la politique budgétaire aux Etats-Unis

Paul_Krugman__Etats-Unis_taux_chomage_politique_budgetaire.png

Ce que vous pouvez voir sur le graphique, c’est qu’au cours de la première période (ligne bleue) une expansion budgétaire était synchrone avec un chômage élevé. C’était le cas lors de la récession de 2001 et à nouveau lorsque la Grande Récession éclata. De ce point de vue, la relance Obama était une politique normale, appliquée dans une situation exceptionnelle.

Mais ensuite, la politique budgétaire a déraillé, comme vous pouvez le voir avec la boucle de couleur rouge allant dans le sens horaire. La mauvaise orientation, selon cet indicateur, commença en fait avant que les Républicains ne prennent possession de la Chambre des Représentants en raison, selon moi, des coupes dans dépenses publiques au niveau des Etats et au niveau local. Mais cela s’est aggravé lorsque le parti républicain reçut le pouvoir de blocage, forçant l’adoption d’une austérité significative même lorsque le chômage était extrêmement élevé.

Parallèlement, la Fed ne pouvait davantage réduire ses taux d’intérêt, parce qu’ils étaient déjà à zéro et comptez-moi parmi ceux qui doutent de l’efficacité de l’assouplissement quantitatif (auquel les Républicains se sont férocement opposés). Donc cette adoption de l’austérité budgétaire a sûrement freiné la croissance économique et retardé la reprise de l’économie.

Et maintenant, avec un chômage très faible, mais un Républicain à la Maison Blanche, nous avons la relance budgétaire dont nous avions désespérément besoin et dont nous n’avons plus besoin. La politique budgétaire, comme l’ensemble de la gouvernance aux Etats-Unis, a été pervertie par la droite. »

Paul Krugman, « The perversion of fiscal policy », 2 novembre 2018. Traduit par Martin Anota

vendredi 26 octobre 2018

Quelques remarques sur la convergence mondiale

« (…) J’ai lu deux choses ces derniers jours qui m’ont amené à réfléchir à propos de la plus grande histoire économique de tous les temps : l’ascension énorme de quelques nations autrement extrêmement pauvres et le déplacement concomitant du centre de gravité de l’économie mondiale en-dehors de l’Occident.

La première a été le nouvel article de Patel, Sandefur et Subramanian montrant que la convergence mondiale en termes de PIB par tête, qui avait été pendant si longtemps absente des données, est devenue bien plus prononcée depuis 1990, avec la croissance très rapide dans les pays à revenu intermédiaire. L’autre chose a été un tweet de (…) Branko Milanovic, soulignant que la convergence parmi les économies occidentales semble à l’arrêt. Selon moi, ces observations font partie de la même histoire. Commençons avec l’observation de Milanovic.

Une manière de faire sens de cette observation est de considérer que l’Occident a déjà achevé sa convergence, en termes de technologie et de productivité. Les différences restantes en termes de PIB par tête reflètent principalement des choix sociaux différents, par exemple avec la durée des vacances et l’âge de départ à la retraite et il n’y a pas de raisons de croire que ces différences vont s’estomper.

Je ne vais pas réaliser une analyse statistique complète, mais me contenter de donner l’exemple de la France par rapport aux Etats-Unis. Le graphique 1 montre la productivité française (c’est-à-dire le PIB réel par tête par heure travaillée) relativement à celle des Etats-Unis et le PIB réel par tête. Ce que vous voyez, c’est que la productivité française a rejoint celle des Etats-Unis pendant plusieurs années. (Elle a en fait été plus élevée pendant un moment, mais cela a certainement résulté d’un effet de composition reflétant une main-d’œuvre plus âgée) Le PIB réel par tête français a cependant baissé par rapport à celui des Etats-Unis. Pourquoi ?

GRAPHIQUE 1 Productivité et PIB par tête de la France relativement à ceux des Etats-Unis

Paul_Krugman__France_Etats-Unis_productivite_PIB_par_tete.png


C’est en partie parce que moins de personnes travaillent (pas des adultes d’âge intermédiaire, qui sont plus souvent employés en France, mais principalement les pré-seniors, ceux qui ont entre 55 et 65 ans, encouragés à prendre leur retraite en raison d’un système de retraite plus généreux. Surtout, les Français prennent des vacances, ce que les Américains ne font pas (ils n’y ont souvent pas le droit.) Donc ce sont juste des choix différents. Et alors que la France a davantage besoin de réformer son système de retraite (elle l’a déjà bien réformé), il est loin d’être manifeste que les choix des Français soient plus mauvais que les choix des Américains. Selon plusieurs indicateurs en matière de qualité de vie, comme l’espérance de vie (cf. graphique 2), les Etats-Unis réalisent de moins bonnes performances.

GRAPHIQUE 2 Espérance de vie en France et aux Etats-Unis

Paul_Krugman__France_Etats-Unis_esperance_de_vie.png

La fin de la convergence occidentale, alors, n’est pas le signe d’une quelconque panne. De plus, l’occurrence d’une convergence rapide des pays émergents est avant tout le récit d’un succès.

Quand j’étais sur les bancs de l’université dans les années soixante-dix, je pensais que je devais me lancer dans l’économie du développement (parce qu’il s’agissait clairement du sujet le plus important), mais je ne l’ai pas fait, parce que c’était trop déprimant. A cette époque, il s’agissait essentiellement d’une économie de non-développement, où l’on se demandait pourquoi les pays du tiers-monde semblaient condamnés à rester en retard par rapport à l’Occident. Certes nous avions observé un décollage de plus petites économies d’Asie de l’Est, mais peu de monde pensait qu’une telle tendance se diffuserait à la Chine et à l’Inde.

Ensuite, quelque chose s’est produit. Nous ne savons toujours pas exactement quoi. Il s’agit probablement de quelque chose qui a à voir avec l’hypermondialisation, l’essor sans précédents du commerce international qui a été rendu possible par le morcellement des chaînes de valeur et la délocalisation de tâches de production dans les pays à faibles salaires. Mais nous n’en sommes pas vraiment sûrs.

Une chose est claire : à n’importe quel moment, tous les pays ne bénéficient pas de "Ça", ce qui ne leur permet pas d’utiliser efficacement le répertoire de technologies avancées qui ont été développées depuis la Révolution industrielle. Au cours du temps, cependant, l’ensemble de pays qui bénéficient de Ça semble augmenter. Une fois qu’un pays acquiert Ça, la croissance peut être rapide, précisément parce que la meilleure pratique est bien en avance par rapport au point de départ du pays. Et parce que la frontière continue d’avancer, les pays qui obtiennent Ça continuent de croître plus rapidement. La croissance d’après-guerre du Japon a été bien plus rapide que celle des pays qui rattrapaient la Grande-Bretagne à la fin du dix-neuvième siècle ; la croissance de la Corée du Sud à partir du milieu des années soixante a été plus rapide que le rattrapage du Japon ; et la croissance de la Chine encore plus rapide.

Cette théorie explique aussi la relation en forme de U que Subramanian et ses coauteurs ont constaté entre le PIB par tête et la croissance, dans laquelle les pays à revenu intermédiaire croissent plus vite que les pays pauvres ou riches. Les pays qui sont toujours très pauvres sont les pays qui n’ont pas bénéficié de Ça. Les pays qui sont déjà riches sont déjà à la frontière technologique, ce qui réduit la marge pour une croissance rapide. Entre eux, il y a des pays qui ont bénéficié de Ça il n’y a pas si longtemps, ce qui leur a permis d’avoir le statut de pays à revenu intermédiaire, mais aussi de croître très rapidement en se déplaçant vers la frontière.

Il en résulte un monde où les inégalités dans les pays déclinent si vous regardez du milieu vers le haut, mais où les inégalités se creusent si vous regardez du milieu vers le bas. Fondamentalement, cependant, c’est l’histoire d’une réduction de l’exceptionnalisme occidental, comme le club des pays qui peuvent tirer avantage des technologies modernes s’élargit. Oh, et le creusement des inégalités dans les pays occidentaux signifie que si vous regardez la distribution mondiale des revenus des ménages, vous obtenez le graphique de l’éléphant de Branko Milanovic.

Ce n’est pas une histoire entièrement joyeuse. Cette concentration du revenu et du patrimoine au sommet de la distribution est inquiétante, pas simplement sur le plan économique, mais également en raison de ses répercussions politiques et sociales. C’est l’une des raisons pour lesquelles la situation de la démocratie américaine est bien inquiétante. Et il y a toujours des centaines de millions de personnes dans la misère. Mais il y a aussi beaucoup de bonnes nouvelles dans l’histoire. (…) »

Paul Krugman, « Notes on global convergence », 20 octobre 2018. Traduit par Martin Anota

dimanche 21 octobre 2018

Comment la gauche a cessé d’être un parti pour les classes laborieuses

« (…) Thomas Piketty (…) a observé quelles caractéristiques influencent l’orientation partisane (gauche versus droite) en France, au Royaume-Uni et aux Etats-Unis depuis la Seconde Guerre mondiale. (…) Voici un graphique qui montre qu’après la Seconde Guerre mondiale les électeurs qualifiés ont eu tendance à voter à droite, tandis qu’ils tendent maintenant à voter à gauche (et ce, même après avoir contrôlé le revenu, l’âge, etc.).

GRAPHIQUE Ecart entre la part des 10 % des électeurs les plus qualifiés votant à gauche et la part des autres électeurs votant à gauche (en points de pourcentage)

Thomas_Piketty__vote_gauche_qualifies_eduques.png

source : Piketty (2018)

Dans chacun des trois pays, le nombre d’électeurs qualifiés a augmenté, ce qui traduit en partie le besoin de travailleurs plus qualifiés.

A l’inverse (et si nous excluons les plus récentes élections qui se sont tenues en France et aux Etats-Unis), le profil des électorats en termes de revenu n’a pas beaucoup changé au cours du temps : les électeurs les plus pauvres sont davantage susceptibles de voter à gauche que les plus riches, en particulier si nous contrôlons le niveau d’éducation, même si les plus pauvres sont de moins en moins susceptibles de voter. Donc le changement dans les comportements électoraux parmi les électeurs qualifiés exige une explication et a de fascinantes implications.

Malheureusement, l’étude ne se penche pas sur cette question, mais elle suggère qu’une partie de l’explication pourrait tenir au fait que des électeurs plus qualifiés tendent à avoir des attitudes plus progressives (liberal) en général et des attitudes plus progressives en matière de migration en particulier (…). La corrélation positive entre la libéralisation sociale et le niveau d’éducation est bien documenté (…), tout comme on a pu l’observer lors du référendum du Brexit.

Je pense qu’il y a d’autres facteurs aussi. Il y a plusieurs raisons susceptibles d’expliquer pourquoi les intérêts du capital humain (comme l’appellent les économistes) sont différents des intérêts des entreprises ou du capital financier, ou de ceux qui n’ont pas du tout de capital. Par exemple, un système éducatif plus méritocratique leur convient mieux que celui où le revenu achète l’éducation, donc ils sont plus susceptibles de soutenir une éducation publique (ou d’en faire partie). Ils vont aussi être davantage susceptibles de consommer la culture subventionnée par l’Etat. Plus généralement, il peut y avoir une volonté de casser les réseaux de classes traditionnels et de les remplacer par des structures plus méritocratiques. D’un autre côté, parce que le capital humain génère un revenu, ils vont moins désirer de redistribution fiscale que les travailleurs. Tout cela crée ce que certains peuvent appeler un "clivage" d’éducation.

Les implications pour les partis de gauche sont que les militants ont de plus en plus été issus des classes moyennes éduquées plutôt que des classes laborieuses et cela a graduellement changé la structure, les programmes et les dirigeants des partis de gauche. Avec le déclin des syndicats, cela a eu pour contrepartie une moindre représentation des classes laborieuses. Piketty décrit cela comme l’émergence de l’élite de la "gauche brahmane" (Brahmin Left), qui peut être comparée à l’élite "marchande" (Merchant) à droite.

Une conséquence pourrait être que l’élite politique dans son ensemble s’intéresse moins aux politiques redistributives qui favorisaient par le passé les travailleurs et contribuaient à la réduction des inégalités de patrimoine que l’on a observée avant les années quatre-vingt et que Piketty a bien documentée ailleurs. Cela a permis à la droite de capturer plus facilement des pans de l’électorat des travailleurs, en particulier quand ces électeurs ont des idées socialement conservatrices. (…)

Il y a quelque chose de moins pessimiste. Comme les partis de droite se sont de plus en plus appuyés sur des politiques conservatrices, autoritaires et anti-minorités pour accroître leur électorat, les partis de gauche trouvent que cela, avec la protection de la richesse et du revenu, constitue une coalition imbattable pour leurs opposants. (Peut-être que cela explique le déclin de si nombreux partis de centre-gauche en Europe). La seule façon de battre cette coalition est de redécouvrir les politiques économiques qui ont aidé les classes laborieuses.

Cette longue étude a d’autres résultats importants. En France, comme au Royaume-Uni, les attitudes publiques ont présenté une moindre hostilité vis-à-vis de l’immigration au cours du temps. Elle note aussi que le tournant socialement conservateur de la droite a contribué à soutenir une loyauté presque totale à la gauche des musulmans au Royaume-Uni et en France et des noirs aux Etats-Unis. (…)

Piketty note que la domination de la gauche parmi les jeunes au Royaume-Uni en 2017, une domination sans précédents au Royaume-Uni, est plus forte qu’elle ne l’a jamais été en France et aux Etats-Unis. Cela peut résultat d’une tendance observée depuis 1997 mais aussi du référendum du Brexit, au cours duquel les vieux ont finalement privé les jeunes d’opportunités. »

Simon Wren-Lewis, « How the left stopped being a party of the working class », in Mainly Macro (blog), 6 octrobre 2018. Traduit par Martin Anota

jeudi 18 octobre 2018

La croissance et l’environnement au menu du prix Nobel d’économie 2018

« Le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel a été attribué cette année à William Nordhaus et à Paul Romer pour avoir intégré le changement climatique et l’innovation technologique à l’analyse macroéconomie de long terme. Nous passons en revue les réactions de plusieurs économistes à cette annonce.

Sur VoxEU, Kevin Bryan a évoqué comment les lauréats du prix Nobel d’économie de cette année ont élaboré leurs contributions et comment ces dernières sont liées entre elles. Cela faisait plusieurs années que l’on s’attendait à ce que Nordhaus et Romer reçoivent cette récompense, mais c’est le fait qu’ils l’aient reçue en même temps qui a surpris : Nordhaus est surtout connu pour ses travaux en économie environnementale et Romer pour sa théorie de la croissance endogène. Mais après réflexion, les liens entre leurs travaux apparaissent évidents.

Avec Romer, nous avons un modèle d’équilibre général pour réfléchir aux raisons pour lesquelles les gens produisent de nouvelles technologies. La connexion avec Nordhaus se fait avec un problème qui est à la fois provoqué et résolu par la croissance. La croissance en tant qu’objectif de politique économique n’était pas remise en cause dans les années soixante, mais au début des années soixante-dix les inquiétudes environnementales font leur apparition. Les « modèles d’évaluation intégrés » ont de l’épargne endogène à la Solow et précisent l’arbitrage entre croissance économique et changement climatique, mais met aussi en évidence l’importance critique du taux d’escompte social et des micro-estimations du coût d’ajustement au changement climatique. (…)

Martin Sandbu affirme qu’au cours de notre existence, les changements technologique et environnemental ont transformé la façon par laquelle nos économies fonctionnent. La prochaine fois que nous nous émerveillerons à propos de notre application de smartphone favorite ou que nous nous inquiéterons de la plus grande fréquence des intempéries, affirme Sandbu, nous devrons avoir une pensée pour Romer et Nordhaus. Grâce à eux, nous sommes mieux armés pour trouver les bonnes politiques pour traiter avec la question de l’innovation ou du changement climatique. Ils méritent leur prix.

Peter Dorman a voulu parler d’une personne qui n’a pas reçu le prix Nobel et dont l’absence de consécration est lourde de signification. Nordhaus a passé plusieurs années à débattre avec Martin Weitzman, qui rejetait l’approche en termes de coût social du carbone au motif qu’une bonne politique doit se baser sur le principe d’assurance visant à éviter le pire scénario. Son "théorème lugubre" démontre que, sous certaines hypothèses, la probabilité d’événements extrêmes ne baisse pas aussi rapidement que s’élève de catastrophe augmente, si bien que leur coût attend s’accroît sans limite ; et cela s’applique aux scénarii du changement climatique.

Les travaux de Weitzman sont souvent invoqués par ceux qui croient qu’une action plus agressive est nécessaire pour limiter le réchauffement climatique. Par conséquent, quand les économistes spéculaient sur l’identité du prochain lauréat du prix Nobel et considéraient l’hypothèse d’une attribution de la récompense à Nordhaus, ils pensaient que Weitzman serait son colistier. Selon Dormans, le combo Nordhaus-Romer est si artificiel et si peu convaincant qu’il est difficile de penser que le prix qui n’a pas été attribué à Weitzman est aussi important que celui qui a été attribué à Nordhaus et qu’il s’agit clairement d’un message politique sur la bonne façon de gérer le changement climatique et la mauvaise façon de gérer le changement climatique.

Timothy Terrell n’est pas du même avis. Il pense que le comité Nobel a promu la réglementation environnementale avec son dernier choix. Les deux lauréats appellent à un plus grand rôle pour l’Etat : Romer lorsqu’il suggère que le gouvernement doit investir dans la recherche-développement et utiliser la réglementation des brevets pour stimuler la croissance économique ; Nordhaus lorsqu’il indique que le gouvernement doit agir pour empêcher un changement climatique pernicieux. (…)

David Warsh affirme que Nordhaus et Romer ont beau avoir travaillé sur des problèmes apparemment différents et n’ont que rarement été cités ensemble, leurs travaux se combinent pour donner lieu à un argument convaincant. En s’efforçant de modéliser le plus finement possible l’interaction entre la présence de carbone dans l’atmosphère, le changement climatique et la croissance économique, Nordhaus a rendu possible l’estimation des dommages provoqués par la hausse des températures. Une taxe carbone (que Nordhaus et bien d’autres économistes considèrent comme préférable au système de marchés de droits à polluer comme celui de l’Accord de Paris) peut empêcher les dommages les plus sérieux : elle doit tout d’abord être fixée à un faible niveau pour ensuite augmenter et ce tant qu’il le faut pour contenir les dommages. Romer, de son côté, a créé un cadre analytique dans lequel l’anticipation d’une telle taxe conduit à une vague d’innovations qui permettraient de réduire les émissions de carbone. (…)

Noah Smith écrit que, en plus d’honorer deux chercheurs dont les contributions ont profondément influencé leur champ respectif, la récompense fait écho à quelque chose dont le monde commence à manquer, en l’occurrence la croissance économique. Dans la mesure où la croissance ralentit et où la productivité stagne dans le monde riche, les intuitions de Romer sont plus importantes que jamais. »

Silvia Merler, « The 2018 Nobel prize: Growth and the environment », in Bruegel (blog), 15 octobre 2018. Traduit par Martin Anota



aller plus loin... lire le résumé des travaux de Nordhaus et Romer par l'Académie des sciences de Suède et la synthèse d'Alexandre Delaigue

lundi 8 octobre 2018

Innovation, croissance et changement climatique. Petit résumé des travaux de Nordhaus et Romer

« Le prix en sciences économiques de cette année récompense la conception de méthodes qui contribuent à répondre à certains enjeux les plus fondamentaux et pressants de notre époque : la croissance soutenable à long terme de l’économie mondiale et du bien-être de la population mondiale.

L’étude de la façon par laquelle l’humanité gère des ressources limitées est au cœur de la science économique et, depuis sa constitution comme science, l’économie a reconnu que les plus importantes contraintes sur les ressources concernent la Nature et le savoir. La Nature dicte les conditions dans lesquelles nous vivons et le savoir définit notre capacité à gérer ces conditions. Cependant, malgré leur rôle central, les économistes n’ont généralement pas étudié comment la Nature et le savoir sont affectés par les marchés et les comportements économiques. Les lauréats de cette année, Paul M. Romer et William D. Nordhaus, ont élargi le champ de l’analyse économique en concevant des outils qui nous permettent d’examiner comment l’économie de marché influence à long terme la Nature et le savoir.

Le savoir. Pendant plus d’un siècle, l’économie mondiale a crû à un rythme remarquable et assez régulier. Quand quelques pourcents de croissance économique par an s’accumulent sur plusieurs décennies, voire plusieurs siècles, cela bouleverse vraiment la vie des gens. Cependant, la croissance a progressé bien plus lentement durant l’essentiel de l’histoire humaine. Elle varie aussi d’un pays à l’autre. Donc, qu’est-ce qui explique pourquoi la croissance survient à un tel moment et à tel endroit ? La réponse qu’avancent habituellement les économistes est le progrès technique, à travers lequel des volumes croissants de savoirs sont incarnés dans les technologies créées par des inventeurs, des ingénieurs et des scientifiques. Au début des années quatre-vingt, quand il était un étudiant en doctorat à l’Université de Chicago, Paul Romer a commencé à développer la théorie de la croissance endogène, où les avancées technologiques ne proviennent pas simplement de sources externes – exogènes -, comme le supposaient jusqu’alors les modèles économiques. En fait, elles sont créées par des activités marchandes. Les constats de Romer nous permettent de mieux comprendre quelles sont les conditions de marché qui favorisent la création de nouvelles idées pour des technologies rentables. Ses travaux nous aident à concevoir des institutions et des politiques qui peuvent améliorer la prospérité humaine en instaurant les bonnes conditions pour le développement technologique.

La Nature. William Nordhaus a commencé ses travaux dans les années soixante-dix, après que les scientifiques aient commencé à se préoccuper à l’idée que la combustion des énergies fossiles puisse entraîner un réchauffement climatique et des effets pernicieux d’un tel changement climatique. Nordhaus s’est donné la tâche immense d’examiner les liens de causalité bidirectionnels entre l’activité humaine et le climat, en combinant théories fondamentales et résultats empiriques tirés de la physique, de la chimie et de l’économie. Il n’a donc pas simplement considéré la Nature comme une contrainte sur l’activité humaine, mais il a également pris en compte le fait que la première soit en retour grandement influencée par cette dernière. Nordhaus est la première personne à concevoir des modèles simples, mais dynamiques et quantitatifs, du système économique-climatique mondial, désormais appelés "modèles intégrés d’évaluation" (integrated assessment models, IAM). Ses outils nous permettent de simuler comment l’économie et le climat évolueront dans le futur selon des hypothèses alternatives à propos des fonctionnements de la Nature et de l’économie de marché, notamment à propos des politiques mises en œuvre. Ses modèles apportent des réponses à des questions à propos de la désirabilité de différents scénarii mondiaux et différentes interventions politiques.

Les imperfections dans le marché mondial. Les deux lauréats ont mis en lumière les effets de débordement (spillover effects) dans la société, c’est-à-dire les conséquences sur autrui qui ne sont pas prises en compte par les individus, notamment les innovateurs et les pollueurs. Toute idée de nouvelle technologie, qu’importe là où elle apparaît, peut être utilisée pour la production de nouveaux biens et de nouvelles idées ailleurs, aujourd’hui ou dans le futur. De même, l’émission d’une unité supplémentaire de carbone se diffuse rapidement dans l’atmosphère et contribue au changement climatique, affectant toute l’humanité aujourd’hui et dans le futur. Les économistes parlent d’"externalités" pour qualifier ces effets de débordement. Les externalités étudiées par Romer et Nordhaus ont une portée mondiale et des conséquences à long terme. Comme les marchés non régulés vont générer des conséquences inefficaces en présence de telles externalités, le travail de Romer et de Nordhaus fournit des arguments convaincants pour l’intervention publique.

L’innovation technologique


Motivation. Les différences de long terme dans les taux de croissance ont d’énormes conséquences. Si deux économies commencent avec le même PIB par tête, mais que l’une d’entre elles croît à un rythme annuel supérieur de 4 points de pourcentage à la seconde, alors elle sera presque cinq fois plus riche que la seconde au bout de 40 ans. Un modeste écart de croissance de 2 points de pourcentage permet à la première économie d’être deux fois plus riche que la seconde au bout de 40 ans.

A la fin des années quatre-vingt, Romer a constaté que les taux de croissance du revenu dans les données observées variaient grandement d’une économie à l’autre. Le graphique 1, basé sur l’un des articles de Romer, représente le revenu par tête en 1960 et la croissance moyenne pour les 25 années suivantes pour plus de 100 pays ; un graphique avec des données actualisées lui ressemblerait fortement. Chaque carré représente un pays. Comme le graphique le montre, les écarts de taux de croissance typiques entre des pays s’élevaient à plusieurs points de pourcentage et il y a un grand écart (autour de 10 points de pourcentage) entre les pays ayant la plus forte croissance et les pays ayant la plus faible croissance. De plus, le graphique ne montre pas de relation systématique entre le revenu initial et la croissance : certains pays pauvres croissent rapidement, tandis que d’autres décroissent. Romer en conclut qu’il était crucial de comprendre les causes de tels écarts persistants et significatifs entre les taux de croissance et il commença à rechercher une explication.

GRAPHIQUE Revenu par tête (relativement à celui des Etats-Unis) et croissance annuelle subséquente du revenu par tête

Paul_Romer__revenu_par_tete_1960_croissance_1960_1985.png
source : Romer (1987)

Des zones d’ombre empiriques et théoriques. Comme Romer l’a noté, la théorie de la croissance qui dominait à l’époque (le modèle de croissance de Solow, qui fut couronnée par le prix Nobel de sciences économiques en 1987) pouvait expliquer plusieurs aspects de la croissance économique, mais pas des écarts amples et durables dans les taux de croissance entre les pays. Le modèle de Solow prédit que les pays les plus pauvres devraient croître plus rapidement les pays riches et rattraper ces derniers assez rapidement, ce qui n’est pas ce que suggère le graphique 1. Dans ce modèle, une économie peut croître en accumulant du capital physique, par exemple des machines ou des infrastructures, mais la croissance tirée par le capital peut s’essouffler à long terme ; pour toute technologie donnée, tout supplément de capital accroît de moins en moins la production. Pour qu’il y ait une croissance durable à long terme (et des écarts de croissance) dans le modèle, l’hypothèse était que les travailleurs deviennent de plus en plus productifs grâce aux avancées technologiques, bien qu’à des rythmes différents d’un pays à l’autre. Par conséquent, le modèle de Solow n’explique pas ces tendances, parce que les changements technologiques n’y arrivent que de façon exogène, depuis une "boîte noire".

L’une des percées majeures de Romer est d’avoir ouvert cette boîte noire et d’avoir montré comment les idées pour les nouveaux biens et services (produits par de nouvelles technologies) peuvent être créées dans l’économie de marché. Il a aussi montré comment un tel changement technologique endogène peut influencer la croissance économique et quelles politiques sont nécessaires pour que ce processus fonctionne bien. Les contributions de Romer ont eu un énorme impact dans le champ de la science économique. Ses explications théoriques ont posé les fondations pour la recherche sur la croissance endogène et les débats suscités par ses comparaisons internationales de croissance ont ouvert la voie à de nouvelles et prometteuses recherches empiriques.

Qu’y a-t-il de spécial à propos de la croissance tirée par les idées ? Pour répondre à cette question, nous devons comprendre comment les idées diffèrent des biens comme le capital physique ou du capital humain. Romer nous apprend à considérer les biens en utilisant deux dimensions (…). Dans la première dimension, le capital physique et le capital humain sont des biens rivaux. Si une machine ou un ingénieur formé sont utilisés dans une usine, cette machine ou cet ingénieur ne peuvent être utilisés simultanément dans une autre usine. Par contre, les idées sont des biens non rivaux : une personne ou une entreprise utilisant une idée n’empêchent pas les autres de l’utiliser également.

Dans la seconde dimension, ces biens peuvent être excluables (ou exclusifs) si les institutions ou régulations permettent d’empêcher quelqu’un de les utiliser. Pour certaines idées, telles que les résultats tirés de la recherche fondamentale, c’est difficile, voire impossible : pensez à des outils mathématiques comme le théorème de Pythagore. Pour d’autres idées, cependant, les utilisateurs peuvent être exclus via des mesures techniques (telles que le cryptage) ou la réglementation des brevets. L’un des articles de Romer a montré comment la rivalité et l’excluabilité des idées déterminaient la croissance économique.

Romer croyait qu’un modèle de marché pour la création d’idées devait prendre en compte le fait que la production de nouveaux biens (qui se base sur les idées) puisse avoir des coûts déclinant rapidement : la première ébauche a un énorme coût fixe, mais la réplication a de faibles coûts marginaux. Une telle structure des coûts implique que les entreprises doivent avoir une marge, c’est-à-dire fixer le prix au-dessus du coût marginal, de façon à ce qu’elles puissent récupérer le coût fixe initial. Les entreprises doivent donc avoir un certain pouvoir de monopole, ce qui n’est possible que pour des idées suffisamment excluables. Romer a aussi montré que la croissance tirée par l’accumulation d’idées, à la différence de la croissance tirée par l’accumulation de capital physique, ne présente pas forcément de rendements décroissants. En d’autres termes, la croissance tirée par les idées peut rester soutenue à long terme.

Les imperfections de marché et la politique économique. En principe, le nouveau savoir créé par une recherche-développement fructueuse peut profiter aux entrepreneurs et aux innovateurs partout dans le monde, maintenant et dans le futur. Cependant, les marchés ne récompensent en général pas totalement les créateurs de nouveaux savoirs pour tous les bénéfices de leurs innovations, ce qui signifie que (aussi longtemps que le nouveau savoir est socialement bénéfique), il y aura trop peu de recherche-développement. De plus, comme les incitations de marché pour la recherche-développement prennent la forme de profits de monopole, il n’y aura typiquement pas de provision adéquate de nouvelles idées une fois qu’elles auront été inventées. La recherche subséquente a montré comment les résultats de marché peuvent aussi entraîner trop de recherche-développement : soit lorsque les nouvelles idées conduisent à l’éviction de trop nombreuses entreprises existantes lors du processus de destruction créatrice, soit lorsque les nouvelles idées augmentent les technologies socialement néfastes, par exemple en permettant une extraction ou un usage excessifs de carburants fossiles, ce qui nuit au climat.

Pour résumer, Romer a montré que des marchés non régulés vont générer un changement technologique, mais qu’ils tendent à ne pas fournir assez de recherche-développement, donc pas assez de nouveaux biens. Pour répondre à cette insuffisance, il faut des interventions publiques bien conçues, comme les subventions à la recherche-développement et la réglementation des brevets. Son analyse dit que de telles politiques sont vitales pour la croissance à long terme, pas simplement dans un pays, mais au niveau mondial. Elle fournit aussi un guide pour la conception des politiques : le système de brevets doit parvenir à établir un bon équilibre entre les incitations à créer de nouvelles idées (en accordant à leurs concepteurs certains droits au monopole) et la capacité des autres à les utiliser (en limitant ces droits au monopole dans le temps et dans l’espace).

Le changement climatique


L’activité humaine a contribué à une hausse rapide des températures mondiales moyennes au cours du dernier siècle. Même s’il y a une certaine ’incertitude autour de l’ampleur à laquelle cela va affecter le climat dans le futur, le consensus en sciences naturelles est que ce sera "selon toute probabilité un impact significatif".

Motivation. Dans les années soixante-dix, quand il était un jeune étudiant à l’Université de Yale, William Nordhaus a étudié en profondeur les données naissantes sur le réchauffement climatique et ses causes probables et il en conclut qu’il devait faire quelque chose. Sa crainte l’a amené à développer de nouveaux outils pour nous aider à comprendre comment l’économie peut générer un changement climatique, ainsi que les conséquences sociétales du changement climatique. Il voulait développer un cadre qui permette d’analyser le changement climatique en termes de coûts et bénéfices.

Un défi de taille. Comme Romer, Nordhaus étendit le modèle de croissance de Solow avec un important ensemble d’effets de débordement en incluant le réchauffement climatique provoqué par les émissions de carbone. Dans ce cas, les externalités en question étaient essentiellement négatives. Surtout, les mécanismes et causes du changement climatique anthropique impliquent des processus étudiés dans les sciences naturelles. Une analyse globale du changement climatique requiert donc une approche vraiment intégrée, dans laquelle la société et la Nature interagissent.

Prenant conscience de la nécessité d’une telle approche, Nordhaus est à l’origine du développement des modèles intégrés d’évaluation (integrated assessment models). (…)

Des recommandations en matière de politique. Selon les travaux de Nordhaus, le remède le plus efficace pour les problèmes provoqués par les émissions de gaz à effet de serre serait un dispositif mondial de taxes carbone qui soient imposées uniformément dans tous les pays. Cette recommandation s’appuie sur un résultat formulé dans les années soixante par un économiste britannique, Arthur Cecil Pigou, à savoir que chaque émetteur paye le coût social du dommage provoqué par ses émissions via un prix approprié. Un système mondial de droits d’émission peut parvenir au même résultat, à condition que les quotas soient fixés à un niveau suffisamment faible pour entraîner un prix du carbone suffisamment élevé.

Cependant, les modèles IAM ne fournissent pas seulement des résultats qualitatifs. Ils nous permettent de calculer des trajectoires quantitatives pour la meilleure taxe carbone et montrent comment ces trajectoires dépendent crucialement d’hypothèses à propos des paramètres : par exemple, la sensibilité de la température mondiale à la concentration de carbone dans l’atmosphère, la durée pendant laquelle celui-ci reste dans l’atmosphère et l’ampleur des dommages provoqués par le changement climatique. Une récente étude de Nordhaus offre une bonne illustration de la façon par laquelle les modèles IAM peuvent être utilisés pour analyser la politique. Il simule quatre politiques dans la dernière version de son modèle DICE en utilisant les meilleures estimations pour les paramètres du changement climatique :

GRAPHIQUE Emissions de CO2 (en gigatonnes par an) selon différents scénarii

William_Nordhaus__differents_scenarios_emissions_CO2_taxe_carbone_Stern.png

Dans le scénario n° 1, il n’y a pas de mesures de politique climatique de plus que celles déjà en place en 2015. Dans le scénario n° 2, les taxes carbone maximisent le bien-être mondial, selon des hypothèses économiques conventionnelles à propos de l’importance du bien-être des générations futures. Dans le scénario n° 3, les taxes carbone maximisent le bien-être mondial en donnant un plus grand poids au bien-être des générations futures que dans le scénario n° 2, comme le suggère The Economics of Climate Change: The Stern Review de 2007. Dans le scénario n° 4, les taxes carbone sont suffisamment élevées pour maintenir le réchauffement climatique en-deçà des 2,5°C tout en réduisant le coût en bien-être mondial.

Le graphique montre l’évolution des émissions de CO2 au cours du temps dans chacun de ces quatre scénarii. Les différentes trajectoires pour les taxes carbone signifient que les émissions (et donc l’ampleur du changement climatique) sont très différentes d’un scénario à l’autre. Dans le scénario n° 2, les taxes débutent à environ 30 dollars la tonne de CO2 et augmentent au cours du temps à peu près au même rythme que le PIB mondial. Dans les scénarii n° 3 et 4, qui simulent des réductions d’émissions plus fortes, les taxes sont six à huit fois plus importantes.

De grandes incertitudes. Dans les sciences naturelles et dans les sciences sociales, il y a des incertitudes à propos de plusieurs aspects du changement climatique. Par exemple, nous ne savons pas exactement à quel point le climat est sensible aux émissions de gaz à effet de serre ou quel est la probabilité que l’on atteigne un point tournant mondial au-delà duquel le climat échappe à tout contrôle. De même, nous ne savons pas tout à propos des dommages économiques et humains provoqués par le changement climatique et du coût de la décarbonisation.

Naturellement, les IAM développés par Nordhaus ne peuvent éliminer cette incertitude. Cependant, ses modèles peuvent analyser comment le prix approprié du carbone est affecté par différentes possibilités, par exemple une plus forte sensibilité du climat ou une plus forte probabilité d’un point tournant mondial dangereux à 2° C de réchauffement. (...) »

Académie royale des sciences de Suède, « Integrating nature and knowledge into economics », 8 octobre 2018. Traduit par Martin Anota

lundi 1 octobre 2018

L’avenir n’est plus ce qu’il était

« Lehman Brothers a fait faillite il y a deux ans et deux semaines ; mercredi prochain marque le dixième anniversaire de la promulgation du programme TARP, c’est-à-dire du renflouement. A l’occasion de cet anniversaire, il y a eu des milliers d’articles réfléchissant à la crise financière de 2008 et à ses effets. Beaucoup ont suggéré (avec raison) que les répercussions politiques continuent de façonner notre monde aujourd’hui. Mais très peu se sont focalisés sur les effets économiques à long terme.

(…) Même un rapide coup d’œil sur les données suggère que ces effets ont été énormes. Il est vrai que le chômage américain est désormais à un niveau inférieur à celui qu’il atteignait avant la crise ; même si on en a peu conscience, le chômage de la zone euro baisse, il n’est pas tout à fait revenu à son niveau d’avant-crise, mais il est bien inférieur à sa moyenne d’avant-crise. Mais dans ces deux, nous sommes revenus à une sorte de plein emploi à un niveau bien plus faible du PIB réel que les gens bien informés ne s’y attendaient avant que la crise éclate.

Bien sûr, je ne suis pas la première personne à faire cette remarque. Cela fait plusieurs années que Antonio Fatás et Larry Summers ne cessent de la marteler, tout comme Larry Ball. Mais il semble utile de rappeler à une plus grande audience que le futur n’est plus ce qu’il était, de spéculer un peu sur le comment et le pourquoi de cet assombrissement de l’avenir et de parler de ses implications pour la politique économique future.

1. De la Grande Récession à la Grande Insuffisance


Les économistes utilisent le terme de "production potentielle" pour désigner le montant maximal qu’une économie peut produire sans générer de tensions inflationnistes. Ce concept joue un rôle crucial pour la politique monétaire et un certain rôle pour la politique budgétaire également. Comme je vais l’expliquer en partie, les fondations théoriques de ce concept semblent aujourd’hui fragiles, à la lumière des événements que nous avons connus après la crise. Mais pour l’instant, notons juste que plusieurs institutions, notamment le CBO aux Etats-Unis et le FMI, ont régulièrement fourni des estimations de la production potentielle courante et des prévisions de la production potentielle future.

Pour être clair, il s’agit d’estimations tirées de modèles, pas des données observées. Certains pourraient penser que les modèles sont peut-être tous faux, que nous regardons une construction qui n’a rien à voir avec la réalité. Mais comme je l’ai dit, ces modèles sont importants pour la conduite de la politique économique. Donc, que trouvons-nous si nous comparons les prévisions de production potentielle réalisées avant la crise avec les estimations courantes ? Nous constatons une forte révision à la baisse des estimations des capacités économiques des deux côtés de l’Atlantique.

Le graphique 1 compare les prévisions du PIB réel potentiel américain sur dix ans que le CBO a réalisées en janvier 2008 avec celles qu’il propose aujourd’hui. La révision à la baisse de l’estimation est énorme : elle représente plus de 11 % en 2018. Pour le dire autrement, disons que l’économie américaine est bien en-deçà des anticipations d’avant-crise aujourd’hui qu’elle ne l’était au cœur de la Grande Récession, et ce même si nous avons connu une reprise depuis la crise.

GRAPHIQUE 1 Estimations du PIB potentiel des Etats-Unis

Paul_Krugman__CBO_Estimations_PIB_potentiel_Etats-Unis.png

source : CBO

Le graphique 2 montre des estimations comparables pour la zone euro, tirées d’Antonio Fatás. Nous voyons également une dégradation des anticipations de production potentielle, mais encore plus ample.

GRAPHIQUE 2 Estimations et prévisions du PIB et du PIB potentiel de la zone euro

Antonio_Fatas__estimations_PIB_potentiel_zone_euro.png

source : Antonio Fatás (2018)

Ce fort déclin du PIB par rapport à ce que nous nous attendions (…) est une grande histoire (appelons-la la "Grande Insuffisance") que l’on a tendance à négliger en nous focalisant sur les taux de croissance à court terme. Qu’est-ce qui pourrait l’expliquer ?

2. Trois récits


Un premier récit susceptible d’expliquer pourquoi la Grande Insuffisance a suivi la Grande Récession pourrait être le post hoc n’était pas propter hoc : le potentiel de l’économie est bien inférieur à ce que les gens il y a une décennie pensaient qu’il serait aujourd’hui, mais les causes de cette révision à la baisse de la croissance à long terme ont peut-être peu à voir avec la crise financière ; elles se sont juste produites à peu près au même moment. Les racines du ralentissement de la croissance s’expliquent peut-être par une déception technologique (il y a un nouvel iPhone, qui s’en soucie ?) ou un changement social désincitant une part croissante de la population à entrer dans la vie active (à cause des opioïdes ou des jeux vidéo, c’est au choix), c’est-à-dire des choses qui auraient lieu même s’il n’y avait pas eu de Grande Récession.

Cette histoire est en effet (même si ce n’est pas explicitement) le récit sous-jacent à la politique économique actuelle : la Fed et d’autres banques centrales, qui sont les vrais acteurs dans la politique macroéconomique dans les conditions actuelles, n’agissent pas comme si elles s’inquiétaient à l’idée qu’une future récession puisse déprimer l’économie, pas simplement à court terme, mais aussi de façon permanente. Les autorités budgétaires (…) prennent aussi la trajectoire future du potentiel économique comme donnée. (…)

Quelles sont les preuves empiriques qui vont à l’encontre de cette vue ? Les preuves les plus robustes, citées, d’une part, par Fatás et Summers et, d’autre part, par Ball, est que la taille de la Grande Insuffisance varie fortement d’un pays à l’autre et que les pays qui ont connu les plus fortes révisions à la baisse des estimations de leur potentiel économique sont précisément les pays qui ont connu les plus fortes contractions de l’activité lors de la crise économique. En effet, il y a une forte corrélation entre le déclin de la production lors de la crise et la chute du PIB potentiel à long terme.

Le graphique 3 montre le cas le plus extrême, celui de la Grèce, en comparant le PIB courant et le PIB potentiel tel qu’il est estimé par le FMI. Comme chacun le sait, la Grèce a connu une forte contraction de son activité que l’on peut qualifier de dépression. Selon le FMI, cependant, environ la moitié de cette contraction résulte d’un déclin des capacités productives, plutôt que d’une moindre utilisation de celles-ci.

GRAPHIQUE 3 PIB observé et estimations du PIB potentiel de la Grèce (en indices, avec comme base 100 le PIB de 2007)

Paul_Krugman__FMI_Grece_PIB_potentiel_estimations.png

source : FMI

Et même cela sous-estime la variation des prévisions, parce que ce n’est pas seulement l’avenir qui a changé, mais également le passé. Dans le graphique 3, il est suggéré que la Grèce a eu une économie en forte surchauffe, opérant au-dessus des niveaux soutenables, en 2007 et en 2008. Mais peu de gens ne le pensaient à l’époque. En fait, les propres estimations du FMI au début de l’année 2008 étaient qu’en 2007 la Grèce opérait seulement 2,5 % au-dessus de son potentiel, alors qu’il pense aujourd’hui qu’elle opérait cette année-là 10,7 % au-dessus de son potentiel.

Que se passe-t-il ? La méthode du FMI pour calculer le PIB potentiel interprète fondamentalement toute contraction soutenue de l’activité comme un déclin de la production potentielle (…) et cette interprétation du déclin amène à revoir les prévisions du potentiel futur et à réinterpréter le passé : s’il conclut que la production potentielle en 2010 était vraiment faible, le FMI révise aussi à la baisse ses estimations du potentiel au cours des années précédent l’année 2010. Ce qui m’amène à une deuxième explication possible de la Grande Insuffisance : peut-être qu’elle n’existe seulement que dans l’esprit et les modèles des responsables de la politique économique (ou de leurs experts techniques) et qu’elle n’est pas réelle. Autrement dit, la croyance que notre potentiel économique ait chuté bien en-deçà des anticipations passées ne correspond pas à une affection touchant notre économie, mais reflète plutôt l’hypochondrie des décideurs de la politique économique.

Après tout, comment cette production potentielle est-elle calculée ? Les détails sont complexes, mais fondamentalement de tels calculs dépendent de l’une des théories suivantes : l’idée que les récessions et expansions sont toujours de courte durée et/ou l’idée que l’inflation est un processus "accélérationniste".

Supposons, tout d’abord, que vous commenciez avec l’hypothèse que les écarts du PIB par rapport au PIB potentiel tendent à s’éliminer en quelques années, l’économie connaissant une expansion après les récessions ou connaissant une stagnation ou une contraction après les booms. Dans ce cas, vous croyez que la différence moyenne entre le PIB et le PIB potentiel est approximativement nulle à long terme, ce qui signifie que vous pouvez avoir une estimation du PIB potentiel en observant le seul PIB et en appliquant une certaine méthode statistique vous permettant de lisser les fluctuations.

Supposons maintenant que vous croyez (comme beaucoup d’économistes orthodoxes il n’y a pas si longtemps) en une certaine version de l’hypothèse du "taux naturel" de Milton Friedman. Selon cette dernière, une économie produisant au-delà de son potentiel va connaître non seulement de l’inflation, mais une inflation croissante, tandis qu’une économie durablement sous son potentiel connaître de la désinflation, le taux d’inflation chutant continûment, puis une déflation de plus en plus rapide. Si cette hypothèse est correcte, vous pouvez en déduire que nous pouvons nous situer par rapport au potentiel en observant comment se comporte l’inflation : si elle est stable, l’économie produit aux environs de son potentiel.

A la lumière des événements postérieurs à 2008, il est clair que ces deux théories sont fausses. Lorsque les taux d’intérêt arrivent à zéro, il est loin d’être clair pourquoi et comment l’économie va renouer avec la reprise, puisque l’outil habituellement utilisé pour sortir l’économie d’une récession (la banque centrale réduit ses taux directeurs, stimulant par là la demande globale) n’est plus disponible. De plus, grâce en partie à la réticence des travailleurs à voir leurs salaires baisser, même lorsque le chômage est élevé, même les économies les plus déprimées semblent connaître au pire une faible inflation, non une déflation croissante.

Etant donné ces réalités, considérons la façon par laquelle les estimations de la production potentielle vont réagir si une économie souffre d’un fort déclin de la demande globale qui persiste pendant plusieurs années. Parce que l’économie reste déprimée pendant un long moment, les méthodes statistiques qui ne prennent pas en compte cette possibilité vont interpréter à tort une contraction soutenue comme une chute du PIB potentiel. Parce que l’inflation, même si elle décline au début d’une récession, reste stable après, les modèles qui cherchent à déduire le niveau de la production potentielle des variations de l’inflation vont aussi en conclure à tort que l’économie opère près de son potentiel.

Donc, est-ce que la Grande Insuffisance n’existe que dans l’esprit des décideurs de la politique économique ou les capacités ne sont-elles pas plutôt très loin d’être pleinement utilisées ? C’est une possibilité qu’il est utile de considérer. Et je pense que lorsque cela touche à la Grèce en particulier, le fort déclin de la production potentielle estimée est exagéré. Je ne crois pas simplement qu’après une baisse de 25 % du PIB réel (…) et avec un taux de chômage de 25 % la Grèce opère seulement 2 % en-deçà de son potentiel (l’estimation du FMI).

Mais c’est moins clair concernant les Etats-Unis ou la zone euro dans son ensemble. La version simple de l’hypothèse de l’hypochondrie serait que les autorités interprètent mal le chômage élevé en considérant qu’il s’agit d’un problème structurel et non un problème du côté de la demande globale. Mais à ce point, ni les Etats-Unis, ni la zone euro n’ont un chômage élevé au regard des normes historiques. Tout le monde connaît l’histoire des Etats-Unis : le graphique 4 montre le taux de chômage de la zone euro qui est certes plus élevé par rapport au taux de chômage américain, mais qui est toutefois faible par rapport à ses valeurs passées.

GRAPHIQUE 4 Taux de chômage de la zone euro (en %)

Paul_Krugman__FRED_taux_de_chomage_zone_euro.png

source : FRED

Il est vrai que beaucoup affirment que le taux de chômage est désormais un bien mauvais indicateur pour juger du mou sur le marché du travail, que ce dernier n’est pas amélioré autant que ne le suggèrent les mesures standards. Mais comme le graphique 5 le montre, même des indicateurs plus larges comme le taux d’activité des adultes de 25 à 54 ans se sont améliorés et ils suivaient une tendance baissière avant même qu’éclate la crise. Donc même l’histoire du "chômage dissimulé" n’explique pas l’importance de la Grande Insuffisance : elle ne suffit pas pour rendre compatible ce que vous voyons avec l’idée qu’il y a une forte insuffisance du côté de la demande globale.

GRAPHIQUE 5 Taux d'activité des 25-54 ans aux Etats-Unis (en %)

Paul_Krugman__FRED_Etats-Unis_taux_d__activite_25_54_ans.png

source : FRED

Ce qui nous amène au troisième récit, celui selon lequel la Grande Récession elle-même a endommagé la production potentielle, notamment en réduisant la productivité.

L’idée que les récessions sont susceptibles de provoquer des effets d’"hystérèse", en réduisant de façon permanente ou quasi-permanente les capacités de l’économie, est avancée au moins depuis le fameux article qu’Olivier Blanchard et Larry Summers ont publié en 1986. Blanchard et Summers se focalisaient sur le chômage : ils pensaient que les récessions en Europe avaient augmenté de façon permanente le niveau du taux de chômage qui est compatible avec une inflation stable (le NAIRU). Mais vous pouvez trouver bien d’autres raisons amenant à penser qu’une forte récession est susceptible de dégrader les perspectives de long terme, par exemple en déprimant l’investissement des entreprises, notamment les dépenses en recherche-développement.

Si cela semble un peu vague, c’est parce que ça l’est. Fatás, Summers et d’autres affirment qu’il y a eu de profonds effets d’hystérèse et mon instinct m’amène à être d’accord avec eux ; mais je ne connais pas de travaux qui précisent les canaux via lesquels cela s’est produit. Nous avons réellement besoin d’économistes pour réaliser ce travail, parce que si l’hystérèse est réelle, si la Grande Récession a provoqué la Grande Insuffisance, cela a de profondes implications pour l’avenir.

3. Pourquoi la Grande Insuffisance importe


Personne ne veut que se répète la Grande Récession, ce qui est justifie de poursuivre des politiques qui réduisent la probabilité que survienne une nouvelle crise financière et qui accroissent notre capacité à gérer une crise si l’économie en subit une. Donc, il faut resserrer la réglementation financière, étendre la capacité à sauver les institutions financières en difficultés (à les sauver sans renflouer les actionnaires et les dirigeants), et ainsi de suite. Certains d’entre nous ont aussi appelé à un relèvement de la cible d’inflation que suivent les banques centrales, ce qui laisserait davantage de marge de manœuvre pour réduire les taux d’intérêt réels lorsque la prochaine récession éclatera.

Si la Grande Récession a réellement provoqué la Grande Insuffisance, l’urgence de telles mesures est bien plus grande. En utilisant les mesures conventionnelles, la Grande Récession et la faible reprise qui a persisté pendant plusieurs années après ont coûté à l’économie américaine l’équivalent de 15 % de son PIB. Si le déclin des perspectives économiques à long terme a aussi été provoqué par la récession, ce coût augmente pour atteindre un montant plus important, peut-être 70 % du PIB et peut-être davantage plus tard.

Au-delà de cela, comme Fatás et d’autres l’ont affirmé, un lien entre la faiblesse économique à court terme et les perspectives à long terme fait une grosse différence lorsqu’il s’agit d’évaluer les politiques en réponse à la crise. Si la politique monétaire n’a plus de munitions, il devient plus impérieux d’utiliser la relance budgétaire. Et les arguments contre les plans d’austérité que plusieurs pays ont adopté lorsque les taux d’intérêts étaient proches de zéro et que le chômage était très élevé deviennent encore moins attaquables.

En fait, comme Fatás le dit, une mentalité austéritaire risque de créer un "cercle vicieux", dans lequel la contraction budgétaire dégrade les perspectives économiques, aggravant la situation des finances publiques, menant à une nouvelle consolidation budgétaire. La Grèce a fortement réduit ses dépenses, avec un coût social énorme, mais elle n’a été récompensée (du moins selon les estimations officielles) que par un fort déclin de ses perspectives futures, si bien que ses perspectives en matière de dette ne semblent pas vraiment meilleures qu’avant l’austérité.

Donc la Grande Insuffisance (l’ombre qui plane à long terme sur l’économie et qui semble apparemment projetée par la Grande Récession) est une question importante. Elle mérite plus d’attention : nous ne devrions pas nous focaliser seulement sur les quelques mois d’effondrement du crédit qui ont suivi la chute de Lehman. »

Paul Krugman, « The economic future isn’t what it used to be », 30 septembre 2018. Traduit par Martin Anota

mardi 25 septembre 2018

Le communisme chinois, un communisme hayékien

« Vous pensez qu’il y a une contradiction dans les termes, un paradoxe. Vous vous trompez : nous avons l’habitude de réfléchir avec des catégories pures, alors que la vie est bien plus complexe ; et les paradoxes existent dans la vie réelle. La Chine est en effet un pays de communisme hayékien.

Nul autre endroit au monde ne célèbre autant la richesse et le succès matériel que la Chine. Peut-être que cela a été stimulé par le quarantième anniversaire de l’ouverture qui sera célébré cette année, mais plus fondamentalement, je pense que c’est stimulé par le plus grand succès en matière de développement économique que l’histoire ait connu. Les riches entrepreneurs sont célébrés dans les journaux, à la télévision, dans les conférences. Leur richesse et leurs récits d’ascension sociale sont considérés comme des exemples par tous. Ayn Rand se sentirait chez elle dans cet environnement. Tout comme Hayek : un montant incroyable d’énergie et de découverte a été libéré par les changements qui ont transformé la vie de 1,4 milliard de personnes, c’est-à-dire deux fois plus que les populations de la vieille Union européenne à 15 et des Etats-Unis réunies. Les gens ont découvert une information économique qui était jusqu’alors inaccessible ou inconnu, organisé de façon schumpétérienne de nouvelles combinaisons de capital et de travail et créé de la richesse à une échelle presque inimaginable (certainement inimaginable pour ceux qui allèrent en Chine en 1978).

A un grand banquet à Pékin, on nous a présenté les histoires de première main de cinq capitalistes chinois qui sont partis de zéro (zilch ! nada !) dans les années quatre-vingt et qui sont aujourd’hui milliardaires (en dollars). L’un d’entre eux a passé des années dans la campagne durant la Révolution culturelle, un autre a été mis en prison pendant sept ans pour "spéculation", le troisième a fait son "apprentissage" du capitalisme, comme il le dit candidement, en escroquant des gens en Asie de l’Est ("Après, j’ai appris que si je voulais vraiment devenir riche, je ne devais pas frauder ; la fraude est pour les perdants"). Hayek aurait écouté ces récits, probablement fasciné. Et il aurait aimé lire dans le Financial Times comme on peut le faire aujourd’hui que la société marxiste à l’Université de Pékin a été démantelée en raison de son soutien pour des travailleurs en grève dans la zone économique spéciale de Shenzhen.

Mais il y a un point où Hayek s’est trompé. Ces réussites personnelles (et sociétales) incroyables ont été réalisées sous le règne d’un parti unique, le Parti communiste de Chine. La célébration de la richesse est naturelle chez les marxistes. Le développement, l’extension de l’éducation, l’égalité de genre, l’urbanisation et une croissance plus rapide que dans le capitalisme étaient des arguments (et des sources de légitimité) pour les révolutions communistes lorsqu’elles éclatèrent dans le monde en développement. Lénine l’a dit ; Trotski l’a confirmé en observant l’industrialisation à grande échelle ; Staline l’a mis en œuvre : "Nous avons entre cinquante ans et un siècle de retard par rapport aux pays développés. Nous devons refermer cet écart en dix ans. Soit nous y parvenons, soit nous serons écrasés".

Je me souviens (à l’époque où j’étais étudiant en Yougoslavie) comment je parcourais les journaux en quête d’indicateurs de croissance industrielle. Puisque la Yougoslavie était parmi les économies ayant la plus forte croissance au monde, j’étais profondément déçu lorsque le taux de croissance mensuel (annualisé) tombait sous les dix pourcents. Je pensais que dix pourcents était un rythme de croissance normal pour les économies communistes : pourquoi se dire communiste si l’on ne s’inquiète pas de voir la croissance dépasser celle des pays capitalistes ?

Donc, il est naturel que les communistes célèbrent la croissance (de nouvelles routes, de nouveaux trains super rapides, de nouveaux complexes immobiliers, de nouvelles avenues bien éclairées et écoles). Ce n’est pas moins naturel que chez les entrepreneurs hayékiens. (…) La différence est que les hayékiens célèbrent le succès privé, qui contribue d’ailleurs selon eux à faire avancer la société ; dans le communisme, le succès est supposé être socialisé.

Ce n’est pas ce qui s’est passé. Les efforts collectivistes ont marché pendent une ou deux décennies, mais finalement la croissance s’est essoufflée et les efforts ont marqué le pas. Le cynisme a régné en maître. La Chine et Deng Xiaoping sont tombés sur (…) une combinaison où le Parti communiste continuerait de régner, mais où une pleine liberté d’action (…) serait donnée aux capitalistes. Ces derniers travailleraient, s’enrichiraient, enrichiraient bien d’autres personnes au cours du processus, mais les rênes du pouvoir politique resteraient fermement dans les mains du parti communiste. Les capitalistes fourniraient le moteur et le carburant, mais le parti tiendrait le volant.

Les choses auraient-elles été meilleures si le pouvoir politique avait aussi été entre les mains des capitalistes ? J’en doute. Ils auraient pu l’utiliser pour recréer le gouvernement Nanjing des années trente, un gouvernement vénal, faible et incompétent. Ils n’auraient pas travaillé dur, ils auraient utilisé le pouvoir politique pour maintenir leurs privilèges économiques. C’est l’un des problèmes clés que rencontre le capitalisme américain aujourd’hui : les riches contrôlent de plus en plus le processus politique, ce qui détourne les incitations économiques de la production et la concurrence au profit de la création et la préservation de monopoles. Cela aurait été pire en Chine. C’est précisément parce que la sphère politique était largement isolée de la sphère économique que les capitalistes ont pu se focaliser sur la production et rester éloignés de la politique (autant que possible, parce que le parti est exposé à une corruption croissante).

Comment la Chine est-elle arrivée à cette combinaison ? Il peut y avoir plusieurs raisons, notamment la tradition millénaire de gestion par des bureaucraties impériales, l’alliance historique (…) entre le parti communiste et le Kuomintang de Sun Yat-sen (une alliance comme on n’en a jamais vu dans le reste du monde communiste). On peut se demander si cela aurait pu se produire ailleurs. Peut-être. La Nouvelle politique économique de Lénine n’était pas très différente des politiques chinoises des années quatre-vingt. Mais Lénine voyait dans la NEP une concession temporaire aux capitalistes, parce qu’il croyait que le socialisme était plus progressif et donc générait "scientifiquement" plus de croissance. Peut-être n’est-ce que les échecs du Grande Bond en avant et le chaos de la Révolution culturelle qui ont (…) convaincu Deng et d’autres que l’initiative privée était plus "progressive" que la planification sociale et les entreprises publiques. Lénine a pu ne pas voir cela. C’était trop tôt.

Je me demande ce que Staline aurait pensé de la Chine. Il aurait probablement été ravi de voir son nom continuer d’être inscrit dans le panthéon officiel. (Dans une grande librairie à Pékin, les premières rangées de livres sont des traductions de classiques du marxisme, notamment des livres de Marx, d’Engels, de Lénine et de Staline. Peu de gens les regardent. Les rangées suivantes qui présentent des livres sur la gestion de patrimoine, l’économie de la finance, les investissements boursiers, etc., sont bien plus populaires.) Staline aurait été impressionné par la croissance chinoise, par l’énorme pouvoir de l’Etat et du pays (ce n’est plus un pays auquel il aurait pu envoyer ses conseillers pour l’aider technologiquement), par la capacité du parti à contrôler la population de façon très sophistiquée et en toute discrétion.

Staline aurait aimé le succès économique et le pouvoir militaire qui vient avec, mais il aurait probablement été choqué par la richesse privée. Il est difficile de le voir coexister avec Jack Ma. Hayek aurait eu la réaction inverse : il aurait été ravi de voir ses idées à propos de l’ordre spontané du marché être vérifiées de façon véhémente, mais il n’aurait pas réussi à comprendre que cela n'était possible que sous le règne du parti communiste.

Personne ne serait resté indifférent face au plus grand succès économique de tous les temps. Et personne ne l’aurait pleinement compris. »

Branko Milanovic, « Hayekian communism », in globalinequality (blog), 24 septembre 2018. Traduit par Martin Anota

samedi 22 septembre 2018

La Grande Modération est-elle de retour ?

« La "Grande Modération" est un terme qui a été utilisé pour désigner la réduction de la volatilité du cycle d’affaires que l’on a pu observer dans plusieurs pays développés. Elle a débuté au milieu des années quatre-vingt et elle coïncida avec la période de temps où l’inflation est revenue à un faible niveau (elle est restée faible et stable depuis lors).

Il y a un débat à propos des causes de la Grande Modération. Certains estiment que les banques centrales ont joué un rôle crucial derrière ce phénomène, tandis que d’autres pensent que c’est avant tout dû à la chance. Certains considèrent que la crise qui a éclaté à la fin de l’année 2007 a mis un terme à ce phénomène et qu’elle a validé les théories qui expliquaient principalement celui-ci par la chance. La récession sévère et prolongée qui a débuté en 2007 a remis en question l’idée que les cycles d’affaires soient devenus moins volatiles.

Mais en regardant la volatilité à partir de notre point de vue, c’est-à-dire l’année 2018, il apparaît que la "Grande Modération" pourrait être encore d’actualité, du moins pour l’économie américaine. J’ai calculé ci-dessous la volatilité sur cinq ans de la croissance du PIB américain (en utilisant des données trimestrielles, les taux de croissance calculés relativement à l’année précédente).

GRAPHIQUE 1 Ecart-type sur cinq ans de la croissance du PIB réel des Etats-Unis

Antonio_Fatas__Ecart-type_sur_cinq_ans_croissance_PIB_Etats-Unis.png

Les données parlent d’elles-mêmes. Il y a une réduction marquée de la volatilité au milieu des années quatre-vingt qui a persisté jusqu’à 2007. Ensuite, il y a une hausse manifeste de la volatilité, en raison de la Grande Récession. Mais au cours des dernières années, la volatilité a diminué pour atteindre ses plus faibles niveaux. C’est la conséquence d’une croissance du PIB très stable et du fait que l’économie américaine connaisse la deuxième plus longue expansion de son histoire. (Il faudrait qu'elle dure encore au moins pendant 10 mois pour qu’elle devienne la plus longue.)

Ce qui est intéressant, c’est qu’en regardant l’ensemble de la période allant de 1985 jusqu’à aujourd’hui, on constate que le PIB est resté moins volatile qu’au cours des décennies précédentes, et ce malgré l’accroissement de la volatilité suite à la crise financière mondiale. La Grande Modération semble bien vivante dans les données américaines.

GRAPHIQUE 2 Ecart-type sur cinq ans de la croissance du PIB réel de la France

Antonio_Fatas__Ecart-type_sur_cinq_ans_croissance_PIB_France.png

Et voici la même analyse mais en utilisant cette fois-ci les données françaises. Il y a un schéma similaire, même si les données commencent plus tard, lorsque la volatilité était faible, si bien que ce sont les années soixante-dix qui semblent être exceptionnelles, cette décennie ayant été marquée par une plus forte volatilité qu’à toute autre période. Et l’accroissement de la volatilité après 2007 est plus forte, en partie parce que la zone euro a basculé dans une seconde récession autour de 2012. »

Antonio Fatás, « Is the Great Moderation back », in Antonio Fatás on the Global Economy (blog), 10 septembre 2018. Traduit par Martin Anota



aller plus loin…

« Et si la Grande Modération ne s’était jamais achevée ? »

« Minsky avait raison : la faible volatilité alimente l’instabilité financière »

vendredi 14 septembre 2018

Larry Summers, la crise financière et les fondations de la macroéconomie

« L’une des préoccupations (pour ne pas dire la principale préoccupation) de la dernière génération de macroéconomistes a été d’élaborer une macroéconomie avec des fondations microéconomiques. D’un certain point de vue, cela fait pleinement sens. Comment peut-on être contre l’idée d’établir des fondations ? Et il fait sens de penser que les théories macroéconomiques des fluctuations de l’investissement, par exemple, doivent être bâties sur des théories expliquant comment les entreprises prennent leurs décisions d’investissement.

Il faut cependant reconnaître que les principes d’une construction de la macroéconomie sur des fondations microéconomiques, telle qu’elle a été pratiquée par les économistes, n’a aucunement contribué à prédire, expliquer ou résoudre la Grande Récession. Les idées à propos de l’effondrement financier que les responsables de la politique économique ont trouvées les plus utiles venaient d’économistes comme Hyman Minsky et Charles Kindleberger, qui réfléchissaient à un niveau agrégé et ne recherchaient pas à établir des fondements microéconomiques. Les participants de marché, comme Ray Dalio, qui ont été très lucides à propos de la crise ignoraient la microéconomie en réfléchissant en termes d’agrégats de dette et de crédit.

Qu’est-ce qui n’allait pas et quel enseignement doit-on en tirer ? Selon moi, la supposition clé que fait une grande partie de la macroéconomie (en l’occurrence, celle selon laquelle il est préférable d’opérer avec des fondations aussi fondamentales que possible) n’est pas soutenue par l’histoire de la science. Les psychologues comprennent une grande partie du comportement humain sans réfléchir aux neurones. Les géologues étudient des séismes sans remonter aux premiers principes de la physique. Les ingénieurs du génie civil utilisent des règles générales tirées de l’expérience pour comprendre les propriétés des matériaux utilisés en construction.

Donc la macroéconomie n’a pas besoin d’être (ni même ne doit être) construite sur des fondations qui se focalisent sur les décisions d’optimisation des ménages et des entreprises. Pour qu’une telle approche soit utilisable trop de choses doivent être ignorées. De plus, de récentes analyses en économie comportementale suggèrent que l’optimisation telle que l’envisagent les économistes explique bien mal les décisions que les agents prennent vraiment lorsqu’ils dépensent.

Mais la macroéconomie a toujours besoin d’un certain type de fondations. C’est pourquoi j’ai été ravi de voir Andrei Shleifer publier l'ouvrage A Crisis of Beliefs: Investor Psychology and Financial Fragility avec Nicola Gennaioli. Le livre replace les anticipations au centre de la réflexion à propos des fluctuations économiques et des crises financières, mais ces anticipations ne sont pas "rationnelles". En fait, comme toutes les données empiriques le suggèrent, elles sont sujettes à des erreurs d’extrapolation systématiques. Le livre suggère que ces erreurs d’anticipations doivent être saisies comme découlant de biais cognitifs que les êtres humains sont prompts à faire.

Ce livre parle tout d’abord du travail de Daniel Kahneman et Amos Tversky, en montrant comment leurs idées peuvent être mobilisées pour construire des modèles d’anticipations dans l’économie qui soient utiles. Cette approche amène à reconsidérer la bulle immobilière avant la crise financière et contribue à expliquer pourquoi les investisseurs et les responsables de la politique économique ont été si lents à saisir les vulnérabilités des marchés lorsque la bulle commença à éclater. Elle fournit un compte-rendu convaincant de la crise de 2008 et propose un type de perspectives qui aurait pu empêcher ou tout du moins atténuer ses conséquences. Et elle propose une façon de réduire les risques futurs de crise.

Bien sûr, il y a pas mal de choses à faire encore. Les arguments que mettent en avant Gennaioli et Shleifer doivent être débattus dans la profession. Et, oui, il est plus facile d’expliquer le passé que de prévoir le futur. Mais les théories des fluctuations économiques et des crises basées sur la tendance des êtres humains à devenir trop gourmands, puis ensuite à basculer dans la panique semblent bien plus fructueuses que des théories basées sur une optimisation précise.

Quelque chose ne va pas avec les économistes si des événements comme la crise de 2008 ne les amènent pas à changer leur manière de penser. Ceux qui veulent être à l’avant-garde de la nouvelle pensée devraient lire A Crisis of Beliefs. »

Larry Summers, « The financial crisis and the foundations for macroeconomics », 13 septembre 2018. Traduit par Martin Anota

jeudi 13 septembre 2018

Pourquoi les Etats-Unis ont tardé à sortir de la Grande Récession

« Cela fait dix ans que la faillite de Lehman Brothers a conduit le système financier mondial dans une chute libre. Pourquoi cette date est-elle singulière ? Il n’y a pas de raison particulière. Mais de tels anniversaires ont la vertu de donner aux gens une raison de se tourner vers le passé et peut-être même d’en tirer des leçons.

A quoi ressemble la réponse à la crise dix ans après ? Eh bien, nous pouvons dire qu’elle aurait pu être pire. Mais elle aurait pu et aurait dû être meilleure. Et la question est de savoir si nous le comprenons. (…) Certains d’entre nous ont saisi l’inadéquation de la réponse à la crise (…). Ceux qui se sont opposés à ce que l’on fasse ce qu’il y avait à faire (à quelques exceptions près) n’ont pas reconnu leurs erreurs, ni les conséquences de celles-ci.

Commençons avec ce qui était adéquat. Face à un effondrement financier imminent, les responsables de la politique économique ont fait ce qui était nécessaire pour limiter les dommages. Leurs actions inclurent des renflouements de banques, qui auraient dû être plus justes (trop de banquiers ont été renfloués avec leurs banques), mais au moins ces actions ont été efficaces. Il y a eu aussi des provisions de crédit d’urgence, notamment des choses peu connues mais cruciales comme le maintien de lignes de crédit en dollars aux autres banques centrales.

En conséquence, la phase aiguë de la crise financière (la phase du "ô mon dieu, nous allons tous mourir !") a été relativement brève. Elle a été effrayante et elle a généré beaucoup de dommages : les Etats-Unis ont perdu 6,5 millions d’emplois dans l’année qui ont suivi la faillite de Lehman Brothers. Mais comme vous pouvez le voir sur le graphique 1, les indicateurs de stress financier refluèrent rapidement en 2009 et étaient plus ou moins revenus à la normale à l’été.

GRAPHIQUE 1 Taux de chômage et indicateur de stress financier aux Etats-Unis

Paul_Krugman__Etats-Unis_taux_de_chomage_stress_financier.png

La reprise financière rapide n'a toutefois pas été suivie par une reprise rapide de l’économie dans son ensemble. Comme le montre le même graphique, le chômage est resté élevé pendant plusieurs années ; nous ne sommes pas retournés à quelque chose qui ressemble même vaguement au plein emploi avant la fin du second mandat d’Obama (on laisse de côté la question de savoir si nous y sommes ou non aujourd’hui).

Pourquoi la stabilité financière n’a-t-elle pas amené un rapide rebond de l’activité ? Parce que la perturbation financière n’était pas au cœur du ralentissement. Le plus gros facteur était l’effondrement de la bulle immobilière ; la crise bancaire n’en était qu’un symptôme. Comme le graphique 2 le montre, l’effondrement immobilier a directement mené à une chute dramatique de l’investissement résidentiel, suffisamment important pour entraîner une sévère récession et pour que la reprise soit à la fois lente et incomplète.

GRAPHIQUE 2 Part de l'investissement résidentiel dans le PIB américain (en %)

Paul_Krugman__part_investissement_residentiel_PIB_Etats-Unis.png

Le plongeon des prix de l’immobilier a aussi détruit beaucoup de patrimoine immobilier, déprimant par là les dépenses des consommateurs.

Donc qu’aurions-nous dû faire pour avoir une reprise plus rapide ? Les dépenses privées étaient déprimées ; la politique monétaire était inefficace parce que les taux d’intérêt butaient sur leur borne inférieure zéro (zero lower bound). Donc nous avions besoin d’une expansion budgétaire, d’une certaine combinaison de hausse des dépenses publiques et de baisse des impôts. Et nous avons effectivement eu l’American Recovery and Reinvestment Act, la relance d’Obama. Mais elle a été d’un montant trop faible et, surtout, ses mesures ont été retirées trop vite (cf. graphique 3).

GRAPHIQUE 3 Impact de l'ARRA sur les finances publiques (en milliards de dollars)

Paul_Krugman__impact_ARRA_emprunt_public.png

Vous pourriez penser que personne ne pouvait prédire un tel ralentissement soutenu. Vous pouvez le penser, mais vous auriez tort. Beaucoup ont prédit une reprise lente, y compris moi-même, parce que c'était un genre différent de récession par rapport à celles qui avaient eu lieu lors des années soixante-dix et quatre-vingt, une récession entraînée par un excès du secteur privé, non par l’inflation.

Pourquoi alors n’avons-nous pas eu la politique budgétaire que nous aurions dû avoir ? Je dirais qu’il y a plusieurs vilains dans l’histoire. Premièrement, nous pouvons nous demander si l’administration Obama aurait pu obtenir davantage ; il y a un débat autour de cette question et nous ne trancherons certainement jamais. Ce qui est clair, par contre, c’est que certains personnages clés autour d’Obama se sont activement opposés à fournir à l’économie le soutien dont elle avait besoin. C’est le cas de Tim Geithner, lorsque Christina Romer a plaidé pour un plan de relance plus massif.

Deuxièmement, les gens très sérieux ont très rapidement cessé de s’inquiéter à propos des chômeurs (…) pour devenir hystériques à propos des déficits. En 2011, le chômage était toujours bien supérieur à 9 %, mais tous les politiciens de Washington ne voulaient parler que de la menace de la dette publique.

Finalement, les républicains ont bloqué les tentatives visant à sauver l’économie et essayé d’étrangler les dépenses du gouvernement dès qu’ils en avaient l’occasion. Ils prétendaient que c’était parce qu’ils s’inquiétaient de l’état des finances publiques, mais il était évident pour toute personne qui y prêtait suffisamment attention (…) qu’il n'y avait derrière que de la mauvaise foi. Comme nous l’avons vu ces derniers temps, ils ne s’inquiètent pas à propos du déficit budgétaire aussi longtemps qu’ils sont à la Maison Blanche et que ce déficit a pour contrepartie une baisse d’impôts pour les riches.

En conclusion, il apparaît que la politique est utilisée rapidement pour sauver les banques, mais que ce n’est pas le cas lorsqu’il s’agit de lutter contre le chômage de masse. C’est une histoire à la fois triste et écœurante. Et nous avons toutes les raisons de croire que si nous avions à nouveau une crise, les autorités réagiraient de la même façon. »

Paul Krugman, « Botching the Great Recession », 12 septembre 2018. Traduit par Martin Anota

lundi 10 septembre 2018

Dix ans après Lehman Brothers

« Dix ans après la faillite qui a ébranlé l’économie mondiale, nous passons en revue ce que les économistes pensent des leçons qui ont été tirées de la crise financière mondiale.

Adam Tooze a écrit un nouveau livre, épais de 700 pages, sur l’histoire financière et économique de la dernière décennie judicieusement appelé Crashed. Le livre porte sur quatre grands thèmes : la réponse adoptée immédiatement suite à la crise, la crise de la zone euro, la généralisation de l’austérité budgétaire dans les pays développés après 2010 et enfin l’essor des mouvements populistes en Europe et aux Etats-Unis. Vous pouvez trouver une recension du livre dans The Economist et Tooze publie sur son blog de nombreux billets où il revient sur des thèmes qu’il aborde dans son livre.

Christine Lagarde nous dit sur le blog du FMI que l’anniversaire nous donne l’occasion d’évaluer la réponse apportée à la crise au cours de la dernière décennie. Lagarde dit que nous avons fait un long chemin, mais qu’il n’est pas encore terminé : le système est plus sûr, mais pas assez sûr ; et la croissance a rebondi, mais elle n’est pas assez partagée. Pour compliquer les choses, le paysage de l’économie politique a changé, avec un moindre engagement à la coopération internationale. Trop de banques, en particulier en Europe, restent fragiles et le capital bancaire doit probablement s’accroître davantage.

La culture, les valeurs et l’éthique n’ont pas beaucoup changé, dans la mesure où le secteur financier continue de donner la priorité au profit immédiat plutôt qu’à la prudence, au court-terme plutôt qu’à la soutenabilité. Dans ce contexte, Lagarde pense qu’une réforme clé pourrait consister à introduire davantage de commandement féminin en finance, pour deux raisons. D’une part, une plus grande diversité permet d’élargir la réflexion et d’éviter la pensée unique. D’autre part, cette diversité se traduira par davantage de prudence, avec moins de décisions imprudentes comme celles qui ont été à l’origine de la crise. S’il y avait eu davantage de Lehman Sisters et moins de Lehman Brothers, le monde aurait été bien différent aujourd’hui.

Martin Wolf dit que, depuis la crise, les politiques et décideurs de politique économique ont essayé de nous ramener vers le passé plutôt que vers un avenir différent. Pour être plus précis, ils ont essayé de revenir à un meilleur passé, de la même façon qu’ils avaient cherché à le faire en 1918. En 1918, ils voulaient principalement revenir à un meilleur passé en matière de relations internationales ; après la crise de 2008, ils ont voulu revenir à une meilleure version du passé en matière de réglementation financière. Dans les deux cas, il s’agissait de laisser le reste inchangé. Le principal objectif de la politique économique au lendemain de la crise était de procéder à un sauvetage : stabiliser le système financier et restaurer la demande globale. Un tel sauvetage consistait à utiliser les bilans publics pour contenir l’effondrement du système financier, à réduire les taux d’intérêt, à laisser les déficits budgétaires s’accroître à court terme tout en limitant l’expansion budgétaire discrétionnaire et à introduire de nouvelles réglementations financières complexes.

A la différence des années trente, cela empêcha l’effondrement de l’économie et permis une reprise (fragile). La crise financière marque un échec dévastateur du libre marché suite au creusement des inégalités dans plusieurs pays. Pourtant, contrairement à ce qui s’est passé dans les années soixante-dix, les décideurs de politique économique ont peu questionné les rôles respectifs des gouvernements et des marchés. Il est peu surprenant que les populistes soient si populaires, au vu de cette inertie, une inertie que Wolf explique davantage par la puissance de certains intérêts privés que par l’absence de nouvelles idées.

Harold James écrit que la crise financière de 2008 a nourri trois grands récits chez les responsables de la politique économique et les faiseurs d’opinion. Premièrement, après Lehman, l’Histoire mondiale de la spéculation financière, le livre que Charles Kindleberger publia en 1978 en s’appuyant sur les travaux de Hyman Minsky sur les cycles financiers, a connu un regain de popularité et il a été interprété comme une mise en garde contre "fondamentalisme du marché". Le deuxième récit considère que la chute de Lehman fait écho au krach de Wall Street de 1929 et à la Grande Dépression. Le troisième récit était que l’effondrement de Lehman augurait la fin du capitalisme américain. Aucun des deux premiers récits n’est vraiment correct. La crise ne fut pas un échec de marché, mais plutôt le produit d’institutions non marchandes opaques et dysfonctionnelles qui se sont perversement de plus en plus enchevêtrées. Elle a révélé le problème de la complexité et non des marchés en tant que tels.

Le troisième récit s’est révélé exact : la prédominance financière et politique des Etats-Unis s’est effritée. Elle se fondait sur la puissance économique et politique, mais elle dépendait aussi de quelque chose de plus fondamental : la croyance en la capacité des Etats-Unis à honorer ses promesses à long terme. La crise a ébranlé cette croyance, même si la puissance économique et politique des Etats-Unis n’a que légèrement diminué. La contagion la plus profonde était intellectuelle, pas financière. Le comportement financier ne s’opère pas dans le vide et le même genre d’esprit court-termiste et hyperactif qui a conduit à Lehman s’enracinait aussi à l’époque dans le reste de la société.

Howard Davies se demande si la crise financière a été utile. Il y a eu des changements significatifs : les plus grandes banques ont maintenant trois à quatre fois plus de capital et du capital de meilleure qualité, qu’elles n’en avaient en 2007 ; des tampons supplémentaires sont exigés des institutions systémiques ; la gestion du risque a été grandement renforcée ; et les pouvoirs d’intervention des régulateurs sont bien plus robustes. Le soutien politique en faveur d’un resserrement de la réglementation reste également fort, enfin, partout sauf aux Etats-Unis. Il y a un domaine, cependant, où peu de choses ont progressé : alors que la réglementation financière s’est matériellement renforcée depuis la crise de 2008, sa mise en œuvre reste entre les maints d’un patchwork d’agences nationales. La diversité structurelle des réformes d’après-crise qui en résultent ne contribue pas à assurer de la cohérence dans la mise en place de normes mondiales.

Philip Stephens écrit dans le Financial Times que l’héritage de la crise financière mondiale peut avoir été une ré-imagination de l’économie de marché. Mais le processus impulsé par l’effondrement de Lehman Brothers en septembre 2008 a produit deux grands perdants : la démocratie libérale et l’ouverture des frontières. Les coupables (qui incluent les banquiers, les banquiers centraux, les régulateurs, les politiciens et les économistes) se sont dédouanés de toute responsabilité et, malgré, les réformes réglementaires, la vie a repris son cours habituel à Wall Street et à la City de Londres. Le monde a certainement changé, mais pas d’une façon ordonnée, structurée qui aurait marqué une réforme intelligente.

Après une décennie de stagnation des revenus et d’austérité budgétaire, personne ne peut se dire surpris de voir que ceux qui ont été les plus affectés par les répercussions économiques du krach ont rejeté les élites en soutenant des populistes. Stephens pense que les historiens vont finir par décrire l’année 2008 comme l’instant où les nations les plus puissantes du monde ont renoncé à leur leadership international et où la mondialisation s’est inversée. Le reste du monde a naturellement tiré comme conclusion qu’il avait peu de choses à apprendre de l’Occident. Beaucoup pensaient à l’époque que l’effondrement du communisme présagerait d’une hégémonie permanente de démocraties ouvertes, libérales. En fait, ce qui va vraiment intriguer les historiens, c’est le fait que l’ancien régime ait été si complaisant (ou complice, plutôt) face à sa propre destruction. »

Silvia Merler, « Lehman Brothers: 10 Years After », in Bruegel (blog), 10 septembre 2018. Traduit par Martin Anota__

mardi 4 septembre 2018

Stagnation séculaire : Mythe et réalité

« J’ai lu l’article intitulé "Le mythe de la stagnation séculaire" où Joseph Stiglitz (qui est généralement excellent) se penche sur la stagnation séculaire. L’article développe l’idée que le concept de stagnation séculaire est une sorte de subterfuge créé pour exonérer ceux qui sont en charge de la politique économique de la responsabilité de la faible reprise que nous avons connue suite à la Grande Récession. Je pense que cette vision est (…) fondamentalement erronée (…).

Lorsque Larry Summers a tout d’abord évoqué l’idée de stagnation séculaire dans un discours au FMI à la fin de l’année 2013, Neil Mehrotra et moi-même avions écrit un petit article quelques mois après qui, d’après ce que je sais, constitue le premier effort visant à théoriser cette idée dans un modèle DSGE moderne. Plus tard, avec l’aide de notre étudiant Jake Robbins, nous sommes allés au-delà de la simple illustration théorique pour explorer une version quantitative de l’hypothèse dans un article qui va être publié dans l’American Economic Journal: Macroeconomics. Entretemps, nous avons écrit plusieurs articles en collaboration avec Larry Summers et d’autres coauteurs qui ont exploré divers aspects de cette idée (par exemple, ici et). Il serait surprenant si j’avais participé à mon insu à une entreprise exonérant les décideurs de politique économique pour la responsabilité de la faiblesse de la reprise !

La plus grosse erreur et peut-être la plus évidente avec le raisonnement de Stiglitz est la suivante : si l’hypothèse de la stagnation séculaire est correcte, cela n’exonère en rien les responsables de la politique économique de la responsabilité de la faible reprise. En fait, elle dit exactement le contraire, si bien que, si elle est correcte, la théorie prédit que les décideurs de la politique économique auraient dû en faire plus en 2008 que les théories existantes ne le suggèrent. Quelle est d’ailleurs l’idée de la stagnation séculaire ? La plupart des gens, notamment moi-même, avions initialement considéré que la crise de 2008, où les Etats-Unis et beaucoup d’autres pays se retrouvaient contraints par la borne inférieure zéro (zero lower bound), était due à certaines forces temporaires, par exemple qu’elle résultait du cycle de désendettement (idée que j’ai développée avec Paul Krugman ici) ou de problèmes du secteur bancaire (une idée que j’ai développé avec Del Negro, Ferrero et Kiyotaki ici). Mais en aucun cas, la plupart des hypothèses étaient des hypothèses dans lesquelles les forces menant à la borne inférieure zéro étaient temporaires, si bien qu’une stratégie pour la politique économique (par exemple si le coût de l’intervention était considéré comme élevé) pouvait consister à tout simplement attendre, comme "bientôt tout irait mieux".

Ce qui a distingué l’hypothèse de Larry par rapport à beaucoup des travaux antérieurs était qu’elle suggérait que les forces qui poussent le taux d’intérêt naturel à la baisse, en amenant les taux à buter sur leur borne inférieure zéro à devenir, puissent ne pas être des forces temporaires, mais plutôt des forces qui ne se seraient pas dissipées par elles-mêmes. La littérature a identifié plusieurs forces susceptibles de le faire, notamment le changement démographique, la chute de la croissance de la productivité, l’excès mondial d’épargne (global savings glut), le creusement des inégalités et ainsi de suite, c’est-à-dire des forces qui peuvent générer un excès d’épargne par rapport à l’investissement et pousser ainsi le taux d’intérêt naturel en territoire négatif de façon permanente (ou du moins très longuement). Ce qui était intéressant lorsqu’on a essayé de modéliser l’hypothèse de stagnation séculaire était qu’on devait non seulement opérer à cœur ouvert du côté de la demande des modèles DSGE traditionnels (pour faire émerger la possibilité de taux d’intérêt constamment négatifs, qui sont dans les modèles standards fixés à l’inverse du paramètre gouvernant les préférences temporelles), mais aussi envisager la possibilité du côté de l’offre qu’il puisse y avoir une récession permanente due à une insuffisance de la demande, par exemple en raison de l’arbitrage permanent entre inflation et production (inconcevable dans la macroéconomie traditionnelle). En tout cas, cette recherche, contrairement à ce que Stiglitz semble penser, est que l’hypothèse de stagnation séculaire offre un robuste argument pour adopter des interventions agressives, notamment en 2008. Loin d’être "juste une excuse pour des politiques erronées" l’hypothèse a donné une bonne raison de croire que davantage de choses auraient pu être faites en 2008.

Il est difficile de finir ce billet sans répondre brièvement à l’affirmation de Stiglitz selon laquelle les événements de l’année dernière "ont démenti cette thèse" de stagnation séculaire. Stiglitz suggère que l’expansion budgétaire menée par Trump est responsable en partie de la reprise actuelle (une suggestion que je supposerais comme exacte afin de simplifier mon raisonnement). Il est étrange de suggérer que cela "dément l’idée" de stagnation séculaire, alors que c’est précisément ce que prédirait la théorie de la stagnation séculaire : Avec de faibles taux d’intérêt, il y a davantage de marge de manœuvre que d’habitude pour adopter un plan de relance budgétaire, c’est-à-dire qu’il est moins probable que la banque centrale réagisse en resserrant sa politique monétaire. Donc ici Stiglitz semble tout mélanger. Au final, je pense que l’implication du diagnostic de 2008 au prisme de la théorie de la stagnation séculaire est en fait tout à fait en résonnance avec de que Stiglitz a dit ici et ailleurs, par exemple que "la chute après la crise financière fut plus sévère et la redistribution massive du revenu et du patrimoine vers les plus riches a affaibli la demande agrégée" et que "la contraction de l’activité était susceptible d’être profonde et longue" et que ce qui était nécessaire était quelque chose de "plus fort et différent de ce qu’Obama a proposé". En effet, l’hypothèse de la stagnation séculaire contribue à structurer un tel raisonnement. »

Gauti Eggertsson, « Secular Stagnation, Myth and Reality », 2 septembre 2018. Traduit par Martin Anota



aller plus loin...

« Larry Summers et la stagnation séculaire »

« Les pays avancés font-ils face à une stagnation séculaire ? »

« Comment modéliser la stagnation séculaire ? »

« La stagnation séculaire en économie ouverte »

« Les importunités économiques pour nos petits-enfants… Genèse de l’hypothèse de la stagnation séculaire »

lundi 3 septembre 2018

Nous n’avons pas retenu toutes les leçons de la tragédie grecque

« Je me rends compte que je n’ai pas beaucoup écrit à propos de la Grèce depuis la lettre ouverte à Angela Merkel que Thomas Piketty, Jeffrey Sachs, Dani Rodrik, Heiner Flassbeck et moi-même avons écrite en juillet 2015 (voir ici et ). Rien n’a vraiment changé depuis et j’ai toujours le même avis sur le sujet : l’endettement excessif des gouvernements grecs avant la crise (un endettement dont une partie a été délibérément dissimulée) a toujours impliqué de douloureux ajustements par la suite ; mais les gouvernements de la zone euro et la Troïka (la Commission européenne, la BCE et le FMI) ont fait de cet ajustement une catastrophe majeure.

(…) Cela n’a rien à voir avec l’UE et tout à voir avec la zone euro et avec ce que j’ai qualifié par le passé de "cruauté stupide du créancier". Les banques privées étaient heureuses de prêter au gouvernement grec, parce qu’elles croyaient (erronément) que leur argent était aussi sûr que si elles le prêtaient à l’Allemagne. D’autres gouvernements ont tout d’abord différé et ensuite limité le défaut grec parce qu’ils s’inquiétaient de la santé financière de leurs propres banques. Ils remplacèrent la dette grecque que détenait le secteur privé avec la monnaie que le gouvernement grec devait aux autres gouvernements de la zone euro. (…) Les électeurs veulent toujours qu’on leur rende leur argent. Afin que ce soit le cas, la Troïka a demandé et obtenu une austérité draconienne et diverses réformes.

La conséquence fut un ralentissement qui paralysa l’économie d’une façon d’une façon qui avait peu de précédents au cours de l’histoire. La plupart des économistes comprennent que dans des situations comme celles-ci, il est ridicule d’insister pour que le débiteur paye toute sa dette. D’un point de vue keynésien tout à fait traditionnel, une telle insistance détruit tout simplement la capacité du débiteur à rembourser : ce n’est pas un jeu à somme nulle entre le créancier et le débiteur. C’est d’ailleurs pourquoi l’essentiel de la dette allemande a été effacée au lendemain de la Seconde Guerre mondiale, comme nous l’avions noté dans notre lettre.

En juillet 2015, le gouvernement grec était désormais capable de payer ses dépenses avec ses impôts, si bien qu’il n’avait à s’endetter que pour rembourser sa dette. La Troïka aurait accepté si le gouvernement grec avait commencé à générer un large excédent de façon à rembourser sa dette, c’est-à-dire s’il y avait eu un surcroît d’austérité. Il était bien plus sensé de laisser l’économie renouer tout d’abord avec la reprise, mais la Troïka ne l’a jamais saisi. Elle est parvenue à ses fins seulement parce que la BCE a coupé l’offre d’euros à la Grèce. La seule alternative laissée à la Grèce était de quitter l’Union européenne, or la population ne le voulait pas. En dehors de la zone euro, un gouvernement dans une situation similaire aurait fait défaut en 2010 et ses créanciers auraient perdu leur argent ou alors il aurait fait défaut une fois qu’il aurait réussi à générer des excédents primaires. C’est une autre histoire lorsque l’on est dans la zone euro avec une BCE faisant le jeu des créanciers.

Le coût pour la Grèce n’a pas seulement été un fort déclin des niveaux de vie, il signifiait aussi, comme Frances Coppola le décrit, que "les nouveau-nés meurent de problèmes médicaux que l’on peut soigner, les adolescents et les jeunes adultes se donnent la mort et les adolescents et les adultes meurent de maladies associées à une mauvaise alimentation, à l’abus d’alcool, du tabagisme et de maladies soignables" à des fréquences bien plus élevées qu’ailleurs en Europe et qu’en Grèce avant la crise. La plupart de ces choses résultent de la cruauté stupide des créanciers : les gouvernements de la zone euro, de la BCE et du FMI. J’ai comparé l’indifférence des autres pays-membres face aux souffrances qu’ils imposaient à la Grèce à l’inaction du gouvernement anglais lors de la famine irlandaise.

Un problème a été que la voix dominante dans l’Eurogroupe soit celle d’un gouvernement allemand qui démontrait sans cesse son incompréhension de l’économie keynésienne de base, mais comme nous le savons au Royaume-Uni ce genre de choses peut survenir ailleurs. Un autre problème a été que le FMI déroge à ses propres procédures pour évaluer si la dette pouvait être remboursée sous les pressions émanant de la part des principaux gouvernements clés. Un autre problème, encore, a été que de nombreuses conditions imposées par la Troïka à la Grèce comme les réformes structurelles sont contreproductives pour le processus d’ajustement.

Mais la principale leçon que je tire de tout cela est que les prêts intergouvernementaux dans la zone euro sont une très mauvaise idée, parce qu’ils encouragent les créanciers à devenir stupides. En dehors de la zone euro, une fois qu’une économie débitrice génère un excédent primaire, elle peut faire défaut sur sa dette et cela lui donne un certain pouvoir sur ses créanciers. Cela contribue à empêcher qu’un désastre comme celui de la Grèce se répète ailleurs. Dans la zone euro, les créanciers ont trop de pouvoir, parce qu’ils peuvent menacer de couper le flux de monnaie irrigant le système bancaire d’un pays-membre ou vous évincer du club. La zone euro n’a pas tiré cette leçon pour des raisons politiques évidentes, ce qui fait de celle-ci un club bien dangereux à rejoindre. Si vous avez le malheur de vivre dans un pays de la zone euro où le gouvernement emprunte secrètement de trop, beaucoup de vos concitoyens mourront en raison de l’appartenance à la zone euro. »

Simon Wren-Lewis, « Lessons from the Greek tragedy unlearnt », in Mainly Macro (blog), 2 septembre 2018. Traduit par Martin Anota



aller plus loin…

« Petite analytique de la crise grecque »

« L’Europe peut-elle compter sur ses excédents primaires pour résoudre ses problèmes d’endettement ? »

« Deux siècles de défauts souverains en Grèce »

mardi 28 août 2018

La crise turque

« Les marchés financiers ont été très nerveux à propos de la Turquie ces dernières semaines. Nous passons en revue les opinions des économistes à propos des risques économiques, politiques et géopolitiques et les opportunités de cette situation.

Jamie Powell et Colby Smith écrivent (…) que la crise turque ressemble à l’un de ces classiques effondrements que connaissent les pays émergents : une économie en forte croissance financée par une dette de court terme libellée en dollar et dirigée par un homme fort ayant un penchant pour nommer des proches dans les positions clés du gouvernement. Ainsi, cela rappelle la crise asiatique de 1997 et 1998 (…).

Brad Setser pense que la Turquie partage certes certaines similarités avec les pays qui ont subi la crise asiatique dans les années quatre-vingt-dix, mais qu’il y a aussi d’importantes différences. Les banques turques sont la principale raison pour laquelle la crise de change peut se transformer une crise de financement, en laissant la Turquie sans réserves suffisantes pour éviter un défaut majeur. Mais, à la différence des banques asiatiques, la Turquie a été capable d’utiliser le financement externe en devises étrangères pour soutenir un boom domestique en prêtant des lires aux ménages. Les banques turques n’ont vraiment pas besoin d’emprunter en devises étrangères auprès du reste du monde pour soutenir le niveau actuel de leurs prêts en devises étrangères aux entreprises turques et leur besoin apparent de financement de marché est en lires, non en dollars. En outre, le boom réel du crédit n’est pas venu du prêt en devises étrangères aux entreprises, mais plutôt des prêts en lire aux ménages. Le mystère financier (que Setser va ensuite expliquer) n’est pas de savoir comment les banques ont prêté des devises étrangères aux entreprises domestiques, mais comment elles ont utilisé l’emprunt externe en devises étrangères pour soutenir un prêt domestique en lires.

GRAPHIQUE Dette externe de la Turquie (en milliards de dollars)

Brad_Setser__Dette_externe_de_la_Turquie.png

source : Brad Setser (2018)

Jacob Funk Kirkegaard écrit que les développements économiques poussent inévitablement la Turquie à s’approcher du FMI pour son deuxième renflouement depuis le début du siècle. Les difficultés fondamentales de la Turquie dérivent des déficits jumeaux qu’elle a creusés ces dernières années. Ce qui aggrave les problèmes de la Turquie, ce sont diverses difficultés politiques liées à sa relation avec l’OTAN, l’UE et les Etats-Unis, comme le pays n’a jamais été aussi isolé sur le plan international au cours de ces dernières décennies qu’aujourd’hui. La route pointe donc vers le FMI, mais le Fonds risque de ne pas vouloir aider la Turquie sans que celle-ci adopte en contrepartie des sévères mesures d’austérité, des mesures qui risquent d’affaiblir la mainmise d’Erdogan sur le pouvoir. Mais Erdogan a un certain levier politique potentiel (assez déplaisant), comme une imminente attaque imminente du gouvernement syrien juste au sud de la frontière turque pourrait facilement amorcer un afflux de réfugiés au nord de la Syrie. La décision de la Turquie d’ouvrir ou non ses frontières et d’offrir un refuge aux Syriens pourrait bien dépendre (…) de l’aide économique de l’Occident ou des termes d’un plan de sauvetage du FMI.

Grégory Claeys et Guntram Wolff ne sont pas d’accord à cette idée et affirment qu’une correction des politiques macroéconomiques de la Turquie est nécessaire, mais qu’il est trop tôt pour dire si la Turquie aura besoin d’un programme de sauvetage. Les décideurs européens doivent cependant réfléchir sur ce que doit être la position de l’UE à l’égard de la Turquie. Une crise financière dans un pays voisin de l’UE peut avoir un impact négatif direct sur l’économie de l’UE, principalement via l’exposition de ses banques opérant en Turquie et via le commerce. En outre, une crise en Turquie peut déclencher de possibles effets domino politiques et des changements conséquents dans la politique migratoire de la Turquie, sans mentionner des menaces géopolitiques. Si un programme du FMI était infaisable et si les pays de l’UE en venaient à la conclusion qu’il est dans leur intérêt d’éviter une escalade de la crise turque, l’UE pourrait essayer d’organiser un plan de soutien financier via son programme d’assistance macrofinancière réservé aux pays partenaires hors de l’UE. Mais dans ce cas, l’UE doit décider si un tel instrument doit être utilisé pour obtenir des avancées en matière de valeurs démocratiques ou si l’UE doit avoir une approche plus fonctionnelle et limiter la conditionnalité sur des politiques macro-structurelles spécifiques. (…)

Jim O’Neill estime que la Turquie doit maintenant fortement resserrer sa politique monétaire, réduire l’emprunt étranger et se préparer à l’éventualité d’une sévère récession, durant laquelle l’épargne domestique ne se reconstituera que lentement. Parmi les puissances régionales, la Russie est parfois mentionnée comme possible sauveteur. Alors qu’il n’y a aucun doute que Vladimir Poutine aimerait utiliser la crise turque pour éloigner davantage la Turquie de ses alliés de l’OTAN, Erdogan et ses conseillers se tromperaient s’ils pensaient que la Russie puisse combler le vide financier de la Turquie : une intervention du Kremlin aurait peu d’effet sur la Turquie et exacerberait les défis économiques de la Russie.

José Antonio Ocampo affirme plutôt que les schémas durables dans les pays émergents peuvent ne plus s’appliquer. Au pic des turbulences turques, dans la semaine entre le 8 et le 15 août, les devises de l’Argentine, de l’Afrique du Sud et de la Turquie se sont dépréciées de 8 % à 14 % vis-à-vis du dollar américain. Pourtant les devises des autres pays émergents ne se sont pas dépréciées de plus de 4 %. Cela suggère que la contagion ne se fait pas aussi facilement que par le passé et lue des arrêts brusques (sudden stops) sont peut-être moins probables que par le passé. Même les économies les plus affectées étaient capables de limiter les effets de la chute de leur devise. Cela semble refléter une nouvelle résilience face à la contagion qui s’est formée au cours des dix dernières années, voire plus. Mais cela ne signifie pas que les économies émergentes sont immunisées ; au contraire, elles ont de quoi s’inquiéter, notamment avec l’escalade d’une guerre commerciale. Des politiques réfléchies, avec une amélioration globale du filet de sécurité financier de la part du FMI, restent par conséquent de la plus haute importance. (…) »

Silvia Merler, « The Turkish crisis », in Bruegel (blog), 27 juillet 2018. Traduit par Martin Anota



aller plus loin...

« De l’arrêt soudain à la déflation par la dette »

« Comment les pays émergents peuvent-ils gérer l'effondrement des flux de capitaux ? »

« Les hauts et les bas de la croissance turque »

mercredi 22 août 2018

La plus grande erreur de politique économique de la dernière décennie

« "The biggest policy mistake of the last decade" est le titre d’un article de Ryan Cooper et l’erreur en question est bien sûr l’austérité. (C’est un article qui se focalise sur les Etats-Unis, si bien qu’il n’évoque pas le Brexit.) Cooper s’est penché sur les universitaires qui cherchèrent à convaincre de la nécessité de l’austérité et sur les raisons pour lesquelles leur analyse s’est ensuite révélée erronée. (…)

Voici le paragraphe par lequel il conclut son article : "Comme nous l’avons vu, les preuves empiriques en faveur de la position keynésienne sont écrasants. Et cela signifie qu’une décennie d’austérité stérile a durement nui à l’économie américaine, laissant celle-ci autour de 3.000 milliards de dollars en-deçà de sa trajectoire de croissance d’avant-crise. A travers une combinaison de mauvaise foi, de sophismes et de pure incompétence, les partisans de l’austérité ont directement créé le problème que leur programme était supposé éviter. Bon vent !"

Il y a beaucoup de choses que je pourrais dire à propos des détails de l’article, mais cette conclusion est essentiellement correcte et elle s’applique au moins autant au Royaume-Uni qu’aux pays de la zone euro. Avec les amples réductions d’impôts de Trump pour les riches financées en grande partie par l’emprunt, les Républicains ne peuvent plus dire à tout le monde, de façon crédible, que l’austérité est incontournable. A l’inverse, l’enthousiasme de la droite pour l’austérité reste fort en Europe.

En lisant cet article, je me suis rappelé les deux premières années que j’ai passées à rédiger ce blog, lorsque je rejoignis les blogueurs essentiellement américains, menés par Paul Krugman et Brad DeLong, qui s’opposèrent à l’idée d’austérité. Nous avons essayé de combattre les arguments universitaires en faveur de l’austérité et nous avons réussi. Comme l’article de Cooper le suggère, ce ne fut pas une tâche très difficile. Parfois, certains économistes de premier plan qui auraient dû en savoir plus commirent de simples erreurs telles que celles dont j’ai discutées ici. En d’autres occasions, comme dans le cas des prédictions selon lesquelles l’assouplissement quantitatif conduirait à une inflation massive et dont Cooper discute, les événements montrèrent rapidement que les keynésiens avaient raison. Il n’y avait que les études de la paire formée par Alesina et Ardagna ou du binôme formé par Reinhart et Rogoff qui laissaient planer un soupçon.

En ce qui concerne les keynésiens, ils avaient gagné la bataille intellectuelle fin 2012, peut-être même avant. En particulier, l’analyse influente de Paul De Grauwe expliquant pourquoi les pays de la zone euro ont connu une crise de la dette, en l’occurrence par l’absence d’un prêteur en dernier ressort pour les Etats, mit fin à la crédibilité universitaire des récits prophétisant "que nous allons tous devenir Grecs". L’adoption du programme OMT par la BCE en septembre 2012 et la fin de la crise de la dette souveraine en zone euro qui s’ensuivit donnèrent raison à De Grauwe. En 2013, Krugman avait écrit, à propos de l’austérité, que "ses prédictions se sont révélées absolument fausses ; les travaux universitaires sur lesquels elles se fondent n’ont pas seulement perdu leur statut d’œuvres canonisées, ils sont aussi l’objet de risée". Ce que nous ne savions pas de façon assurée par contre, c’était à quel point l’austérité aurait des dommages durables, comme le note Cooper.

J’aimerais ajouter deux points importants que n’évoque pas l’article de Cooper. Le premier est que, la majorité des économistes avaient beau être en 2013 convaincus que l’austérité constituait une erreur (…), les journalistes d’économie dans les médias non partisans ne le reconnaissaient pas, parce que les politiciens continuaient de mettre en œuvre cette politique. Voici ce que disait Robert Peston en 2015 : "Avant de me faire attaquer (comme toujours) par la frange des économistes keynésiens qui adorent Krugman pour avoir ne serait-ce qu’évoqué le raisonnement de George Osborne, je précise que je ne dis pas que la quête d’une réduction rapide du déficit a un moindre impact négatif sur le revenu national et les niveaux de vie que la consolidation budgétaire plus lente qu’ils proposent. Je dis simplement qu’il y a un débat ici (bien que Krugman, Wren-Lewis et Portes soient convaincus qu’ils ont gagné ce match et adoptent la vue quelque peu condescendante que les électeurs pensant différemment sont des agneaux ignorants que trompent des médias malins ou aveuglés)." Nous savons maintenant que les électeurs ont en effet été égarés par des médias malins ou aveuglés ou du moins par des médias qui n’ont pas eu le courage de faire part des débats universitaires.

Le second point est que ce débat universitaire a eu un impact nul sur les politiciens. En ce sens, l’article de Cooper est une préoccupation purement académique. L’austérité n’a pas commencé parce que les politiciens avaient choisi les mauvais macroéconomistes universitaires comme conseillers et le fait que les keynésiens gagnèrent le débat n’a eu par conséquent aucun impact sur ce qu’ils firent. Le débat universitaire était en ce sens un spectacle secondaire. Je pense que plusieurs universitaires keynésiens le comprirent : ce fut un combat que nous avons gagné, mais nous avions conscience que cela ne changerait rien. J’ai écrit en 2012 que si tous les universitaires étaient unis, nous pourrions avoir un impact sur l’opinion publique, mais cette illusion n’a pas duré très longtemps et le Brexit montra qu’il ne s’agissait qu’une illusion.

Je pense que ce manque d’influence que les économistes universitaires peuvent avoir n’est pas bien saisie. (…) Les économistes peuvent être influents, mais seulement si les politiciens veulent les écouter ou si les médias sont préparés à les confronter au savoir universitaire. Par exemple, les politiciens n’ont pratiquement rien fait pour s’assurer qu’il n’y ait pas d’autre crise financière, mais ce n’est pas parce que les économistes ne leur ont pas dit de le faire, ni ne leur ont pas expliqué comment le faire. C’est parce que les politiciens ne le voulaient pas.

Si les économistes comme Alesina ou Rogoff ont autant été mis en avant dans les premières discussions autour de l’austérité, ce n’est pas parce qu’ils étaient influents, mais parce qu’ils se révélèrent utiles pour fournir une certaine crédibilité à la politique que les politiciens de droite voulaient poursuivre. L’influence de leurs travaux n’a pas duré longtemps parmi les universitaires, qui rejettent maintenant largement l’idée qu’il existe une austérité expansionniste ou un point critique pour la dette. A l’inverse, les dommages occasionnés par l’austérité ne semblent pas avoir fait de mal aux politiciens qui l’ont promue, en partie parce que la plupart des médias continuent de suggérer que ces politiciens ont peut-être raison, mais aussi parce qu’ils sont toujours au pouvoir. »

Simon Wren-Lewis, « The biggest economic policy mistake of the last decade, and it had nothing to do with academic economists », in Mainly Macro (blog), 21 août 2018. Traduit par Martin Anota



aller plus loin…

« L’austérité est-elle vouée à l’échec ? »

« La fée confiance ou le mythe de l’austérité expansionniste »

« La dette publique nuit-elle à la croissance économique ? »

« Il n’y a pas de seuil magique dans la relation entre croissance et endettement »

vendredi 17 août 2018

Faut-il stabiliser l’activité via la politique monétaire ou la politique budgétaire ?

« L’un des désaccords entre économistes orthodoxes et hétérodoxes porte sur la question quant à savoir si c’est la politique monétaire ou bien la politique budgétaire qui doit être utilisée pour la stabilisation macroéconomique (c’est-à-dire pour contrôler la demande globale de façon à influencer l’inflation et la production). Que fait un bon instrument dans ce contexte ? Comme je l’ai affirmé auparavant, une différence clé entre les orthodoxes et les partisans de la modern money theory (MMT) implique différentes réponses à cette question. Je pense que les questions suivantes sont cruciales : (1) A quelle vitesse les changements de l’instrument (par exemple, les hausses de taux d’intérêt) influencent la demande ? (2) A quelle vitesse l’instrument peut-il être modifié ? Y a-t-il des limites à la vitesse à laquelle il peut être modifié ? (3) A quel point l’impact de l’instrument sur la demande est-il fiable ? En d’autres mots, à quel point l’impact d’un changement de l’instrument sur la demande est-il incertain ? (4) A quel point pouvons-nous être certains que la personne qui détient le contrôle de l’instrument l’utilisera de la façon appropriée ? (5) Est-ce que le changement de l’instrument a des "effets collatéraux" qui sont indésirables ? Si nous appliquons ces questions afin de savoir s’il faut utiliser les taux d’intérêt ou un certain élément de la politique budgétaire, quelle réponse obtiendrions-nous ? Avant de le faire, il est utile de noter que cela revient à savoir quelle est la manière la plus rapide et la plus fiable d’influencer la demande. Ce n’est pas tout à fait la même chose que de se demander comment la demande influence l’inflation (aussi longtemps que nous parlons de l’inflation sous-jacente).

La question (1) est importante parce que de longs délais entre l’instant où l’instrument est changé et l’instant où ce changement influence la demande nuisent à l’élaboration de la politique économique. Que penseriez-vous de votre chauffage central s’il mettait une journée pour chauffer votre appartement lorsque vous avez froid ? C’est peut-être la question la plus intéressante pour un macroéconomiste. Une discussion complète nécessiterait tout un manuel, donc pour éviter cela je vais suggérer que la réponse n’est pas critique pour expliquer pourquoi les orthodoxes préfèrent la politique monétaire à la politique budgétaire.

La question (2) est aussi importante pour des raisons évidentes. Si un instrument ne peut être changé qu’une poignée de fois pas an, c’est comme s’il y avait de très longs délais avant que les effets de l’instrument se fassent ressentir. Sur cette question, la politique monétaire semble avoir un clair avantage dans le contexte des accords institutionnels en vigueur. Une part de cette différence est difficile à changer : il faut du temps pour qu’une bureaucratie prenne une décision. Comme je l’ai noté avec l’expansion budgétaire mise en œuvre par la Chine après la crise, environ la moitié des projets étaient lancés en moins d’un an. (…)

La deuxième partie de la question (2) est clairement négative pour les taux d’intérêts, parce qu’ils ont une borne inférieure. Ce n’est le cas pour les instruments budgétaires : vous pouvez toujours réduire les impôts par exemple. (…) Avoir potentiellement deux instruments différents pour des situations différentes est un autre point en faveur de la politique budgétaire.

La question (3) n’est pas souvent posée, mais elle est absolument cruciale. Imaginez que vous augmentiez la température sur un thermostat qui n’a pas de réglage et qui n’agit pas non plus de la même façon d’une journée à l’autre et même d’une heure à l’autre. Le programme OMT est le clair exemple d’un piètre instrument, parce que les banques centrales ont moins d’idées sur son efficacité que sur celle des variations du taux d’intérêt, en partie en raison du manque de données, mais aussi en raison de possibles non-linéarités.

Est-ce que les changements sont plus ou moins fiables que les mesures budgétaires ? Le gros avantage des changements de dépenses publiques est que leur impact direct sur la demande est connu, mais comme nous l’avons déjà noté de telles mesures sont lentes à mettre en œuvre. Les changements fiscaux sont plus rapides à faire, mais plusieurs économistes orthodoxes affirmeraient que leur impact n’est pas plus fiable que l’impact des variations du taux d’intérêt. A l’inverse, certains économistes hétérodoxes (en particulier les partisans de la MMT) affirmeraient que les variations du taux d’intérêt sont tellement peu fiables que même le signe de l’impact n’est pas clair.

La question (4) est seulement pertinente si c’est aux banques centrales qu’est délégué le pouvoir de changer les taux d’intérêt. Supposons que nous soyons dans une situation telle que celle du Royaume-Uni, où la banque centrale a le contrôle sur les taux d’intérêt, mais où elle doit suivre un mandat fixé par le gouvernement. Un argument robuste est que, en déléguant cette tâche à une institution indépendante, la politique économique est moins susceptible d’être influencée par des facteurs extérieurs (…), si bien que la politique économique devient plus crédible. (Il y a toute une littérature impliquant des idées similaires.)

Cet avantage pour la politique monétaire découle simplement du fait qu’elle peut être facilement déléguée. Cependant, même si elle n’est pas déléguée, la politique budgétaire a pour désavantage que ses changements sont soit populaires (ce qui est le cas des baisses d’impôts), soit impopulaires (comme c’est dans le cas avec les hausses d’impôts). A l’inverse, les variations du taux d’intérêt impliquent des gains pour certains et des pertes pour d’autres. Cela rend les politiciens réticents à adopter une action budgétaire déflationniste et trop enclins à adopter une action budgétaire inflationniste. Donc, même sans délégation, il semble probable que les variations du taux d’intérêt soient davantage susceptibles d’être utilisées de façon appropriée pour gérer la demande que les mesures budgétaires.

La question (5) peut impliquer plusieurs choses. Dans les modèles basiques des nouveaux keynésiens, le taux d’intérêt réel est le prix qui assure que la demande soit à un niveau d’inflation constante. Par conséquent, les taux d’intérêt nominaux sont l’instrument évident à utiliser. Changer la politique budgétaire, d’un autre côté, crée des distorsions pour la bonne combinaison de biens publics et privés ou pour le lissage fiscal.

Donc les arguments contre la politique budgétaire comme le principal outil de stabilisation en-dehors de la borne inférieure sont les suivants : elle est plus lente à changer et elle ne peut pas être déléguée. Même si la politique monétaire n’était pas déléguée, les politiciens peuvent laisser des problèmes de popularité empêcher une stabilisation budgétaire efficace. Alors que les changements de dépenses publiques ont un certain effet direct, ils sont aussi les plus difficiles à mettre en œuvre rapidement.

Le problème de la borne inférieure est un argument potentiellement robuste que l’on peut avancer contre la politique monétaire. Vous pouvez penser que faire de la politique monétaire l’instrument de stabilisation désigné a fait perdre au gouvernement l’habitude de faire de la stabilisation budgétaire, si bien que lorsque vous vous retrouvez contraint par la borne inférieure et que la stabilisation budgétaire est nécessaire, elle n’est pas utilisée. Les récents événements ne font que confirmer cette inquiétude. Personnellement, je ne pense pas que les macroéconomistes orthodoxes parlent assez de ce problème. (...) »

Simon Wren-Lewis, « Interest rate vs fiscal policy stabilisation », in Mainly Macro (blog), 15 août 2018. Traduit par Martin Anota


Plaidoyer pour les stabilisateurs automatiques


« Simon a offert un bon aperçu sur la question quant à savoir si la politique budgétaire ou la politique monétaire est la plus efficace pour stabiliser la production. Je pense toutefois que ni l’une, ni l’autre n’est en pratique particulièrement bonne et que nous avons plutôt besoin de meilleurs stabilisateurs automatiques.

Je le dis pour une raison simple : les récessions sont imprévisibles. En 2000, Prakash Loungani avait étudié les performances passées des prévisions du PIB du secteur privé et concluait que "la capacité à échouer à prédire les récessions est quasi irréprochable", un fait qui continua d’être vérifié par la suite.

La BCE, par exemple, a relevé ses taux en 2007 et en 2008, en oubliant le désastre imminent. La Banque d’Angleterre a fait un peu mieux. En février 2008, son graphique des risques ne donnait qu’une légère probabilité que le PIB chute en glissement annuel en 2008 ou 2009 alors qu’en fait il chuta de 6,1 % dans les 12 mois suivants. Pour cette raison, le taux directeur n’a pas été ramené à 0,5 % avant mars 2009.

Etant donné qu’il faut environ deux ans pour les variations des taux d’intérêt aient leur maximum d’effets sur la production, cela signifie que la politique monétaire réussit mieux à soutenir l’économie après une récession qu’à prévenir en premier lieu cette récession. Et, bien sûr, comme il n’y a pas de preuve empirique que les gouvernements prédisent mieux les récessions que ne le font le secteur privé ou les banques centrales, on peut dire la même chose à propos de la politique budgétaire.

Tout cela me suggère que si nous voulons stabiliser l’activité face aux récessions imprévisibles, nous n’avons pas simplement besoin de politiques monétaire et budgétaire discrétionnaires, mais plutôt de meilleurs stabilisateurs automatiques.

Dans ce contexte, j’ai longtemps été attiré par les propositions de Robert Shiller pour des macro-marchés. Ces derniers permettraient aux gens vulnérables aux récessions (notamment ceux qui ont des emplois exposés à la conjoncture ou avec de petites entreprises) d’acheter une assurance contre un ralentissement de l’activité. Je peux comprendre pourquoi certains peuvent être sceptiques à cette idée : le type de personnes qui s’assureraient contre les récessions seraient le type de personnes qui seraient incapables de payer lorsqu’une récession éclaterait. (…)

Si les marchés d’assurance du secteur privé n’existent pas, la tâche de la stabilisation est mieux réalisée par le gouvernement. Les mesures les plus évidentes incluent une imposition plus progressive (de façon à ce que les chutes du revenu soient partagées avec le gouvernement) et de plus hautes prestations sociales, aussi bien pour les personnes sans emploi que pour ceux qui subissent une baisse de leur temps de travail.

Il y a autre chose. Une autre façon de stabiliser l’économie est de s’assurer qu’il y a moins d’institutions qui propagent le risque, celles qui transforment de légers ralentissements en amples contractions de l’activité. Cela revient à s’assurer que les banques sont fortes et bien capitalisées, c’est-à-dire que les mauvais prêts n’épuisent pas le capital au point d’empêcher le prêt aux autres entreprises. Il est discutable que ce soit actuellement le cas : les ratios de capital des banques britanniques, par exemple, sont toujours inférieurs à ceux recommandés par Admati et Hellwig.

Ce sont des mesures comme celles-ci, plutôt que des mesures discrétionnaires de politique macroéconomique, qui offrent peut-être le meilleur espoir de vraiment stabiliser la production et l’emploi.

(…) Je fais deux remarques plus générales ici. Tout d’abord la stabilité macroéconomique n’est pas qu’une question de politique macroéconomique. Elle tient aussi à la qualité des institutions (la nature de l’Etat-providence, l’ampleur à laquelle les institutions propagent le risque, si nous avons des marchés qui mutualisent les risques, et ainsi de suite). D’autre part, l’incapacité des décideurs de politique économique (et des autres) à prédire les récessions n’est pas un aspect contingent accidentel que nous pourrions ignorer. Un manque de prévision fait partie intégrante de la condition humaine. La politique économique doit être fondée sur ce fait. Bien sûr, cela s’applique à bien plus de choses qu’à la politique macroéconomique. »

Chris Dillow, « For automatic stabilizers », in Stumbling & Mumbling (blog), 16 août 2018. Traduit par Martin Anota

vendredi 10 août 2018

Les marchés sont-ils trop concentrés ?

« Lors de son apogée à la fin du dix-neuvième siècle et au début du vingtième siècle, la Standard Oil Company contrôlait environ 95 % des activités de raffinage du pétrole aux Etats-Unis. La domination des marchés par de grandes entreprises comme la Standard Oil a été emblématique de ce que l’on appelle l’Age doré et elle déclencha un mouvement antitrust. En conséquence, en 1911, la Cour suprême des Etats-Unis a obligé la Standard Oil à se scinder en plus de 30 entreprises.

Aujourd’hui, plusieurs secteurs de l’économie présentent des niveaux similaires de concentration. Google représente plus de 90 % de l’ensemble du trafic de recherches en ligne. Ensemble, Google et Apple produisent les systèmes d’exploitation qui fonctionnent sur presque 99 % des smartphones. Juste quatre entreprises (Verizon, AT&T, Sprint et T-Mobile) fournissent 94 % des services sans fil aux Etats-Unis. Et les cinq plus grosses banques aux Etats-Unis contrôlent près de la moitié de tous les actifs bancaires dans le pays.

Face à l’accroissement de la concentration dans ces secteurs tout comme dans d’autres (cf. graphique), les commentateurs et politiciens des deux côtés du spectre politique ont sonné l’alarme. William Galston et Clara Hendrickson de la Brookings Institution ont écrit qu’(…) "en 1954, les 60 plus grandes entreprises représentaient moins de 20 % du PIB. Aujourd’hui, les 20 plus grosses entreprises représentent plus de 20 % du PIB". Et dans un article publié dans l’American Economic Review, David Autor, David Dorn, Lawrence Katz, Christina Patterson et John Van Reenen (…) ont constaté que la concentration s’est accrue entre 1982 et 2012 dans six secteurs représentant les quatre cinquièmes de l’emploi du secteur privé.

GRAPHIQUE Indice de concentration Herfindahl-Hirschman

Tim_Sablik__Indice_de_concentration_Herfindahl-Hirschman.png

Si l’accroissement de la concentration des marchés signifie qu’il y a moins de concurrence, cela peut avoir diverses répercussions économiques, allant de prix plus élevés à une moindre productivité. Alors même que la Fed et d’autres responsables politiques débattent des causes d’énigmes macroéconomiques comme le récent ralentissement de la productivité ou la faible croissance des salaires, certains économistes ont affirmé que la hausse des niveaux de concentration contribue à expliquer ces mystères.

Efficience versus pouvoir de marché


Pour l’essentiel de la première moitié du vingtième siècle, il a généralement été supposé que la concentration permettait aux entreprises d’exercer un pouvoir de marché. Dans les années cinquante, Joe Bain, de l’Université de Berkeley, a développé des modèles qui reliaient directement la concentration d’un secteur avec son degré de concurrence. Selon Bain, à mesure que les marchés deviennent plus concentrés, les entreprises survivantes entrent naturellement en collusion pour se protéger des concurrents et accroître leurs prix. A cette époque, les cours de justice et les administrateurs partageaient ce point de vue, interdisant les fusions-acquisitions lorsqu’elles étaient susceptibles d’accroître la part de marché d’une entreprise au-delà d’un certain seuil.

Dans les années soixante-dix, les économistes et les juristes de l’Université de Chicago commencèrent à remettre en cause l’idée que la concentration soit forcément nocive. Ils ont noté que la concentration peut s’accroître simplement du fait que les entreprises efficaces réalisent de meilleures performances que leurs rivales et accroissent ainsi naturellement leur part de marché. Dans un livre particulièrement influent publié en 1978, The Antitrust Paradox, Robert Bork affirma que les fusions ont souvent été bénéfiques dans la mesure où elles auraient entraîné une baisse des prix et une plus forte productivité (…).

Plusieurs études ont récemment cherché à déterminer si l’actuelle tendance haussière de la concentration s’explique par la domination d’entreprises plus efficaces ou est le signe d’un plus grand pouvoir de marché. L’article réalisé par Autor, Dorn, Katz, Patterson et Van Reenen tend à soutenir la vision de Chicago, en constatant que les secteurs qui sont devenus plus concentrés depuis les années quatre-vingt ont aussi été les plus productifs. Ils affirment que l’économie est de plus en plus concentrée entre les mains de "firmes superstars", qui sont plus efficaces que leurs rivales.

Le secteur de la haute technologie est tout particulièrement susceptible d’être concentré en raison d’une plus grande efficience. Les plateformes pour la recherche ou les médias sociaux, par exemple, deviennent plus utiles pour leurs utilisateurs à mesure que ces derniers sont plus nombreux. Un réseau social, comme un réseau téléphonique, qui n’a que deux utilisateurs est moins utile qu’un autre ayant des millions d’utilisateurs. Ces effets de réseau et ces économies d’échelle incitent naturellement les entreprises à cultiver les plus grosses plateformes (…). Certains économistes s’inquiètent que ces aspects puissent limiter la capacité des nouvelles entreprises à concurrencer les entreprises en place (…).

Bien sûr, il y a des exceptions. Diverses entreprises en ligne qui ont un jour paru indétrônables ont depuis laissé leur position dominante aux concurrents. America Online, eBay et MySpace ont laissé leur place à Google, Amazon, Facebook et Twitter. "Il est facile de dire qu’en raison de l’existence d’économies d’échelle dans ces secteurs il peut ne jamais y avoir de concurrence en leur sein", dit Richard Schmalensee, un économiste du MIT, qui a beaucoup écrit à propos de l’organisation industrielle des plateformes. "Mais il y a des économies d’échelle dans beaucoup de secteurs. Elles limitent l’ampleur de la concurrence, mais elles ne la font pas disparaître."

D’un autre côté, certains chercheurs ont affirmé que les choses pourraient être différentes cette fois-ci. Les taux d’entrée pour les nouvelles entreprises ont chuté ces dernières années, ce qui signale peut-être que les challengers ont plus de difficultés à pénétrer ces marchés. (…) Cela peut résulter du comportement anticoncurrentiel de la part des entreprises en place. L’année dernière, les autorités de la concurrence de l’UE ont donné une amende d’un montant record de 2,42 milliards d’euros à Google pour avoir manipulé son moteur de recherche pour favoriser ses propres services par rapport à ceux de ses concurrents.

GRAPHIQUE Taux d’entrées et de sorties pour les entreprises

Tim_Sablik__Taux_d_entrees_et_de_sorties_pour_les_entreprises_Etats-Unis.png

"Vous ne voulez pas empêcher les entreprises de tirer avantage des économistes d’échelle", dit Schmalensee. "D’un autre côté, vous ne voulez pas que ces économies alimentent des positions de monopole qui soient défendues par des moyens déloyaux."

La technologie et les brevets sur cette technologie peuvent aussi constituer une autre manière par laquelle les entreprises en place créent des barrières pour les possibles rivaux. Dans un document de travail de 2017, ont constaté que depuis 2000, les entreprises sur les marchés concentrés ont eu plus de brevets que les entreprises sur les marchés moins concentrés. Ces brevets détenus par des entreprises sur les marchés concentrés tendaient aussi à être les plus valables, représentant un réel obstacle pour les potentielles entreprises cherchant à pénétrer ces marchés.

Effets sur les prix et salaires


Les prix peuvent être un autre signal du degré de concurrence qui s’exerce sur les marchés concentrés. Les entreprises qui sont capables de se protéger des concurrentes ont plus de latitude pour fixer des prix à un niveau supérieur à celui de leurs coûts marginaux sans craindre d’être dépassées par des entreprises proposant des prix plus faibles. Sur un marché parfaitement concurrentiel, de telles marges pousseraient les nouvelles entreprises à entrer sur le marché et à proposer des prix plus faibles, ce qui ramènerait finalement les marges vers zéro.

Malheureusement, il est en fait difficile de mesurer les marges. Cela nécessite de connaître les coûts des entreprises, une information qui n’est pas pleinement disponible pour les chercheurs. Ces derniers doivent déduire quels sont les coûts marginaux en étudiant les données relatives aux coûts totaux. De plus, de façon à analyser les marges dans tout un secteur, les économistes peuvent supposer que toutes les entreprises de ce secteur font face à la même structure de coûts marginaux. Selon le degré de réalisme de cette hypothèse, les résultats sont plus ou moins biaisés.

En raison de ces problèmes, il n’est pas surprenant de voir que les économistes n’aboutissent pas aux mêmes conclusions lorsqu’ils se penchent sur les marges. Dans un document de travail de 2018, Jan De Loecker (…) et Jan Eeckhout (…) ont constaté que les marges ont fortement augmenté ces dernières décennies : elles sont supérieures de 67 % au coût aujourd’hui, contre 18 % en 1980.

D’un autre côté, des marges plus élevées peuvent aussi découler d’un changement des coûts. Dans un récent document de travail, James Traina de l’Université de Chicago a constaté que la croissance des marges mise en évidence par De Loecker et Eeckhout disparaît une fois que l’on prend en compte la hausse des coûts de commercialisation comme part des coûts opérationnels totaux des entreprises au cours de la même période. Donc, il n’est pas certain que l’accroissement de la concentration des marchés aujourd’hui permette aux entreprises d’exercer un pouvoir de marché et de bénéficier de marges plus élevées.

Les entreprises dans les secteurs concentrés peuvent aussi exercer un pouvoir de marché sur les intrants de leur production, notamment le travail. Sur les marchés très concentrés, les entreprises peuvent former une collusion pour réduire la concentration pour les travailleurs et donc payer moins de salaires. En 2010, le Département de la Justice avait enquêté sur de possibles accords entre Apple, Google, Intel, Intuit, Pixar et Adobe à travers lesquels ces entreprises se seraient entendues pour ne pas se débaucher mutuellement des salariés, ce qui réduisait la concurrence des travailleurs du secteur de la haute technologie. (…)

Même sans collusion, les entreprises avec un plus fort pouvoir de marché sont à même de payer de plus faibles salaires. Dans document de travail du NBER, Efraim Benmelech (…), Nittai Bergman (…) et Hyunseob Kim (…) ont constaté que la plus forte concentration sectorielle est associée à de moindres salaires au niveau local et que ce lien s’est renforcé depuis 1981.

Des gains d’efficacité peuvent aussi expliquer ces tendances. Autor et ses co-auteurs affirment que les firmes "superstars" dans les secteurs concentrés utilisent moins de travailleurs grâce à leur plus forte productivité. Cela réduirait la part de la production économique qui rémunère les travailleurs, ce qui ralentirait la croissance globale des salaires. (…)

Un déclin du dynamisme


Des prix plus élevés et de moindres salaires sont juste deux coûts potentiels d’une plus forte concentration. Les responsables politiques à la Fed s’intéressent aussi au potentiel de croissance à long terme de l’économie et certains économistes ont affirmé que l’accentuation de la concentration peut avoir un effet négatif sur l’innovation et le dynamisme économique.

L’économiste de l’Université de Harvard Joseph Schumpeter est célèbre pour avoir développé l’idée de "destruction créatrice" pour décrire le processus par lequel la concurrence exercée par les nouvelles entreprises qui entrent sur le marché en innovant alimente la croissance de la productivité. En théorie, de nouvelles entreprises petites et innovantes vont être plus efficaces et remplacer les entreprises en place stagnantes ou moins efficaces, permettant une réallocation des travailleurs vers des usages plus productifs. La recherche suggère que ce processus a ralenti au cours des dernières décennies. Les jeunes entreprises, qui ont par le passé été à l’origine d’une part significative des créations d’emplois, emploient une part de moins en moins importante de la main-d’œuvre.

D’un autre côté, certains économistes ont rejeté l’idée que la destruction créatrice alimente la croissance économique. Dans un article de 2018, Chang-Tai Hsieh (…) et Peter Klenow (…) ont constaté que les innovations et les gains en termes de productivité proviennent essentiellement des entreprises en place qui améliorent leurs procédés de production et leurs produits plutôt que des nouvelles entreprises. De ce point de vue, une hausse de la concentration et une baisse de la part des startups parmi les entreprises ne doivent pas inquiéter, aussi longtemps que les entreprises en place sont incitées à continuer d’innover. L’effet de la concurrence sur les incitations à investir et à innover reste cependant une question ouverte.

"L’un des possibles problèmes avec l’innovation est que vous payez le coût aujourd’hui, mais si vous ne pouvez protéger votre innovation, alors vous n’en tirerez pas de bénéfices dans le futur", dit Thomas Philippon de l’Université de New York. Cela peut être particulièrement vrai dans les secteurs où les coûts initiaux en recherche-développement sont élevés, mais où les coûts de réplication sont faibles, comme dans le secteur pharmaceutique. Des gouvernements comme celui des Etats-Unis accordent des brevets (des monopoles temporaires) pour inciter les entreprises de tels secteurs à innover. Mais il est aussi possible que les entreprises avec un fort pouvoir de marché choisissent de moins innover, préférant se contenter de leurs rentes en maintenant des prix élevés sur leurs produits existants.

Les deux théories ne sont pas mutuellement exclusives. Les économistes ont suggéré que la relation entre la concurrence et l’innovation suit une relation en forme de U inversé. A de faibles niveaux de concurrence, un surcroît de concurrence incite les entreprises à innover. Mais si les niveaux de concurrence sont déjà élevés, les entreprises qui innoveraient seraient davantage susceptibles d’être imitées par leurs rivales, ce qui réduit les incitations à innover. La question est : de quel côté de la courbe les secteurs concentrés se situent-ils aujourd’hui ? "Pour la plupart des secteurs aux Etats-Unis, il semble que nous soyons du côté de la courbe où un surcroît de concurrence se traduit par un surcroît, et non une baisse, de l’innovation", estime Philippon.

Les niveaux d’investissement des entreprises ont été faibles depuis le début des années deux mille relativement à leur profitabilité, selon une récente étude réalisée par Philippon et Germán Gutiérrez, son collègue de l’Université de New York. Après avoir pris en compte les conditions de marché, telles que les cicatrices laissées par la Grande Récession, ils ont constaté que les entreprises dans les secteurs les plus concentrés investissaient moins que celles dans les marchés les plus concurrentiels. Ils affirment que cela s’explique par le manque de concurrence. "Quand les meneurs d’un secteur sont concurrencés, ils investissent plus, à la fois dans les actifs physiques et les actifs intangibles comme la propriété intellectuelle", déclare Philippon. "Je suis sûr que vous pouvez trouver des exemples où la concurrence a découragé l’innovation, mais je pense que nous sommes aujourd’hui loin d’une telle situation".

Pas de solutions faciles


Plusieurs signes suggèrent un accroissement de la concentration sectorielle ces dernières années. Il est moins clair de savoir ce que cela signifie pour l’économie. Certaines preuves empiriques suggèrent que des niveaux de concentration croissants contribuent à affaiblir la concurrence, ce qui est susceptible d’avoir des effets pernicieux sur le bien-être des consommateurs et la productivité. D’autres travaux suggèrent que l’efficience découle de la consolidation des entreprises, qui serait bénéfique pour les consommateurs. Pour compliquer davantage les choses, les deux forces peuvent s’exercer au même instant selon le secteur, si bien qu’il est difficile de discerner les effets sur l’économie au niveau agrégé. (…) »

Tim Sablik, « Are markets too concentrated? », in Federal Reserve Bank of Richmond, Econ Focus, premier trimestre 2018. Traduit par Martin Anota

mardi 31 juillet 2018

Inégalités : à la recherche des racines de l'exceptionnalisme américain

« On entend souvent dire que les inégalités de revenu ont été, au cours des quatre dernières décennies, exceptionnellement élevées aux Etats-Unis en comparaison avec les autres pays de l’OCDE. Les derniers résultats disponibles de la part de la Luxembourg Income Study qui harmonise les concepts de revenu pour l’ensemble des pays montrent que les inégalités de revenu disponible (par tête) aux Etats-Unis s’élèveraient à 41 points de Gini, soit à un niveau plus élevé que dans tout autre pays aussi riches (le coefficient de Gini est de 32 en Allemagne, 35 en Grande-Bretagne, 35 en Italie, 28 aux Pays-Bas…). Donc, cette affirmation est peu controversée.

Ce qui est plus controversé est l’explication technique (c’est-à-dire non substantielle) pour cet "exceptionnalisme". Certains ont affirmé que les inégalités de revenu primaire (c’est-à-dire les inégalités avant la redistribution par le gouvernement via les transferts sociaux et les impôts directs) ne sont pas plus élevées qu’ailleurs et que l’explication doit être trouvée du côté d’une redistribution insuffisante. Pour le dire simplement, l’idée est que le marché génère autant d’inégalités aux Etats-Unis qu’en Suède, mais que la Suède redistribue bien plus via les pensions de retraite, les allocations chômage, l’assistance sociale, etc., et taxe aussi davantage les riches, si bien qu’au final les inégalités de revenu disponible (après transferts et impôts) sont moindres en Suède qu’aux Etats-Unis.

Janet Gornick, Nathaniel Johnson et moi-même avons récemment étudié cela plus rigoureusement. Sans m’étendre en explications (celles-ci sont développées dans l’analyse disponible ici), nous arrivons à la conclusion que ce n’est pas entièrement vrai : les inégalités de revenu de marché aux Etats-Unis sont généralement plus élevées que dans les autres pays riches et l’Etat américain redistribue moins. Donc, les inégalités de revenu (primaire) sous-jacentes sont élevées et la redistribution est relativement faible.

Mais nous pouvons aller plus loin que cela et nous avons posé les questions suivantes : quelle part de la redistribution est-elle "faible" ? Est-ce que les transferts américains sont faibles et sont trop peu orientés à destination des pauvres ou bien est-ce que les impôts directs américains ne sont pas assez progressifs ?

Maintenant, je me penche sur ces questions de la façon suivante. Je définis comme "pauvres" les 40 % des personnes les plus modestes lorsque les gens sont classés selon leur niveau de revenu primaire auquel sont rajoutées les pensions versées par le gouvernement (la sécurité sociale aux Etats-Unis), que l’on peut considérer comme étant des salaires différés. J’ai ensuite regardé comment la part de revenu de ces personnes varie lorsque nous incluons d’autres transferts sociaux et enfin lorsque nous déduisons les impôts directs. (Notez que ce calcul peut être fait seulement si vous avez accès aux données microéconomiques parce que vous devez "fixer" ces personnes et observer leur part de revenu à mesure que celle-ci change avec la redistribution.)

Nous nous attendons à ce que la part des "pauvres" augmente à mesure que l’Etat redistribue les revenus. C’est le cas. En 2016 (la dernière année pour laquelle nous disposons des données pour les Etats-Unis), les « pauvres » ont reçu 11,7 % de l’ensemble des revenus primaires, mais leur part grimpe à 13,4 % du revenu lorsque nous incluons tous les transferts sociaux et s’accroît à nouveau pour atteindre 15,8 % lorsque nous incluons également les impôts. (Notez encore qu’il s’agit des mêmes personnes tout le long). Le gain pour les "pauvres" est donc de 1,7 point de pourcentage via les transferts sociaux et de 2,4 points de pourcentage supplémentaires via les impôts.

Nous en concluons qu’aux Etats-Unis, les "pauvres" gagnent 1,7 point grâce aux transferts sociaux et 2,4 grâce aux impôts. Donc, le gouvernement "fonctionne" réellement aux Etats-Unis : il améliore la position des plus pauvres via les transferts publics et les impôts directs. La question est alors : fonctionne-il assez bien ?

L’Allemagne est un bon pays pour réaliser des comparaisons. Nous prenons en compte le fait que la répartition en termes d’âge n’a pas été la même au cours des deux siècles et le fait que les gens partent en retraite plus tôt en Allemagne en considérant les pensions de retraite versées par le gouvernement comme des salaires différés. Mais cela laisse toujours (comme nous l’avons mentionné ci-dessus) d’autres transferts sociaux comme les allocations chômage, les allocations familiales, les aides sociales, etc. Donc, en Allemagne, en 2015, les "pauvres" (définis de la même façon que pour les Etats-Unis) ont gagné 15,3 % de l’ensemble du revenu primaire. Leur part s’élève à 18,3 % quand tous les transferts sociaux sont inclus et à 21,3 % lorsque nous incluons les impôts directs également. Donc, les "pauvres" en Allemagne ont gagné 3 points de pourcentage grâce aux transferts sociaux et 3 points de pourcentage supplémentaires grâce aux impôts directs.

Pour l’Allemagne, nous pouvons conclure que les "pauvres" gagnent 3 points grâce aux transferts et ensuite 3 points additionnels grâce aux impôts.

Donc, non seulement le point de départ des "pauvres" est plus favorable en Allemagne qu’aux Etats-Unis (15,3 % de revenu primaire versus seulement 11,7 %), mais ils gagnent aussi davantage via les transferts sociaux et les impôts directs.

GRAPHIQUE 1 Hausse de la part de revenu des "pauvres" via les prestations sociales

Branko_Milanovic__impact_transferts_sur_inegalites_Allemagne_Etats-Unis.png

Les gains au cours du temps sont présentés dans les deux graphiques. Les "pauvres" gagnent toujours de la redistribution, mais les gains américains sont toujours plus faibles que les gains allemands. On peut noter que les gains tirés des transferts sociaux sont à peu près les mêmes aux Etats-Unis et en Allemagne jusqu’à 1995, puis ils se sont accrus dans les deux pays. Aux Etats-Unis, ils ont atteint leur pic en 2010, lorsque les allocations chômage ont été allongées par Obama, puis ils ont rapidement baissé, puisque l’Etat-providence américain est très modeste.

GRAPHIQUE 2 Hausse de la part de revenu des "pauvres" via la fiscalité directe

Branko_Milanovic__impact_fiscalite_directe_sur_inegalites_Allemagne_Etats-Unis.png

L’évolution des gains tirés des impôts directs est encore plus intéressante. Ici nous voyons que les "pauvres" américains gagnent moins que les "pauvres" allemands et que le niveau de gains ne semble pas beaucoup changer aux Etats-Unis.

En conclusion, quand nous essayons de trouver les racines de la moindre redistribution en faveur des pauvres aux Etats-Unis, nous les trouvons dans les plus modestes transferts sociaux et dans l’imposition directe moins progressive. Cela, avec le fait que les inégalités de revenu primaire soient relativement élevées aux Etats-Unis, signifie que les inégalités de revenu aux Etats-Unis sont "exceptionnelles" parce que (a) les inégalités de revenu primaire sous-jacentes sont élevées, (b) les transferts sociaux sont modestes et (c) les impôts directs ne sont pas assez progressifs.

Quelles sont les implications en matière de politique publique ? Les inégalités de revenu aux Etats-Unis ont peu de chances d’être réduites via l’un de ces trois canaux isolément, mais via une combinaison d’"améliorations" de chacun d’entre eux. Par exemple, via un accès plus facile à l’éducation et une hausse du salaire minimum pour réduire les inégalités de revenu primaire sous-jacentes ; via l’introduction d’allocations familiales ou un Etat-providence plus généreux ; finalement via des taux d’imposition plus élevés pour les riches et une plus forte imposition des revenus du capital. Bien que cela semble être un programme extrêmement ambitieux, je pense qu’il est plus raisonnable de penser que des changements incrémentaux dans chacun de ces trois canaux sont plus faciles à faire passer par voie législative qu’un changement plus substantiel dans n’importe lequel des trois. Mais cela signifie que si l’on veut sérieusement s’attaquer aux fortes inégalités aux Etats-Unis, seule une combinaison de politiques différentes nous permettra de les réduire. »

Branko Milanovic, « A la recherche of the roots of US inequality “exceptionalism” », in globalinequality (blog), 30 juillet 2018. Traduit par Martin Anota

- page 1 de 31