Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

mardi 28 mars 2017

L’Etat-providence à l’âge de la mondialisation

« Dans mon précédent billet qui se focalisait sur les politiques susceptibles de réduire les inégalités au vingt-et-unième siècle, j'indiquais que je discuterai de l’Etat-providence dans un billet ultérieur. Le voici.

C’est devenu un truisme de dire que l’Etat-providence subit les pressions exercées par la mondialisation et la migration. Il sera plus face de comprendre le problème si nous remontons aux origines de l’Etat-providence. Comme Avner Offer nous l’a récemment rappelé dans l’excellent livre qu’il a coécrit avec Daniel Söderberg, la démocratie sociale et l’Etat-providence trouvent leur origine dans la prise de conscience (…) que tout le monde traverse des périodes dans leur vie où elles ne gagnent rien, mais doivent pourtant consommer : cela s’applique aux jeunes (d’où les prestations familiales), aux malades (d’où les soins et indemnités de maladie), à ceux qui se blessent au travail (d’où l’assurance-accidents des travailleurs), aux femmes lorsqu’elles accouchent (d’où le congé parental), aux gens qui perdent leur emploi (d’où l’assurance-chômage) et aux personnes âgées (d’où les pensions de retraite). L’Etat-providence a été créé pour fournir ces prestations, délivrées sous forme d’allocations dans un cadre assurantiel, pour des conditions soit inévitables, soit très communes. Il s’est élaboré sur l’hypothèse d’une similitude des comportements ou, pour le dire différemment, d’une homogénéité culturelle et souvent ethnique. Ce n’est pas un accident si le prototype de l’Etat-providence qui est né en Suède dans les années 1930 avait plusieurs éléments relevant du socialisme national (expression que je n’utilise pas ici dans un sens péjoratif).

En plus de la similitude des comportements et des expériences, l’Etat-providence nécessite une participation de masse pour être soutenable. L’assurance sociale ne peut fonctionner sur des fragments de la main-d’œuvre parce que cela mènerait naturellement à la sélection adverse, un point bien illustré par les querelles sans fin sur la santé aux Etats-Unis. Les riches ou bien ceux qui ne sont pas susceptibles d’être au chômage ou en mauvaise santé ne veulent pas subventionner les "autres" et se désengagent du système. Mais un système qui dépendrait seulement des "autres" serait insoutenable en raison des grandes primes qu’il requerrait. Donc l’Etat-providence ne peut fonctionner que s’il couvre toute la population active ou tout du moins sa grande majorité, c’est-à-dire lorsqu’il (1) est massif et (2) inclut des personnes aux conditions similaires.

La mondialisation érode ces deux exigences. La mondialisation commerciale a contribué au déclin de la part de la classe moyenne dans la plupart des pays occidentaux et à la polarisation des revenus. Avec une polarisation des revenus, les riches se disent qu’il leur est préférable de créer leurs propres systèmes privés parce que partager les systèmes avec ceux qui sont significativement plus pauvres implique de substantiels transferts de revenu. Cela mène au "séparatisme social" des riches, qui se reflète à travers l’importance croissante des régimes privés de santé, des régimes de retraite par capitalisation et de l’éducation privée. Il apparaît qu’une société très inégale et polarisée ne peut maintenir un Etat-providence extensif.

La migration économique à laquelle la plupart des sociétés riches ont été nouvellement exposées au cours des cinquante dernières années (en particulier en Europe) sape aussi le support de l’Etat-providence. Cela survient avec l’inclusion de personnes qui présentent des différences, réelles ou supposées, dans les normes sociales ou les événements de vie. C’est le même phénomène auquel se réfère Peter Lindert lorsqu’il dit que le manque d’"affinité" entre la majorité blanche et les Afro-Américains aux Etats-Unis a contribué historiquement à ce que l’Etat-providence soit moins développé aux Etats-Unis qu’en Europe. Le même processus est maintenant à l’œuvre en Europe, où de larges poches d’immigrants n’ont pas été assimilées et où la population autochtone croit que les immigrés profitent excessivement des prestations sociales. Le manque d’affinité ne relève pas forcément d’une sinistre discrimination. C’est peut être parfois le cas, mais le plus souvent le cas c’est parce que l’on pense (correctement) que l’on n’est pas susceptible de connaître des événements au cours de notre existence qui soient de la même nature ou fréquence que ceux que connaissent les autres, si bien que l’ont ne veut pas contribuer à une telle assurance. Aux Etats-Unis, le fait même que les Afro-Américains aient plus de chances d’être au chômage a probablement mené à ce que les allocations-chômage soient moins généreuses ; de même, le fait que les immigrés soient davantage susceptibles d’avoir des enfants que les autochtones peut entraîner une réduction des prestations familiales. Dans tout cas, le fait de s’attendre à ne pas connaître les mêmes événements de la vie que les autres sape l’homogénéité nécessaire à la soutenabilité de l’Etat-providence.

En outre, à l’ère de la mondialisation, les Etats-providence les plus développés peuvent connaître un effet pervers, celui d’attirer les migrants les moins qualifiés ou les moins ambitieux. "Toutes choses égales par ailleurs", un migrant va décider d’émigrer vers un pays plutôt qu’un autre si le revenu qu’il s’attend à gagner est supérieur dans le premier que dans le second. En principe, cela favorise l’émigration vers les pays les plus riches. Mais nous devons aussi prendre en compte les anticipations du migrant quant à la place qu’il pense atteindre dans la répartition du revenu du pays d’accueil. Si les migrants s’attendent à se retrouver dans les déciles inférieurs de la répartition, alors un pays plus égalitaire avec un plus large Etat-providence sera plus attractif. Les migrants feront le calcul opposé s’ils s’attendent à finir dans les déciles supérieurs dans la répartition de revenu du pays d’accueil. Si les premiers migrants sont soit moins qualifiés, soit moins ambitieux que les seconds (une hypothèse que l’on peut raisonnablement accepter), alors les moins qualifiés vont avoir tendance à choisir les pays avec les Etats-providence les plus développés. Donc il y a sélection adverse.

En termes abstraits, les pays qui seraient exposés à la sélection adverse la plus aiguë seront ceux avec de larges Etats-providence et une faible mobilité du revenu. Les migrants allant vers de tels pays ne peuvent s’attendre, même au cours de la prochaine génération, à avoir des enfants qui grimperaient dans l’échelle des revenus. Via un destructeur effet retour, de tels pays vont attirer les migrants les moins qualifiés et les moins ambitieux et une fois que ceux-ci formeront une sous-classe, la mobilité de leurs enfants sera limitée à la hausse. Le système fonctionne ensuite comme une prophétie autoréalisatrice : il attire encore plus de migrants non qualifiés qui ne parviennent pas à s’assimiler. Les natifs tendent à voir les immigrés comme manquant généralement en compétences et en ambition (ce qui peut être exact parce que c’est le genre de personnes que leur pays attire) et donc comme "différents". Au même instant, l’échec à être accepté sera perçu par les immigrés comme une confirmation des préjugés anti-immigrés des natifs ou, pire, comme de la discrimination ethnique ou religieuse.

Il n’y a pas de solution facile au cercle vicieux auquel font face les Etats-providence des pays développés à l’ère de la mondialisation. C’est pourquoi, dans mon précédent billet, j’ai plaidé pour des politiques qui mèneraient à l’égalisation des dotations, de façon à ce que l’imposition du revenu courant et la taille de l’Etat-providence puissent au final s’en trouver réduites (…). »

Branko Milanovic, « The welfare state in the age of globalization », in globalinequality (blog), 26 mars 2017. Traduit par Martin Anota

dimanche 26 mars 2017

La faiblesse des taux d’intérêt, conséquence d'un investissement anémique

« Pourquoi est-ce que les taux d’intérêt sont-ils restés si longtemps si faibles après la crise financière et semblent promis à le rester durant le futur immédiat ? Une façon d’aborder ces questions consiste à utiliser l’identité comptable selon laquelle l’épargne doit être égale aux dépenses d’investissement physique et à affirmer que les faibles taux ont été nécessaires pour que les dépenses d’investissement soient suffisamment stimulées pour égaler l’épargne. De cette perspective, l’éventualité d’une reprise des taux d’intérêt dépend des causes de la faiblesse des dépenses d’investissement : s’explique-t-elle principalement par des tendances démographiques séculaires qui constituent un frein de long terme sur la demande globale ou bien par les effets résiduels de la crise financière ?

Un excès d’épargne malgré l’identité entre l’investissement et l’épargne au niveau mondial


Sur le plan comptable, le revenu mondial se répartit entre la consommation et l’épargne ; les dépenses se répartissent entre la consommation et l’investissement, auquel cas l’argent est dépensé pour remplacer ou accroître le stock de capital physique. Avec un revenu mondial forcément égal aux dépenses, les deux identités comptables, prises ensemble, impliquent que l’épargne brute mondiale (celle des ménages, des entreprises et des Etats) doit toujours être égale aux dépenses d’investissement brutes.

Au niveau national, cependant, l’épargne n’est pas forcément égale aux dépenses d’investissement, ce qui conduit à des déséquilibres globaux (des excédents et des déficits d’épargne nets) qui s’annulent au niveau de l’ensemble des pays. Certains pays comme la Chine et le Japon épargnent plus qu’ils n’en ont besoin pour financer leurs dépenses d’investissement, si bien qu’ils dépensent leur excès d’épargne à l’étranger. D’autres pays, comme les Etats-Unis, ont des déficits d’épargne nets et empruntent auprès du reste du monde, notamment de la Chine.

Les dynamiques d’épargne et d’investissement mondiales ont joué un rôle important dans l’idée d’un excès d’épargne (saving glut) proposée par Ben Bernanke en 2005 pour expliquer les forces derrière l’emprunt des Etats-Unis vis-à-vis du reste du monde. Bernanke affirmait que les larges excédents d’épargne nets qu’accumulaient l’Asie de l’est (après que la crise financière de 1997 ait déprimé les dépenses d’investissement de la région) et les pays exportateurs de pétrole (après qu’une hausse significative des prix du pétrole ait accru leur épargne) avaient généré un excès mondial d’épargne. Cette ample masse d’épargne devait aller ailleurs et elle finit aux Etats-Unis, où, en réduisant les taux d’intérêt, elle stimula suffisamment les dépenses d’investissement des Etats-Unis pour absorber l’excédent d’épargne étrangère. Bernanke a de nouveau développé cette idée en 2007, en donnant un rôle crucial à l’excès mondial d’épargne pour expliquer pourquoi les taux d’intérêt à long terme américains restaient faibles malgré le resserrement de la politique monétaire américaine.

L’effondrement de l’investissement dans les économies avancées


Le graphique 1 montre que le déclin des dépenses mondiales dans l’investissement (en pourcentage du PIB) en 2008-2009 a reflété des tendances touchant les seules économies développées, avec les dépenses d’investissement dans les pays en développement restant globalement inchangées. Les dépenses d’investissement mondiales ont connu une reprise ensuite et elles sont actuellement relativement élevées, stimulées par de fortes dépenses dans les économies émergentes qui sont bien au-dessus de leurs niveaux d’avant-crise. Ce qui se distingue est la reprise plate des dépenses d’investissement dans les économies développées malgré de faibles taux d’intérêt. Par exemple, les taux d’intérêt des titres publics à cinq ans au cours des cinq dernières années ont atteint en moyenne 2,1 % aux Etats-Unis, 1 % en Allemagne et 0,5 % au Japon, alors qu’ils atteignaient respectivement 4,4 %, 4,2 % et 1,3 % entre 2000 et 2005.

GRAPHIQUE 1 Tendances de l’investissement dans le monde (en % du PIB)

Thomas_Klitgaard_Harry_Wheeler__l_investissement_dans_le_monde.png

Le graphique 2 montre cette chute des dépenses d’investissement dans les pays développés a été généralisée ; le Japon, l’union européenne et les Etats-Unis dépensent moins qu’ils ne le faisaient entre 2000 et 2005. Les Etats-Unis ont connu la plus forte chute parmi les trois régions durant la crise financière et la reprise a laissé jusqu’à présent le ratio investissement sur PIB plus de 3 points inférieur à la moyenne qu’il atteignait entre 2000 et 2005. L’Union européenne et le Japon ont connu une chute de 2 points de pourcentage de la part de l’investissement dans leur PIB au cours de la même période.

GRAPHIQUE 2 Dépenses d’investissement dans les économies avancées (en % du PIB)

Thomas_Klitgaard_Harry_Wheeler__Depenses_d_investissement_dans_les_economies_avancees.png

Qu’est-ce qui pèse sur l’investissement ? Facteurs séculaires versus facteurs conjoncturels


La faiblesse des dépenses d’investissement que l’on observe malgré les très faibles taux d’intérêt a entraîné un vif débat autour de ses possibles causes. Une possibilité est que le ralentissement de la croissance démographique, couplée au vieillissement de la population en âge de travailler dans les pays développés, réduise la croissance potentielle mondiale. Si c’est le cas, les dépenses d’investissement sont principalement freinées par une réduction de la croissance de la production attendue et de la demande de logements. Selon les prévisions des Nations unies, la croissance démographique dans l’ensemble des pays développés va ralentir, en passant de 0,6 % sur la période entre 2000 et 2005 à 0,4 % au cours des cinq prochaines années. En outre, la population de ces pays vieillit, avec la part des plus de 65 ans dans la population passant de 14,1 % en 2005 à 16,3 % en 2015, puis à 17,9 % en 2020 selon les prévisions.

Une explication alternative est que la crise financière mondiale a laissé les entreprises, les ménages et les gouvernements moins enclins, moins aptes à emprunter qu’ils ne l’étaient auparavant. Cette explication conjoncturelle suggère que l’investissement pourrait connaître une reprise rapide lorsque ces freins finiront de disparaître, tandis que l’explication démographique séculaire suggère que les taux d’intérêt vont rester sous pression à long terme (…).

GRAPHIQUE 3 Dépenses d’investissement résidentiel (en % du PIB)

Thomas_Klitgaard_Harry_Wheeler__investissement_residentiel__Japon_Europe_Etats-Unis.png

Les graphiques 3 et 4 montrent que les facteurs freinant les dépenses d’investissement affectent à la fois l’investissement résidentiel et l’investissement non résidentiel dans les économies avancées. Les dépenses résidentielles aux Etats-Unis, rapportées au PIB, étaient en 2016 inférieures de 1,5 point de pourcentage par rapport à leur moyenne entre 2000 et 2005, tandis que les dépenses étaient presque inférieures de 1 point de pourcentage dans l’Union européenne et au Japon par rapport à leur moyenne entre 2000 et 2005. La chute des dépenses résidentielles explique la moitié de la chuté de la chute de l’investissement total dans les économies développées, alors même que ces investissement ne représentent que le quart de l’ensemble des investissements. Le dernier graphique montre cette chute des dépenses d’investissement non résidentiel en pourcentage du PIB. Les entreprises n’ajoutent pas de nouveaux équipements, ni ne remplacent ou accroissent leur stock de capital, au même rythme qu’elles ne le faisaient avant la crise.

GRAPHIQUE 4 Dépenses d’investissement non résidentielles (en % du PIB)

Thomas_Klitgaard_Harry_Wheeler__investissement_non_residentiel__Japon_Europe_Etats-Unis.png

Il est difficile de déterminer ce qui explique l’actuel environnement des faibles taux d’intérêt. Les taux ont augmenté depuis qu’ils ont connu un creux au milieu de l’année 2016 et ils peuvent encore augmenter à moyen terme. Malheureusement, cette évolution n’est pas susceptible de trancher le débat sur l’importance relative des facteurs séculaires vis-à-vis des facteurs conjoncturels. Une hausse des taux d’intérêt signalerait que les entreprises, les ménages et les gouvernements sont enfin plus enclins et aptes à s’endetter, que le souvenir de la crise financière mondiale s’est enfin dissipé, mais de plus hauts taux ne signifieraient pas qu’ils ne sont plus soumis aux pressions baissières générées par la dynamique démographique. »

Thomas Klitgaard et Harry Wheeler, « The need for very low interest rates in an era of subdued investment spending », Réserve fédérale de New York, Liberty Street Economics (blog), 22 mars 2017. Traduit par Martin Anota

mercredi 22 mars 2017

La géométrie des robots

« (…) Ryan Avent (…), dans son dernier livre, a cherché à expliquer comment un profond changement technologique peut aller de pair avec une stagnation des salaires réels et une faible croissance de la productivité. D’après ce que je comprends, il affirme que les grandes avancées technologiques surviennent dans un secteur limité de l’économie et qu’elles poussent les travailleurs à aller dans les professions à faible salaire et faible productivité.

Mais je dois admettre que j’ai tout d’abord eu des difficultés à bien saisir ses propos ou à les concilier avec un cadre économique standard. Je cherche donc à savoir dans quelle mesure il est possible de capturer son récit dans un petit modèle d’équilibre général – fondamentalement le genre de modèle que j’ai appris il y a bien longtemps, lorsque j’étudiais la vieille théorie du commerce international.

Actuellement, je pense que ce genre d’analyse relève quelque peu d’un art perdu. Il fut un temps où la plupart des théories du commerce impliquaient des diagrammes illustrant des modèles à deux facteurs, deux biens et deux facteurs ; il n’y en a plus beaucoup ces jours-ci. Et il est vrai que des petits modèles peuvent être trompeurs et que le raisonnement géométrique peut vous induire en erreur. Il est également vrai, cependant, que ce style de modélisation peut vraiment vous aider à comprendre comment les différents morceaux d’une économie collent les uns aux autres, bien plus que ne peuvent le faire l’algèbre et le verbiage.

Ici, je vais utiliser un cadre qui correspond fondamentalement au diagramme de Lerner, mais adapté à une toute autre question, soit par souci de clarification, soit par nostalgie (je ne sais pas exactement quelle raison l’emporte sur l’autre).

Imaginons une économie qui produit seulement un bien, mais qui peut le faire en utilisant deux techniques, soit la technique A, qui est intensive en capital, soit la technique B, qui est intensive en travail. Je représente ces techniques sur le schéma n° 1 en montrant leurs coefficients d’intrants unitaires.

SCHEMA 1

Paul_Krugman__geometrie_des_robots__schema1.png



Ici, AB est l’isoquant unitaire de l’économie, les diverses combinaisons de capital (K) et de travail (L) qu’elle peut utiliser pour produire une unité de production. E est la dotation de l’économie en facteurs ; tant que le ratio agrégé K/L est entre les intensités factorielles de ces deux techniques, les deux seront utilisées. Dans ce cas, le ratio salaire sur loyer (s/r) sera la pente de la ligne AB.

Attendez, ce n’est pas fini. Puisque tout point sur la ligne passant via A et B a la même valeur, le lieu où elle touche l’abscisse correspond au montant de travail nécessaire pour acheter une unité de production, l’inverse du taux de salaire réel. Et la production totale est le ratio de la distance entre l’origine et E, divisée par la distance à AB, si bien que cette distance est 1/PIB.

Vous pouvez aussi déduire l’allocation des ressources entre A et B ; pour ne pas encombrer davantage le premier diagramme, je le montre sur le schéma n° 2, qui utilise les ratios K/L des deux techniques et la dotation globale E :

SCHEMA 2

Paul_Krugman__geometrie_des_robots__schema2.png



A présent, voici l’histoire d’Avent. Je pense qu’on peut la représenter comme un progrès technique affectant A et qui rend peut-être aussi A encore plus intensive en capital. Donc cela correspondrait à un mouvement vers le sud-ouest, vers un point comme A’ sur le schéma n° 3.

SCHEMA 3
Paul_Krugman__geometrie_des_robots__schema3.png

Nous pouvons voir immédiatement que cela va entraîner une chute du salaire réel, parce que 1/w doit augmenter. Le PIB et donc la productivité doivent augmenter, mais peut-être pas beaucoup si l’économie utilisait principalement la technique intensive en travail.

Et que dire à propos de l’allocation de la main-d’œuvre entre les différents secteurs ? Nous pouvons en parlant en utilisant le schéma n° 4, où le progrès technique touchant le secteur A intensif en capital entraîne un accroissement de la part de la main-d’œuvre employée dans le secteur B intensif en travail.

SCHEMA 4
Paul_Krugman__geometrie_des_robots__schema4.png

Donc oui, il est possible pour une simple analyse en équilibre général de saisir l’essentiel des intuitions d’Avent. Cela ne signifie pas, bien sûr, qu’il ait raison empiriquement. Et il y a d’autres choses dans son raisonnement, telles que des effets hypothétiques sur la direction de l’innovation, qui ne sont pas pris en compte ici. Mais, au moins, j’ai trouvé que cette façon de faire permettait de bien clarifier les choses. (….) »

Paul Krugman, « Robot geometry », 20 mars 2017. Traduit par Martin Anota

mardi 21 mars 2017

Les chimères de la déréglementation du marché du travail

« Tim a accueilli avec joie la proposition de réduire la protection des travailleurs contre les licenciements abusifs : "Cela va accroître la création d’emplois… Plus il est difficile de licencier du personnel, moins les entreprises sont susceptibles d’embaucher quelqu’un".

Cela relève du sens commun. Et malheureusement le sens commun nous amène souvent à nous tromper.

Les travaux empiriques ont cherché à mettre en évidence un lien entre les lois de la protection de l’emploi et le chômage. Par exemple, l’OCDE avait constaté qu’"il y a une faible association, voire aucune association, entre laxisme le degré de législation de la protection de l’emploi et le niveau globale de chômage" ; mais elle constatait toutefois que le chômage de long terme était d’autant plus important que la protection de l’emploi était forte. Et Stephen Nickell a constaté que les lois de protection de l’emploi étaient "négligeables et complètement insignifiantes" pour expliquer les écarts en termes de chômage que l’on observait d’un pays à l’autre durant les années 1980 et au début des années 1990.

Donc, pourquoi est-ce que l’intuition de Tim est aux antipodes avec les faits ? C’est parce qu’il y a des mécanismes qui opèrent dans l’autre sens. S’il n’y avait pas de protection de l’emploi du tout, les travailleurs auraient moins intérêt à rester dans la même entreprise à long terme. Ceteris paribus, ils auraient par conséquent plus d’incitations à changer d’entreprises. Cela aurait deux effets. D’une part, pour fidéliser le personnel, les employeurs peuvent avoir à relever leurs salaires. Cela tendrait à réduire l’emploi. Pour le dire d’une façon qui conviendrait davantage à Tim, les lois de la protection de l’emploi permettent aux entreprises de verser de plus faibles salaires. D’autre part, les travailleurs auraient moins d’incitations à investir dans des compétences spécifiques à l’entreprise. Cela tendrait à réduire l’efficacité de l’entreprise et donc l’empêcherait de se développer.

Vous pensez peut-être que ces effets sont faibles. Peut-être le sont-ils. Mais ceux de Tim aussi ; les entreprises, très optimistes à propos de leur capacité à repérer le talent, n’embauchent pas de travailleurs lorsqu’elles pensent qu’il y a une chance qu’ils puissent tirer au flanc une fois embauchés ou qu’ils sont incompétents.

En raison de ces mécanismes compensateurs, certaines études ont constaté « une relation en forme de U inversé entre la protection de l’emploi et la croissance économique » : "Du point de vue de la croissance du PIB par tête… la protection de l’emploi au début des années 1990 était trop faible dans des pays comme l’Australie, le Canada, le Danemark, les Etats-Unis, le Royaume-Uni et la Suisse".

Par conséquent, il est peu probable qu’une facilitation des procédures de licenciement pour les entreprises réduise le chômage et il très peu probable qu’elle le réduise de beaucoup. Si votre meilleure idée c’est de réduire la protection de l’emploi, c’est que vous ne réfléchissez pas beaucoup. »

Chris Dillow, « Employment protection and jobs », in Stumbling & Mumbling (blog), 27 octobre 2011. Traduit par Martin Anota



« Beaucoup m’ont rappelé hier sur Twitter la vision d’un marché du travail déréglementé que nourrit Liam Fox : "Nous devons commencer par déréglementer le marché du travail. Nous devons balayer les objections politiques. Il est trop difficile d’embaucher et de licencier et il est trop cher de recruter". C’est tout à fait ce qu’ont en tête les conservateurs (…). Mais il y a un petit problème avec cette vision des choses : il n’y a pas de bénéfices évidents à la déréglementation.

Mon graphique le montre bien. Il représente la productivité du travail en 2015 et une mesure de la protection de l’emploi en 2013-2014 : je prends une moyenne simple de quatre d’indices de protection de l’OCDE contre les licenciements et la réglementation du travail temporaire. (…)

GRAPHIQUE Productivité horaire du travail et degré de protection de l'emploi

Chris_Dillow__protection_de_l__emploi__productivite_horaire.png

Il est clair que, parmi les 33 pays pour lesquels nous avons des données, il n’y a pas de corrélation. Il est aussi clair que ce fait est robuste malgré les anomalies. Oui, les Etats-Unis ont une réglementation souple et une forte productivité. Mais le Royaume-Uni et la Nouvelle-Zélande ont une faible réglementation et une faible productivité, tandis que la France et la Belgique ont une réglementation stricte, mais aussi une forte productivité.

Vous pouvez penser que c’est contre-intuitif. Le sens commun dit que si les entreprises peuvent facilement licencier leurs salariés, alors les travailleurs sont incités à travailler plus dur, car ils savent qu’ils perdront leur emploi s’ils se font prendre en train de flâner ; en outre, les entreprises peuvent alors plus facilement ajuster leur main-d’œuvre pour faire face aux changements de conditions de marché.

Ces mécanismes sont toutefois compensés par d’autres. Par exemple, si les gens craignent d’être licenciés, ils ne vont pas chercher à investir dans des compétences spécifiques à des emplois, mais plutôt dans des compétences plus générales qui les rendent attractifs aux employeurs potentiels. Ils peuvent aussi passer moins de temps à travailler et plus de temps à chercher un nouvel emploi. De plus, un manque de protection va encourager les gens à plus souvent changer d’emplois, dans la mesure où il vaut mieux s’en aller que de se faire licencier. Cela peut réduire la productivité, notamment parce qu’il faut du temps aux nouvelles recrues pour qu’elles s’adaptent aux clients et aux technologies de leur nouvelle entreprise, ainsi qu’à leurs nouveaux collègues. Enfin, si les entreprises savent qu’elles peuvent licencier à volonté, elles vont moins chercher à bien sélectionner à l’embauche et à former leur personnel, et ainsi il peut y avoir un plus mauvais appariement entre emplois et travailleurs.

La déréglementation peut bénéficier aux mauvais employeurs qui veulent se comporter en tyrans, mais cela n’a pas de bénéfices évidents au niveau agrégé. (…) »

Chris Dillow, « Deregulation fantasies », in Stumbling & Mumbling (blog), 15 mars 2017. Traduit par Martin Anota

samedi 18 mars 2017

L’anachronique stratégie commerciale de Trump



« (…) Dans ses discours et ses tweets, Trump s’en est agressivement pris à la mondialisation. Il a choisi Robert Lighthizer, très connu pour ses positions protectionnistes, comme Représentant du Commerce. Et les deux autres membres de son triumvirat en matière de commerce (Wilbur Ross, secrétaire du Commerce, et Peter Navarro, le conseiller en commerce de la Maison Blanche) ne sont pas moins protectionnistes que Lighthizer.

Beaucoup parmi les classes populaires et moyennes aux Etats-Unis croient que les accords de libre-échange expliquent pourquoi leurs revenus ont stagné au cours des deux dernières décennies. Donc, Trump cherche à leur fournir une "protection" en choisissant des protectionnistes.

Mais Trump et ses collaborateurs ont mal diagnostiqué le problème. Même si la mondialisation a pu jouer un rôle déterminant dans le déclin de la classe moyenne, c’est également le cas de l’automatisation. Lighthizer et Ross ont essentiellement travaillé dans des secteurs du vingtième siècle tels que la production métallurgique, ce qui les a convaincus de poursuivre des solutions héritées du vingtième siècle pour les problèmes que les Etats-Unis rencontrent au vingt-et-unième siècle.

Malheureusement, le protectionnisme du vingtième siècle ne va pas stimuler la compétitivité des secteurs américains, même s’il parvient à sauver des milliers d’emplois dans des secteurs médiatisés. En outre, l’abandon des accords commerciaux et le relèvement des tarifs douaniers ne vont pas créer de nouveaux emplois bien payés dans les usines. Pire, les tarifs douaniers risquent de seulement infliger davantage de mal aux travailleurs.

Trump et son équipe ne comprennent pas quelque chose d’important : la mondialisation à l’œuvre au vingt-et-unième siècle est tirée par le savoir, pas par le commerce. Une puissante baisse des coûts de communication a permis aux entreprises américaines de délocaliser leur production dans les pays à faibles salaires. Entretemps, pour synchroniser leurs processus de production, les firmes ont aussi délocalisé beaucoup de leur savoir-faire en matière de techniques, de marketing et de gestion. C’est cette "délocalisation du savoir" qui a changé la donne pour les travailleurs américains.

En 2017, les travailleurs américains ne sont pas en concurrence avec la main-d’œuvre étrangère à faible salaire, le capital et la technique de la même façon qu’ils l’ont été au cours des années 1970. Ils sont en concurrence avec une combinaison presque imbattable de travail étranger à faible salaire et le savoir-faire américain. Nous pouvons conceptualiser cela en considérant les produits américains comme n’étant pas produits aux Etats-Unis, mais dans l’Usine Amérique du Nord. Les biens produits dans l’Usine Amérique du Nord doivent faire concurrence avec les biens produits dans l’Usine Asie, l’Usine Europe, et ainsi de suite.

Cela signifie que si l’administration Trump impose des tarifs douaniers, cela va transformer les Etats-Unis en une île à hauts coûts pour les intrants industriels. Les entreprises peuvent être poussées à ramener une partie de leur production aux Etats-Unis, si celle-ci vise effectivement les consommateurs américains. Mais elles vont également être encouragées à délocaliser la production qui est destinée aux marchés à l’export, si bien qu’elles peuvent être en concurrence avec les producteurs japonais, allemands et chinois en-dehors des Etats-Unis.

Augmenter les tarifs douaniers sur les importations, sans toucher aux flux d’idées et de propriété intellectuelle, c’est comme essayer d’empêcher l’eau de couler de ses mains en serrant le poing. Une approche plus rationnelle consisterait à accepter les réalités du vingt-et-unième siècle. La révolution de l’information a changé le monde d’une telle façon que les tarifs douaniers ne peuvent inverser les choses. Avec des travailleurs américains déjà en concurrence avec les robots dans l’économie domestique et avec les travailleurs à faibles salaires à l’étranger, une perturbation des importations va juste créer davantage d’emplois pour les robots.

Trump doit protéger les travailleurs individuels, par les emplois individuels. Les processus de la mondialisation du vingt-et-unième siècle sont trop soudains, imprévisibles et incontrôlables pour que l’on puisse s'appuyer sur des mesures statiques comme les tarifs douaniers. Les Etats-Unis ont plutôt besoin de restaurer leur contrat social afin que les travailleurs puissent davantage profiter des gains générés par l’ouverture commerciale et l’automatisation. La mondialisation et le progrès technique ne sont pas des processus indolores, donc il faudra toujours mettre en place des programmes de requalification, de formation tout au long de la vie, des mesures de mobilité, des programmes de mobilité et de soutien au revenu, et des transferts de revenu régionaux.

En poursuivant de telles politiques, l’administration Trump aura plus de chances de réussir à redonner à l’Amérique sa grandeur" pour les classes moyennes et populaires. La mondialisation a toujours créé plus d’opportunités pour les travailleurs les plus compétitifs et plus d’insécurité pour les autres. C’est pourquoi un fort contrat social avait été établi durant la période d’après-guerre de libéralisation en Occident. Durant les années 1960 et 1970, les institutions telles que les syndicats se sont développées et les gouvernements pris de nouvelles mesures pour faciliter l’accès à l’éducation, développé la sécurité sociale et introduit une imposition progressive. Tout cela a contribué à ce que les membres des classes moyennes puissent se saisir des nouvelles opportunités lorsque celles-ci sont apparues.

Au cours des deux dernières décennies, la situation a énormément changé : la mondialisation continué, mais le contrat social s’est brisé. La première priorité de Trump devrait être de le refondre ; mais ses conseillers en commerce ne le comprennent pas. Malheureusement, ils semblent vouloir se contenter de tarifs douaniers, or ceux-ci vont perturber les chaînes de valeur mondiales, entraîner peut-être des guerres commerciales et seulement accélérer la délocalisation de l’industrie américaine à l’étranger. »

Richard Baldwin, « Trump’s anachronistic trade strategy », 9 février 2017. Traduit par Martin Anota

mercredi 15 mars 2017

Le néolibéralisme et la productivité

« Chris Edwards affirme que les privatisations amorcées par Thatcher "ont transformé l’économie britannique" et stimulé la productivité. Cela nous amène à un paradoxe. Le fait est que les privatisations ne sont pas les seules choses qui se sont passées depuis les années 1980 et qui auraient dû stimuler la productivité, selon (ce que j’appelle) l’idéologie néolibérale. Les syndicats se sont affaiblis, ce qui aurait dû réduire "les pratiques restrictives". Les dirigeants ont vu leur rémunération exploser, ce qui aurait dû en attirer les plus compétents, et mieux les inciter à accroître la productivité. Et la main-d’œuvre a plus de capital humain : depuis les années 1980, la proportion de travailleurs avec un diplôme universitaire a quadruplé en passant de 8 % à un tiers. (…)

L’idéologie néolibérale prédit alors que la croissance devrait s’accélérer. Mais elle ne l’a pas fait. En fait, les données de la Banque d’Angleterre montrent que la croissance de la productivité (…) a eu tendance à ralentir depuis les années 1970. Pourquoi ?

GRAPHIQUE Croissance de la productivité au Royaume-Uni (en %)

Chris_Dillow__croissance_productivite_Royaume-Uni_Grande-Bretagne.png

Il se peut que les réformes néolibérales ne stimulent que temporairement la productivité. Je n’en suis pas sûr. Comme Dietz Vollrath l’a dit, les économies sont habituellement lentes à répondre à une hausse de la production potentielle. S’il y avait eu une forte hausse de la production potentielle, alors nous aurions dû le voir dans les données relatives à la croissance sur vingt ans. Ce n’est pas le cas. Une autre possibilité est que les effets stimulateurs de productivité du néolibéralisme aient été compensés par des forces associées à la stagnation séculaire – la pénurie d’innovations et de projets d’investissement profitables.

Mais il y a une autre possibilité, celle selon laquelle le néolibéralisme a en fait contribué au ralentissement de la croissance.

Je pense à trois façons par laquelle le néolibéralisme peut effectivement freiner la croissance. Un premier mécanisme passe via la politique macroéconomique. Sur des marchés du travail tendus tels que ceux que nous avons connus dans l’immédiat après-guerre, les salariés étaient incités à être plus productifs parce qu’on ne pouvait pas facilement s’appuyer sur la réduction des salaires pour accroître les profits. En outre, les entreprises étaient assurées de faire face à une demande globale élevée, ce qui les encourageait à investir et à accroître leurs ratios capital sur travail pour répondre à cette demande. Dans les années qui ont suivi la démocratie sociale, ces incitations à la productivité se sont affaiblies.

En outre, le néolibéralisme peut contribuer à accroître les inégalités de revenu, or ces dernières peuvent freiner la productivité. Par exemple, les inégalités génèrent de la défiance, or celle-ci déprime la croissance économique en dégradant la qualité de la politique économique, en exacerbant les problèmes d’antisélection (les problèmes de "marchés de l’occasion") et en détournant des ressources vers les secteurs à faible productivité.

Enfin, nous pouvons entrevoir un troisième mécanisme : la gestion néolibérale peut elle-même réduire la production. Il y a là plusieurs canaux possibles. Premièrement, la bonne gestion peut nuire à l’investissement et à l’innovation. William Nordhaus a montré que les profits tirés de l’innovation sont faibles. Et Charles Lee et Salman Arif ont montré que les dépenses en capital sont souvent motivées par le sentiment plutôt que par une évaluation réalisée de sang froid avec pour résultat que cela entraîne une chute des profits. Nous pouvons interpréter les ralentissements de l’innovation et de l’investissement comme une preuve que les dirigeants ont pris en compte ces faits. En outre, une focalisation sur la réduction des coûts, les routines et les meilleures pratiques peuvent empêcher les salariés d’avoir la latitude et le temps d’expérimenter et d’innover. Dans tous les cas, les idées de Schumpeter semblent valides : la croissance capitaliste nécessite un esprit aventurier, or celui-ci est étouffé par la bureaucratie rationnelle.

Deuxièmement, comme Jeffrey Nielson l’a affirmé, les organisations basées sur la hiérarchie peuvent démotiver les subalternes, qui s’attendent à ce qu’on leur dise quoi faire plutôt qu’à prendre des initiatives.

Troisièmement, les incitations à haute puissance accordées aux dirigeants peuvent se révéler contreproductives. Elles peuvent alimenter les comportements de quête de rentes (rent-seeking), les intrigues de bureau et les manœuvres pour atteindre le sommet de la hiérarchie plutôt qu’inciter chacun à faire au mieux son travail. Elles peuvent étouffer les motivations intrinsèques comme la fierté professionnelle. Et elles peuvent amener les dirigeants à se focaliser sur la réalisation de tâches que l’on peut facilement surveiller plutôt que celles qui sont certes importantes à l’organisation, mais plus difficiles à mesurer : par exemple, la réduction des coûts peut être quantifiée, faire l’objet d’une mesure d’incitation, mais maintenir une culture d’entreprises saine est moins facilement mesurable, si bien que celle-ci peut être négligée dans la conception des mesures d’incitations.

Quatrièmement, autonomiser la gestion peut accroître l’opposition au changement. Comme McAfee et Brynjolfsson l’ont montré, pour récolter les bénéfices du changement technique, cela requiert souvent un changement organisationnel. Mais les dirigeants bien payés ont peu de raisons de vouloir faire de vagues en entreprenant de tels changements. La conséquence en est que nous sommes collés dans ce que van Ark appelle la "phase d’installation" de l’économie digitale plutôt que la phase de déploiement. Comme Joel Mokyr l’a dit, les forces du conservatisme suppriment finalement la créativité technique.

Tout cela est cohérent avec le Fait : la croissance de la productivité agrégée a été plus faible au cours de l’ère néolibérale qu’elle ne l’a été entre 1945 et 1973, lors de l’âge d’or de la démocratie libérale. Je concède qu’il ne s’agit ici que d’une suggestion et qu’il peut encore y avoir d’autres possibilités, notamment la possibilité que la forte croissance de la productivité lors de l’immédiat après-guerre ait été une aberration, qui s’explique par le fait que les entreprises aient rattrapé les plus productives et cherché à tirer profit des innovations d’avant-guerre. Cela nous amène toutefois à considérer la possibilité que la faible croissance soit un aspect du capitalisme normal. »

Chris Dillow, « Neoliberalism and productivity », in Stumbling & Mumbling, 26 février 2017. Traduit par Martin Anota

lundi 13 mars 2017

Pourquoi les outils du vingtième siècle ne peuvent réduire les inégalités au vingt-et-unième siècle

« La remarquable baisse des inégalités de revenu et de patrimoine dans les pays riches, de la fin de la Seconde Guerre mondiale au début des années 1980, dépendait de quatre piliers : de puissants syndicats, une éducation de masse, une forte imposition, de larges transferts de revenus. Au cours de ces vingt ou trente dernières années, les inégalités sont reparties à la hausse et les diverses tentatives qui ont cherché à contenir cette nouvelle hausse, mais qui ont échoué à le faire, se sont appuyées sur l’ensemble ou une partie de ces quatre piliers. Mais aucun d’entre eux ne sera efficace au vingt-et-unième siècle.

Pourquoi ? Considérons tout d’abord les syndicats. Le déclin du syndicalisme, que l’on observe dans tous les pays riches et qui est particulièrement prononcé dans le secteur privé, n’est pas seulement le produit de politiques gouvernementales plus hostiles que par le passé. Celles-ci peuvent avoir contribué à la désyndicalisation, mais elles n’en sont pas la cause principale. L’organisation du travail sous-jacente a changé : il y a la désindustrialisation, la tertiarisation et le passage d’unités de production à grande échelle à des unités plus petites, qui emploient moins de travailleurs et qui ne sont pas localisées dans le même endroit. Il est bien plus difficile de coordonner une main-d’œuvre dispersée que de coordonner des travailleurs qui travaillent dans la même usine et partagent un même intérêt. En outre, l’affaiblissement des syndicats est un reflet de la perte de pouvoir du travail vis-à-vis du capital qui est due à l’expansion massive du travail salarié (c’est-à-dire de la main-d’œuvre travaillant dans un système capitaliste) depuis la fin de la Seconde Guerre mondiale et la réintégration de la Chine dans l’économie mondiale. Tandis que cette dernière a constitué un choc temporaire, ses effets vont persister pendant encore plusieurs décennies et ils peuvent être renforcés à l’avenir par une forte croissance de la population en Afrique, qui va entretenir l’abondance relative du travail.

L’éducation de masse a été un outil de réduction des inégalités en Occident au cours de la période lorsque le nombre moyen d’années de scolarité passe de 4 ou 6 dans les années 1950 à 13, voire plus, aujourd’hui. Cela entraîna une réduction de la prime de qualification (skill premium), c’est-à-dire de l’écart entre le salaire des diplômés de l’université et le salaire de ceux qui n’ont qu’un diplôme du primaire ou du secondaire, si bien que le fameux économiste néerlandais Jan Tinbergen croyait au milieu des années 1970 que la prime de qualification serait nulle au tournant du siècle. Mais l’expansion de masse de l’éducation est impossible lorsqu’un pays a déjà atteint 13 ou 14 ans d’éducation en moyenne simplement parce que le niveau d’éducation est limité à la hausse. Donc nous ne pouvons nous attendre à ce que les petites hausses dans les niveaux moyens d’éducation fournissent l’effet égalisateur sur les salaires qu’a pu présenter l’éducation de masse par le passé.

Une forte taxation du revenu courant et de hauts transferts sociaux s’avéraient cruciaux pour réduire les inégalités de revenu. Mais il est politiquement difficile de les accroître à nouveau. Cela s’explique avant tout par le plus grand scepticisme vis-à-vis du rôle du gouvernement et des politiques de prélèvements et de transferts que partagent maintenant les classes moyennes dans plusieurs pays par rapport à leurs prédécesseurs d’il y a un demi-siècle. Cela ne veut pas dire que les gens veulent juste payer moins d’impôts ou qu’ils ne sont pas conscients que sans importants prélèvements les systèmes de sécurité sociale, d’éducation gratuite, d’infrastructures modernes, etc., s’effondreraient. Mais cela veut dire que l’électorat est plus sceptique à propos des gains qu’il peut tirer d’une hausse additionnelle de l’impôt sur le revenu courant et qu’une telle hausse a peu de chance d’être votée.

Mais si les fortes inégalités sous-jacentes sont une menace à l’homogénéité sociale et à la démocratie, quels outils doivent être utilisés pour les combattre ? C’est là où je pense que nous devons réfléchir non seulement en prenant du recul, mais aussi en nous donnant un nouvel objectif : un capitalisme égalitaire basé sur des dotations approximativement égales en capital et en compétences dans la population. Un tel capitalisme génère des résultats égalitaires même sans avoir recours à un large Etat redistributif. Pour le dire simplement : si les riches ont seulement deux fois plus d’unités de capital et deux fois plus d’unités de compétences que les pauvres et si les rendements par unité de capital et de compétences sont approximativement égaux, alors les inégalités globales ne peuvent être supérieures de 2 à 1.

Comment les dotations peuvent-elles être égalisées ? Tant qu’il s’agit du capital, par déconcentration de la propriété des actifs. Tant qu’il s’agit du travail, principalement à travers l’égalisation des rendements aux niveaux de compétences relativement similaires. Dans le premier cas, cela passe via l’égalisation du stock de dotations, tandis que dans le second, cela passe par l’égalisation des rendements des stocks (d’éducation).

Commençons avec le capital. C’est un fait remarquable, auquel peu d’attention a été donnée, que la concentration des richesses et du revenu de la propriété est restée à un niveau incroyablement élevé, en l’occurrence d’environ 90 points de Gini, voire plus, depuis les années 1970 dans tous les pays riches. C’est en grande partie la raison pour laquelle le changement dans le pouvoir relatif du capital sur le travail et la hausse de la part du capital dans la production nette se sont directement traduits par une hausse des inégalités interpersonnelles. Ce fait évident était négligé tout simplement parce qu’il paraissait si… évident. Nous sommes habitués à penser que comme la part du capital va à la hausse, les inégalités de revenu doivent faire de même. Oui, c’est exact ; mais c’est exact parce que le capital est extrêmement concentré et donc qu’une hausse dans une source très inégale de revenu doit pousser les inégalités globales à la hausse. Mais si la propriété du capital devient moins concentrée, alors une hausse de la part du capital, qui peut être (supposons) inévitable en raison de forces internationales telles que le passage de la Chine au capitalisme, n’a pas besoin d’entraîner un accroissement des inégalités dans chaque pays riche pris individuellement.

Les méthodes pour réduire la concentration du capital ne sont pas nouvelles, ni inconnues. Elles n’ont juste jamais été utilisées sérieusement. Nous pouvons les répartir en trois groupes. Premièrement, les politiques fiscales favorables (notamment un taux de rendement minimum garanti) pour rendre la propriété d’actions plus attractive aux petits actionnaires (et moins attractive aux gros actionnaires, c’est-à-dire que le système devrait être l’exact inverse de celui qui est aujourd’hui en vigueur aux Etats-Unis). Deuxièmement, l’accroissement de la propriété du travailleur via le développement de l’épargne salariale sous forme d’actions et d’autres incitations au niveau des entreprises. Troisièmement, l’utilisation des impôts sur l’héritage ou sur le patrimoine pour égaliser l’accès au capital en utilisant les recettes fiscales pour donner à chaque jeune adulte une aide en capital (comme l’a récemment proposé Tony Atkinson).

Que faire avec le travail ? Ici, dans une société riche et bien éduquée, il ne s’agit pas simplement de rendre l’éducation plus accessible à ceux qui n’ont pas une chance d’étudier (bien que cela soit évidemment important), mais d’égaliser les rendements à l’éducation entre des personnes éduquées pareillement. Une source significative d’inégalités salariales n’est plus la différence entre le nombre d’années de scolarité (comme cela fut le cas par le passé), mais la différence entre les salaires (pour le même nombre d’années d’études) en se basant soit sur la différence perçue, soit sur la différence effective dans les qualités scolaires. Réduire cette inégalité passe par une égalisation de la qualité des écoles. Aux Etats-Unis et de plus en plus en Europe, cela implique une amélioration de la qualité des écoles publiques (un point souligné par Bernie Sanders lors des récentes élections américaines). Ce n’est possible qu’avec de larges investissements dans l’amélioration de l’éducation publique et le retrait de divers avantages (notamment l’exemption d’impôts) dont jouissent les formations privées qui reçoivent de larges dotations financières. Sans l’égalisation des règles du jeu entre écoles privées et publiques, une simple hausse du nombre d’années de scolarité ou de la réussite exceptionnelle de quelques enfants de la classe moyenne inférieure à atteindre les formations tertiaires d’élite (qui servent de plus en plus les seuls riches), ne vont pas réduire les inégalités dans les revenus du travail.

Dans un prochain billet, je m’attaquerai à la question de l’Etat-providence à l’ère de la mondialisation et de la migration. »

Branko Milanovic, « Why 20th century tools cannot be used to address 21st century income inequality? », in globalinequality (blog), 12 mars 2017. Traduit par Martin Anota



aller plus loin... lire « Comment la déformation du partage du revenu en faveur du capital accroît-elle les inégalités ? »

samedi 11 mars 2017

La hausse des profits et le ralentissement de la productivité

« (…) Ici je voudrais discuter de certaines nouvelles preuves empiriques en ce qui concerne la hausse de la part des profits dans la production, un complément à la baisse des coûts du travail, et voir comment cela peut influencer la productivité mesurée. Les preuves empiriques suggérant que la part du profit augmente sont importantes, parce qu’il ne s’ensuit pas nécessairement qu’une chute de la part du travail réduise la croissance de la productivité ; cela n’a toujours été qu’une possibilité. Avec une part du profit croissante, je pense que vous pouvez faire un lien plus direct avec la baisse de la productivité mesurée.

Les preuves empiriques suggérant une hausse des parts du profit et des marges


La récente étude de Simcha Barkai fournit des preuves empiriques suggérant que non seulement la part du travail chute, mais aussi la part du capital. Cette combinaison implique que la part du profit dans la production s’accroît. Et par profit, il entend les profits économiques (c’est-à-dire les rentes), par opposition aux profits comptables. Les études antérieures qui ont mis en évidence une chute de la part du travail ont soit ignoré la possibilité que cela puisse signifier une hausse de la part du profit, soit supposé implicitement que cela signifiait une hausse de la part du profit. Barkai montre lui qu’il y a une forte hausse de la part du profit au cours du temps. (…)

La hausse de la part des profits dans la production semble cohérente avec certaines preuves empiriques concernant l’épargne des entreprises. Chen, Karabounis et Neiman ont montré que la source de l’épargne dans l’économie mondiale n’est plus les ménages, mais les entreprises. Etant donné que le comportement de l’investissement est resté relativement le même au cours du temps, cela signifie que les entreprises ont connu une amélioration de leur situation financière. Alors qu’elles étaient auparavant débiteurs nets (en empruntant auprès des ménages pour acheter des biens d’investissement), elles sont désormais des créanciers nets (en utilisant leur propre argent pour acheter des biens d’investissement). (…)

L’effet des marges sur les niveaux de productivité

Les entreprises génèrent du profit en fixant un prix supérieur à leurs coûts marginaux. Donc si les profits sont élevés, cela implique que la marge a augmenté. Pour dire quelque chose à propos de l’effet que la hausse des marges peut avoir sur la productivité, nous devons avoir une certaine idée pour expliquer pourquoi les entreprises sont capables d’avoir une marge au-delà du coût marginal et aussi une certaine idée de ce qui influence cette marge (mark-up).

Pour l’explication, nous supposons que les entreprises ont un certain pouvoir de marché basé sur… quelque chose les concernant. Peut-être qu’elles ont un brevet sur un produit, ce qui les a placé en situation de monopole. Ou peut-être qu’elles ont créé une certaine marque ou disposent d’une certaine réputation (méritée ou non) quant à la qualité de leur produit, ce qui amène les gens à ne désirer que ce dernier. Pensez à Apple. Ou peut-être qu’elles ont un certain avantage spatial, comme en dispose un café dans une station très fréquentée. Qu’importe la raison, ces entreprises ont assez de pouvoir de marché pour avoir une marge.

Qu’est-ce qui détermine le niveau de cette marge et pourquoi changerait-elle ? En général, l’élasticité-prix de la demande pour leurs produits est ce qui importe ici. Plus l’élasticité-prix est élevée (plus la courbe de la demande est plate), moins une entreprise a du pouvoir de marché et moins leur marge est élevée. Plus l’élasticité-prix est élevée (plus la courbe de demande est pentue), plus une entreprise dispose de pouvoir de marché et plus elle peut avoir une marge importante.

Une élasticité-prix serait élevée s’il y avait plein de substituts proches pour le produit, si bien que les gens pourraient facilement abandonner le produit si son prix augmentait un peu. Pensez aux stations essence, qui ont un faible pouvoir de marché en raison de leur localisation spatiale. Mais beaucoup de gens s’arrêteraient d’aller à une station essence qui augmenterait ses prix de quelques centimes. Une élasticité-prix serait faible s’il n’y avait que quelques substituts pour le produit ou si le produit était un complément à d’autres produits que les gens achètent. Ensuite, qu’importe ce que l’entreprise fixe comme prix, les gens lui achèteront son produit. Pensez à un iPhone. Apple a convaincu les gens (qu’importe que vous y croyez ou pas) qu’il n’y a pas de substitut à un iPhone, que les autres smartphones sont tout simplement différents. Donc Apple peut vendre un iPhone à 600 dollars, alors que le coût marginal est très certainement proche de 100 dollars.

Quand les preuves empiriques disent que les marges vont à la hausse, alors une interprétation pourrait être que l’élasticité-prix de la demande pour différents biens a diminué. Cela pourrait être le cas si les gens sont devenus difficiles. Je veux un iPhone, pas un Samsung. Je veux un doublé thé chai au lait, pas un café. (…) Imaginons que chacun se comporte comme une ado de 13 ans.

Maintenant, si les marges sont plus élevées parce que l’élasticité-prix de la demande pour des biens individuels est plus faible, qu’est-ce que cela implique pour la productivité mesurée ? Bien, dans la plupart des cadres typiques, cela diminuerait la productivité mesurée. Pourquoi ? Une baisse de l’élasticité-prix de la demande provient d’une baisse de l’élasticité de substitution entre différents produits. Et une faible élasticité de substitution entre les produits signifie que la plupart de nos intrants (le travail, le capital) finissent par se retrouver dans les entreprises ou secteurs les moins productifs. La productivité mesurée a freiné dans ce cas en raison de la concentration d’intrants dans ces secteurs à faible productivité.

Si c’est bien cela qui se passe, alors nous devrions voir des symptômes proches de ceux de la "maladie des coûts" de Baumol. Les facteurs de production (le capital et le travail) devraient aller dans les secteurs les moins productifs et le prix relatif de la production dans ces secteurs devrait augmenter. Ici je pense que vous devriez faire référence à la hausse rapide du prix de la garde d’enfants, de l’éducation et de la santé, parmi d’autres activités, pour étayer l’argument. Résumons cette optique. L’élasticité de substitution entre produits a décliné au cours du temps. Cela se traduit (1) par une hausse des profits, comme les entreprises jouissent d’une hausse de pouvoir de marché lorsque les gens ne désirent pas se détourner de leurs produits et (2) par une baisse de la productivité mesurée, comme les ressources se concentrent davantage dans les secteurs à faible productivité. Dans ce cas, la hausse des profits n’est pas une cause de la baisse de la productivité.

Le problème avec cette explication est qu’elle dépend du changement des préférences. Il n’est pas clair pourquoi l’élasticité de substitution entre produits dans de larges secteurs se serait réduite. (…)

Concentration et pouvoir de marché


Une explication alternative pour faire sens avec la hausse des profits et la baisse de la productivité serait la concentration des entreprises au sein des secteurs. Imaginez que vous ayez un certain nombre de secteurs : la santé, le transport, l’industrie, l’éducation, etc. Et que les préférences soient telles que les productions de ces secteurs soient complémentaires, avec une faible élasticité de substitution entre elles.

Dans chaque secteur, les gens désirent substituer entre les productions des différentes entreprises. Les entreprises sont engagées dans une concurrence à la Cournot : elles essayent de faire un maximum de profit en prenant en compte les réactions des autres entreprises. Le résultat fondamental dans un cadre à la Cournot est que la marge des entreprises augmente lorsque le nombre d’entreprises diminue. Moins d’entreprises, moins de concurrence, plus de marges. On peut lire les preuves empiriques d’une hausse des parts de profit dans l’étude de Barkai comme cohérents avec l’idée d’un déclin du nombre d’entreprises en concurrence les unes avec les autres dans chaque secteur.

Et je pense que cela entraînerait une baisse de la productivité agrégée. Pour les secteurs avec moins d’entreprises, celles-ci produiraient moins et, si le coût marginal est constant comme dans un cadre typique à la Cournot, cela signifie que moins d’intrants sont utilisés. Parce que les productions des différents secteurs sont complémentaires, nous n’aimons pas avoir moins de production dans un secteur donné, donc de façon à convaincre ce secteur de produire plus, nous accepter de payer un prix plus élevé. S’il faut payer un prix plus élevé pour obtenir la production d’un secteur donnée, c’est comme si le niveau de productivité avait baissé dans ce secteur. Et parce que les différents secteurs sont complémentaires, la productivité agrégée est poussée à la baisse, alourdie par les secteurs les moins productifs. La concentration dans quelques secteurs va dont freiner la productivité au niveau agrégée. (…)

Offres de facteurs et PIB

Mais attendez, il y a plus ! La productivité peut être affectée par la hausse des marges et, même indépendamment de cela, le PIB est influencé par les offres de facteurs. Une hausse des marges ou des profits se fit au prix d’une réduction de la part de la production allant au capital et au travail. Ce qui signifie que le rendement qu’il y a à fournir du capital et du travail est plus faible. Et s’il y une élasticité à l’offre de ces facteurs, alors les gens ont certainement fourni moins de capital et moins de travail en réponse à la chute des parts du capital et du travail. Une baisse du capital et du travail a dû se traduire par une baisse du PIB total (et du PIB par tête), même si la productivité est restée la même. Et si la productivité s’en est également trouvée affectée, alors l’effet d’une hausse des parts du profit sur le PIB a été encore plus large.

Pour résumer, une hausse de la part du profit (soit directement, soit en implication de l’essor de l’épargne des entreprises) peut expliquer une partie du ralentissement de la productivité et de la croissance du PIB au cours des vingt, voire trente dernières années. Il est difficile pour moi de chiffrer précisément cette contribution, mais il est utile de mieux l’explorer. »

Dietrich Vollrath, « Profits and productivity », 6 mars 2017. Traduit par Martin Anota



aller plus loin... lire « Et si la chute de la part du travail s'expliquait par la plus forte concentration des entreprises ? »

vendredi 10 mars 2017

Le problème avec les experts

« Paul a soulevé une importante question : qu’est-ce qui ne va pas avec les experts ? J’ai peur que la réponse soit : plein de choses.

Ces diverses fautes n’incluent toutefois pas l’échec à prévoir les crises financières. Ce n’est pas le boulot des économistes de se comporter comme des devins, tout comme nous n’attendons pas des mécaniciens qu’ils nous prédisent le prochain problème avec notre voiture, ni n’attendons des docteurs qu’ils prédisent notre prochaine maladie. Il y a pas mal de bonnes choses que les économistes peuvent faire sans avoir à jouer les prophètes.

En fait, l’un des problèmes avec les experts (pour le public tout du moins) est qu’ils n’identifient pas suffisamment ce que Charlie Munger appelait les frontières de leur compétence : ils ne disent pas ce qu’ils ne savent pas. Le problème avec les économistes n’est pas tant leur incapacité à prévoir la crise que leur échec à dire au public que les récessions sont imprévisibles (du moins par des techniques orthodoxes ?). En 2000, Prakash Loungani a montré que le consensus économique a échoué à prédire presque chaque récession et, autant que je sache, rien n’a vraiment changé depuis.

Bien sûr, il n’y a rien de spécifique aux économistes sur ce point. (…) Les dirigeants d’entreprise discutent rarement ouvertement des limites de leur capacité à contrôler leur entreprise ; les banquiers n’admettent pas souvent être incapables de gérer le risque ; les gestionnaires de fonds ne disent pas publiquement que les marchés sont largement efficients ; et ainsi de suite.

Je crains que la pression parmi les universitaires à publier exacerbe cette erreur. Comme Andrew Gelman l’a régulièrement affirmé, la mentalité du "p>0,05=résultat !" nous a donné beaucoup de mauvaise science. Cela peut affaiblir la confiance du public. Prenons un exemple récent : on a pu affirmer que les pommes de terre rôties provoquaient le cancer. Cela va à l'encontre du sens commun, dans la mesure où beaucoup mangent des pommes de terre rôties, mais seulement peu se retrouvent avec un cancer, ce qui suggère que le lien, s'il existe, doit être faible. C’est le genre de choses qui amène beaucoup à se dire "mais les experts, que savent-ils vraiment ?"

Dans ce contexte, nous devons rappeler une remarque faite par William Easterly : "les experts sont aussi exposés aux biais cognitifs que le reste d’entre nous". L’un d’eux est la confiance excessive. Un autre est que la pensée du groupe peut générer des modes intellectuelles, comme par exemple celle de la domination des modèles DSGE.

Peut-être qu’une autre facette de cette confiance excessive est la présomption selon laquelle le savoir et l’expertise doivent être centralisés, dans un seul esprit. Mais comme Hayek l’a souligné, dans certains contextes, ce n’est pas possible. Dans ces cas-là, le savoir doit être fragmentaire, tacite et dispersé. Les consommateurs, par exemple, peuvent être de meilleurs prévisionnistes économiques que les experts, tout comme les marchés obligataires. Et les travailleurs peuvent quelquefois en savoir plus que leurs dirigeants.

Ce qui nous amène à nous pencher sur un grand problème. Nous avons trop souvent l’impression que les experts sont du côté du pouvoir. C’est en partie de la faute aux médias : les patrons, par exemple, sont régulièrement présentés comme une élite sacerdotale plutôt que comme de simples chercheurs de rente.

Mais la faute tient aussi aux experts eux-mêmes. Les économistes ne soulignent pas suffisamment que certains des constats établis de leur discipline remettent en question les revendications de pouvoir. Par exemple, l’hypothèse des marchés efficients nous dit que les gestionnaires de fonds sont des charlatans ; la présence des déséconomies d’échelles suggère que les dirigeants d’entreprise n’ont pas autant de contrôle qu’ils le prétendent ; et l’économie du choix public nous signale que ceux qui sont au pouvoir sont souvent simplement des chercheurs de rentes.

Dans ce contexte, même un empirisme qui est en soi tout à faire remarquable peut se révéler réactionnaire. Etudier les effets des petits ajustements que l’on peut apporter au capitalisme conduit à marginaliser la question des grands bouleversements. De cette façon, comme Paul le dit, les économistes acceptent involontairement le réalisme capitaliste.

En lien avec cela, les économistes orthodoxes ont eu trop peu conscience des problèmes touchant à la répartition des revenus et des richesses. Le critère éthique par défaut en économie est l’efficience de Pareto. Donc, par exemple, nous avons accepté la mondialisation parce qu’elle est potentiellement Pareto-optimale : les gains qu’elle génère pour les économies occidentales sont plus importants que les pertes. Cela nous a amené à ignorer le fait qu’une possible amélioration parétienne qui ne s’accompagne d’aucune compensation pour les perdants soit discutable.

Si les économistes avaient un différent modèle mental par défaut, ils auraient été plus à même de se déclarer en faveur de politiques qui bénéficient réellement à tout le monde. Si les économistes utilisaient le principe de différence de Rawls (qui souligne la nécessité d’adopter des politiques et des institutions qui "soient au plus grand bénéfice des membres les moins avantagés de la société"), ils auraient davantage eu conscience des inégalités. Nous savons tous qu’un fossé s’est creusé entre les experts et le public (qui s’est notamment révélé dans le monde anglo-saxon avec la formule "c’est votre PIB, pas le nôtre"). Pour que la qualité du discours public s’améliore, ce fossé doit se refermer. Cela est (en partie) de la responsabilité des experts eux-mêmes. »

Chris Dillow, « The trouble with experts », in Stumbling and Mumbling (blog), 13 février 2017. Traduit par Martin Anota

samedi 4 mars 2017

Une récession provoquée par des anticipations autoréalisatrices ?

« (...) Je me suis permis de conclure mon dernier cours par une note de réflexion. Je fais savoir que la macroéconomie a commis une erreur en ignorant le rôle de la finance avant la crise, mais je souligne aussi que la lenteur de la reprise qui s'ensuivit est en soi une confirmation du modèle macroéconomique de base : l’austérité est une mauvaise idée à la borne inférieure zéro (zero lower bound), l’assouplissement quantitatif (quantitative easing) n’a pas été inflationniste et les taux d’intérêt sur la dette publique n’ont pas augmenté, mais chuté.

Jusqu’à présent, cela semble familier. Mais je finis mon cours en montrant à mes étudiants le graphique suivant.

GRAPHIQUE Logarithme du PIB britannique et de sa tendance d’avant-crise

Wren-Lewis__Logarithme_du_PIB_britannique_et_de_sa_tendance_d_avant-crise.png

Et je dis que nous n’avons vraiment pas d’idée pour expliquer pourquoi il n’y a pas eu de reprise suite à la Grande Récession, qu’il y a donc encore plein de mystères irrésolus en macroéconomie. L’énigme nous laisse plus perplexe dans le cas du Royaume-Uni parce que la tendance d’avant-crise y était si stable, mais quelque chose de similaire s’est produit dans d’autres pays. Je pense que c’est tout à fait adéquat de finir mon cours avec cette une note d’humilité (et peut-être d’inspiration).

Une manière mécanique d’expliquer ce qui s’est passé est de briser la tendance : suggérer que le progrès technique a ralenti durablement. Cela signifie inévitablement que la période d’avant-crise est transformée en boom. Je me suis montré des plus sceptiques à propos de cette idée, mais je dois admettre qu’une partie de mon scepticisme vient des idées traditionnelles à propos de la façon par laquelle l’inflation se comporterait dans un boom.

Cependant une autre explication que j’ai toujours eu à l’esprit et que d’autres ont commencé à explorer est que peut-être nous sommes restés dans une période durable de demande insuffisante. La théorie keynésienne suggère qu’une telle possibilité peut survenir. Supposons que les entreprises et les consommateurs en viennent à croire que l’écart de production (output gap) est actuellement nul alors même qu’il ne l’est pas et qu’ils croient de façon erronée que la récession provoqua un changement significatif du PIB potentiel, mais aussi de son taux de croissance. Supposons aussi que les travailleurs au chômage reviennent eux-mêmes à l’emploi en réduisant leur salaire (réel) ou disparaissent en cessant de chercher un emploi. La première éventualité s’observe notamment si les entreprises choisissent des techniques de production plus intensives en travail : pour laver les voitures, elles peuvent remplacer les machines par des travailleurs avec des lances.

Dans cette situation, comment savons-nous que nous souffrons d’une insuffisance de la demande globale ? La réponse traditionnelle en macroéconomie est la déflation nominale : la chute des prix et des salaires. Mais parce que des travailleurs sont déjà revenu à l’emploi en acceptant une baisse de salaire, plus rien d’autre ne va venir du côté des salaires. Donc pourquoi est-ce que les entreprises réduiraient les prix ?

Si la tendance d’avant-crise s’applique toujours, cela signifie qu’il y a de nombreuses innovations attendant de s’incarner dans un nouvel investissement. Avec ce nouveau capital bien plus efficace en place, soit les entreprises accroîtraient leurs profits en vendant à leur marché existant, soit elles essaieraient d’accroître leur part de marché en vendant moins cher que leurs concurrents. Nous observerions alors une reprise tirée par l’investissement, accompagnée par une hausse de la productivité et peut-être une baisse des prix.

Mais supposons que les innovations ne soient pas suffisamment profitables pour générer une hausse des profits qui justifierait d’entreprendre l’investissement, même si les coûts d’emprunt sont faibles. Ce qui explique le mieux pourquoi le progrès technique incarné prend place, c’est peut-être le besoin de satisfaire un marché en croissance. L’entreprise doit installer de nouvelles capacités pour satisfaire la demande croissante que rencontre son produit et c’est alors qu’il apparaît nécessaire d’investir en équipements qui incarnent les nouvelles innovations. L’accélérateur reste un modèle empirique d’investissement très efficace. (…) Mais si les croyances sont telles que l’on ne s’attend pas à ce que le marché s’étende autant, parce que les entreprises croient que l’économie est "à la tendance" et que le taux de croissance est maintenant très faible, alors le besoin d’investir pour honorer un marché en croissance se fait moins pressant.

L’idée remonte bien sûr à Keynes et aux esprits animaux. D’autres ont plus récemment reformulé des idées similaires, notamment Roger Farmer. C’est un peu différent de l’idée d’ajouter une croissance endogène à un modèle keynésien, comme dans ce papier de Benigno et Fornaro par exemple. Je suppose dans cette discussion que la production potentielle n’a pas été perdue, parce que l’innovation n’a pas ralenti, mais qu’elle n’est simplement pas utilisée.

C’est cette possibilité qui est la raison pour laquelle j’ai toujours affirmé que les banques centrales et les gouvernements auraient dû être un peu plus ambitieux dans la stimulation de la demande globale après la Grande Récession. Comme j’ai déjà pu l’affirmer, mais d’autres aussi, vous n’avez pas à donner une très forte probabilité au scénario selon lequel la demande va créer de l’offre avant que cela justifie (…) de laisser l’économie aller en surchauffe. Chaque fois que je vois les données ci-dessus, je me demande si nous ne nous sommes pas infligés cela nous-mêmes par une combinaison d’austérité destructrice et de timidité. »

Simon Wren-Lewis, « A self-fulfilling expectations led recession? », in Mainly Macro (blog), 2 mars 2017. Traduit par Martin Anota



aller plus loin... lire « L’insidieux impact à court terme du ralentissement de la productivité »

Est-ce que les effets de la politique monétaire sont asymétriques ?

« La Réserve fédérale utilise la politique monétaire pour stimuler l’économie lorsque le chômage est élevé et pour contrôler les pressions inflationnistes lorsque l’économie est en surchauffe. Cependant, les preuves empiriques suggèrent que ces orientations de la politique monétaire ont des effets inégaux. Les chocs monétaires négatifs accroissent davantage le chômage que les chocs expansionnistes ne le réduisent.

La Fed a un double mandat : elle cherche à assurer la stabilité des prix et le maximum d’emploi soutenable. Elle agit en ce sens en contrôlant son principal taux directeur (le taux des fonds fédéraux), qui influence les taux d’intérêt de marché de court terme. Lorsque le chômage est élevé, la Fed assouplit sa politique (c’est-à-dire diminue son taux principal) pour stimuler l’activité économique et la production. Lorsque l’inflation s’accroît, la Fed resserre la politique monétaire (c’est-à-dire accroît son taux principal) pour freiner l’activité économique et contrer les pressions inflationnistes.

Mais est-ce que ces deux types de réponses de politique monétaire sont aussi efficaces l’une que l’autre ? Depuis la Grande Dépression, les économistes ont suggéré que la politique restrictive pouvait avoir un plus fort effet sur la production que la politique accommodante parce que la réponse de la Fed à l’effondrement boursier de 1929 n’empêcha pas la Grande Dépression. Milton Friedman et Anna Schwartz ont ensuite affirmé dans leur livre de 1963, A Monetary History of the United States, que cela s’expliquait par le fait que l’orientation de la politique monétaire de la Fed au début des années 1930 était en fait davantage restrictive qu’expansionniste, mais d’autres exemples ont renforcé l’idée que la politique monétaire expansionniste pouvait être moins efficace que la politique restrictive. Plus récemment, la Fed a été forcée de se tourner vers des politiques non conventionnelles durant la Grande Récession après avoir réduit son principal taux à zéro sans que cela ait semblé avoir un effet significatif sur le chômage.

Utilisons une métaphore pour mieux décrire l’asymétrie de la politique monétaire. Imaginons une corde avec la politique monétaire à un bout et l’économie à l’autre. Resserrer la politique monétaire lorsque l’inflation s’accroît, c’est comme tirer sur la corde pour maintenir l’économie sur la voie ; cela marche assez bien. Mais chercher à stimuler l’économie avec une politique accommodante durant une récession, c’est comme essayer de pousser la corde pour bouger l’économie ; bref, ce n’est pas très efficace. (…)

Pourquoi la politique monétaire serait-elle être asymétrique ?


Sur le plan théorique, il y a diverses raisons nous amenant à penser que la politique monétaire est susceptible d’avoir des effets asymétriques sur la production économique. La première concerne le comportement des prêteurs et des emprunteurs sous différentes conditions monétaires. Quand la Fed relève ses taux directeurs, les taux d’intérêt de marché tendent à s’accroître également. On peut s’attendre à ce que les banques répercutent simplement ces hausses de taux sur leurs emprunteurs. Même si elles peuvent effectivement le faire dans une certaine mesure, accroître les taux prêteurs peut accroître la probabilité que les emprunteurs risqués fassent défaut. Par conséquent, les banques peuvent choisir de rationner le crédit durant une période de hauts taux d’intérêt, réduisant le crédit pour certains consommateurs et entraînant un plus grand déclin de la production, ce qui amplifie l’impact de la politique monétaire restrictive. D’un autre côté, la politique expansionniste ne va pas accroître nécessairement l’emprunt et les dépenses si les conditions économiques ont réduit la demande. A la différence de la politique restrictive, ce n’est pas une contrainte forte sur les consommateurs. Comme le dit le vieil adage, vous pouvez amener un cheval à l’eau, mais vous ne pouvez pas le forcer à boire.

Une autre raison amenant à penser que la politique expansionniste pourrait être moins efficace que la politique restrictive est que les prix semblent moins susceptibles de s’ajuster à la baisse, c’est-à-dire qu’ils sont visqueux. Les entreprises peuvent aussi être réticentes à baisser les salaires, de peur de casser le moral des travailleurs. En raison de ces rigidités à la baisse des prix et salaires, les entreprises vont avoir tendance à réagir à la politique monétaire restrictive en réduisant la production plutôt que les prix. Les prix et les salaires sont moins visqueux à la hausse, cependant. Les entreprises sont habituées à accroître graduellement les prix et les salaires en raison de l’inflation, par exemple. Par conséquent, la politique monétaire expansionniste est davantage susceptible de conduire à un changement des prix plutôt que de la production.

Enfin, la politique monétaire peut avoir des effets asymétriques en fonction de la position dans le cycle d’affaires en raison des changements dans les perspectives des consommateurs. De même qu’avec l’argument de la contrainte de crédit, si les consommateurs sont pessimistes à propos des conditions économiques, alors une réduction des taux d’intérêt peut ne pas beaucoup stimuler l’emprunt et les dépenses. Cette explication n’est toutefois pas entièrement convaincante, puisque l’optimisme des consommateurs durant une période de boom peut également affaiblir l’effet d’une politique monétaire restrictive. Pour que les politiques restrictives aient un effet plus puissant que la politique expansionniste, les ménages et les entreprises devraient être plus pessimistes au cours des récessions qu’ils ne sont optimistes durant les booms. C’est certainement possible, mais peu probable. (…) »

Regis Barnichon, Christian Matthes et Tim Sablik, « Are the effects of monetary policy asymmetric? », Federal Reserve Bank of Richmond, Economic Brief, n° 17-03, mars 2017. Traduit par Martin Anota

mardi 28 février 2017

Est-ce que le cycle de déflation est fini ?

« Jusqu’à la crise financière mondiale de 2008-2009, la déflation ne préoccupait ni les responsables de politique économie, ni les investisseurs financiers dans les pays développés, sauf au Japon, qui a connu des pressions durables à la baisse sur ses prix pendant pratiquement une génération. Et désormais les craintes déflationnistes sont à nouveau sur le point de disparaître.

Au milieu des années 1960, les économies avancées entrèrent une ère de pressions inflationnistes croissantes, amorcées par des politiques budgétaire et monétaire expansionnistes aux Etats-Unis, puis aggravées par les chocs pétroliers des années 1970. La stagflation, la combinaison de faible croissance économique et de forte inflation, devint un mot à la mode à la fin de la décennie. La plupart des prévisions de marché de l’époque extrapolaient ces tendances, prédisant une hausse ininterrompue des prix du pétrole et des matières premières. L’inflation a fini par être perçue comme chronique et les politiciens se tournèrent vers les contrôles des prix et les politiques de revenu. Les taux d’intérêt de court terme réels (c’est-à-dire ajustés à l’inflation) étaient souvent négatifs dans la plupart des économies développées.

Le monumental resserrement de la politique monétaire américaine opéré par le présidant de la Réserve fédérale Paul Volcker en octobre 1979 mit un terme à ce long cycle. La stagflation laissa la place à un nouveau mot à la mode : la désinflation, qui caractérisa avec précision la situation de plusieurs économies avancées où les taux d’inflation chutèrent pour revenir à un chiffre.

Mais la désinflation n’est pas la même chose que la déflation. Comme le montre le graphique, entre 1962 et 1986, pas une seule économie développée n’enregistra un déclin des prix au cours d’une quelconque année. Dans plusieurs pays émergents, les taux d’inflation explosèrent pour atteindre les trois chiffres, avec plusieurs cas d’hyperinflation. Jusqu’à la fin de l’année 1991, la Grèce avait un taux d’inflation d’environ 20 %. Même en Suisse, où les prix étaient relativement stables à l’époque, l’inflation était supérieure à 5%.

GRAPHIQUE Pourcentage de pays développés en déflation (en %)

Carmen_Reinhart__part_des_pays_developpes_en_deflation.png

Cela ne semble être qu’un lointain souvenir après le déclin régulier des prix que connaît la Grèce depuis 2013, en plus d’une crise de la dette et d’une forte contraction de la production. La Banque nationale suisse, pour sa part, s’est battue avec les répercussions déflationnistes de la puissante appréciation du franc suisse ces dernières années.

Les forces déflationnistes furent libérées par les énormes perturbations économiques et financières associées à la longue et puissante crise mondiale qui éclata en 2008. Le désendettement du secteur privé a contrarié les efforts des banques centrales visant à relancer l’inflation. En 2009, environ un tiers des économies avancées enregistrèrent une baisse des prix, soit un chiffre record pour la période qui suit la Seconde Guerre mondiale. Dans les années qui suivirent, l’incidence de l’inflation resta forte au regard des normes d’après-guerre et la plupart des banques centrales n’ont durablement pas réussi à atteindre leurs objectifs d’inflation extrêmement modestes (autour de 2 %).

Parce que les plans de relance du Président américain Donald Trump sont procycliques (ils sont susceptibles de stimuler l’économie américaine au moment même au celle-ci est au plein-emploi ou tout du moins proche de ce dernier), ils ont alimenté les anticipations d’une hausse du taux d’inflation américain. En l’occurrence, on s’attend à ce que l’inflation dépasse largement l’objectif de 2 % d’inflation de la Réserve fédérale. Mais les conditions monétaires plus strictes tendent à réduire la magnitude de l’accélération de l’inflation : même si la hausse attendue des taux directeurs américains suggère que nous allons connaître la "normalisation" la plus modeste et graduelle dans l’histoire de la Fed, l’appréciation soutenue du dollar devrait limiter les gains associées aux hausses de prix pour une large gamme de biens importés et leurs concurrents domestiques.

Le point tournant attendu dans le comportement des prix n’est pas spécifique aux Etats-Unis. Si les projections du FMI pour l’année 2017 sont à peu près correctes, cette année sera la première depuis une décennie où aucune économie développée ne connaîtra de déflation (cf. graphique). Peut-être que les effets longtemps attendus de l’historique expansion monétaire portent enfon leurs fruits. Plus probablement, la dépréciation de la devise au Royaume-Uni, au Japon et dans la zone euro a pu jouer le rôle de catalyseur.

Si 2017 marque réellement un large renversement d’une décennie de déflation, il est raisonnable de s’attendre à ce que la plupart des banques centres ne soient pas enclines à surréagir si, après une décennie voire plus (comme au Japon) où l’inflation était plus faible que prévu, l’inflation dépasse enfin sa cible. En outre, l’idée selon laquelle de plus hautes cibles d’inflation (peut-être 4 %) puissent être désirables (notamment en permettant aux banques centrales d’avoir davantage de marge pour réduire leurs taux d’intérêt si une nouvelle récession éclatait) a gagné du terrain chez les universitaires et les responsables de la politique économique.

Bien sûr, il peut encore y avoir un autre facteur conduisant les principales banques centrales à être plus tolérantes face à une plus forte inflation. Mais leurs dirigeants peuvent ne pas désirer l’indiquer ouvertement : comme je l’ai affirmé ailleurs, une certaine dose d’inflation même modérée va contribuer à éroder les montagnes de dette publique et privée que les économies développées ont accumulées depuis plus de 15 ans. »

Carmen Reinhart, « Is the deflation cycle over? », 31 janvier 2017. Traduit par Martin Anota

vendredi 24 février 2017

Pourquoi l’excédent courant de la Chine a-t-il chuté en 2016 ?

« Peu de politiques ont été aussi peu appréciées que la relance chinoise alimentée par le crédit de 2015-2016. Même des personnes comme moi, qui s’inquiétaient que des freins imposés au crédit, en l’absence de réformes plus fondamentales pour réduire le taux d’épargne de la Chine, puissent déprimer la demande globale, n’étaient pas des partisans particulièrement enthousiastes de cette politique. La situation chinoise serait meilleure si la Chine elle avait augmenté les dépenses sociales du gouvernement central pour soutenir la demande, pas une autre vague d’emprunts hors-bilan par les gouvernements locaux et les entreprises publiques.

Mais l’actuelle accélération de la croissance suggère que les arguments selon lesquels une (nouvelle) expansion du crédit ne fonctionnerait pas étaient un peu exagérés. Il n’y a aucun doute sur le fait qu’il existe de meilleures façons de soutenir la croissance qu’un surcroît de crédit. Mais la croissance a bien réagi à la relance, même si l’on débat toujours de la puissance de cette réaction.

Selon les économistes MK Tang, Yu Song, Zhennan Li, Maggie Wei et Andrew Tilton de Goldman Sachs, "les autorités chinoises ont fait face à divers défis tout au long de l’année 2016, mais une relance ample et soutenue a fini par renforcer la reprise… Notre indicateur d’activité courante en Chine a atteint un creux début 2015 en atteignant 4,3 %, puis revint autour de la gamme des 5,5 % ensuite, puis s’élève désormais à 6,9 %. L’industrie lourde… a connue une accélération encore plus prononcée".

Et il y a des preuves empiriques croissantes, je pense, suggérant que le renforcement de la demande chinoise a aussi des répercussions positives pour le reste du monde.

L’excédent de compte courant de la Chine en 2016 a davantage chuté que je ne l’attendais. Certes, les chiffres relatifs aux comptes courants que rapportent les autorités chinoises sont sujets à de significatives révisions et je ne serais pas surpris si le très faible excédent du quatrième trimestre était révisé à la hausse.

GRAPHIQUE Balance courante de la Chine (en % du PIB chinois)

Brad_Setser__Chine__solde_compte_courant.png

Je ne prends pas non plus les données rapportées par la Chine pour parole d’évangile. Par exemple, je suis sceptique quant à la hausse des importations de tourisme de la Chine ; les importations auraient presque triplées, passant de 130 milliards de dollars en 2013 (soit 1,3 % du PIB) à 340 milliards de dollars en 2016 (soit environ 3 % du PIB). Ce genre de croissance est difficile à expliquer. Elle est bien plus rapide que l’accroissement du nombre de touristes chinois, même une fois pris en compte une hausse des dépenses par touriste. La méthodologie de collecte de données révisée qui indiqua à une « hausse » dans les importations de tourisme a clairement capturé quelque chose de nouveau. Par conséquent, je pense que le véritable excédent de compte courant de la Chine est un peu plus élevé que ne le suggèrent les données officielles.

Mais la hausse du déficit du tourisme en 2016 explique seulement 40 milliards de dollars sur la baisse totale de 120 milliards de dollars de l’excédent de compte courant chinois. L’essentiel du reste s’explique par une chute de l’excédent chinois dans l’industrie. Et celle-ci est (…) "réelle". Elle se retrouve dans la chute du déficit commercial des Etats-Unis vis-à-vis de la Chine.

Ne vous méprenez pas. L’excédent chinois dans l’industrie reste large. Il est excessivement élevé pour l’économie mondiale. (…) L’excédent commercial de la Chine dans les biens manufacturés, en pourcentage du PIB chinois, excède les exportations américaines dans les biens manufacturés, en pourcentage du PIB américain. Cela donne à la fois des indications sur la Chine et sur les Etats-Unis.

Mais en termes de direction l’excédent chinois a bien baissé. La chute transparaît d’ailleurs dans les données américaines : les importations américaines en provenance de Chine ont chuté en 2016 en dollars et je pense qu’en termes réels également.

Cela s’explique en partie par le fait que les exportations sont restées assez faibles. L’accélération de la croissance du volume des exportations au deuxième trimestre n’a pas été soutenue au troisième et au quatrième trimestre. Les chiffres du quatrième trimestre ont tout particulièrement été faibles (les données de prix indiquent que les volumes d’exportations du mois de décembre ont chuté, bien que cela puisse être un artifice statistique, comme les chiffres de janvier semblent désormais être exceptionnellement élevés).

Et les volumes d’importations ont augmenté. Ils croissent toujours plus lentement que l’économie, donc la Chine est toujours en train de se "démondialiser" fondamentalement (les importations chutent en pourcentage du PIB). Mais une croissance de 4 % en rythme annuel est toujours mieux qu’une croissance nulle.

GRAPHIQUE Croissance des volumes d’exportations et d’importations de la Chine (en %)

Brad_Setser__Chine__exportations__importations_croissance.png

Le retour de la demande d’importation de la Chine a contribué au récent rebond dans le commerce asiatique et mondial. Et la relance de la Chine a aussi soutenu un rebond dans les prix mondiaux des matières premières, réduisant ainsi la pression sur certaines économies émergentes vulnérables. Les moyens que la Chine a utilisés pour stimuler son économie en 2016 restent toutefois discutables. La situation chinoise serait meilleure avec plus de dépenses publiques et moins de prêt insensé. Elle a désespérément besoin de développer son système d’assurance sociale. D’un autre côté, l’économie mondiale serait plus faible qu’elle ne l’est aujourd’hui si la Chine n’avait pas ouvert le robinet et laissé le crédit domestique affluer fin 2015 et début 2016. »

Brad Setser, « Why did China’s 2016 current account surplus fall? », in Follow The Money (blog), 17 février 2017. Traduit par Martin Anota

mercredi 22 février 2017

Il y a consensus des économistes sur l’austérité, mais les décideurs politiques continuent de l’ignorer

« Avec la publication d’une nouvelle étude rappelant à quel point l’austérité budgétaire peut être nocive, vous pourriez vous dire que certains politiciens vont bien finir par comprendre qu'elle l'est. La faiblesse de l'actuelle reprise a largement validé l’économie keynésienne, celle-là même qui domine l’économie orthodoxe. Les manuels et la macroéconomie de pointe disent bien qu’une réduction des dépenses publiques ne peut être qu’une très mauvaise idée lorsque les taux d’intérêt sont contraints par leur borne inférieure. Et chaque analyse réalisée ex post montre que cela a bien été le cas ces dernières années. Il est assez ironique de voir qu’à l’instant même où plusieurs articles parlent d’une "crise de la science économique", une expérience naturelle menée à grande échelle par les responsables politiques valide une grande partie de cette dernière.

Il y a trois grandes économies qui ont adopté l’austérité dans le sillage de la Grande Récession : les Etats-Unis, le Royaume-Uni et la zone euro. Est-ce que l’une d’entre elles est susceptible de bientôt reconnaître que cette généralisation de l'austérité a été une erreur ? Beaucoup croient qu’une telle prise de conscience a lieu actuellement aux Etats-Unis, mais ce serait confondre les actions et le raisonnement qu’elles sous-tendent. Si un plan de relance budgétaire était aujourd'hui adopté aux Etats-Unis, il ne le serait pas pour des motifs keynésiens. C’est notamment le cas parce que les taux d’intérêt augmentent et que la banque centrale n’a pas indiqué clairement qu’elle ne les relèvera pas à nouveau prochainement. Il y a toujours des arguments en faveur d’un large accroissement de l’investissement public financé par l’emprunt, mais il y a peu de chances qu'il soit mis en œuvre. Ce dont nous sommes sûrs, c’est qu’il y aura des réductions d’impôts, en particulier pour les riches, parce que c’est aujourd’hui le principal but de la politique économique républicaine. Parmi les Républicains, l’économie keynésienne reste l’œuvre du diable.

Le Royaume-Uni a aussi désespérément besoin d’investissements publics. En outre, le NHS appelle à une forte expansion budgétaire financée par l’impôt, qui contribuerait à éloigner les taux d’intérêt de leur borne inférieure. Mais les responsables politiques du Royaume-Uni n’ont qu’une chose en tête en ce moment : c’est le Brexit à n’importe quel prix. Nous le savons parce qu’ils ne s’intéressent à aucune autre option. Même si Dieu révélait (…) que le Brexit amputera 20 % de revenu au ménage moyen, la politique ne changerait pas de cap. Même si certains au gouvernement peuvent être tentés d’adopter un plan de relance pour dissimuler ces coûts, le Trésor garde d’une main de fer les cordons de la bourse. Jamais le gouvernement britannique n’a semblé si politiquement sûr et jamais il ne s’est jamais autant éloigné du bon sens économique.

Tous les problèmes de la zone euro ne découlent pas de la dénégation de la macroéconomie keynésienne. Comme Martin Sandbu l’affirme ici, ce qui s’est passé et continue de se passer en Grèce, c’est la vieille histoire du créancier refusant d’admettre qu’il a octroyé de mauvais prêts et pressant l'emprunteur de continuer de rembourser sans comprendre qu’il ne fait par là même qu’aggraver les choses. Mais, même ici, la méconnaissance des idées keynésiennes alimente cette ignorance. Un pays à qui l’on empêche de connaître une reprise suite à une récession aura bien plus de difficultés à trouver des ressources pour rembourser sa dette.

Cependant si vous observez très attentivement, vous pourrez voir certains signes suggérant que les choses sont en train de s’améliorer dans la zone euro. L’austérité budgétaire semble avoir cessé au niveau agrégé. Certains acteurs clés, même dans les institutions supranationales et les Etats-membres, commencent à comprendre que les politiques d’austérité ne peuvent qu’encourager le populisme. Mais il y a encore beaucoup de chemin à faire avant que soit mise en place la réforme la plus impérieuse, celle consistant à remplacer l’actuelle architecture budgétaire par quelque chose de plus keynésien, qui prenne en compte les erreurs passées.

S’il y a effectivement un changement, je doute que ce soit l’abandon du Pacte de Stabilité et du Pacte budgétaire, aussi désirable soit-il. Je pense que nous assisterons plutôt à un ajustement graduel du fouillis que constituent déjà toutes ces règles. L’ajustement n’a même pas à avoir des allures keynésiennes. Les politiques budgétaires et macroprudentielles nationales doivent se focaliser sur les écarts d’inflation entre chaque pays pris individuellement et la moyenne de la zone euro. Cela peut s’incarner dans une règle qui laisserait la possibilité à ce que la dette ou le déficit soient guidés par une cible lorsque l’inflation du pays se situe à la moyenne de l'union monétaire. Cette règle doit être symétrique vis-à-vis des écarts d’inflation, c’est-à-dire prescrire une expansion budgétaire aux pays-membres dont l’inflation est inférieure à la moyenne de la zone euro.

La complaisance des banques centrales indépendantes est également décevante. Nous avons eu la reprise la plus lente qui soit suite à une récession, avec des dommages durables sur l’offre à long terme, mais il est excusable de penser que nous sommes toujours dans la Grande Modération. Les banques centrales devraient chercher à comparer les vertus respectives des quatre principales façons d’éviter un autre épisode à la borne inférieure zéro : l’adoption d’une cible d’inflation plus élevée, les taux d’intérêt négatifs, le ciblage du PIB nominal ou la monnaie-hélicoptère. Elles doivent aussi cesser d’être si discrètes à propos de la politique budgétaire. Un tel silence rend un autre épisode à la borne inférieure zéro encore plus dangereux.

Certains se demandent pourquoi mes billets font ces derniers temps autant écho à la politique qu'à l’économie. Je suis d’accord, il y a eu un changement depuis 2015. Auparavant, j’aurais évoqué la parution d’une nouvelle étude sur les multiplicateurs budgétaires en la comparant avec la littérature existante et en examinant ses forces et ses faiblesses. Ces derniers jours sont quelque peu différents. J’espère qu’un jour ce savoir se révélera aux dirigeants, mais pour l’heure je crains que ces derniers cessent de financer ce savoir dont ils n’ont pas l’intention de se servir. Des fois, je me dis qu’écrire sur les détails relatifs aux estimations de multiplicateurs, c’est comme revoir la disposition des transats sur le Titanic. »

Simon Wren-Lewis, « The academic consensus on austerity solidifies, but policymakers go their own sweet way », in Mainly Macro (blog), 22 février 2017. Traduit par Martin Anota



aller plus loin... lire « Vers une théorie générale de l’austérité »

lundi 20 février 2017

Le retour des pénuries de dollars

« Immédiatement après la Seconde Guerre mondiale, une nouvelle expression entra dans le lexique économique : la "pénurie de dollars". Les économies européennes faisaient face aux profonds dommages provoqués par la guerre et aux obstacles bloquant leurs efforts en vue de reconstruire leur base industrielle. A l’époque, les Etats-Unis étaient la seule économie à même de leur fournir l’équipement en capital nécessaire pour leur reconstruction. Donc, sans accès aux dollars américains, les économies européennes ne pouvaient obtenir les intrants nécessaires pour accroître leurs exportations.

Avec des réserves limitées, voire aucune réserve, en devises fortes (comme les dollars américains ou l’or) à disposition et de faibles perspectives d’acquisition de dollars via les recettes des exportations, les économies européennes cherchèrent à réduire leurs déficits en comprimant leurs importations des autres pays (principalement) européens. Ils s’attendaient à ce que la compression des importations leur permette d’accumuler suffisamment de dollars pour financer des importations de capitaux des Etats-Unis.

Mais, parce que plusieurs pays employèrent la même tactique dans un environnement où de nombreux contrôles de capitaux étaient en place et où les taux de change étaient ancrés au dollar américain, un marché de devise parallèle se développa. La prime du marché noir (relativement au taux de change officiel) dans la plupart des pays européens (et au Japon) explosa au début des années cinquante, atteignant des niveaux que nous tendons maintenant à associer aux pays émergents “instables”.

Aujourd’hui, sept décennies après, malgré la tendance mondiale vers plus de flexibilité dans la politique de change et une libéralisation des flux de capitaux internationaux, une "pénurie de dollars" a fait son retour. En effet, dans plusieurs pays en développement, le seul marché florissant au cours de ces toutes dernières années a été le marché noir des changes. Les marchés des changes parallèles, principalement pour les dollars, sont de retour.

Cette fois, la source de la pénurie de dollar n’est pas le besoin d’une reconstruction après un conflit (même si, dans certains cas, celle-ci y contribue également). En fait, des pays en Afrique, au Moyen-Orient, en Asie centrale et en Amérique latine (en particulier le Venezuela) ont été durement frappés par le plongeon des prix du pétrole et d’autres matières premières depuis 2012.

Après la manne (bonanza) des prix des matières premières au début des années 2000, en grande partie alimentée par le boom de l’investissement en Chine, plusieurs exportateurs de matières premières se retrouvent avec des niveaux historiquement élevés de réserves de change. Ces trésors de guerre étaient principalement détenus sous forme d’actifs en dollars, en particulier des titres du Trésor américain. Durant les années de manne, éviter ou contenir l’appréciation de la devise était probablement le principal défi auquel plusieurs banques centrales faisaient face. Dans cet environnement favorable, certains pays allèrent plus loin et ancrèrent (une fois encore) leur devise au dollar.

Pour les pays qui avaient embrassé des taux de change plus flexibles, notamment la Russie, le Brésil et la Colombie, le renversement initial des prix du pétrole et des matières premières s’est traduit par une vague d’effondrements de devises, tandis que les pays qui maintinrent des régimes de change plus rigides ont essuyé des pertes croissantes en réserves. Parce que la chute des prix durait, des contrôles de capitaux ont été renforcés en 2015 et les ancrages de devise furent ajustés ou abandonnés. (…)

La pénurie de dollars est devenue sévère dans des pays comme l’Egypte, le Nigéria, l’Iran, l’Angola, l’Ouzbékistan et le Soudan du Sud, mais pas seulement. En Birmanie, où les taux de change furent unifiés en 2012, le marché parallèle pour les dollars s’est revigoré. Le phénomène est bien plus généralisé, complexe et varié, mais il est utile de se focaliser sur les cas les plus extrêmes.

En recherchant les articles de presse publiés entre 2000 et 2016 dans lesquels les termes "pénurie de dollars", "marché noir" ou "marchés parallèles" pour le marché des changes (…), nous pouvons voir que les inquiétudes relatives aux pénuries de dollars ont explosé en 2008, dans le sillage de la crise financière mondiale. La hausse que l’on observe depuis 2014 a cependant été plus durable.

Le flottement des taux de change n’a pas éliminé la prime de change sur les marchés noirs de pays comme le Nigeria, où le rationnement en dollar se poursuit. Entretemps, la dépréciation ou la dévaluation (qui a été encore plus dramatique sur le marché noir) ne stimule pas beaucoup les exportations, parce qu’une matière première ou une poignée de matières premières (dont les prix restent déprimés) dominent les secteurs de biens échangeables de ces pays, tandis que les dettes publiques et privées sont libellées en dollars américains.

Ce n’est pas le plus inquiétant dans l’immédiat. Les pénuries de dollars ont entraîné des pénuries alimentaires dans des pays comme l’Egypte et le Venezuela, ainsi que dans de nombreux pays d’Afrique subsaharienne, qui dépendent tout particulièrement des importations d’aliments. Avec la compression des importations, les pénuries résultantes et l’explosion des prix sur les marchés noirs, ce sont les segments les plus vulnérables de la population qui se retrouvent dans une situation particulièrement périlleuse.

Le Plan Marshall, via sa généreuse distribution d’aides, a été conçu de façon à résoudre la pénurie de dollars que connaissait l’Europe au lendemain de la Seconde Guerre mondiale. Aucun équivalent n’est visible à l’horizon. Dans la configuration actuelle, il est surtout probable que nous assistions à une répétition de ce qui s’est passé dans les années 1980, avec davantage de pays émergents et en développement demandant une aide auprès du FMI. Cela pourrait constituer pour la Chine une opportunité pour combler un vide au sommet. »

Carmen Reinhart, « The return of dollar shortages », 24 octobre 2016. Traduit par Martin Anota

vendredi 17 février 2017

Le chômage, l’inflation et l'insaisissable NAIRU

« Le NAIRU désigne le niveau de chômage pour lequel l’inflation est stable. Depuis que les économistes ont inventé ce concept, beaucoup de gens se sont moqués des difficultés qu’il y a à le mesurer et du fait qu’il soit particulièrement élusif. Et leurs articles finissent souvent en concluant qu’il est temps que nous rejetions ce concept. Même de bons journalistes peuvent le faire. Mais peu de ces appels à rejeter le NAIRU répondent à cette question simple et évidente : comment pourrions-nous alors relier l’économie réelle à l’inflation ?

Il y a une exception : ceux qui suggèrent que tout ce dont nous avons besoin pour contrôler effectivement l’économie, c’est une ancre nominale, comme l’offre de monnaie ou le taux de change. Mais pour résumer une bien longue histoire, nous pouvons dire que les diverses tentatives pour y parvenir en pratique n’ont jamais très bien fonctionné. La plus récente tentative a été l’euro : adoptez simplement une devise commune et l’inflation de chaque pays-membre sera poussée à converger vers la moyenne ! Il n’y a pas eu une telle divergence, que ce soit en Allemagne ou dans les pays périphériques, ce qui a pu avoir de désastreuses conséquences.

Le NAIRU est l’un de ces concepts économiques qui sont essentiels pour comprendre l’économie, mais qui sont extrêmement difficiles à mesurer. Commençons par rappeler les raisons pour lesquelles il est difficile de le mesurer. Premièrement, le chômage lui-même n’est pas parfaitement mesuré (par exemple, certains chômeurs de longue durée cessent de rechercher un emploi par découragement, mais reviennent dans la population active lorsque la reprise se confirme et que les perspectives d’embauche s’améliorent) et il peut ne pas capturer l’idée qu’il est censé représenter, c’est-à-dire l’excès d’offre ou de demande sur le marché du travail. Deuxièmement, il ne se focalise que sur le seul marché du travail, alors que l’inflation peut aussi être liée à un excès de demande sur le marché des biens et services. Troisièmement, même si aucun de ces deux premiers problèmes n’existait, la façon par laquelle le chômage interagit avec l’inflation n’est pas claire.

La façon par laquelle les économistes ont réfléchi à propos de la relation entre chômage et inflation au cours des cinquante dernières années est la courbe de Phillips. Celle-ci dit que l’inflation dépend de l’inflation anticipée et du chômage. L’importance de l’inflation anticipée signifie que simplement relier le chômage à l’inflation va toujours se révéler chaotique. Je me souviens que dans l’une des premières éditions du manuel de Mankiw nous avions un joli graphique qui représentait cette relation pour les Etats-Unis et qui contredisait ce que je viens de dire : il montrait de claires "boucles de courbe de Phillips". Mais ce fut bien plus chaotique pour les autres pays et c’est devenu plus chaotique pour les Etats-Unis une fois que nous avons adopté le ciblage d’inflation (comme cela doit être le cas avec les anticipations rationnelles). Relisez ce billet pour les détails.

L’ubiquité de la courbe de Phillips des nouveaux keynésiens (NKPC) dans la macroéconomie courante ne doit pas nous induire en erreur en nous laissant penser que nous ayons finalement un vrai modèle d’inflation. La fréquence par laquelle il est utilisé reflète l’obsession avec la méthodologie des microfondations et le recul subséquent de l’analyse empirique. Nous savons que les travailleurs et les employeurs n’aiment pas les baisses de salaires nominaux, mais cette aversion ne transparait pas dans la courbe de Phillips des nouveaux keynésiens. Si la politique monétaire est contrainte par la borne inférieure zéro, la NKPC dit que l’inflation devrait devenir volatile, mais ce n’est pas ce que nous avons vu ces dernières années, comme l’a bien souligné John Cochrane.

Je pourrais continuer et apporter ma propre critique du NAIRU. Mais c’est là où le bât blesse. Si nous pensons réellement qu’il n’y a pas de relation entre le chômage et l’inflation, pourquoi essayons-nous de ramener le chômage sous les 4 % ? Nous savons que le gouvernement peut accroître la demande globale et réduire le chômage en augmentant ses dépenses. Et pourquoi voudrions-nous relever un jour ou l’autre les taux d’intérêt au-dessus de leur borne inférieure ? (…) Même si nous ne devons pas être obsédés par les années 1970, nous ne devons pas non plus l’oublier. Alors, les responsables de la politique économique faisaient fi du NAIRU, si bien que nous nous sommes retrouvés avec une inflation excessivement forte. En 1980, aux Etats-Unis et au Royaume-Uni, la politique économique changea, si bien que le chômage augmenta et l’inflation chuta. Il y a une relation entre l’inflation et le chômage, mais il est juste très difficile de la déterminer avec précision. Pour la plupart des macroéconomistes, le concept de NAIRU ne tient réellement que pour cette vérité macroéconomique fondamentale.

Pour offrir une critique plus subtile du NAIRU, nous pourrions avoir cela en tête, mais dire que, parce que la relation est difficile à mesure, nous devons arrêter d’utiliser le chômage comme guide pour fixer la politique monétaire. Focalisons-nous juste sur l’objectif, l’inflation, et changeons les taux selon ce qui se passe actuellement du côté de l’inflation. En d’autres termes, oublions la prévision et laissons la politique monétaire opérer tel un thermostat, en accroissant les taux lorsque l’inflation est au-dessus de sa cible et inversement.

Cela peut entraîner d’amples oscillations du chômage, mais il y a un problème plus sérieux. On a tendance à l’oublier, mais l’inflation n’est pas le seul objectif de la politique monétaire. Prenons ce qui se passe actuellement au Royaume-Uni. L’inflation s’accélère et on s’attend à ce qu’elle dépasse bientôt sa cible, mais la banque centrale a réduit les taux d’intérêt parce qu’elle s’inquiète davantage à propos de l’impact du Brexit sur l’économie réelle. Cela montre assez clairement que les responsables de la politique économique ciblent en réalité aussi bien une certaine mesure de l’écart de production (output gap) que l’inflation. Et ils ont plutôt raison de le faire, car pourquoi créer une récession juste pour lisser l’inflation ?

D’accord, donc ciblons juste une certaine moyenne pondérée de l’inflation et du chômage comme un thermostat. Mais quel niveau de chômage ? Il y a un danger, celui de montrer que nous tolérons une forte inflation si le chômage est faible. Nous savons que ce n’est pas une bonne idée, parce que l’inflation ne ferait qu’accélérer. Donc pourquoi ne pas cibler la différence entre le chômage et un certain niveau qui soit cohérent avec l’inflation stable ? (…) Une suggestion ?

Simon Wren-Lewis, « NAIRU bashing », in Mainly Macro (blog), 17 février 2017. Traduit par Martin Anota

mercredi 15 février 2017

Le futur de l'euro

« Dans le cadre de notre mandat, la BCE est prête à faire tout ce qui est nécessaire (whatever it takes) pour préserver l’euro. Et croyez-moi, ce sera suffisant. »

Mario Draghi, le 26 juillet 2012.



« En 2012, la BCE faisait face à une menace mortelle pour l’euro : les craintes d’une redénomination (c’est-à-dire réintroduction de devises domestiques) alimentaient des sorties bancaires dans la périphérie géographique de la zone euro à destination des banques allemandes. Depuis le discours que Mario Draghi tint à Londres ce juillet-là, la BCE a fait des choses qui étaient jusqu’alors impensables de sa part pour soutenir l’euro et assurer la stabilité des prix. Par exemple, depuis mars 2015, la BCE a acquis plus de 1.300 milliards d’euros en obligations émises par les gouvernements de la zone euro, ramenant le total de ses actifs à plus de 3.750 milliards d’euros.

Jusqu’à présent, cela a suffi. Mais est-ce que la BCE peut réellement faire "tout ce qui est nécessaire" ? En définitive, la stabilité monétaire requiert un soutien politique. Sans coopération budgétaire, aucune banque centrale ne peut garantir la valeur de sa devise. Dans une union monétaire, la stabilité requiert aussi un minimum de coopération entre les gouvernements.

Les récents développements en France ont ravivé les inquiétudes à propos du risque de redénomination et du futur de l’euro. Selon les déclarations des représentants du Front national, si leur dirigeante (Marine Le Pen) gagnait les prochaines élections, le projet serait de sortir de la zone euro et de réintroduire le franc français. La France convertirait alors l’essentiel de ses 2.100 milliards de dette publique dans la nouvelle devise et opérerait une dépréciation à la fois pour faciliter le remboursement de la dette publique et pour stimuler la compétitivité du pays.

Les représentants de S&P et Moody’s ont dit que ce serait un défaut. En l’occurrence, ce serait le plus grand défaut souverain de l’histoire. Dans la mesure où Le Pen est en tête dans les sondages et que les pronostiqueurs lui donnent environ une chance sur trois de devenir Présidente, la victoire du FN est clairement dans le champ des possibles. (Rappelons que les probabilités d’une victoire de Trump n’étaient pas aussi élevées quelques mois avant les élections américaines.) Pour comprendre les conséquences (juste de l’accroissement du risque, non de sa réalisation), considérons comment les autres pays-membres de la zone euro réagiraient si la France sortait de la zone euro. Premièrement, les petites économies périphériques (Chypre ? la Grèce ? le Portugal ?) pourraient être incitées à sortir également, rapidement. Si, comme nous le pensons, l’Italie et l’Espagne suivent également, l’euro tel que nous le connaissons serait fini.

Pourquoi se focaliser sur la France et non sur l’Italie ? Au cours des derniers mois, les inquiétudes à propos des banques italiennes ont été bien présentes dans les informations. Le système bancaire italien est sûrement fragile et nécessite une recapitalisation, comme c’est le cas pour des banques dans d’autres pays européens. Mais, finalement, on ne se demande pas s’il est possible de résoudre ce manque de capital, mais comment le résoudre (…). A moins que les autorités s’y prennent vraiment mal, ce n’est pas une menace existentielle pour l’euro.

La redénomination française est différente. Au cœur de l’euro (et de l’Union européenne), se tient la relation politique stable entre la France et l’Allemagne. Un gouvernement français qui abandonnerait l’euro serait un bien plus grand choc politique en Europe qu’une Grande-Bretagne sortant de l’Union européenne. Et comme en 2011 et en 2012, l’accroissement du risque de redénomination (qui surviendrait cette fois-ci de la possibilité d’une sortie de la France) alimenterait la prime de risque et pousserait les capitaux à sortir des économies les plus faibles pour affluer en Allemagne.

(…) Ces écarts de rendements convergèrent dans la période qui précède l’introduction de l’euro, le 1er janvier 1999. Entre 1999 et 2008, ils ne s’élevèrent jamais au-dessus de 50 points de base. (Bien que ce ne soit pas indiqué sur le graphique, c’est également vrai pour la Grèce entre l’instant où elle rejoignit la zone euro, en 2001, et l’intensification de la crise sept ans plus tard.) Surtout, au cours des derniers mois, les écarts de rendements ont commencé à s’élever à nouveau. Pour la France, cette envolée a été de 40 points de base. Pour l’Espagne et l’Italie, les écarts de rendement se sont accrus respectivement de 30 et 50 points de base. Certes, ces écarts restent bien inférieurs à ce qu’elles étaient durant la crise de 2011-2012, mais les signaux avant-coureurs sont pleinement visibles.

GRAPHIQUE Les écarts de rendements à long terme par rapport aux obligations publiques allemandes

Cecchetti_Schoenholtz__ecarts_de_rendements_a_long_terme_par_rapport_aux_obligations_publiques_allemandes.png

Si les inquiétudes à propos d’une victoire de Le Pen s’accentuaient, la réaction serait susceptible de s’étendre en-dehors du marché obligataire. Les épargnants préfèreraient placer leurs fonds dans des banques de juridictions où ils les croient en sûreté. Ainsi, nous nous attendons à voir des fonds se déplacer des banques françaises, italiennes et espagnoles vers les banques finlandaises, allemandes, luxembourgeoises et hollandaises. Les réglementations européennes indiquent clairement que de tels déplacements ne peuvent être stoppés, sauf dans des circonstances exceptionnelles comme lors de la crise bancaire chypriote. Quand le flux de dépôts d’un pays vers un autre n’est pas équilibré par un flux dans le sens opposé, l’asymétrie apparaît dans le système Target2. En temps normal (disons, avant 2007), le solde cumulé du système est proche de zéro, reflétant les habituels flux et reflux des dépôts d’un pays à l’autre. Cependant, le flux peut être unidirectionnel, comme cela a été le cas à la veille de la crise de la zone euro. A partir du milieu de l’année 2011, les flux s’intensifièrent, comme les déposants de certains pays périphériques perdirent confiance envers leurs banques, la capacité des gouvernements à soutenir ces dernières ou bien les deux.

(…) Les variations d’intensité de la crise de la zone euro se reflètent clairement dans les fluctuations de la taille de ces déséquilibres. Le pic au milieu de l’année 2012 coïncide avec le discours de Draghi à Londres. Le déclin significatif qui s’ensuivit indique le succès rencontré par les mesures agressives de politique monétaire de la BCE mises en œuvre entre 2012 et 2014, notamment les opérations de refinancement de long terme (LTROs), le programme OMT, les nouvelles exigences en matière d’éligibilité des collatéraux et divers programmes d’achats d’actifs.

GRAPHIQUE Les soldes Target2 selon les pays (mensuellement, en milliards d’euros)

Cecchetti_Schoenholtz__Les_soldes_Target2_selon_les_pays.png

La chose la plus troublante avec ce graphique est que le niveau de soldes de Target2 a déjà retrouvé son pic du milieu de l’année 2012. Le solde créditeur de l’Allemagne est d’environ 800 milliards d’euros (environ 25 % du PIB allemand). D’un autre côté, à la fin de l’année 2016, l’Italie possédait un solde débiteur de 363 milliards d’euros et l’Espagne de 333 milliards d’euros (soit 22 % et 30 % de leur PIB respectif).

Le solde débiteur de la France est toujours de seulement 35 milliards d’euros, mais ce chiffre peut rapidement augmenter. Le coût de déplacement des fonds est négligeable, alors qu’il y a potentiellement d’importants coûts si ces fonds ne sont pas déplacés en cas de victoire du FN. Autrement dit, l’assurance (qu’il y a à retirer son argent d’une banque française, italienne ou espagnole pour le placer vers une banque allemande, danoise ou finlandaise) est virtuellement sans coût. Dès lors que les épargnants croient qu’il y a une différence entre un euro déposé à Madrid, Rome ou Paris et un euro déposé à Frankfort, Amsterdam ou Helsinki, ils sont incités à déplacer leurs fonds (…).

Même si nous avons récemment écrit à propos des risques en Chine, les événements européens suggèrent que la plus grande menace à court terme sur la stabilité financière mondiale n’émane pas de là. Si une panique bancaire commençait avant l’élection française, Target2 faciliterait le flux, tandis que les écarts de rendement s’élèveraient encore davantage. Si le FN gagnait les élections, la mise en œuvre du programme du parti marquerait la fin de l’union monétaire, déclenchant ce que Barry Eichengreen appela un jour "la mère de toutes les crises financières" (mother of all financial crises) comme les créanciers et les débiteurs se battraient pendant des années sur les doits de propriété associés aux redénominations des contrats. Les répercussions sur le reste du monde promettraient une répétition de la crise financière mondiale de 2007-2009 une décennie après.

L’union économique et monétaire (UEM) européenne ne constitue pas, ni n’a jamais constitué, en premier lieu un projet économique. En fait, ses fondateurs virent l’UEM comme un pas vers l’unification politique en Europe. Helmut Kohl a souligné que l’intégration européenne est une question de guerre et de paix au vingt-et-unième siècle. Certains (et peut-être) plusieurs avocats de l’UEM comprenaient qu’une devise commune génèrerait des turbulences, aussi bien financières qu’économiques et politiques. Pourtant, leur expérience du désastre qu’a été le nationalisme européen au vingtième siècle (et des développements politiques qui précédèrent l’euro) les amenait à s’attendre à ce que ces turbulences poussent les futurs dirigeants européens à sacrifier toujours plus grandement la souveraineté nationale pour sauver et avancer l’union politique.

(…) Il semble que la volonté du public de continuer n’a jamais été aussi incertaine. Quand on leur a fait la proposition, les Britanniques ont voté en faveur d’une sortie de l’Union européenne. Est-ce que les Français, lorsqu’ils auront la même opportunité dans quelques mois, opteront aussi pour la sortie de la zone euro ? Est-ce que le nationalisme qui mena aux catastrophes du vingtième siècle refera surface ? Nous ne l’espérons absolument pas. Mais les marchés valorisent le risque, pas l’espoir. »

Stephen Cecchetti et Kermit Schoenholtz, « The future of the euro », in Money & Banking (blog), 13 février 2017. Traduit par Martin Anota

lundi 13 février 2017

L’Union européenne peut-elle survivre au populisme ?



« Une nouvelle année, et de nouvelles menaces sur la survie de l’Union européenne. La bonne nouvelle, c’est que la plus grande perturbation de l’année 2016, le vote de la Grande-Bretagne en faveur d’une sortie de l’UE (le "Brexit"), semble gérable. La mauvaise nouvelle, c’est que des partis populistes sont susceptibles de prendre le pouvoir cette année en France et en Italie. Or un tel événement est susceptible de mettre fin à l’UE.

L’UE est récemment devenue une cible de premier choix pour les populistes. Le phénomène s’est tout d’abord matérialisé en Grèce, lorsque le parti d’extrême-gauche Syriza est venu au pouvoir en janvier 2015. Mais Syriza n’a pas cherché à sortir la Grèce de l’UE ; en fait, il voulait renégocier l’accord avec les créanciers du pays, qui avaient imposé de dévastatrices mesures d’austérité aux citoyens grecs.

Le projet de Syriza était largement en accord avec la volonté du people. Lors du référendum de juin 2015, les électeurs rejetèrent dans leur très grande majorité un accord proposé par les créanciers de la Grèce qui imposait de nouvelles mesures d’austérité. Pourtant, les Grecs ont soutenu le gouvernement lorsque celui-ci accepta, quelques jours après, un accord largement inchangé. Les électeurs grecs comprirent qu’un meilleur accord ne leur serait pas bénéfique si le pays sortait de la zone euro.

Bien sûr, tout le monde ne considéra pas que l’appartenance à l’UE vaille ce sacrifice. Mais il y avait un côté pratique dans la critique populaire de l’UE, qui se focalisait largement sur ce que l’UE faisait, en particulier dans la sphère économique. C’est pourquoi une telle critique a reçu le plus d’échos dans les pays qui ont été les plus durement frappés par la crise de la zone euro, ceux qui ont été les plus touchés par l’austérité ou, plus récemment, ceux qui se sentirent perdants dans les accords commerciaux.

Cela n’est plus le cas. Le populisme de droite a connu un profond essor dans les économies robustes (l’Autriche) et dans les pays où les bénéfices de l’intégration européenne sont palpables (Hongrie et Pologne). En France, il n’y a jamais eu de mesures d’austérité imposées par l’UE ; même le président de la Commission européenne Jean-Claude Juncker admit que les règles budgétaires de l’UE ne peuvent être imposées à la France, précisément "parce qu’il s’agit de la France".

A présent, les populistes se focalisent non pas sur ce que l’UE fait, mais sur ce qu’elle représente. Au lieu de se demander si l’intégration européenne enrichit ou appauvrit les gens, les populistes se posent une question plus fondamentale et plus puissante : "Qui sommes-nous ?"

A un instant où les pays font face à une grande vague d’immigration, ce changement de focale n’est pas surprenant. Les sociétés qui se sont longtemps définies selon un contexte et une culture communes doivent maintenant faire face aux implications de multiculturalisme. C’est pourquoi la plupart des observateurs des partis populistes, surtout de droite, sont focalisés sur les attitudes envers les étrangers et les minorités.

La focalisation sur la politique d’identité (un terrain sur lequel il n’est pas facile d’obtenir des compromis) s’est accompagnée d’un changement des attitudes envers les institutions démocratiques. Les dirigeants populistes opèrent sur l’hypothèse que la volonté du « peuple » (tel qu’ils le définissent) ne doit pas être institutionnellement contrainte. Cela remet en cause le principe fondamental de la démocratie libérale : celui selon lequel le pouvoir de la majorité doit être limité, pas seulement pour protéger les minorités, électorales ou autres.

Le pouvoir de la majorité courante est habituellement limité par ce que les Américains appellent les "freins et contrepoids" (checks and balances), qui incluent, par exemple, un système judiciaire indépendant et la nécessité d’obtenir une super-majorité pour modifier les éléments fondamentaux du système politique. Et de telles limites fonctionnent habituellement, du moins pour la majeure partie. Au Royaume-Uni, par exemple, trois juges de la Haute Cour ont décidé que seul le Parlement, et non le gouvernement, peut déclencher l’article 50 du Traité de Lisbonne, le processus formel pour quitter l’UE.

Mais les politiciens populistes s’irritent de telles contraintes. Le premier ministre hongrois Viktor Orbán n’a pas seulement ouvertement déclaré sa préférence pour une démocratie "illibérale" : il s’est échiné à démanteler les freins et contrepoids sur le pouvoir de son gouvernement. Les mêmes choses se sont produites avec le gouvernement populiste de Pologne, dont le dirigeant de facto, Jarosław Kaczyński, ne possède même pas une position officielle dans l’administration.

Etant donné leur mépris pour les institutions indépendantes, il n’est pas difficile de comprendre pourquoi les populistes s’opposent à l’UE, puisque celle-ci constitue, dans un sens, la démocratie libérale dans sa quintessence : elle est gouvernée par des règles impersonnelles, plutôt que par la majorité courante, et la plupart de ses décisions nécessitent soit une super-majorité, soit l’unanimité. Pour les populistes, l’UE impose de significatives contraintes qui sont encore plus difficiles à outrepasser que les contrepoids domestiques. C’est ce qui la rend problématique.

D’un autre côté, cependant, l’UE souffre d’un manque de démocratie : comme les dirigeants populistes le soulignent régulièrement, ses dirigeants à Bruxelles ne sont pas élus. (Les populistes utilisent des arguments similaires pour dénier la légitimité des tribunaux nationaux.)

La réalité, bien sûr, est que les gouvernements et les parlements démocratiquement élus mettent en place les dirigeants et les bureaucrates de l’UE (et des juges indépendants) précisément pour instaurer des limites sur la majorité des gouvernements en place et futurs. Mais les populistes recadrent la vision que leurs suiveurs ont du système, en déclarant que ces responsables font partie de l’"élite" et sont sélectionnée par d’autres membres de l’élite pour aller à l’encontre de la volonté du peuple. Il y a peu de choses que les politiciens orthodoxes, encore moins les responsables de l’UE, puissent faire pour contrer cela. Certains politiciens nationaux succombent à la pression populaire, adoptant la rhétorique (et même le programme) de leurs adversaires populistes. Mais l’UE ne peut faire une telle chose sans précipiter sa perte.

Quand c’est l’action de l’UE qui posait problème, il y avait une solution possible : l’UE pouvait opérer un revirement sur les questions économiques. Et, en effet, la Commission a de facto abandonné l’austérité. De même, le nouvel accord commercial avec le Canada, signé en octobre, ne fut conclu qu’après l’acceptation d’importants compromis.

Mais l’UE ne peut changer ce qu’elle représente. Elle ne peut accepter, encore moins avancer, l’idée que les freins et contrepoids sont des obstacles au progrès ou que les étrangers menacent le mode de vie européen. Elle ne peut offrir le genre de solutions radicales, impossibles ou illibérales que les populistes utilisent pour obtenir des appuis. L’UE doit rester un rempart pour la démocratie libérale, avec toutes ses règles et procédures peu élégantes et pourtant nécessaires.

Dans l’environnement actuel, cette incarnation d’une démocratie multi-niveaux et d’une économie ouverte ne peut concurrencer les belles promesses des populistes. Cependant, quand les populations comprendront que les populistes ne peuvent réaliser ce qu’ils prétendent, ce sera vers l’UE qu’elles se tourneront. En espérant seulement qu’il existera toujours une UE qui les attende. »

Daniel Gros, « Can the EU survive populism? », 4 janvier 2017. Traduit par Martin Anota

vendredi 10 février 2017

Qu’entendons-nous par "malthusien" ?



« (…) Plusieurs hypothèses de Malthus à propos du fonctionnement des économies, en particulier avant le début du dix-neuvième, c’est-à-dire avant l’ère de la croissance soutenue, sont bien fondées. Et elles ont des implications qui aident à comprendre le monde de cette époque. Certaines hypothèses de Malthus peuvent aussi être pertinentes pour aujourd’hui. Dans ce billet, je vais tenter de préciser ce que signifie le terme "malthusien" et je vais ensuite me pencher sur certains de ses usages (…).

La stagnation des niveaux de vie


Ma conception d’une économie malthusienne repose sur deux caractéristiques. Premièrement, les niveaux de vie sont négativement reliés à la taille de la population. Cela peut être le cas si nous avons un facteur de production fixe. C’est typiquement le cas des terres agricoles, mais on peut être plus général et dire les ressources naturelles. Tant que les ressources sont inélastiques, que ce soit dû à une limite physique ou au coût excessif de leur usage, la première caractéristique d’une économie malthusienne sera satisfaite.

GRAPHIQUE Population et salaires réels en Angleterre

Gregory_Clark__Population_et_salaires_reels_en_Angleterre.png

(…) Je tire le graphique précédent du livre d’Oded Galor, qu’il tire lui-même de Greg Clark. Quand la population s’effondra après la Peste Noire, les salaires augmentèrent. Ils restèrent élevés tant que la population resta limitée, puis ils chutèrent lorsque la population s’accrut à nouveau.

Salaires et population


La seconde caractéristique est que la croissance démographique est positivement reliée aux niveaux de vie. Cela peut être le cas si les enfants constituent un "bien normal", auquel cas la fertilité augmente lorsque les gens voient leur revenu augmenter. Ou cela peut être le cas si la santé constitue un bien normal, auquel cas les gens prennent plus soin d’eux-mêmes (et de leurs enfants) lorsqu’ils ont de plus hauts revenus. Une plus forte fertilité et/ou une plus faible mortalité accélérerait la croissance démographique.

Ou peut-être que les gens ne font pas de choix conscients comme ceux-là. Peut-être que c’est purement biologique et que les femmes avec de plus hauts niveaux de vie (…) vont avoir plus de chances à mener leurs grossesses jusqu’à leur terme et leurs bébés vont avoir plus de chances de survivre et donc d’enfanter à leur tour. Il n’est pas important ici que la fertilité et la mortalité relèvent ou non de calculs rationnels.

Le travail originel de Malthus impliquait cette relation positive et il semblait avoir en tête une combinaison de choix et de biologie. Ses freins préventifs consistent pour chacun à choisir d’avoir moins d’enfants ou de se marier plus tard, en réponse à de faibles niveaux de vie (donc les niveaux de vie et la fertilité sont positivement reliés). Ses freins positifs étaient la moindre fertilité et la plus forte mortalité qui surviennent automatiquement lorsque les niveaux de vie chutent fortement.

En comparaison à la première caractéristique, les preuves empiriques soutenant la seconde sont ambigües. Le problème majeur est qu’il y a peu de données disponibles sur la fertilité et la mortalité au niveau individuel pour les siècles qui précèdent 1800, si bien qu’il est difficile de tester la relation de ces variables démographiques avec les niveaux de vie. L’Angleterre est le seul territoire pour lequel nous disposons de certaines données, si bien que le débat tend à se focaliser sur la démographie anglaise. Kelly et O Grada (2012) ont trouvé des preuves empiriques confirmant la présence des freins préventifs (c’est-à-dire les taux de mariage) et Cinnirella, Klemp et Weisdorf (2016) trouvent des preuves empiriques suggérant que les naissances étaient plus ou moins espacées en fonction des niveaux de vie. Crafts et Mills (2009), par exemple, conclurent qu’il n’y avait pas de frein positif en vigueur et que les freins préventifs n’agissaient plus au dix-huitième siècle. Si vous cherchez des raisons pour rejeter l’économie malthusienne, alors c’est peut-être cela. Peut-être que la croissance démographique n’est pas positivement reliée aux niveaux de vie après tout.

Mais si cette caractéristique est vérifiée, alors vous obtenez ce que j’appellerais une économie malthusienne. (…) S’il y a seulement quelques personnes, alors en raison de la première caractéristique nous savons que les niveaux de vie sont élevés parce que les ressources par personne sont élevées. Mais de hauts niveaux de vie signifient une forte croissance de la population, donc le nombre de personnes s’accroît et cela réduit la quantité de ressources par personne et donc les niveaux de vie.

S’il y a beaucoup de monde, c’est l’enchaînement inverse. Les ressources sont utilisées par beaucoup, donc les niveaux de vie sont faibles. De faibles niveaux de vie signifient une faible croissance démographique. Quand les ressources sur trop utilisées, cela se traduit par une décroissance démographique et la population diminue. Un déclin de la population signifie plus de ressources par personne et ainsi les niveaux de vie augmentent.

Tout dans le système tend vers un certain niveau intermédiaire où la quantité de ressources par personne et donc le niveau de vie sont à un niveau tel que la croissance de la population est nulle. Sans changement dans la population, il n’y a aucun changement dans les niveaux de vie, donc il n’y a aucun changement de la croissance démographique, donc il n’y a aucun changement dans la population. L’économie stagne au niveau de vie auquel il y a une croissance démographique nulle. Si vous voulez une bonne mathématisation de tout cela, je vous conseille l’étude d’Ashraf et Galor (2011).

Puisque je parle de l’économie malthusienne, voici quelques observations qui ne sont pas immédiatement évidentes par rapport à ce que je viens de décrire. Le niveau stagnant des niveaux de vie n’est pas nécessairement à un minimum biologique. Malthus, éternel pessimiste, pensait que les niveaux de vie seraient poussés à la baisse à un certain strict minimum pour vivre. Ce n’est pas une conclusion qui découle nécessairement de ses deux hypothèses. La croissance de la population peut répondre positivement aux niveaux de vie, même si le niveau de vie auquel la croissance démographique est nulle est assez élevé. Cela dépend des préférences en ce qui concerne les enfants. Toutes les économies malthusiennes ne stagnent pas au même niveau de vie.

Les chocs de productivité ne vont que temporairement accroître les niveaux de vie, mais ils vont accroître de façon permanente la taille de la population. Les chocs de productivité positifs accroissent les niveaux de vie immédiatement pour les survivants, mais cela les pousse à avoir plus d’enfants (ou réduit la mortalité infantile), ce qui conduit à une croissance de la population, donc réduit les niveaux de vie. Les variations de productivité vont donc se traduire par un accroissement de la population, mais pas nécessairement par de plus hauts niveaux de vie. C’est ce qu’Ashraf et Galor (2011) montrent dans les données. (…) La densité démographique est positivement reliée à la productivité agricole en 1500, ce qui est cohérent avec l’effet à long terme de la productivité sur la taille de la population. (…) Les niveaux de vie (les PIB par tête) ne sont pas reliés à cette même productivité agricole en 1500, ce qui est cohérent avec l’absence d’effet à long terme de la productivité sur les niveaux de vie.

L’ajustement vers le niveau de vie stagnant peut pendre beaucoup de temps. (…) Nippe Lagerlof a récemment montré qu’une économie malthusienne avec des chocs de productivité aléatoires et une structure en âges réaliste va présenter des niveaux de vie qui semblent malthusiens dans le sens où ils sont fixes et proches d’un certain niveau stagnant, mais aussi présenter des vagues de croissance et d’effondrement. Nippe a fait surgir une tendance vers la croissance soutenue dans toutes les économies, mais les quatre économies qu’il observe ont des vagues de croissance et d’effondrement s’étendant sur plusieurs décennies, même s’ils ont la même structure malthusienne sous-jacente. Les chocs aléatoires touchant les niveaux de vie persistent au cours du temps en raison de l’effet sur la structure en âges. (…)

Population et prix des facteurs

Le terme "malthusien" a été appliqué à des gens qui affirment que les changements dans la taille de la population, en agissant sur les prix des facteurs, influencent les relations sociales. Les historiens comme Postan et Le Roy Ladurie avancent ce genre de thèse, mais je pense que North et Thomas dans The Rise of the Western World en donnent la meilleure illustration et l’exemple le plus connu parmi les économistes. North et Thomas affirment que les changements dans la population, en modifiant les salaires relatifs et le pouvoir de négociation des paysans, ont contribué à changer les institutions en Europe occidentale avant la Révolution industrielle.

Des gens comme Robert Brenner et Guy Bois ont contesté cette explication (…), en affirmant que Postan et Le Roy Ladurie (et North et Thomas par extension) ignoraient la question des classes pour expliquer les changements touchant les salaires relatifs et les institutions gouvernant le travail. (…) Brenner et Bois affirment que les changements démographiques ne suffisent pas pour modifier les institutions. L’effet des changements démographiques sur les conditions de travail dépendaient du pouvoir politique des paysans, qui n’était pas nécessairement affecté par la population. (…)

Brenner et Bois qualifient de "malthusiens" leurs opposants et leurs théories. Et pour moi, c’est un usage incorrect du terme. L’idée selon laquelle la taille de la population influence des salaires n’est pas malthusienne ; elle est tout simplement économique. Il n’y a rien de malthusien à propos de Postan, Le Roy Ladurie et North et Thomas, du moins quand cela touche à leurs explications du changement institutionnel. Les propos de Brenner et Bois n’en sont pas pour autant faux. Mais ils sont sémantiquement confus.

Les limites à la croissance

Le terme "malthusien" est également utilisé en référence aux limites à la croissance, à l’effondrement environnemental et à d’autres choses de ce genre. Ici, les auteurs croient fermement qu’il y a une offre fixe de ressources disponibles et donc que les niveaux de vie doivent être négativement reliés à la taille de la population.

Vous pouvez classer les personnes parlant de limites à la croissance en deux groupes. Le premier considère la croissance de la population comme donnée et ne se demande pas vraiment si elle répond aux niveaux de vie. Le fait que la croissance de la population soit positive (au niveau global) suffit pour entraîner un déclin des niveaux de vie, si bien que nous devons soit conserver des ressources, soit adopter un certain contrôle des naissances. Le second groupe a internalisé la relation négative post-transition démographique entre niveaux de vie et croissance démographique. Lorsque la planète est tellement habitée que les niveaux de vie chutent, cela va relever le taux de croissance démographique et nous nous retrouvons dans une spirale mortelle vers la misère.

Les idées de chacun de ces groupes sont souvent qualifiées de malthusiennes en raison de l’effet négatif de la population sur les niveaux de vie. Cela n’est qu’en partie vrai. Il n’y a pas de stagnation dans le sens que j’ai employé ci-dessus, dans la mesure où dans chaque cas la croissance démographique se poursuit (lentement ou de façon accélérée) jusqu’à ce que le niveau de vie soit nul. Que l’on pourrait considérer comme stagnant, s’il restait à zéro. (…)

La limite finie des ressources s’assouplit progressivement au cours du temps. (…) Il y a deux raisons à cela. Premièrement, parce que le progrès technique va desserrer certaines contraintes en ressources ou éliminer le besoin de certaines ressources. Deuxièmement, parce que l’élasticité-revenu de la demande pour les biens intensifs en ressources est faible, notre usage de ces ressources ne va pas croître aussi rapidement que les partisans de l’idée de limites à la croissance suggèrent. (…) »

Dietrich Vollrath, « Who are you calling Malthusian? », 8 février 2017. Traduit par Martin Anota

mercredi 8 février 2017

Crises économiques et crise de la science économique

« Est-ce que la profession des économistes est "en crise" ? Plusieurs responsables de politique économique, notamment Andy Haldane, l’économiste en chef de la Banque d’Angleterre, croient qu’elle l’est. En effet, il y a une décennie, les économistes ne voyaient pas de puissante tempête arriver à l’horizon, du moins pas tant qu’elle n’atteignit son paroxysme en se muant en la crise financière mondiale la plus destructrice depuis 80 ans. Plus récemment, ils ont mal jugé de l’impact immédiat du référendum du Brexit sur l’économie britannique.

Bien sûr, les prévisions post-Brexit peuvent ne pas entièrement fausses, mais seulement si nous regardons l’impact du référendum du Brexit à long terme. Certes, certains économistes s’attendaient à ce que l’économie britannique s’effondre durant la panique qui suivit les résultats du référendum, mais l’activité économique s’est révélée plutôt résistante, avec une croissance du PIB atteignant 2,1 % en 2016. Mais maintenant que la Première Ministre Theresa May a montré qu’elle préférait un Brexit "dur", il est peut-être correct d’afficher un sombre pronostic de long terme.

Malheureusement, la responsabilité des économistes pour la crise financière mondiale de 2008 et la subséquente récession s’étend au-delà des erreurs de prévision. Plusieurs d’entre eux virent d’un bon œil les excès qui furent à l’origine de la crise et soutinrent les politiques économiques erronées qui furent par la suite adoptées (notamment en appelant hâtivement à l’austérité budgétaire et en ignorant le creusement des inégalités).

Certains économistes se sont laissé entraîner par l’arrogance intellectuelle : la croyance qu’ils peuvent toujours expliquer la complexité du monde réel. D’autres se sont enchevêtrés dans des questions méthodologiques ("en sacrifiant la vérité à la beauté", comme a pu le noter Paul Krugman) ou ont accordé trop de confiance dans la rationalité humaine et l’efficience des marchés.

Malgré son aspiration à la certitude des sciences naturelles, l’économie est et restera une science sociale. Les économistes étudient systématiquement des objets qui sont encastrés dans des structures sociales et politiques. Leur méthode se fonde sur les observations, desquelles ils tirent des tendances et en déduisent d’autres tendances et comportements ; mais ils ne peuvent jamais atteindre le succès prédictif de, disons, la chimie ou la physique.

Les êtres humains répondent aux nouvelles informations de différentes façons, si bien qu’ils ajustent différemment leur comportement à celles-ci. Donc, l’économie ne peut fournir (ni ne doit prétendre fournir) des intuitions définitives dans les tendances futures. Les économistes ne peuvent avoir un aperçu du futur qu’en se tournant vers le passé, donc leur pouvoir prédictif se limite à déduire des probabilités à partir d’événements passés, non des lois éternelles.

Et parce que l’économie est une science sociale, elle peut facilement être utilisée pour servir les intérêts des élites politiques et des entreprises. Dans les années qui ont précédé la crise financière, la croissance économique mondiale et les profits étaient si élevés que tout le monde (des petits investisseurs financiers aux plus grandes banques) était aveuglés par la perspective de plus gros gains.

Les économistes employés par les banques, les hedge funds et d’autres entreprises devaient donner un « aperçu » de court terme pour leurs employeurs et clients ; et à prêcher leur "croyance" au public général via leurs interviews et leurs apparitions dans les médias. Entretemps, la profession en économie adoptait des outils mathématiques plus complexes et un jargon spécialisé, ce qui contribua à creuser le fossé entre les économistes et les chercheurs des autres sciences sociales.

Avant la crise financière, lorsqu’énormément d’intérêts privés et d’opportunités profitables étaient en jeu, plusieurs économistes défendaient un modèle de croissance qui était davantage basé sur l’« exubérance irrationnelle » que sur des fondamentaux sains. De même, au regard du Brexit, plusieurs économistes ont confondu l’impact à long terme du référendum avec ses effets de court terme, parce qu’ils se sont précipités à faire des prévisions pour rester dans le débat politique.

En raison de ces erreurs, mais aussi d’autres erreurs, les économistes (et l’économie) ont souffert d’une spectaculaire disgrâce. Alors qu’ils ont pu être perçus par le passé comme des sorciers modernes ayant un accès à un savoir exclusif, les économistes sont désormais les plus méprisés de tous les "experts".

Qu’allons-nous faire maintenant ? Même si nous pouvons saluer l’aveu de Haldane, s’excuser pour les erreurs passées ne suffit pas. Les économistes, en particulier ceux qui sont impliqués dans les débats autour de la politique économique, doivent être explicitement tenus responsables de leur comportement professionnel. A cette fin, ils doivent se lier à un code de conduite volontaire.

Avant tout, ce code doit reconnaître que l’économie est trop complexe pour être réduite à des petites phrases et des conclusions précipitées. Les économistes doivent prêter plus d’attention à préciser le contexte dans lequel ils produisent leurs idées et aux possibles implications de ce contexte. Et ils doivent toujours révéler leurs intérêts, pour que l’analyse interne ne soit pas erronée d’un point de vue indépendant.

En outre, les débats économiques seraient plus bénéfiques si on y entendait plus de voix. L’économie est une vaste discipline qui comprend des chercheurs et des praticiens dont le travail mêle perspectives macroéconomiques et microéconomiques, mais aussi approches théoriques et appliquées. Comme toute autre discipline intellectuelle, sa production peut aussi bien être excellente, bonne et médiocre.

Mais l’essentiel de ces études ne parvient pas aux cercles de décision de politique économique, tels que les ministères des Finances, les banques centrales ou les institutions internationales. Aux niveaux hiérarchiques où se prennent les décisions, les débats autour de la politique économique restent dominés par un petit groupe d’hommes blancs qui sont issus des universités et think tanks américains et qui sont dans leur grande majorité des fidèles de l’orthodoxie.

Les conceptions développées par ce groupe sont surreprésentées dans les médias de masse, via les commentaires et interviews. Mais pêcher des idées dans cet unique petit bassin mène non seulement à un débat circulaire et suffisant, mais cela peut aussi encourager les économistes moins connus à restreindre leur champ de recherche.

Le public mérite (et a besoin d’)un marché aux idées dans lequel les conceptions orthodoxes et hétérodoxes font l’objet de la même attention et d’une discussion équilibrée. Bien sûr, cela demandera du courage, de l’imagination et du dynamisme, en particulier de la part des journalistes. Mais c’est précisément une discussion plus juste, davantage pluraliste des idées économiques dont les économistes ont besoin. »

Paola Subacchi, « Economic crises and the crisis of economics », 13 janvier 2017. Traduit par Martin Anota

- page 1 de 23