Annotations

Aller au contenu | Aller au menu | Aller à la recherche

jeudi 25 août 2016

Le fardeau de la dette pèse toujours sur la croissance mondiale



« La réunion des ministres des finances du G20 et banquiers centraux à Washington (...) a conclu sur une note amère. Ne soyons pas surpris : les perspectives de croissance mondiale se sont assombries avec une variété de risques émanant désormais tant des pays développés que des pays en développement. Les participants à la réunion ont souligné, à nouveau, qu’il était nécessaire de mieux coordonner les politiques économiques, de recourir à la relance budgétaire et de mettre en œuvre une variété de réformes structurelles. Et ces réponses seraient plus urgentes dans la mesure où il est de plus en plus manifeste que la politique monétaire manque de munitions et que les dévaluations compétitives feraient plus de mal que de bien.

Mais avec les plus grandes économies qui sont toujours plombées, presque huit ans après la crise financière mondiale, par des niveaux élevés et croissants de dette publique et privée, il est déconcertant de voir que de larges restructurations ne prennent pas une place plus importante dans le menu des options politiques. En effet, pour l’économie mondiale, la restructuration de la dette est incontournable, mais tout le monde fait l’autruche.

Lors des premiers temps de la crise financière de 2008-2009, Kenneth Rogoff et moi avons noté que la reprise consécutive aux crises financières sévères est lente, dans la mesure où il faut du temps pour que les ménages et les entreprises réduisent les dettes qu’ils ont accumulées durant le boom. Au même instant, les banques, face à la hausse des prêts non performants et à des bilans fragiles, peuvent se révéler incapables ou hésitantes à s’engager dans de nouveaux prêts. Les retards dans le nettoyage des bilans font partie des facteurs qui freinent la reprise et font que les reprises suite aux crises financières sont différentes des rebonds typiques des cycles d’affaires, qui sont habituellement plus rapides.

Dans une étude postérieure, nous avons précisé la trajectoire du revenu par tête suite aux 100 crises financières les plus graves qui ont éclaté depuis 1960. Nous avons constaté qu’il fallait plus de sept ans, en moyenne, pour les économies avancées (telles que nous les définissons aujourd’hui) pour atteindre le niveau de revenu d’avant-crise ; la reprise médiane prend environ six ans. Le déclin du revenu par tête entre son pic au début de la crise et le creux s’élevait à environ 9,6 % pour ce groupe de pays. Les effondrements de la production associés à la crise pour les pays émergents étaient amples.

Que peut-on dire de la comparaison entre l’expérience moderne d’après-crise et les événements passés ? Les dernières Perspectives de l’économie mondiale du FMI, qui offrent des projections pour la croissance du PIB par tête (et de nombreux autres indicateurs) jusqu’à 2021 pour la plupart des économies dans le monde facilite l’évaluation.

L’Allemagne, l’Espagne, les Etats-Unis, la France, la Grèce, l’Irlande, l’Islande, l’Italie, les Pays-Bas, le Portugal et le Royaume-Uni ont tous connu des crises financières systémiques. Deux pays parmi eux (l’Allemagne et les Etats-Unis) ont plus rapidement renoué avec la reprise que l’expérience historique pour les pays développés. Parmi les autres, l’Irlande et le Royaume-Uni sont ceux qui ont le plus rapidement comblé les pertes en termes de revenu (cf. tableau).

Carmen_Reinhart__reprise_apres_une_crise_financiere__PIB_par_tete__Grande_Recession.png

Si les projections du FMI sont prises à leur valeur nominale, le temps médian qu’il faut pour atteindre le niveau d’avant-crise du revenu pour le groupe de 11 pays sera d’environ 9 ans. En 2021, les revenus par tête grec et italien seront respectivement inférieurs de 14 % et 9 % par rapport à leur niveau de 2007. La crise grecque, qui est loin d’être terminée, prend la dixième place dans le classement des crises financières les plus sévères.

Même si on laisse de côté la question plus controversée et tendue de la restructuration de la dette souveraine, il faut prendre conscience que l’effacement de la dette privée qui a été accumulée le boom (…) a fait partie intégrante de la résolution des crises bancaires à travers la plupart des épisodes au cours de l’histoire. Les exceptions notables incluent le renouvellement (evergreening) des prêts bancaires dans les années qui ont suivi la crise japonaise au début des années quatre-vingt-dix et la crise toujours en cours de l’Europe, qui fêtera bientôt son dixième anniversaire.

La reprise anémique dans plusieurs pays développés (même en comparaison avec d’autres crises sévères) tient beaucoup à l’approche "extend and pretend" de la dette qui prévaut. Depuis la crise, les banques européennes se sont finalement contentées d’acheter des titres de dette publique et de renouveler les prêts privés d’avant-crise (selon un mécanisme à la Ponzi).

Même si, aux Etats-Unis, l’épisode des saisies immobilières a été particulièrement difficile, il a forcé les banques et les emprunteurs à s’adapter à l’effondrement de la bulle immobilière et ainsi pouvoir continuer à prêter et à emprunter. Des épisodes antérieurs, allant des crises scandinaves du début des années quatre-vingt-dix à la crise asiatique de 1997-1998, ont été marqués par un désendettement plus rapide. Il faut espérer que la réaction des autorités chinoises face aux problèmes de dette privée domestique et de dette publique ne soit pas la même que celle des autorités au Japon et dans la zone euro. »

Carmen Reinhart, « The post-crisis economy’s long debt hangover », in Project Syndicate, 26 avril 2016. Traduit par Martin Anota



aller plus loin…

« L’éternel retour selon Reinhart et Rogoff »

« Quelle reprise après une crise bancaire ? »

« Quelques leçons de Reinhart et Rogoff sur les crises financières et la dette souveraine »

« Des défauts souverains en miroir »

lundi 22 août 2016

Comment l’équilibre de Nash a révolutionné la théorie des jeux



« John Nash est arrivé à l’Université de Princeton en 1948 pour commencer son doctorat avec une lettre de recommandation d’une seule phrase : "c’est un génie en mathématiques". Il n’a pas déçu. A l’âge de 19 ans et avec seulement un cours d’économie universitaire à son nom, il réalisa au cours des 14 premiers mois qui ont suivi l’obtention de son diplôme le travail qui finirait, en 1994, par lui faire gagner le "prix Nobel d’économie" pour sa contribution à la théorie de jeux.

Le 16 novembre 1949, Nash envoya une note plus grande qu’une page aux Proceedings of the National Academy of Sciences, où il développa le concept qui a depuis reçu le nom d’"équilibre de Nash". Ce concept décrit une situation stable qui résulte de personnes ou d’institutions prenant rationnellement des décisions en se basant sur ce qu’ils pensent que les autres vont faire. A un équilibre de Nash, personne n’est capable d’améliorer sa propre situation en changeant de stratégie : chaque personne fait aussi bien qu’elle le peut, même si cela ne se traduit pas par un dénouement optimal pour l’ensemble de la société. Avec d’élégants développements mathématiques, Nash montra que chaque "jeu" caractérisé par un nombre limité de joueurs, qui ne disposent chacun que d’un nombre limité d’options à choisir, présente au moins un tel équilibre.

Ses intuitions étendirent le champ de la science économique. Sur les marchés parfaitement concurrentiels, où il n’y a pas de barrières à l’entrée et où les produits de chacun sont identiques, aucun acheteur ou vendeur ne peut individuellement influencer le marché : personne ne va prêter attention à ce que les autres font. Mais la plupart des marchés ne sont pas comme cela : les décisions des rivaux et des clients importent. Des ventes aux enchères au marché du travail, l’équilibre de Nash donna à la science lugubre une manière de faire des prédictions dans le monde réel en s’appuyant sur l’information relative aux incitations auxquelles chaque personne est soumise.

Un exemple en particulier est souvent utilisé pour symboliser l’équilibre : le dilemme du prisonnier. Nash a utilisé l’algèbre et les chiffres pour décrire cette situation dans un article publié en 1951, mais la version qui est familière aux étudiants en économie est bien plus frappante. (…) Il implique deux truands placés dans deux cellules de prison séparées qui se voient accorder chacun la même proposition de la part du procureur. Si tous les deux confessent un meurtre sanglant, ils auront une peine de dix ans de prison. Si l’un des deux reste silencieux, tandis que l’autre le dénonce, alors ce dernier obtiendra une remise de peine, tandis que le premier sera emprisonné à vie. Et si tous les deux restent muets, alors chacun ne sera inculpé que pour un délit mineur et ne passera qu’un an en prison. Il n’y a qu’une solution dans le dilemme du prisonnier que l’on puisse qualifier d’équilibre de Nash : chacun balance l’autre. Pour chacun, c’est la meilleure réponse à la stratégie de l’autre ; comme l’autre peut avoir craché le morceau, le balancer assure d’éviter la prison à perpétuité. Ce dénouement est vraiment tragique : si les deux truands avaient pu mettre en place une certaine forme de coordination, ils auraient pu se retrouver au final dans une meilleure situation pour chacun.

L’exemple montre que les foules peuvent être aussi bien égoïstes que judicieuses ; ce qui est le mieux pour l’individu peut être désastreux pour le groupe. Cette issue tragique n’est que trop banale dans le monde réel. Libres de piller les mers, les individus vont pêcher bien plus que ce qui est optimal pour le groupe, ce qui entraîne l’épuisement des stocks de poissons. Si les salariés se font concurrence pour impressionner leur chef en restant travailler plus longtemps au bureau, la main-d’œuvre va s’épuiser. Les banques sont incitées à prêter plus qu’il n’est prudent de le faire lorsque les prix de l’immobilier explosent.

L’équilibre de Nash a aidé les économistes à comprendre comment des individus qui cherchent à améliorer leur situation peuvent former des foules autodestructrices. Qui plus est, il les a aidés à s’attaquer au problème : ils doivent juste s’assurer que chaque individu fait face aux meilleures incitations possibles. Si les choses vont toujours mal (par exemple, si les parents refusent de vacciner leurs enfants contre la rougeole), c’est peut-être parce que les gens n’agissent pas dans leur propre intérêt. Dans ce cas, le défi de la politique publique se situe dans le domaine de l’information.

L’idée de Nash avait des antécédents. En 1838, l’économiste français Antoine Augustin Cournot a théorisé ce qui se passera si, dans un marché avec où seules deux entreprises sont en concurrence, chacune voyait les désavantages qu’il y a à accroître sa part de marché en stimulant sa production : en l’occurrence, cela réduirait les prix et les profits. Involontairement, Cournot a donné un exemple d’équilibre de Nash. Il fait sens pour chaque entreprise de fixer ses niveaux de production en se basant sur la stratégie de ses concurrents ; les consommateurs, cependant, se retrouvent avec moins de biens et avec des prix plus élevés que si une concurrence à plein régime avait prévalu.

Le mathématicien hongrois John Neumann fut un autre pionnier. En 1928, l’année où Nash est né, von Neumann proposa une première théorie des jeux formelle, montrant que, dans les jeux à deux personnes et à somme nulle, il y aurait toujours un équilibre. Quand Nash partagea ses trouvailles avec von Neumann, qui était alors un demi-dieu intellectuel, ce dernier les considéra comme "triviales", en y voyant qu’une simple extension des siens. En fait, le fait que von Neumann se soit focalisé sur les jeux à deux personnes et à somme nulle n’offrait seulement qu’un ensemble très étroit d’applications pour sa théorie. La plupart d’entre elles étaient militaires. C’est le cas de la destruction mutuelle assurée, dans laquelle l’équilibre est atteint en armant les adversaires avec les armes nucléaires (certains ont suggéré que le personnage de film Docteur Folamour était basé sur von Neumann). Rien de tout cela n’était particulièrement utile pour observer les situations du monde réel, notamment la plupart des formes de marché, dans lesquelles la victoire d’un parti n’implique pas forcément la défaite de l’autre.

Néanmoins, les économistes partagèrent initialement l’avis de von Neumann et négligèrent largement la découverte de Nash. Ce dernier s’est lancé dans d’autres aventures mathématiques, mais les espoirs qu’elles nourrissaient s’effondrèrent lorsqu’en 1959 il commença à souffrir de délires et de paranoïa. (…) Alors même qu’il combattait sa maladie mentale, son concept d’équilibre devint de plus en plus central dans la discipline. La part des articles d’économie citant l’équilibre de Nash a été multipliée par sept depuis 1980, et le concept a été utilisé pour résoudre plusieurs problèmes de politique dans le monde réel. Un fameux exemple en est le système hospitalier américain, qui se trouvait dans les années quarante à un mauvais équilibre de Nash. (...)

L’équilibre de Nash n’aurait pas reçu son statut actuel sans quelques améliorations apportées à l’idée originelle. Premièrement, dans de nombreuses situations, il peut y avoir plus d’un équilibre de Nash. Les conducteurs choisissent sur quel côté de la route conduire en optant pour la meilleure réponse au comportement des autres conducteurs, avec des résultats très différents, en fonction de l’endroit où ils habitent ; ils roulent à gauche en Grande-Bretagne, mais à droite aux Etats-Unis. Au grand dam des économistes férus d’algèbre, la compréhension des stratégies nécessite de connaître les normes et habitudes sociales. Le théorème de Nash ne suffit pas.

Une seconde amélioration passe par la prise en compte des menaces non crédibles. Si un adolescent menace de fuguer si sa mère lui confisque son téléphone portable, alors il y a un équilibre de Nash où elle lui rend le portable pour maintenir la paix. Mais Reinhard Selten, un économiste allemand qui partagea avec John Nash et John Harsanyi le "prix Nobel d’économie" en 1994, affirmaie que ce n’est pas une issue plausible. La mère doit savoir que la menace de son enfant ne tient pas : qu’importe à quel point la perte d’un portable est tragique, une nuit dans les rues serait pire. Elle doit juste confisquer le portable pour forcer son fils à se focaliser sur ses devoirs.

Les travaux de Selten permettent aux économistes de restreindre le nombre possible d’équilibres de Nash. Harsanyi s’attaqua au fait que dans plusieurs jeux dans le monde réel, les gens ne sont pas sûrs de ce que leurs adversaires désirent. Les économistes auraient du mal à analyser les meilleures stratégies pour deux tourtereaux cherchant un lieu pour une date donnée sans avoir une idée de ce que l’autre préfère. En imbriquant les croyances de chaque personne dans le jeu (par exemple, la croyance que l’autre aime les pizzas autant que les sushis), Harsanyi rendit le problème solvable. Un problème différent persistait. Le pouvoir prédictif de l’équilibre de Nash dépend de la rationalité du comportement. Pourtant les êtres humains sont loin de toujours adopter un comportement rationnel. Dans les expérimentations répliquant le cadre du dilemme du prisonnier, environ la moitié des gens choisissent d’avouer. Pour les économistes qui se sont attelés à imbriquer la rationalité (et Nash) dans leurs modèles, c’est problématique. A quoi bon mettre en place les bonnes incitations si les gens n’agissent pas dans leur meilleur intérêt ? Tout n’était pas perdu. Les expérimentations ont aussi montré que l’expérience rend les joueurs plus avisés ; au dixième tour, seulement 10 % des joueurs environ refusaient d’avouer. Cela a amené les économistes à être plus prudents à propos de l’application de l’équilibre de Nash. Avec des jeux plus compliqués et des jeux où les joueurs n’ont pas la chance d’apprendre de leurs erreurs, ses intuitions ne marchent pas aussi bien.

L’équilibre de Nash joue toutefois un rôle central dans la microéconomie moderne. Nash est mort dans un accident de voiture en 2015 ; il avait alors retrouvé sa santé mentale, repris l’enseignement à l’université de Princeton et reçu un "prix Nobel" collectif pour avoir montré que les interactions au sein du groupe importent davantage que tout individu. »

The Economist, « Game theory: Prison breakthrough », 20 août. Traduit par Martin Anota

dimanche 21 août 2016

Les liens de la semaine

Croissance, fluctuations et crises

  • Des évolutions durables négatives pour la croissance mondiale (Patrick Artus)
  • Zone euro : d’où vient l’excès de la croissance par rapport à la croissance potentielle? (Patrick Artus)
  • Les Etats européens, vraiment moins riches sans leur capitale ? (La Tribune)
  • L’économie japonaise cale au deuxième trimestre (Le Monde)


Démographie et migration

  • La main-d'oeuvre de la zone euro vieillit, ce qui ralentit la croissance (FMI)
  • Que va changer le vieillissement démographique de la Chine ? (Patrick Artus)
  • Réfugiés : la fin de l’exception allemande ? (Le Monde)
  • La question des réfugiés soulevée à New York (Project Syndicate)



Environnement et ressources naturelles

  • Climat : juillet 2016 nouveau record (Le Monde)
  • Les vrais coûts de la pollution atmosphérique (Project Syndicate)
  • Forum social mondial : Naomi Klein s’en prend aux belles paroles de Justin Trudeau (Le Monde)


Politique économique


Monnaie et finance

  • La Fed maintient le suspens sur sa politique monétaire (La Tribune)
  • Pourquoi les Banques Centrales essaient-elles de corriger les effets des erreurs des gouvernements? (Patrick Artus)
  • L'Inde choisit le nouveau gouverneur de sa banque centrale, sous le signe de la continuité (La Tribune)
  • La Chine s'interroge sur le ralentissement des prix immobiliers (La Tribune)
  • Le défi de l'endettement des entreprises chinoises (Project Syndicate)


Inflation

  • La courbe de Phillips est-elle bien morte ? (édition américaine) (D'un champ l'autre)
  • Le taux d’inflation annuel de la zone euro et de l'UE en hausse à 0,2% (Eurostat)
  • Royaume-Uni : l'inflation accélère un mois après le Brexit (La Tribune)
  • L’inflation importée est une mauvaise inflation (Patrick Artus)


GRAPHIQUE Taux d’inflation annuel dans la zone euro et dans l’Union européenne (en %)

Eurostat__Taux_d_inflation_annuel_dans_la_zone_euro_et_dans_l_Union_europeenne_juillet_2016.png

source : Eurostat (2016)

Mondialisation et gouvernance mondiale


Finance internationale

  • Les économies peuvent-elles s’appuyer sur l’épargne étrangère pour investir et croître ? (D'un champ l'autre)
  • L'Islande va lever totalement le contrôle des capitaux (La Tribune)
  • Chine: une nouvelle stratégie doublement agressive, mais risquée pour la Chine à long terme (Patrick Artus)
  • L’ajustement des politiques agressives des autres pays se fait sur les Etats-Unis (Patrick Artus)
  • Et si dans beaucoup de pays les taux de change n’avaient plus d’importance? (Patrick Artus)


Intégration européenne

  • Joseph Stiglitz propose de mettre fin “en douceur” à l'Euro (Nouvel Obs)
  • Une zone Euro à deux vitesses: pas une bonne idée (Philippe Waechter)
  • Zone euro : l'agonie du Pacte de stabilité (Charles Wyplosz)
  • Comment la contagion entre les taux d’intérêt sur les dettes souveraines des pays périphériques de la zone euro a évolué au cours du temps (Patrick Artus)


Zoom sur le Brexit

  • Faut-il craindre l’incertitude du Brexit ? FMI versus Krugman (CEPII)
  • Le Royaume-Uni cherche des experts en Brexit (Le Monde)
  • Brexit : le contrôle de l’immigration aurait peu d’effet sur les salaires (Le Monde)
  • Le Brexit n’a pas déstabilisé les marchés financiers (Le Monde)
  • Allemagne : le Brexit n'inquiète pas la Bundesbank (La Tribune)
  • Le Brexit n'a pas encore commencé (Philippe Waechter)
  • Brexit : on ne dissoudra pas le peuple (La Tribune)


Inégalités et justice sociale


Travail, emploi, chômage

  • Le taux de chômage diminue de 0,3 point au deuxième trimestre 2016 (INSEE)
  • Quel est le « vrai » chiffre du chômage ? (Alter éco plus)
  • Le plan « 500 000 formations » commence à prendre forme (Le Monde)
  • Le chômage sous les 10%, une vraie victoire pour Hollande ? (La Tribune)
  • Royaume-Uni : le chômage au plus bas depuis onze ans (La Tribune)
  • Accidents du travail : merci la crise ? (Xavier Molénat)
  • L’inactivité au travail, une forme de résistance au manque de sens professionnel ou à une frustration (Le Monde)





lire la précédente revue de presse

jeudi 18 août 2016

L'économie japonaise et les flèches de l'abenomics



Diagnostic du problème japonais


« (…) J’ai pensé que ce serait une bonne idée d’actualiser ce que je pense du Japon. En l’occurrence, je cherche ici non pas à déterminer si l’abenomics fonctionne ou fonctionnera (…), mais plutôt à éclairer quelle est la nature courante du problème japonais.

C’est un peu égocentrique, mais je trouve utile d’entrer dans le sujet en me demandant ce que je changerais par rapport à ce que j’ai dit dans mon article de 1998 sur la trappe à liquidité japonaise. Hey, ce fut l’une de mes meilleures analyses et elle demeure encore pertinente sur bien des points. Mais le Japon et le monde semblent différents aujourd’hui et essayer de saisir cette différence peut aider à clarifier la question. Il me semble qu’il y a deux différences cruciales entre alors et aujourd’hui. Premièrement, le problème économique immédiat n’est plus celui de stimuler une économie déprimée, mais plutôt de sevrer l’économie du soutien budgétaire. Deuxièmement, le problème auquel est confrontée la politique monétaire est plus difficile qu’il ne le semblait alors, parce que l’insuffisance de demande globale semble être une condition essentiellement permanente.

En 1998, le Japon était au milieu de sa décennie perdue : même s’il n’avait pas souffert d’une sévère contraction, il avait stagné suffisamment longtemps pour que l’on puisse croire que sa production opérait bien en-deçà de son niveau potentiel. Ce n’est cependant plus le cas. L’économie japonaise a crû lentement au cours du dernier quart de siècle, mais essentiellement en raison de sa démographie. La production par adulte en âge de travailler du Japon a crû plus rapidement que celle des Etats-Unis depuis 2000 et à cet instant les taux de croissance sur 25 ans semblent similaires (et le Japon a réalisé de meilleures performances que l’Europe) :

GRAPHIQUE 1 PIB par adulte en âge de travailler au Japon et aux Etats-Unis

Paul_Krugman__Japon_Etats-Unis__PIB_par_adulte_en_age_de_travailler.png

Nous pouvons même nous demander si le Japon ne serait pas plus proche de la production potentielle que les autres pays développés ne le sont. Donc si le Japon n’est pas profondément déprimé à cet instant, pourquoi est-ce que la faible inflation (ou la déflation) pose un problème ? La réponse, à mon sens, est largement budgétaire. Les niveaux de production et d’emploi relativement sains du Japon dépendent d’une poursuite du soutien budgétaire. Le Japon continue de générer de larges déficits budgétaires, ce qui signifie pour une économie à faible croissance que le ratio dette publique sur PIB est sur une trajectoire croissante :

GRAPHIQUE 2 Solde primaire ajusté en fonction de la conjoncture au Japon, aux Etats-Unis et en zone euro (en % du PIB)

Paul_Krugman__Japon_Etats-Unis_zone_euro__Solde_primaire_ajuste_en_fonction_de_la_conjoncture.png

Jusqu’à présent, cela n’a provoqué aucun problème et la situation du Japon est clairement meilleure que s’il avait cherché à équilibrer son Budget. Mais même ceux d’entre nous qui croient que les risques de déficits ont été largement exagérés aimeraient voir le ratio de dette publique se stabiliser et enfin décliner. (…) Sous les conditions actuelles, avec des taux directeurs collés à zéro, le Japon n’a pas la capacité à compenser les effets de la consolidation budgétaire avec l’expansion monétaire. La principale raison justifiant d’accroître l’inflation est que cela permettrait de réduire plus amplement les taux d’intérêt réels qu’il n’est possible de le faire avec une inflation faible ou négative, permettant à la politique monétaire de prendre la relève sur la politique budgétaire. J’ajouterais aussi une considération secondaire : le fait que les taux d’intérêt réels soient en effet maintenus à un niveau trop élevés en raison d’une inflation insuffisante, malgré que les taux directeurs soient à la borne inférieure zéro, signifie aussi que les dynamiques de la dette pour tout niveau de déficit budgétaire sont pires que ce qu’elles seraient sinon. Donc accroître l’inflation permettrait de procéder à l’ajustement budgétaire et de réduire la taille de l’ajustement nécessaire. Mais que faudrait-il faire pour accroître l’inflation ?

En 1998, quand j’essayais je fondais ma réflexion sur le concept de trappe à liquidité, j’ai utilisé une simplification stratégique : je pensais que le niveau courant du taux d’intérêt naturel (wicksellien) était alors négatif au Japon, mais que ce taux retournerait à un niveau normal, positif à une certaine date future. Cette hypothèse fournit une façon habile pour être cohérent avec l’idée que l’accroissement de l’offre de monnaie doit finir par accroître les prix par un montant proportionnel ; il était facile de montrer que cette proposition s’appliquait seulement si l’accroissement monétaire était perçu comme permanent, si bien que la trappe à liquidité devenait un problème d’anticipations. L’approche suggérait aussi que la politique monétaire serait efficace si elle était perçue comme crédible, que si la banque centrale pouvait "promettre de façon crédible d’être irresponsable", elle pourrait parvenir à stimuler l’activité même dans une trappe à liquidité. Mais quelle est cette future période de normalité wicksellienne dont nous parlons ? Le Japon a une démographie incroyablement défavorable :

GRAPHIQUE 3 Nombre de Japonais âgés entre 15 et 64 ans

Paul_Krugman__Japon__Nombre_de_Japonais_ages_entre_15_et_64_ans__Martin_Anota_.png

Et cela fait du Japon un candidat privilégié pour la stagnation séculaire. Et gardez en esprit que les taux ont été très faibles pendant deux décennies, les déficits budgétaires ont été élevés sur l’ensemble de la période et à aucun moment il n’y a eu un début de surchauffe. Le Japon semble être une économie dans laquelle un taux wicksellien négatif est une condition plus ou moins permanente. Si c’est la réalité, même promettre de façon crédible d’être irresponsable peut ne pas changer grand-chose : si personne ne croit que l’inflation va accélérer, elle ne le fera pas. La seule manière d’être sûr que l’inflation augmente est d’accompagner le changement de régime monétaire d’une véritable relance budgétaire. Et cela suggère à son tour quelque chose de contrintuitif : même si le but de l’accélération de l’inflation est en grande partie de générer une marge de manœuvre pour consolider les finances publiques, la première partie de cette stratégie passe par l’expansion budgétaire. Cela n’est pas du tout un paradoxe, mais c’est suffisamment non conventionnel pour désinciter à le faire en pratique (…).

Supposons (…) que nous puissions le faire. A quel niveau le Japon devrait-il fixer sa cible d’inflation ? Il faudrait qu’elle soit suffisamment haute pour que la banque centrale puisse suffisamment réduire les taux d’intérêt réels pour maintenir la pleine utilisation des capacités lorsque la consolidation budgétaire débutera. Et c’est vraiment, vraiment difficile de croire qu’une inflation de 2 % sera suffisamment haute. Cette observation suggère que, même dans le meilleur des cas, le Japon peut faire face à une "trappe à timidité". Supposons que les autorités convainquent le public qu’elles parviendront vraiment à atteindre une inflation de 2 % ; ensuite elles s’engagent dans une consolidation budgétaire, l’économie se contracte alors et l’inflation chute en-deçà de 2 %. A ce point l’ensemble du projet s’écroule et la crédibilité des autorités risque d’être tellement effritée qu’il sera bien plus difficile d’essayer à nouveau. Ce dont le Japon a besoin (et le reste des pays développés peuvent avoir intérêt à emprunter également cette voie), c’est une politique réellement agressive, utilisant la politique monétaire et la politique budgétaire, mais aussi de fixer la cible d’inflation suffisamment haute pour qu’elle soit soutenable. Cela nécessite d’atteindre la vitesse d’évasion. Et l’abenomics a beau avoir été une surprise inespérée, il est loin d’être certain qu’elle soit suffisamment agressive pour que le Japon s’en sorte. »

Paul Krugman, « Rethinking Japan », in The Conscience of a Liberal (blog), 20 octobre 2015. Traduit par Martin Anota



L'une des flèches de l'abenomics n'a pas été tirée


« Quelques chiffres décevants sur le PIB japonais sont publiés et les usual suspects en profitent dénoncer l’abenomics et appeler à la mise en œuvre de réformes structurelles, l’élixir universel. Et les preuves empiriques confirmant que la réforme structurelle est la réponse sont…

Ce que je crois être la véritable leçon de l’abenomics jusqu’à présent, ce sont les limites de la politique monétaire. Il devait y avoir "trois flèches" : l’assouplissement monétaire, l’expansion budgétaire et, oui, les réformes structurelles. Mais seule la flèche monétaire a été décochée. Voici les estimations du FMI du solde primaire structurel, une mesure approximative de l’orientation globale de la politique budgétaire (la politique budgétaire étant d’autant plus expansionniste que les déficits sont importants) :

GRAPHIQUE 4 Solde primaire ajusté en fonction de la conjoncture (en % du PIB potentiel)

Paul_Krugman__Japon__Solde_primaire_ajuste_en_fonction_de_la_conjoncture.png

Globalement, la politique budgétaire au Japon est en fait devenue plus restrictive et non plus accommodante depuis que le programme de l’abenomics a été lancé, principalement à causse du relèvement de la taxe sur la consommation. Les autres mesures ne compensent pas beaucoup celle-ci. Donc tout le poids repose sur la politique monétaire non conventionnelle, qui a réussi à déprimer le yen et à pousser les cours boursiers à la hausse, mais qui n’a pas suffi pour générer un boom de l’activité ou une hausse de l’inflation. Et cela se révèle être insuffisant, tout comme les actions de la BCE se révèlent insuffisantes sans soutien budgétaire. Oubliez pour l’instant la troisième flèche ; ce dont nous avons besoin, c’est de la deuxième. »

Paul Krugman, « Abenomics and the single arrow », in The Conscience of a Liberal (blog), 15 août 2016. Traduit par Martin Anota



aller plus loin...

« La politique budgétaire est-elle efficace au Japon ? »

« Quelle est l’efficacité de l’Abenomics ? »

mercredi 17 août 2016

Les banques centrales sont capables de réduire les taux d’intérêt, mais pas d’accroître l’inflation ?

« La semaine dernière, la Banque d’Angleterre a diminué ses taux d’intérêt. Avec les précédentes mesures que la BCE et la Banque du Japon ont récemment adoptées et la faible probabilité que la Réserve fédérale des Etats-Unis accroisse prochainement ses propres taux, cela nous rappelle que la normalisation des taux d’intérêt vers le territoire positif dans les économies développées va devoir attendre encore quelques mois, voire quelques années (ou des décennies ?).

Les propos de la Banque d’Angleterre ne sont pas très différents de ceux que la Banque du Japon et la BCE ont pu récemment tenir. Comme ses consœurs, elle a déclaré qu'elle pouvait encore réduire les taux d’intérêt si nécessaire (ou être plus agressive avec les achats d’actifs dans le cadre d’un assouplissement quantitatif).

Les taux d’intérêt à travers le monde diminuent davantage. Les niveaux actuels des taux d’intérêt à long terme ont rendu la courbe des rendements extrêmement plate. Et dans plusieurs pays (par exemple la Suisse), les taux d’intérêt à tous les horizons chutent en territoire négatif.

Le fait que les taux d’intérêt à long terme soient si faibles est typiquement interprété comme la conséquence des achats d’actifs à grande échelle par les banques centrales autour du monde. En fait, beaucoup y voient un succès des actions de politique monétaire.

Mais si la politique monétaire était vraiment efficace, nous nous attendrions à ce que les anticipations d’inflation et de croissance soient revues à la hausse. Ces deux forces devraient pousser les taux d’intérêt de long terme à la hausse et non à la baisse : Quelque chose ne va pas quand cela touche à la politique monétaire et cela résulte soit de forces que les banques centrales sont incapables de contrer, soit du fait que les actions ou les communications des banques centrales ne sont pas celles qui sont appropriées.

Concernant les communications, je vais répéter un argument que je déjà avancé par le passé : Quand les banques centrales répètent encore et encore qu’elles peuvent diminuer plus amplement les taux d’intérêt, elles laissent trompeusement certains croire que les plus faibles taux d’intérêt (à long et à court terme, réels et nominaux) constituent une mesure du succès de la politique monétaire. Ce n’est pas le cas. De plus faibles taux d’intérêt nominaux à toutes les maturités ne peuvent être un objectif quand l’inflation et la croissance sont vues comme trop faibles. Il n’y a succès que si l’on se retrouve avec des taux d’intérêt nominaux plus élevés. Et un succès doit finir par se traduire à un moment ou à un autre par une courbe de rendement plus pentue et non plus aplatie.

Pourquoi les banques centrales se plantent-elles dans leurs communications ? J’ai deux explications possibles en tête :

1. Elles peuvent vouloir signaler qu’elles sont puissantes et qu’elles ne sont pas à court de munitions. Répétez après moi : "Les taux d’intérêt sont faibles et ils peuvent davantage s’affaiblir".

2. C’est vraiment une époque intéressante. Avec les taux d’intérêt de court terme collés autour de zéro, toute modification de la courbe de rendements ne peut passer que par les taux de long terme. En outre, l’assouplissement quantitatif et les achats massifs d’actifs constituent également un nouveau phénomène qui n’est pas encore bien compris par les participants aux marchés.

Je pense que ce qui envoie les taux d’intérêt à long terme à des niveaux toujours plus faibles, c’est la combinaison de circonstances qui sont inhabituelles au regard des normes historiques et de la difficulté que les banques centrales rencontrent lorsqu’il s’agit de communiquer une stratégie de politique monétaire complexe. Ces niveaux de taux d’intérêt ne sont pas cohérents avec un quelconque scénario raisonnable pour la croissance économique ou les taux d’intérêt des prochaines décennies. Quand les taux d’intérêt de 30 ou même 50 ans sont négatifs ou proches de zéro, quelque chose ne va pas. Soit c’est la fin de la croissance telle que nous l’avons connue ou le début d’une longue période d’inflation extrêmement faible combinée à la déflation, soit nos anticipations se plantent sérieusement et nous sommes sur le point d'avoir une intéressante surprise. »

Antonio Fatás, « You can lower interest rates but can you raise inflation? », in Antonio Fatás on the Global Economy (blog), 9 août 2016. Traduit par Martin Anota

lundi 15 août 2016

Le fabuleux destin du multiplicateur budgétaire



« Au sommet de la crise de la zone euro, lorsque les taux d’intérêt sur la dette publique atteignaient des sommets dans plusieurs pays européens et que le risque de défaut de paiement augmentait, la Banque centrale européenne et les pays-membres plus sains de la zone monétaire cherchèrent à mettre un terme au désastre en accordant des plans de sauvetage. Mais ces derniers étaient assortis de conditions. Ils imposaient très souvent à leurs bénéficiaires une discipline budgétaire stricte, visant à ramener les finances publiques sur une trajectoire soutenable. Certains économistes affirmaient en effet que l’austérité budgétaire était d’une douloureuse nécessité. D’autres considéraient au contraire qu’elle peut s’avérer contre-productive, en réduisant la croissance économique et par là même les recettes publiques, si bien qu’elle laisse non seulement les pays plus pauvres, mais aussi plus endettés. En 2013, les économistes du FMI rendirent leur verdict sur ces programmes d’austérité : ces derniers avaient provoqué plus de dommages économiques que ce qui avait été initialement prévu, notamment par le Fonds lui-même. Où le FMI s’était-il trompé lorsqu’il fit ses premières prévisions ? Ce qu’il avait sous-estimé, comme l'ont montré Olivier Blanchard et Daniel Leigh, c’était la taille du multiplicateur budgétaire.

Le multiplicateur est une idée simple et puissante, mais aussi l’objet de profonds débats. Il est constitue un élément crucial de la macroéconomie keynésienne. Au cours des 80 années passées, sa place dans la science économique a profondément évolué. Il fut à un moment donné considéré comme un concept d’importance fondamentale, puis fut ensuite discrédité. Il est maintenant de nouveau en vogue.

L’idée du multiplicateur émergea lors de la Grande Dépression, lorsque les économistes débattaient sur ce que pouvait être la meilleure manière de répondre à cette dernière. Dans les années vingt, la Grande-Bretagne a basculé dans la récession. La Première Guerre mondiale avait laissé les prix plus élevés et la livre plus faible. Le gouvernement était néanmoins déterminé à restaurer le taux de change de la livre sterling à sa valeur d’avant-guerre. Pour y parvenir, il garda une politique monétaire excessivement restrictive, qui provoqua une déflation et une récession prolongées. Les économistes débattaient à l’époque sur ce qui pouvait être fait pour améliorer les conditions des travailleurs en souffrance. Certains suggéraient de mettre en place un programme d’investissement public afin de ramener les chômeurs à l’emploi.

Le gouvernement britannique écartait une telle mesure. Il avait fait sienne la croyance conventionnelle de l’époque, celle que l’on appelait souvent le "point de vue du Trésor" (Treasury view). Il croyait que les dépenses publiques, financées via l’emprunt, ne stimuleraient pas l’activité économique, parce que l’offre d’épargne disponible dans l’économie pour l’emprunt est fixe. Le gouvernement pensait que s’il utilisait une partie des capitaux pour construire de nouvelles routes, par exemple, il priverait les entreprises privées du même montant de capitaux. Il y aurait certes de plus fortes dépenses et plus d’emplois dans une partie de l’économie, mais les dépenses et les emplois disparaitraient conséquemment dans le reste de l’économie.

Mais comme l’économie mondiale bascula toute entière dans la dépression et que la crise économique s’aggrava en Grande-Bretagne, cette conception fit de moins en moins consensus. En 1931, l’économiste britannique Richard Kahn publia un article proposant une théorie alternative : selon lui, un surcroît de dépenses publiques stimulerait directement l’activité et aurait des "répercussions bénéfiques". Si la construction de routes, par exemple, permettait d’embaucher des chômeurs et permettait à ces derniers de davantage consommer, il estimait que cela pouvait entraîner une hausse soutenue de l’emploi total.

L’article de Kahn était en phase avec la pensée de John Maynard Keynes, le grand économiste britannique de l’époque, qui travaillait sur ce qui allait devenir son chef-d’œuvre, la Théorie générale. Keynes y expliqua plus précisément comment le multiplicateur pouvait fonctionner et comment cela permettait au gouvernement pour redonner la santé à une économie déprimée. Keynes était un personnage singulier, et l’un des plus grands penseurs du vingtième siècle. (…) Frustré par son incapacité à changer l’opinion de ceux qui détiennent le pouvoir et par l’aggravation de la récession mondiale, Keynes s’est lancé dans la rédaction d’un chef-d’œuvre critiquant le consensus qui prévalait alors en économie et proposant une alternative. Il présenta la Théorie générale comme un texte révolutionnaire et elle se révéla en être effectivement un.

Le livre est rempli d’intuitions économiques. Sa plus importante contribution reste le raisonnement derrière la proposition selon laquelle, dans une économie éloignée du plein emploi, le niveau d’investissement et du revenu national est déterminé, non pas par l’offre globale, mais par la demande globale. Keynes supposait qu’il y avait un "effet multiplicateur" associé aux variations des dépenses d’investissement. Toute dépense additionnelle du gouvernement, par exemple, accroît directement la production et le revenu du pays. Dans une première étape, cette monnaie irait aux entrepreneurs, aux fournisseurs, aux fonctionnaires ou aux bénéficiaires de prestations sociales. Ceux-ci dépenseront à leur tour une partie du supplément de revenu. Les bénéficiaires de cette dépense en dépenseront aussi un morceau, stimulant par là même l’activité économique, et ainsi de suite. Si au contraire le gouvernement diminuait ses dépenses, le multiplicateur fonctionnerait en sens inverse, déprimant l’activité.

Keynes pensait que cette intuition était particulièrement importante en raison de ce qu’il appelait la "préférence pour la liquidité". Il estimait que les gens aimaient avoir certains actifs liquides sous la main, en cas d’urgence. En temps de turbulences financières, la demande de liquidité ou d’actifs liquides s’accroît ; les investisseurs commencent à s’inquiéter plus à propos du rendement du capital que du rendement sur le capital. Keynes estimait que cela pouvait entraîner un excès d’épargne généralisé : dans un monde dans lequel chacun essaye d’avoir plus de liquidité, la demande globale s’en trouve déprimée, ce qui déprime à leur tour la production et le revenu, détériorant la situation des gens. Dans ce monde, une réduction des taux d’intérêt n’aide pas beaucoup pour stimuler la croissance. Et les taux d’intérêt ne sont pas très sensibles aux hausses de l’endettement public, étant donné l’excès d’épargne. Les dépenses publiques visant à stimuler l’économie peuvent alors générer une forte hausse de l’emploi, mais seulement une hausse négligeable des taux d’intérêt. Les économistes classiques pensaient que les travaux publics "évinceraient" l’investissement public ; Keynes disait que durant les périodes de faible demande globale ils pourraient au contraire stimuler les dépenses privées via l’effet multiplicateur.

Le raisonnement de Keynes se trouva conforté par l’impact économique de l’accroissement des dépenses publiques durant la Seconde Guerre mondiale. Les dépenses militaires massives en Grande-Bretagne et aux Etats-Unis contribuèrent à fortement accélérer la croissance économique. Cela incita les responsables politiques, bien déterminés à ce que la Grande Dépression ne se reproduise pas, à embrasser l’économie keynésienne (et l’idée du multiplicateur) et celle-ci est devenue la pièce centrale de l’ordre économique d’après-guerre.

D’autres économistes poursuivirent là où Keynes s’était arrêté. Alvin Hansen et Paul Samuelson ont proposé des modélisations pour montrer comment une hausse ou une chute des dépenses dans une partie de l’économie se propage au reste de l’économie. Les gouvernements considéraient désormais que la gestion de la demande globale était de leur ressort. Dans les années soixante, la victoire intellectuelle de Keynes semblait totale. Dans un numéro du Time magazine publié en 1965, Milton Friedman déclara, « nous sommes tous keynésiens désormais » (une phrase souvent attribuée à Richard Nixon).

Mais le consensus keynésien se fractura dans les années soixante-dix. Sa domination fut érodée par les idées de Friedman lui-même, qui expliqua les cycles d’affaires par la croissance (ou le déclin) de l’offre de monnaie. Le monétariste déclara que de fantaisistes multiplicateurs keynésiens n’étaient pas nécessaires pour garder une économie sur le droit chemin. Selon lui, les gouvernements devaient simplement s’assurer que la croissance de la masse monétaire reste stable.

L’émergence de l’école des "anticipations rationnelles", menée par Robert Lucas, ébranla plus violemment le keynésianisme. Ses partisans, les nouveaux classiques, estimaient que la politique budgétaire serait déjouée par les contribuables. Ces derniers savent que l’emprunt public devra tôt ou tard être remboursé, si bien que tout plan de relance adopté aujourd’hui nécessitera une hausse des impôts demain. Les ménages vont alors épargner le supplément de revenu gagné avec le plan de relance en prévision du supplément d’impôt qu’ils devront payer plus tard. Le multiplicateur des dépenses publiques serait en fait être proche de zéro, comme chaque dollar dépensé en plus par l’Etat est presque entièrement compensé par une hausse d’un dollar de l’épargne privée. Les économistes derrière plusieurs de ces critiques se situaient dans les universités du Midwest, notamment l’université de Chicago. Parce qu’ils étaient souvent situés à proximité des Grands Lacs des Etats-Unis, on les qualifia d’"économistes d’eau douce" (freshwater economists). Ils affirmaient que les modèles macroéconomiques devaient commencer par décrire sous forme d’équations comment les agents rationnels prennent leurs décisions. Les événements des années soixante-dix semblaient confirmer leur critique de Keynes : les gouvernements cherchaient alors à stimuler leurs économies déprimées avec une relance budgétaire et monétaire, mais l’inflation et les taux d’intérêt s’élevèrent, tandis que le chômage restait élevé. Les économistes d’eau douce se déclarèrent victorieux. Dans un article qui fut publié en 1979 et qui s’intitulait "After Keynesian Economics", Robert Lucas et Tom Sargent, qui reçurent par la suite le prix Nobel, écrivirent que les défauts des modèles économiques keynésiens étaient "fatals". Les modèles macroéconomiques keynésiens étaient "d’aucune valeur pour guider la politique économique".

Ces attaques conduisirent à leur tour à l’émergence des "nouveaux keynésiens", qui empruntèrent des éléments des économistes d’eau douce comme les anticipations rationnelles, mais en gardant l’idée keynésienne que les récessions sont des défaillances de marché qui peuvent être surmontées grâce à l’intervention publique. Parce que la plupart d’entre eux travaillaient dans les universités sur les côtes américaines, ils se qualifièrent d’"économistes d’eau de mer" (saltwater economists). Parmi les nouveaux keynésiens, il y a Stanley Fischer, désormais vice-président de la Fed, Larry Summers, un ancien Secrétaire au Trésor, et Greg Mankiw, qui était à la tête du Conseil des conseillers économiques de George W. Bush. Dans leurs modèles, la politique budgétaire est pratiquement neutre. Ils affirment que les banques centrales peuvent et doivent prendre en charge la gestion de la demande globale (…).

Pourtant au Japon depuis les années quatre-vingt-dix et dans la plupart des pays développés depuis la Grande Récession qui suivit la crise financière mondiale, la réduction des taux directeurs à zéro s’est révélée insuffisante pour raviver les économies déprimées. Plusieurs gouvernements se sont appuyés sur la relance budgétaire pour ramener les économies au plein emploi. Aux Etats-Unis, l’administration Obama a réussi à déployant un plan de relance d’un montant proche de 800 milliards de dollars.

Comme un nouveau débat sur les multiplicateurs budgétaires s’est ouvert, les économistes d’eau douce restèrent sur leur position. John Cochrane, de l’Université de Chicago, dit en 2009 à propos des idées keynésiennes : "Cela ne fait pas partie de ce que l’on a pu apprendre aux étudiants depuis les années soixante. Ce sont des contes de fée qui se sont révélés erronés. Il est très réconfortant en temps de turbulences de se rappeler les contes de fée que nous avons entendus lorsque nous étions enfants, mais cela ne les rend pas moins faux".

Les événements de la Grande Récession donnèrent de la matière à étudier pour les économistes. D’innombrables articles cherchant à estimer les multiplicateurs budgétaires ont été publiés depuis 2008. La plupart d’entre eux suggèrent que, avec des taux d’intérêt proches de zéro, le multiplicateur budgétaire associé aux plans de relance est supérieur à l’unité. Réciproquement, le FMI conclut que le multiplicateur (négatif) associé aux contractions budgétaires est souvent égal ou supérieur à 1,5. Alors que plusieurs responsables politiques restent engagés à consolider leurs finances publiques, de nombreux économistes affirment maintenant que le manque de relance budgétaire constitue l’un des plus gros échecs suite à la Grande Récession. Par exemple, Larry Summers et Antonio Fatas suggèrent que non seulement l’austérité budgétaire a substantiellement réduit la croissance économique, mais aussi qu’elle a conduit la dette publique à des niveaux bien plus élevés à ceux qu’elle aurait atteint si les gouvernements avaient au contraire poursuivi leurs plans de relance pour raviver la croissance. Près d’un siècle après sa création, le concept keynésien de multiplicateur n’a jamais été aussi pertinent et controversé. »

The Economist, « Fiscal multipliers: Where does the buck stop? », 13 août 2016. Traduit par Martin Anota



aller plus loin...

« Retour sur l’efficacité des multiplicateurs budgétaires »

« L’austérité est-elle vouée à l’échec ? »

« Quelle est la taille du multiplicateur budgétaire ? »

« Quelle politique budgétaire faut-il adopter lors d'une récession ? »

« Quel est l'impact de l'austérité lors des récessions prolongées ? »

« Multiplicateur budgétaire et politique monétaire »

dimanche 14 août 2016

Les liens de la semaine

Economie du sport



Croissance, fluctuations et crises

  • France : Vers un rebond de la croissance au troisième trimestre (La Tribune)
  • Le ralentissement de la croissance en zone euro confirmé (La Tribune)
  • L’économie allemande a moins ralenti que prévu au deuxième trimestre (Le Monde)
  • En Italie, la croissance stagne (La Tribune)
  • La Grèce renoue avec la croissance grâce au tourisme (La Tribune)
  • Chine : un modèle à bout de souffle (Jacques Adda)
  • Inquiétez-vous plutôt du changement climatique que de la révolution robotique (The Economist)
  • A quoi ressemblait la croissance britannique avant la Révolution industrielle ? (D'un champ l'autre)


GRAPHIQUE Taux de croissance du PIB de l'UE28, de la zone euro et des États-Unis (% de variation par rapport au trimestre précédent)

Eurostat__Taux_de_croissance_du_PIB_de_l__UE28__de_la_zone_euro_et_des_Etats-Unis_deuxieme_trimestre_2016.png

source : Eurostat (2016)

Réflexions éconoclastiques


Environnement et ressources naturelles

  • Blé : la moisson catastrophique plonge les céréaliers dans la crise (Le Monde)
  • En cartes : pourquoi la récolte de céréales sera la pire depuis trente ans (Le Monde)
  • Le « jour du dépassement de la Terre » en infographies (Le Monde)


Le_Monde__Composition_de_l__empreinte_ecologique_mondiale_en_nombre_de_planete_Terre.png

source : Le Monde (2016)

Monnaie et finance

  • Démystification du financement monétaire (Adair Turner)
  • Les trois principaux indices de Wall Street terminent à un niveau record, une première depuis 17 ans (La Tribune)
  • Banques : pas sûr qu'on soit tiré d'affaire (Guillaume Duval)
  • Dettes des entreprises chinoises : le FMI sonne l'alerte (La Tribune)
  • Quelle évolution de la dette extérieure dans cinq grands pays émergents en cas de tensions financières ? (France Stratégie)


Politique budgétaire et dette publique


Commerce international et mondialisation

  • La fausse promesse économique de la gouvernance mondiale (Dani Rodrik)
  • La production industrielle établit un nouvel ordre mondial (Le Monde)
  • Les échanges commerciaux chinois plongent de nouveau en juillet (La Tribune)
  • Brexit : la Norvège s'opposerait au retour des Britanniques dans l'AELE (La Tribune)
  • Brexit : la Grande-Bretagne va-t-elle quitter l'Europe que fin 2019 ? (La Tribune)


Inégalités et justice sociale


Travail, emploi, chômage

  • L'emploi marchand augmente de nouveau au deuxième trimestre 2016 (INSEE)
  • La loi Travail promulguée par François Hollande (La Tribune)


Science politique





lire la précédente revue de presse

vendredi 12 août 2016

Pourquoi la Fed reste-t-elle aussi accommodante ?



« (…) La Réserve fédérale a revu son opinion sur certains aspects clés de l’économie et cela a affecté ses prévisions quant à l’évolution de l’économie et de la politique monétaire. Dans ce billet, je mets en évidence et tente d’expliquer les changements en cours dans le jugement économique de la Fed. Je me tournerai enfin vers certaines implications, notamment le fait que, pour l’instant tout du moins, les Fed-watchers devraient probablement davantage se focaliser sur les données à venir et un peu moins sur les déclarations des responsables de la Fed pour anticiper les décisions de cette dernière.

(…) Pour quantifier les changements dans l’opinion des participants au comité fédéral d’open market (FOMC), j’utilise dans ce billet le résumé des projections économiques de la Fed, qui synthétise les prévisions des participants que le Comité publie quatre fois par an. (…) Chaque trimestre, les participants du FOMC (c’est-à-dire les membres du conseil des gouverneurs de la Fed qui résident à Washington et les présidents des 12 banques fédérales régionales) présentent leurs prévisions de l’évolution de certaines variables économiques clés au cours des 2 ou 3 prochaines années et à plus long terme. La Fed entend par "prévisions à plus long terme" l’estimation des valeurs vers lesquelles convergeraient un ensemble de variables dans l’hypothèse d’une politique monétaire appropriée et en l’absence de nouveaux chocs sur l’économie ; il s’agit finalement des niveaux "réguliers" ou "normaux" des variables, celles auxquelles l’économie tend au cours du temps. Je vais me focaliser ici sur les prévisions de long terme que les participants au FOMC réalisent pour trois variables : la croissance de la production, le taux de chômage et le taux directeur (en l’occurrence, le taux des fonds fédéraux). Je noterai leurs valeurs de long terme respectivement par y, u et r. (…)

On doit interpréter les prévisions de y comme les estimations de la croissance potentielle, c’est-à-dire du taux de croissance maximal que l’économie peut atteindre à long terme lorsque les ressources sont pleinement utilisées sans générer de pressions inflationnistes.

On peut interpréter les prévisions de u comme les estimations du taux de chômage naturel, c’est-à-dire du taux de chômage minimal que l’économie peut atteindre à long terme sans générer de pressions inflationnistes.

On peut interpréter les prévisions de r comme les estimations du taux de fonds fédéraux "d'équilibre" ou "neutre", c’est-à-dire du niveau du taux directeur qui est cohérent avec une croissance non inflationniste à long terme.

L’analyse macroéconomique standard implique que les trois variables ci-dessus ne sont pas sous le contrôle de la Fed. Par exemple, la croissance de la production potentielle dépend de facteurs comme la croissance de la productivité et la croissance démographique ; le taux de chômage naturel est déterminé par divers aspects du marché du travail comme le degré d’adéquation entre les travailleurs et les emplois ; et, (…) le taux directeur neutre dépend de facteurs comme le taux de rendement de l’investissement et de l’offre d’épargne. Les variations des estimations de ces variables par les responsables politiques reflètent donc diverses réévaluations de l’environnement économique dans lequel la politique monétaire est mise en œuvre.

Donc, comment la Fed a-t-elle changé d’avis ? Le tableau ci-dessous montre les prévisions à long terme de la production (y), du taux de chômage (u) et du taux des fonds fédéraux (r) réalisées par les participants au FOMC en juin 2016 (la plus récente disponible) et pour chaque mois de juin des quatre années précédentes.

Ben_Bernanke__taux_de_croissance__taux_de_chomage_naturel__taux_d__interet_d__equilibre.png

Pourquoi les avis changent-ils ? Les participants au FOMC (et la plupart des économistes qui n’en font pas partie) ont changé d’avis en raison des erreurs persistantes dans la prévision des variables macroéconomiques que l’on a pu observer au cours des dernières années. Comme le tableau le montre, les participants au FOMC ont été révisé à la baisse leurs estimations des trois variables, y, u et r depuis déjà quelques années. Les baisses au cours de la dernière année ont été significatives. (…) Entre juin 2015 et juin 2016, le participant "typique" au FOMC a réduit ses estimations de y et de u de 0,25 point de pourcentage, tandis que l’estimation médiane de r a chuté de 0,75 point de pourcentage. Cumulativement, depuis juin 2012, l’estimation de y a chuté de 0,5 point de pourcentage, l’estimation de u a diminué de 0,75 point de pourcentage et l’estimation de r a chuté de 1,25 point de pourcentage. Relativement aux variables sous-jacentes, ce sont d’amples variations. Par exemple, un taux de croissance potentiel de 2,4 % (l’estimation de 2012) se traduit par une hausse totale de la production de 27 % dix ans après, tandis qu’avec une croissance potentielle de 1,9 % (l’estimation de 2016) le PIB augmente de 21 % au cours des dix années suivantes, ce qui correspond à une perte de PIB d’environ 1.000 milliards de dollars (aux prix de 2016).

Les estimations de la croissance de la production potentielle (y) ont été revues à la baisse pour deux raisons (1). Premièrement, la croissance potentielle dépend du rythme de croissance de la productivité (la production par heure) (2). Malheureusement, la croissance de la productivité a été très souvent décevante au cours de la reprise. Par exemple, en 2009, certains économistes de premier plan anticipaient une croissance de la productivité de 2 % au cours des années suivantes ; en fait, la croissance de la production par heure travaillée a récemment été plus proche de 0,5 % par an. Il est possible que la productivité finisse par augmenter, bien sûr, mais si elle ne le fait pas, alors les taux de croissance potentielle à l’avenir seront plus faibles que ce que nous anticipions auparavant. Deuxièmement, bien que les prévisionnistes de la Fed aient été trop optimistes à propos de la croissance de la production au cours des dernières années, ils ont été trop pessimistes à propos du chômage, puisque ce dernier a reflué plus rapidement que nous aurions pu nous y attendre avec la faible croissance du PIB. Généralement, le taux de chômage tend à chuter lorsque la production croît plus rapidement que son potentiel ; c’est une relation macroéconomique connue sous le nom de loi d’Okun (3). La combinaisons d’une faible croissance de la production et d’une baisse rapide du chômage que nous avons pu observer ne sont compatibles entre elle dans le cadre de la loi d’Okun que si la croissance de la production potentielle a été plus faible que nous ne le pensions.

Les révisions à la baisse des estimations du taux de chômage naturel (u) reflètent largement le fait que l’inflation a été plus faible que ce que nous avions prévu au cours des dernières années. Selon la soi-disant courbe de Phillips, une autre relation macroéconomique, l’inflation doit augmenter lorsque le chômage est durablement inférieur à u. En 2012, (…) les estimations de u par les participants au FOMC étaient centrées à 5,6 %. Cependant, malgré le fait que le taux de chômage ait chuté sous 5,6 % en février 2015 et a été à 5 %, voire même moins, depuis octobre 2015, l’inflation ne s’est pas accélérée, du moins pas autant que nous nous y attendions. Bien que de nombreux facteurs influencent l’inflation, une manière de réconcilier le récent comportement de l’inflation et du chômage est de réviser à la baisse les estimations du taux de chômage naturel.

Les révisions à la baisse des estimations du taux des fonds fédéraux neutre (r) ont aussi diverses justifications. Une plus lente croissance de la production potentielle implique de plus faibles rendements de l’investissement et donc un plus faible r ; et en effet le rythme d’investissement des entreprises a été décevant, en particulier ces derniers temps. Une plus faible valeur de r peut aussi contribuer à expliquer la relative lenteur de la croissance de la production, puisqu’il suggère alors que la politique monétaire n’est pas aussi expansionniste qu’on ne le pensait : le taux directeur n’est pas aussi éloigné de son niveau neutre qu’on ne le croyait. Les participants au FOMC ont aussi accordé beaucoup de leur attention aux signaux des marchés : de plus faibles taux d’intérêt à long terme sur les marchés suggèrent que les investisseurs financiers s’attendent à ce que les rendements réels, l’inflation et les primes de risque sur les titres de dette sans risque restent faibles. Tout cela suggère de plus faibles taux des fonds fédéraux à long terme.

En bref, au cours des dernières années et surtout au cours des 12 derniers mois, les participants au FOMC ont significativement révisé à la baisse leur estimation de la croissance économique potentielle de long terme des Etats-Unis, le taux de chômage naturel et la valeur neutre à long terme du taux directeur ; or toutes ces variables sont des déterminants clés de la performance macroéconomique.

Quelles sont les implications de ces révisions pour la politique monétaire et les déclarations de la Fed ? Au cours des deux dernières années, les participants au FOMC ont souvent signalé qu’ils prévoyaient des hausses répétées du taux des fonds fédéraux à mesure que la reprise économique se poursuit. En fait, le taux directeur n’a été relevé qu’une seule fois depuis la crise financière mondiale, en l’occurrence en décembre 2015, et les participants aux marchés s’attendent peu à de nouvelles hausses du taux directeur pour les prochains trimestres. (…)

Ce sont les révisions à la baisse des estimations du taux directeur neutre (r) et du taux de chômage naturel (u) qui ont poussé les participants au FOMC à se montrer davantage en faveur d’un maintien d’une politique monétaire accommodante. Comme nous l’avons dit, une plus faible valeur de r implique que la politique actuelle n’est pas aussi expansionniste que nous le pensions. Dans la mesure où il y a moins de distance à parcourir pour ramener le taux directeur à son niveau neutre, alors les faucons (hawks) de la Fed, c’est-à-dire les partisans d’un resserrement de la politique monétaire, ont considéré qu’il était moins urgent de procéder aux relèvements du taux directeur. Le déclin des estimations du taux de chômage naturel implique qu’il faudra maintenir une politique monétaire expansionniste plus longtemps qu’on ne le pensait pour réussir à ramener le taux d’inflation à la cible de 2 % poursuivie par la Fed. Les révisions à la baisse de u ont probablement aussi amené les participants au FOMC à considérer qu’il était encore possible de réduire davantage le taux de chômage sans générer de tensions inflationnistes.

Les révisions à la baisse des estimations de y ont des implications ambiguës pour la politique monétaire. D’un côté, la plus faible croissance de la production potentielle suggère qu’une faible croissance du PIB peut ne pas découler principalement d’une politique monétaire ou d’une politique budgétaire inadaptées, mais reflète plutôt les contraintes du côté de l’offre de l’économie américaine. Si y est réellement indépendant de la politique monétaire, comme l’analyse des manuels standards le suppose, alors une nouvelle estimation à la baisse de y implique que la politique monétaire dispose d’une moindre marge de manœuvre pour stimuler la croissance et que le risque de surchauffe inflationniste est plus élevé si l’assouplissement monétaire se poursuit trop longtemps.

D’un autre côté, comme je l’ai mentionné auparavant, le récent déclin de la croissance de la production (et donc de la production potentielle) a été ample et pour l’essentiel inattendu. Certains ont fait l’hypothèse que ce déclin n’est pas purement exogène, mais qu’il a été influencé dans une certaine mesure par les conditions économiques qui ont prévalu à court terme. Par exemple, la lente reprise suite à la Grande Récession a certainement freiné l’investissement, la création d’entreprises et l’acquisition de qualifications et d’expérience pour les travailleurs, ce qui peut avoir contribué au rythme décevant des gains de productivité (4). La possibilité inverse, celle d’une plus forte croissance aujourd’hui qui aurait des effets positifs et durables sur le potentiel de croissance de l’économie, justifie selon certains un nouvel assouplissement des politiques conjoncturelles.

Dans les grandes lignes, les participants au FOMC n’ont pas changé d’opinions à propos de la façon par laquelle l’économie américaine va évoluer. Ils considèrent toujours que la politique monétaire est expansionniste (le taux directeur actuel est inférieur à son niveau neutre, r), ce qui doit se traduire à un moment ou à un autre par une croissance de la production supérieure à celle de son potentiel, par une baisse du chômage et par un graduel retour du taux d’inflation à la cible de 2 % (dans la mesure où l’amélioration de l’activité accroît les pressions à la hausse sur les salaires et les prix). Cependant, les révisions dans les estimations par les participants au FOMC des paramètres clés suggèrent qu’ils considèrent désormais que ce processus se déroulera plus lentement qu’ils ne le pensaient auparavant. En particulier, par rapport aux précédentes estimations, ils voient l’orientation actuelle de la politique monétaire comme moins accommodante, le marché du travail comme moins tendu et les pressions inflationnistes comme plus limitées. En outre, il y a plus de chances que laisser l’économie être en légère surchauffe puisse se traduire par de meilleures performances de la productivité à l’avenir. Par conséquent, ces changements expliquent pourquoi la Fed s’est montrée plus encline à maintenir une politique monétaire expansionniste et ainsi pourquoi les anticipations de la Fed de la trajectoire des taux aient été régulièrement revues à la baisse ces dernières années.

Les communications du FOMC ont aussi été affectées par les récentes révisions de la pensée de la Fed. Les responsables de la Fed ont bien pris conscience que le monde semble significativement différent sur plusieurs plans que ce qu’ils pensaient il y a quelques années et que le degré d’incertitude à propos de l’évolution future de l’économie et de la politique économique est susceptible d’être inhabituellement haute. Les communications de la Fed ont par conséquent pris récemment un ton plus indécis. (…) Les Fed-watchers vont avoir moins intérêt à disséquer les déclarations et discours et davantage à gagner à accorder une plus grande attention aux données à venir. Les données vont nous éclairer non seulement sur la performance à moyen terme de l’économie, mais aussi sur les paramètres clés (comme y, u et r) que le FOMC considère comme déterminants pour la performance macroéconomique à plus long terme.

(1) Les deux raisons ne sont pas réellement indépendantes : elles reposent sur le fait que lorsque la croissance de la productivité est lente, alors, par définition, la production augmente plus lentement que le facteur travail.

(2) La croissance de la production potentielle dépend aussi du taux de croissance de la population active. Cependant, le ralentissement de la croissance de la population active a été assez largement anticipé et donc pris en compte depuis longtemps dans les anticipations de croissance potentielle.

(3) En gros, la loi d’Okun dit que si le PIB croît d’un point de pourcentage plus rapidement que le PIB potentiel, alors le taux de chômage va chuter d’environ un demi-point de pourcentage par an.

(4) L’idée selon laquelle le niveau actuel de l’activité économique peut avoir des effets durables sur la production potentielle a été qualifiée d’effets d’hystérèse (ou d’hystérésis. Larry Summers a non seulement été à l’origine de ce concept en économique, mais il en a aussi été l’un des plus fervents promoteurs ces derniers années. Cette idée a également reçu le soutien de plusieurs chercheurs à la Réserve fédérale. »

Ben Bernanke, « The Fed’s shifting perspective on the economy and its implications for monetary policy », 8 août 2016. Traduit par Martin Anota

mercredi 10 août 2016

Le commerce international, les salaires et le théorème Stolper-Samuelson

« En août 1960, Wolfgang Stolper, un économiste américain travaillant pour le ministère du développement au Nigéria, entreprit un voyage dans une région pauvre au nord du pays (…). Dans ce paysage vierge de commerces, une étrange fleur avait pourtant réussi à sourdre de terre : l’usine Kaduna Textile Mills, qui avait été construite par une entreprise du Lancashire quelques années auparavant et qui employait 1.400 personnes payées l’équivalent de 6,36 euros par jour aux prix actuels. Et pourtant, elle nécessitait des droits de douane s’élevant à 90 % pour être rentable. La main-d’œuvre qualifiée était rare. (…) Ceux qui y travaillaient étaient trop fatigués, trop peu expérimentés ou trop peu éduqués pour maintenir l’état des machines. "La main-d’œuvre africaine est le plus mal payée et la plus chère au monde" s’était plaint Stolper. Il conclut que le Nigéria n’était pas encore prêt pour l’industrie à grande échelle. "Tout secteur qui nécessite des droits de douane élevés appauvrit le pays" (…). Ce n’était pas une idée populaire parmi ses collègues. Mais les idées de Stolper avaient un grand poids. (…) Il aimait "se salir les mains" dans le travail empirique. Et sa carte maîtresse, qui lui permit d’avoir le respect de ses amis et l’oreille de ses supérieurs, était le "théorème Stolper-Samuelson" qui portait son nom.

Ce théorème avait été élaboré vingt ans plus tôt dans un article séminal, réalisé conjointement avec Paul Samuelson, l’un des plus célèbres économistes. Il apporta un nouvel éclairage sur un vieux sujet : la relation entre les tarifs douaniers et les salaires. Sa notoriété et son influence ont été larges et durables (…). Même aujourd’hui, le théorème façonne les débats sur les accords commerciaux comme l’accord de partenariat transpacifique (TPP) entre les Etats-Unis et 11 pays du contour du Pacifique.

L’article était « remarquable », selon Alan Deardorff de l’Université du Michigan, en partie parce qu’il prouvait quelque chose qui était a priori évident chez les profanes : le libre-échange avec des pays à faibles salaires peut nuire aux travailleurs des pays à hauts salaires. Cette complainte qui relève du sens commun avait laissé pendant longtemps les économistes de marbre. Ces deniers soulignaient que le travail peu payé n’est pas nécessairement bon marché, parce que de faibles salaires reflètent une faible productivité, comme l’usine Kaduna Textile Mills le montrait. Le théorème Stolper-Samuelson, cependant, a trouvé "un iota de possible vérité" (comme Samuelson le déclara plus tard) dans l’argument selon lequel les travailleurs des pays riches doivent être protégés du "travail pauvre" payé une misère ailleurs.

Pour comprendre pourquoi ce théorème fit sensation, il est utile de rappeler les vieilles idées qu’il bouscula. Les économistes ont toujours pensé que les tarifs douaniers aidaient les secteurs qui s’en trouvaient abrités. Mais ils pensaient aussi que le libre-échange bénéficiait aux pays dans leur ensemble. David Ricardo a montré en 1817 qu’un pays peut bénéficier de l’ouverture aux échanges, même s’il fait mieux que ses voisins. Un pays qui est le meilleur dans la production de l’ensemble des biens va toujours tirer profit des échanges. Comme le montrait Ricardo, ce pays y gagne s’il importe ce que ses voisins font de "moins pire".

(…) Une vieille analogie peut se révéler éclairante. Supposons que le meilleur avocat en ville soit aussi le meilleur dactylo. Il lui faut seulement dix minutes pour taper un document, mais il faut vingt minutes à sa secrétaire pour faire de même. En ce sens, la saisie coûte moins à l’avocat qu’à la secrétaire. Mais à la place de taper sur son clavier, l’avocat aurait pu exercer son activité d’avocat. Et il peut réaliser bien plus de travail juridique que sa secrétaire ne peut le faire, même si celle-ci dispose de deux fois plus de temps. En ce sens, la saisie lui coûte beaucoup plus. Il est donc rentable que l’avocat se spécialise dans les tâches juridiques et "externalise" la dactylographie.

Dans le modèle de Ricardo, un même secteur peut nécessiter plus de travail dans un pays que dans un autre. Cette différence en termes de productivité du travail est l’un des motifs à l’échange. Un autre repose sur les différences en termes d’offre de travail. Dans certains pays, comme les Etats-Unis, le travail est rare relativement aux montants de terres, de capital ou d’éducation que le pays a accumulés. Les pays diffèrent en fonction de leur combinaison de travail, de terres, de capital, de compétences et d’autres "facteurs de production". Durant les années vingt et les années trente, Eli Heckscher et son étudiant Bertil Ohlin proposèrent un modèle révolution où ces différences dans les dotations factorielles était à l’origine du commerce international. Dans leur modèle, le commerce permet aux pays comme les Etats-Unis d’économiser en main-d’œuvre, en se concentrant sur les activités intensives en capital qui requièrent peu de travail. Les activités qui nécessitent beaucoup de transpiration peuvent peut être laissées aux pays étrangers. De cette manière, le commerce réduit la rareté du travail.

C’était une bonne chose pour le pays, mais était-ce une bonne chose pour les travailleurs ? La rareté est source de valeur. Si le commerce réduit la valeur de rareté des travailleurs, il érode aussi leur pouvoir de négociation. Il est alors possible que le libre-échange réduise la part du revenu national rémunérant les travailleurs. Mais si le commerce accroît aussi ce revenu, la plupart des économistes pensaient qu’il doit tout de même améliorer la situation des travailleurs. En outre, même si la concurrence étrangère déprime les salaires "nominaux", il réduit aussi le prix des biens importés. Selon le profil de leur consommation, le pouvoir d’achat des travailleurs peut alors s’accroître, même si leurs salaires chutent.

Il y avait d’autres raisons pour rester optimiste. Le travail, à la différence du pétrole, des terres arables, des hauts fourneaux et de bien d’autres ressources productives, est nécessaire dans chaque secteur. Donc peu importe comment le tissu sectoriel d’un pays évolue, le travail sera toujours demandé. Au cours du temps, la main-d’œuvre sait également s’adapter. Si le commerce permet à un secteur de se développer et oblige un autre à décliner, les nouveaux travailleurs vont simplement migrer vers les secteurs en essor et tourner le dos aux secteurs en déclin. "A long terme, la classe laborieuse dans son ensemble n’a rien à craindre du commerce international", concluait l’économiste australien Gottfried Haberler en 1936.

Stolper n’en était pas sûr. Il sentait que le modèle d’Ohlin était en désaccord avec Haberler, même si les choses lui restaient imprécises. Stolper fit part de ses doutes à Samuelson, son jeune collègue de Harvard. "Penchons-nous dessus, Wolfie !", lui intima Samuelson.

Le binôme partit d’un exemple simple : une petite économie dotée d’un capital (ou d’une terre) abondant(e), mais d’un travail rare, fabriquant des montres et du blé. Les économistes ont par la suite clarifié l’intuition sous-jacente à leur modèle. Dans un scénario, la fabrication de montres (qui est intensive en travail) est frappée d’un droit de douane de 10 %. Quand celui-ci est abrogé, le prix des montres chute d’un montant similaire. L’industrie, qui ne peut ne plus rester rentable, commence à licencier des travailleurs et à libérer des terres. Quand la poussière retombe, qu’est-ce qui se passe du côté des salaires et des prix du foncier ? Un profane peut supposer qu’ils chutent tous de 10 %, permettant aux fabricants de montres de refaire du profit. Un profane plus clairvoyant peut déclarer que les rentes foncières vont moins chuter que les salaires, dans la mesure où le déclin de l’industrie horlogère libère plus de travail que de terres.

Tous deux risquent d’avoir tort, car ils ignorent ce qui se passe dans le reste de l’économie. En l’occurrence, le prix du blé peut ne pas chuter. Donc si les salaires et les rentes foncières diminuent, les producteurs de blé vont faire plus de profit et étendre leur activité. Puisqu’ils nécessitent plus de terre que de travail, leur expansion pousse davantage les rentes que les salaires à la hausse. Au même instant, la contraction du secteur horloger pousse davantage les salaires que les rentes foncières à la baisse. En raison de ces forces, les salaires chutent de plus de 10 %, tandis que les rentes peuvent au final légèrement augmenter. Cette combinaison de terres légèrement plus chères et de travail moins cher restaure le modus vivendi entre les deux secteurs, stoppant la contraction de l’industrie horlogère et l’expansion des producteurs de blé. Parce que les fermiers nécessitent plus de terres que de travail, une rente foncière légèrement plus élevée les dissuade aussi énergiquement que les plus faibles salaires les attirent. La combinaison restaure aussi les profits des fabricants de montres, parce que le travail moins cher les aide davantage que le prix légèrement plus élevé des terres les affecte. Au final, les salaires ont davantage chuté que le prix des montres et la rente foncière a effectivement augmenté. Il s’ensuit que la situation des travailleurs s’est dégradée. Leur adaptabilité ne va pas les sauver. Et la combinaison de montres et de blé qu’ils achètent n’importe pas.

Stolper, Samuelson et leurs successeurs ont étendu par la suite le théorème à des cas plus compliqués (…). Une version populaire sépare la main-d’œuvre en deux en distinguant les travailleurs qualifiés des travailleurs non qualifiés. Ce genre de distinction permet d’éclairer ce que Stolper observa plus tard au Nigéria, où les travailleurs éduqués étaient des plus rares. Avec un tarif douanier de 90 %, la Kaduna Textile Mills peut se permettre de former les contremaîtres locaux et d’embaucher des techniciens. Sans ces droits douaniers, le Nigéria aurait probablement importé du textile depuis Lancashire. Le libre-échange aurait donc nui au facteur "rare".

Dans les pays riches, les travailleurs qualifiés sont abondants au regard des normes internationales et les travailleurs non qualifiés y sont relativement rares. Comme la mondialisation a progressé, les travailleurs éduqués, diplômés du supérieur, ont pu bénéficier de hausses salariales plus rapides que leurs compères moins éduqués, beaucoup de ces derniers souffrant d’une stagnation des rémunérations réelles. A première vue, cette dynamique des salaires est cohérente avec le théorème Stolper-Samuelson. La mondialisation a nui au "facteur" rare (le travail peu qualifié) et bénéficié au facteur abondant.

Mais si l’on regarde plus finement, l’énigme demeure. Le théorème est incapable d’expliquer pourquoi les travailleurs qualifiés ont également prospéré dans les pays en développement, où ils ne sont pas abondants. Une hypothèse, celle selon laquelle chaque pays produit tout (des montres et du blé), peut aussi amener à exagérer certains dangers de l’ouverture au commerce international. En réalité, les pays vont importer certaines choses qu’ils ne produisent plus et d’autres qu’ils n’ont jamais produites. Les importations ne peuvent nuire à un secteur local qui n’a jamais existé, ni continuer de nuire à un secteur qui a déjà disparu.

D’autres hypothèses du théorème sont également discutables. L’hypothèse selon laquelle les travailleurs se déplacent librement d’un secteur à l’autre ne permet pas de saisir la véritable source de leur malheur. Les importations chinoises n’ont pas poussé les travailleurs de l’industrie américaine vers les secteurs moins intensifs en travail ; elles les ont poussé hors de la population active, selon David Autor et ses coauteurs. Ces derniers soulignent que le "choc chinois" a été concentré dans quelques localités et que les travailleurs qui y furent durement touchés avaient du mal à s’en échapper. Avec la mondialisation, les biens se déplacent désormais facilement d’un pays à l’autre. Mais les travailleurs ne se déplacent pas aussi facilement, même au sein d’un même pays.

L’acclamation du théorème Stolper-Samuelson ne fut ni instantanée, ni même universelle. L’article originel fut rejeté par l’American Economic Review, dont les éditeurs considéraient avoir affaire à "une étude très étroite en théorie formelle". Même Samuelson empoigna prudemment la proposition dans son propre manuel. Après avoir fait savoir que le libre-échange peut détériorer la situation des travailleurs américains, il ajouta un avertissement : "Bien qu’ils admettent cela comme une vague possibilité théorique, la plupart des économistes sont toujours enclins à penser que son grain de vérité est atténué par d’autres considérations, plus réalistes". Qu’en pensait Stolper ? Ce vétéran de la pratique et de la théorie économiques n’était pas un esclave du formalisme, ni aveuglé par des "considérations réalistes". En effet, au Nigéria, Stolper comprit qu’il pouvait plus facilement "mettre en suspens la théorie" que certains de ses collègues politisés (peut-être parce que la théorie leur a été révélée, parce qu’ils ne l’ont pas élaborée). Il était néanmoins convaincu que l’article méritait toute l’agitation qu’il avait suscitée. Il avait un jour déclaré qu’il écrirait un autre comme celui-ci. (…) Il n’écrivit jamais un aussi bon article. Peu de personnes ont réussi à le faire. »

The Economist, « Tariffs and wages. An inconvenient iota of truth », 6 août 2016. Traduit par Martin Anota

lundi 8 août 2016

Les experts, les faits et les médias

« Jean Pisani-Ferry a écrit un billet très intéressant sur la nécessité d’avoir des experts de confiance dans une démocratie. Le billet s’attaque aux critiques que les experts économiques ont essuyées suite au référendum du Brexit. Il écrit notamment : "La démocratie représentative se fonde non seulement sur le suffrage universel mais aussi sur la raison. Idéalement, les délibérations et les votes doivent se traduire par des décisions rationnelles qui s’appuient sur l’état des connaissances pour permettre aux décisions politiques d’améliorer le bien-être des citoyens".

Très bien dit ! Il souligne aussi le fait que le manque d’influence d’experts économiques ne diffère pas de celui des autres experts (comme l’illustrent notamment les débats sur le changement climatique, les OGM…). Je partage cette idée et je pense que la défiance vis-à-vis des experts économiques est simplement plus manifeste en raison de leur influence (ou de leur manque d’influence) dans les débats politiques qui sont pourtant plus présents dans les médias que les débats sur les questions scientifiques. Comment améliorer la confiance vis-à-vis des experts ? Ce n’est pas évident, selon Pisani-Ferry. Ce qui est nécessaire, c’est une combinaison de discipline parmi la communauté d’experts, d’un système éducatif qui équipe les citoyens avec les outils pour distinguer entre faits et fiction et le développement de meilleurs espaces pour le dialogue et le débat informé.

Bonne chance ! Malheureusement nous sommes très loin de ce scénario idéal. L’éducation n’a jamais touché autant de citoyens qu’aujourd’hui, en particulier dans les économies développées, mais nous voyons peu de différence. Il est possible que la complexité des questions sur lesquelles portent les débats soit d’un tel niveau qu’elle ne permettre pas toujours d’avoir une discussion informée basée sur les faits et non sur l’idéologie. Ceux qui expriment leur opinion en s’appuyant soit sur des faits erronés, soit sur absolument aucun fait sont susceptibles de convaincre un large public et d’être aussi influents que ceux qui s’appuient avec rigueur sur les faits. Et les médias n’agissent pas du tout comme un filtre, peut-être parce que la controverse fait vendre ou parce qu’il y a la volonté de présenter une vision "équilibrée" du débat ou bien encore simplement en raison de l’auto-intérêt.

Voici un exemple tout frais qui illustre ce point. Le Financial Times a publié deux articles le 2 août sur les mérites de l’assouplissement quantitatif (quantitative easing). Le premier appelle à une poursuite du programme d’assouplissement quantitatif avec pour arguments qu’il fonctionne et qu’il faut juste augmenter le dosage. Le second développe l’idée que l’assouplissement quantitatif, ainsi que la relance budgétaire, sont de mauvais outils à utiliser pour accélérer la reprise et qu’ils sont susceptibles d’aboutir à une catastrophe.

Si vous lisez le deuxième article vous noterez l’usage de faits douteux et d’un raisonnement économique que n’importe quelle personne ayant eu des cours d’économie devrait considérer comme bancal. Prenons un exemple. L’article commence en indiquant que la dette mondiale représente 300 % du PIB et affirme ensuite que : "Si le taux d’intérêt moyen est de 2 %, alors une dette représentant 300 % du PIB signifie que l’économie doit croître à un taux nominal de 6 % pour couvrir les intérêts".

C’est tout simplement faux et ce pour plusieurs raisons. Premièrement, l’accroissement de la dette dans le monde s’accompagne d’une hausse d’actifs de même ampleur. Deuxièmement, les intérêts versés par les emprunteurs vont aux prêteurs. Donc le monde (ou un pays donné) n’a pas à trouver de revenu pour payer les intérêts, puisque c’est un transfert allant des emprunteurs aux prêteurs. Troisièmement, les emprunteurs doivent payer les intérêts, mais si la dette correspond à un prêt hypothécaire obtenu pour acheter un logement, alors je n’ai plus à payer de loyer. Observer les seuls paiements (ou les passifs sans prendre en compte les actifs) est trompeur. Quatrièmement, le chiffre de 300 % ne peut être associé à un pays ou à un gouvernement, puisque la plupart de la dette est interne. Aucun pays n’a de dette externe qui soit proche de ce niveau. La même chose est vraie pour les gouvernements (avec l’exception du Japon qui n’en est pas loin, mais, encore une fois, l’essentiel de sa dette est interne, donc les intérêts que le gouvernement japonais a à payer sont versés aux citoyens japonais qui sont précisément les contribuables). Cinquièmement, même si un gouvernement qui a une dette s’élevant à 300 % du PIB, le calcul ci-dessus est simplement faux. Si les taux d’intérêt sont de 2 %, vous devez avoir une croissance du PIB de 2 % (et non de 6 %) pour être sûr que le ratio dette sur PIB n’augmente pas (aussi longtemps que votre nouvel endettement et votre l’épargne soient nul, bien sûr). C’est quelque chose qui est enseigné dans les cours d’économie. Les auteurs de l’article ont confondu la valeur des intérêts et la croissance nécessaire pour rendre ce niveau de dette soutenable.

Le reste de l’article contient plusieurs autres erreurs. C’est embarrassant de voir que le Financial Times ait publié un article d’une si piètre qualité.

Est-ce que cet article va influencer la vue de certains quant au débat autour de la politique monétaire ? Je ne le sais absolument pas, mais ce que je sais par contre, c’est que la vue pessimiste dont l’article se nourrit à propos du rôle des politiques monétaire et budgétaire est suffisamment populaire assez pour influencer le débat autour des politiques économiques et la mise en œuvre de ces dernières.

Ainsi, nous sommes très loin d’avoir des débats informés et factuels à propos des questions économiques (et scientifiques) qui finissent par façonner les dynamiques économiques et sociales. En tant qu’économiste, je continue de faire de mon mieux en partageant mes vues et mes analyses auprès de la plus grande audience qu’il m’est possible d’avoir à travers des billets de blog comme celui-ci, mais il est déprimant de voir que beaucoup de personnes qui s’appuient sur des analyses erronées réussissent très souvent à toucher un plus large public, a fortiori en obtenant la bénédiction de médias respectés. »

Antonio Fatás, « Experts, facts and media », in Antonio Fatás on the Global Economy (blog), 3 août 2016. Traduit par Martin Anota

dimanche 7 août 2016

Les liens de la semaine

Autour des Jeux olympiques



Quelques leçons pour les économistes...

  • Critique de la pensée économique : six idées fondamentales qu’on a refusé d'entendre en leur temps (The Economist)
  • La démocratie a besoin d’experts dignes de confiance (Jean Pisani-Ferry)


Croissance, fluctuations et crises

  • Depuis quand et pourquoi la croissance de la zone euro est-elle négativement corrélée à la croissance du Monde ? (Patrick Artus)
  • Peut-on faire un parallèle entre le Japon et la zone euro ? (Patrick Artus)
  • L’écart impressionnant entre les Etats-Unis et la zone euro en ce qui concerne la progression de l’investissement et de l’emploi depuis la crise de 2008-2009 (Patrick Artus)
  • Pourquoi le cycle d’expansion est-il aussi long aux États-Unis ? (Patrick Artus)
  • L’Inde: un moteur de l’économie mondiale très différent de la Chine (Patrick Artus)
  • La crise vénézuélienne entraîne Cuba dans la récession (Le Monde)
  • Le Monde est condamné à devenir une économie de services (Patrick Artus)
  • Pourquoi faut-il conserver une industrie de grande taille ? (Patrick Artus)


Zoom sur les effets économiques de la scolarité


Environnement et ressources naturelles

  • Un contre-choc pétrolier durable (Alter éco plus)
  • Pétrole : cycle court ou cycle long de prix bas ? (Patrick Artus)
  • Les indicateurs clés du changement climatique ont atteint des niveaux record en 2015 (Le Monde)
  • Ressources de la planète : dès lundi, l’humanité vivra à crédit (Les Echos)
  • Pour respecter les objectifs climatiques, il va falloir détruire du capital et le remplacer par un autre capital : quelles conséquences ? (Patrick Artus)


Alter_eco_plus__prix_du_petrole_Brent_entre_1972_et_2015.png

source : Alter éco plus (2016)

Démographie et migration


Instabilité et régulation financières

  • Italie : le sauvetage de Monte Paschi est-il un succès de l'union bancaire ? (La Tribune)
  • La valeur du bitcoin plonge à la suite du vol de 53 millions d’euros sur une plate-forme d’échange (Le Monde)
  • Les prix de l'immobilier chinois continuent leur hausse, mais pour combien de temps ? (La Tribune)
  • Les dangers du passage à un modèle désintermédié du financement des entreprises dans la zone euro (Patrick Artus)
  • Les marchés financiers risquent d’être surpris par la remontée des taux d’intérêt à long terme (Patrick Artus)
  • Les républicains et le système financier : recette pour un désastre (Simon Johnson)


Politique économique

  • Japon : Shinzo Abe sort son plan de relance (La Tribune)
  • La relance budgétaire revient en grâce, mais la zone euro l'ignore (La Tribune)
  • Le dogmatisme a coûté beaucoup de croissance à la zone euro depuis la crise de 2008-2009 (Patrick Artus)
  • La zone euro repousse dans le temps tous les ajustements : ce n’est pas rassurant (Patrick Artus)
  • Un an après, quel bilan pour la loi Macron ? (La Tribune)


Fiscalité

  • Le prélèvement à la source de l’impôt sur le revenu, mode d’emploi (Le Monde)
  • Impôts : les pour ou les contre du prélèvement à la source (Le Monde)
  • La réforme de la TVA en Inde, une victoire politique pour le premier ministre (Le Monde)
  • En Inde, la réforme de la TVA ouvre la voie à un marché unique dans le pays (Le Monde)


Politique monétaire

  • Brexit : la Banque d'Angleterre sort son "bazooka monétaire" (La Tribune)
  • Zone euro : faut-il s'inquiéter du repli récent de la croissance monétaire ? (Natixis)
  • Que vaut l’argument favorable au Quantitative Easing de la BCE : la corrélation des coûts de financement ? Rien, car la théorie sous-jacente est fausse (Patrick Artus)
  • La zone euro est bien dans une trappe à liquidité. Est-ce grave pour l’efficacité de la politique monétaire ? (Patrick Artus)
  • Pourquoi la perte d’efficacité des politiques monétaires des pays de l’OCDE ? (Patrick Artus)
  • Quel est le coût de ce que les Banques Centrales amortissent tous les chocs ? (Patrick Artus)


Commerce international, finance internationale

  • Les nouveaux ennemis de la mondialisation (Joseph Stiglitz)
  • La mondialisation comme seule réponse possible (Project Syndicate)
  • Comment caractériser l’évolution des échanges internationaux de biens et services ? Déglobalisation, désegmentation des chaînes de valeur ? Relocalisations ? (Patrick Artus)
  • Les différentes régions du Monde de moins en moins liées par les échanges de biens et services, de plus en plus liées par les échanges de capitaux (Patrick Artus)
  • Déficit commercial : le ciel s'assombrit encore (La Tribune)
  • Ce qui a changé quand la zone euro est passée à un excédent extérieur (Patrick Artus)
  • En réalité, un excédent extérieur révèle une situation inquiétante (Patrick Artus)


Intégration européenne


Stratification sociale et mobilité sociale


Travail, emploi, chômage

  • Quand le travail s’« ubérise » (Alter éco plus)
  • Loi Travail : partiellement censurée, bientôt promulguée (La Tribune)
  • Loi travail : rien n'est fini, tout commence... (La Tribune)
  • Quel premier bilan tirer de la réforme du marché du travail adoptée en Espagne ? (Trésor éco)
  • L’économie américaine a créé 255 000 emplois en juillet (Le Monde)





lire la précédente revue de presse

vendredi 5 août 2016

Hyman Minsky et l’hypothèse d’instabilité financière



Depuis le début de sa carrière universitaire dans les années cinquante jusqu’à 1996, année de sa mort, Hyman Minsky est resté dans une relative obscurité. Ses travaux autour des crises financières et de leurs causes lui permit d’attirer quelques fervents admirateurs, mais pas l’attention des médias et de l’économie mainstream : The Economist ne le cita qu’une seul fois lorsqu’il était vie (...). Les choses demeurèrent ainsi jusqu’à 2007, lorsque la crise du crédit subprime éclata aux Etats-Unis. Soudainement, c’était comme si chacun se tournait vers ses écrits afin de comprendre le chaos qui se généralisait alors. Les brokers écrivaient des notes à leurs clients où ils évoquaient un "moment Minsky" (Minsky moment) submergeant les marchés financiers. Les banquiers centraux faisaient référence à ses théories dans leurs discours. Et il devint une star posthume des médias (…). The Economist l’a par exemple mentionné dans plus d’une trentaine d’articles depuis 2007.

Si Minsky est resté dans l’obscurité tout au long de sa vie, c’est au moins en partie parce que son approche s’écartait des conventions académiques. Il commença ses études universitaires en mathématiques, mais il fit peu usage de calculs lorsqu’il passa à l’économie, malgré la place croissante que la discipline accordait aux méthodes quantitatives. Il développa ses idées dans ses essais, ses conférences et ses livres, notamment son livre sur John Maynard Keynes, l’économiste qui influença le plus grandement sa pensée. Il gagna aussi une expérience sur le terrain, en travaillant à la Mark Twain Bank à St Louis, dans le Missouri, où il enseigna.

Ayant grandi durant la Grande Dépression, Minsky était obnubilé par ce désastre. Tout au long de son existence, il revenait sans cesse au même problème fondamental. Il voulait comprendre pourquoi les crises financières éclataient. C’était alors un sujet impopulaire. La croyance dominante dans la seconde moitié du vingtième siècle était que les marchés étaient efficients. La perspective d’une calamité générale dans les économies développées semblait improbable. Il pouvait y avoir occasionnellement un krach boursier ou une crise de change, mais les économies modernes semblaient avoir vaincu leurs pires démons.

Doutant de ces certitudes, Minsky (…) développa son "hypothèse d’instabilité financière" (financial instability hypothesis). Celle-ci explique comment de longues périodes de prospérité sèment les graines de la crise suivante, un cadre des plus pertinents pour comprendre les tumultes de la décennie qui vient de s’écouler. Mais l’histoire de l’hypothèse elle-même est tout aussi importante. Sa trajectoire depuis les marges du monde universitaire jusqu’au cœur des débats mainstream montre comment l’étude de l’économie s’adapte à une réalité qui a profondément changé depuis la crise financière mondiale.

Minsky commença par une explication de l’investissement. Ce dernier est, par essence, un échange de monnaie aujourd’hui avec de la monnaie demain. Une entreprise paye maintenant pour la construction d’une usine ; les profits tirés de l’exploitation de l’usine, si tout va bien, se traduisent en monnaie au cours des années suivantes. Pour résumer, la monnaie d’aujourd’hui peut venir de deux sources : la propre trésorerie de l’entreprise ou des autres (ce qui sera le cas, par exemple, si l’entreprise emprunte auprès d’une banque). L’équilibre entre les deux est la question clé pour le système financier.

Minsky a distingué entre trois formes de financement. Le premier, qu’il qualifie de "financement prudent" (hedge financing), est le plus sûr : les entreprises utilisent leurs recettes de trésorerie futures pour rembourser la totalité de leur emprunt. Pour que cela fonctionne, elles doivent avoir peu emprunté et généré suffisamment de profits. Le deuxième, le "financement spéculatif" (speculative financing), est un peu plus risqué : les entreprises utilisent leurs recettes de trésorerie pour rembourser les intérêts, mais elles doivent emprunter à nouveau pour rembourser le principal. C’est soutenable aussi longtemps que l’économie fonctionne sans heurts, mais un ralentissement de l’activité peut se révéler déstabilisatrice. Le troisième, le "financement Ponzi" (Ponzi financing), est le plus dangereux : les flux de recettes de trésorerie ne couvrent ni le principal, ni les intérêts. Les entreprises font simplement le pari que l’actif sous-jacent s'appréciera suffisamment pour couvrir leur passif. Si ce n’est pas le cas, elles vont faire faillite.

Les économies dominées par le financement prudent (c’est-à-dire par les entreprises disposant d’importants flux de trésorerie et de faibles niveaux de dette) sont les plus stables. Quand le financement spéculatif et surtout Ponzi se généralisent, les systèmes financiers deviennent plus vulnérables. Si les prix d’actifs commencent à chuter, soit en raison du resserrement de la politique monétaire ou d’un choc externe, les entreprises qui se retrouvent en difficultés vont être forcées de vendre leurs actifs. Cela pousse davantage les prix d’actifs à la baisse et met encore davantage d’entreprises en difficultés. Elles auraient pu éviter une telle issue en se contentant de recourir au financement prudent. Mais, au cours du temps, en particulier lorsque l’économie est en expansion, la tentation de s’endetter devient peu à peu irrésistible. Lorsque la croissance économique semble assurée, pourquoi ne pas emprunter plus ? Les banques se laissent également gagner par l’optimisme et assouplissent les conditions de crédit à mesure que le boom se poursuit. Si les défauts de remboursement sont peu fréquents, pourquoi ne pas prêter plus ? La conclusion de Minsky était déconcertante. La stabilité économique alimente l’instabilité. Les périodes de prospérité sont le théâtre d’une véritable fragilisation financière.

Avec le souvenir des banques surendettées et des difficultés hypothécaires toujours dans les esprits après la crise financière mondiale, les intuitions de Minsky semblent relever de l’évidence. Bien sûr, la dette et la finance importent. Mais pendant des décennies, la recherche en économie n’accordait que peu de place à la première et considérait la seconde comme une sous-discipline, non comme un élément essentiel de théories plus larges. Minsky était un franc-tireur. Il remit en question l’ossature keynésienne de la macroéconomie et la croyance dans les marchés efficients qui prévalait alors.

Il est peut-être étrange de décrire ses idées comme une critique de la doctrine keynésienne alors que Minsky lui-même idolâtrait Keynes. Mais il croyait que cette doctrine s’était bien trop éloignée des idées fondamentales de Keynes. Les économistes avaient créé des modèles pour formaliser les mots de Keynes (…). Aucun modèle n’est plus connu que le modèle IS-LM, qui a été en grande partie développé par John Hicks et Alvin Hansen et qui montre la relation entre l’investissement et la monnaie. Il reste un outil utile pour enseigner et pour analyser la politique économique. Mais Hicks et Hansen ont fait abstraction du secteur financier, alors même que Keynes était profondément convaincu de l’importance des marchés financiers. Pour Minsky, IS-LM était "une représentation injuste et naïve des idées subtiles et sophistiquées de Keynes". L’hypothèse d’instabilité financière de Minsky visait à combler les lacunes.

L’attaque que Minsky a lancée aux prophètes de l'efficience des marchés était encore plus forte. Eugene Fama et Robert Lucas, parmi d’autres, ont persuadé la plupart des universitaires et des responsables politiques que les marchés financiers tendaient vers l’équilibre à mesure que les gens digéraient toute l’information disponible. Ils considéraient la structure du système financier comme peu pertinente. Au cours des dernières années, l’économie comportementale s’est attaquée à un pilier de l'hypothèse des marchés efficients : loin d’être des acteurs rationnels qui maximisent leurs gains, les gens ne savent pas vraiment ce qu’ils veulent et prennent de mauvaises décisions. Mais, au cours des années précédentes, Minsky s’était attaqué à un autre pilier : les forces qui sont à l’œuvre dans les systèmes financiers les poussent vers la catastrophe, affirmait-il, la stabilité n’étant qu’une éphémère illusion. (...)

Marginal dans le monde parfois très fermé de l’économie, Minsky n’avait, jusqu’à récemment, qu’une influence limitée. Les investisseurs financiers ont été plus rapides que les universitaires pour se saisir de ses idées. C’est surtout PaulMcCulley, de PIMCO, un groupe de gestion de fonds, qui popularisa ses idées. Il façonna le terme de "moment Minsky" pour décrire une situation où les niveaux de dette atteignent leur point de rupture et où les prix d’actifs commencent à chuter. McCulley utilisa initialement ce terme pour expliquer la crise russe de 1998. Depuis les turbulences mondiales de 2008, il est devenu très répandu. Pour les analystes en placements et les gestionnaires de fonds, un "moment Minsky" est quelque peu devenu le synonyme de crise financière.

Les écrits de Minsky à propos de la dette et des dangers de l’innovation financière avaient comme vertu d’être en accord avec l’expérience. Mais cette vertu est pourtant liée à ce que certains voient comme un défaut. En essayant de peindre une image plus nuancée de l’économie, il se prive de la puissance des modèles élégants. C’était bien loin de l’inquiéter ; il affirmait que les théories généralisables étaient vouées à l'échec. Il voulait expliquer des situations spécifiques, pas l’économie en général. Il voyait l’hypothèse d’instabilité financière comme pertinente dans le cas des économistes capitalistes avancées dotées de marchés financiers profonds, sophistiqués. Elle n’était pas censée être pertinente dans tous les scénarii. Ces jours-ci, par exemple, il est à la mode de s’interroger si la Chine est sur le point de connaître un moment Minsky après la croissance spectaculaire de sa dette au cours de la décennie passée. Pourtant une économie qui est en transition du socialisme vers une économie de marché et qui se caractérise par un système financier immature est loin de ce que Minsky avait en tête.

Se priver de la puissance des équations et des modèles n’est pas sans coûts. Cela contribua ce que les auteurs mainstream ignorent Minsky. Les économistes n’ignoraient pas entièrement la dette, même s’ils l’étudiaient seulement de façon parcellaire. Certains, comme Nobuhiro Kiyotaki et Ben Bernanke, qui s’est retrouvé depuis à la tête de la Réserve fédérale, ont observé comment le crédit pouvait amplifier les cycles d’affaires. Les travaux de Minsky peuvent compléter les leurs, mais ils n’y firent pas référence. C’était un peu comme s’ils n’existaient pas.

Depuis la mort de Minsky, d’autres ont cherché à corriger ce manque, en greffant ses théories dans des modèles. Le Levy Economics Institute de New York, où il finit sa carrière, tient chaque année une conférence en son honneur et publie régulièrement des travaux qui modélisent ses idées. Un de ces documents de travail, publié en 2000, développa un modèle inspiré de Minsky liant l’investissement et les flux de trésorerie. Un article de 2005 publié par la Banque des Règlements Internationaux (…) s’est appuyé sur Minsky pour proposer un modèle décrivant comment les gens évaluent leurs actifs après avoir réalisé des pertes. En 2010, le "prix Nobel" Paul Krugman, qui est surtout connue aujourd’hui en tant que chroniqueur au New York Times, a réalisé avec Gauti Eggertsson un document de travail qui inclut les idées de Minsky pour modéliser l’impact du désendettement sur l’économie. Certains chercheurs commencent tout juste de tester à quel point les intuitions de Minsky sont vérifiées par les faits : en observant les ratios dette sur flux de trésorerie, un document de travail de la Banque de Finlande publié en 2014 a constaté qu’ils constituent un indicateur pertinent pour juger du risque systémique. (...)

(…) Comme Krugman a pu l’affirmer, "Nous sommes tous minskyens désormais". Les banquiers centraux semblent d’accord avec lui. Dans un discours prononcé en 2009, avant qu’elle ne se retrouve à la tête de la Fed, Janet Yellen dit que les travaux de Minsky étaient "devenus une lecture incontournable". Dans un discours prononcé en 2013, Mervyn King, qui était encore gouverneur de la Banque d’Angleterre, se dit en accord avec l’idée selon laquelle la stabilité sur les marchés du crédit entraînait une exubérance et en définitive à l’instabilité. Mark Carney, qui a succédé à King, fit référence au moment Minsky au moins à deux reprises.

Est-ce que cela va durer ? La théorie même de Minsky suggère que non. La croissance économique est toujours fragile et les cicatrices de la crise toujours manifestes. Dans la trajectoire minskyenne, c’est à ce moment-là que les entreprises et les banques se montrent les plus prudentes, qu’elles sont conscientes des erreurs passées et déterminées à renforcer leurs bilans. Mais à mesure que le temps passe, le souvenir de la crise de 2008 s’efface. Les entreprises vont à nouveau chercher à se développer, les banques à les financer et les régulateurs à assouplir les contraintes réglementaires. Les avertissements de Minsky seront peu à peu ignorés. Plus on s’éloigne de la dernière crise, moins on désire entendre ceux qui voient déjà la prochaine arriver. »

The Economist, « Minsky’s moment », 30 juillet 2016. Traduit par Martin Anota



« L'hypothèse d'instabilité financière »

« Anatomie des booms du crédit »

« Endettement, déflation et crises financières »

« Endettement, déflation et crises financières »

« Krugman, Fisher et Minsky »

mercredi 3 août 2016

Doit-on démocratiser l'économie ?

« Suite au référendum du Brexit, on a pu entendre certains appeler à démocratiser l’économie. Lorsque par le passé j’ai pu me pencher sur ce débat, je m’appuyais sur une analogie entre l’économie et la médecine. Si j’aime cette analogie, c’est parce que toutes les deux sont des sciences stochastiques : le comportement et la santé restent difficilement prévisibles, du moins dans l’état actuel du savoir. Une grande partie des choses reste mystérieuse. Toutes deux peuvent s’appuyer considérablement sur la théorie, mais elles dépendent aussi de l’analyse statistique et d’expérimentations. Je suis satisfait à l’idée que la médecine puisse dans un certain sens être "meilleure" que l’économie (…), mais je pense que toute différence entre les deux sciences est davantage en termes de degré plutôt qu’en termes de genre.

Il y a une autre similarité qu’il est utile de mentionner parce qu’elle revient toujours : ces deux sciences sont peu efficaces lorsqu’il s’agit de prévision. Votre docteur ne va pas vous dire combien de temps vous avez à vivre. Souvent, il ne peut que vous en donner une idée imprécise, même si vous avez une maladie fatale. Les économistes s’impliquent dans la prévision macroéconomique, non pas parce que ceux qui l’utilisent pensent qu’elle est précise, mais parce qu’elle est toujours meilleure que la simple extrapolation. Pourtant, les docteurs ne peuvent peut-être pas vous dire combien de temps vous allez vivre, mais ils vous diront que le tabagisme va très certainement raccourcir votre vie. De même, ce n’est pas parce que les économistes sont incapable de faire de bonnes prévisions macroéconomiques qu’ils ne peuvent pas affirmer qu’une détérioration des échanges avec les pays voisins réduira le revenu et le bien-être des résidents.

Les deux sujets sont aussi similaires dans la mesure où les décisions clés sont souvent déléguées à des comités d’experts : par exemple, au Royaume-Uni, il y a le comité de politique monétaire de la Banque d’Angleterre et le National Institute for Health and Care Excellence (NICE). Mais quant cela touche à d’autres décisions politiques, les deux sujets diffèrent. Occasionnellement, le gouvernement ou des responsables politiques s’attaquent aux experts médiaux sur des questions médicales, mais c’est rare. Par contraste, les politiciens ont l’habitude d’ignorer l’expertise économique ou de privilégier les opinions minoritaires pour soutenir leurs propres idées. La différence n’est pas difficile à expliquer bien sûr : les intérêts politiques et les décisions économiques sont souvent liés. Cela peut en retour influencer la discipline elle-même. Mais si vous acceptez mon analogie, vous comprenez que cela nuit à la société. Ceux qui votèrent en faveur le Brexit le firent parce qu’on leur a dit que celui-ci leur serait favorable à long terme, si bien qu’ils vont très certainement être déçus.

Est-ce qu’une solution à ce problème serait de démocratiser l’économie ? Je ne connais personne, en tout cas aucun économiste, qui porterait une objection à ce que le public s’y connaisse mieux en économie. Certains peuvent aller plus loin en suggérant que les responsables politiques ont des connaissances lacunaires en économie. Quelques fois, les économistes peuvent apprendre de leurs échanges avec les responsables politiques ou même avec le public. Mais quand cela touche à la médecine, les gens ne veulent généralement pas maîtriser la science médicale. Ils veulent savoir ce qu’est l’opinion médicale sur les questions clés et ils veulent que les responsables politiques prennent des décisions qui incarnent ce savoir.

Je pense que c’est également vrai en économie. La plupart des gens ne veulent pas savoir la base théorique qui explique pourquoi l’austérité budgétaire nuit à l’économie quand les taux d’intérêt sont contraints par leur borne inférieure (…). (Si vous lises ce blog, être une exception à cette généralisation.) Ils veulent savoir ce qu’est l’opinion consensuelle est et à quel point ce consensus est fort. Si l’économie est en conflit avec leur intuition, ils peuvent vouloir vérifier que les économistes répondent précisément à la question qu’ils se posent. Cela, les médias échouent généralement à le faire et les tabloïds ne le font que si cela colle à leur ligne politique. Cela peut s’expliquer par la manière dont les médias fonctionnent, comme j’ai pu le discuter à maintes reprises, mais ce serait une erreur pour les économistes de croire que n’est pas également leur problème.

Par exemple en médecine je soupçonne vous pouvez vous appuyer sur les infirmiers pour savoir quel est l’opinion consensuelle sur telle ou telle question. Malheureusement, cela est moins vrai en économie. Mais c’est en partie de la faute collective des économistes, parce que de nombreuses personnes travaillent sur des thèmes différents et qu’elles ne sont pas aussi connectées qu’elles le devraient. Par exemple, de plus en plus de macroéconomistes pensaient que plusieurs des plus grandes écoles hautes enseignaient peu d’économie keynésienne au niveau universitaire. Il apparaît selon les données de sondages que j’ai collectées avec Andre Moriera que la plupart des écoles enseignent tout de même un bon morceau d’économie keynésienne.

(…) Les économistes doivent davantage agir en tant que collectif. Nous devons régulièrement interroger les économistes (tous les économistes, pas juste une poignée de groupes sélectionnés) sur ce qu’ils pensent à propos des questions clés en politique économique, en prenant en compte au même instant si cela relève de leur zone d’expertise. Nous avons besoin de personnes, de porte- paroles, qui expliquent à travers les médias ce qu’est le consensus. Quand les responsables de la politique économique, les économistes de la finance ou les think tanks s’écartent de ce consensus, ces porte-paroles doivent (…) clairement indiquer qu’il s’agit d’opinions minoritaires (…), de la même manière que la profession médicale réagit lorsque des affirmations infondées deviennent populaires. Il n’est peut-être pas nécessaire de démocratiser l’économie, mais il faut en tout cas l’organiser. »

Simon Wren-Lewis, « Should economics be democratised? », in Mainly Macro (blog), 2 août 2016. Traduit par Martin Anota

mardi 2 août 2016

N’est-il pas temps d’abandonner Rawls ?



« Le Droit des gens de John Rawls constitue un ouvrage majeur en philosophie politique à l’ère de la mondialisation. Il a été écrit en 1993. Il m’a absorbé au début des années deux mille, lorsque je travaillais déjà sur les inégalités mondiales, une question qui était alors totalement nouvelle, entièrement ignorée, en économie. La seule chose en économie qui s’en rapprochait le plus était le théorème Heckschler-Ohlin-Samuelson (HOS) dans l'économie du commerce international, théorème selon lequel les inégalités salariales doivent diminuer dans les pays pauvres et augmenter dans les pays riches quand ils s’engagent dans les échanges commerciaux. Mais ce n’est qu’une facette des mondialisations, qui ne prend en compte que les salaires et néglige d’autres formes de revenu : elle laisse de côté les mouvements de capitaux, l’aide au développement, les mouvements migratoires, les délocalisations, etc. Rien de cela n’était vraiment discuté en économie (et beaucoup de ces thèmes ne le sont toujours pas) dans un cadre mondial et non simplement dans une cadre très limité, par exemple une modélisation à 2 biens et 2 pays. Mais les philosophes politiques avaient beaucoup de choses à dire à propos de tout cela.

A la fin des années quatre-vingt-dix, John Rawls ne se focalisait plus sur la façon par laquelle un Etat-nation devait être organisé (comme il le faisait dans sa Théorie de la Justice). Il avait tourné son attention sur la façon par laquelle le monde devait être organisé. Evidemment, cela doit être fait à un niveau très abstrait et (…) ce niveau abstrait était très proche de la situation à laquelle Rawls (mais aussi le monde) semblait faire face au cours des années quatre-vingt-dix. Mais, et ce sera mon point clé ici, cette situation a profondément changé au cours des deux dernières décennies, au point que la description abstraite du monde que propose Rawls n’est plus compatible avec ce que nous voyons aujourd’hui et les recommandations que Rawls a pu tirer de sa description ont perdu par là même de leur pertinence.

Dans Le Droit des gens, Rawls a abandonné la métaphore des individus se rencontrant derrière le voile d’ignorance pour s’accorder a priori sur les principes de justice devant régner dans leur société. Cette règle tient toujours, selon Rawls, dans les sociétés prises individuellement, mais pas dans le monde d’Etats-nations dont les représentants (et non les individus eux-mêmes) se rencontrent pour s’accorder sur les principes qui encadrent leurs relations (inter-sociétales).

Rawls identifie cinq types de sociétés : les sociétés libérales (c’est-à-dire précisément celles dont il est question dans sa Théorie de la justice), les sociétés hiérarchiques consultatives, les sociétés "accablées", les Etats hors-la-loi (notez que Rawls n’utilise pas le terme de "sociétés" les concernant) et les absolutismes bienveillants. Nous pouvons écarter cette dernière catégorie parce qu’elle n’a jamais joué de rôle dans Le Droit des gens. (Je n’ai jamais compris pourquoi. Peut-être que Rawls ne savait pas quoi faire avec elle.) Les sociétés libérales et les hiérarchies consultatives sont des sociétés "bien ordonnées" (ce qui signifie que dans chacune d’entre elles les principes sur lesquels elles se fondent sont renforcés par les actions quotidiennes des peuples) ; elles se respectent mutuellement, elles respectent les principes (différents) sur lesquels chacune est fondée. Les sociétés accablées ne peuvent devenir libérales parce qu’elles sont freinées par leur pauvreté. Les Etats hors-la-loi font tout le temps la guerre (et ce sans réel motif ; comme dans un film d’Hollywood, ils semblent juste adorer jouer les fauteurs de désordres).

Donc les règles deviennent alors relativement simples et certains diraient même simplistes. Les sociétés bien ordonnées, bien que différentes en termes de structure interne, peuvent coexister en paix parce qu’elles se respectent l’une l’autre et les sociétés libérales n’essayent pas d’imposer leurs normes sur les hiérarchies consultatives. Elles n’essayent pas d’exporter la démocratie. Deuxièmement, les sociétés libérales ont le devoir d’aider les sociétés accablées, mais pas plus qu’il ne le faut pour que ces dernières deviennent libérales, ce qui, selon Rawls, survient à un très faible niveau de vie. Au-delà de ce point, même de larges écarts en termes de revenu dans le groupe des sociétés bien ordonnées ne justifient pas une poursuite de l’aide internationale. En d’autres mots, il n’y a pas de raison pour que la Norvège aide le Bangladesh dans la mesure où ils sont tous deux bien ordonnés. Enfin, Rawls rejette l’idée que la migration soit un droit, contre l’idée d’utiliser la migration pour alléger la pauvreté et les inégalités mondiales. Les pays (autrement dit, les populations organisées) ont le contrôle de leur territoire et eux seuls décident des personnes qu’ils acceptent. Ils peuvent accepter les réfugiés qui fuient la persécution, mais pas les migrants économiques (ce qui est d’ailleurs cohérent avec le fait que Rawls sous-estime l’importance que revêt le revenu pour notre bonheur).

Résumons : les sociétés libérales réaffirment quotidiennement leurs principes libéraux, elles vivent en paix avec les sociétés hiérarchiques, elles n’exportent pas la démocratie, elles aident seulement les pays les plus pauvres et en l’occurrence très modestement, et elles refusent la migration économique.

Comme vous pouvez le comprendre, cela explique pourquoi j'ai pu être intéressé par Rawls par le passé : à la différence des économistes, il présente une description cohérente du monde et des règles économiques. Mais alors pourquoi ai-je aujourd’hui un problème avec la taxinomie de Rawls ?

Rappelons quelques changements qui sont survenus durant les deux dernières décennies et pour lesquels je ne trouve pas de place dans la taxinomie de Rawls. Les démocraties libérales n’affirment pas les principes du libéralisme, comme Rawls s’y attendrait, ni au niveau domestique, ni au niveau international. Il est inconcevable pour Rawls, si ces sociétés fonctionnent bien, qu’elles puissent rendre mécontent un tiers de la population, voire plus, comme aux Etats-Unis aujourd’hui, qu’autant de leurs résidents puissent ne pas croire dans les principes libéraux, ni ne vouloir les affirmer dans leur vie quotidienne. (…) Cela, plus l’importance proéminente de l’argent dans la politique électorale, les plus faibles taux d’imposition pour le capital que pour le travail, une désaffection de l’éducation publique, etc., impliquent qu’au niveau domestique les sociétés soi-disant libérales sont très éloignées de l’idée de libéralisme de Rawls. (…) Ces sociétés appartiennent à une catégorie entièrement différente. En outre, en politique étrangère, comme cela a pu apparaître manifestement avec la guerre d’Irak, ils agissent comme les Etats hors-la-loi puisqu’ils enfreignent les règles fondamentales sur lesquelles la communauté internationale est fondée, à savoir l’absence de guerres d’agression. Donc, les sociétés "libérales" sont non-libérales (dans le sens rawlsien du terme) au niveau domestique et agissent comme des Etats hors la loi.

Les bienveillantes hiérarchies consultatives que Rawls avait probablement en tête de façon à intégrer les sociétés islamiques dans son schéma n’existent pas en pratique. Le Moyen-Orient est soit plongé dans un chaos total, soit en grippes avec des dictatures absolutistes comme l’Egypte, l’Arabie saoudite et les émirats du Golfe. Donc ce ne sont pas des sociétés "bien ordonnées" dans le sens qu’en donne Rawls.

Il n’y a pas de place dans sa taxinomie pour des organisations non étatiques opérant dans plusieurs pays comme l’Etat islamique. Une théorie générale qui n’a pas de place pour des organisations qui n’acceptent pas les frontières étatiques actuelles est clairement incomplète. (C’est une question sur laquelle Rawls se montre particulièrement faible parce qu’il considère les frontières comme données, ce qui est plutôt étrange, sachant qu’il écrivait suite à l’éclatement de l’URSS, de la Tchécoslovaquie, de l’Ethiopie et de la Yougoslavie).

Il n’y a aussi pas de place pour ce que l’on appelle aujourd’hui une "démocratie illibérale", à savoir une société qui a essentiellement l’aspect d’une société libérale (élections, partis politiques, ONG) et où pourtant seul un parti ou un meneur remporte systématiquement les élections et où les médias et le système judiciaire sont contrôlés, directement ou indirectement.

Les migrations, conduites par des raisons économiques et donc par les inégalités mondiales, n’ont pas de place chez Rawls. Mais elles existent dans le monde réel, où il y a des millions de migrants économiques qui partent d’Afrique et d’Asie pour aller en Europe ou bien qui partent du Mexique et d’Amérique centrale pour aller aux Etats-Unis. Mais une théorie qui déclare que ces choses ne surviennent pas se révèle inutile quand elles surviennent.

Enfin, Rawls sous-estime nettement l’importance que les gens attachent au revenu et à la richesse pour leur bien-être. Or l’importance des incitations pécuniaires s’est accrue avec la mondialisation puisque les écarts de revenu sont alors devenus plus manifestes.

Les changements que l’on a pu observer au cours des deux dernières décennies ont été, je crois, si profonds que la typologie proposée par Rawls a perdu de sa pertinence. Mais si la typologie ne colle pas à la réalité, alors les relations entre les sociétés qu’il recommande en se basant sur cette typologie n’ont aucune pertinence. C’est pourquoi je pense qu’il est temps soit d’abandonner Rawls, soit de le réviser en profondeur. C’est une tâche pour les philosophes politiques. »

Branko Milanovic, « Time to ditch Rawls? », in globalinequality (blog), 31 juillet 2016. Traduit par Martin Anota

dimanche 31 juillet 2016

Les liens de la semaine

Autour du terrorisme

  • Le terrorisme islamiste a fait 236 morts en France en 18 mois (Le Monde)
  • Attentats de l’Etat islamique : la barre des 3 000 morts a été franchie (Le Monde)
  • Les déchirements français font partie du plan de Daesh (Rachid Benzine)
  • Terrorisme, guerre, les dangers de l’amalgame (Michel Wieviorka)
  • Français, fichés, anciens prisonniers : portrait des djihadistes ayant frappé en France (Le Monde)
  • Terrorisme  : l’Etat de droit au cœur de la polémique (Le Monde)
  • La lutte contre le terrorisme ne peut se réduire à des mesures sécuritaires (The Conversation)
  • Médias : faut-il divulguer l’identité et la photo des terroristes ? (Le Monde)
  • « Imposer un black-out sur certaines informations est contre-productif » face au terrorisme (Patrick Eveno)
  • Massacres de masse, violence, terrorisme et quelques antécédents américains (The Conversation)


Croissance, fluctuations et crises

  • La croissance s'étouffe en France au deuxième trimestre, elle s'essouffle en zone euro (Philippe Waechter)
  • Zone euro : la croissance du revenu des ménages au plus haut depuis 2001 (La Tribune)
  • La croissance de la zone euro ralentit à 0,3 % au deuxième trimestre (La Tribune)
  • Forte croissance britannique au deuxième trimestre, grâce à l'industrie (La Tribune)
  • Etats-Unis : croissance décevante au deuxième trimestre (La Tribune)
  • Les pays en croissance rapide ne contribuent pas nécessairement à la croissance du Monde (Patrick Artus)
  • Quelle stratégie de croissance pour les pays en développement ? (Project Syndicate)
  • Quelles sont les perspectives de rattrapage économique des pays les moins avancés d'Asie du Sud-Est ? (Trésor-éco)
  • Le Monde est devenu différent (Patrick Artus)
  • Aux origines de la croissance (La Vie des Idées)


GRAPHIQUE Variations trimestrielles du PIB français et de ses composantes (en % et en points de %)

INSEE__Variations_trimestrielles_du_PIB_francais_et_de_ses_composantes_deuxieme_trimestre_2016.png

source : INSEE (2016)

Zoom sur la croissance française

  • Peut-on parler de reprise économique ? (La Tribune)
  • Stabilité du PIB au deuxième trimestre 2016 (INSEE)
  • #entretien "La croissance française n’enclenche jamais la deuxième" (Mathieu Plane)
  • France : Pschitt la croissance (Natixis)
  • Malgré la croissance nulle, le gouvernement est confiant (La Tribune)
  • La France s’en sort bien depuis la crise de 2008-2009 (Patrick Artus)


Environnement et ressources naturelles


Instabilité et régulation financière

  • La Fed aurait-elle pu sauver Lehman Brothers ? (D'un champ l'autre)
  • Comment l'Italie tente d'éteindre sa crise bancaire (pour l'instant) (La Tribune)
  • Tests de résistance : les banques peuvent mieux faire (Le Monde)
  • Banques de la zone euro : ampleur du problème; solutions possibles (Patrick Artus)
  • #entretien "La faible portée des réformes est grandement due à l’action de sape des lobbys" (Jézabel Couppey-Soubeyran)
  • Irlande : trois ex-banquiers condamnés à de la prison, huit ans après la crise financière (La Tribune)
  • La finance est-elle irrationnelle ? (The Conversation)


Réformes structurelles


Politique budgétaire et dette publique

  • Bruxelles renonce à sanctionner l'Espagne et Portugal, mais exige plus d'austérité (La Tribune)
  • Grèce : la responsabilité du FMI mise à jour, mais tout continue comme avant (La Tribune)
  • Japon : des doutes sur le plan de relance (La Tribune)
  • Shinzo Abe annonce un nouveau plan massif de relance (Le Monde)
  • En 2015, la dépense publique pèse autant dans le PIB qu’en 1950 (Denis Gouaux)
  • Les pays qui avaient des excédents budgétaires et des dettes publiques en baisse avant la crise se portent-ils mieux aujourd’hui que les autres ? (Patrick Artus)


Politique monétaire

  • La Fed laisse ses taux inchangés, en dépit de signaux économiques favorables (Le Monde)
  • La Fed n'a pas envie de modifier sa stratégie monétaire (Philippe Waechter)
  • La Banque du Japon fait le minimum (La Tribune)
  • Les taux d’intérêt négatifs ne sont pas un problème sévère en soi (Patrick Artus)


GRAPHIQUE Évolutions de l'indice des prix à la consommation en France (en %)

INSEE__Evolutions_de_l__indice_des_prix_a_la_consommation_France_juillet_2016.png

source : INSEE (2016)

Commerce international


Finance internationale

  • Le capitalisme chinois à la place du capitalisme américain ? (Patrick Artus)
  • Le ralentissement du commerce mondial explique la concurrence non-coopérative par les taux de change (Patrick Artus)


Intégration européenne

  • Le Plan Juncker a-t-il relancé l'investissement européen ? (La Tribune)
  • Le Français Michel Barnier négociera la sortie du Royaume-Uni de l'UE (La Tribune)
  • Le blues du marché unique. Le projet européen s’enlise (The Economist)
  • La concurrence par les coûts se situe entre les pays de la zone euro : qu’attendre alors de l’Europe ? (Patrick Artus)
  • Pour un pays de la zone euro, l’incitation à coordonner ses politiques économiques et à ne pas rechercher un gain non-coopératif de compétitivité est très faible (Patrick Artus)
  • Dans une Union Monétaire, il faut des forces de rappel entre les pays. Elles n’existent pas dans la zone euro (Patrick Artus)
  • “Moins d’Europe” serait catastrophique; mais il faut réfléchir à la nature du “plus d’Europe” (Patrick Artus)
  • Quelle serait la croissance potentielle d’une zone euro fédérale? (Patrick Artus)


Inégalités et justice sociale


Travail, emploi, chômage

  • Le chômage poursuit sa hausse en juin (Le Monde)
  • Quel est le « vrai » chiffre du chômage ? (Alter éco plus)
  • Pourquoi la moitié des chômeurs ne sont pas indemnisés en France (Le Figaro)
  • Tout doucement, le taux de chômage reflue en Espagne (Le Monde)
  • Territoire zéro chômage : les tests pourront bientôt commencer (La Tribune)







lire la précédente revue de presse

samedi 30 juillet 2016

Une idée simple, mais révolutionnaire : l'asymétrie d'information



« Avant 1970, les économistes (…) ne pensaient pas vraiment au rôle de l’information. Sur le marché du travail, par exemple, les manuels supposaient en général que les employeurs connaissent la productivité de leurs travailleurs (ou de leurs candidats à l’embauche) et, grâce à la concurrence, leur versent exactement la valeur de ce qu’ils produisent.

Vous pouvez penser que les études remettant en cause cette conclusion seraient immédiatement célébrées comme une importante avancée. A la fin des années soixante, George Akerlof écrit "The Market for Lemons", un article qui apportait une telle remise en cause et qui permit à son auteur de gagner un prix Nobel quelques décennies plus tard. Pourtant, à l’époque, l’article fut rejeté par trois prestigieuses revues. Akerlof était alors professeur assistant à Berkeley, l’Université de Californie ; il venait seulement de finir sa thèse, au MIT, en 1966. Peut-être en conséquence de cela, l’American Economic Review pensait que les intuitions de son article étaient triviales. La Review of Economic Studiers partagea la même opinion. Le Journal of Political Economy nourrissait l’inquiétude inverse : elle ne digérait pas les implications de l’article. Akerlof, qui est désormais un professeur émérite à Berkeley et qui est marié à Janet Yellen, la présidente de la Réserve fédérale, rappelle la plainte de l’éditeur : "Si cela s’avérait correct, l’économie serait différente".

D’une certaine façon, les éditeurs avaient tous raison. L’idée développée par l’article d’Akerlof, qui fut finalement publié dans le Quarterly Journal of Economics en 1970, était à la fois simple et révolutionnaire. Supposez que les acheteurs sur le marché des voitures d’occasions soient prêts à payer 1.000 dollars pour acheter une bonne voiture, une "pépite", et que les vendeurs soient prêts à en vendre une à un prix légèrement inférieur. Les acheteurs ne sont pas prêts à payer plus de 500 dollars pour acheter une voiture de mauvaise qualité (un tacot, un "lemon"), tandis que les vendeurs sont prêts à en vendre une à un prix de nouveau légèrement inférieur. Si les acheteurs peuvent distinguer les bonnes voitures des mauvaises, les échanges seront florissants. En réalité, les acheteurs peuvent avoir du mal à voir la différence : les rayures peuvent être camouflées, les problèmes de moteur peuvent ne pas s’être encore révélés, même le compteur kilométrique peut être trafiqué.

Pour prendre en compte le risque qu’une voiture soit un lemon, les acheteurs réduisent le prix auquel ils sont prêts à acheter une voiture. Ils sont prêts à payer 750 dollars pour une voiture qu’ils jugeraient avoir autant de chances d’être un lemon qu’une pépite. Mais les vendeurs qui vendent une pépite et le savent peuvent refuser de la vendre à ce prix. Par conséquent, les acheteurs font face à une « sélection adverse » (antisélection) : les seuls vendeurs qui seront prêts à accepter 750 dollars seront ceux qui vendent un lemon et le savent.

Les acheteurs les plus clairvoyants vont prévoir ce problème. Puisqu’ils savent qu’ils se retrouveront au final avec un lemon, ils refusent de payer plus de 500 dollars pour acheter une voiture d’occasion. Les vendeurs de lemons finissent par les vendre au même prix qu’ils les auraient vendu s’il n’y avait pas eu d'ambiguïté. Mais les pépites sont retirées du marché et restent au garage. C’est une tragédie : il y a des acheteurs qui seraient heureux d’avoir une pépite et de la payer à son juste prix, si seulement ils pouvaient être certains de la qualité de la voiture. Cette « asymétrie d’information » entre les acheteurs et les vendeurs tue le marché.

Est-il vrai que vous pouvez gagner un prix Nobel juste pour avoir observé que certaines personnes sur les marchés en savent plus que d’autres ? Ce fut la question qu’un journaliste posa à Michael Spence qui, aux côtés d’Arkerlof et de Joseph Stiglitz, reçu le Nobel en 2001 pour leurs travaux sur l’asymétrie d’information. Son incrédulité était compréhensible. L’article sur le marché des voitures d’occasion n’était même pas une description précise de ce dernier : chaque voiture qui est vendue n’est clairement pas de mauvaise qualité. Et les assureurs savent depuis longtemps que leurs clients peuvent être les meilleurs juges des risques auxquels ils font face et que les personnes les plus enclines à s’assurer sont probablement les paris les plus risqués.

Pourtant cette idée était nouvelle pour les économistes mainstream, qui comprirent rapidement qu’elle rendait plusieurs de leurs modèles obsolètes. De nouvelles avancées suivirent bientôt, comme les chercheurs examinèrent comment le problème d’asymétrie d’information pouvait être résolu. La contribution majeure de Spence fut un article de 1973 appelé "Job Market Signalling" qui se focalisait sur le marché du travail. Les employeurs peuvent avoir du mal à voir quels sont les meilleurs candidats à l’embauche. Spence montre que les meilleurs travailleurs peuvent signaler leurs talents aux entreprises en obtenant (…) des diplômes universitaires. Cela ne marche toutefois que si le signal est crédible : si les travailleurs à faible productivité obtiennent facilement un diplôme, alors ils peuvent se prétendre efficaces. (...)

Le signalement n’est pas la seule façon de surmonter le problème des lemons. Dans un article publié en 1976, Stiglitz et Michael Rothschild ont montré comment les assureurs vont chercher à ce que leurs clients révèlent leur niveau de risque. Il s’agit alors d’offrir des contrats qui n’attirent qu’un seul type de client.

Supposez qu’un assureur automobile fait face à deux types de clients : ceux à haut risque et ceux à faible risqué. Il ne peut distinguer entre les deux types de conducteurs. Seuls ces derniers connaissent leur niveau de risque. Rothschild et Stiglitz ont montré que, sur un marché concurrentiel, les assureurs ne peuvent offrir le même contrat de façon profitable aux deux groupes. S’ils le faisaient, les primes des bons conducteurs subventionneraient les versements aux conducteurs imprudents. Un rival peut alors offrir un contrat avec de moindres primes et une moindre couverture, qui attirerait les conducteurs prudents car les conducteurs risqués préfèrent être pleinement assurés. L’assureur, qui se retrouverait alors avec les mauvais risques, réaliserait des pertes. (…)

L’assureur automobile doit offrir deux contrats, afin d’être sûr que chacun attire seulement les clients pour lesquels il est conçu. Le truc, c’est d’offrir le contrat qui assure pleinement à un prix élevé et un second moins cher, mais option peu chère avec une franchise élevée. Les conducteurs risqués vont rechigner à payer une franchise, puisqu’ils savent qu’ils ont de fortes chances de finir par la payer. Ils vont préférer être pleinement assurés. Les conducteurs prudents vont tolérer une franchise élevée et payer un prix plus faible (…).

La sélection adverse a un cousin. Les assureurs ont longtemps su que les gens qui s’achètent une assurance sont davantage susceptibles de prendre des risques. Quelqu’un qui a assuré son logement va vérifier moins souvent son alarme à incendie ; l’assurance maladie encourage la mauvaise alimentation et l’alcoolisme. Les économistes se sont pour la première frotté à ce phénomène d’aléa moral (ou risque moral) en 1963, lorsque Kenneth Arrow publie un article à son propos.

Le risque moral apparaît quand les incitations ne vont pas. La vieille économie, nota Stiglitz dans le discours qu’il prononça lorsqu’il reçut le prix Nobel, accorde beaucoup d’importance aux incitations, mais avait remarquablement peu de choses à dire à leur propos. Dans un monde complètement transparent, vous n’avez pas à vous inquiéter des incitations de votre partenaire à l’échange, car vous pouvez utiliser un contrat pour spécifier précisément le comportement qu’il doit adopter. C’est lorsque l’information est asymétrique et que vous ne pouvez pas observer ce qu’il fait (est-ce que votre fournisseur utilise des composants de mauvaise qualité ? est-ce que votre salarié tire au flanc ?) que vous devez vous inquiéter de l’alignement des intérêts de chacun.

De tels scénarii posent des problèmes "principal-agent". Comment un principal (comme un dirigeant d’entreprise) peut-il obtenir d’un agent (comme un salarié) qu’il se comporte comme il le désire, lorsqu’il ne peut surveiller tous les agents à la fois ? La façon la plus simple d’être certain qu’un salarié travaille dur est de lui donner une partie ou la totalité du profit. (…)

Mais un travail acharné ne garantit pas toujours le succès : un analyste à un cabinet de consultation peut par exemple faire un travail astronomique pour un projet qui ira pourtant au final à un rival. Donc, une autre option est de verser des "salaires d’efficience". Stiglitz et Carl Shapiro, un autre économiste, ont montré que les entreprises peuvent verser une prime salariale pour s’assurer que les salariés accordent plus de valeur à leur emploi. Cela va les motiver à la tâche, parce qu’ils ne pourront pas trouver un aussi bon salaire dans une autre entreprise s’ils se faisaient prendre en train de flâner et se faisaient licencier. Cette intuition contribue à expliquer une énigme fondamentale en économie : lorsque les travailleurs sont au chômage, mais désirent travailler, pourquoi les salaires ne chutent-ils pas jusqu’à ce que quelqu’un désire les embaucher ? Une réponse est qu’un salaire supérieur au salaire qui équilibrerait le marché joue le rôle de carotte, tandis que le chômage qui en résulte joue le rôle de bâton.

(…) Avant qu’Akerlof et les autres pionniers de l’économie informationnelle ne viennent, la discipline supposait que, sur des marchés concurrentiels, les prix reflètent les coûts marginaux : fixez un prix plus élevé et votre clientèle se tournera vers un concurrent. Mais dans un monde où l’information est asymétrique, "le bon comportement vise à obtenir un surplus sur ce que l’on peut obtenir ailleurs", selon Stiglitz. Le salaire que gagne le travailleur doit être plus élevé que ce qu’il peut obtenir avec un autre emploi, pour éviter qu’il ne tire au flanc ; et les entreprises vont avoir des difficultés à perdre des clients lorsque leur produit est de mauvaise qualité s’ils investissent dans la qualité. Sur les marchés avec une information imparfaite, le prix ne peut être égal au coût marginal.

Le concept d’asymétrie d’information, alors, changea vraiment la discipline. Presque un demi-siècle après que l’article sur les voitures d’occasion ait été rejeté trois fois, ses intuitions demeurent d’une pertinence cruciale pour les économises et à la politique économique. (…) »

The Economist, « Information asymmetry. Secrets and agents », 23 juillet 2016. Traduit par Martin Anota

jeudi 28 juillet 2016

Comprendre l'inflation : une théorie qui ne marche plus




aller plus loin...

« Mécanismes inflationnistes »

« Pourquoi l'inflation est-elle si faible et stable ? »

« Comment expliquer le comportement de l’inflation et de l’activité suite à la Grande Récession ? »

mercredi 27 juillet 2016

Comment défendre l’égalité (sans l’économie du bien-être) ?

« Lorsque j’ai récemment enseigné à la Summer School de la Groningen University, j’ai commencé par la question de la mesure des inégalités en distinguant entre l’école italienne et l’école anglaise, telles qu’elles furent définies en 1921 par Corrado Gini : "Les méthodes des auteurs italiens ne sont pas comparables à celles de Dalton, dans la mesure où leur propos est d’estimer, non les inégalités de bien-être économique, mais les inégalités de revenu et de richesse, indépendamment de toutes les hypothèses relatives par exemple aux relations fonctionnelles entre ces quantités et le bien-être économique ou encore relatives au caractère additif du bien-être économique des individus".

Je me place moi-même dans le camp des "Italiens". (…) La mesure des inégalités de revenu est comme la mesure de tout phénomène naturel ou social. Nous mesurons les inégalités comme nous mesurons la température ou la taille des gens. L’école anglaise (ou welfarist) croit que la mesure des inégalités de revenu est seulement un indicateur pour une mesure d’un phénomène plus fondamental : les inégalités de bien-être (welfare). La variable ultime, selon eux, que nous voulons estimer est le bien-être (ou même le bonheur) et comment il est distribué. Le revenu fournit seulement un raccourci faisable sur le plan empirique.

J’aurais été favorable à cette approche si je savais comment l’utilité individuelle peut être mesurée. Il n’y a pas, je crois, de manière de comparer les utilités de différentes personnes. Nous nous accordons tous pour dire que l’utilité marginale doit être décroissante avec le revenu parce que c’est la fondation de la théorie microéconomique. (Si l’utilité marginale du revenu n’était pas décroissante, nous ne serions pas capables d’expliquer pourquoi les courbes de demande sont décroissantes.) Mais même si nous savons que nos fonctions d’utilité marginale sont décroissantes, nous ne savons pas si mon niveau d’utilité peut, en tout point, être supérieur au vôtre, ou inversement.

La seule façon pour les "welfaristas" de résoudre cette énigme est de supposer que tous les individus ont la même fonction d’utilité. C’est une telle hypothèse irréaliste que personne, je pense, ne songerait à défendre, sauf peut-être ici, où elle est considérée comme un moindre mal qui permet aux "welfaristas" de s’accrocher à leur utilitarisme, pour définir des mesures comme l’indice d’Atkinson et continuer de croire que la véritable chose que nous voulons et (comme ils l’affirment) que nous mesurons sont les inégalités de bien-être entre les individus.

Maintenant, l’approche welfarist continue d’être associée aux politiques en faveur de l’égalité.

Pourquoi ? Parce que si tous les individus ont la même fonction d’utilité, alors la distribution optimale du revenu est telle que tout le monde a le même revenu. Si depuis cet équilibre vous prenez un certain revenu de l’individu A et le donnez à un individu B, la perte d’utilité subie par l’individu A va être plus large que le gain d’utilité obtenu par l’individu B (parce que l’utilité marginale est décroissante) et donc évidemment l’utilité totale va être moindre dans toute situation où le revenu n’est pas pleinement distribué également.

Mes élèves m’ont alors demandé comment je pouvais justifier les craintes relatives aux inégalités si je rejette la conception welfarist qui constitue pourtant le principal véhicule idéologique à travers lequel l’égalité des situations trouve sa justification. (Nous pouvons trouver chez Rawls une alternative contractualiste, non utilitariste. Une deuxième alternative se fonde sur le concept de "capabilités" égales, un proche cousin à celui d’égalité d’opportunités (…), qui a été proposé par Amartya Sen.)

Je leur ai répondu que je justifiais mes craintes quant aux inégalités de revenu sur trois terrains différents. Le premier terrain est instrumental : l’effet sur la croissance économique. Après la période des années quatre-vingt-dix où, en raison du manque de données, nous n’obtenions que des résultats peu concluants sur le lien entre les inégalités et la croissance économique, nous avons ensuite obtenu de plus en plus de preuves empiriques suggérant que les niveaux élevés d’inégalités freinent la hausse du revenu total. Nous sommes capables de montrer cela maintenant parce que nous avons accès à davantage de micro-données et une conception bien plus sophistiquée des inégalités et de la croissance. C’est ce qu’ont notamment montré l’étude réalisée par Sarah Voitchovsky et celle que j’ai réalisée avec Roy van der Weide. Mais cela doit être souligné : si la littérature empirique aboutissait finalement à une conclusion différente, à savoir que les inégalités stimulent la croissance, nous aurions à écarter l’argument instrumental pour justifier la lutte contre les fortes inégalités.

Le deuxième terrain est politique. Dans les sociétés où les sphères économique et politique ne sont pas séparées par une muraille de Chine (et c’est le cas de toutes les sociétés existantes), les inégalités dans la répartition du pouvoir économique suintent et finalement envahissent et conquièrent la sphère politique. Au lieu d’une démocratie où chaque personne compte pour une voix, nous nous retrouvons avec une ploutocratie où, d’une certaine manière, c’est chaque euro qui constitue une voix. Cette issue apparaît inévitable, en particulier dans les sociétés modernes où les campagnes politiques en cours sont extrêmement coûteuses. Mais ce n’était pas très différent dans la Grèce ou la Rome antiques. Si nous considérons que la démocratie, associée à une influence plus ou moins égale de chacun sur les affaires publiques, est une bonne chose, nous devons être en faveur d’une sévère limitation des inégalités de revenu et de patrimoine. Il me semble que l’impact négatif des inégalités sur la démocratie, qui est loin d’être manifeste sur le seul plan théorique, est désormais confirmé empiriquement (comme le démontre notamment Martin Giddens dans son ouvrage Affluence and influence). (...)

Le troisième terrain est philosophique. Comme Rawls l’a affirmé, chaque écart par rapport à une distribution inégale des ressources doit être justifié par un appel à un principe supérieur. Parce que nous sommes tous des individus égaux (comme le déclarent la Déclaration Universelle des Droits de l’Homme ou Dieu), nous devons tous avoir des chances approximativement égales de développer nos compétences et d’avoir "une vie agréable". Parce que les inégalités de revenu se traduisent presque directement en inégalités d’opportunités, elles remettent en cause l’égalité fondamentale de tous les êtres humains. (…) Nous avons aussi un nombre croissant d’études qui montrent la corrélation positive entre les inégalités de revenu et les inégalités des chances.

Les ménages avec un plus grand revenu font en sorte que leurs enfants aient de meilleures chances (ce qui remet en cause l’égalité fondamentale dont nous parlons), ce qui leur permet de s’assurer que cette nouvelle inégalité des chances se convertisse par de plus hauts revenus, pour eux-mêmes et pour leurs propres enfants. Ainsi, une boucle rétroactive positive est à l’œuvre et maintient les inégalités dans l’accès aux opportunités.

En outre, je peux également rajouter que les inégalités d’opportunités affectent négativement la croissance économique (donc nous avons maintenant un effet négatif allant de mon troisième terrain vers le premier), ce qui amène à rejeter les inégalités de situations sur deux terrains : (1) celles-ci vont à l’encontre de l’égalité humaine fondamentale et (2) elles réduisent l’ampleur des améliorations matérielles pour notre société.

Ma thèse, si je dois la répéter, est la suivante : vous pouvez rejeter le "welfarism", affirmer que la comparaison interpersonnelle des utilités est impossible et toujours penser que les situations économiques doivent être rendues plus égales, que les inégalités doivent donc être limitées, afin qu’elles n’affectent pas fortement les opportunités, pour qu’elles ne freinent pas la croissance, ni ne sapent pas la démocratie. N’est-ce pas suffisant ? »

Branko Milanovic, « In defense of equality (without welfare economics) », in globalinequality (blog), 2 juillet 2016. Traduit par Martin Anota

dimanche 24 juillet 2016

Les liens de la semaine

Autour du terrorisme

  • Terrorisme : le gouvernement n’a-t-il vraiment rien fait depuis deux ans ? (Le Monde)
  • Attentat de Nice : "Les adolescents peuvent se radicaliser rapidement. Pas les adultes" (Nouvel Obs)
  • Attaque en Allemagne : « Le danger, c’est que ces loups solitaires peuvent faire des émules » (Le Monde)
  • La couverture médiatique d'un attentat terroriste à l’étranger, une affaire de PIB (Slate)
  • Juger d’anciens djihadistes (La Vie des Idées)


Zoom sur la Turquie et le putsch manqué


  • Les putschistes ont ouvert un boulevard à Erdogan (Le Monde)
  • "Erdogan a les mains libres pour instaurer un régime autoritaire" (Le Monde)
  • Turquie, la crise permanente comme outil de domination (The Conversation)
  • #entretien "Un jour, la Turquie sortira de ce système autoritaire" (Pinar Selek)
  • Turquie : une économie très dépendante de l'extérieur (La Tribune)


Croissance, fluctuations et crises

  • Reprise : oui, ça va mieux… (Alter éco plus)
  • Conjoncture : pourquoi peut-on toujours dire que « ça va mieux » (Le Monde)
  • L'activité économique se contracte brusquement au Royaume-Uni après le Brexit (La Tribune)
  • Le FMI revoit ses prévisions de croissance à la baisse suite au Brexit et met en garde contre les risques (FMI)
  • Incertitude au lendemain du référendum au Royaume-Uni (FMI)
  • L'année 2016, acmé du quinquennat de François Hollande ? (La Tribune)
  • Le poids des émotions dans l'économie (Robert Shiller)


Les effets du progrès technique

  • Les répercussions du progrès technique sur la croissance, la répartition des revenus et l’emploi (D'un champ l'autre)
  • L'effet de l'automatisation sur l'emploi : ce qu'on sait et ce qu'on ignore (France Stratégie)
  • L'industrie du futur détruira-t-elle vraiment des emplois ? (La Tribune)


Environnement et ressources naturelles

  • Le lien entre prix du pétrole et croissance mondiale : les temps ont-ils changé ? (D'un champ l'autre)
  • En juin 2016, le prix du pétrole ralentit (INSEE)
  • Climat : record à la mi-2016 (Le Monde)
  • «La rapidité du réchauffement actuel est sans équivalent depuis au moins 8 000 ans» (Libération)
  • Biodiversité, combien de millions d’espèces ? (The Conversation)
  • Nourrir l’humanité sans détruire de nouvelles forêts (Le Monde)
  • Un an après la loi, où en est la France de sa transition énergétique ? (Le Monde)


GRAPHIQUE Prix du baril de pétrole Brent

INSEE__prix_du_baril_de_petrole_Brent_en_juin_2016.png

source : INSEE (2016)

Instabilité financière

  • Crise bancaire : l’Italie sera-t-elle la prochaine ? (Le Monde)
  • Etats-Unis : l'endettement des étudiants bénéfique pour l'économie ? (La Tribune)
  • En Suède, cette bulle immobilière qui menace... (La Tribune)


Politique économique

  • Le FMI plaide pour une relance urgente de la dépense publique (La Tribune)
  • Face aux incertitudes créées par le Brexit, Pékin prône une plus grande coopération économique (Le Monde)
  • Les grandes économies mondiales s’estiment prêtes à encaisser le Brexit (Le Monde)
  • Londres pourrait mettre en place un plan de relance pour enrayer l'impact du Brexit (La Tribune)
  • Le CICE, un scandale d'Etat ? (La Tribune)
  • Le CICE, un dispositif trop complexe et mal ciblé (Le Monde)
  • Fiscalité : le coût exorbitant et ubuesque de la collecte des impôts (La Tribune)
  • Fiscalité : la vision de l'Etat gravement mise en cause (La Tribune)
  • Comment Bruxelles décide des amendes infligées aux entreprises (Le Monde)


Politique monétaire


Commerce international

  • Pas de printemps pour le commerce mondial (CEPII)
  • Dans l'économie marchande, un salarié sur huit travaille dans une firme sous contrôle étranger (INSEE)
  • Les nouvelles régions, championnes à l'export ? (La Tribune)


GRAPHIQUE Les premiers pays d'origine des emplois française sous contrôle étranger en 2013 : un contrôle européen et américain

INSEE__Les_premiers_pays_d__origine_des_emplois_francais_sous_controle_etranger_en_2013.png
source : INSEE (2016)

Intégration européenne

  • Grèce : la logique des créanciers, jusqu'au bout de l'absurde (La Tribune)
  • Brexit: un divorce programmé depuis l'origine (Libération)


Inégalités


Alter_eco_plus__les_enfants_en_premiere_ligne_face_a_la_pauvrete.png

source : Alter éco plus (2016)

Travail, emploi, chômage

  • En juin, le secteur privé aurait créé... 500 emplois (La Tribune)
  • Temps de travail : Les Français ne se la coulent pas douce (Alter éco plus)
  • Le feuilleton de la Loi Travail est terminé (La Tribune)
  • Après la Loi Travail, le grand vide ? (La Tribune)
  • Dix chiffres pour résumer le feuilleton de la loi travail (Le Monde)
  • Les salaires dans la fonction publique d’État. En 2014, le salaire net moyen baisse de 0,2 % en euros constants (INSEE)
  • Quel premier bilan tirer du salaire minimum allemand ? (OFCE)
  • Les flexi-jobs, la précarité à la sauce belge (Alter éco plus)
  • L’ouverture des magasins le dimanche dans l’UE crée-t-elle de l’emploi ? (The Conversation)


Alter_eco_plus__les_non-salaries_et_salaries_a_temps_pleins_francais_travaillent_plus_que_moyenne_europeenne.png

source : Alter éco plus (2016)

Migration

  • Les six plus grandes puissances économiques accueillent moins de 9 % des réfugiés (Oxfam)
  • Moins de 9 % des réfugiés accueillis dans les 6 pays les plus riches (Le Monde)
  • L'échec de la libre circulation (Project Syndicate)
  • Déserter la bataille pour la Grande-Bretagne (Project Syndicate)





lire la précédente revue de presse

jeudi 21 juillet 2016

Le Brexit, c'est quoi la suite ?

- page 1 de 52