Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

mercredi 21 février 2018

Economie olympique

« (…) Je dois avouer que l’opportunité d’accueillir les Jeux olympiques pour une ville est loin d'être démontrée sur le plan économique. On peut en trouver une belle illustration avec le nouveau stade de 100 millions de dollars des cérémonies d’ouverture qui ne sera utilisé que quatre fois au total (pour l’ouverture et la fermeture des Jeux olympiques d’hiver, puis pour l’ouverture et la fermeture des Jeux paralympiques du mois prochain) et qui sera ensuite démoli. Andrew Zimbalist se penche sur cette question en détails dans son article "Tarnished Gold: Popping the Olympics Bubb", paru dans le numéro du premier trimestre 2018 de la Milken Institute Review.

La construction de nouveaux bâtiments (ou la profonde rénovation de ceux qui existent déjà) représente un coût significatif pour les Jeux. Zimbalist, note concernant les précédents Jeux d’hiver de 2014, que "le CIO a accepté une candidature bien audacieuse de Sotchi pour les Jeux d’Hiver, une ville où presque aucun des sites ou infrastructures nécessaires n’était en place. Ils devinrent les Jeux les plus chers de l’histoire, avec la Russie déboursant entre 50 milliards et 67 milliards de dollars, même si l'on peut douter que la totalité de cette somme soit effectivement allée dans la construction".

Comme il est devenu parfaitement clair que les recettes qu’une ville hôte perçoit directement des Jeux olympiques (par exemple, les recettes liées aux tickets et aux droits télévisuels) ne couvrent généralement qu’environ un tiers des coûts d’accueil, moins de villes se portent candidates pour accueillir les Jeux. Deux villes se sont portées candidates pour les Jeux d’hiver 2022, en l’occurrence Pékin en Chine et Almaty au Kazakhstan. Pékin "a gagné" comme le décrit Zimbalist :

"Le comité organisateur de Pékin a présenté sa candidature au CIO en notant que la ville utiliserait certains sites hérités des Jeux olympiques d’été 2008. Mais la Chine est allée dans le sens du penchant du CIO pour la comptabilité créative en excluant le coût des lignes ferroviaires à haute vitesse qui relieront Pékin aux zones de ski de piste et de ski de fond (éloignées respectivement de 54 miles et de 118 miles de la capitale). Ce projet va coûter environ 5 milliards de dollars et n’aura que peu d’utilité pour la région après la fin des Jeux."

"Sont aussi exclues du budget de Pékin les dépenses considérables finançant les nouvelles dérivations d’eau et les programmes de dessalement nécessaires pour accueillir les Jeux d’hiver des villes du nord de Chine en manque d’eau (et de neige). Le nord de la Chine dispose de 25 % de l’ensemble des ressources d’eau du pays alors qu’il héberge presque 50 % de la population. Par conséquent, la Chine a lancé un programme de dérivation d’eau de 80 milliards de dollars à partir du sud avant les Jeux d’été de 2008."

"Mais la disponibilité en eau du nord reste toujours inférieure à ce que les Nations Unies considèrent être le niveau critique pour la santé ; ne parlons même pas de ce qui est nécessaire pour les festivités olympiques. Zhangjiakou, le site de la compétition pour les événements associés au ski nordique, reçoit moins de huit pouces de neige par an. Yanqing, le site des événements associés au ski alpin, reçoit moins de 15 pouces de précipitation par an."

"Les deux zones vont donc nécessiter beaucoup d’eau pour faire de la neige artificielle. Mais même si la Chine réussit à finir les infrastructures nécessaires pour la dérivation des eaux, cela reviendra à déshabiller Pierre pour habiller Paul : Pékin, Zhangjiakou et Yanqing se situent dans l’une des régions agricoles les plus importantes de Chine, produisant du sorgho, du maïs, du blé d’hiver, des légumes et du coton."

"En outre, le gouvernement compte apparemment sur la valeur durable des constructions des Jeux d’hiver, en créant des stations de ski permanentes dans les montagnes bordant la Mongolie intérieure et le Désert de Gobi. Si les stations de ski survivent, seuls les résidents les plus riches de Chine pourront se permettre d’y aller, tandis que la production alimentaire (et les revenus des éleveurs) en sera affectée."

"Un autre problème avec Pékin 2022 est que l’hiver est l’une des pires saisons pour la pollution de l’air dans cette ville horriblement polluée. La déforestation des montagnes du nord nécessaire pour les infrastructures des Jeux ne va qu’aggraver le problème."

"Au vu des complications suscitées par l’accueil des Jeux d’hiver dans le nord de la Chine, on peut se demander comment Pékin a pu être choisie. La réponse est simple : en raison de la perspective de gros déficits, la seule autre ville candidate était Almaty, capitale du Kazakhstan, le pays aux amples ressources pétrolières qui est dirigée avec une main de fer par le kleptocrate Noursoultan Nazarbaïev depuis l’indépendance en 1991."

Zimbalist n’offre pas d’estimations parallèles pour les Jeux de PyeongChang. Selon l’estimation standard qui revient souvent, la Corée du Sud va dépenser environ 13 milliards de dollars sur les installations pour les Jeux d’hiver, mais cette estimation s’avère trop faible. Ce montant n’inclut pas les infrastructures comme les lignes ferroviaires à haute vitesse sur les 80 miles séparant Seoul et PyeongChang. Il y a quelques années, les analystes de l’Institut de Recherche Hyundai estimèrent ces coûts additionnels d’infrastructures à 43,8 milliards de dollars.

Les arguments économiques en faveur de l’accueil des Jeux olympiques dépendent étroitement des recettes indirectes : les emplois de construction de court terme avant les Jeux, les dépenses des touristes durant les Jeux, les infrastructures et la reconnaissance qui peuvent durer après les Jeux. Si l’on jette un coup d’œil aux précédents Jeux, il apparaît que de tels bénéfices sont assez incertains. Le scénario économique le plus optimiste pour les Jeux de PyeongChang serait que ceux-ci soient aussi réussis que les Jeux d’hiver de Salt Lake City de 2002. Cela s’explique par le fait que cette zone était une destination attractive et accessible pour les sports d’hiver, mais quelque peu sous-apprécié avant les Jeux. Les Jeux ont accru sa visibilité et stimulé son tourisme à long terme. D’ailleurs, Salt Lake City vient juste d’annoncer qu’elle serait intéressée à l’idée d’accueillir de nouveau les Jeux en 2026 ou 2030.

Cependant, d’autres villes qui ont accueilli les Jeux d’hiver ces dernières décennies n’ont pas autant réussi : soit les destinations étaient déjà très populaires pour les activités d’hiver, auquel cas elles n’ont pas connu de stimulation de ces activités touristiques à long terme, soit elles n’ont tout simplement jamais connu de forte activité. Rappelons la liste des villes qui ont accueilli les dix derniers Jeux d’hiver : Sotchi (2014), Vancouver (2010), Turin (2006), Salt Lake City (2002), Nagano (1998), Lillehammer (1994), Albertville (1992), Calgary (1988), Sarajevo (1984), Lake Placid (1980).

Pour les Jeux de PyeongChang, les ventes de tickets n’ont pas été terribles. Les audiences à la télévision devraient être bonnes, mais avec (…) les gens les visionnant via d’autres médias, elles risquent de ne pas être fabuleuses. Les dépenses sur les installations semblent avoir été gardées sous contrôle, bien qu’il puisse être possible que les détails sur les surcoûts n’aient pas encore filtré. Même le CIO, qui n’est pas connu pour sa parcimonie, a signalé publiquement que plusieurs des nouveaux sites risquent de ne pas être utilisés après les Jeux.

Les dividendes économiques dépendent au final de la capacité de PyeongChang à devenir une destination beaucoup plus importante pour les activités touristiques d’hiver dans les années qui suivront les Jeux. D’un côté, PyeongChang a aujourd’hui une petite population (d’environ 44.000 personnes) et sa vie nocturne, ses restaurants et ses hôtels sont par conséquent bien limités. Cette ville se situe aussi à environ 40 miles de la zone démilitarisée séparant la Corée du Nord de la Corée du Sud, ce qui peut désinciter les touristes à oser y faire des réservations. D’un autre côté, les niveaux de revenu ont rapidement augmenté en Asie de l’Est, en particulier en Chine. La demande pour les destinations touristiques se développe. Il y a déjà plusieurs stations de ski sud-coréennes qui marchent bien. PyeongChang va avoir des coûts économiques excédant de loin les bénéfices. Mais il y a une chance raisonnable pour que ce soit pour elle plus rentable que les récents Jeux d’Hiver et elle semble avoir été plus sage dans son analyse coûts-bénéfices que son prédécesseur (Sotchi) ou son successeur (Pékin). (…) »

Timothy Taylor, « Olympic Economics », in Conversable Economist (blog), 9 février 2018. Traduit par Martin Anota

lundi 19 février 2018

Quelle sera l’efficacité de la relance de Trump ?

« Lorsque se généralisait l’austérité au milieu de la Grande Récession, certains d’entre nous ont passé beaucoup de temps à réfléchir et à écrire à propos des multiplicateurs budgétaires. Après avoir lu Neil Irwin sur la nouvelle approche budgétaire adoptée par les Républicains, je n’ai pu m’empêcher de replonger dans cet ancien débat pour imaginer quel en sera l’impact économique à court terme. En l’occurrence, à quel genre d’effet multiplicateur pouvons-nous nous attendre ?

Les preuves empiriques les plus convaincantes sur les multiplicateurs budgétaires sont, selon moi, celles qui sont tirées des expériences naturelles : des situations pour lesquelles les données politiques historiques indiquent que les gouvernements ont entrepris d’amples modifications du montant des impôts ou des dépenses publiques, ce qui nous permet de voir les effets de ces chocs budgétaires sur la croissance relativement à ce que l’on s’attendait précédemment. (Les tentatives utilisant des techniques statistiques sophistiquées pour extraire les chocs budgétaires se sont révélées être bien moins performantes.)

Nous pouvons trouver beaucoup de ces travaux du côté du FMI. En 2010, le FMI a publié un rapport sur les politiques d’austérité (le chapitre 3), qui répliquait à ceux qui croyaient aux "austérités expansionnistes", en utilisant les données historiques pour évaluer l’impact des plans d’austérité adoptés par le passé. Cette analyse a suggéré un multiplicateur d’environ 0,5 : une réduction des dépenses équivalente à 1 point de PIB aurait tendance à réduire la production d’environ un demi-point de pourcentage.

Mais les plans d’austérité ont souvent été entrepris par le passé dans des conditions monétaires normales, c’est-à-dire lorsque les banques centrales pouvaient compenser (et compensaient effectivement) les effets de la contraction budgétaire sur l’activité en réduisant leurs taux d’intérêt. A l’inverse, l’austérité qui a été adoptée après 2009 l’a été dans des pays où les taux d’intérêt étaient déjà à zéro et ne pouvaient donc pas baisser davantage. Vous vous attendriez à ce que le multiplicateur budgétaire soit plus élevé dans ces conditions et, effectivement, plusieurs études (notamment celle très influence de Blanchard et Leigh) ont décelé un multiplicateur d’environ 1,5, c’est-à-dire trois fois plus important que l’estimation précédente. (Nakamura et Steinsson ont abouti à un résultat similaire en utilisant ingénieusement les données régionales relatives aux dépenses de défense aux Etats-Unis pour estimer le multiplicateur.)

Aujourd’hui, le gouvernement américain est sur le point d’adopter une relance budgétaire avec des réductions d’impôts et des hausses de dépenses publiques dans une économie où le chômage atteint déjà les 4 % et où la banque centrale relève déjà ses taux pour contenir une potentielle inflation. Autrement dit, nous sommes dans des conditions monétaires normales, si bien qu’on peut s’attendre à un multiplicateur budgétaire assez faible.

J’ai eu du mal à trouver quelle serait l’ampleur exacte de cette relance, mais il semble qu’elle représenterait l’équivalent de 2 % du PIB pour l’année fiscale 2019. Avec un multiplicateur de 0,5, cela ajouterait 1 % à la croissance.

Pour autant, je pense que cette estimation est optimiste. D’une part, l’impact exact des réductions d’impôts des entreprises (qui constituent l’essentiel de la relance) sur les dépenses reste bien imprécis. En outre, le chômage est de seulement 4 % ; selon la loi d’Okun, la relation habituelle entre la croissance et les variations du chômage, un supplément de croissance de 1 % ramènerait le chômage à 3,5 %, ce qui est très faible au regard des normes historiques, si bien que la Fed risque de réagir agressivement à cette relance.

Donc, nous risquons d’ajouter moins d’un pourcent, peut-être même encore moins, à la croissance. Ce n’est pas rien, mais ce n’est pas grand-chose. »

Paul Krugman, « How big a bang for Trump’s buck? », 10 février 2018. Traduit par Martin Anota

samedi 17 février 2018

Est-ce que les déficits de Trump importent ?

« Est-ce que les Démocrates doivent se plaindre des amples déficits que Trump et les Républicains sont en train de creuser ? Ou est-ce que cela accréditerait le discours des Républicains qui faisait apparaître la relance de 2009 comme inadéquate et justifia l’austérité des années suivantes ?

La réponse que donne l’économie orthodoxe est simple. Au cours d’une récession, lorsque les taux d’intérêt ont atteint leur borne inférieure (1), vous ne devez pas vous inquiéter du déficit et vous devez ignorer ceux qui s’en inquiètent. Les déficits doivent être suffisamment amples pour permettre à l’économie d’amorcer sa reprise. La relance budgétaire doit être maintenue tant que les banques centrales n’estiment pas nécessaire de relever les taux d’intérêt au-dessus de leur borne inférieure. Les politiciens ont échoué à suivre ce conseil durant la dernière récession.

A l’inverse, quand l’économie n’est pas en récession et que les taux d’intérêt sont parfaitement capables de contrôler la demande agrégée, alors des déficits suffisamment élevés pour accroître la dette publique peuvent très bien constituer un problème. Pour diverses raisons, et notamment le risque d’une récession, il vaut mieux avoir des déficits à un niveau qui réduit graduellement le ratio dette publique sur PIB, à moins que vous ayez sinon une bonne raison de faire le contraire.

Il y a plusieurs raisons pourquoi, en-dehors d’une récession, il peut être mauvais pour l’économie de creuser des déficits soutenus qui accroîtraient régulièrement le ratio dette publique sur PIB, mais je vais me contenter d’en exposer la plus évidente. Pour un niveau donné des dépenses publiques, l’intérêt sur la dette publique doit provenir des taxes. Plus la dette publique est importante, plus les impôts seront élevés. C’est un problème parce qu’une pression fiscale élevée désinciterait les gens à travailler et qu’elle serait aussi injuste d’un point de vue intergénérationnel.

Ce dernier point est évident si vous y pensez. La génération actuelle peut abolir les impôts et financer toutes les dépenses, notamment le service de la dette, en empruntant davantage. Cela ne peut continuer indéfiniment, donc à un certain moment les impôts doivent augmenter. Toute une génération a évité de payer des impôts, mais au prix d’un surcroît d’impôts pour les générations suivantes.

Par conséquent, à moins qu’il y ait une bonne raison comme une récession (2), un gouvernement responsable ne va pas projeter de soutenir un déficit à un moment où il accroît le ratio dette publique sur PIB. Le problème est qu’il est très tentant pour un gouvernement de ne pas être responsable. L’actuel gouvernement américain, qui est essentiellement une ploutocratie, veut par-dessus tout réduire les impôts pour les très riches et s’il le fait sans accroître en même temps les impôts payés par d’autres personnes, c’est-à-dire en creusant un déficit, il pense qu’il peut s’en sortir. Les Démocrates ont toutes les raisons de dire que c’est irresponsable, bien qu’ils doivent bien sûr souligner avant tout que les dernières personnes qui ont besoin d’une baisse d’impôt sont les très riches.

Malheureusement, être responsable peut sembler plutôt terne et ennuyeux, donc il peut être tentant d’exagérer les choses en prédisant qu’un désastre surviendra si les déficits augmentent. Ce n’est pas une bonne stratégie, parce que vous criez au loup. D’amples déficits sont comme la boulimie. Si vous y avez recours une ou deux fois, vous allez survivre. Si vous vous y adonnez chaque jour, vous allez mourir jeune. La seule différence avec la boulimie est qu’avec les déficits, ce n’est pas vous qui en subissez les conséquences, mais vos enfants.

Voilà pour l’économie orthodoxe. Que dire à propos de la modern monetary theory (MMT), qui suggère souvent que les déficits n’importent pas ? C’est erroné : ce que dit en fait la MMT est que l’inflation doit déterminer ce que le déficit doit être. Si l’inflation semble rester sous la cible, vous pouvez et devez avoir un plus large déficit et vice versa. C’est parce qu’ils pensent que la banque centrale, en changeant les taux d’intérêt pour contrôler l’inflation, gâche son temps, parce qu’ils croient que les taux n’ont pas d’impact prévisible sur la demande et l’inflation. Si c’était vrai, alors même les économistes orthodoxes conviendront que le déficit doit être à un tel niveau qu’il permette de maintenir l’inflation à la cible. La différence entre la MMT et l’orthodoxie est si la banque centrale gâche ou non son temps en cherchant à contrôler l’inflation.

Dans une mesure importante, qu’importe la perspective que vous adoptez, réfléchir à la politique de stabilisation ou aux déficits de long terme peut être assez embrouillé lorsque cela touche aux réductions d’impôts des Républicains. La raison pour laquelle les Républicains financent principalement les réductions d’impôts accordées aux plus riches en empruntant est que cela semble ne rien coûter à personne. Si les impôts n’augmentent pour personne, selon ce raisonnement, pourquoi devrions-nous nous inquiéter si les riches sont encore plus riches ? (…) Il y a deux possibilités. La première est que, s’il est possible de réduire de façon permanente certains impôts sans en accroître d’autres, ni réduire les dépenses, pourquoi la réduction d’impôt ne devrait-elle pas être accordée à ceux qui en ont besoin plutôt qu’à ceux qui n’en ont pas besoin ? La seconde possibilité, plus probable, est que ce n’est pas soutenable, si bien que, dans ce cas, à un certain moment les impôts payés par les gens ordinaires vont s’accroître ou les dépenses dont profitent ces derniers seront réduites pour rembourser les réductions d’impôts qui ont été accordées aux riches. Dans tous les cas, les gens ordinaires y perdent. Nous focaliser sur les déficits ou l’inflation nous détourne juste de la vérité.

(1) Il y a borne inférieure lorsque la banque centrale pense que les baisses de taux d’intérêt deviennent ou sont proches de devenir un instrument imprévisible et par conséquent inefficace.

(2) Un désastre naturel plutôt qu’un désastre provoqué par l’Homme peut justifier un creusement des déficits. L’investissement public sur les infrastructures à haut rendement en est une autre raison. »

Simon Wren-Lewis, « Do Trump’s deficits matter? », in Mainly Macro (blog), 16 février 2018. Traduit par Martin Anota

jeudi 15 février 2018

Quelques notes sur la reprise européenne

« Ici, dans le monde anglophone, la plupart des économistes se sont beaucoup focalisés sur l’économie américaine post-Trump et, dans une moindre mesure, sur l’économie britannique post-Brexit. Mais, de temps en temps, nous jetons un coup d’œil au-delà. Je vais revenir ici sur un grand récit dont on entend peu parler ces derniers temps, du moins aux Etats-Unis : la forte reprise qui s’est finalement amorcée en Europe.

Pendant des années, la zone euro a connu de bien piètres performances relativement aux Etats-Unis : alors que l’économie américaine a durablement renoué avec la croissance fin 2009, l’Europe, frappée par les crises de la dette et par les problèmes de désalignements des coûts entre ses pays-membres, a continué de souffrir jusqu’à 2013. L’Allemagne, bien sûr, a continué de réaliser de bonnes performances, en grande partie parce que son économie a été soutenue par d’amples excédents commerciaux, et ce largement aux dépens de ses voisins.

Depuis 2013, cependant, l’Europe a connu une croissance significative, avec une croissance plus rapide dans les zones qui avaient été les plus durement touchées par la crise de la zone euro (sauf la Grèce), en particulier en Espagne :

GRAPHIQUE 1 PIB réel (en indices, base 100 en 2007)

Paul_Krugman__croissance_PIB_zone_euro_Allemagne_Espagne.png

Donc, que s’est-il passé en Europe ? Les choses se sont améliorées avec une poignée de mots de Mario Draghi : "tout ce qui est nécessaire". La simple promesse de la BCE d’acheter des titres publics si nécessaire mit fin presque instantanément à la panique qui ravageait les marchés obligataires de l’Europe du Sud, en réduisant fortement la prime de risque vis-à-vis de l’Allemagne et en préparant le terrain pour la croissance :

GRAPHIQUE 2 Rendements obligataires à dix ans (en %)

Paul_Krugman__rendements_obligataires_10_ans_Espagne_Allemagne.png

L’autre chose qui a joué, c’est la dévaluation interne, c’est-à-dire la déflation relative mise en œuvre par les pays qui avaient souffert d’une surévaluation avec des afflux massifs de capitaux et l’inflation durant les années d’avant-crise. L’Espagne, en particulier, a graduellement réduit ses coûts du travail relativement à ceux de la zone euro dans son ensemble :

GRAPHIQUE 3 Coûts unitaires du travail (en indices, base 100 en 1999)

Krugman__couts_unitaires_du_travail_zone_euro_Espagne_Allemagne.png

Cela a alimenté une forte expansion des exportations, en particulier d’automobiles.

Donc tout est bien qui finit bien ? Non. L’Europe du Sud a payé un lourd tribut durant les années de crise. Le fait que la dévaluation interne ait finalement marché, après plusieurs années de chômage élevé, n'est ni une surprise, ni une justification de la grande souffrance que ces pays se sont infligée. S’il y a quelque chose de surprenant, c’est sur le plan politique : la volonté des élites politiques de payer ce prix plutôt que d’en finir avec l’euro.

Mais il est important d’avoir à l’esprit que l’Europe de 2018 ne ressemble plus à l’Europe de 2013. Pour l’instant du moins, l’Europe est redevenue un système économique fonctionnel. »

Paul Krugman, « Notes on European recovery », 11 février 2018. Traduit par Martin Anota

lundi 12 février 2018

Autour de la récente chute des cours boursiers

« Les valeurs boursières ont chuté la semaine dernière, ce qui a amené beaucoup à se poser des questions et suscité des débats, notamment à propos des causes sous-jacentes. Nous passons en revue les avis des économistes sur la question...

John Cochrane a publié un long billet visant à expliquer les fluctuations boursières, où il examine en profondeur les prix d’actifs, le ratio cours sur dividende, la prime de risque et la volatilité. La question qui se pose est la suivante : est-ce que les taux d'intérêt réels de long terme augmentent enfin (et reviennent à ce qui rapproche de la norme historique) et, si oui, pourquoi ? La bonne nouvelle, affirme Cochrane, est que nous arrivons dans une période de plus forte croissance. Cela augmenterait la croissance réelle, avec une petite baisse des cours boursiers, mais avec aussi des rendements boursiers plus élevés et des rendements obligataires en hausse. Il y a aussi une mauvaise nouvelle : après avoir voté une réduction d’impôts qui va creuser les déficits (…), les meneurs du Congrès viennent de se mettre d’accord pour accroître les dépenses publiques de 200 milliards de dollars. Cochrane affirme qu’à un certain moment les marchés obligataires disent "non" et que les taux réels augmentent parce que la prime de risque augmente. La bonne nouvelle nous amène à anticiper une certaine inflation si l'on croit en la courbe de Phillips ; avec la mauvaise nouvelle, on peut s'attendre à une stagflation en raison de la situation budgétaire.

Tyler Cowen estime que le déclin des prix d’actifs peut être une bonne chose (...). Il affirme que ce niveau élevé des prix d’actifs reflète une réalité de la création de richesses, c’est-à-dire le fait qu’il y ait un déséquilibre entre la richesse mondiale et les moyens sûrs de transférer cette richesse dans le futur. Les marchés boursiers de Chine et de Russie ne sont pas sûrs et pas très bien développés et plusieurs autres pays émergents, comme la Turquie et le Brésil, ont été affaiblis par l’incertitude et les désordres politiques. Donc, en termes relatifs, les actifs de haute qualité, fortement liquides et habituellement sûrs sont devenus chers et nous nous retrouvons avec des price-earning ratios particulièrement élevés et des rendements négatifs sur les titres publics sûrs. Comme les rapports positifs se multiplient concernant l’économie américaine, les actifs sûrs peuvent devenir moins importants en tant que réserves de valeur relativement sûres et donc leur prix peut chuter. Cette dynamique des prix ne traduit pas forcément la présence de bulles mais, dans un monde où la richesse est créée plus rapidement que ne s’améliorent les institutions, elle peut signaler que la prime de risque est peut-être plus importante qu’on ne le pense.

Paul Krugman dit que, d’un côté, nous ne devrions pas supposer qu’il y a une bonne raison à l’origine de la chute du marché ; quand les cours boursiers se sont effondrés en 1987, il s’agissait d’une panique auto-réalisatrice. D’un autre côté, nous ne devons pas non plus supposer que la chute des cours boursiers nous dise grand-chose à propos des perspectives économiques futures ; le krach de 1987, par exemple, a été suivi par une croissance solide. Pourtant, les turbulences sur le marché doit nous amener à nous pencher plus sérieusement sur les perspectives économiques. S’il y a une nouvelle derrière la chute, c’est bien la publication du dernier rapport sur l’emploi, qui a montré une hausse, certes significative, mais pas énorme, des salaires. Krugman affirme que c’est une bonne nouvelle (elle suggère en effet que l’économie américaine est proche du plein emploi), mais cela signifie aussi que la croissance américaine ne pourra plus venir du retour des chômeurs à l’emploi. Il affirme que l’économie américaine risque certainement de voir sa croissance ralentir et que les analyses disponibles suggèrent que la croissance au cours de la prochaine décennie tournera autour de 1,5 % par an, soit la moitié de ce qu’avait promis Trump.

Matthew Klein, du Financial Times, se penche sur la crainte des marchés qu’une accélération de la croissance des salaires alimente l’inflation des prix à la consommation ou, tout du moins, que la Fed réagisse à une telle perspective en resserrant sa politique monétaire. Il affirme que les derniers chiffres ne valident pas pour l’heure ce que croient les participants du marché. Si l’on prend une moyenne sur six mois, il semble que la croissance des salaires ait ralenti depuis la seconde moitié de 2016. Il y a aussi des raisons qui nous amènent à douter que cette croissance des salaires puisse se traduire par une hausse des prix à la consommation : en général, ce sont surtout les personnes à faibles revenus qui tendent à davantage dépenser et à moins épargner, donc ceux qui s’inquiètent qu’une hausse des salaires puisse stimuler le pouvoir d’achat des consommateurs et éroder les marges doivent se focaliser sur les secteurs à faibles rémunérations, or la croissance salariale y a ralenti. Klein souligne aussi l’importance du secteur financier au regard de la croissance salariale. Il estime que ce serait ironique si les agents financiers se convainquaient de vendre leurs actions en raison de la publication d’une unique donnée, en l’occurrence une donnée qui a été perturbée par la hausse agressive de leurs propres rémunérations, une hausse qu’ils ont justifié par l’évolution du marché, elle-même en partie justifiée par la stabilité de l’inflation.

Stephen Williamson (…) pense qu’il n’y a pas réellement de signe d’excès inflationniste dans les données. Il y a, par contre, des signes que l’inflation et l’inflation anticipée sont très proches de ce qui est cohérent avec une cible d’inflation de 2 %, pour un futur indéfini. Il pense qu’il peut y avoir un risque en termes de décisions de politique monétaire, néanmoins, comme la Fed est aussi proche (…) d’atteindre ses objectifs. L’inflation est arrivée récemment, lorsque les taux d’intérêt nominaux ont augmenté. C’est cohérent avec la logique néo-fisherienne, celle selon laquelle il faut augmenter le taux d’intérêt nominal si l’on veut davantage d’inflation. Bien sûr, l’inflation était faible en 2014-2015 en partie en raison d’une chute du prix du pétrole brut. Néanmoins, certains ont affirmé que l’inflation ralentirait en conséquence des hausses du taux directeur de la Fed et ce n’est pas ce qui s’est passé. Le problème est que la Fed pourrait continuer d’accroître les taux d’intérêt alors même que ce n’est pas nécessaire, ce qui va amener l’inflation à dépasser sa cible, ce qui incitera en retour la Fed à relever davantage ses taux et continuera d’éloigner l’inflation de sa cible. Heureusement, c’est une route politiquement difficile à emprunter, donc il doute que cela arrive.

Dambisa Moyo affirme que, malgré la récente chute des valeurs boursières, l'atmosphère haussière qui soutient les actions reste déconnectée de la réalité et reste sourde aux réserves exprimées par les dirigeants politiques, tandis que le marché évalue mal les défis structurels, en particulier l’endettement mondial croissant et insoutenable et la piètre perspective budgétaire, notamment aux Etats-Unis, où le prix de cette reprise est une dette croissante. En 2018, les chefs d’entreprises et les participants de marché doivent garder en tête (…) que nous nous rapprochons de la date où il faudra payer la facture pour la reprise actuelle. Les fluctuations qu’ont connues les marchés des capitaux ces derniers jours suggèrent qu’ils prennent conscience de cet inévitable règlement. »

Silvia Merler, « The stock market slide », in Bruegel (blog), 12 février 2018. Traduit par Martin Anota

dimanche 11 février 2018

Technologie, pouvoir et idéologie

« L’une des plus grandes intuitions de Marx a été la théorie du fétichisme des marchandises, l’idée qu’au sein du capitalisme les relations entre les personnes supposent "la forme fantastique d’un rapport des choses entre elles". Par exemple, le marché du travail ("un véritable Eden des droits innés de l’Homme") vise à dépersonnaliser la relation entre un dirigeant et un travailleur et à dissimuler le fait que le premier exploite le second. Certaines choses que l’on a pu récemment voir me rappellent que ce phénomène est toujours bien présent.

Alex dit que "(…) plusieurs problèmes qui sont présentés comme des problèmes de 'systèmes informatiques' sont des problèmes systémiques, qui sont mis en œuvre en utilisant des ordinateurs plutôt que du papier, des pierres ou que sais-je encore". De cette manière, le management cherche à s’exonérer de sa responsabilité pour les échecs en la déchargeant sur des choses inanimées. Il a sûrement raison. Nous avons tous entendu quelqu’un dire que "le système est en panne", comme s’il s’agissait d’un fait de dieu et non simplement et plus sûrement le fruit d’une mauvaise gestion.

Ce que l’on a pu entendre cette semaine à propos de la chute des valeurs boursières colle à ce schéma. Beaucoup ont dit que la chute a été amplifiée par le trading algorithmique et suggéré par là que le marché serait plus stable si le trading était resté à la charge des seuls êtres humains. C’est trompeur : qui a écrit et implémenté ces algorithmes ?

Sarah O’Connor décrit comment quelque chose de similaire se passe sur les lieux de travail, comme les travailleurs sont de plus en plus surveillés, non pas par des êtres humains, mais par des algorithmes, avec pour conséquence que des "patrons bien humains se cachent derrière la 'science des données' pour se décharger de leur responsabilité pour leurs décisions".

La technologie, alors, sert une fonction idéologique. Elle permet aux patrons de s’exonérer de leur responsabilité sur des choses impersonnelles et de dissimuler leur propre pouvoir en l’attribuant aux machines. Le fétichisme des marchandises est bien vivant.

Tout cela s’ajoute au fait qu’elle fournit aussi des moyens aux capitalistes pour mieux exploiter les travailleurs. Peter Skott et Frederick Guy montrent comment les technologies comme la vidéosurveillance, la containerisation et les codes-barres ont permis aux patrons de réduire les salaires ; le management algorithmique dont parle Sarah en est une extension.

Il n’y a, bien sûr, rien de nouveau ici. Ceux qui soutenaient l’oppression des travailleurs au dix-neuvième siècle affirmaient que les travailleurs devaient être intimement surveillés parce qu’il serait trop coûteux de ne pas faire tourner, même temporairement, une machinerie valant plusieurs milliers de livres sterling. James Carey décrit la façon par laquelle le télégraphe "a transformé le colonialisme en impérialisme : un système dans lequel le centre d’un empire peut transmettre davantage d’ordres et ne plus se contenter de répondre à la marge". Et, plus récemment, la containerisation a facilité la mondialisation et donc le déversement dans la main-d’œuvre mondiale de millions de travailleurs bon marché.

Est-ce qu’il peut y avoir une contre-réaction ici ? Rene Chun a décrit comment les caisses automatiques encouragent le vol à l’étalage en amenant les gens à se sentir anonymes. L’échange de dons partiel (qui est le fondement de plusieurs transactions économiques) se passe entre des êtres humains, non entre des gens et une machine.

Ce que je veux souligner ici, c’est une vieille idée assez simple, que l’on a eu tendance, je le crains, à minorer. C’est l’idée selon laquelle la technologie n’est pas seulement un ensemble de possibilités neutre permettant d’améliorer la condition humaine. Elle contribue grandement à façonner la réalité des rapports de classes et notre perception de ces derniers, souvent d’une façon assez imprévisible. »

Chris Dillow, « Technology, power & ideology », in Stumbling & Mumbling (blog), 9 février 2018. Traduit par Martin Anota

samedi 10 février 2018

Qu’y a-t-il derrière la baisse de la part du travail ?

« Le revenu total peut être réparti entre ce que perçoit le travail (en termes de salaires, de cotisations et autres revenus du travail) et ce que gagne le capital (en termes de profits et de versements d’intérêts). La frontière entre ces catégories est assez trouble : par exemple, le revenu que gagne une personne qui possède sa propre entreprise doit être classé comme étant un revenu du travail reçu pour les heures travaillées, comme étant un revenu du capital qu’elle tire de la possession de son entreprise ou comme un certain mélange des deux ?

Cependant, le Bureau des Statistiques du Travail aux Etats-Unis effectue depuis plusieurs décennies ce calcul en utilisant une même méthodologie au cours du temps. La part du travail aux Etats-Unis est restée comprise entre 61 % et 65 % des années cinquante jusqu’aux années quatre-vingt-dix. En effet, dans les modèles économiques de long terme, le partage de la valeur ajoutée a souvent été considéré comme constant. Mais au début des années deux mille, la part du travail a commencé à chuter et elle est désormais comprise entre 56 % et 58 %. Loukas Karabarbounis et Brent Neiman ont fourni un certain éclairage de ce qui s’est passé, en citant plusieurs études récentes, dans leur article "Trends in factor shares: Facts and implications" qui a été publié dans le NBER Reporter (dans sa quatrième livraison de 2017).

GRAPHIQUE 1 Part de la production rémunérant le travail pour les entreprises non agricoles aux Etats-Unis (en %)

Timothy_Taylor__BLS__revenu_part_du_travail_Etats-Unis.png

Ils ont construit un ensemble de données pour une large gamme de pays et ils ont constaté que beaucoup d’entre eux ont connu une déformation du partage du revenu au détriment du travail. Donc, l’explication économique d’un tel phénomène ne peut se concentrer sur un élément propre à l’économie américaine ; elle doit être recherchée au niveau de l’ensemble des économies. Ils écrivent : "Le déclin a été généralisé. Comme le montre le graphie, il s’est produit dans sept des huit plus grandes économies du monde. Il s’est produit dans tous les pays scandinaves, où les syndicats sont traditionnellement forts. Il s’est produit dans des pays émergents comme la Chine, l’Inde et le Mexique qui se sont ouverts au commerce international et ont bénéficié des délocalisations d’activités qui étaient initialement réalisées dans des pays développés comme les Etats-Unis."

GRAPHIQUE 2 Variation moyenne de la part du travail par décennie (en points de %)

Karabarbounis_Neiman__baisse_part_revenu_travail_pays.png

source : Karabarbounis & Neiman (2017)

Ils affirment qu’un facteur majeur derrière ce phénomène a été la baisse du prix des technologies d’information, qui a encouragé les entreprises à substituer du capital au travail. Ils écrivent : "Il y a eu un déclin du prix de l’investissement relativement au prix de la consommation qui s’est globalement accéléré à partir du même instant que la part mondiale du travail a amorcé sa baisse. Une hypothèse clé que nous avons mis en avant est que le déclin du prix relatif de l’investissement, souvent attribué aux avancées dans le domaine des technologies d’information, à l’automatisation et à l’essor du numérique, a provoqué un déclin du coût du capital et poussé les entreprises à produire avec une plus grande intensité capitalistique. Si l’élasticité de substitution entre le capital et le travail (la variation en pourcentage du ratio capital sur travail en réponse à une variation d’un certain pourcentage du coût relatif du travail et du capital) est supérieure à l’unité, la baisse du coût du capital se traduit par une baisse de la part du revenu rémunérant le travail (…). Nos estimations suggèrent que cette forme de changement technologique explique environ la moitié du déclin de la part mondiale du travail…"

"Si la technologie explique la moitié de la baisse de la part mondiale du travail, qu’est-ce qui explique l’autre moitié ? Nous avons utilisé les données de flux d’investissement pour distinguer les paiements résiduels entre les paiements versés au capital et les profits économiques. Nous avons constaté que la part du capital n’a pas augmente comme elle aurait dû le faire si la substitution entre le capital et le travail expliquait entièrement le déclin de la part du travail. En fait, nous notons que les hausses des taux de marge et de la part des profits économiques ont aussi joué un rôle important dans le déclin de la part du travail."

La chute de la part du revenu rémunérant le travail a des répercussions qui touchent le reste de l’économie mondiale. Par exemple, elle contribue à la hausse des inégalités de revenu. (…) Il y a quelques décennies, les sociétés avaient pour habitude de recueillir des fonds de la part des ménages épargnants en émettant des obligations, en contractant des prêts ou en émettant des actions. Mais avec la hausse de la part du capital et des profits des entreprises, environ les deux tiers des investissements mondiaux sont financés par les entreprises elles-mêmes. Autrefois, il y avait un afflux net de capitaux financiers vers le secteur des entreprises ; désormais, c’est le secteur des entreprises qui génère un flux net de capitaux financiers (via les rachats d’actions par les entreprises elles-mêmes, la hausse de la détention de liquidité par les sociétés et d’autres mécanismes encore). Lorsque l’on compare les cours boursiers actuels et les price-earnings ratios par rapport aux valeurs historiques, il est utile de se rappeler que lorsque la part du capital est élevée, les cours boursiers ont une autre signification qu’il y a quelques décennies. »

Timothy Taylor, « Behind the declining labor share of income », in Conversable Economist (blog), 6 février 2018. Traduit par Martin Anota

samedi 3 février 2018

Cinq ans d’Abenomics

« Cinq ans ont passé depuis que le Premier ministre Shinzō Abe a été élu en 2012 et a commencé à mettre en œuvre ce qu’on qualifie d’"Abenomics", c’est-à-dire un ensemble de mesures macroéconomiques basées sur "trois flèches" : l’assouplissement monétaire, la relance budgétaire et les réformes structurelles. Cinq ans après, peut-on dire que l’Abenomics a été efficaces ? Nous passons en revue plusieurs commentaires qui ont récemment été tenus à ce sujet.

The Economist note que la devise du Japon s’est dépréciée d’environ vis-à-vis du dollar depuis novembre 2012 et que l’indice boursier Nikkei 225 a augmenté de plus 150 % sur la même période. Cela a contribué à relancer l’économie et le PIB japonais a augmenté sans discontinuité ces sept derniers trimestres, soit pour la plus longue période de croissance ininterrompue depuis 16 ans. Les exportations ont beaucoup contribué à cette performance, mais l’investissement privé a aussi augmenté de plus de 18 % en termes nominaux au cours des cinq dernières années. 2,7 millions d’emplois nets ont été créés, malgré une démographie défavorable. Pourtant, l’inflation ne s’est pas vraiment accélérée : l’indice des prix (si l’on exclut les aliments frais) a augmenté de seulement 0,7 % dans l’année qui précéda septembre 2017. La faible performance en matière d’inflation peut notamment s’expliquer par le fait que les salaires n’ont pas augmenté aussi rapidement qu’on ne l’attendait, en partie parce que la majorité des travailleurs japonais ont des contrats permanents et que leur salaire suit principalement le coût de la vie. Une seconde raison pourrait être la hausse de la population active, dans la mesure où davantage de femmes, de personnes âgées et dans une certaine mesure aussi de travailleurs étrangers sont entrés sur le marché du travail. En outre, là où le coût de la vie a augmenté, certaines firmes ont trouvé des façons d’accroître la productivité plutôt que les prix, en investissant dans des technologies économes en travail.

The_Economist__PIB_nominal_Japon_Abenomics_Shinzo_Abe.png

Scott Sumner (…) est d’accord à l’idée que l’impact le plus important de l’Abenomics a été sur le PIB nominal, ce dernier ayant suivi une tendance à la baisse jusqu’à l’élection d’Abe. Selon la théorie du monétarisme de marché, un PIB nominal élevé peut être utile pour répondre à deux problèmes : les excès d’endettement et un chômage cyclique élevé. L’Abenomics a été très efficace sur les deux fronts. Le chômage a chuté à 2,7 %, le niveau le plus faible en 23 ans ; et le ratio dette publique sur PIB a atteint un palier, après avoir explosé et atteint un taux dangereux ces dernières décennies. Les prix sont à la hausse ces cinq dernières années et la dynamique est certainement meilleure que la déflation qui que le Japon connaissait avant le déploiement de l’Abenomics, mais l’inflation est toujours inférieure à la cible de 2 %.

(…) Sumner affirme aussi qu’une inflation de 1 % est trop faible et que la Banque du Japon doit assouplir sa politique monétaire, pour deux raisons. Premièrement, Japon a fixé une cible d’inflation officielle de 2 % et une fois qu’une cible d’inflation cible est fixée, elle doit être atteinte pour que la politique monétaire reste crédible (la crédibilité étant cruciale pour la gestion des futures crises). Deuxièmement, Sumner pense que la Banque du Japon s’est trompée en utilisant les taux d’intérêt comme instrument de politique monétaire, parce que même une inflation de 2 % au Japon ne suffit probablement pas pour éviter la borne zéro lors d’une récession. Donc le Japon est dans une étrange situation où il n’a pas besoin de relance monétaire, mais où la Banque du Japon doit néanmoins adopter une relance monétaire parce que, si elle ne le faisait pas, le Japon pourrait chuter dans une récession à l’instant où la Banque du Japon perdrait en crédibilité.

Erik Norland (…) pense que l’Abenomics n’a pas encore pleinement dévoilé ses effets. L’économie japonaise s’est améliorée depuis 2012, mais elle a ralenti depuis début 2015 et l’expérience de la Banque du Japon avec les taux d’intérêt négatifs de court terme ne semble pas avoir été une réussite (Norland affirme que les taux négatifs ont empêché le Japon de retrouver des taux d’inflation positifs). Environ la moitié de la hausse temporaire de l’inflation en 2013-2014 peut être attribuée au passage de la TVA de 5 % à 8 % et, bien que cela n’ait pas été un thème majeur de la campagne, il faudra faire attention au possible relèvement de la TVA de 8 % à 10 %, qui accroîtrait l’activité préachat mais pourrait temporairement ralentir l’activité après la hausse. Une autre question qui a été évitée durant la compagne est celle de l’énergie nucléaire. Le gouvernement d’Abe a permis un retour progressif et partiel au nucléaire, qui doit limiter le déficit budgétaire du Japon et réduire la croissance de la demande de pétrole brut et de gaz naturel. Globalement, le Japon bénéfice actuellement d’un contexte international favorable, en l’occurrence de la première croissance mondiale synchronisée depuis 2007 ; mais la Chine pose un risque majeur, comme 25 % des exportations du Japon dirigées vers la Chine ou Hong Kong et qu’ils ont tous deux accumulé d’amples dettes. Norland pense que les niveaux de dette élevés du Japon vont probablement le laisser à de faibles taux d’intérêt de court terme ces prochaines années, malgré une meilleure performance économique.

Lechevalier et Monfort affirment que, au cours des cinq dernières années, les politiques proactives poursuivies dans le cadre de l’Abenomics ont joué un rôle décisif dans l’inversion d’une des causes du ralentissement japonais, en l’occurrence l’incohérence des politiques économiques, et qu’elles rapportent maintenant leurs premiers résultats. Cependant ils soulignent que, dans cinq ans, les performances ont été en-deçà des objectifs, en particulier en ce qui concerne l’inflation et la croissance du PIB. Ils sont plus critiques au regard des questions de long terme et pensent que l’Abenomics peut en définitive échouer en raison de l’incapacité à clairement définir un modèle de croissance pour la nation au cours des deux prochaines décennies. Selon Lechevalier et Monfort, le problème n’est pas tant le manque de réformes structurelles que leur capacité limitée à relever le potentiel de croissance du pays.

Un point similaire a été souligné par Shaori Shibata, qui affirme que les remèdes de style keynésien qui font partie intégrante de l’Abenomics n’ont pas été capables de répondre au problème de faible demande que connaît le Japon à plus long terme, en particulier en termes de consommation privée. C’est en grande partie à cause des mesures de libéralisation qui forment également partie intégrante de l’Abenomics et qui ne sont pas compatibles avec les remèdes keynésiens qui ont été adoptés. Alors que l’Abenomics a le potentiel (du moins à court et moyen termes) pour améliorer la profitabilité des entreprises, en l’absence d’une mesure visant à redistribuer la richesse des entreprises au travail, l’Abenomics représente aussi à l’avenir un danger pour la croissance économique du Japon.

Heizo Takenaka écrit que les performances économiques ont beau s’être clairement améliorées, il demeure toujours plusieurs défis sérieux. Les efforts pour la consolidation budgétaire et la revitalisation des économies régionales sont lents ; le creusement des écarts de revenu n’a pas été traité ; malgré les progrès économiques, la compétitivité du Japon relativement au reste du monde s’est davantage détériorée ; et les universités japonaises continuent de perdre des places dans les classements internationaux. En fin de compte, il est vrai que l’Abenomics a significativement stimulé l’économie, mais qu’elle peine à faire face aux changements rapides qui ont lieu dans le reste du monde. (…) »

Silvia Merler, « Abenomics, five years in », in Bruegel (blog), 8 janvier 2018. Traduit par Martin Anota



aller plus loin...

aller plus loin...

« Quelle est l’efficacité de l’Abenomics ? »

« La politique budgétaire est-elle efficace au Japon ? »

samedi 27 janvier 2018

L’énorme dette et les banques centrales toutes-puissantes

« En 2017, la croissance du PIB s’est accélérée et a ainsi solidifier une expansion mondiale qui s’était montrée jusqu’alors assez lente et erratique. Le nombre de pays croissant à un rythme cohérent avec leur potentiel a atteint des niveaux qui n’avaient pas été vus avant la crise financière mondiale. Comme l’expansion s’accélère et, dans certains cas, devient longue au regard des précédentes expansions, il est temps de se demander d’où la prochaine crise va venir et comment lui faire face.

Parmi les diverses raisons qui pourraient expliquer pourquoi le monde est susceptible de basculer dans une nouvelle récession, il y en a une que l’on entend souvent et qui est liée au récit que nous avons forgé après la crise de 2008. Nous nous retrouverions à nouveau avec des niveaux de dette à un niveau record, des bulles sur les marchés d’actifs et nous n’aurions de la croissance qu’avec le soutien des banques centrales.

Par exemple, voici un extrait où Stephen Roach fait ses pronostics pour 2018 et où il se montre inquiet parce que "les économies réelles ont été soutenues artificiellement par des prix d’actifs faussés et la lente normalisation va seulement prolonger cette dépendance. Pourtant quand les bilans des banques centrales commenceront enfin à se contracter, les économies dépendantes de leurs actifs vont à nouveau se retrouver en péril. Et les risques sont susceptibles d’être bien plus sérieux aujourd’hui qu’il y a une décennie en raison non seulement des énormes bilans des banques centrales, mais aussi de la surévaluation des actifs".

Et voici un extrait d'une chronique du Financial Times dont l'auteur s'inquiète des niveaux de dettes mondiales : "pour deux raisons, l’économie mondiale vit à sursis. Premièrement, la croissance économique mondiale est si dépendante de la dette qu’aucune grande économie ne peut faire face à un resserrement rapide des conditions monétaires. Deuxièmement, les banques centrales doivent inverser leurs politiques, puisque des taux continuellement bas et un endettement excessif peut bien se traduire par un cocktail explosif de multiples bulles des prix d’actifs".

Ce sont deux exemples d’un même récit. Un récit où les banques centrales sont jugées responsables d’avoir généré une croissance « artificielle » qui aurait mené aux déséquilibres prenant la forme de prix d’actifs surévalués et d’une dette excessive.

Ce récit n’est pas infondé. Plusieurs crises passées ont été précédées par une croissance excessive du crédit et des bulles sur les marchés d’actifs. Cependant, il y a plusieurs nuances qui importent dans cette analyse. Toutes les dettes ne sont pas mauvaises et il ne suffit pas de regarder la valeur record des cours boursiers pour juger du risque.

Voici une liste non exhaustive d’arguments où les détails se révèlent cruciaux pour ce récit :

1. Les banques ne sont pas aussi puissantes. L’idée qu’une poignée de banques centrales ait réussi à créer une croissance mondiale artificielle et à réduire les taux d’intérêt pour toutes les maturités dans (pratiquement) tous les pays à travers le monde sans générer d’inflation ne peut être exacte (du moins je n’ai vu aucun modèle économique qui puisse générer une telle prédiction). L’idée que la liquidité créée par certaines banques centrales voyage à travers le monde et pousse les prix d’actifs à la hausse partout n’est pas exacte ; ce n’est pas ce que les banques centrales font. Les banques centrales émettent de la liquidité (qui devient un actif pour quelqu’un) en retirant un autre type d’actifs. Pour chaque passif, il y a un actif.

Le récit des banques centrales surpuissantes semblait assez raisonnable lorsque le marché boursier américain semblait être alimenté par le gonflement du bilan de la Fed…

… jusqu’à ce que la banque centrale cesse d’accroître son bilan et que le marché boursier croisse de 40 % supplémentaires.

2. Toutes les dettes ne sont pas mauvaises. Il y a deux choses évidentes à souligner ici. Premièrement, nous pouvons certes critiquer les marchés financiers pour leurs excès, mais nous ne devons pas oublier que le développement financier est essentiel pour le développement économique. Il y a une forte corrélation entre le PIB par tête et les indicateurs du développement financier. Et une mesure courante du développement financier est le ratio dette sur PIB. Si la dette augmente, cela signifie que des transactions financières qui n’auraient pas eu lieu sinon ont pu être réalisées. Si vous achetez un logement avec un crédit immobilier, cela signifie que vous posséder un logement aujourd’hui au lieu d’avoir à épargner le montant du logement pour pouvoir l’acheter. Cela ne signifie pas que les dépenses soient excessives. En fait, vous pouvez ne pas accroître vos dépenses en services de logement. Au lieu de louer un logement, vous possédez l’actif et payez un loyer à vous-même. Le risque va dans les deux sens. Si vous le possédez et que les prix chutent, vous n’en serez pas content. Mais si vous restez locataire et que les prix augmentent, vous allez vous considérer comme plus pauvre. Deuxièmement, il ne faut pas oublier que le monde n’a pas de dette (nette). Pour chaque passif, il y a un actif. Il n’est pas possible que nous vivions tous au-delà de nos moyens en transférant notre consommation future à la période courante. A nouveau, les détails importent et nous devons voir des déséquilibres spécifiques dans les segments de l’économie, que ce soit des pays, différents agents économiques (le gouvernement, le secteur privé, les ménages, un ensemble particulier d’entreprises…) ou une combinaison de ceux-ci.

3. Oui, les prix d’actifs sont à un niveau élevé, mais cela n’implique pas que des bulles soient prêtes à éclater. La différence entre cet épisode et les précédentes bulles est qu’aujourd’hui tous les prix d’actifs sont élevés. Avant que se forme la bulle boursière dans les années quatre-vingt-dix, les cours boursiers ont atteint des niveaux jamais vu auparavant. Mais ce qui est plus grave, c’est qu’en comparaison des autres actifs, par exemple les obligations, ces prix semblaient bien plus déconnectés de la réalité. La prime de risque implicite sur le marché boursier à la fin des années quatre-vingt-dix aux Etats-Unis s’élevait probablement au faible niveau de 1 %. Cela ne faisait pas sens. A l’inverse, aujourd’hui, les cours boursiers sont élevés (lorsqu’on les mesure au regard des résultats), mais de même pour les cours obligataires. La prime de risque implicite sur le marché boursier est susceptible d’être autour de 4-5 %. Légèrement inférieure aux moyennes historiques, mais absolument pas proches de n’importe quel niveau que l’on a pu voir lorsque des bulles se sont formées dans les années quatre-vingt-dix. Ces prix d’actifs surévalués à travers plusieurs classes d’actifs collent mieux avec le récit d’un autre équilibre entre épargne mondiale (élevée) et investissement mondial (faible). Aussi longtemps que ces forces ne changent pas, les prix d’actifs élevés et les faibles taux d’intérêt sont susceptibles de persister.

Si mon raisonnement est correct, alors pourquoi ce récit simpliste à propos des dettes et des excès reste si courant dans l’analyse économique aujourd’hui ? Je pense que c’est un récit simple, mais convaincant, se rapprochant de ce que Robert Shiller décrit dans cet article. Shiller affirme que lorsque cela touche à l’économie, le storytelling et les récits puissants dominent notre perception de la réalité.

Une dernière remarque (…) : il y a plein de risques qui devraient nous amener à nous inquiéter concernant cette nouvelle année. Il n’y a pas de place pour un excès d’optimisme. Mais il est excessif de se focaliser sur la dette, les bulles et l’influence négative des banques centrales. Si nous continuons à le faire lorsque nous essayons de déceler d’où peut provenir la prochaine crise, nous risquons de la manquer. »

Antonio Fatás, « The narrative of high debt and powerful central banks », in Antonio Fatás on the Global Economy (blog), 5 janvier 2018. Traduit par Martin Anota

samedi 20 janvier 2018

Idées et intérêts

« Il y a depuis longtemps un débat en sciences sociales à propos de savoir si le comportement s’explique par les "intérêts" ou par les "idées". Le débat est central en science politique, où il s’agit avant tout d’un débat opposant les réalistes aux constructivistes. Il est moins bien articulé en économie, au détriment de cette dernière. (…) Comme les constructivistes aiment à le souligner, les intérêts sont des "idées congelées". Ou, pour le dire autrement, nous n’avons pas d’intérêts ; nous avons une idée de ce que sont nos intérêts. Peut-être qu’il n’y a que des intérêts à court terme et seulement des idées à long terme. Mais si c’est le cas, y a-t-il une distinction analytiquement significative entre les idées et les intérêts ? Et pouvons-nous toujours distinguer empiriquement entre les cas où les événements découlent des intérêts et les cas où les événements découlent des idées ? Je n’ai jamais vu personne bien traiter ces questions. (…) En particulier, les réalistes et les constructivistes tendent à associer la perspective fondée sur l’intérêt à la modélisation du choix rationnel, ce qui n’est pas correct et n’aide pas vraiment.

(…) Les théories fondées sur l’intérêt (…) se caractérisent par : une spécification parcimonieuse des caractéristiques des agents, basées sur le statut économique (le secteur, la profession, etc.), social (la classe sociale) ou personnel (le marqueur ethnique ou identitaire dominant) ; une correspondance entre ces caractéristiques et ce comportement via une fonction de paiement ; habituellement, bien que par toujours, un jeu dans lequel les agents interagissent.

Par conséquent, nous pouvons dire que les survenues découlent des intérêts lorsqu’elles résultent directement des caractéristiques ex ante des agents. Plus spécifiquement, ces caractéristiques doivent être saillantes ex ante ; il doit y avoir une correspondance étroite entre ces caractéristiques et les bénéfices aperçus ; le cadre ne doit pas admettre de "modèles causaux" alternatifs.

Une note importante : les bénéfices n’ont pas besoin d’être exclusivement matériels et économiques. Dire que le comportement s’explique par les intérêts n’implique pas que les individus se préoccupent exclusivement, ni même principalement, de leurs revenus et de leur consommation. Ces intérêts peuvent aussi être définis en termes de valeurs ou d’identités culturelles. Un groupe catholique qui fait du lobbying contre l’avortement agit dans son propre intérêt. Oui, c’est le résultat de certaines idées solidement ancrées (les intérêts sont en effet des "idées congelés"). Mais les individus ou groupes qui favorisent leur intérêt matériel le font aussi parce qu’ils pensent (ils ont l’idée) que c’est ce qu’ils doivent viser.

Quand les survenues découlent-elles plutôt des idées ? Quand le comportement ne peut pas être directement prédit par les intérêts tels qu’ils sont définis ci-dessus et lorsque nous pouvons tracer l’impact des discours et récits courants sur la façon par laquelle les intérêts sont perçus. En particulier, nous devons montrer que les idées ont une certaine indépendance, en délimitant la chaîne causale partant des idées et en montrant comment ces dernières façonnent les visions du monde, rendent saillantes les identités ou étendent l’espace stratégique ; surtout, nous devons aussi montrer que l’influence de ces idées ne peut être prédite des caractéristiques saillantes et des marqueurs des agents.

Cette manière de penser nous donne un moyen de tester les arguments fondés sur l’intérêt. Nous nous demandons : si les caractéristiques individuelles qui définissent les préférences (ou produisent le comportement en question) sont saillantes ex ante (…) ; si l’espace stratégique est déterminé ex ante ; si toutes les options pertinentes sont déjà sur la table ; s’il y a un modèle unique, plausible du monde (ou s’il y a des modèles alternatifs qui peuvent être considérés).

Le soutien allemand en faveur des plans d’austérité dans la zone euro (…) est typiquement présenté comme la conséquence d’idées propres aux Allemands à propos de l’économie : "Les Américains viennent de Keynes ; les Allemands de Hayek". Mais on peut présenter un contre-argument qui suggère que ce sont plutôt les intérêts qui dominent.

Notons que l’Allemagne avait de fortes caractéristiques saillantes ex ante qui faisaient qu’elle avait un "intérêt" à ce que des plans austérité soient adoptés : l’Allemagne était structurellement un pays fort (avec un excédent du compte courant et le plein emploi) ; par conséquent, elle n’avait pas besoin de relance explicite, à la différence des autres pays de la zone euro ; en tout cas, il y avait déjà de puissants stabilisateurs contracycliques en Allemagne, qui assuraient l’expansion budgétaire nécessaire ; les politiques expansionnistes à l’échelle de la zone euro auraient principalement aidé ou renfloué les pays endettés ; l’expérience de l’hyperinflation a amené les Allemands à chercher à éviter l’inflation (oui, une idée, mais une idée déjà incarnée dans des préférences ex ante) ; l’Allemagne ne désirait apparemment pas un approfondissement de l’intégration politique (auquel les politiques d’austérité auraient porté atteinte).

Par conséquent, il était dans l’intérêt de l’Allemagne de poursuivre des politiques d’austérité.

(…) Il me semble que toute distinction significative, non tautologique doit dépendre du levier empirique fourni par la dépendance des théories basées sur l’intérêt sur un ensemble parcimonieux d’attributs et de caractéristiques des agents. Si nous pouvons prévoir une survenue en nous basant sur ces caractéristiques, en montrant qu’elles étaient saillantes ex ante et qu’elles menèrent directement au comportement en question, nous pouvons affirmer que les intérêts l’emportent. (A nouveau, ces intérêts n’ont pas besoin d’être matériels, ni même égoïstes.) Si nous avons besoin de recourir à une reconceptualisation des fonctions-objectifs ou à des visions du monde altérées et si nous pouvons montrer que la responsabilité incombent à des idées spécifiques, alors ce sont les idées qui ont le dessus. »

Dani Rodrik, « Telling interests and ideas apart », 17 janvier 2018. Traduit par Martin Anota

mercredi 10 janvier 2018

Pourquoi les inégalités persistent

« L’accroissement des inégalités ne se traduit pas nécessairement par une plus forte demande de redistribution. C’est ce que m’amène à dire un récent article réalisé par Elvire Guillaud et Michael Zemmour. Ils ont étudié les attitudes politiques des riches, mais non super-riches, c’est-à-dire ceux qui se situent du 80ème au 99ème centile dans la répartition des revenus, dans 19 pays développés entre les années quatre-vingt et les années deux mille. Ces préférences importent parce qu’elles sont susceptibles d’avoir une influence politique disproportionnée.

Ils constatent que l’accroissement des inégalités a des effets ambigus sur leurs revendications en matière de redistribution. D’un côté, une hausse des écarts de revenu entre le quintile supérieur et ceux qui lui sont immédiatement inférieurs peut accroître la demande d’égalité. Cela peut être le cas si ce creusement des inégalités suggère aux riches qu’une éventuelle chute dans l’échelle des revenus peut être très coûteuse, si bien qu’ils voudront s’assurer contre une telle éventualité, par exemple avec un salaire minimum plus élevé, d’une meilleure santé et d’une meilleure éducation.

D’un autre côté, un écart de revenu croissant entre les super-riches et les riches peut en fait réduire les demandes d’égalité. L’une des raisons réside peut-être dans les écrits d’Albert Hirschman en 1973 : les gens tolèrent une hausse des inégalités, du moins initialement, parce qu’ils s’attendent à rejoindre les super-riches, une anticipation qui se trouve exacerbée par une confiance excessive. Selon Guillaud et Zemmour, il se pourrait aussi que les riches savent que les super-riches ne vont pas payer leur juste part de l’impôt, si bien qu’ils craignent d’avoir à supporter le surcroît d’impôt nécessaire pour financer le surcroît de redistribution.

En fait, ce qui importe, ce n’est pas quelque chose d’aussi simple que le coefficient de Gini, mais plutôt une structure plus précise des inégalités.

Est-ce que cela contribue à expliquer les préférences politiques au Royaume-Uni ? Je n’en suis pas sûr. D’un autre côté, (…) peut-être que la popularité du parti travailliste parmi les travailleurs appartenant apparemment aux "classes moyennes" tient au fait que la polarisation de l’emploi a détruit les emplois intermédiaires, ce qui a augmenté l’insécurité et ainsi créé une demande aassurantielle d’égalité. En outre, parce que plusieurs retraités ont des revenus sécurisés, ils ne craignent pas une éventuelle perte de revenu et ne demandent donc pas une telle assurance, ce qui explique leurs préférences pour le parti conservateur. D’un autre côté, les retraités ont même moins d’espoir de rejoindre les super-riches que les travailleurs bien payés. Cela devrait les amener à présenter des préférences davantage orientées à gauche, mais ce n’est pas le cas.

Le travail de Guillaud et Zemmour est cependant cohérent avec les résultats d’expériences en laboratoire qui montrent que la hausse des inégalités n’alimente pas les revendications en matière de redistribution. L’une des raisons qui pourrait expliquer cela, selon Kris-Stella Trump, est une forme d’effet d’ancrage. En l’occurrence, notre croyance en ce qui est juste est façonné par la répartition actuelle des revenus : "Les perceptions de ce qui constitue une inégalité de revenu juste sont influencées par le niveau actuel des inégalités : quand les inégalités changent, les opinions au regard de ce qui est acceptable changent dans la même direction".

Jimmy Charite, Raymond Fisman et Ilyana Kuziemko ont suggéré un autre mécanisme : les inégalités amènent les gens à modifier leurs anticipations, leurs points de référence : "Si les électeurs tendent à respecter les points de référence des autres et si un pays subit un choc qui accroît les inégalités de revenu, alors les électeurs peuvent être réticent à taxer ces gains".

Klaus Abbink, David Masclet et Daniel Mirza ont démontré l’existence d’un mécanisme différent : la résignation. Quand les inégalités deviennent extrêmes, ils montrent que les gens abandonnent simplement la lutte contre celles-ci. (Bien sûr, il y a aussi le fait que plus les riches sont riches, plus ils peuvent dépenser pour préserver leur position en achetant les médias et en recourant au lobbying.)

La politique américaine est, je le crains, cohérente avec tout cela ; les fortes inégalités nous ont donné un milliardaire kleptocratique.

C’est aussi cohérent avec l’histoire mondiale telle que l’a décrite Walter Scheidel. Ce dernier montre que des chutes significatives d’inégalités ont généralement été impulsées, non pas par de bienveillantes politiques redistributives, mais par les guerres, les révolutions, les épidémies et les effondrements d’Etats.

Peut-être qu’il n’y a pas de boucle rétroactive négative stabilisatrice allant de la hausse des inégalités vers les demandes de redistribution. Si c’est le cas, il est plus difficile de réduire les inégalités de façon significative que ne le croient les sociaux-démocrates. »

Chris Dillow, « How inequality persists », in Stumbling & Mumbling (blog), 4 janvier 2018. Traduit par Martin Anota

lundi 8 janvier 2018

Pourquoi l’hégémonie des microfondations entrave les progrès en macroéconomie

« Je pense que quand David Vines m’a demandé de contribuer à un numéro de l’Oxford Review of Economic Policy basé sur la "refondation de la théorie macroéconomique", il pensait que j’écrirais sur la façon par laquelle le modèle macroéconomique de base devait changer pour refléter les développements de la macroéconomie depuis la crise en me focalisant tout particulièrement sur la modélisation de l’impact de la politique budgétaire. Cela aurait été un article bien intéressant à écrire, mais j’ai rapidement décidé de parler de choses que je considérais comme bien plus importantes.

Selon moi, le plus grand obstacle à l’avancée de la macroéconomie est l’hégémonie des microfondations. Je voulais qu’au moins un article questionne cette hégémonie. Il s’est avéré que je n’étais pas le seul à rédiger un tel article, que d’autres firent de même. J’ai été particulièrement motivé à le faire quand j’ai vu qu’Olivier Blanchard, dans ses billets de blog où il faisait part de ses réflexions avant d’écrire sa propre contribution, était sur la même longueur d’onde que moi.

Je parlerai des autres articles quand plus de gens auront eu la chance de les lire. Ici, je vais me focaliser sur ma propre contribution. J’ai déjà développé cette réflexion il y a quelques temps sur mon blog et cela m’a amené à penser que la plupart des macroéconomistes qui travaillent dans l’hégémonie des microfondations souffrent d’un blocage mental quand ils sont confrontés à des approches de modélisation alternatives. (…)

Imaginons un modèle DSGE, "estimé" par des techniques bayésiennes. Pour être spécifiques, supposons qu’il contienne une fonction de consommation intertemporelle standard. Ensuite, supposons que quelqu’un ajoute un terme dans le modèle, disons le chômage dans la fonction de consommation et par là même améliore significativement l’ajustement (fit) du modèle vis-à-vis des données. Il n’est pas difficile de comprendre pourquoi l’ajustement s’améliore significativement : par exemple, le chômage peut être un indicateur de l’incertitude entourant revenu du travail. La question clé devient alors : quel est le meilleur modèle pour examiner la politique macroéconomique ? Le modèle DSGE originel ou le modèle augmenté ?

Le macroéconomiste des microfondations va sans doute tendre à dire le modèle DSGE originel, parce que seul ce modèle est connu comme étant théoriquement cohérent. (Ils peuvent se contenter de dire que ce modèle satisfait mieux la critique de Lucas, mais la cohérence interne reste un critère plus général.) Mais une réponse également valide consisterait à dire que le modèle DSGE originel va donner des réponses de politique incorrectes, parce qu’il néglige un lien important entre le chômage et la consommation, si bien qu’on doit lui préférer le modèle augmenté.

Il n’y a absolument rien qui dise que la cohérence interne soit plus importante que la mauvaise spécification (relative). D’après mon expérience, lorsqu’ils sont confrontés à ce fait, certains concepteurs de modèles DSGE ont recours à deux tactiques de diversion. La première, qui consiste à dire que tous les modèles sont mal spécifiés, ne vaut pas la peine d’être discutée. La seconde consiste à dire qu’aucun modèle n’est satisfaisant et que de nouvelles recherches sont nécessaires pour incorporer l’effet du chômage de façon cohérente.

Je n’ai pas de problème avec cette réponse en soi et, pour cette raison, je n’ai pas de problème avec le projet des microfondations en tant que manière de faire de la modélisation macroéconomique. Mais dans ce contexte particulier c’est une esquive. Il n’y aura pas, du moins tant que je serais en vie, un modèle DSGE qui ne puisse être amélioré en ajoutant des effets plausibles, mais potentielles incohérents, comme l’influence du chômage sur la consommation. Par conséquent, si vous pensez que les modèles qui sont significativement meilleurs dans l’ajustement aux données doivent être préférés aux modèles DSGE (…), alors ces modèles augmentés vont toujours battre le modèle DSGE pour modéliser la politique économique.

(…) Il existe une méthodologie alternative pour construire des modèles macroéconomiques qui n’est pas inférieure à l’approche des microfondations. Elle commence avec une certaine spécification théorique, qui peut être un modèle DSGE comme dans l’exemple, et elle étend ensuite celle-ci en des voies qui sont théoriquement plausibles et qui améliorent aussi significativement l’ajustement du modèle, mais qui ne sont pas formellement dérivées des microfondations. Je qualifie un tel modèle de modèle économétrique structurel (structural econometric model) et Blanchard de modèle de politique économique (policy model).

Ce que je souligne tout particulièrement dans mon article, c’est que ces méthodologies ne sont pas contradictoires, mais bien complémentaires. Les modèles économétriques structurels comme je les décris ici débutent avec la théorie microfondée. (Bien sûr, les modèles économétriques structurels peuvent aussi commencer avec la théorie non-microfondée, mais le bien-fondé d’une telle stratégie est un autre débat que je ne veux pas aborder ici.) En tant que produit fini, ils fournissent plusieurs agendas de recherche pour la modélisation microfondée. Donc la conception de modèles DSGE peut fournir le point de départ pour les concepteurs de modèles économétriques structurels ou les modèles de politique économique et ces modèles peuvent alors, lorsqu’ils sont complétés, fournir un agenda de recherche pour les concepteurs de modèles DSGE.

Une fois que vous saisissez cette complémentarité, vous pouvez saisir pourquoi je pense que la macroéconomie se développerait bien plus rapidement si les universitaires s’échinaient à développer aussi bien des modèles économétriques structurels que des modèles DSGE. L’erreur que les nouveaux classiques ont commise dans leur contre-révolution a été d’écarter les précédentes façons de modéliser l’économie, au lieu de les compléter avec des approches additionnelles. Chaque méthodologie, prise isolément, va se développer bien plus lentement que si elles étaient combinées. Ou, pour le dire autrement, la recherche basée sur les modèles économétriques structurels est bien plus efficace que l’approche de résolution d’énigmes qui est aujourd’hui utilisée.

Dans cet article, j’essaye d’imaginer ce qui se serait passé si le projet des microfondations s’était contenté d’augmenter la macroéconomie existante (c’est-à-dire les modèles économétriques structurels) plutôt que de l’écarter. Je pense que nous avons de bonnes preuves qu’une complémentarité active entre modèles économétriques structurels et modélisation des microfondations aurait permis de mieux cerner les liens entre secteurs réel et financier avant la crise financière mondiale. L’hégémonie des microfondations a choisi de s’attaquer aux mauvaises énigmes, détournant ainsi la macroéconomie de questions empiriques bien plus importantes. La même chose peut se reproduire si l’hégémonie des microfondations demeure. »

Simon Wren-Lewis, « Why the microfoundations hegemony holds back macroeconomic progress », in Mainly Macro (blog), 6 janvier 2018. Traduit par Martin Anota

vendredi 5 janvier 2018

Les deux théories de l’impérialisme de Schumpeter

« Récemment, Thomas Hauner, Suresh Naidu et moi-même avons publié une première version de notre travail collectif où nous examinons empiriquement divers liens dans la théorie de l’impérialisme de Hobson, Lénine et Luxemburg. Je ne vais pas en discuter ici (…) parce que j’aimerais me focaliser sur une autre théorie contemporaine de l’impérialisme, celle de Schumpeter.

La théorie de Schumpeter est intéressante pour plusieurs raisons. Elle a été formulée au même instant que celles de Lénine et de Luxemburg et en connaissance de ces dernières. Elle réagit aux mêmes événements que celles-ci. Elle est très différente et Schumpeter ne l'a pas abandonnée par la suite. Le texte clé pour la théorie de Schumpeter est La Sociologie des impérialismes (notez le pluriel) publiée au 1918-1919. Il s’agit d’un très long essai dont la traduction anglaise comprend environ 80 pages imprimées. Schumpeter n’a rien changé de sa théorie (du moins en substance), comme nous pouvons le pouvoir lorsque Schumpeter l’évoque dans son ouvrage Capitalisme, Socialisme et Démocratie, publié en 1942 et republié à plusieurs reprises depuis.

Voici ce que dit Schumpeter. L’impérialisme, dans sa définition la plus pure, est "sans objet", il n’est pas dirigé contre quelque chose ou quelqu’un qui nuirait aux intérêts de quelqu’un d’autre. Il n’est donc pas rationnel : c’est une simple volonté de puissance. Les exemples canoniques, selon Schumpeter, sont les Assyriens, les Perses, les Arabes et les Francs (et il se penche longuement sur chacun de ces exemples). Il ajoute aussi Rome, où l’impérialisme reflétait les intérêts de classe de la strate supérieure et où l’analyse de Schumpeter est très matérialiste. (Et il tient plusieurs propos acerbes à propos de Rome que je passe sous silence par souci de concision).

Mais, l’impérialisme en tant que tel est atavique et en contradiction avec le capitalisme "normal" qui est rationnel et individualiste et dont les objectifs peuvent être bien mieux atteints en temps de paix et pacifiquement. Nous devons donc nous attendre à ce que l’impérialisme décline à mesure que le capitalisme devient plus fort. Les pays les moins impérialistes sont les pays les plus capitalistes comme les Etats-Unis.

Je pense que c’est la lecture habituelle de la théorie de Schumpeter et qu’elle peut être reliée à d’autres théories similaires comme celles du doux commerce de Montesquieu ou de la paix démocratique de Doyle (bien que Schumpeter parle vraiment de paix capitaliste).

Cependant, je pense qu’une lecture alternative de Schumpeter est possible, en se fondant sur ses propres écrits et sa vision du capitalisme.

Dans "Imperialisms…", Schumpeter indique que l’impérialisme peut apparaître dans les sociétés capitalistes. Mais "nous devons évidemment voir" les tendances impérialistes "comme les éléments étrangers introduits dans le monde du capitalisme depuis l’extérieur, soutenus par des facteurs non capitalistes dans la vie moderne".

Mais (…) si le capitalisme n’est pas celui de la concurrence pure et parfaire et du libre-échange, mais un capitalisme de monopoles, alors Schumpeter suggère que le "capital organisé peut très bien découvrir que le taux d’intérêt peut être maintenu au-dessus du niveau de concurrence libre si le surplus résultant peut être envoyé à l’étranger". Le "capital organisé" peut réaliser qu’il peut tirer profit de la possession de colonies. Schumpeter continue en indiquant que les capitalistes "peuvent utiliser une main-d’œuvre native bon marché… ; ils peuvent commercialiser leurs produits même dans les colonies à des prix de monopole ; ils peuvent finalement investir du capital qui, sinon, ne ferait que déprimer le profit dans l’économie domestique et ne pourrait être placé dans d’autres pays civilisés qu’à de très faibles taux d’intérêt".

En outre, dans des conditions telles que celles-ci, la Métropole "verse généralement des vagues de capital dans les nouveaux pays. Elle y rencontre des vagues similaires de capital et une lutte acharnée, coûteuse commence, sans jamais s’arrêter… Dans une telle lutte, il devient important de savoir qui a construit une route donnée, qui possède telle mine ou telle colonie".

Dans cette description du rôle que joue le capital monopolistique dans la colonisation et l’essor de l’impérialisme, Schumpeter est à deux doigts de tenir les mêmes propos que Lénine et Luxemburg. On pourrait alors peut-être affirmer que, selon Schumpeter, ce sont des conditions spéciales du capitalisme monopoliste (…) qui ne peuvent être identifiées à celles du capitalisme de libres marchés "normal" ou "habituel".

Mais ce n’est pas ce que dit Schumpeter dans Capitalisme, Socialisme et Démocratie. Il y affirme que l’aspect clé du capitalisme (ce qui l’amène à s’accroître) est l’innovation et que celle-ci est possible seulement si le capitalisme est monopoliste ou, s’il ne l’est pas, l’innovation va elle-même contribuer à l’apparition de monopoles (une chose que nous pouvons en effet voir aujourd’hui).

"L’introduction de nouvelles méthodes de production et de nouvelles marchandises est difficilement concevable en concurrence pure et parfaite dès le début. Et cela signifie que l’essentiel de ce que nous appelons le progrès économique est incompatible avec. En effet, la concurrence pure et parfaite est et a toujours été temporairement suspendue dès lors que quelque chose de nouveau est introduit… et ce même si les conditions seraient sinon parfaitement concurrentielles." (chapitre 8)

En outre, puisque la concurrence monopolistique est dynamiquement plus efficace que le capitalisme de marchés libres des manuels, elle va finir par dominer et devenir la forme normale via laquelle le capitalisme va exister et prospérer.

Mais si la forme normale du capitalisme est monopolistique, alors la forme "normale" du comportement d’un tel capitalisme est telle qu’elle est décrite dans "Imperialisms…" : en essayant de maintenir le taux de profit domestique au-dessus du niveau "naturel" en exportant du capital aux colonies, en cherchant à contrôler la main-d’œuvre bon marché et les ressources naturelles et probablement en s’engageant dans des conflits avec d’autres capitalismes nationaux monopolisés. Donc, c’est cela le mode opératoire normal du capitalisme, selon Schumpeter.

L’affirmation selon laquelle la concurrence pure et parfaite et le libre-échange seraient incompatibles avec l’impérialisme ne tient pas : même si l’affirmation est valide, elle se réfère à un cas d’école du capitalisme qui, selon Schumpeter, est condamné à disparaître pour laisser place à un capitalisme monopoliste plus dynamique et innovant.

En combinant ces deux choses ensemble, nous retrouvons avec une reformulation de la théorie de l’impérialisme de Schumpeter qui se rapproche étroitement des théories de l’impérialisme marxistes classiques (ni est pratiquement identique même dans son emphase sur le faible taux de rendement domestique). On ne sait pas si Schumpeter aurait été scandalisé s’il avait entendu cela ou s’il en avait conscience. Mais il ne me semble pas possible de dénier la proximité logique entre les deux théories. »

Branko Milanovic, « Schumpeter’s two theories of imperialism », in globalinequality (blog), 4 janvier 2018. Traduit par Martin Anota



aller plus loin... lire « Le capitalisme, les inégalités et la Première Guerre mondiale »

mardi 2 janvier 2018

Les conservateurs et l’austérité

« (…) Le lien entre l’essor du nazisme et l’austérité budgétaire nous amène à nous poser la question suivante : pourquoi les conservateurs soutiennent-ils à ce point l’austérité ?

Je pose la question parce que, d’un certain point de vue, ils devraient davantage s’opposer à l’austérité que la plupart des autres. En effet, parce qu’elle déprime les revenus, l’austérité amène les gens à remettre en question les marchés libres et le capitalisme, dans la mesure où ils blâment moins les erreurs de politique économique que les aspects plus fondamentaux de l’économie pour la faiblesse de l’activité. Les marxistes sont heureux de voir le capitalisme être remis en cause. Mais les conservateurs ne devraient pas l’être. En outre, l’austérité génère aussi de l’instabilité politique comme les gens cherchent à gauche et à droite des façons de sortir de crise. L’austérité allemande dans les années trente a contribué à l’essor aussi bien du communisme que du nazisme et l’austérité au Royaume-Uni a contribué aussi bien au Brexit qu’à l’essor de Corbyn.

Les conservateurs qui désirent de la stabilité politique et un capitalisme de marché libre doivent par conséquent se situer sur la première ligne du front d’opposition à l’austérité budgétaire. Ils devraient regretter que l’austérité remette en cause les choses auxquelles ils attachent une grande valeur. Mais alors pourquoi soutiennent-ils donc l’austérité ? Pourquoi les conservateurs britanniques sont-ils prêts à faire n’importe quoi pour s’opposer à Corbyn, sauf retirer les conditions économiques qui sont à l’origine de sa popularité ?

Je pense que la réponse se trouve dans l’un des écrits de Corey Robin. (…) Ce que les conservateurs veulent vraiment, c’est une hiérarchie du secteur privé : "Aucun conservateur ne s’oppose à un changement en tant que tel, ni ne défend un ordre en particulier. Le conservateur défend des ordres particuliers (…) en partant de l’hypothèse, en partie, que la hiérarchie soit un ordre".

Malheureusement, la politique budgétaire expansionniste sape les hiérarchies "naturelles". Michal Kalecki a repéré une façon par laquelle elle est susceptible de le faire : "Dans un système de laisser-faire, le niveau de l’emploi dépend étroitement de ce qu’on appelle l’état de confiance. Si ce dernier se détériore, l’investissement privé décline, ce qui se traduit par une chute de la production et de l’emploi (à la fois directement et via l’effet secondaire de la chute des revenus sur la consommation et l’investissement). Cela donne aux capitalistes un puissant pouvoir indirect sur la politique publique : tout ce qui peut ébranler l’état de confiance doit être soigneusement évité pour préserver l'économie d'une crise . Mais une fois que le gouvernement a saisi qu’il peut accroître l’emploi par ses propres achats, ce puissant dispositif de contrôle perd de son efficacité. Donc les déficits budgétaires qui sont nécessaires pour que le gouvernement intervienne doivent être considérés comme périlleux. La fonction sociale de la doctrine des 'finances saines' est de rendre le niveau de l’emploi dépendant de l’état de confiance".

Il y a une deuxième façon. Une fois que nous reconnaissons que les revenus des gens dépendent de la politique budgétaire, il s’ensuit que la pauvreté apparaît davantage comme un échec du gouvernement plutôt que comme un échec de la part des individus eux-mêmes. Les conservateurs ne peuvent alors plus la faire apparaître comme un échec moral. Par conséquent, l’austérité budgétaire est nécessaire afin de maintenir la hiérarchie "naturelle" dans laquelle les riches sont en droit d’avoir le pouvoir parce qu’ils apparaissent comme les héros vertueux tandis que les pauvres doivent être étiquetés comme paresseux et incapables.

C’est l’hypothèse. Voici deux éléments de preuve qui la soutiennent. Le premier est un tweet du conservateur Andrew Pierce : "Les ingénieurs ferroviaires sont payés 775 livres sterling par jour pour travailler à la période de Noël et la facture sera payée par les navetteurs en grande souffrance". Ce que Pierce exprime ici est le désir de maintenir les travailleurs à leur place, en l’occurrence dans les échelons inférieurs de l’échelle des revenus. Les conservateurs ne voient pas d’un bon œil les marchés libres lorsqu’ils accroissent les salaires des travailleurs. C’est cohérent avec le fait que les conservateurs américains aient été si laxistes vis-à-vis de la hausse du pouvoir de monopole qui a comprimé les salaires. Deuxièmement, les conservateurs américains n’ont pas de problème avec la perspective d’une hausse de la dette publique si celle-ci se traduit par une baisse des impôts pour les riches. Ils valorisent davantage les inégalités et la hiérarchie que la prudence budgétaire.

Oui, le soutien en faveur de l’austérité est une erreur intellectuelle. Mais elle doit être une erreur fondée sur une singularité de la psyché conservatrice. Les keynésiens, je le crains, sous-estiment ce point. »

Chris Dillow, « Conservatives & austerity », in Stumbling & Mumbling (blog), 1er janvier 2018. Traduit par Martin Anota



aller plus loin...

« L’austérité et l’ascension du parti nazi »

« Aux racines du mal. Crises financières et ascension de l’extrême-droite »

dimanche 31 décembre 2017

Les inégalités qui importent (et les autres)

« Jamie Whyte demande : "Un homme riche a plus de facilité à acheter une voiture qu’un homme pauvre ; un homme qui a de l’esprit et d’humour a plus de facilité à séduire une femme qu’un homme ennuyeux. S’il s’agit d’une inégalité de pouvoir injuste dans le premier cas, pourquoi n’est-ce pas le cas dans le second ?"

Cette question peut (…) avoir un certain fondement pour les égalitaristes qui croient que toutes les inégalités sont mauvaises en soi, ceux que Derek Parfit qualifie d’"égalitaristes téliques". Mais il y a d’autres sortes d’égalitaristes, notamment ceux qui croient que les inégalités sont mauvaises pour d’autres raisons, disons parce qu’elles surviennent en raison d’injustices ou ont des effets indésirables.

Cette distinction, bien sûr, n’est pas confinée aux égalitaristes. On la retrouve aussi chez les libertariens : vous pouvez privilégier le libertarianisme pour des raisons conséquentialistes ou parce que vous pensez que la liberté est un bien en soi.

Notre second type d’égalitaristes a des réponses évidentes pour Jamie. L’une d’entre elles est que les inégalités d’humour n’ont, globalement, pas de mauvaises conséquences. En fait, c’est l’opposé : l’homme qui de l’esprit et de l’humour est de bonne compagnie (Jamie le qualifie d’ami).

Les inégalités de richesse, d’une autre côté, ne sont pas si bénignes. Elles sapent l’idéal démocratique d’égalité de respect et peut-être même la démocratie elle-même. Elles affaiblissent la confiance et le capital social. Et elles sont certainement mauvaises pour l’économie. (J’ajouterais aussi que de fortes inégalités sapent aussi le soutien envers les marchés libres.)

Bien sûr, je m’attends à ce que Jamie soit en désaccord avec ces affirmations empiriques. Je veux simplement dire qu’elles fournissent une grande différence entres les inégalités de richesse et les inégalités d’humour.

Les égalitaristes s’opposent aussi aux inégalités de richesse parce que dans certains cas (la plupart des cas ?) elles surviennent via des processus injustes comme l’exploitation ou la domination ou via la capture de l’Etat par les riches. Comme Joseph Stiglitz l’a dit, les inégalités sont un choix politique ; pour preuve, différents pays ont connu différentes trajectoires en matière d’inégalités de richesse.

On ne peut pas dire la même chose des inégalités d’humour. La justice, comme l’a dit Rawls, est une vertu des institutions sociales, pas de nature. Revenons à Parfit : "Considérons, par exemple, l'inégalité des dons naturels. Certains d'entre nous naissent avec davantage de talent ou en meilleure santé que d'autres, ou bien sont mieux lotis dans d'autres domaines. Si nous sommes des égalitaristes déontologiques, nous ne penserons pas que pareille inégalité est mauvaise en elle-même. Nous pourrons admettre que, si nous étions capables de distribuer les talents, il serait injuste ou inéquitable de les distribuer en parts inégales. Mais, sauf quand il y a des effets négatifs, nous ne verrons rien à redire aux inégalités produites par le mélange aléatoire de nos gènes".

Et les injustices de talents n’ont pas toujours d’effets négatifs : c’est une bonne chose que certaines soient beaux, intelligents et aient de l’humour. (…)

Certes, si nous vivions dans une société comme la Culture de Iain M. Banks c’est-à-dire une société dans laquelle nous pourrions facilement changer le physique des gens, nous pourrions considérer cela comme une injustice que certains hommes ressemblent davantage à Olivier Giroud tandis que d’autres ressemblent à Michael Gove, parce qu’une telle inégalité pourrait être corrigée. Mais ce n’est pas le cas. Pour beaucoup d’égalitaristes, alors, il n’y a pas d’équivalence entre l’homme riche et celui qui a de l’humour. L’analogie avancée par Jamie ne tient pas.

Mais même les égalitaristes téliques ont une réponse à lui donner. Selon Larry Temkin, "L’égalité n’est pas la seule chose qui importe. L’égalité n’est pas non plus le seul idéal qui aurait de terribles implications s’il était exclusivement poursuivi. La même chose est exacte pour la justice, la liberté, l’utilité et virtuellement tout autre idéal".

Handicaper l’homme séduisant, comme dans Pauvre Surhomme de Kurt Vonnegut, ou exiger que ses partenaires sexuelles paient une amende comme le suggère Jamie irait bien trop à l’encontre de la liberté. Et la liberté est aussi une valeur. (Les égalitaristes soutiennent, avec raison je pense, que la taxation est moins une restriction en termes de liberté que ne le sont les interventions de Vonnegut.)

Je ne suis donc pas convaincu par la question de Jamie. (...) »

Chris Dillow, « Inequalities that matter, & don’t », in Stumbling & Mumbling (blog), 14 décembre 2017. Traduit par Martin Anota

vendredi 22 décembre 2017

Le débat autour de l'économie, encore et encore

« Le débat sur la profession des économistes (sur leurs possibles maux et défaillances) s’essouffle par moment, mais ne s’éteint jamais. (…) J’en profite pour actualiser mes réflexions sur ce débat, sous la forme de deux dizaines de commandements. Le premier ensemble s’adresse directement aux économistes et le second aux non-économistes.

Dix commandements pour les économistes :

1. L’économie est une collection de modèles ; choyez leur diversité.

2. C’est un modèle, pas "le" modèle.

3. Simplifiez suffisamment votre modèle pour isoler les causes spécifiques et la façon par laquelle elles agissent, mais pas de trop, pour ne pas négliger des interactions clés entre elles.

4. Il n’y a pas de problème avec les hypothèses irréalistes ; il y en a un si les hypothèses critiques sont irréalistes.

5. Le monde est (presque) toujours un second-best.

6. Pour confronter un modèle au monde réel vous avez besoin de diagnostics empiriques explicites, ce qui relève davantage de l’artisanat qu’à la science.

7. Ne confondez pas l’accord entre les économistes avec la certitude quant à la façon par laquelle le monde marche.

8. Ce n’est pas grave si vous dites "je ne sais pas" lorsqu’on vous interroge sur l’économie ou la politique économique.

9. L’efficacité n’est pas tout.

10. Substituer vos valeurs à celles du public est un abus de votre expertise.

Dix commandements pour les non-économistes :

1. L’économie est une collection de modèles sans conclusions prédéterminées ; rejetez sinon les arguments.

2. Ne critiquez pas le modèle d’un économiste en raison de ses hypothèses ; demandez-lui quels seraient les résultats si certaines hypothèses étaient plus réalistes.

3. L’analyse requiert de la simplicité ; attention à l’incohérence qui se fait passer pour de la complexité.

4. Ne soyez pas effrayé par les maths : les économistes utilisent les maths non pas parce qu’ils sont intelligents, mais parce qu’ils ne le sont pas assez.

5. Quand un économiste fait une recommandation, demandez-lui ce qui l’amène à penser que le modèle sous-jacent s’applique au cas en question.

6. Quand un économiste utilise le terme "économie du bien-être", demandez-lui de préciser ce qu’il entend par là.

7. Faites attention aux économistes qui ne disent pas la même chose en public que lors des séminaires.

8. (Tous) les économistes n’aiment pas les marchés, mais ils savent mieux que vous comment ils fonctionnent.

9. Si vous pensez que les économistes pensent la même chose, allez à l’un de leurs séminaires.

10. Si vous pensez que les économistes ne sont grossiers qu’avec les non-économistes, allez assister à l’un de leurs séminaires.

J’ai passé suffisamment de temps avec les non-économistes pour savoir que leur critique manque souvent le point. En l’occurrence, plusieurs non-économistes ne comprennent pas l’utilité d’une modélisation parcimonieuse (en particulier du genre mathématique). Leur riposte consiste typiquement à dire "mais c’est plus compliqué que ça !". Ça l’est, bien sûr. Mais sans simplification, il ne peut pas y avoir d’analyse utile.

Les économistes, d’un autre côté, sont très bons pour modéliser, mais pas si bons que ça lorsqu’il s’agit de naviguer entre leurs modèles. En l’occurrence, ils confondent souvent leur modèle avec "le" modèle. Une grosse partie du problème est que la méthode scientifique à laquelle ils souscrivent implicitement est une méthode qui consiste pour eux à chercher constamment à atteindre le "meilleur" modèle.

Les macroéconomistes sont particulièrement mauvais à cela, ce qui explique en partie leur mauvaise performance. En l’occurrence, il y a trop de "le bon modèle est-il néoclassique ou keynésien ?" et trop peu de "comment pouvons-nous savoir si c’est le modèle keynésien ou le modèle néoclassique qui est le plus pertinent et approprié à cet instant précis dans ce contexte particulier ?".

Dani Rodrik, « The economics debate, again and again », 21 décembre 2017. Traduit par Martin Anota

samedi 16 décembre 2017

A propos de la régression technologique

« Le Financial Times indique que des milliers de distributeurs automatiques pourraient fermer. L’une des rares innovations financières qui se soit révéler utiles lors de mon existence pourrait ainsi disparaître. Cela m’amène à me poser la question suivante : ne devrions-nous pas prendre plus au sérieux la possibilité d’un recul technologique ? (…)

Par exemple, il faut plus de temps désormais pour traverser l’Océan atlantique qu’il n’en fallait dans les années quatre-vingt lorsque nous avions le Concorde, en particulier si vous prenez en compte les temps d’enregistrement et le temps passé avec la sécurité de l’aéroport. De même, certains trajets en train prennent plus de temps aujourd’hui que par le passé. Et, bien sûr, les hommes ne vont plus sur la Lune.

Il n’y a pas que dans le transport où nous avons connu une régression. Les vieux lecteurs peuvent se rappeler que nous bénéficiions de deux livraisons postales par jour, une avant midi. Paul Romer a affirmé que la recherche macroéconomique a connu une régression intellectuelle. Le fait que les sociétés accumulent depuis plusieurs années des montagnes de liquidité suggère que les banques ne sont désormais plus efficaces dans leur rôle d’intermédiaires financiers (…), peut-être parce que l’essor des actifs intangibles prive les entreprises des collatéraux dont elles pourraient se servir pour emprunter. Les journaux avaient l’habitude de tenir bien informés leurs lecteurs, avec notamment les numéros de leurs correspondants étrangers et les détails des rapports parlementaires. (Brendan O’ Carroll, par exemple, a réussi à retrouver l’assassin de son grand-père en utilisant les rapports des journaux publiés à l’époque.) Aujourd’hui, ils préfèrent laisser leurs lecteurs dans leurs préjugés. Mais ce qui est le plus inquiétant, c’est le fait que les antibiotiques deviennent de moins en moins efficaces, ce qui provoque une régression générale en médecine.

Vous pouvez objecter en disant que nous savons toujours comment faire la plupart de ces choses, en suggérant que c’est seulement le coût à faire ces choses qui a fortement augmenté. En ce qui me concerne, ce n’est pas pertinent. Il y a longtemps nous parlions des conditions sociotechniques de la production : nous savions que nous ne pouvions séparer la technologie des circonstances sociales qui facilitent ou non son usage.

La régression est donc possible.

Cela peut contribuer à expliquer les retournements conjoncturels. Si nous combinons l’idée de Xavier Gabaix selon laquelle les récessions peuvent naître des grandes entreprises qui se retrouvent en difficulté avec la description qu’offre Daron Acemoglu de la façon par laquelle les effets de réseau peuvent amplifier de telles fluctuations, nous obtenons un récit où la régression est susceptible de provoquer des récessions. Je pense que cela peut se vérifier avec la récession de 2008-2009. La capacité des banques à produire du crédit a décliné. Cette régression technique a provoqué un effondrement, un effondrement dont nous observons toujours les effets. Ce qui ne va pas avec la théorie des cycles d’affaires réels est sa conception des marchés du travail et l’utilisation d’un agent représentatif, pas son identification des causes des ralentissements.

Cela nous amène à la question suivante : Quels mécanismes sont susceptibles de provoquer une régression de plus long terme ? Voici une liste non exhaustive :

  • La maladie de Baumol. Là où la productivité ne peut s’améliorer, les coûts relatifs augmentent au cours du temps à mesure que les salaires augmentent. Cela peut rendre certains services non rentables. C’est probablement un tel mécanisme qu’il y a derrière l’histoire des services postaux.

  • Les actifs intangibles. Nous avions l’habitude de penser que la technologie s’améliorait via la réallocation des actifs des entreprises en déclin vers les entreprises plus efficaces. Cela peut être vrai en ce qui concerne les actifs physiques. Mais est-ce également le cas des actifs intangibles ? Si le savoir d’une entreprise se ramène à un capital organisationnel, sa faillite peut entraîner la perte de ce savoir. Et, comme l’a dit Luigi Zingales, "un choc temporaire comme une crise financière peut avoir d’importantes répercussions à long terme".

  • La dépendance au sentier. Brian Arthur a décrit comment une piètre technologie peut gagner un avantage temporaire sur une meilleure technologie en raison d’un heureux accident. Les producteurs peuvent continuer à procéder à des améliorations parcellaires de la technologie inférieure, ce qui a pour conséquence l’abandon d’une technologie potentiellement meilleure. C’est peut-être le mécanisme à l’œuvre derrière les voitures à vapeur et peut-être même derrière la recherche économique.

  • Les incitations. S’il y a de plus grandes incitations pour la quête de rentes plutôt que pour l’innovation, alors nous nous retrouvons avec moins d’innovations. Pire, les luttes dans la répartition du revenu peuvent réduire la taille du revenu total. C’est peut-être le mécanisme derrière la malédiction des ressources naturelles et derrière la merveilleuse parabole du bœuf de John Kay.

  • Le plus grand danger, peut-être, est simplement l’essor des attitudes anti-intellectuelles et anti-scientifiques, telles que nous nous observons actuellement avec l’opposition aux vaccinations, la croyance en un monde post-vérité et les attaques dont sont l’objet les universités.

Le progrès est plus fragile que nous ne le supposons. Vous devez vous demander comment renforcer les conditions matérielles et intellectuelles qui lui sont sous-jacentes. »

Chris Dillow, « On technological regress », in Stumbling & Mumbling (blog), 13 décembre 2017. Traduit par Martin Anota

jeudi 14 décembre 2017

La querelle autour des modèles DSGE continue

« Les modèles dynamiques stochastiques d’équilibre général DSGE ont fait l’objet de vives critiques depuis la crise financière. Un récent document de Christiano, Eichenbaum et Trabandt (qui cherchent à défendre les modèles DSGE) a suscité toute une vague de réactions dans la blogosphère économique. Nous passons en revue les plus récentes contributions à ce sujet…

Un récent document de travail réalisé par Christiano, Eichenbaum et Trabandt sur les modèles dynamiques stochastiques d’équilibre général (DSGE) a suscité de nombreuses réactions sur la blogosphère. Dans ce document, les auteurs affirment que les modèles DSGE d’avant-crise ont certes eu des défauts que la crise a mis en évidence, mais que des progrès ont été réalisés au cours des dix dernières années, notamment en incorporant des fictions financières et l’hétérogénéité dans les modèles DSGE. Christiano et ses coauteurs s’attendent ainsi à ce que les modèles DSGE restent un outil primordial à la disposition des macro-économistes pour étudier les phénomènes agrégés et la politique économique, parce qu’il n’y aurait tout simplement pas d’alternative crédible pour l’analyse de la politique économique dans un monde où diverses forces économiques se font concurrence.

De nombreuses critiques suscitées par le document de travail se réfèrent à la première version publiée en ligne, qui n’est cependant plus disponible (la dernière version est celle datée du 27 novembre). Noah Smith a cité quelques extraits de la première version, en particulier un passage dans laquelle Christiano et ses coauteurs qualifient de "dilettantes" les personnes qui n’aiment pas les modèles DSGE, au motif que celles-ci mettraient certes en avant l’existence des forces concurrentes à l’œuvre (et jugent leur importance relative via d’implicites expériences de pensée) sans pouvoir jamais donner de sérieuses recommandations en matière de politique économique. Smith affirme que la ligne de défense des modèles DSGE que proposent Christiano et ses coauteurs comme seule façon de faire des prédictions quantitatives à propos des effets des changements de politique économique est erronée, parce qu’il y a au moins deux autres approches très communes, en l’occurrences les modèles économétriques structurels et les modèles autorégressifs vectoriels (VAR) structurels. Un modèle structurel n’est en outre pas toujours nécessaire pour faire des prédictions quantitatives à propos de la politique économique, comme cela peut être réalisé sous forme réduite. Quand les changements de politique économique peuvent être traités comme des expériences naturelles, leurs effets (notamment les effets d’équilibre général) peuvent être mesurés directement au lieu d’être inférés à partir d’un modèle structurel. Mais Christiano et ses coauteurs ignorent l’existence des expériences naturelles, malgré la popularité croissante de cette approche en science économique.

Bradford DeLong souligne que les modèles nouveaux keynésiens ont été élaborés pour montrer que les conclusions des vieux keynésiens et des vieux monétaristes en matière de politique économique étaient relativement robustes et qu’elles n’étaient pas remises en cause par l’acceptation de l’hypothèse des anticipations rationnelles. Ils ont été élaborés pour montrer qu’il est extrêmement fragile de conclure à l’insensibilité des variables réelles vis-à-vis des politiques systématiques. Lucas et ses disciples suivirent ensuite Prescott sur le territoire des cycles d’affaires réels, en prenant une erreur résiduelle et en affirmant qu’elle constitue leur principale variable conductrice exogène. Le cadre DSGE fut alors construit afin que les nouveaux keynésiens puissent communiquer avec les partisans des cycles d’affaires réels. Rien de tout cela n’a permis, jusqu’à présent, de faire des progrès concrets dans la compréhension des propriétés émergentes en matière de politique macroéconomique des économies réelles.

Jo Mitchell pense que Christiano et ses coauteurs cherchent à affirmer qu’on ne peut pas faire de la macroéconomie correctement sans modèle DSGE. Mais sur quelle base pouvons-nous dire que la macroéconomie DSGE est « faite proprement » ? Il y a deux endroits où l’on peut procéder à une validation empirique : les données microéconomiques et les données macroéconomiques. Trente ans de recherche en matière de modèles DSGE n’ont produit qu’un seul résultat empiriquement plausible : la courbe de Phillips augmentée des anticipations. Et elle était déjà bien connue avant. Il y a un revirement ironique ici : la faillite de la courbe de Phillips dans les années soixante-dix traça la voie vers la réussite pour les nouveaux classiques. La faillite de la courbe de Phillips à présent (dans l’autre direction) laisse les modèles DSGE avec aucun accomplissement vérifiable. Le document de Christiano et ses coauteurs a au moins un mérite : celui de confirmer ce que les macro-économistes au sommet de la discipline pensent à propos de leurs collègues sur les échelons inférieurs, en particulier ceux qui adoptent une position critique. (...)

Selon Chris Surro, le problème avec les modèles DSGE n’est pas qu’ils sont incapables d’expliquer des phénomènes économiques spécifiques : ils peuvent expliquer quasiment n’importe quel phénomène que vous pouvez imaginer, mais nous n’avons finalement aucun moyen pour décider quels modèles sont meilleurs que d’autres, si ce n’est en les confrontant aux données qu’ils sont censés expliquer. Tout ce que le modèle DSGE apporte est un ensemble d’hypothèses que tout le monde sait fausses (…). Christiano et ses coauteurs ne font rien pour répondre à cette critique. Surra affirme que la macroéconomie doit faire l’exact opposé : commencer par avoir les bonnes hypothèses. Puisque nous nous ne serons jamais capables de capturer toutes les complexités d’une véritable économie, l’économie du modèle est différente d’une économie réelle. Cependant, si les hypothèses qui fondent cette économie fictive sont réalistes, le modèle peut toujours fournir des réponses qui sont pertinentes pour le monde réel. Un modèle qui colle aux faits, mais dont les hypothèses sont irréalises, ne peut apporter des réponses pertinentes. »

Silvia Merler, « The DSGE model quarrel (again) », in Bruegel (blog), 11 décembre 2017. Traduit par Martin Anota

dimanche 10 décembre 2017

Une bulle sur le marché du Bitcoin ?

« Le prix du Bitcoin vient juste de passer les 11.000 dollars. Il y a un an, il valait moins de 800 dollars. Les économistes et les commentateurs s’inquiètent donc de plus en plus à l’idée qu’il puisse s’agir d’une bulle qui n’attend plus qu’à éclater. Nous passons en revue divers commentaires sur le sujet.

Le prix du Bitcoin a atteint et dépassé les 11.000 dollars, alors qu’il s’élevait à seulement 800 dollars il y a un an (cf. graphique). Selon The Economist (…), les cours sur le marché boursier sont certes élevés depuis quelques temps, les actions ne connaissent pas la même effervescence qu’ils ont connue avec la bulle internet de 1999-2000. Cette effervescence s’est déplacée au monde des crypto-monnaies comme le Bitcoin ou l’Ethereum. L’attrait dont elles bénéficient s’explique par trois choses : le fait que l’offre soit limitée ; les craintes à propos de la valeur à long terme des monnaies fiduciaires dans une ère d’assouplissement quantitatif ; et l’anonymat qu’elles permettent. Ces trois facteurs expliquent pourquoi le Bitcoin fait l’objet d’une certaine demande, mais pas pourquoi son prix a récemment augmenté. Peut-être que la demande de Bitcoin a augmenté du fait que certains s’attendent à ce que le blockchain, la technologie qui sous-tend le Bitcoin, finisse par être utilisé dans l’ensemble de l’industrie financière. Mais vous pouvez créer des blockchains indépendamment du Bitcoin ; les succès respectifs des blockchains et du Bitcoin ne sont pas inextricablement liés. Il est plus probable que la demande de Bitcoin augmente précisément parce que son prix augmente.

The_Economist__prix_bitcoin_recherches_google.png

source : The Economist (2017)

Bloomberg a publié un article sur ce qui pourrait faire éclater la bulle du Bitcoin. Premièrement, avec les divisions parmi les développeurs autour de la façon d’améliorer le réseau du Bictoin (…),différentes versions de la devise ont émergé de l’originale. Une fragmentation excessive peut se révéler catastrophique pour le Bitcoin, exactement comme elle l’a été pour le système financier américain durant l’ère de la banque libre. Deuxièmement, le spectre d’une répression complète sur les crypto-monnaies reste un risque extrême très présent, dans la mesure où le Bitcoin a pu être par le passé un moyen pour acheter des matériaux illicites, un véhicule pour la fuite des capitaux et une victime de détournements. Troisièmement, l’actif peut tomber entre les mains de hackers, comme ce fut le cas en 2011. Mais le piratage de 31 millions de dollars de la devise alternative "tether" un peu plus tôt ce mois n’a ralenti que momentanément la progression du Bictoin. Quatrièmement, l’introduction de futures peut amener davantage d’investisseurs à des prises de positions qui poussent les prix à la baisse. Cinquièmement, l’échec des échanges des grandes crypto-monnaies à gérer le trafic le jour où le Bitcoin a atteint les 10.000 dollars a rendu manifestes les problèmes de flexibilité auxquels les crypto-monnaies font face comme véhicules spéculatifs. Enfin, la soudaine hausse parabolique du Bitcoin est une énigme. Par conséquent, qu’est-ce qui nous empêche de penser qu’il puisse connaître soudainement la même trajectoire à la baisse?

Les économistes sont intervenus dans le débat, quelques fois en proposant des solutions extrêmes. Dans un entretien accordé à Quartz, Robert Shiller affirme que le Bitcoin est actuellement le meilleur exemple d’exubérance irrationnelle ou de bulle spéculative, alimentée par l’idée que les gouvernements ne peuvent le stopper, ni le réguler, qui résonne avec l’angoisse de notre époque. Dans un récent entretien accordé à Bloomberg, Joseph Stiglitz a dit que le Bitcoin rencontre le "succès seulement en raison des possibilités de contournement qu’il offre, du peu de surveillance dont il fait l’objet" et qu’il "doit être prohibé" parce qu’"il n’assure aucune fonction socialement utile".

Jean Tirole écrit dans le Financial Times qu’il y a plusieurs raisons d’être prudent à l’égard du Bitcoin ; les investisseurs doivent être protégés et l’on doit empêcher les banques réglementées, les assureurs et les fonds de pensions de s’exposer à ces instruments. Tirole affirme que le Bitcoin est une pure bulle, un actif sans valeur intrinsèque, donc insoutenable si la confiance disparaît. La valeur sociale du Bictoin est également douteuse : à la différence de l’assurance traditionnelle, il ne génère pas de seigneuriage, mais des "mining pools" s’affrontent pour obtenir des Bitcoins en investissant dans la puissance de calcul et en dépensant en électricité. Le Bictoin est peut-être un rêve libertarien, mais c’est un vrai mal de crâne pour ceux qui voient la politique publique comme un complément nécessaire aux économies de marché. Il est toujours trop souvent utilisé pour l’évasion fiscale ou le blanchiment d’argent et il présente des problèmes en ce qui concerne la capacité des banques centrales à mettre en œuvre des politiques contracyliques. Les avancées technologiques peuvent améliorer l’efficacité des transactions financières, mais elles ne doivent pas nous amener à oublier les fondamentaux économiques.

Kenneth Rogoff pense qu’à long terme la technologie va se développer, mais que le prix du Bitcoin va s’effondrer. La suite des événements va dépendre de la réaction des gouvernements et du succès que rencontreront les divers concurrents au Bitcoin dans leurs tentatives de pénétrer le marché. En principe, il est facile de cloner ou d’améliorer la technologie du Bitcoin, mais pas de dupliquer sa réputation, sa crédibilité et le large écosystème d’applications qui se sont accumulées autour de lui. Pour l’instant, l’environnement réglementaire reste chaotique, mais si le Bitcoin perdait de son quasi-anonymat, il serait difficile de justifier son prix actuel. Peut-être que les spéculateurs du Btcoin parient qu’il va toujours y avoir un consortium d’Etat rebelles qui autorisera l’usage du Bictoin ou même des acteurs étatiques tels que la Corée du Nord qui l’exploiteront. Il est également difficile de voir ce qui empêcherait les banques centrales de créer leurs propres devises digitales et d’utiliser la réglementation pour faire pencher la balance en leur faveur jusqu’à ce qu’elles gagnent. La longue histoire des monnaies nous enseigne que les innovations du secteur privé finissent par être réglementées et appropriées par l’Etat.

Tyler Cowen avait l’habitude de considérer le Bitcoin comme une bulle, mais plus maintenant. Il affirme que nous devons considérer que le Bitcoin joue de plus en plus un rôle qu'a pu tenir l’or, voire l’art. L’or, aussi, dans ses fonctions de couverture s’apparente à une "bulle", mais n’en est pas une. Il est difficile à transporter, mais il a une certaine valeur supplémentaire parce qu’il est perçu comme un actif central et qu’il n’est pas positivement corrélé avec le portefeuille de marché d’une façon simple. La même chose est exacte pour le Bitcoin, mais ce genre d’effervescence peut persister pendant des siècles. L’or sert moins en tant qu’instrument de couverture, en partie parce que l’inflation a été faible et en partie parce que la Chine et l’Inde ont dominé le marché de l’or (…). Donc, de nouvelles et meilleures couvertures sont nécessaires. Et le Bitcoin est un bon candidat à cet égard.

John Cochrane pense que ce qui se passe avec le Bictoin s’apparente à un phénomène parfaitement "normal". Combinez un rendement d’opportunité et une demande spéculative avec une offre temporairement limitée, plus une offre de substituts temporairement limitée, et vous obtenez une hausse du prix du Bitcoin. Cela peut aider s’il y a une forte asymétrie d’information ou d’opinion pour stimuler les échanges et, étant donné l’origine douteuse de la demande de Bitcoin (il n’y a pas de rapports annuels sur le volume que la mafia russe veut placer à l’étranger la semaine prochaine) c’est également possible.

Izabella Kaminska a un long article (…) où elle explique pourquoi les futures en Bitcoin et une structure de marché bien imparfaite posent problème. Elle écrit aussi dans le Financial Times que le véritable investissement n’est pas la même chose que le jeu et que, dans un contexte où la crypto-monnaie fait l’objet d’un fort engouement, les régulateurs doivent souligner cette distinction. Pendant des décennies, les régulateurs à travers du monde ont cherché à atténuer les effets négatifs du jeu. Pendant longtemps, les zones de jeu autorisées confinées à des zones géographiques spécifiques ont semblé constituer la solution optimale. Ce n’est plus le cas avec l’avènement d’Internet. Les contraintes géographiques ont commencé à perdre de leur sens, tandis que l’innovation (notamment l’invention de crypto-monnaies) a remis en cause l’efficacité des interdictions. Même si les échanges de crypto-monnaies étaient interdis, il est probable que certaines juridictions continueraient de les autoriser, que des portes dérobées soient créées en ligne pour continuer de servir les clients dans les zones restreintes. Cela ne laisse aujourd’hui qu’une option aux régulateurs. Les activités associées au jeu doivent être stigmatisées et non promues. »

Silvia Merler, « The Bitcoin Bubble », in Bruegel (blog), 4 décembre 2017. Traduit par Martin Anota

samedi 2 décembre 2017

L’élaboration et la réception du discours présidentiel de Friedman

« Dans quelques semaines, le fameux discours présidentiel où Milton Friedman a introduit la notion de taux de chômage d’équilibre et s’est opposé à l’usage de la courbe de Phillips dans la politique macroéconomique fêtera ses 50 ans. Il a atteint plus de 8.000 citations, c’est-à-dire davantage que l’ensemble des preuves de l’existence d’un équilibre général apportées par Arrow, Debreu et McKenzie, davantage que l’article de Lucas où celui-ci avance sa fameuse critique. Dans un article qui sera présenté à la session anniversaire organisée par l’American Economic Association en janvier, Greg Mankiw et Ricardo Reis se sont demandé "ce qui explique la grande influence de ce travail", qu’ils interprètent comme "le point de départ pour les modèles d’équilibre général stochastiques dynamiques" (DSGE). Ni leur article, ni la contribution d’Olivier Blanchard qui sera également présentée à cette conférence, ne montrent comment l’allocution de Friedman a pu capturer l’opinion des macroéconomistes. C’est une tâche pour laquelle les historiens de la pensée économique (dont aucun n’est invité à la session anniversaire) sont les mieux équipés. En l’occurrence, plusieurs travaux historiques ont récemment éclairé comment Friedman a élaboré son allocution et comment celle-ci s’est divulguée.

L’élaboration de l’allocution présidentielle de Friedman


Un vendredi soir de décembre 1967, dans le Sheraton Hall de Washington, le président de l’American Economic Association Milton Friedman commença son allocution présidentielle ainsi : "Il y a un large accord à propos des objectifs majeurs de la politique économie : un emploi élevé, des prix stables et une croissance rapide. Il y a par contre plus de désaccords à l’idée que ces objectifs puissent être mutuellement compatibles ou, parmi ceux qui les considèrent comme incompatibles, à propos les modalités par lesquelles ils peuvent et doivent se substituer l’un à l’autre. Il y a plus de désaccords à propos du rôle que divers instruments de politique économique peuvent et doivent jouer pour atteindre les divers objectifs. Mon sujet ce soir portera sur le rôle d’un de ces instruments – la politique monétaire",

Comme l’a expliqué James Forder, Friedman a réfléchi à son allocution pendant au moins 6 mois. En juillet, il avait écrit un premier brouillon, appelé "Can full employment be a criterion of monetary policy?" ("Le plein emploi peut-il être un critère de politique monétaire ?"). A cette époque, Friedman voulait remettre en cause l’idée qu’il existe un arbitrage entre inflation et chômage. L’idée "que le plein emploi (…) puisse être atteint et doive être un critère spécifique de politique monétaire, que cette dernière doive être accommodante quand le chômage est élevé (…) est tellement tenue pour acquise qu’il vous sera difficile de croire que (…) cette croyance est fausse", écrit-il. L’une des raisons qu’il invoque est qu’il existe un "taux de chômage naturel (…), dont le niveau serait celui qui serait généré par un système walrasien d’équations d’équilibre", un chômage qu’il est difficile de cibler. Il a ensuite cherché à expliquer pourquoi il n’y avait pas, en fait, d’arbitrage à long terme entre inflation et chômage.



Dans l’essentiel du raisonnement, il n’y a pas de référence explicite à la "courbe de Phillips" ; cette dernière n’est discutée sur deux pages. Friedman, qui avait, en restant à la LSE en 1952, abondamment discuté de l’inflation et des anticipations avec notamment William Phillips et Phillip Cagan, expliqua que la confusion entre salaires réels et nominaux du premier était peut-être compréhensible dans une ère de prix stables, mais qu’elle était désormais devenue problématiques. En effet, comme l’inflation pousse les salaires réels (et le chômage) à la baisse, les anticipations s’adaptent : "il y a toujours un arbitrage temporaire entre l’inflation et le chômage ; il n’y a pas d’arbitrage permanent. L’arbitrage temporaire ne vient pas de l’inflation en soi, mais de l’inflation non anticipée, c’est-à-dire généralement une accélération de l’inflation", conclut-il.

Mais au final, l’allocution que Friedman donna en décembre couvrit un domaine beaucoup plus vaste. L’allocution commença avec la démonstration que la politique monétaire ne peut pas ancrer les taux d’intérêt et la section sur le taux de chômage naturel s’est trouvée complétée par des réflexions sur la façon par laquelle la politique monétaire doit être conduite. En lien avec ce qu’il conseillait depuis 1948, Friedman suggéra que les autorités monétaires devaient obéir à trois principes : (1) ne pas faire de la politique monétaire une force perturbatrice ; (2) cibler des grandeurs que les autorités peuvent contrôler et (3) éviter de brutales fluctuations. Ces trois principes seraient mieux combinés quand la banque centrale "adopte publiquement une politique visant à atteindre un taux régulier de croissance comme celui d’un total monétaire précis", ce qui fut par la suite appelé la "règle de k %" de Friedman.

L’interprétation habituelle de l’allocution de Friedman est précisément celle véhiculée par Mankiw et Reis, c’est-à-dire celle d’une réaction à la présentation de la courbe de Phillips par Samuelson et Solow en 1960 comme un "menu d’options entre divers degrés de chômage et de stabilité des prix". Mankiw et Reis supposent que cette interprétation, avec l’idée que l’arbitrage puisse varier au cours du temps, était si acceptée qu’ils considèrent Samuelson, Solow et leurs disciples comme le seul public auquel Friedman cherchait à s’attaquer. Pourtant, Forder et Robert Leeson, entre autres, ont apporté des preuves robustes que les macroéconomistes présentaient déjà une approche bien plus subtile du ciblage du chômage dans la politique monétaire. La nature des anticipations et la forme des anticipations faisaient l’objet de nombreuses discussions aussi bien aux Etats-Unis qu’au Royaume-Uni. Samuelson, Phelps, Cagan, Hicks ou Phillips avaient régulièrement indiqué, aussi bien dans des publications universitaires que dans des journaux, que l’idée d’un arbitrage doit être sérieusement nuancée en théorie et ne doit en aucun cas guider la politique monétaire à la fin des années soixante. Friedman lui-même avait déjà consacré tout une chronique en 1966 dans Newsweek pour expliquer pourquoi il y aurait "une récession inflationniste".

Cet environnement intellectuel, aussi bien que le changement de focale de la version définitive de cette allocution amena Forder à conclure qu’"il n’y a pas de preuve que Friedman ait voulu mettre l’accent sur un quelconque argument à propos des anticipations ou de la courbe de Phillips et (…) qu’il n’aurait pas trouvé un tel argument nouveau, surprenant ou intéressant". Nous sommes en désaccord avec cette idée. En effet, un discours devant l'AEA constituait un forum dont Friedman ne pouvait négliger la portée, d'autant plus que les débats académiques et politiques sur la politique monétaire prenaient de l'ampleur à l'époque. Le lendemain de l’allocution de Friedman, William Poole, de John Hopkins, présenta un article intitulé "Monetary Policy in an Uncertain World" ("La politique monétaire dans un monde incertain"). Six moins après, la Réserve fédérale de Boston tint une conférence sur "le contrôle des agrégats monétaires". Présentée comme la première d’une "série couvrant une large gamme de problèmes financiers ou monétaires", son propos était de faciliter les échanges sur l’"une des questions de politique économique les plus pressantes actuellement, le rôle de la monnaie dans l’activité économique". Cela amena Samuelson, David Meiselman, James Tobin, Alan Meltzer, John Kareken à se pencher ensemble sur le "modus operandi de la Réserve fédérale", James Duesenberry sur "les tactiques et les cibles de la politique monétaire" et le membre du comité Sherman Maisel sur "le contrôle des agrégats monétaires". Lorsqu’il ouvrit la conférence, Samuelson proposa à ce que "la question centrale qui soit débattue les jours suivants en connexion avec la macroéconomie soit la doctrine du monétarisme", citant, non pas la récente allocution de Friedman, mais son Histoire monétaire des Etats-Unis de 1963, réalisée avec Anna Schwartz. Cette même année, le Journal of Money, Credit and Banking a été créé, suivi par le Journal of Monetary Economics en 1973. Les économistes ont joué un plus grand rôle à la Fed depuis 1965, quand Ando et Modigliani furent chargés de développer d’un large modèle macroéconométrique (…).

En réfléchissant au "rôle de la politique monétaire" à un tel moment crucial, Friedman essayait donc de s’adresser à des publics bien différents. C’est pour cela que son discours était à la fois théorique, historique et orienté vers la politique économique, qu’il a amalgamé divers arguments avec l’objectif de proposer un ensemble convaincant. Le fait que, dans des contextes et des débats scientifiques changeants, ces différents publics aient retenu, souligné et naturalisé différents morceaux de l’ensemble nous empêche de bien suivre sa divulgation et de bien saisir son influence.

Le discours de Friedman dans le contexte des années soixante-dix


La divulgation au sein du monde universitaire


Ce sont les macroéconomistes universitaires auquel Friedman s’adressa le plus directement. Le récit canonique (celui dont Mankiw et Reis font écho) est que l’allocution de Friedman a ouvert la voie au déclin du keynésianisme et à l’essor de la nouvelle école classique, pour ne pas dire des modèles DSGE. Mais certaines recherches historiques en cours que l’un d’entre nous (Aurélien) réalise en collaboration avec Goulven Rubin suggèrent que ce furent plutôt des économistes keynésiens (et non les nouveaux classiques) qui impulsèrent la diffusion de l’hypothèse du taux de chômage naturel. Un protagoniste clé fut Robert Gordon, qui venait juste d’achever sa thèse sur les "problèmes de la mesure de l’investissement réel dans le secteur privé de l’économie américaine" sous la direction de Solow au MIT lorsque Friedman fit son discours. Il rejeta initialement l’hypothèse de taux de chômage naturel ; il ne l’adopta que bien après, dans ce qui deviendra le modèle du manuel élémentaire des nouveaux keynésiens à la fin des années soixante-dix.

Ce n’est pas la théorie qui l’amena à changer d’avis. Ce furent les données empiriques : dans la courbe de Phillips où l’inflation salariale dépend des anticipations d’inflation et du chômage que Solow et lui-même estimèrent séparément en 1970, le paramètre associé aux anticipations d’inflation était extrêmement faible, chose qui l’amena à rejeter l’argument accélérationniste de Friedman. Par conséquent, Gordon trouvait que l’impact du changement de la composition de la population active (en termes d’âge et de sexe) sur le taux de chômage structurel, mis en lumière par George Perry, constituait une meilleure explication pour l’accélération de l’inflation à la fin des années soixante. En 1973, le paramètre avait suffisamment augmenté pour que l’économiste keynésien change d’avis. Il importa le taux de chômage naturel dans un modèle sans apurement avec une concurrence imparfaite et des rigidités salariales, ce qui permettait de faire apparaître un chômage involontaire et surtout préservait la justification de politiques monétaires actives de stabilisation.

Le manuel de 1978 où Gordon introduisit son cadre offre globale-demande globale présenta tout un chapitre sur la courbe de Phillips, dans lequel il s’appuyait explicitement sur l’allocution de Friedman pour expliquer pourquoi la courbe était supposée verticale à long terme. Les éditions suivantes continuèrent de se référer au taux de chômage naturel et à la verticalité à long terme, mais plutôt expliqués avec la concurrence imparfaite et la rigidité des salaires. 1978 fut aussi l’année où Stanley Fischer et Rudiger Durnbusch publièrent leur ouvrage Macroeconomics (le modèle des manuels de macro ultérieurs). Les deux auteurs firent allusion à un possible arbitrage à long terme, mais comme Gordon, établie sur une courbe de Phillips verticale à long terme. A la différence de Gordon, cependant, ils présentèrent immédiatement des fondations "keynésiennes".

Au même instant, les nouveaux classiques empruntèrent une autre voie. Ils se proposèrent d’"améliorer" les propos de Friedman en les rendant cohérents avec les anticipations rationnelles, en pointant la conséquence théorique de cette nouvelle classe de modèles pour la politique monétaire. En 1972, Robert Lucas montra clairement que la règle de "k %" de Friedman est optimale dans son modèle d’anticipations rationnelles avec asymétrie d’informations et Thomas Sargent et Neil Wallace confirmèrent bientôt qu'"une règle de croissance de X pourcents pour l’offre de monnaie est optimale dans ce modèle, du point de vue de la minimisation de la variance de la production réelle". La critique de Lucas de 1976 insista davantage sur le fossé entre le contenu des modèles macroéconométriques structuraux keynésiens, notamment ceux utilisés par la Fed, et les idées de Friedman.

L’impact sur la politique économique


Divers économistes au Sheraton Hall de Washington et notamment Friedman lui-même eurent bientôt pour tâche d’évaluer la pertinence de l’allocution pour la politique économique. C’est Arthur Burns, l’analyste des cycles d’affaires au NBER, l’économiste de Rutgers qui convainquit le jeune Friedman de poursuivre une carrière d’économiste, qui présida la session de l’American Economic Association. Il quitta la salle convaincu par Friedman que l’inflation découle des anticipations adaptatives. Lors d’une audience de confirmation au Congrès en décembre 1969, il déclara : "je pense que la courbe de Phillips est une généralisation, une généralisation très sommaire, pour les mouvements de court terme et je pense que même à court terme la courbe de Phillips peut être changée". Quelques semaines après, il fut placé à la tête de la Réserve fédérale. Edward Nelson a montré comment, au grand désarroi de Friedman, les vues changeantes de Burns l’amenèrent rapidement à appuyer le contrôle des prix et des salaires que proposait par Nixon et qui fut instauré en août 1971. En réaction, les monétaristes Karl Brunner et Allan Meltzer fondèrent en 1973le "comité parallèle d’open market" (Shadow Open Market Committee). Comme l’expliqua par la suite Meltzer, "Karl Brunner et moi-même avons décidé d’organiser un groupe pour critiquer cette décision et signaler en quoi c’est une erreur d’affirmer que les contrôles peuvent stopper l’inflation".



Alors que les contrôles des prix et des salaires étaient supprimés en 1974, l’indice des prix à la consommation augmenta soudainement de 12 % (suite au choc pétrolier d’octobre 1973) et le chômage augmentait, pour atteindre 9 % en 1975. Ce double fléau, que le politicien britannique Ian MacLeod qualifia de "stagflation" en 1965, divisa profondément le pays (aussi bien que les économistes, comme le montre la fameuse couverture du Time en 1971). A quoi devait-on tout d’abord s’attaquer, au chômage ou à l’inflation ? En 1975, le sénateur Proxmire, membre du comité sur l’activité bancaire du Sénat, soumit une résolution qui visait à forcer la Fed à se coordonner avec le Congrès, en prenant en compte la hausse de la production et "l’emploi maximal" avec la stabilité des prix dans ses objectifs, et à présenter des "fourchettes numériques" pour la croissance de la masse monétaire. Friedman fut appelé à témoigner et le rapport du Sénat qui en résulta fit écho à l’affirmation de son allocution de 1968 selon laquelle il n’y aurait pas d’"arbitrage à long terme" : "il semble qu’il n’y ait pas d’arbitrage à long terme. Par conséquent, il n’y a pas besoin de choisir entre le chômage et l’inflation. Plutôt, l’emploi maximal et la stabilité des prix sont des objectifs compatibles (…) à long terme (…) à condition que la stabilité soit atteinte avec une croissance des agrégats monétaires et de crédit qui soit compatible avec la croissance du potentiel productif de l’économie".

S’il n’y a pas d’arbitrage à long terme, alors rechercher explicitement l’emploi maximal n’était pas nécessaire. La stabilité des prix favoriserait l’emploi et le programme de politique économique de Friedman s’en trouverait confirmé.

La Résolution 133 qui en résulta n’empêcha toutefois pas le personnel de la Fed de saper les tentatives du Congrès visant à prendre le contrôle de la politique monétaire : sa stratégie consistait à présenter un ensemble confus de cinq mesures différentes d’agrégats monétaires et de crédit. Entretemps, d’autres assauts sur le mandat de la Fed gagnèrent en vigueur. Les activistes de l’emploi, en particulier ceux qui, dans le sillage de Coretta Scott King, faisaient valoir que les travailleurs noirs étaient tout particulièrement touchés par le chômage, multiplièrent les manifestations. En 1973, le parlementaire noir de Californie Augustus Hawkins a organisé une conférence pour dessiner les contours d’une "politique de plein emploi pour l’Amérique". On demanda aux participants de discuter des ébauches d’un projet de loi soumis conjointement par Hawkins et le sénateur du Minnesota Hubert Humphrey, membre du Comité économique mixte. Promulguée en 1978 sous le nom de "loi du plein emploi et de la croissance équilibrée" (Full Employment ad Balanced Growth Act), cette loi institua la surveillance de la politique monétaire par le Congrès. Elle exige de la Fed qu’elle fournisse un compte-rendu deux fois par an auprès du Congrès et qu’elle établisse et suive une règle monétaire qui prenne en compte l’inflation et le chômage. Les conséquences de la loi ont donné lieu à de vifs débats dès 1976 au sein de l’American Economic Association, dans le Journal of Monetary Economics ou dans la revue Challenge. Les passions suscitées par la loi contrastèrent avec les effets de celle-ci sur la politique monétaire, effets qui, de nouveau, furent limités. L’année suivante, Paul Volcker prit la tête de la Fed et, en octobre, il annonça abruptement que la Fed fixerait des règles contraignantes pour la création de réserves et laisserait les taux d’intérêt dériver si nécessaire.

Une transmission compliquée entre sphère universitaire et décideurs publics


L’allocution de 1967 circula donc initialement dans la sphère universitaire et dans les cercles de politique publique, avec des retombées qui n’ont pas toujours plu à Friedman. Le taux de chômage naturel a été adopté par certains économistes keynésiens parce qu’il semblait robuste sur le plan empirique ou, tout du moins, utile, mais il fut introduit dans des modèles soutenant une politique monétaire discrétionnaire de stabilisation. Les règles de politique monétaire furent graduellement introduites dans le cadre légal présidant la conduite de la politique monétaire, mais elles le furent avec l’objectif de réorienter la Fed vers la poursuite de l’emploi maximal. Paradoxalement, on a beau avoir l’habitude de présenter les travaux des nouveaux classiques comme le canal de transmission clé par lequel l’allocution s’est diffusée dans la science économique et au-delà de celle-ci, ces travaux semblent à première vue n’avoir qu’un lien lointain avec la politique économique.

En effet, on doit lire attentivement les articles séminaux des années soixante-dix qui sont habituellement associés à la "révolution des nouveaux classiques" pour trouver des références au contexte trouble de la politique économique. Le cadre de l’article de Finn Kydland et Edward Prescott sur "la règle versus la discrétion" ("Rules versus discretion"), dans lequel l’usage des anticipations rationnelles mit en lumière des problèmes de crédibilité et d’incohérences temporelles, était entièrement théorique. Il se conclut par la phrase cryptique : "il peut y avoir des accords institutionnels qui rendent le changement des règles de politique économique un processus difficile et chronophage sauf dans les situations d’urgence. Un possible accord institutionnel consisterait pour le Congrès à introduire des règles de politique monétaire et budgétaire et à ce que ces règles deviennent effectives après seulement un délai de deux ans. Cela rendrait la politique discrétionnaire impossible". De même, Sargent et Wallace débutèrent leur article sur la "déplaisante arithmétique monétariste" ("unpleasant monetarist arithmetic") de 1981 en discutant de l’allocution présidentielle de Friedman, mais ils s’empressèrent d’ajouter que l’article avait été conçu comme une démonstration théorique de l’impossibilité de contrôler l’inflation. Aucune des controverses institutionnelles ne fut mentionnée, mais l’auteur avait fini l’un de ses travaux antérieurs avec cette phrase : "Nous avons écrit cet article, non pas parce que nous pensons que notre hypothèse à propos du jeu que se livrent les autorités monétaires et budgétaires décrit la façon par laquelle les politiques monétaires et budgétaire doivent être coordonnées, mais par crainte qu’elle puisse décrire la façon par laquelle le jeu est actuellement joué".

Robert Lucas fut le seul à écrire un article qui débattit explicitement du programme monétaire de Friedman et pourquoi il avait "un impact si limité". Présenté à la conférence du NBER en 1978, il lui fut demandé de discuter de "ce que la politique économique aurait dû être en 1973-1975", mais il déclina. La question était "mal posée", selon lui. La source du chaos économique des années soixante-dix, continua-t-il, se situait dans l’incapacité à construire des institutions monétaires et budgétaires appropriées, chose dont il discuta abondamment. En mentionnant la "révolte des contribuables", il salua la Proposition 13 de la Californie qui visait à limiter les taxes sur la propriété. Il défendit ensuite la Résolution 133, qui exigeait de la Fed qu’elle annonce au préalable des cibles de croissance monétaire, en espérant un prolongement plus contraignant.

Cette distance contraste avec la volonté des économistes monétaristes et keynésiens de discuter des accords institutionnels monétaires américains en vigueur dans les travaux universitaires et dans la presse. C’est particulièrement étrange étant donné que ces économistes travaillaient dans l’œil du cyclone (institutionnel). Sargent, Wallace et Prescott étaient alors des économistes à la Réserve fédérale de Minneapolis et l’article de Sargent et Wallace mentionné ci-dessus avait été publié par la revue trimestrielle de celle-ci. Même si aucun d’entre eux ne semblait s’intéresser en priorité aux débats autour de la politique économique, leur influence intellectuelle était manifeste dans les déclarations des responsables de la Réserve fédérale de Minneapolis. Son président, Mark Willes, un ancien doctorant en économie monétaire de l’Université de Columbia, était impatient de prêcher l’évangile des nouveaux classiques au comité fédéral d’open market. "Il n’y a pas d’arbitrage entre l’inflation et le chômage" martela-t-il dans une lecture à l’Université de Minnesota. Il ajouta plus tard que : "C’est bien sûr principalement à la communauté universitaire et à d’autres groupes de recherche que nous nous adressions… Si vous voulez avoir une politique économique efficace, vous devez avoir une théorie cohérente du fonctionnement de l’économie… Friedman ne semble pas non plus complètement convaincant. Peut-être que les partisans des anticipations rationnelles ici… ont la réponse ultime. A ce stade, seuls Heaven, Neil Wallace et Tom Sargent la connaissent probablement".

Si les débats faisaient rage aussi bien à la Réserve fédérale de Minneapolis qu’à l’Université du Minnesota, c’était parce que les politiques conçues pour atteindre l’emploi maximal étaient conçues par le sénateur du Minnesota Humphrey, lui-même conseillé par un ancien collègue de Sargent et Wallace, le célèbre économiste keynésien Walter Heller, qui fut un membre du Council of Economic Advisers (CEA) et un architecte de la réduction d’impôts de Kennedy en 1964.
La vie autonome de l’allocution présidentielle dans les années quatre-vingt et quatre-vingt-dix

L’allocution présidentielle de Friedman semble faire l’objet d’un surcroît de citations dans les années quatre-vingt et quatre-vingt-dix, mais c’est encore une hypothèse qui doit être vérifiée. Nous faisons le pari que les macroéconomistes en sont venus à relire l’allocution dans le sillage de la détérioration des conditions économiques qu’ils associèrent au ciblage de Volcker. Après que l’expérience de la cible monétaire ait été interrompue en 1982, les macroéconomistes s’intéressèrent de plus en plus aux accords institutionnels et aux instruments de politique économique. Nous croyons que ce changement apparaît le plus manifestement dans les écrits de John Taylor. Leeson raconte comment les travaux de Taylor (qui était un étudiant de cycle supérieur à l’époque où Friedman fit son allocution présidentielle) se focalisèrent sur la théorie de la politique monétaire. Après ses deux passages au CEA en tant qu’économiste, il était obsédé par la façon de rendre la politique monétaire plus malléable. Il fut de plus en plus convaincu à l’idée d’inclure les pratiques monétaires dans l’analyse, un processus qui culmina avec la formulation de la règle de Taylor en 1993 (dans un article qui est aujourd’hui davantage cité que l’allocution présidentielle de Friedman). Un changement de l’intérêt des universitaires (que l’on peut interpréter comme se rapprochant de l’esprit, si ce n’est du contenu, de l’allocution de Friedman) a aussi été manifeste dans les discussions autour des cibles de revenu nominal dans les années quatre-vingt. Ici, les débats universitaires précédèrent les réformes de politique économique, dans la mesure où le double mandat de la Fed vis-à-vis de l’inflation et du chômage n’est apparu dans une déclaration du comité fédéral d’open market que sous Ben Bernanke, en 2010, dans le sillage de la crise financière (…). Cette reconnaissance tardive peut, à nouveau, fournir une nouvelle lecture de l’allocution présidentielle de Friedman, une vieille dame dont le charme apparaît intemporel. »

Beatrice Cherrier et Aurélien Goutsmedt, « The making and dissemination of Milton Friedman’s 1967 AEA presidential address », in The Undercover Historian (blog), le 27 novembre 2017. Traduit par Martin Anota

- page 1 de 28