Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Bruegel

Fil des billets

lundi 10 septembre 2018

Dix ans après Lehman Brothers

« Dix ans après la faillite qui a ébranlé l’économie mondiale, nous passons en revue ce que les économistes pensent des leçons qui ont été tirées de la crise financière mondiale.

Adam Tooze a écrit un nouveau livre, épais de 700 pages, sur l’histoire financière et économique de la dernière décennie judicieusement appelé Crashed. Le livre porte sur quatre grands thèmes : la réponse adoptée immédiatement suite à la crise, la crise de la zone euro, la généralisation de l’austérité budgétaire dans les pays développés après 2010 et enfin l’essor des mouvements populistes en Europe et aux Etats-Unis. Vous pouvez trouver une recension du livre dans The Economist et Tooze publie sur son blog de nombreux billets où il revient sur des thèmes qu’il aborde dans son livre.

Christine Lagarde nous dit sur le blog du FMI que l’anniversaire nous donne l’occasion d’évaluer la réponse apportée à la crise au cours de la dernière décennie. Lagarde dit que nous avons fait un long chemin, mais qu’il n’est pas encore terminé : le système est plus sûr, mais pas assez sûr ; et la croissance a rebondi, mais elle n’est pas assez partagée. Pour compliquer les choses, le paysage de l’économie politique a changé, avec un moindre engagement à la coopération internationale. Trop de banques, en particulier en Europe, restent fragiles et le capital bancaire doit probablement s’accroître davantage.

La culture, les valeurs et l’éthique n’ont pas beaucoup changé, dans la mesure où le secteur financier continue de donner la priorité au profit immédiat plutôt qu’à la prudence, au court-terme plutôt qu’à la soutenabilité. Dans ce contexte, Lagarde pense qu’une réforme clé pourrait consister à introduire davantage de commandement féminin en finance, pour deux raisons. D’une part, une plus grande diversité permet d’élargir la réflexion et d’éviter la pensée unique. D’autre part, cette diversité se traduira par davantage de prudence, avec moins de décisions imprudentes comme celles qui ont été à l’origine de la crise. S’il y avait eu davantage de Lehman Sisters et moins de Lehman Brothers, le monde aurait été bien différent aujourd’hui.

Martin Wolf dit que, depuis la crise, les politiques et décideurs de politique économique ont essayé de nous ramener vers le passé plutôt que vers un avenir différent. Pour être plus précis, ils ont essayé de revenir à un meilleur passé, de la même façon qu’ils avaient cherché à le faire en 1918. En 1918, ils voulaient principalement revenir à un meilleur passé en matière de relations internationales ; après la crise de 2008, ils ont voulu revenir à une meilleure version du passé en matière de réglementation financière. Dans les deux cas, il s’agissait de laisser le reste inchangé. Le principal objectif de la politique économique au lendemain de la crise était de procéder à un sauvetage : stabiliser le système financier et restaurer la demande globale. Un tel sauvetage consistait à utiliser les bilans publics pour contenir l’effondrement du système financier, à réduire les taux d’intérêt, à laisser les déficits budgétaires s’accroître à court terme tout en limitant l’expansion budgétaire discrétionnaire et à introduire de nouvelles réglementations financières complexes.

A la différence des années trente, cela empêcha l’effondrement de l’économie et permis une reprise (fragile). La crise financière marque un échec dévastateur du libre marché suite au creusement des inégalités dans plusieurs pays. Pourtant, contrairement à ce qui s’est passé dans les années soixante-dix, les décideurs de politique économique ont peu questionné les rôles respectifs des gouvernements et des marchés. Il est peu surprenant que les populistes soient si populaires, au vu de cette inertie, une inertie que Wolf explique davantage par la puissance de certains intérêts privés que par l’absence de nouvelles idées.

Harold James écrit que la crise financière de 2008 a nourri trois grands récits chez les responsables de la politique économique et les faiseurs d’opinion. Premièrement, après Lehman, l’Histoire mondiale de la spéculation financière, le livre que Charles Kindleberger publia en 1978 en s’appuyant sur les travaux de Hyman Minsky sur les cycles financiers, a connu un regain de popularité et il a été interprété comme une mise en garde contre "fondamentalisme du marché". Le deuxième récit considère que la chute de Lehman fait écho au krach de Wall Street de 1929 et à la Grande Dépression. Le troisième récit était que l’effondrement de Lehman augurait la fin du capitalisme américain. Aucun des deux premiers récits n’est vraiment correct. La crise ne fut pas un échec de marché, mais plutôt le produit d’institutions non marchandes opaques et dysfonctionnelles qui se sont perversement de plus en plus enchevêtrées. Elle a révélé le problème de la complexité et non des marchés en tant que tels.

Le troisième récit s’est révélé exact : la prédominance financière et politique des Etats-Unis s’est effritée. Elle se fondait sur la puissance économique et politique, mais elle dépendait aussi de quelque chose de plus fondamental : la croyance en la capacité des Etats-Unis à honorer ses promesses à long terme. La crise a ébranlé cette croyance, même si la puissance économique et politique des Etats-Unis n’a que légèrement diminué. La contagion la plus profonde était intellectuelle, pas financière. Le comportement financier ne s’opère pas dans le vide et le même genre d’esprit court-termiste et hyperactif qui a conduit à Lehman s’enracinait aussi à l’époque dans le reste de la société.

Howard Davies se demande si la crise financière a été utile. Il y a eu des changements significatifs : les plus grandes banques ont maintenant trois à quatre fois plus de capital et du capital de meilleure qualité, qu’elles n’en avaient en 2007 ; des tampons supplémentaires sont exigés des institutions systémiques ; la gestion du risque a été grandement renforcée ; et les pouvoirs d’intervention des régulateurs sont bien plus robustes. Le soutien politique en faveur d’un resserrement de la réglementation reste également fort, enfin, partout sauf aux Etats-Unis. Il y a un domaine, cependant, où peu de choses ont progressé : alors que la réglementation financière s’est matériellement renforcée depuis la crise de 2008, sa mise en œuvre reste entre les maints d’un patchwork d’agences nationales. La diversité structurelle des réformes d’après-crise qui en résultent ne contribue pas à assurer de la cohérence dans la mise en place de normes mondiales.

Philip Stephens écrit dans le Financial Times que l’héritage de la crise financière mondiale peut avoir été une ré-imagination de l’économie de marché. Mais le processus impulsé par l’effondrement de Lehman Brothers en septembre 2008 a produit deux grands perdants : la démocratie libérale et l’ouverture des frontières. Les coupables (qui incluent les banquiers, les banquiers centraux, les régulateurs, les politiciens et les économistes) se sont dédouanés de toute responsabilité et, malgré, les réformes réglementaires, la vie a repris son cours habituel à Wall Street et à la City de Londres. Le monde a certainement changé, mais pas d’une façon ordonnée, structurée qui aurait marqué une réforme intelligente.

Après une décennie de stagnation des revenus et d’austérité budgétaire, personne ne peut se dire surpris de voir que ceux qui ont été les plus affectés par les répercussions économiques du krach ont rejeté les élites en soutenant des populistes. Stephens pense que les historiens vont finir par décrire l’année 2008 comme l’instant où les nations les plus puissantes du monde ont renoncé à leur leadership international et où la mondialisation s’est inversée. Le reste du monde a naturellement tiré comme conclusion qu’il avait peu de choses à apprendre de l’Occident. Beaucoup pensaient à l’époque que l’effondrement du communisme présagerait d’une hégémonie permanente de démocraties ouvertes, libérales. En fait, ce qui va vraiment intriguer les historiens, c’est le fait que l’ancien régime ait été si complaisant (ou complice, plutôt) face à sa propre destruction. »

Silvia Merler, « Lehman Brothers: 10 Years After », in Bruegel (blog), 10 septembre 2018. Traduit par Martin Anota__

mardi 28 août 2018

La crise turque

« Les marchés financiers ont été très nerveux à propos de la Turquie ces dernières semaines. Nous passons en revue les opinions des économistes à propos des risques économiques, politiques et géopolitiques et les opportunités de cette situation.

Jamie Powell et Colby Smith écrivent (…) que la crise turque ressemble à l’un de ces classiques effondrements que connaissent les pays émergents : une économie en forte croissance financée par une dette de court terme libellée en dollar et dirigée par un homme fort ayant un penchant pour nommer des proches dans les positions clés du gouvernement. Ainsi, cela rappelle la crise asiatique de 1997 et 1998 (…).

Brad Setser pense que la Turquie partage certes certaines similarités avec les pays qui ont subi la crise asiatique dans les années quatre-vingt-dix, mais qu’il y a aussi d’importantes différences. Les banques turques sont la principale raison pour laquelle la crise de change peut se transformer une crise de financement, en laissant la Turquie sans réserves suffisantes pour éviter un défaut majeur. Mais, à la différence des banques asiatiques, la Turquie a été capable d’utiliser le financement externe en devises étrangères pour soutenir un boom domestique en prêtant des lires aux ménages. Les banques turques n’ont vraiment pas besoin d’emprunter en devises étrangères auprès du reste du monde pour soutenir le niveau actuel de leurs prêts en devises étrangères aux entreprises turques et leur besoin apparent de financement de marché est en lires, non en dollars. En outre, le boom réel du crédit n’est pas venu du prêt en devises étrangères aux entreprises, mais plutôt des prêts en lire aux ménages. Le mystère financier (que Setser va ensuite expliquer) n’est pas de savoir comment les banques ont prêté des devises étrangères aux entreprises domestiques, mais comment elles ont utilisé l’emprunt externe en devises étrangères pour soutenir un prêt domestique en lires.

GRAPHIQUE Dette externe de la Turquie (en milliards de dollars)

Brad_Setser__Dette_externe_de_la_Turquie.png

source : Brad Setser (2018)

Jacob Funk Kirkegaard écrit que les développements économiques poussent inévitablement la Turquie à s’approcher du FMI pour son deuxième renflouement depuis le début du siècle. Les difficultés fondamentales de la Turquie dérivent des déficits jumeaux qu’elle a creusés ces dernières années. Ce qui aggrave les problèmes de la Turquie, ce sont diverses difficultés politiques liées à sa relation avec l’OTAN, l’UE et les Etats-Unis, comme le pays n’a jamais été aussi isolé sur le plan international au cours de ces dernières décennies qu’aujourd’hui. La route pointe donc vers le FMI, mais le Fonds risque de ne pas vouloir aider la Turquie sans que celle-ci adopte en contrepartie des sévères mesures d’austérité, des mesures qui risquent d’affaiblir la mainmise d’Erdogan sur le pouvoir. Mais Erdogan a un certain levier politique potentiel (assez déplaisant), comme une imminente attaque imminente du gouvernement syrien juste au sud de la frontière turque pourrait facilement amorcer un afflux de réfugiés au nord de la Syrie. La décision de la Turquie d’ouvrir ou non ses frontières et d’offrir un refuge aux Syriens pourrait bien dépendre (…) de l’aide économique de l’Occident ou des termes d’un plan de sauvetage du FMI.

Grégory Claeys et Guntram Wolff ne sont pas d’accord à cette idée et affirment qu’une correction des politiques macroéconomiques de la Turquie est nécessaire, mais qu’il est trop tôt pour dire si la Turquie aura besoin d’un programme de sauvetage. Les décideurs européens doivent cependant réfléchir sur ce que doit être la position de l’UE à l’égard de la Turquie. Une crise financière dans un pays voisin de l’UE peut avoir un impact négatif direct sur l’économie de l’UE, principalement via l’exposition de ses banques opérant en Turquie et via le commerce. En outre, une crise en Turquie peut déclencher de possibles effets domino politiques et des changements conséquents dans la politique migratoire de la Turquie, sans mentionner des menaces géopolitiques. Si un programme du FMI était infaisable et si les pays de l’UE en venaient à la conclusion qu’il est dans leur intérêt d’éviter une escalade de la crise turque, l’UE pourrait essayer d’organiser un plan de soutien financier via son programme d’assistance macrofinancière réservé aux pays partenaires hors de l’UE. Mais dans ce cas, l’UE doit décider si un tel instrument doit être utilisé pour obtenir des avancées en matière de valeurs démocratiques ou si l’UE doit avoir une approche plus fonctionnelle et limiter la conditionnalité sur des politiques macro-structurelles spécifiques. (…)

Jim O’Neill estime que la Turquie doit maintenant fortement resserrer sa politique monétaire, réduire l’emprunt étranger et se préparer à l’éventualité d’une sévère récession, durant laquelle l’épargne domestique ne se reconstituera que lentement. Parmi les puissances régionales, la Russie est parfois mentionnée comme possible sauveteur. Alors qu’il n’y a aucun doute que Vladimir Poutine aimerait utiliser la crise turque pour éloigner davantage la Turquie de ses alliés de l’OTAN, Erdogan et ses conseillers se tromperaient s’ils pensaient que la Russie puisse combler le vide financier de la Turquie : une intervention du Kremlin aurait peu d’effet sur la Turquie et exacerberait les défis économiques de la Russie.

José Antonio Ocampo affirme plutôt que les schémas durables dans les pays émergents peuvent ne plus s’appliquer. Au pic des turbulences turques, dans la semaine entre le 8 et le 15 août, les devises de l’Argentine, de l’Afrique du Sud et de la Turquie se sont dépréciées de 8 % à 14 % vis-à-vis du dollar américain. Pourtant les devises des autres pays émergents ne se sont pas dépréciées de plus de 4 %. Cela suggère que la contagion ne se fait pas aussi facilement que par le passé et lue des arrêts brusques (sudden stops) sont peut-être moins probables que par le passé. Même les économies les plus affectées étaient capables de limiter les effets de la chute de leur devise. Cela semble refléter une nouvelle résilience face à la contagion qui s’est formée au cours des dix dernières années, voire plus. Mais cela ne signifie pas que les économies émergentes sont immunisées ; au contraire, elles ont de quoi s’inquiéter, notamment avec l’escalade d’une guerre commerciale. Des politiques réfléchies, avec une amélioration globale du filet de sécurité financier de la part du FMI, restent par conséquent de la plus haute importance. (…) »

Silvia Merler, « The Turkish crisis », in Bruegel (blog), 27 juillet 2018. Traduit par Martin Anota



aller plus loin...

« De l’arrêt soudain à la déflation par la dette »

« Comment les pays émergents peuvent-ils gérer l'effondrement des flux de capitaux ? »

« Les hauts et les bas de la croissance turque »

dimanche 22 juillet 2018

L’économie des actifs intangibles

« Les économistes ont discuté des implications de l’essor de l’économie immatérielle en lien avec l’hypothèse de la stagnation séculaire (…). Nous passons en revue les récentes contributions sur le sujet.

Haskel et Westlake affirment que le récent essor de l’économie immatérielle peut jouer un rôle important pour expliquer la stagnation séculaire. Au cours des deux dernières décennies, l’investissement en actifs intangibles a été régulièrement de plus en plus important relativement à l’investissement dans les actifs tangibles : en 2013, pour chaque euro d’investissement dans les actifs tangibles, les principaux pays développés dépensaient 1,1 euro dans les actifs intangibles. D’un point de vue de mesure, les actifs intangibles peuvent être classés en trois grandes catégories : les actifs liés à l’informatique, les propriétés en matière d’innovation et les compétences des entreprises. Les actifs intangibles partagent quatre aspects économiques : leur capacité à être déployés sur une grande échelle sans s’altérer (scalability), la nature irrécouvrable des dépenses qui ont été nécessaires pour les créer (sunkenness), leur tendance à générer des effets de débordement (spillovers) et leur capacité à créer des synergies (spillovers). Haskel et Westlake affirment que, pris ensemble, ces mesures et ces propriétés économiques peuvent nous aider à comprendre la stagnation séculaire.

GRAPHIQUE Investissement dans les actifs tangibles et les actifs intangibles dans les grands pays développés (en % du PIB)

Jonathan_Haskel__Stian_Westlake__investissement_actifs_intangibles_part_PIB.png

Le premier lien entre l’investissement intangible et la stagnation séculaire est, selon Haskel et Westlake, le problème de mesure. Si nous mesurons mal l’investissement, alors l’investissement, le PIB et sa croissance peuvent être sous-évalués. Deuxièmement, puisque les actifs intangibles tendent à générer plus d’effets de débordement, un ralentissement dans la croissance du capital intangible se manifesterait dans les données à travers un ralentissement de la croissance de la productivité globale des facteurs. Troisièmement, les entreprises riches en actifs intangibles se développent fortement, ce qui contribuer à creuser l’écart entre les entreprises les plus efficaces et les moins efficaces. Quatrièmement, la croissance de la productivité globale des facteurs peut être plus lente parce que les actifs intangibles génèrent moins d’effets de débordement qu’ils n’avaient l’habitude de le faire.

Des arguments similaires ont été avancés avant. Par exemple, Caggese et Pérez-Orive ont affirmé que de faibles taux d’intérêt nuisent à la réallocation du capital tout en réduisant la productivité et la production agrégées dans les économies qui dépendent fortement sur le capital intangible. Ils utilisent un modèle dans lequel des entreprises contraintes en termes de crédit peuvent seulement emprunter en utilisant comme collatéraux leurs actifs tangibles et dans lequel il y a un large écart en termes de productivité entre elles. Dans l’économie intense en actifs tangibles avec des entreprises fortement endettées, de faibles taux d’intérêt facilitent l’emprunt et accélèrent les remboursements de dette, tout en réduisant la mauvaise allocation des facteurs et en accroissant la production agrégée. Inversement, une hausse de la part du capital intangible dans la production réduit la capacité d’emprunt et accroît les détentions en liquidités des entreprises, si bien que celles-ci cessent d’être emprunteuses nettes pour devenir créancières nettes. Dans cette économie intense en actifs intangibles, la capacité des entreprises à acheter du capital intangible en utilisant des profits passés est limitée par les faibles taux d’intérêt parce que ces derniers accroissent le prix du capital et ralentissent l’accumulation de l’épargne pour les entreprises. Par conséquent, l’émergence de technologies intangibles peut freiner l’activité, même quand elles remplacent des actifs tangibles moins productifs.

Kiyotaki et Zhang examinent comment la production agrégée et la répartition des revenus interagissent avec l’accumulation de capital intangible au cours du temps et au fil des générations. Dans ce modèle à générations imbriquées, les compétences des dirigeants (le capital intangible), outre celles de la main-d’œuvre, sont essentielles pour la production. De plus, les compétences managériales sont acquises par de jeunes travailleurs quand ils sont formés par des dirigeants âgés sur le tas. Comme la formation est coûteuse, elle devient un investissement dans du capital intangible. Ils montrent que lorsque les jeunes font face à des contraintes de financement, une petite différence dans les dotations initiales entre les jeunes travailleurs se traduit par d’amples inégalités dans l’assignation et l’accumulation d’actifs intangibles. Un choc négatif touchant les dotations peut générer une stagnation durable et un essor dans les inégalités.

Doettling et Perotti affirment que le progrès technique qui améliore la productivité des compétences et du capital intangible peut expliquer l’essentiel des tendances financières à long terme depuis 1980. Comme la création d’actifs intangibles nécessite du capital humain plutôt que des investissements physiques, les entreprises ont moins besoin de financements extérieurs. Comme le capital intangible devient plus productif, les innovateurs gagnent une part croissante du revenu. L’effet d’équilibre général est une chute de la demande de crédit, avec une baisse de l’investissement en actifs tangibles et une baisse des taux d’intérêt. Un autre effet est une stimulation des prix d’actifs et une hausse de la demande de crédit pour financer les achats de logements. Avec la hausse des prix de l’immobilier et le creusement des inégalités, les ménages sont amenés à s’endetter et le risque de défaut de remboursement augmente. Même si les changements démographiques, les flux de capitaux et le commerce contribuent également à générer un excès d’épargne et à modifier la productivité des facteurs, les auteurs croient que seul un fort déplacement technologique vers les actifs intangibles peut expliquer toutes les tendances majeures, notamment la polarisation du revenu et une réallocation du crédit hors des activités productives (…).

Les actifs intangibles soulèvent des questions du côté de la politique. En passant en revue le livre de Haskel et Westlake et en se penchant tout particulièrement sur les quatre caractéristiques des actifs intangibles que les auteurs identifient, Martin Wolf affirme que celles-ci bouleversent le fonctionnement habituel d’une économie de marché, notamment parce que les actifs intangibles sont mobiles et sont donc difficiles à taxer. Cette transformation de l’économie demande, selon Wolf, que soit réexaminée la politique publique autour de cinq questions. Premièrement, les cadres pour la production de la propriété intellectuelle sont plus importants, mais les monopoles en matière de propriété intellectuelle peuvent être coûteux. Deuxièmement, puisque les synergies sont si importantes, les responsables politiques doivent se demander comment les encourager. Troisièmement, il est difficile de financer l’investissement intangible, donc le système financier va devoir changer. Quatrièmement, le fait qu’il soit difficile de s’approprier les gains tirés de l’investissement intangible peut créer un sous-investissement chronique dans une économie de marché et le gouvernement va avoir à jouer un rôle important dans le partage des risques. Enfin, les gouvernements doivent aussi se demander comment s’attaquer aux inégalités créées par les actifs intangibles, notamment dans le sillage de l’essor d’entreprises géantes. (…)

En recensant le même livre, le marxiste Michael Roberts affirme que le titre ("Capitalism without capital") est inapproprié pour décrire l’économie intangible. Pour la théorie marxiste, ce qui importe est la relation exploitrice entre les propriétaires des moyens de production (qu’ils soient tangibles ou non) et les producteurs de valeur (qu’il s’agisse de travailleurs manuels ou "mentaux"). De ce point de vue, le savoir est produit par le travail mental, mais ce n’est en définitive pas différent du travail manuel. Ce qui est important selon Roberts, c’est que les découvertes, généralement faites par des équipes de travailleurs mentaux, sont appropriées par le capital et contrôlés par des brevets, la propriété intellectuelle ou des moyens similaires. La production de savoir est alors dirigée vers le profit. Dans le cadre du capitalisme, l’essor de l’investissement intangible mène donc à un creusement des inégalités entre capitalistes et le contrôle des actifs intangibles par un petit nombre de grandes entreprises peut très bien affaiblir la capacité à trouver de nouvelles idées et à les développer. Par conséquent, les nouveaux secteurs meneurs investissent de plus en plus dans les actifs intangibles, tandis que l’investissement global chute avec la productivité et la profitabilité. Selon Roberts, cela suggère que la loi des profits de Marx n’est pas modifiée, mais intensifiée. (…) » https://thenextrecession.wordpress.com/2017/12/10/capitalism-without-capital-or-capital-without-capitalism/

Silvia Merler, « Economy of Intangibles », in Bruegel (blog), 16 juillet 2018. Traduit par Martin Anota

mercredi 4 juillet 2018

Guerre commerciale : et si la Chine répliquait en vendant ses bons du Trésor américain ?

« La Chine a le plus gros excédent commercial bilatéral vis-à-vis des Etats-Unis, mais elle est aussi la plus grande détentrice de titres publics américains. Alors que la Chine a commencé à contrer les droits de douane américains, les économistes ont discuté de la possibilité que la Chine se débarrasse de ses bons du Trésor américains. Nous passons en revue les récents commentaires à ce sujet. (…)

Brad Setser (…) observe depuis longtemps les évolutions du portefeuille externe de la Chine. Il a notamment estimé ce qui se passerait si la Chine commençait à vendre son portefeuille de bons du Trésor américains. Si elle vendait la totalité des bons du Trésor qu’elle possède, ces ventes représenteraient environ 6 % du PIB américain, ce qui accroîtrait les taux d’intérêt de long terme d’environ 30 points de base. L’impact serait plus important à court terme, mais ensuite les taux américains s’accroitraient (relativement aux taux européens), ce qui pousserait des fonds privés dans le marché américain de titres à revenu fixe. Si les ventes chinoises poussaient les taux de long terme américains à la hausse et déprimeraient l’économie américaine, la Fed ralentirait logiquement le rythme de ses hausses de taux directeurs ou la réduction de son bilan dans le cadre de son "resserrement quantitatif".

En surface, les Etats-Unis semblent vulnérables : le stock de bons du Trésor que le marché doit absorber pour financer le déficit budgétaire croissant des Etats-Unis est énorme et si la Chine commençait à vendre ceux qu’elle possède, le montant de titres américains que les investisseurs non chinois auraient à absorber serait massif. Cependant, Setser, pense que les ventes chinoises seraient d’une certaine façon faciles à contrer, comme la Fed peut ralentir ses hausses de taux et peut répondre aux ventes chinoises en changeant le rythme de sa réduction de bilan. De son côté, le Trésor peut commencer à émettre davantage de titres de court terme au lieu de titre de moyen terme, ce qui compenserait l’impact des ventes de titre de long terme par la Chine (…). De plus, la Fed peut accroître la maturité de ses détentions. Globalement, Setser pense que le gouvernement américain doit davantage s’inquiéter à l’idée que la Chine vende d’autres actifs que des bons du Trésor, parce que les ventes de bons du Trésor sont, en un sens, faciles à contrer.

Martin Sandbu pense que l’analyse de Setser est correcte, mais pas la fin de l’histoire. Si la Chine prenait davantage d’actifs à haut rendement à la place d’obligations à faible rendement ou poursuivait une politique de non-financement de l’économie américaine, alors l’économie américaine devrait payer plus pour financer son déficit de compte courant ou réduire sa position extérieure. Une telle brèche dans le "privilège exorbitant" qui permet aux Etats-Unis de profiter de taux d’emprunt externe faibles pourrait facilement s’auto-renforcer, dans la mesure où d’autres vont demander un rendement plus élevé pour la détention d’actifs américains. Si cela mène à une chute du dollar et à un plus faible déficit, alors cela peut être soutenu et pourrait même être en lien avec ce que Trump voit comme désirable. Cela étant dit, ce gouvernement n’est pas sur le point de resserrer sa ceinture, donc ce serait au secteur privé de le faire via une baisse de l’investissement de la part des entreprises ou une baisse de la consommation de la part des ménages.

Michael Pettis a écrit un long billet dans lequel il affirme que si la Chine menace de répliquer à une action commerciale des Etats-Unis en réduisant ses achats de titres publics américains, non seulement ce serait une menace vide, mais en outre, ce serait exactement ce que Washington voudrait. Pettis passe en revue cinq façons par lesquelles Pékin peut réduire les achats de titres publics américains. Il affirme que certaines d’entre elles ne changeraient rien, ni pour la Chine, ni pour les Etats-Unis ; d’autres ne changeraient rien pour la Chine, mais réduiraient le déficit commercial américain soit en réduisant le chômage américain, soit en réduisant la dette américaine ; et une dernière façon qui réduirait le déficit commercial américain en réduisant le chômage américain ou en réduisant la dette américaine, mais réduirait aussi l’excédent commercial chinois en accroissant le chômage chinois ou en augmentant la dette chinoise. La conclusion de Pettis est qu’en achetant moins de titres publics américains, Pékin laisserait les Etats-Unis dans la même situation ou dans une meilleure situation, mais qu’ainsi la Chine se verrait sa situation rester inchangée ou se dégrader.

Jeffrey Frankel a écrit un billet plus général où il note les raisons pour lesquelles il pense que la Chine ne pliera pas dans la guerre commerciale de Trump. Dans ce billet, il met en lumière le fait que le pays excédentaire est souvent dans une meilleure position parce qu’il a accumulé des créances financières vis-à-vis des pays déficitaires ; dans le cas des détentions chinoises de bons du Trésor américains, les créances représentaient plus de mille milliards de dollars. Si le gouvernement chinois vendait les bons du Trésor, la chute de leur prix nuirait autant à la Chine qu’aux Etats-Unis. Néanmoins, cela n’invalide pas le point. En effet, la Chine n’a pas nécessairement à décider de les vendre. Comme la dette américaine augmente et que les taux d’intérêt américains augmentent (deux tendances qui vont certainement se poursuivre cette année), le conflit commercial pourrait produire des rumeurs que les Chinois arrêtent d’acheter des titres du Trésor américain, ce qui réduire les cours des obligations américaines et accroîtrait leurs taux d’intérêt. (…)

Edward Harrison pense que la Chine ne peut pas utiliser comme levier les bons du Trésor qu’elle possède dans la mesure où, si les Chinois voulaient vraiment utiliser les obligations publiques comme arme, ils devraient soit laisser flotter leur monnaie, soit la réévaluer. Et cela, selon Harrison, ce n’est pas du tout ce qu’ils veulent faire puisqu’une réévaluation réduirait leurs exportations et freinerait leur croissance économique. Il s’attend à ce que le conflit commercial actuelle escalade et que les gens diagnostiquent mal les contraintes, avec pour conséquence que les mauvais diagnostics accroissent au final les conflits et non les diminuent. »

Silvia Merler, « US tariffs and China’s holding of Treasuries », in Bruegel (blog), 2 juillet 2018. Traduit par Martin Anota

mercredi 20 juin 2018

Démographie et croissance à long terme

« Les économistes se sont penchés sur les relations entre démographie et croissance à long terme, dans le contexte de l’hypothèse de la stagnation séculaire. Nous passons en revue les récentes contributions sur ce sujet.

Cooley et Henrikson affirment que les facteurs démographiques ne peuvent pas expliquer entièrement le ralentissement à long terme de la croissance, mais qu’ils y contribuent certainement. Le changement démographique est persistant et prévisible. Dans la plupart des pays développés, l’âge moyen va s’accroître et l’espérance de vie va sûrement s’allonger. Cela peut avoir d’importantes conséquences pour la croissance économique à long terme. Les politiques économiques qui cherchent à atténuer les effets du vieillissement sur la croissance à long terme vont avoir à inciter davantage les ménages à offrir davantage de capital et de travail au cours de leur cycle de vie, en particulier leur offre de travail en fin de vie active.

Dans un entretien en podcast, Hal Varian dit que si la technologie ne peut pas stimuler davantage la productivité, alors nous avons un réel problème. Dans trente ans, la main-d’œuvre mondiale ne ressemblera plus à celle d’aujourd’hui, comme la population en âge de travail dans plusieurs pays, en particulier dans les pays développés, commence à décliner. Alors que certains travailleurs craignent aujourd’hui de perdre leur emploi à cause de la technologie, les économistes se demandent si cette dernière va suffisamment stimuler la productivité pour compenser les effets du vieillissement sur celle-ci ; c’est ce qu’on appelle le "paradoxe de la productivité". Varian pense qu’il y a trois forces à l’œuvre. L’une d’entre elles est le manque d’investissement au sortir de la Grande Récession, comme les entreprises ont été lentes à retrouver leurs niveaux d’investissement d’avant-crise. La deuxième force a été la diffusion de la technologie, l’écart croissant entre certaines des entreprises les plus avancées et les entreprises les moins avancées. Et troisièmement, les indicateurs existants ont du mal à saisir la nouvelle économie. Varian croit que la démographie est importante, en particulier maintenant que les générations du baby boom, qui constituaient l’essentiel de la main-d’œuvre des années soixante-dix aux années quatre-vingt-dix, partent à la retraite, mais vont continuer à consommer.

Ferrero, Gross et Neri pensent que la démographie importe pour la stagnation séculaire et les faibles taux d’intérêt. Ils développent un modèle dynamique de panel pour les pays de la zone euro et réalisent une analyse contrefactuelle du passé en imaginant ce qui se serait passé si les ratios de dépendance avaient été plus favorables entre 2006 et 2015 qu’ils ne l’ont été. De plus, ils présentent aussi une évaluation contrefactuelle des performances futures, en supposant que les ratios de dépendance varient en lien avec les projections assez adverses de la Commission européenne, avec des hypothèses plus favorables pour la période 2016-2025. Dans les deux cas, les projections contrefactuelles suggèrent un rôle économiquement et statistiquement pertinent pour la démographie. Les taux d’intérêt auraient été plus élevés et la croissance économique plus forte sous des hypothèses favorables. En ce qui concerne l’évaluation des performances futures, les taux d’intérêt resteraient à des niveaux relativement faibles sous l’hypothèse que la démographie évolue comme le prévoit la Commission européenne et ne s’accroîtrait visiblement que sous des hypothèses optimistes pour les ratios de dépendance.

L’étude antérieure de Gottfries et Teulings a avancé que la démographie a joué un rôle important dans la réduction des taux d’intérêt. La hausse de l’espérance de vie, qui n’a pas été compensée par une hausse de l’âge de départ à la retraite, a entraîné un accroissement du stock d’épargne. Celui-ci va se traduire par des hausses de prix pour les actifs dont l’offre est fixe (comme l’immobilier) plutôt que par un supplément de capital. Les remèdes potentiels pour absorber l’épargne supplémentaire sont le recul de l’âge de départ à la retraite et une extension des systèmes par répartition. De même, Aksoy, Basso, Grasl et Smith estiment que le vieillissement démographique prévu pour les prochaines décennies devrait grandement contribuer à réduire la croissance de la production et des taux d’intérêt réels dans les pays de l’OCDE.

Mais ce n’est pas une conclusion qui fait consensus. Une étude antérieure de Favero et Galasso affirme que les tendances démographiques en Europe ne soutiennent pas empiriquement l’hypothèse de stagnation séculaire. Leurs données suggèrent que la structure en âge de la population génère moins de croissance à long terme, mais des taux réels positifs. Les politiques pour la croissance deviennent très importantes. Ils évaluent la pertinence de la structure démographique pour le choix entre ajustements macroéconomiques et réformes structurelles et ils montrent que les personnes d’âge intermédiaire et les personnes âgées ont une vision plus négative des réformes, de la compétitivité et de la mondialisation que les jeunes. Leurs résultats suggèrent que les vieux pays (ceux dont les personnes âgées représentent une part importante de la population) doivent davantage se tourner vers les ajustements macroéconomiques, tandis que les jeunes nations soutiennent davantage les réformes structurelles.

Cervellati, Sunde et Zimmermann adoptent une perspective mondiale, de long terme sur les récents débats à propos de la stagnation séculaire, qui se sont jusqu’à présent focalisés sur le court terme. L’analyse est motivée par l’observation des interactions entre dynamique économique et transition démographique qui sont survenues ces 150 dernières années dans le monde développé. Dans la mesure où les taux de croissance élevés par le passé ont en partie résulté de changements singuliers qui se sont produits durant la transition économique et démographique, la croissance est susceptible de s’affaiblir une fois que la transition sera achevée. Parallèlement, une transition similaire est sur la voie dans la plupart des pays en développement, avec de profondes conséquences pour les perspectives de développement dans ces pays, mais aussi pour le développement comparatif mondial. Les preuves empiriques qui sont mises en avant suggèrent que les dynamiques démographiques de long terme ont potentiellement d’importantes implications pour les perspectives d’accumulation du capital humain et physique, l’évolution de la productivité et la question de la stagnation séculaire.

Adair Turner affirme que la tendance baissière du taux de fertilité américain que l’on observe actuellement serait embêtante si une forte croissance et la confiance économique nécessitaient une main-d’œuvre plus importante, mais les études parviennent difficilement à trouver une corrélation entre fécondité et résultats économiques et les Etats-Unis n’ont pas à s’inquiéter. Comme les gens vivent plus longtemps et, en l’occurrence, plus longtemps avec une bonne santé, les âges de départ à la retraite peuvent et doivent être repoussés. Et avec la perspective d’une ample automatisation, qui menace d’entraîner une croissance à faible salaire et d’alimenter les inégalités, une expansion de la population active n’est ni nécessaire, ni bénéfique, et une légère contraction de l’offre de travailleurs peut créer des incitations à améliorer la production et soutenir la croissance du salaire réel. »

Silvia Merler, « Demographics and long run growth », in Bruegel (blog), 18 juin 2018. Traduit par Martin Anota

samedi 9 juin 2018

La crise italienne

« Les élections italiennes ont eu des difficultés à produire un gouvernement. Alors que le pays va vers l’une des plus graves crises constitutionnelles de son histoire, nous passons en revue les récents commentaires que l'on a pu entendre sur ce sujet.

Ferdinando Giugliano note comment le Président italien a été présenté comme un ennemi de la démocratie après avoir refusé d’accepter un eurosceptique comme ministre des Finances, alors que les partis contestataires que sont la Ligue et le M5S (…) ont été salués comme les défenseurs de la volonté du peuple. Plus la querelle dure, plus il paraît manifeste que les populistes se livrent à des manœuvres politiciennes. Les populistes prétendent faire de la politique différemment, mais leurs manœuvres montrent que ce n’est pas le cas. Et celles-ci ne sont pas sans nuire au pays.

Ashoka Mody note dans Bloomberg que le Président Mattarella a sapé l’euro. En rejetant le choix d’une coalition élue par le peuple, il peut très bien avoir déclenché une crise financière d’où il sera difficile de sortir et qui peut mettre en péril tout le projet européen. Sans aucun doute, Savona a été un choix rude : le "plan B" qu’il a proposé dans le cas d’une sortie de la zone euro était irréalisable et alarmant et aurait ainsi très certainement fait du mal à l’Italie. Mais Mody pense qu’au-delà de sa rhétorique absurde, la coalition M5S-Ligue fait certaines propositions sensées et qu’au lieu de donner aux eurosceptiques l’opportunité de composer avec les complexités de l’exercice du pouvoir, Mattarella cherche à établir un autre gouvernement technocratique. En essayant de préserver l’orthodoxie européenne, cela peut déchainer des forces destructrices qui ne peuvent être contrôlées.

Jakob Funk Kirkegaard pense aussi que Mattarella a placé l’Italie sur une trajectoire de confrontation politique aussi bien au niveau domestique qu’avec les marchés financiers et le reste de l’Europe. L’Europe a déjà été sur cette trajectoire par le passé : avec la Grèce à l’été 2015. Mais tout comme le Premier Ministre Alexis Tsipras a indiqué qu’il n’était pas contre l’euro lors du référendum du 5 juillet 2015 qui a demandé au peuple si la Grèce devait accepter les conditions du renflouement par la Troïka, aujourd’hui les dirigeants des deux principaux partis italiens, Matteo Salvini de la Ligue et Louigi Di Maio du M5S, vont certainement dire qu’ils ne s’opposent pas au maintien de l’Italie dans la zone euro. Ils vont probablement lancer une autre compagne électorale en Italie pour savoir si l’Italie doit "tenir tête à l’Allemagne et à Bruxelles" pour étendre la souveraineté de l’Italie et sa capacité à décider de ses propres affaires budgétaires et économiques. Une autre victoire pour les deux partis serait dangereuse et elle serait interprétée dans le reste de la zone euro comme signalant que "les Italiens veulent partir" de la zone euro, tout comme ce fut le cas de la Grèce après le référendum de juillet 2015. La meilleure chose pour l’Allemagne, l’Italie et l’Europe serait qu’en juin les dirigeants européens acceptent d’accroître communément le contrôle aux frontières européennes et l’acceptation des réfugiés en consacrant plus de ressources à cette question qui préoccupe tant en Italie et dans le reste du continent.

Jean Pisani-Ferry pense que Mattarella a tracé une ligne séparant les choix constitutionnels des choix politiques. Dans sa logique, les décisions politiques peuvent être prises librement par un gouvernement réunissant une majorité parlementaire et le Président n’a pas le droit de remettre en cause de telles décisions. Les choix constitutionnels, à l’inverse, nécessitent un type différent de procédure de prise de décision qui assure que les électeurs soient adéquatement informés des possibles conséquences de leur décision. Cela soulève deux questions. Premièrement, quelles sont exactement les questions constitutionnelles ? En Europe, l’appartenance à l’UE fait partie de la loi fondamentale de plusieurs pays. Deuxièmement, quel type de procédures doit s’appliquer à des choix vraiment constitutionnels ? La plupart des pays n’ont pas d’article dans leur propre constitution qui définisse comment mettre un terme à l’appartenance à l’UE ou à la zone euro. Aussi longtemps que l’appartenance à l’UE et à la zone euro fait l’objet d’un large consensus, ces distinctions n’étaient des questions dignes d’intérêt que pour les experts juridiques. Ce n’est plus le cas et le débat les concernant ne risque pas de s’arrêter prochainement. Il est donc temps de faire de la distinction entre engagements européens authentiquement constitutionnels et ceux qui ne le sont pas une partie explicite de l’ordre politique de nos pays.

Daniel Gros se demande qui a perdu l’Italie. La majorité de la population a aujourd’hui une mauvaise opinion de l’UE, ce qui constitue un renversement complet par rapport au début de l’euro, quand le pays voyait la nouvelle devise comme un remède pour ses propres problèmes économiques, en l’occurrence une forte inflation (et des taux d’intérêt élevés). Les politiciens populistes affirment que les règles du Pacte de Stabilité et de Croissance ne leur permettent pas de stimuler la demande et l’emploi. Mais cela ne démontre pas que l’appartenance à la zone euro explique les mauvaises performances économiques de l’Italie : l’Espagne, le Portugal et l’Irlande, qui ont aussi dû réduire leurs déficits dans l’adversité, connaissent une plus forte reprise que l’Italie. Gros en conclut que les racines de la crise actuelle sont domestiques ; elles ont peu à voir avec les règles budgétaire ou l’absence de partage des risques au niveau européen. La faible croissance de l’Italie depuis le tournant du siècle ne s’explique pas par l’investissement, l’éducation ou des indicateurs de libéralisation des marches ; le seul domaine dans lequel la performance relative de l’Italie s’est détériorée depuis 1999-2000 est la qualité dans la gouvernance du pays. L’euro est devenu un bouc-émissaire et cela fait obstacle aux réformes nécessaires. (...)

Harold James écrit dans Project Syndicate que la colation M5S-Ligue joue la stratégie du fou. Cette dernière repose tout d’abord sur la capacité de générer une incertitude suffisamment forte pour nuire aux autres pays. Deuxièmement, son gouvernement doit être capable de convaincre tout le monde que ce sont les électeurs qui l'appellent à prendre des décisions "folles". Dans le cas de l’Italie, les populistes ont capitalisé sur le désenchantement des électeurs envers un parti de centre-gauche dont l’orientation pro-européenne a échoué à délivrer des résultats. Troisièmement, il doit y avoir une division claire entre les "faucons" et les "colombes" dans le gouvernement du fou. Dans le cas de la coalition M5S-Ligue, un faucon était nécessaire comme contrepoids au président pro-européen Sergio Mattarella. Cela pourquoi les populistes ont choisi Paolo Savona comme Ministre de l’Economie et des Finances. Quand Mattarella a rejeté la nomination, la coalition a quitté les discussions, précipitant la crise actuelle. Finalement, pour réussir, un gouvernement fou doit avoir un plan de guerre plausible pour provoquer une perturbation générale. Par exemple la coalition M5S-Liguea suggéré qu’elle pourrait émettre une devise parallèle, ce qui donna davantage de crédibilité à sa menace de poursuivre une expansion budgétaire en violation des règles de l’UE. Dénoncer les dangers de la stratégie du fou ne suffira pas pour la battre. Les électeurs doivent aussi être convaincus que de meilleures alternatives sont possibles et que l’intégration européenne peut encore sauvegarder leurs intérêts. Au cours des prochains mois, avant que se tiennent les prochaines élections en Italie et les européennes en mai 2019, les dirigeants européens vont avoir du temps (mais pas beaucoup) pour montrer que l’intégration européenne n’est pas synonyme de paralysie politique et de stagnation économique.

Selon Olivier Blanchard, Silvia Merler et Jeromin Zettelmeyer, la composition de la coalition à venir et son accord pour gouverner ne permettent pas d’imaginer une séquence politique qui ne se solde pas par une collision avec les marchés financiers et l’Union européenne. L’ampleur du creusement du déficit qui résulterait de l’adoption des mesures annoncées va probablement violer toutes les règles budgétaires domestiques et européennes et placer la dette publique sur une trajectoire insoutenable. Pour sortir de la trajectoire de collision, il faudrait que soit la Ligue, soit le M5S recule, or il y a peu de chances qu’un des deux partis le fasse volontairement. Par conséquent, un scénario dans lequel le gouvernement corrige la trajectoire avant que la situation s’envenime apparaît improbable. Un scénario dans lequel l’Italie perd l’accès aux marchés, ne parvient pas à négocier avec les autorités européennes et opte pour la sortie de la zone euro est tout à fait imaginable, mais il reste toutefois peu probable, dans la mesure où le gouvernement peut finir par reprendre ses esprits et où il peut faire face à des contraintes constitutionnelles ou politiques. »

Silvia Merler, « The Italian crisis », in Bruegel (blog), 4 juin 2018. Traduit par Martin Anota

lundi 28 mai 2018

Le nouveau rôle de la Chine dans l’économie mondiale

« Le rôle changeant de la Chine dans l’économie chinoise a récemment été mis en lumière par l’occurrence de son premier déficit de compte courant en 17 ans. Nous passons en revue les analyses qu’offrent les économistes de son nouveau rôle et des défis qui lui sont associés.

(…) Timothy Taylor présente l’évolution trimestrielle du compte courant depuis les années quatre-vingt-dix. Le compte courant est la somme des exportations nettes des biens et services, des revenus du capital versés par le reste du monde moins ceux versés au reste du monde, et les paiements de transfert nets tels que l’aide étrangère. La Chine avait un déficit de compte courant de 282 milliards de dollars au premier trimestre de l’année 2018, le premier depuis 17 ans. Ce déficit est apparu au terme d’une baisse du solde courant sur trois ans et résulte de la réorientation de l’économie chinoise, qui nécessite notamment davantage d’importations de services. Il explique que cela affaiblit les arguments utilisés par l’actuelle guerre commerciale, bien qu’il note que le compte courant annuel puisse bien être positive en 2018 malgré les fluctuations saisonnières des exportations chinoises.

(…) Brad Setser offre une analyse plus détaillée et sceptique des données. Il affirme que le solde du compte courant chinois n’est pas mesuré avec précision et que, si l’on prédit un compte courant déficitaire pour l’année 2018, c’est en raison des prix élevés du pétrole, une matière première que la Chine importe en grandes quantités, et des fragiles changements méthodologiques dans la mesure des activités de tourisme. En outre, la tendance baissière du compte courant est en partie due à la relance budgétaire mise en œuvre par le gouvernement chinois depuis 2015. Dès que cette relance budgétaire cessera, le déficit du compte courant pourrait rapidement s’inverser. Finalement, Setser explique que l’excédent de la Chine pour les échanges de produits manufacturés reste l’un des plus élevés dans le monde et qu’il ne peut donc expliquer le récent déficit du compte courant.

Nicholas Hardy, du PIIE, a cherché à éclaircir les choses début avril en déconstruisant la récente performance de la Chine en termes de croissance. L’excédent commercial a en effet chuté d’environ un cinquième par rapport au premier trimestre 2017, mais cela s’explique par une plus forte demande d’importations, non par une chute des exportations. Plus fondamentalement, la forte croissance du PIB (6,8 % en 2018, selon les prévisions basées sur la performance au premier trimestre) est tirée par la consommation, qui devrait encore avoir de plus en plus d’importance si le revenu disponible des ménages continue d’augmenter plus rapidement que le PIB. En combinaison avec le fait que l’essentiel de la croissance du PIB est venu des services plutôt que de l’industrie, cela suggère que le déficit du compote courant est symptomatique des circonstances domestiques positives pour le nouveau rôle de la Chine et non un signe de faiblesse. (...)

Alors que Kent Harrington critique les "pratiques économiques prédatrices" de la Chine et que Martin Feldstein les qualifie de "déloyales", le professeur de Harvard Dani Rodrik les défend. Comme le système économique mondial a été façonné par les lobbies américains, la Chine a toutes les raisons de diverger des règles de l’OMC dans son propre intérêt. Cette politique peu orthodoxe, affirme-t-il, a davantage aidé que freiné la spectaculaire croissance de la Chine, poussé des millions de personnes hors de la pauvreté. Comme la Chine aujourd’hui, les Etats-Unis au dix-neuvième siècle avaient rattrapé la Grande-Bretagne en enfreignant sa propriété intellectuelle et en bafouant l’ordre mondial imposé par la puissance hégémonique. En faisant la balance entre le respect des règles mondiales et son développement, la Chine s’est taillé un nouveau rôle de la même façon que les Etats-Unis l’avaient fait par le passé.

Barry Eichengreen a adopté une vision plus large sur les implications du nouveau rôle de la Chine. Le renminbi a été de plus en plus utilisé au niveau international suite aux politiques de promotion menées par le gouvernement, défiant directement le dollar américain. La Chine est aussi la meneuse lorsque l’on observe les volumes échangés mondialement et les investissements financiers vers l’Asie du Sud et l’Afrique. Cela a permis à la nation chinoise d’acquérir une force militaire et d’autres actifs stratégiques à l’étranger et d’affirmer davantage son soft power. Surtout, ces succès économiques et politiques répétés ont amené les dirigeants à travers le monde à s’inspirer du pouvoir centralisé et des pratiques autoritaires de la Chine. Cependant, Barry Eichengreen doute de la soutenabilité des modèles autoritaires d’actions publiques, comme le manque de mécanismes de correction de cap les expose de façon inhérente aux crises. (...)

La Chine est devenue économiquement plus puissante et il y a des éléments qui suggèrent qu’elle a commencé à exercer ce pouvoir plus fermement à l’étranger. Certains aspects inquiètent les observateurs à travers le monde. Paul Krugman affirme que le gouvernement chinois a négocié un accord qu’il considère être comme un "pot de vin" pour assurer l’accès au marché américain à l’une des principales entreprises chinoises du secteur technologique. Le mois précédent, Bloomberg (..) a résumé deux stratégies chinoises qui sont plus problématiques pour les économies occidentales : la pression de la Chine visant à affirmer sa supériorité dans les technologies militaires et son mépris systématique des règles mondiales, qui sont les principales sources de plaintes parmi les entreprises américaines. De même, Michael Schuman, de Bloomberg, s’est montré pessimiste et a affirmé que même lorsqu’il semble opter pour la concession en ouvrant ses marchés, le gouvernement chinois s’est toujours assuré à ce que ses acteurs domestiques bénéficient davantage de la nouvelle situation. »

Nicolas Moës, « China’s new role in the global economy », in Bruegel (blog), 28 mai 2018. Traduit par Martin Anota

lundi 23 avril 2018

Guerres commerciales : à quoi bon les lancer ?

« Suite à l’annonce par les autorités américaines au début du mois de mars de leur intention d’instaurer des droits de douane sur l’acier et l’aluminium et les menaces proférées par la Chine en représailles, les perspectives relatives au commerce mondial se sont assombries. (…)

Malgré la vigueur de l’activité dans l’économie mondiale, le FMI se déclare inquiet à propos des menaces croissantes de protectionnisme et des tensions commerciales, aussi bien que de leur impact sur la croissance économique. Comme Maurice Obstfeld l’écrit, la perspective que soient instaurées des barrières commerciales et que celles-ci soient suivies de mesures de représailles menace de saper la confiance et de faire dérailler prématurément la croissance mondiale. Pour aggraver les choses, les désaccords commerciaux peuvent détourner l’attention des réformes nécessaires. Il semble paradoxal de voir de grandes économies flirter avec une guerre commerciale à un moment d’expansion économique généralisée, en particulier quand l’expansion dépend si étroitement de l’investissement et du commerce. L’économiste en chef du FMI lie cela aux bénéfices asymétriques de l’intégration commerciale et à leur perception par les ménages. Concernant les récentes négociations bilatérales américaines, Obstfeld estime qu’elles ne vont cependant pas changer grand-chose au déficit du compte courant externe américain (…), dans la mesure où ce dernier s’explique essentiellement par le fait que l’économie américaine dépense davantage qu’elle ne génère de revenu.

Ce point est soutenu par Martin Wolf, qui ajoute que (…) loin de se contracter, le déficit du compte courant américain va en fait s’accroître en conséquence de la stimulation budgétaire. Donald Trump, le président américain, n’arrêtera pourtant pas de faire porter le blâme sur les perfides étrangers. Les tensions géopolitiques restent un risque de long terme, même si pour l’heure les tensions protectionnistes générées par les Etats-Unis ne devraient pas empêcher le volume du commerce mondial de continuer de croître.

Cette incertitude mondiale se répercute sur les marchés boursiers, comme Paul Krugman l’explique : quand les investisseurs pensent que Donald Trump va réellement adopter les droits de douane qu’il menace d’instaurer et qu’elles amèneront les pays étrangers à adopter des mesures en représailles, le cours des actions chute. Chaque fois qu’ils se disent que c’est juste de la comédie, le cours des actions rebondit. Les marchés ne réagissent pas bien aux perspectives d’une guerre commerciale comme les entreprises ont investi en supposant que l’économie mondiale resterait très intégrée et une guerre commerciale transformerait en épaves de nombreux actifs issus de ces investissements. (…)

En ce qui concerne les relations commerciales entre l’Union européenne et les Etats-Unis, Simon Nixon signale que l’expiration le 1er mai de l’exemption temporaire des droits de douane sur l’acier et l’aluminium pour l’UE pourrait être un point crucial : l’UE veut que l’exemption devienne permanente, mais le gouvernement américain a clairement indiqué que ce ne serait le cas qu’en échange de concessions de la part de l’UE. Il considère que les relations commerciales entre l’UE et les Etats-Unis sont actuellement déséquilibrées et injustes. L’administration Trump évalue typiquement la santé des relations commerciales des Etats-Unis au prisme du compte courant et, en octobre dernier, elle qualifia l’excédent bilatéral de l’Allemagne avec les Etats-Unis comme « énorme et inquiétant ». Bruxelles a déclaré qu’elle veut bien discuter plus largement de la relation commerciale entre les deux zones, mais seulement après que les Etats-Unis aient inconditionnellement rendu permanente l’exemption des tarifs douaniers.

Pascal Lamy, l’ancien chef de l’OMC, voit deux manières susceptibles de mettre un terme aux tensions actuelles, en fonction de ce que Trump fera concrètement. Les récentes annonces peuvent avoir pour but de renforcer le pouvoir de négociation. Cependant, si le Président américain vise à poursuivre le commerce bilatéral et non multilatéral, la réaction adéquate consisterait pour les partenaires commerciaux à joindre leurs forces de façon à protéger le système commercial multilatéral des agressions américaines. Indiquer clairement qu’il s’agit du plan B est probablement la meilleure option tactique pour le reste du monde afin de s’assurer que le plan A (améliorer le système multilatéral fondé sur des règles et non le détruire) soit le jeu auquel joue Trump.

Joseph Stiglitz affirme que l’actuel conflit commercial révèle l’ampleur à laquelle les Etats-Unis ont perdu de leur position dominante dans le monde. (…) La Chine a déjà dépassé les Etats-Unis en termes de production manufacturière, d’épargne, de commerce et même de PIB lorsqu’on mesure ce dernier en termes de parité de pouvoir d’achat. Et en outre, elle peut prendre les devants pour l’intelligence artificielle. Au cours des prochaines années, nous allons avoir à trouver une façon de créer un régime commercial mondial qui soit « juste » parmi des pays avec des systèmes économiques, des histoires, des cultures et des préférences sociétales fondamentalement différents. »

Inês Goncalves Raposo, « Trade Wars: what are they good for? », in Bruegel (blog), 23 avril 2018. Traduit par Martin Anota

mercredi 18 avril 2018

Les banques centrales à l’âge du populisme

« Les élections de ces deux dernières années ont montré que nous vivons dans une époque où le populisme politique et économique joue un rôle important. Quelles en sont les conséquences pour les banques centrales ? Nous passons en revue les commentaires sur la question (…).

Charles Goodhart et Rosa Lastra (…) affirment que le consensus qui a entouré l’indépendance des banques centrales dans la mise en œuvre d’une politique monétaire visant à promouvoir la seule stabilité des prix a été remis en cause dans le sillage de la crise financière mondiale, avec l’essor du populisme d’un côté et l’élargissement des mandats des banques centrales de l’autre. Après avoir considéré les arguments économiques en faveur de l’indépendance aussi bien que l’existence d’effets en termes de distribution, de direction et de durée, leur article examine différentes dimensions du débat sur la façon par laquelle le populisme (ou simplement le mécontentement général suscité par l’idée de statu quo) affecte l’indépendance de la banque centrale. Même s’il est possible (mais incertain) que la politique monétaire puisse continuer à être opérée de façon indépendante, Goodhart et Lastra estiment qu’il est possible que l’effacement de l’indépendance des banques centrales dans le champ de la stabilité financière remette aussi en question leur indépendance plus générale. Il est par conséquent selon eux important d’avoir en place des mécanismes adéquats pour « garder les gardiens » de la stabilité monétaire et financière.

Dani Rodrik écrit que le populisme dans le domaine économique est certes pratiquement toujours nocif, mais que le populisme économique peut être parfois justifié ; c’est par exemple le cas lorsqu’il remet en question la focalisation excessive des banques centrales indépendantes sur le maintien de l’inflation à un faible niveau. Une partie du contrecoup populiste que l’on observe aujourd’hui découle de la croyance, pas totalement injustifiée, que la délégation à des agences autonomes ou la conformité à des règles ne servent pas la société, mais seulement une caste minoritaire d’"insiders". Des banques centrales indépendantes ont joué un rôle crucial dans la réduction de l’inflation dans les années quatre-vingt et quatre-vingt-dix. Mais dans l’actuel environnement marqué par une faible inflation, leur focalisation excessive sur la stabilité des prix crée un biais déflationniste et s’avère en tension avec l’emploi et la croissance économique. Rodrik affirme que dans de tels cas, il est raisonnable de relâcher les contraintes pesant sur la politique économique et de réintroduire du pouvoir aux gouvernements élus dans l’élaboration de la politique économique. (…)

Lucrezia Reichlin a affirmé l’année dernière qu’avec l’essor des mouvements populistes, leurs reproches quant aux autorités monétaires indépendantes peuvent désormais modifier la relation entre banques centrales, Trésors et législateurs. L’éventail des critiques à l’encontre des banques centrales proviennent à la fois de la gauche et de la droite et certaines d’entre elles rejoignent une crainte que nourrissent certains économistes conservateurs, celle selon laquelle les banques centrales auraient joué un rôle excessif dans la gestion de l’économie depuis la crise financière de 2008. Mais alors que les populistes tendent à appeler à réduire l’indépendance politique et opérationnelle des banques centrales et à élargir leur mandat, les économistes conservateurs veulent l’inverse. Reichlin pense que les solutions populistes sont peut-être ne pas être adaptées, mais que les problèmes que les populistes ont identifiés en ce qui concernent les banques centrales sont réels. Si nous croyons que les banques centrales doivent être protégées des interférences politiques de court terme lorsqu’elles poursuivent des objectifs de politique monétaire, cela nous amène à mettre en place des réformes qui vont permettre une coordination démocratiquement responsable (accountable) entre les autorités monétaires, budgétaires et financières.

Jacqueline Best affirme que de la politique doit être ramenée dans la politique monétaire. Bien que l’exceptionnalisme technocratique est tentant, en particulier face à la menace d’une démocratie illibérale, il est également dangereux, dans la mesure où il réduit la responsabilité (accountability) sans même parvenir à dégager entièrement la politique de la politique monétaire. Cette déconnexion avec le public alimente au final le genre de contrecoup populiste que le monde a récemment connu, en politisant davantage la politique monétaire avec potentiellement des conséquences très désastreuses. C’est le paradoxe de la crédibilité de la politique monétaire : bien que la théorie économique prétende que la crédibilité monétaire et la faible inflation dépendent du retrait du politique, au final, dans une société démocratique, la crédibilité dépend aussi de la légitimité du système monétaire et de ses institutions à mettre en œuvre des politiques qui marchent.

Edward Hadas affirme que les autorités monétaires s’appuient sur un modèle dangereusement simpliste de la réalité et qu’elles ont besoin d’une approche plus humble et plus réaliste. Pour l’heure, cette révolte n’est pas allée loin, même si Narendra Modi, le premier ministre populiste indien, a ignoré la banque centrale indienne lorsqu’il retira sans prévenir tous les billets à haute valeur faciale de la circulation. Mais Hadas affirme que les banquiers dans le reste du monde ne doivent pas avoir l’esprit tranquille ; leur position politique est fragile, dans la mesure où non seulement elles n’ont pas pu empêcher une crise mondiale en 2008, mais aussi où elles ont présidé une décennie de médiocre croissance économique. Une partie du problème, affirme Hadas, est que les autorités monétaires sont focalisées sur le contrôle du taux de l’inflation des prix à la consommation et qu’elles affirment être apolitiques et au-dessus de la mêlée financière. Mais ces idées simplistes ne produisent pas de bonnes politiques. Les autorités monétaires doivent, selon Hadas, abandonner leurs fantaisies, rechercher à atteindre plusieurs objectifs, notamment chercher à limiter la volatilité des prix d’actifs, veiller à la santé du système financier, ramener les taux de change à des valeurs justes, soutenir la croissance économique et stimuler la création de l’emploi, tout en acceptant un surcroît de supervision politique. »

Silvia Merler, « Central banks in the age of populism », in Bruegel (blog), 19 mars 2018. Traduit par Martin Anota

mardi 3 avril 2018

Le discours présidentiel de Friedman, 50 ans après

« En mars 1968, l’article “The role of monetary policy” de Milton Friedman (reprenant son allocution présidentielle à l’American Economic Association) a été publié dans l’American Economic Review.. Cinquante ans après, les économistes se penchent à nouveau sur ce célèbre article.

Gregory Mankiw et Ricardo Reis soulignent que les anticipations, le long terme, la courbe de Phillips et les potentiel et limites de la politique monétaire sont toujours des sujets de recherche très actifs. Dans un futur proche, il se pourrait que la faible croissance économique que l’on a connue depuis la récession de 2008-2009 amène à un réexamen de l’hypothèse du taux de chômage naturel de Friedman. A ce point, l’explication la plus simple est que cette stagnation est due à un ralentissement de la productivité qui n’est pas lié au cycle d’affaires. Il se peut aussi, cependant, que cette faible croissance contredise la vision classique du long terme de Friedman, que ce soit via les effets d’hystérèse ou via l’insuffisance chronique de demande globale. De futurs travaux peuvent très bien confirmer la vision de Friedman et se tourner vers la formation des anticipations pour une meilleure compréhension de la courbe de Phillips, visant à un meilleur modèle de référence de ce qui pourrait remplacer tant les anticipations adaptatives que les anticipations rationnelles. Mankiw et Reis affirment que le rôle de la politique monétaire évolue actuellement et s’est éloigné des sujets que Friedman a développés dans son allocution présidentielle. L’avenir promet des progrès dans quatre domaines : l’interaction entre les politiques budgétaire et monétaire, le rôle des réserves bancaires, les taux d’intérêt proches de zéro et la stabilité financière.

Olivier Blanchard s’est demandé si nous devons rejeter l’hypothèse de taux de chômage naturel. L’hypothèse a certes été controversée à l’époque, mais elle a vite été acceptée par une majorité et constitue le paradigme dominant en macroéconomie depuis lors. Elle est partie intégrante dans la réflexion et les modèles utilisés par les banques centrales et elle fonde le cadre du ciblage d’inflation qu’utilisent la plupart des banques centrales aujourd’hui. Récemment, la crise financière mondiale et la récession qui en a résulté ont alimenté les débats autour du réalisme de cette hypothèse, et ce pour deux raisons. Premièrement, le niveau de la production apparaît avoir été irrévocablement affecté par la crise et la récession qui l’a suivie. Deuxièmement, à l’inverse de l’hypothèse accélérationniste, un chômage élevé n’entraîne pas une inflation de plus en plus faible, mais juste une inflation faible. Blanchard considère les preuves macroéconomiques et microéconomiques comme suggestives, mais pas concluantes, pour rejeter l’hypothèse du taux naturel. Les décideurs politiques doivent garder l’hypothèse de taux naturel comme leur hypothèse nulle, mais aussi garder l’esprit ouvert et considérer des alternatives.

Robert Hall et Thomas Sargent affirment que l’effet de court terme de l’allocution a été d’inciter beaucoup à vérifier l’affirmation de Friedman selon laquelle non seulement l’inflation anticipée importe pour l’inflation courante, elle importe aussi point par point dans la détermination de l’inflation courante. Dans la version alors existante de la courbe de Phillips, comme Friedman l’a souligné, la courbe de Phillips de long terme est devenue verticale et le taux de chômage (…) reste insensible aux choix de la banque centrale en matière d’inflation. A plus long terme, l’hypothèse de Friedman d’un déplacement point par point de la courbe de Phillips a été acceptée par de plus en plus d’économistes. L’idée plus générale que les variables réelles telles que le chômage, l’emploi et la production sont insensibles au régime monétaire commença à être acceptée et cette idée s’est généralisée au point de remplacer le concept de neutralité monétaire. Hall et Sargent croient que le principal message de Friedman, en l’occurrence l’hypothèse d’invariance à propos des résultats de long terme, a prévalu au cours du dernier demi-siècle parce qu’elle était confortée par des preuves relatives à plusieurs économies sur plusieurs années. Les travaux ultérieurs ont modifié les idées de Friedman relatives aux effets transitoires et n’ont pas été cléments avec la courbe de Phillips, mais Hall et Sargent affirment que l’hypothèse d’invariance a tenu bien, même si la courbe de Phillips n’a gardé la même place en tant qu’équation structurelle dans les modèles macroéconomiques.

John Cochrane a publié un long billet discutant de la contribution de Friedman, qui selon lui aurait pu avoir pour sous-titre « neutralité et non-neutralité » : la politique monétaire est neutre à long terme, mais pas à court terme. Mais ce que Friedman, l’empiriste, aurait dit aujourd’hui, après avoir vu le comportement sauvage de la vélocité de la monnaie lors des années 1980 et la stabilité surprenant de l’inflation à la borne zéro dans nos rétroviseurs ? Que penserait-il de l’idée de John Taylor selon laquelle varier les taux d’intérêt plus amplement que l’inflation, tout en restant dans le cadre qu’il posa, stabilise le niveau des prix en théorie et, apparemment, dans la pratique des années 1980 ? Cochrane pense que, malgré les événements ultérieurs, la conception de Friedman de la politique monétaire a eu une influence durable, même bien davantage que sa conception de la courbe de Phillips. L’idée selon laquelle les banques centrales sont toutes-puissantes, non seulement pour contrôler l’inflation, mais aussi en tant que principal instrument de gestion macroéconomique, est commune aujourd’hui, mais Friedman nous rappelle qu’elle ne l’a pas toujours été. Aujourd’hui, la Fed est créditée ou accusée d’être la principale cause derrière les variations des taux d’intérêt à long terme, des taux de change, des cours boursiers, des prix des matières premières et des prix de l’immobilier ; en outre, certains à l’intérieur et à l’extérieur de la Fed commencent à observer le taux d’activité, les inégalités et d’autres maux. (…) Cochrane pense que nous devrions prendre du recul et prendre comprendre que la Fed est bien moins puissante que ne le suggèrent tous ces commentaires.

Edward Nelson discute de sept erreurs commises à propos de l’article de Friedman : (1) "The Role of Monetary Policy" n’aurait pas été la première déclaration publique où Friedman a évoqué l’hypothèse du taux naturel ; (2) la courbe de Phillips à la Friedman-Phelps aurait déjà été présente dans l’analyse de Samuelson et Solow (1960) ; (3) la spécification de la courbe de Phillips de Friedman se baserait sur la concurrence parfaite et non sur les rigidités nominales ; (4) Le récit que Friedman (1968) a fait de la politique monétaire lors de la Grande Dépression contredirait celui de l’Histoire monétaire ; (5) Friedman (1968) aurait déclaré qu’une expansion monétaire maintiendrait le taux de chômage et le taux d’intérêt réel sous leurs taux naturels au cours des deux décennies suivantes ; (6) la borne inférieure zéro sur les taux d’intérêt nominaux invaliderait l’hypothèse de taux naturel ; (7) ce qu’a dit Friedman (1968) sur l’ancrage du taux d’intérêt aurait été réfuté par la révolution des anticipations rationnelles. Nelson explique pourquoi ces idées sont fausses et infère les aspects clés de l’analyse sous-jacente de Friedman (1968).

Scott Sumner attire l’attention sur la deuxième note de base de page dans l’article de Friedman de 1968, où il croit y voir Friedman anticiper les raisons pour lesquelles les cibles d’inflation ou du PIB nominal peuvent être supérieurs au ciblage de la monnaie. Sumner a publié un autre billet où il explique pourquoi remplacer le ciblage d’inflation par le ciblage du PIB nominal résoudrait de nombreux problèmes. La relation empirique que Friedman s’est rompue une décennie après la publication de son article : les récessions n’ont plus été précédées par des ralentissements brutaux de la croissance de M2. Sumner affirme que la rupture dans la relation empirique qui a amené Friedman à préconiser le ciblage de l’offre de monnaie contribue à expliquer pourquoi, plus tard dans sa vie, il a soutenu l’approche du ciblage d’inflation de Greenspan : Friedman était un pragmatique, donc lorsque les faits changeaient, il changeait d’avis.

David Glasner note que l’interprétation standard du raisonnement de Friedman est la suivante : puisque les tentatives visant à accroître la production et l’emploi par l’expansion monétaire sont vaines, la meilleure politique qu’une autorité monétaire doit poursuivre doit être une politique stable et prévisible qui maintient l’économie au plus proche de sa trajectoire de croissance optimale à long terme telle qu’elle est déterminée par des facteurs réels. Donc, la meilleure politique consisterait à trouver une règle claire et prévisible pour imposer aux autorités monétaires le comportement qu’elles doivent adopter, pour empêcher qu’une mauvaise gestion monétaire ne devienne par inadvertance une force déstabilisatrice écartant l’économie de sa trajectoire de croissance optimale. Au cours des cinquante ans qui ont suivi l’allocution de Friedman, ce message a été repris par les économistes monétaires et les banques centrales, ce qui a amené à un large consensus en faveur du ciblage d’inflation et, désormais, d’une cible d’inflation annuelle de 2 %. Mais cette interprétation, que Friedman a lui-même fait de son propre raisonnement, ne découle en fait pas de l’idée selon laquelle l’expansion monétaire ne peut affecter la trajectoire de croissance d’équilibre à long terme d’une économie. L’idée de la neutralité monétaire est un pur exercice de statique comparative, qui nous enseigne quelque chose, mais pas autant que Friedman et ses successeurs le pensaient. »

Silvia Merler, « Milton Friedman’s "The role of monetary policy" – 50 years later », in Bruegel (blog), 3 avril 2018. Traduit par Martin Anota



aller plus loin...

« Quel est l’héritage du discours présidentiel de Friedman ? »

« Le taux de chômage naturel, un concept suranné »

lundi 19 mars 2018

Que pensent les économistes des droits de douane américains sur l’acier et l’aluminium ?

« L’administration américaine a annoncé qu’elle envisageait d’instaurer des tarifs douaniers (de 25 %) sur l’acier et (de 10 %) sur l’aluminium, soi-disant pour des raisons de sécurité nationale. Nous passons en revue ce que les économistes ont pu dire sur ce bouleversement dans la politique commerciale américaine.

Chad Brown pense que ce genre de protection a des percussions économiques et institutionnelles considérables et généralisées, pour diverses raisons. Premièrement, il réduira un montant significatif d’importations. Les nouveaux tarifs douaniers accroîtront probablement les coûts pour les constructeurs automobiles, les fabricants de conserves, les projets d’infrastructures et même l’industrie de la défense. Deuxièmement, les Etats-Unis n’ont pas déclenché de protection dans le cadre de la loi de la sécurité nationale depuis plus de 30 ans ; Reagan est le dernier à avoir imposé des restrictions dans le cadre de cette loi en 1986. L’instauration de tarifs douaniers sur l’acier et l’aluminium peut amener beaucoup à affirmer que le commerce fait peser d’autres menaces sur la sécurité nationale. Troisièmement, Brown pense que l’enquête amorcée dans le cadre de cette loi n’a pas été transparente (…). Quatrièmement, Brown affirme que la loi accorde au Président la discrétion incroyable de décider unilatéralement de la taille et de la forme de la restriction commerciale aussi bien que de sa durée. Cinquièmement, même si l’OMC permet aux pays d’imposer des restrictions quand la sécurité nationale est menacée, utiliser ce prétexte menace le système commercial basé sur des règles. (...)

Jared Bernstein dit qu’il est certain que les tarifs douaniers vont faire plus de mal que de bien, mais il affirme que cela ne signifie pas qu’il n’y a pas de problème. Il cite un article du Washington Post décrivant les impressionnants gains de productivité dans la production d’acier et se demande alors pourquoi les Etats-Unis, si ces derniers si productifs dans l’acier, présentent un tel déséquilibre persistant dans ce secteur. Il se peut que les gains de productivité des autres pays dans la production d’acier aient été plus grands ou que leurs coûts du travail soient plus faibles, mais, du moins dans l’industrie manufacturière dans son ensemble, il ne semble pas que ce soit le cas : les coûts unitaires du travail des Etats-Unis, sur une base dollars, sont inférieurs à ceux de la plupart des partenaires à l’échange, à la fois en niveaux et en termes de croissance. Bernstein pense qu’au cœur du problème, il pourrait y avoir l’énorme contribution de la Chine à l’excès de capacité mondiale, qui neutralise les gains de productivité. (...)

Noah Smith pense que les tarifs douaniers ne sont généralement pas une bonne façon de promouvoir l’industrie domestique. Ils encouragent les producteurs américains à se focaliser sur le marché captif local au lieu de trouver des façons de faire face à la concurrence rude et agité qui s’exerce au niveau mondial. Si les consommateurs américains sont forcés de n’utiliser que les produits domestiques, l’acier et l’aluminium américains risquent de finir par apparaître comme des produits de mauvaise qualité. Et si les métaux sont plus chers, cela risque non pas d’aider mais d’endommager l’industrie. Les défenseurs des tarifs douaniers affirment que l’acier et l’aluminium sont importants pour la défense nationale, mais les constructeurs de navires militaires vont devoir payer des métaux plus chers, notamment les fabricants de tanks, d’avions, d’armes et d’autres équipements cruciaux de défense. Les tarifs douaniers ne vont pas non plus ramener de bons emplois dans les usines d’acier et d’aluminium : depuis 1990, la production de métaux aux Etats-Unis est restée assez constante, mais le nombre de personnes employées dans ce secteur a régulièrement chuté, sous l’effet du progrès technique. Donc Smith pense que les Etats-Unis se sont infligé une sévère blessure en adoptant des tarifs douaniers sur les métaux.

Jeffrey Sachs affirme que cela pourrait être le premier coup tiré dans une guerre commerciale insensée et destructive. Qu’importe ce que les producteurs américains d’acier gagneront d’une guerre commerciale, ce gain sera moindre que les pertes que connaîtront les utilisateurs d’acier et les consommateurs, notamment en raison des coûts sociaux associés à la protection d’emplois non compétitifs. Mais l’essoufflement du marché boursier reflète la possibilité de quelque chose de plus désastreux : le glissement vers une guerre commerciale mondiale dans laquelle tous les pays, notamment les Etats-Unis, seraient perdants. L’économie mondiale a déjà connu un tel scénario par le passé : les guerres commerciales du début des années trente contribuèrent à déclencher, puis aggraver et prolonger la Grande Dépression. Sachs croit que les mesures de Trump reposent sur trois erreurs. Premièrement, Trump pense que les Etats-Unis génèrent des déficits commerciaux avec des pays comme la Chine et l’Allemagne parce que les Etats-Unis se font flouer d’une façon ou d’une autre par ceux-ci. La vraie raison est que les Etats-Unis épargnent trop peu et consomment de trop. Deuxièmement, Trump pense que les barrières commerciales vont protéger les Etats-Unis, mais même si ces mesures peuvent temporairement protéger l’acier américain, elles ne vont pas protéger la société américaine. Troisièmement, Trump croit que les barrières commerciales américaines vont faire ployer la Chine et renforcer la domination économique et militaire des Etats-Unis, mais la Chine et l’Europe vont sûrement riposter.

Martin Wolf écrit dans le Financial Times que ces tarifs douaniers ne sont pas importants en soi, mais que le motif avancé pour les justifier, leur niveau et leur durée, la volonté de cibler les alliés proches et la déclaration du Président selon laquelle « les guerres commerciales sont bonnes et faciles à gagner » présagent un surcroît de protectionnisme. Cette action est susceptible de marquer le début de la fin de l’ordre commercial multilatéral fondé sur les règles que les Etats-Unis avaient eux-mêmes instauré. Un point crucial est que cette action ne vise pas la Chine, qui représente moins de 1 % des importations américaines d’acier. Ses victimes sont des amis et alliés : le Brésil, le Canada, l’Union européenne, le Japon et la Corée du Sud. Ce n’est pas non plus une mesure prise contre une certaine forme de commerce déloyal. C’est une politique purement protectionniste visant à sauver les vieilles industries. Pourtant, même en ce sens, la justification est bien fragile : la production américaine d’acier et d’aluminium stagne depuis plusieurs années. Si cette action fait réellement sens à Trump, qu’est-ce qui ne le fait pas ?

Brad DeLong pense qu’au final les consommateurs américains paieront pour les tarifs douaniers. De telles mesures protectionnistes vont affecter chaque secteur de l’industrie américaine d’une façon ou d’une autre et les industriels qui utilisent l’acier et l’aluminium comme intrants vont certainement répercuter sur leurs prix de vente une partie du surcroît de coûts qu’elles subiront. Donc, Trump a essentiellement proposé une nouvelle taxe sur les résidents américains, en l’occurrence les consommateurs et les industries exportatrices, et ce fardeau sera en grande partie supporté par ses propres partisans au cœur des Etats-Unis et dans la Rust Belt.

Dani Rodrik estime que plusieurs commentateurs ont réagi de façon excessive à la possibilité de tarifs douaniers en prédisant une "guerre commerciale", voire pire, mais la réalité est que les mesures commerciales de Trump, du moins celles qu’il a adoptées jusqu’à présent, ne représentent pas grand-chose. En l’occurrence, elles ne pèsent pas lourd, que ce soit en termes d’échelle et d’ampleur, par rapport aux mesures adoptées par l’administration de Ronald Reagan dans les années quatre-vingt. Les politiques de Trump violent l’esprit, si ce n’est la lettre, des accords commerciaux d’aujourd’hui, les restrictions commerciales de Reagan ont exploité les lacunes des accords alors en vigueur. Même si leur impact global reste limité, les restrictions commerciales de Trump ont une teneur plus unilatérale, directe. Une autre différence avec les mesures adoptées sous Reagan, c’est que nous vivons une étape plus avancée de la mondialisation que les problèmes qui l’ont accompagnée sont plus grands et que les forces du nationalisme et du nativisme sont probablement plus puissantes aujourd’hui qu’à toute autre époque depuis la fin de la Seconde Guerre mondiale. Alors que les politiques de Trump visent prétendument à restaurer de l’équité dans le commerce mondial, elles exacerbent ces problèmes plutôt qu’elles ne les améliorent. Un tel protectionnisme est un artifice, pas un programme sérieux pour la réforme commerciale. »

Silvia Merler, « Are we steel friends? », in Bruegel (blog), 12 mars 2018. Traduit par Martin Anota

dimanche 11 mars 2018

Les femmes sont encore bien sous-représentées parmi les professeurs d’économie

« Une observation de la représentation des femmes dans les facultés d’économie les plus prestigieuses en Europe montre qu’il y a encore beaucoup de progrès à faire pour que ces dernières se rapprochent de l’égalité des sexes…

La question de l’équilibre entre les sexes en économie a reçu ces derniers temps beaucoup d’attention. (…) Malgré la forte sous-représentation des femmes en économie, nous pouvons faire (et nous avons fait) d’importants progrès dans ce sens. (…)

Dans le cadre de cette démarche, nous avons cherché avril dernier combien de femmes sont effectivement devenues professeures dans les départements d’économie les plus prestigieux des universités européennes. Pour ce faire, nous avons utilisé le Classement mondial des universités (…). Une analyse similaire a été faite par The Economist il y a quelques mois, portant sur la représentation des femmes dans le champ économique dans les universités européennes et américains. Nous avons pris les 20 universités européennes les plus prestigieuses dans le domaine de l’économie et de l’économétrie et nous avons vérifié combien de femmes étaient professeures dans les départements d’économie.

Cependant, il semble également important de vérifier la proportion de l’ensemble des personnels universitaires qui ne sont pas des professeurs titulaires (les professeurs assistants, les professeurs associés, les chargés d’enseignement et les maîtres de conférence, les lecteurs et les chercheurs) aussi bien que la proportion de femmes titulaires d’un doctorat. Cela nous donne une meilleure idée de la représentation du genre dans l’ensemble des parcours professionnels vers le professorat à plein temps dans les facultés d’économie. Nous avons alors contacté les départements d’économie en question pour confirmer les données.

Le pourcentage moyen d’étudiantes en doctorat dans les 20 plus grands départements d’économie en Europe s’élève à 35,13 %. Ce chiffre est inférieur à la moyenne de 47 % observée pour l’ensemble des domaines d’études dans l’Union européenne par She Figures (une étude sur les liens entre, d’une part, le genre et, d’autre part, la recherche et l’innovation publiée par la Commission européenne publiée tous les trois ans) pour les titulaires d’un doctorat en 2012 pour l’ensemble des disciplines.

La proportion de femmes dans l’ensemble des effectifs universitaires (les professeurs qui ne sont pas titulaires) est légèrement inférieure, puisque les femmes représentent 25,86 % de ceux-ci, tandis que la proportion de femmes qui travaillent parmi le personnel administratif dans les 20 plus grands départements d’économie s’élève à 79,41 %. Les hommes présents dans le personnel administratif travaillent principalement dans les TIC, tandis que les femmes tendent à entreprendre des tâches qui relèvent de la communication ou de la gestion de projets. Lorsque nous remontons les grades universitaires, la proportion de femmes passe d’un tiers au niveau doctoral à seulement un huitième au niveau des professeurs. Les femmes ne représentent en moyenne que 12,87 % des professeurs titulaires.

Ces chiffres sont tout à fait similaires à ceux obtenus par les diverses études réalisées autour des facultés d’économie, notamment celle réalisée aux Etats-Unis par l’American Economic Association, qui a constaté que seulement 23,5 % des personnels universitaires (titulaires et assistants) sont des femmes. Par grade, les femmes représentent 15 % de l’ensemble des professeurs titulaires dans les départements d’économie et 31 % des personnels de facultés d’économie au niveau des assistants. Bayer et Rouse (2016) sont allés plus loin dans leur analyse, en regardant au niveau des économistes minoritaires à l’université ; ils ont constaté que seulement 6,3 % des économistes titulaires ou assistants sont identifiés comme Afro-Américains ou Hispaniques, alors que ceux-ci représentent 30 % de l’ensemble de la population aux Etats-Unis. D’autres études montrent que les écarts entre les sexes parmi les taux d’obtention de postes permanents et de taux de promotion dans les facultés d’économie sont plus importants que ceux observés pour l’ensemble des sciences sociales ; Ginther et Kahn (2014) notaient par ailleurs l’existence d’un écart entre les sexes de 20 % dans l’obtention des postes permanents.

Comprendre quelles sont les raisons qui expliquent ces chiffres est la première chose à faire pour répondre au déséquilibre. Diane Coyle a récemment affirmé dans le Financial Times que l’on peut considérer le manque de modèles comme l’un des principaux facteurs contribuant à ce qu’une faible proportion de femmes désire débuter une carrière universitaire en économie. Plus les femmes économistes seront visibles, plus il y aura de femmes qui verront l’économie comme un plan de carrière réaliste, profitable, attractive et réalisable. Il y a toujours beaucoup de choses à faire de ce côté. »

Ariane Giraneza Birekeraho et Paola Maniga, « How many female economics professors in top European Universities? », in Bruegel (blog), 7 mars 2018. Traduit par Martin Anota

lundi 12 février 2018

Autour de la récente chute des cours boursiers

« Les valeurs boursières ont chuté la semaine dernière, ce qui a amené beaucoup à se poser des questions et suscité des débats, notamment à propos des causes sous-jacentes. Nous passons en revue les avis des économistes sur la question...

John Cochrane a publié un long billet visant à expliquer les fluctuations boursières, où il examine en profondeur les prix d’actifs, le ratio cours sur dividende, la prime de risque et la volatilité. La question qui se pose est la suivante : est-ce que les taux d'intérêt réels de long terme augmentent enfin (et reviennent à ce qui rapproche de la norme historique) et, si oui, pourquoi ? La bonne nouvelle, affirme Cochrane, est que nous arrivons dans une période de plus forte croissance. Cela augmenterait la croissance réelle, avec une petite baisse des cours boursiers, mais avec aussi des rendements boursiers plus élevés et des rendements obligataires en hausse. Il y a aussi une mauvaise nouvelle : après avoir voté une réduction d’impôts qui va creuser les déficits (…), les meneurs du Congrès viennent de se mettre d’accord pour accroître les dépenses publiques de 200 milliards de dollars. Cochrane affirme qu’à un certain moment les marchés obligataires disent "non" et que les taux réels augmentent parce que la prime de risque augmente. La bonne nouvelle nous amène à anticiper une certaine inflation si l'on croit en la courbe de Phillips ; avec la mauvaise nouvelle, on peut s'attendre à une stagflation en raison de la situation budgétaire.

Tyler Cowen estime que le déclin des prix d’actifs peut être une bonne chose (...). Il affirme que ce niveau élevé des prix d’actifs reflète une réalité de la création de richesses, c’est-à-dire le fait qu’il y ait un déséquilibre entre la richesse mondiale et les moyens sûrs de transférer cette richesse dans le futur. Les marchés boursiers de Chine et de Russie ne sont pas sûrs et pas très bien développés et plusieurs autres pays émergents, comme la Turquie et le Brésil, ont été affaiblis par l’incertitude et les désordres politiques. Donc, en termes relatifs, les actifs de haute qualité, fortement liquides et habituellement sûrs sont devenus chers et nous nous retrouvons avec des price-earning ratios particulièrement élevés et des rendements négatifs sur les titres publics sûrs. Comme les rapports positifs se multiplient concernant l’économie américaine, les actifs sûrs peuvent devenir moins importants en tant que réserves de valeur relativement sûres et donc leur prix peut chuter. Cette dynamique des prix ne traduit pas forcément la présence de bulles mais, dans un monde où la richesse est créée plus rapidement que ne s’améliorent les institutions, elle peut signaler que la prime de risque est peut-être plus importante qu’on ne le pense.

Paul Krugman dit que, d’un côté, nous ne devrions pas supposer qu’il y a une bonne raison à l’origine de la chute du marché ; quand les cours boursiers se sont effondrés en 1987, il s’agissait d’une panique auto-réalisatrice. D’un autre côté, nous ne devons pas non plus supposer que la chute des cours boursiers nous dise grand-chose à propos des perspectives économiques futures ; le krach de 1987, par exemple, a été suivi par une croissance solide. Pourtant, les turbulences sur le marché doit nous amener à nous pencher plus sérieusement sur les perspectives économiques. S’il y a une nouvelle derrière la chute, c’est bien la publication du dernier rapport sur l’emploi, qui a montré une hausse, certes significative, mais pas énorme, des salaires. Krugman affirme que c’est une bonne nouvelle (elle suggère en effet que l’économie américaine est proche du plein emploi), mais cela signifie aussi que la croissance américaine ne pourra plus venir du retour des chômeurs à l’emploi. Il affirme que l’économie américaine risque certainement de voir sa croissance ralentir et que les analyses disponibles suggèrent que la croissance au cours de la prochaine décennie tournera autour de 1,5 % par an, soit la moitié de ce qu’avait promis Trump.

Matthew Klein, du Financial Times, se penche sur la crainte des marchés qu’une accélération de la croissance des salaires alimente l’inflation des prix à la consommation ou, tout du moins, que la Fed réagisse à une telle perspective en resserrant sa politique monétaire. Il affirme que les derniers chiffres ne valident pas pour l’heure ce que croient les participants du marché. Si l’on prend une moyenne sur six mois, il semble que la croissance des salaires ait ralenti depuis la seconde moitié de 2016. Il y a aussi des raisons qui nous amènent à douter que cette croissance des salaires puisse se traduire par une hausse des prix à la consommation : en général, ce sont surtout les personnes à faibles revenus qui tendent à davantage dépenser et à moins épargner, donc ceux qui s’inquiètent qu’une hausse des salaires puisse stimuler le pouvoir d’achat des consommateurs et éroder les marges doivent se focaliser sur les secteurs à faibles rémunérations, or la croissance salariale y a ralenti. Klein souligne aussi l’importance du secteur financier au regard de la croissance salariale. Il estime que ce serait ironique si les agents financiers se convainquaient de vendre leurs actions en raison de la publication d’une unique donnée, en l’occurrence une donnée qui a été perturbée par la hausse agressive de leurs propres rémunérations, une hausse qu’ils ont justifié par l’évolution du marché, elle-même en partie justifiée par la stabilité de l’inflation.

Stephen Williamson (…) pense qu’il n’y a pas réellement de signe d’excès inflationniste dans les données. Il y a, par contre, des signes que l’inflation et l’inflation anticipée sont très proches de ce qui est cohérent avec une cible d’inflation de 2 %, pour un futur indéfini. Il pense qu’il peut y avoir un risque en termes de décisions de politique monétaire, néanmoins, comme la Fed est aussi proche (…) d’atteindre ses objectifs. L’inflation est arrivée récemment, lorsque les taux d’intérêt nominaux ont augmenté. C’est cohérent avec la logique néo-fisherienne, celle selon laquelle il faut augmenter le taux d’intérêt nominal si l’on veut davantage d’inflation. Bien sûr, l’inflation était faible en 2014-2015 en partie en raison d’une chute du prix du pétrole brut. Néanmoins, certains ont affirmé que l’inflation ralentirait en conséquence des hausses du taux directeur de la Fed et ce n’est pas ce qui s’est passé. Le problème est que la Fed pourrait continuer d’accroître les taux d’intérêt alors même que ce n’est pas nécessaire, ce qui va amener l’inflation à dépasser sa cible, ce qui incitera en retour la Fed à relever davantage ses taux et continuera d’éloigner l’inflation de sa cible. Heureusement, c’est une route politiquement difficile à emprunter, donc il doute que cela arrive.

Dambisa Moyo affirme que, malgré la récente chute des valeurs boursières, l'atmosphère haussière qui soutient les actions reste déconnectée de la réalité et reste sourde aux réserves exprimées par les dirigeants politiques, tandis que le marché évalue mal les défis structurels, en particulier l’endettement mondial croissant et insoutenable et la piètre perspective budgétaire, notamment aux Etats-Unis, où le prix de cette reprise est une dette croissante. En 2018, les chefs d’entreprises et les participants de marché doivent garder en tête (…) que nous nous rapprochons de la date où il faudra payer la facture pour la reprise actuelle. Les fluctuations qu’ont connues les marchés des capitaux ces derniers jours suggèrent qu’ils prennent conscience de cet inévitable règlement. »

Silvia Merler, « The stock market slide », in Bruegel (blog), 12 février 2018. Traduit par Martin Anota

samedi 3 février 2018

Cinq ans d’Abenomics

« Cinq ans ont passé depuis que le Premier ministre Shinzō Abe a été élu en 2012 et a commencé à mettre en œuvre ce qu’on qualifie d’"Abenomics", c’est-à-dire un ensemble de mesures macroéconomiques basées sur "trois flèches" : l’assouplissement monétaire, la relance budgétaire et les réformes structurelles. Cinq ans après, peut-on dire que l’Abenomics a été efficaces ? Nous passons en revue plusieurs commentaires qui ont récemment été tenus à ce sujet.

The Economist note que la devise du Japon s’est dépréciée d’environ vis-à-vis du dollar depuis novembre 2012 et que l’indice boursier Nikkei 225 a augmenté de plus 150 % sur la même période. Cela a contribué à relancer l’économie et le PIB japonais a augmenté sans discontinuité ces sept derniers trimestres, soit pour la plus longue période de croissance ininterrompue depuis 16 ans. Les exportations ont beaucoup contribué à cette performance, mais l’investissement privé a aussi augmenté de plus de 18 % en termes nominaux au cours des cinq dernières années. 2,7 millions d’emplois nets ont été créés, malgré une démographie défavorable. Pourtant, l’inflation ne s’est pas vraiment accélérée : l’indice des prix (si l’on exclut les aliments frais) a augmenté de seulement 0,7 % dans l’année qui précéda septembre 2017. La faible performance en matière d’inflation peut notamment s’expliquer par le fait que les salaires n’ont pas augmenté aussi rapidement qu’on ne l’attendait, en partie parce que la majorité des travailleurs japonais ont des contrats permanents et que leur salaire suit principalement le coût de la vie. Une seconde raison pourrait être la hausse de la population active, dans la mesure où davantage de femmes, de personnes âgées et dans une certaine mesure aussi de travailleurs étrangers sont entrés sur le marché du travail. En outre, là où le coût de la vie a augmenté, certaines firmes ont trouvé des façons d’accroître la productivité plutôt que les prix, en investissant dans des technologies économes en travail.

The_Economist__PIB_nominal_Japon_Abenomics_Shinzo_Abe.png

Scott Sumner (…) est d’accord à l’idée que l’impact le plus important de l’Abenomics a été sur le PIB nominal, ce dernier ayant suivi une tendance à la baisse jusqu’à l’élection d’Abe. Selon la théorie du monétarisme de marché, un PIB nominal élevé peut être utile pour répondre à deux problèmes : les excès d’endettement et un chômage cyclique élevé. L’Abenomics a été très efficace sur les deux fronts. Le chômage a chuté à 2,7 %, le niveau le plus faible en 23 ans ; et le ratio dette publique sur PIB a atteint un palier, après avoir explosé et atteint un taux dangereux ces dernières décennies. Les prix sont à la hausse ces cinq dernières années et la dynamique est certainement meilleure que la déflation qui que le Japon connaissait avant le déploiement de l’Abenomics, mais l’inflation est toujours inférieure à la cible de 2 %.

(…) Sumner affirme aussi qu’une inflation de 1 % est trop faible et que la Banque du Japon doit assouplir sa politique monétaire, pour deux raisons. Premièrement, Japon a fixé une cible d’inflation officielle de 2 % et une fois qu’une cible d’inflation cible est fixée, elle doit être atteinte pour que la politique monétaire reste crédible (la crédibilité étant cruciale pour la gestion des futures crises). Deuxièmement, Sumner pense que la Banque du Japon s’est trompée en utilisant les taux d’intérêt comme instrument de politique monétaire, parce que même une inflation de 2 % au Japon ne suffit probablement pas pour éviter la borne zéro lors d’une récession. Donc le Japon est dans une étrange situation où il n’a pas besoin de relance monétaire, mais où la Banque du Japon doit néanmoins adopter une relance monétaire parce que, si elle ne le faisait pas, le Japon pourrait chuter dans une récession à l’instant où la Banque du Japon perdrait en crédibilité.

Erik Norland (…) pense que l’Abenomics n’a pas encore pleinement dévoilé ses effets. L’économie japonaise s’est améliorée depuis 2012, mais elle a ralenti depuis début 2015 et l’expérience de la Banque du Japon avec les taux d’intérêt négatifs de court terme ne semble pas avoir été une réussite (Norland affirme que les taux négatifs ont empêché le Japon de retrouver des taux d’inflation positifs). Environ la moitié de la hausse temporaire de l’inflation en 2013-2014 peut être attribuée au passage de la TVA de 5 % à 8 % et, bien que cela n’ait pas été un thème majeur de la campagne, il faudra faire attention au possible relèvement de la TVA de 8 % à 10 %, qui accroîtrait l’activité préachat mais pourrait temporairement ralentir l’activité après la hausse. Une autre question qui a été évitée durant la compagne est celle de l’énergie nucléaire. Le gouvernement d’Abe a permis un retour progressif et partiel au nucléaire, qui doit limiter le déficit budgétaire du Japon et réduire la croissance de la demande de pétrole brut et de gaz naturel. Globalement, le Japon bénéfice actuellement d’un contexte international favorable, en l’occurrence de la première croissance mondiale synchronisée depuis 2007 ; mais la Chine pose un risque majeur, comme 25 % des exportations du Japon dirigées vers la Chine ou Hong Kong et qu’ils ont tous deux accumulé d’amples dettes. Norland pense que les niveaux de dette élevés du Japon vont probablement le laisser à de faibles taux d’intérêt de court terme ces prochaines années, malgré une meilleure performance économique.

Lechevalier et Monfort affirment que, au cours des cinq dernières années, les politiques proactives poursuivies dans le cadre de l’Abenomics ont joué un rôle décisif dans l’inversion d’une des causes du ralentissement japonais, en l’occurrence l’incohérence des politiques économiques, et qu’elles rapportent maintenant leurs premiers résultats. Cependant ils soulignent que, dans cinq ans, les performances ont été en-deçà des objectifs, en particulier en ce qui concerne l’inflation et la croissance du PIB. Ils sont plus critiques au regard des questions de long terme et pensent que l’Abenomics peut en définitive échouer en raison de l’incapacité à clairement définir un modèle de croissance pour la nation au cours des deux prochaines décennies. Selon Lechevalier et Monfort, le problème n’est pas tant le manque de réformes structurelles que leur capacité limitée à relever le potentiel de croissance du pays.

Un point similaire a été souligné par Shaori Shibata, qui affirme que les remèdes de style keynésien qui font partie intégrante de l’Abenomics n’ont pas été capables de répondre au problème de faible demande que connaît le Japon à plus long terme, en particulier en termes de consommation privée. C’est en grande partie à cause des mesures de libéralisation qui forment également partie intégrante de l’Abenomics et qui ne sont pas compatibles avec les remèdes keynésiens qui ont été adoptés. Alors que l’Abenomics a le potentiel (du moins à court et moyen termes) pour améliorer la profitabilité des entreprises, en l’absence d’une mesure visant à redistribuer la richesse des entreprises au travail, l’Abenomics représente aussi à l’avenir un danger pour la croissance économique du Japon.

Heizo Takenaka écrit que les performances économiques ont beau s’être clairement améliorées, il demeure toujours plusieurs défis sérieux. Les efforts pour la consolidation budgétaire et la revitalisation des économies régionales sont lents ; le creusement des écarts de revenu n’a pas été traité ; malgré les progrès économiques, la compétitivité du Japon relativement au reste du monde s’est davantage détériorée ; et les universités japonaises continuent de perdre des places dans les classements internationaux. En fin de compte, il est vrai que l’Abenomics a significativement stimulé l’économie, mais qu’elle peine à faire face aux changements rapides qui ont lieu dans le reste du monde. (…) »

Silvia Merler, « Abenomics, five years in », in Bruegel (blog), 8 janvier 2018. Traduit par Martin Anota



aller plus loin...

aller plus loin...

« Quelle est l’efficacité de l’Abenomics ? »

« La politique budgétaire est-elle efficace au Japon ? »

mardi 20 juin 2017

Le problème de la Fed avec l’inflation

« La Fed a relevé son principal taux directeur d’un quart de point de pourcentage. Cette mesure n’a surpris personne, mais elle a amené les économistes à s’interroger sur la relation de la Fed avec l’inflation. Nous passons en revue les plus récentes contributions.

Joseph Gagnon (…) affirme que la réunion de la Fed a eu son lot de surprises. Premièrement, Janet Yellen a affirmé que la baisse de 2 % à 1,5 % en avril du taux d’inflation que privilégie la Fed s’expliquait par une évolution exceptionnelle et transitoire des prix des services de téléphonie mobile et des produits pharmaceutiques en mars. Gagnon se demande si le comité fédéral d’open market (FOMC) ne renouerait pas avec sa mauvaise manie des années soixante-dix, lorsqu’il persistait à expliquer le niveau d’inflation d’alors en mettant sans cesse en avant des facteurs exceptionnels. Deuxièmement, le comité fédéral a donné des détails sur la façon par laquelle il comptait graduellement réduire son bilan et il a indiqué que le processus pourrait débuter à un moment ou un autre au cours de l’année. Yellen a refusé de dire si le comité fédéral augmenterait ses taux lors de la réunion où elle débuterait la contraction de bilan, mais Gagnon pense que la contraction de bilan peut commencer en septembre et que la prochaine hausse de taux peut attendre jusqu’à décembre. Troisièmement, Yellen a été interrogée à propos d’une lettre signée par divers économistes appelant le comité de politique monétaire à relever sa cible d’inflation ou à changer le cadre de sa politique monétaire pour éviter que l’inflation demeure sous la cible et elle s’est montrée étonnamment ouverte à cette suggestion, en disant qu’il s’agit d’une question très importante que le comité de politique monétaire étudierait.

Jared Bernstein se demande aussi si la Fed ne serait pas en train de mener une vieille guerre. Certes l’économie américaine est proche du plein emploi, mais la hausse de l’indicateur préféré de la Fed, le déflateur des dépenses de consommation personnelle, est inférieur à la cible d’inflation de 2 % et ralentit. Elle a ralenti en passant de 1,8 % lors des deux premiers mois de l’année à 1,6 % au cours des deux derniers mois. Les anticipations restent également basses (inférieures à 2 %). C’est l’opposé de ce à quoi on pourrait s’attendre si les tensions sur le marché du travail alimentaient la hausse des prix et c’est une raison légitime pour ne pas chercher à appuyer sur les freins avec une autre hausse des taux. (…) En regardant les prévisions de la Fed concernant l’évolution future de l’inflation, Bernstein note que la Fed croit que l’inflation va rejoindre l’inflation de 2 %, mais l’inflation observée continue d’ignorer ses prédictions. Cela suggère un problème avec le modèle.

Larry Summers a présenté les cinq raisons l’amenant à penser que la Fed est peut-être en train de commettre une erreur. Premièrement, la Fed n’est en ce moment pas crédible avec les marchés. Ses points prédisent quatre hausses de taux au cours des 18 mois alors que le marché s’attend à moins de deux hausses. Les marchés ne partagent pas l’opinion de la Fed selon laquelle l’accélération de l’inflation constitue un risque majeur ; en fait, ils ne croient pas que la Fed atteigne sa cible d’inflation de 2 % de si tôt. Deuxièmement, la Fed affirme qu’elle a un engagement symétrique concernant sa cible d’inflation de 2 %. Après une décennie où l’inflation a été inférieure à sa cible, la politique monétaire doit être fixée en vu de relever modestement la cible d’inflation durant un boom avec l’anticipation que l’inflation va décliner au cours de la récession suivante. Une cible d’inflation plus élevée implique une politique monétaire bien plus souple que ce qui est actuellement envisagé. Troisièmement, les attaques préventives contre l’inflation, telles que les attaques préventives contre pays, dépendent de la capacité à juger les menaces de façon précise. La vérité est que nous avons peu de capacité pour juger quand l’inflation va s’accélérer de façon significative. La courbe de Phillips est au mieux peu présente dans les données relatives aux 25 dernières années. Quatrièmement, il y a une bonne raison de croire qu’un niveau donné de taux est biens moins expansionniste que par le passé en raison de forces structurelles qui contribuent à accroître les propensions à épargner tout en réduisant les propensions à investir. Cinquièmement, pour abandonner sa connexion à la stabilité des prix, la Fed doit seulement affirmer que son objectif est d’assurer que l’inflation atteigne en moyenne 2 % au cours de très longues périodes de temps. Ensuite, elle doit faire savoir que l’inflation a beau être persistante, il est très difficile de la prévoir et signaler qu’elle va se focaliser sur les données relatives à l’inflation et aux anticipations d’inflation plutôt que des indicateurs de production et du chômage pour prévoir l’inflation. Avec tout cela pris en compte, la Fed ramènerait ses prévisions de taux d’inflation à celles du marché et gagnerait en crédibilité. Cela permettrait à l’inflation de se rapprocher de la cible de 2 % et donnerait plus de marge pour que l’emploi et la production s’accroissent davantage.

David Beckworth affirme que soit la Fed est l’institution la plus malchanceuse du monde, soit la Fed a un problème. Il croit que la Fed a commencé à avoir un problème avec l’inflation à 2 % à peu près lorsqu’a éclaté la Grande Récession. Le résumé des prévisions économiques du comité fédéral montre une tendance centrale des membres du comité depuis 2008 à indique qu’il voit l’inflation optimale non pas à 2 %, mais quelque part entre 1 et 2 %. La performance effective de l’indicateur d’inflation préféré de la Fed, le déflateur des dépenses de consommation personnelle, est cohérente avec cette idée. Celui-ci s’est élevé en moyenne à environ 1,5 % de % depuis la reprise, c’est-à-dire depuis le milieu de l’année 2009. Beckworth affirme que c’est révélateur des préférences et ne découle pas d’une série d’incidents provoquée par la malchance. La Fed ne cible explicitement une inflation de 2 % que depuis 2012, mais plusieurs études ont montré qu’elle a implicitement fait cela depuis les années quatre-vingt-dix. Donc cela a réellement été un problème pour la Fed pendant plus de huit ans et les remarques de Janet Yellen en deviennent décevantes à entendre. On penserait qu’après quasiment une décennie au cours de laquelle l’inflation a été inférieure à sa cible de 2 % il pourrait y avoir une prise de conscience de la part du comité fédéral qu’il "traite les 2 % comme un plafond plutôt que comme une cible" (comme l’a affirmé Neel Kashkari, le président de la Réserve fédérale de Minneapolis).

Cardiff Garcia (…) se montre également critique quant à la décision de la Fed. Il affirme que depuis le tout début de la reprise, la Fed a eu une vision trop pessimiste du potentiel dont dispose l’économie pour réduire le chômage avant de buter sur des obstacles structurels. La Fed s’est aussi montrée bien pessimiste quant au potentiel du marché du travail à se cicatriser lors des premières années de la reprise. Le taux de long terme attendu n’a commencé à chuter de nouveau qu’à partir du milieu de l’année 2013, comme le taux de chômage continua de poursuivre sa baisse tendancielle. Dans la mesure où le taux de chômage est parvenu à atteindre 4,3 % sans que l’inflation s’accélère, la Fed semble avoir eu une vision excessivement pessimiste de la capacité de l’économie à rebondir. La question est alors : A-t-elle eu raison de ne pas s’attendre à ce que le taux chute autant qu’il le fit ? Avec le recul, il est impossible de dire oui. En réponse à une question qu’on lui avait posée, Janet Yellen suggéra qu’il est toujours difficile d’estimer le taux de chômage de long terme. Garcia affirme qu’elle a raison, mais tirer des leçons du passé signifie reconnaître les erreurs passées. Si la Fed avait saisi plus tôt la nature de l’économie, peut-être qu’elle aurait compris qu’elle pouvait être plus agressive (…). On pourrait penser que l’échec continu de la Fed à (…) maintenir de façon soutenable l’inflation à proximité de la cible et (…) une croissance plus saine des salaires trouve son origine dans cette erreur passée. Etant donné que l’estimation de long terme du taux de chômage reste au-dessus du taux actuel malgré la faiblesse de l’inflation et de la croissance des salaires, on pourrait aussi penser que la Fed continue de commettre cette erreur. »

Silvia Merler, « The Fed’s problem with inflation », in Bruegel (blog), 19 juin 2017. Traduit par Martin Anota



« Un plein emploi en trompe-l’œil aux Etats-Unis »

« La courbe de Phillips est-elle bien morte ? (édition américaine) »

vendredi 9 juin 2017

Le débat autour du NAIRU

« Le concept du taux de chômage n’accélérant pas l’inflation (NAIRU) a récemment échauffé les esprits dans la blogosphère économique. Nous passons en revue les plus importantes contributions sur son utilité, ses défauts, ses alternatives et nous examinons pourquoi ce concept est aussi contesté...

Matthew C. Klein s'est demandé pourquoi une variable purement réelle (le chômage) devrait avoir un quelconque rapport avec une variable purement nominale (l'inflation). En 1926, Irving Fisher avait mis en évidence une relation entre le niveau du chômage et le taux d’inflation des prix à la consommation aux Etats-Unis. En 1958, A. W. Phillips étudia les données britanniques entre 1861 et 1957 et il mit en évidence une relation entre le taux de chômage et la croissance des salaires nominaux, bien que la relation semblait avoir été un artefact de l’étalon-or, dans la mesure où elle semblait avoir disparu dans la période d’après-guerre.

Certains ont interprété (erronément) les données de Phillips comme signifiant qu’il y avait un arbitrage simple entre le taux d’inflation et le taux de chômage : les responsables de la politique économique n'auraient qu’à choisir n’importe quelle combinaison qu’ils désiraient, n’importe quel point sur la courbe de Phillips. Cela n’a pas très bien marché, mais la réaction à cette idée donna le jour à une idée tout aussi controversée : le taux de chômage qui n’accélère pas l’inflation (non-accelerating inflation rate of unemployment, NAIRU). Cette idée suggère que la variation du taux d’inflation doit être liée à l'écart entre le taux de chômage effectif et un certain niveau théorique.

Si le chômage est supérieur à ce niveau "neutre", l’inflation devrait ralentir, voire même finir par laisser place à de la déflation. Si le taux de chômage est inférieur au taux neutre, les prix à la consommation augmenteraient à un rythme croissant. Cependant, selon le monde farfelu du NAIRU, l’hyperinflation peut coexister avec un chômage de masse. Klein conclut que le NAIRU n’est tout simplement pas un concept utile, mais un concept contre-productif qui encourage les responsables de la politique économique à se focaliser sur le taux de chômage comme un moyen en vue d'atteindre une autre fin (la stabilité des prix), même s’il y a aucune connexion entre les deux variables. Bref, plus tôt le NAIRU sera enterré et oublié, mieux ce sera.

Simon Wren-Lewis n’est pas d’accord. Il note que le NAIRU est un concept économique essentiel à la compréhension de l’économie, mais qui est extrêmement difficile de mesurer. Il cite les raisons pour lesquelles sa mesure est difficile : premièrement, le chômage n’est pas parfaitement mesuré (il y a notamment des personnes qui finissent par abandonner leur recherche d'emploi par découragement, mais qui la reprennent lorsque l’économie renoue avec une forte croissance) et il peut ne pas capturer ce qu’il est censé représenter, c’est-à-dire l’excès d’offre ou de demande sur le marché du travail. Deuxièmement, il se focalise sur le marché du travail, alors que l’inflation peut aussi avoir à faire avec un excès de demande sur le marché des biens. Troisièmement, même si aucun de ces deux problèmes ne se posait, la façon par laquelle le chômage interagit avec l’inflation est loin d’être claire.

Simon Wren-Lewis poursuit, en demandant pourquoi nous n'essayons pas de pousser le chômage sous 4 % si nous pensons réellement qu’il n’y a pas de relation entre le chômage et l’inflation. Il souligne que nous ne devons pas être obsédés par les années soixante-dix, mais que nous ne devons pas pour autant les oublier. Les responsables de la politique économique avaient alors négligé le NAIRU, si bien que nous nous sommes retrouvés avec une inflation inconfortablement élevée. Au cours des années quatre-vingt, la politique monétaire changea d'orientation au Royaume-Uni et aux États-Unis : le chômage s’accrut et l’inflation chuta.

Il y a une relation entre l’inflation et le chômage, mais il est juste très difficile de l'identifier précisément. Pour la plupart des macroéconomistes, le concept du NAIRU relève vraiment d'une vérité macroéconomique fondamentale. Il continue en notant qu’une critique plus subtile du NAIRU consisterait à reconnaître cette vérité, mais reconnaître que nous devons cesser d’utiliser le chômage comme un guide pour décider de l’orientation de la politique monétaire, parce que la relation est difficile à mesurer. Focalisons-nous juste sur l’objectif (l’inflation) et modifions les taux en fonction de ce qui se passe du côté de l’inflation.

Jo Michell entre dans le débat en notant qu'il y a une question plus fondamentale autour de la signification réelle du NAIRU. Qu'est-ce qu'un NAIRU ? Selon une définition simple, c'est le taux de chômage pour lequel l'inflation est stable. A première vue, cela apparaît proche du "taux de chômage naturel", un concept qui trouve son origine dans le monétarisme de Friedman et qui se retrouve dans certains modèles des nouveaux keynésiens, en particulier le modèle DSGE à prix visqueux "standard" que Woodford et d'autres ont développé. Selon cette idée, il existe "taux naturels" de production et d'emploi au-delà desquels toute tentative d'accroissement de la demande de la part des responsables de la politique économique devient futile et ne peut que se traduire par une accélération croissante de l'inflation.

Puisqu'il y a une correspondance directe entre la stabilisation de l'inflation et la fixation de la production et de l'emploi à leurs taux "naturels", les responsables politiques n'auraient qu'à simplement ajuster leurs taux d'intérêt pour atteindre une cible d'inflation. Les économistes ont parlé à ce propos de "divine coïncidence" (…). Des formulations plus sophistiquées du NAIRU par les nouveaux keynésiens se sont quelque peu écartées de la théorie du "taux naturel" ; ces modèles incorporent (du moins à court terme) du chômage involontaire et considèrent davantage l'inflation comme résultant de revendications concurrentes sur la production plutôt que résultant d’un "excès de demande nominale en chasse de trop peu de biens" comme le suggèrent les monétaristes et les modèles DSGE simples.

(…) On trouve une telle relation dans plusieurs modèles hétérodoxes. Les récents modèles postkeynésiens incluent aussi des relations de type NAIRU. Par exemple, le manuel de Godley et Lavoie inclut un modèle dans lequel les travailleurs se font concurrence en tentant d'imposer des hausses de salaires nominaux, tandis que les entreprises se font concurrence en tenant d'imposer des hausses de prix nominaux. L'ampleur des hausses salariales demandées par les travailleurs est une fonction du taux d'emploi relativement à un certain niveau de "plein emploi". Cela ressemble beaucoup au NAIRU, mais cela n'est pas ce pensent Godley et Lavoie :

Cela met en lumière une différence clé entre les approches postkeynésienne et néoclassique du NAIRU : dans les modèles postkeynésiens qui incluent des relations de type NAIRU, le niveau d'emploi pertinent est endogène, en raison d'effets d'hystérèse par exemple. En d'autres termes, le NAIRU varie et il est influencé par les politiques conjoncturelles de gestion de la demande. Ainsi, le NAIRU n’apparaît pas dans ces modèles comme un attracteur pour le taux de chômage, contrairement à plusieurs modèles néoclassiques.

Simon Wren-Lewis est d'accord avec la remarque sur les effets d’hystérèse. Cependant, il considère que ces derniers font davantage ajouter une complication à l'analyse du NAIRU, plutôt qu’ils ne la remettent vraiment en cause. Ce que fait l'hystérèse, c’est rendre extrêmement coûteuses les périodes au cours desquelles le chômage est supérieur au NAIRU. Cela signifie aussi qu'il est justifié de laisser le taux de chômage aller en-deçà du NAIRU si cela réduit ce dernier.

L'une des réactions les plus brutales à l’encontre de l’article de Simon Wren-Lewis sur le NAIRU est venue de la part de Brian Romanchuk, qui affirme que le NAIRU doit être abandonné. Simon Wren-Lewis réagit en affirmant qu'accepter le concept du NAIRU ne signifie pas que vous avez à être d'accord avec les estimations qu’en proposent les banques centrales. Mais si vous voulez affirmer qu’elles peuvent faire quelque chose de mieux, vous devez utiliser le langage de la macroéconomie. Vous pouvez dire (...) soit que le NAIRU est un peu plus faible que les estimations des banques centrales, soit qu'il est actuellement si incertain que ces estimations ne doivent pas influencer la politique économique. Mais l'abandonner ne nous mènerait nulle part.

Jo Michell se demande pourquoi le NAIRU est un concept si contesté et il cite Engelbert Stockhammer, qui fait la distinction entre la théorie néo-keynésienne du NAIRU et l'histoire néo-keynésienne du NAIRU. Stockhammer affirmait (en 2007, juste avant la crise financière mondiale) que le NAIRU a été utilisé comme base pour une vision du chômage qui fait porter le blâme sur le manque de flexibilité des marchés du travail, sur la générosité des Etats-providence, sur les mesures de protection de l'emploi et sur le syndicalisme. Les prescriptions en termes de politique économique sont alors simples : les marchés du travail doivent être déréglementés, les Etats-providence être remis en cause et la gestion de la demande ne doit pas être utilisée pour réduire le chômage. Jo Michell soupçonne que l'histoire du NAIRU est l'une des raisons expliquant pourquoi la défense de la théorie du NAIRU suscite autant de réactions négatives. »

Pia Hüttl, « Dial N for NAIRU, or not? », in Bruegel (blog), 22 mai 2017. Traduit par Martin Anota



aller plus loin… lire « Le taux de chômage naturel, un concept suranné »

lundi 5 juin 2017

Comment l’immigration affecte-t-elle les salaires des natifs ? Zoom sur l’exode de Mariel

« Comment l’immigration affecte-t-elle les salaires des travailleurs locaux ? Une façon de répondre à cette question consiste à exploiter une expérience naturelle. L’exode de Mariel de 1980 constitue une expérience idéale (puisqu’il s’est traduit par une hausse soudaine et ample du nombre de travailleurs peu qualifiés dans une unique ville), mais ses conséquences sont toujours violemment débattues.

En 1980, 125.000 immigrés (essentiellement peu qualifiés) sont arrivés à Miami en passant par la baie de Mariel, à Cuba, en l’espace de quelques mois. En 1990, David Card a étudié les effets de l’exode de Mariel sur le marché du travail de Miami. Les exilés de Mariel accrurent la population active de Miami de 7 % et l’offre de travail des professions et secteurs peu qualifiés encore bien plus amplement, dans la mesure où la plupart des immigrés étaient dépourvus de qualifications. Néanmoins, Card conclut au terme de son analyse que l’arrivée des exilés de Mariel n’a finalement eu d’effet ni sur les salaires, ni sur le taux de chômage des travailleurs peu qualifiés, même parmi les Cubains qui étaient issus de précédentes vagues d’immigration. Card a suggéré que la capacité du marché du travail de Miami à absorber rapidement les immigrés de Mariel s’expliquait par son ajustement aux précédentes vagues d’immigrés.

GRAPHIQUE Nombre d’immigrés cubains à Miami

George_Borjas__Nombre_d_immigres_cubains_a_Cuba_exode_de_Mariel.png

source : Borjas (2015)

Ethan Lewis a étudié deux explications possibles des résultats de Card : (1), si après l’exode Miami a accru sa production de biens manufacturés intensifs en travail non qualifié, lui permettant d’"exporter" l’impact de l’exode ; et (2) si la ville de Miami s’est adaptée à l’exode en adoptant de nouvelles technologies complémentaires avec le travail qualifié plus lentement qu’elle ne l’aurait sinon fait. Les résultats de Lewis suggérèrent que les salaires n’ont pas été sensibles aux chocs d’immigration locaux parce que la technologie de production s’adapte aux offres locales de facteurs. Bodvarsson et ses coauteurs affirment qu’une raison pour laquelle l’immigration n’a pas eu d’effet négatif manifeste sur les salaires des natifs est que les immigrants, en tant que consommateurs, contribuent à la demande de services produits par les natifs. Ils ont modélisé une économie où les travailleurs dépensent leurs salaires sur un bien produit localement, puis ont testé cela en réexaminant l’exode de Mariel. Ils ont alors trouvé des preuves empiriques robustes suggérant que l’exode a augmenté la demande de travail.

En 2015, George Borjas a publié la première version d’un article qui renverse complètement les résultats de la littérature existante sur le choc d’offre de Mariel. Borjas y affirme que toute tentative crédible visant à mesurer l’impact salarial doit prendre en compte les qualifications des immigrés avec celles des travailleurs déjà en place. Au moins 60 % des Marielitos étaient des élèves qui avaient décroché au lycée et n’avaient ainsi pas obtenu de diplôme du secondaire, or l’analyse des salaires dans ce groupe faiblement qualifié suggère que l’exode de Mariel a affecté la structure des salaires de Miami. Le salaire des décrocheurs du secondaire à Miami a fortement chuté, de 10 à 30 % (…).

En 2015, Peri et Yasenov ont réexaminé les effets de l’exode de Mariel sur le salaire et l’emploi en utilisant une méthode de contrôle synthétique pour choisir un groupe de contrôle pour Miami de façon à mieux coller aux caractéristiques de marché du travail au cours des huit années qui précédèrent l’exode. En analysant les salaires et les taux de chômage, ils n’ont constaté aucun écart significatif entre Miami et son groupe de contrôle de 1980 à 1983.

Peri et Yasenov ont aussi répliqué les résultats de Borjas et ils ont alors constaté qu’une large déviation négative des salaires des décrocheurs du secondaire à Miami n’apparaît que lorsqu’on utilise les données de l’enquête courante sur la population de mars. En outre, la déviation est significative seulement dans un sous-échantillon obtenu en éliminant les femmes hispaniques non cubaines et en sélectionnant une gramme étroite d’âge (ceux âgés de 25 à 59 ans) parmi les décrocheurs du secondaire. Ces choix très drastiques font que l’échantillon de Miami est tellement étroit qu’il ne comprend que 15-20 observations par année et que l’erreur de mesure dans les salaires moyens de Miami peuvent être de 20 à 30 % pour un tel échantillon. Ils affirment que ces restrictions sont problématiques parce qu’elles éliminent les groupes de travailleurs sur lequel l’effet de l’exode de Mariel devrait être particulièrement fort. Ils montrent qu’en ajustant l’échantillon de Borjas pour inclure ces sous-groupes de décrocheurs du secondaire ou en observant des résultats alternatifs, les différences entre Miami et le groupe de contrôle après 1979 varient énormément (…) si on utilise les données de mars de l’enquête courante sur la population.

Borjas a répondu avec un second article où il cherche à isoler la source des résultats contradictoires. Il y affirme que les principales raisons expliquant la divergence entre les résultats sont que Peri et Yasenov (…) ignorent l’effet contaminant d’un accroissement du taux d’activité des femmes. Ils incluent aussi des hispaniques non cubains dans l’analyse, mais ils ignorent qu’au moins un tiers de ces Hispaniques sont nés à l’étranger et ont immigré dans les années quatre-vingt. Enfin, ils incluent des travailleurs âgés de 16 à 18 ans dans l’échantillon. Parce que presque tous ces "travailleurs" sont toujours au lycée et n’ont pas encore obtenu un diplôme du secondaire, cette très large population d’élèves du secondaire est systématiquement mal classifiée comme constituant des décrocheurs du secondaire. Borjas affirme que c’est une erreur fondamentale dans la construction des données, qui contamine l’analyse et contribue à dissimuler le véritable effet du choc d’offre de Mariel.

Plus récemment, Clemens et Hunt ont affirmé que la divergence des résultats auxquels aboutissent les analyses respectives de Card, de Borjas et de Peri et Yasenov de l’exode de Mariel peut s’expliquer par un soudain changement dans la composition raciale des données qu’ils ont utilisées, c’est-à-dire l’enquête courante sur la population (Current Population Survey). Cette enquête est réalisée chaque mois et les deux ensembles de données tirés de celle-ci incluent aussi les salaires des travailleurs. Clemens et Hunt soulignent que les méthodes de l’enquête ont été améliorées en 1980 afin de couvrir davantage d’hommes afro-américains faiblement qualifiés, dans la mesure où ces derniers étaient jusqu’alors sous-représentés. A partir de 1981, l’échantillon d’hommes afro-américains faiblement qualifiés couvert par l’enquête s’est modifié, en incluant relativement plus d’hommes afro-américains n’ayant pas obtenu un diplôme du secondaire et relativement moins d’hommes afro-américains qui réussirent à obtenir un diplôme du secondaire.

Donc, en 1980, un événement a coïncidé avec l’exode de Mariel : la fraction d’afro-américains doubla soudainement dans le sous-groupe de travailleurs de Miami n’ayant au maximum qu’un diplôme du secondaire qu’analyse Borjas (2017). Aucune hausse similaire n’est survenue dans le sous-groupe de natifs ayant au maximum un diplôme du secondaire analysé par Card (1990) dans le même ensemble de données, ni dans les villes de contrôle utilisées par Card ou Borjas. Clemens et Hunt affirment qu’en raison de la large divergence de salaires entre les travailleurs afro-américains et les autres travailleurs n’ayant pas obtenu de diplôme du secondaire, cette forte hausse (…) peut entièrement expliquer la magnitude des effets mesurés par Borjas (2017) relativement au résultat nul de Card (1990). La chute de salaire identifiée par Borjas serait par conséquent entièrement fallacieuse. (…) »

Silvia Merler, « The Mariel boatlift controversy », in Bruegel (blog), 5 juin 2017. Traduit par Martin Anota



aller plus loin... lire « L’immigration nuit-elle à l’emploi ? »