Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - traduction

Fil des billets

mardi 26 janvier 2021

Relire la Route de la servitude

« Friedrich Hayek, l’un des géants du vingtième siècle en économie, a réalisé d’importants travaux sur de nombreux sujets, allant des cycles d’affaires à la psychologie, qui furent récompensés par l’attribution du prix Nobel d’économie en 1974.

Cependant, Hayek est principalement connu pour son livre La Route de la servitude. Depuis sa publication en 1944, celui-ci a été cité par de nombreux dirigeants et politiciens comme démonstration que les pays qui expérimentent le socialisme finissent inévitablement par devenir des Etats totalitaires.

Mais l’économiste de l’université Duke Bruce Caldwell estime que le message de Hayek dans ce célèbre livre a souvent été mal interprété par ses contemporains et les générations suivantes. Il a remis les pendules à l’heure dans le numéro du mois de septembre du Journal of Economic Literature en se penchant sur la pensée de Hayek et sur le climat intellectuel dans lequel celui-ci a écrit. Par là même, les travaux de Caldwell montrent l’importance qu'il y a de creuser dans les origines des débats économiques.

Caldwell a récemment parlé avec Tyler Smith, de l’American Economic Association, à propos du contexte intellectuel dans lequel La Route de la servitude a été écrite, des problèmes qui se posent lorsque l’on cherche à écrire pour un plus large public et de l’histoire des idées économiques. (…)

Tyler Smith : Contre qui Hayek s’attaquait-il ? Pouvez-vous (…) expliquer l’environnement intellectuel dans lequel Hayek a écrit La Route de la servitude ?

Bruce Caldwell : Hayek a quitté Vienne pour Londres en 1931, a donné certaines conférences, finit par avoir une place à la London School of Economics, s’est engagé dans des débats avec Keynes au début des années trente et avec les socialistes… Il semblait alors que le capitalisme s'était tout simplement écroulé et qu’il ne constituait plus une approche viable pour un système économique. Le libéralisme semblait mort.

Les alternatives qui étaient en Europe (la montée du fascisme, la révolution communiste dans l’Union soviétique) ne semblaient pas être des alternatives particulièrement attrayantes au libéralisme. Donc, pour la plupart des intellectuels du socialisme, la planification socialisation était perçue comme un juste milieu, une façon de progresser. Et, en fait, la popularité de cette idée était assez générale, ce n’était pas un débat universitaire. Il y avait des gens qui disaient que l’Union soviétique fournissait un modèle. Ils sentaient que le système communiste soutenait la science et que la science nous donnait les moyens pour éliminer les pénuries.

Smith : Quel était le message de Hayek aux gens tentés par les idées socialistes ?

Caldwell : Ce qu’il cherche avant tout à démontrer, c’est que lorsque vous concentrez le pouvoir entre les mains de quelques personnes dans un régime socialiste (…), le gouvernement est le patron de tout le monde en ce qui concerne la production de biens et il prend des décisions relatives à l'allocation des emplois que les gens vont avoir et des décisions à propos de quelles sortes de biens seront produites. Et dans cette configuration, dit-il, les gens ne seront pas heureux. Ils ne vont pas apprécier les décisions qui seront prises. Ils voudront y résister. Les gens qui sont responsables de ces prises de décisions, s’ils étaient censés, se rendraient compte que toute décision qu’ils prennent pour aider quelqu’un détériore la situation de quelqu’un d’autre. Tout cela est traité de façon impersonnelle via un système de marché, mais de façon personnalisée quand vous avez une configuration socialiste. Et il dit que cela crée une situation dans laquelle de mauvaises personnes, si elles parvenaient au pouvoir, feraient tout ce qui leur serait possible pour rester au pouvoir. Donc c’est un avertissement. C’est un avertissement destiné à ses camarades socialistes.

Smith : Après la publication de la Route de la servitude, qui étaient les gens qui défendirent ses idées ? Et dans quelle mesure Hayek a-t-il réussi à diffuser ces idées ? (...)

Caldwell : Aux Etats-Unis, les gens s’inquiétaient à propos du New Deal et du genre de configuration qui serait en place après la Seconde Guerre mondiale. Du côté conservateur, ils disaient : "regardez ! Il y a un livre appelé La Route de la servitude. Vous savez, si nous avons davantage d’intervention du gouvernement dans l’économie, cela va nécessairement nous emmener sur la route vers la servitude!"… Les gens qui proposaient plus d’intervention dans l’économie (ce fut particulièrement le cas lors des décennies suivantes) répondaient "regardez ! Nous avons un large Etat-providence, mais nous n’avons aucun goulag !"

Toutes ces interprétations lisent Hayek comme faisant une sorte de prédiction à propos de ce qui surviendrait si vous aviez un peu de planification par le gouvernement. Ce n’était pas du tout sa démonstration… Il cherchait à signaler ce qui surviendrait si vous concentriez le pouvoir de la façon telle que l’a décrite Hayek dans le livre et quels potentiels dangers se présenteraient dans une situation comme celle-ci.

Smith : Pourquoi pensez-vous qu’il est important que les économistes explorent les origines des réflexions dans leur discipline ?

Caldwell : La formation professionnelle est une forme de lavage de cerveau. Si vous devenez un très bon économiste, quand vous regarder un phénomène social, vous allez le voir au travers les yeux d’un économiques. Et c’est ce que toute votre formation vous pousse à faire. Que dit l’étude de l’histoire de la pensée économique ? Tout d’abord, d’où vient cette vision particulière ? Mais ensuite, n’y avait-il pas d’autres façons d’aborder ces choses ? Que s’est-il passé pour les gens qui disaient, par exemple, qu’il y avait une autre façon de réfléchir à la justice sur le marché ? Donc elle vous permet d’essayer de voir des vues alternatives. Et elle amène aussi à prendre conscience aussi, je pense, que le présent n’est pas (…) l’apogée de tout savoir. (…)

L’une des raisons pour lesquelles je suis fasciné par l’histoire de la science économique est que lorsque vous lisez vraiment les choses qu’écrivaient les gens, vous vous rendez compte que la véritable histoire est bien plus intéressante, nuancée, plaisante et éclairante. (…) »

American Economic Association, « Rereading the The Road to Serfdom », entretien avec Bruce Caldwell, Research Highlights, 10 janvier 2021. Traduit par Martin Anota

mercredi 20 janvier 2021

Des arguments zombies contre la relance budgétaire

« (…) Je voulais juste dire un petit mot à propos d’un article qui vient d’être publié dans le Financial Times et qui me déconcerte à plusieurs niveaux. Ruchir Sharma rejette le plan de relance de Joe Biden au motif qu’il risquerait d’"exacerber les inégalités et d’affaiblir la croissance de la productivité". L’essentiel de sa démonstration se trouve dans le paragraphe suivant :

"Monsieur Biden a bien saisi cette vision des choses lorsqu’il dit, en annonçant son programme de dépenses, qu’avec des taux d’intérêt à des niveaux historiquement faibles, nous ne pouvons nous permettre l’inaction. Cette vision des choses néglige les effets corrosifs que des déficits et des dettes toujours plus élevés ont déjà eus sur l’économie mondiale. Ces effets, contrairement à une forte inflation ou à effondrement du dollar, ne sont pas les signaux spéculatifs d’une crise future. Il y a de plus en plus de preuves empiriques, provenant de la Banque des règlements internationaux, de l’OCDE et de Wall Street suggérant que quatre décennies d’interventions croissantes des gouvernements dans l’économie se sont traduites par un ralentissement de la croissance de la productivité, c’est-à-dire au rétrécissement du gâteau global, et au creusement des inégalités de patrimoine."

Si on lit les deux articles cités par Sharma, ils disent, en résumé, (a) que les politiques monétaires expansionnistes ont accru les inégalités via une hausse des prix d’actifs (alors que pour les faibles taux d’intérêt et les cours obligataires, il n’y a pas de lien clair) ; (b) que l’accroissement de la part des entreprises zombies freine la performance des entreprises les plus productives, ce qui freine la croissance de la productivité globale.

Jusqu’à présent, tout va bien. Donc, où est le problème ? C’est tiré par les cheveux de relier ces résultats à un niveau excessive de dette et de déficit, à la "relance constante" (et encore, je reste poli). C’est un cas manifeste d’économie zombie.

Commençons avec la politique monétaire et son impact sur les inégalités (petite note : l’effet n’est pas si évident). On peut voir les politiques monétaires expansionnistes comme la conséquence de la domination budgétaire, d’un niveau excessif du déficit et de la dette qui force les banques centrales à financer le gouvernement. Mais, elles peuvent aussi être perçues comme la conséquence d’une stagnation de la demande globale due à des politiques budgétaires excessivement restrictives, ce qui force les banques centrales à intervenir. Beaucoup ont affirmé au cours de la dernière décennie que l’une des causes de l'activisme de la banque centrale, en particulier au sein de la zone euro, a été l’inertie des politiques budgétaires. Vous n’êtes pas tenu de me croire. Mais lisez le discours d’adieu de l’ancien président de la BCE, Mario Draghi, en octobre 2019 :

"Aujourd’hui, nous sommes dans une situation où les faibles taux d’intérêt ne délivrent pas le même degré de relance que par le passé, parce que le taux de rendement sur l’investissement dans l’économie a chuté. La politique monétaire peut toujours atteindre son objectif, mais elle pourrait le faire plus rapidement et avec moins d’effets collatéraux si les politiques budgétaires étaient alignées avec elle. C’est pourquoi, depuis 2014, la BCE a de plus en plus souligné l’importance de la combinaison des politiques macroéconomiques dans la zone euro."

Une politique budgétaire plus active dans la zone euro aurait permis d’ajuster nos politiques plus rapidement et de retrouver plus vite des taux d’intérêt plus élevés. (…) De façon à revenir à la politique monétaire standard, la politique budgétaire doit faire sa part des choses. Notez que Draghi pointe une autre source de problèmes : la causalité ne va pas des politiques expansionnistes aux faibles taux d’intérêt, mais dans l’autre sens. Nous avons connu une longue période de stagnation séculaire, d’excès d’épargne, de faibles taux d’intérêt et d’insuffisance chronique de la demande globale que la politique monétaire accommodante peut contenir en maintenant ses taux au plus proche du taux "naturel", mais pas régler. A nouveau, la politique budgétaire doit faire son boulot.

En ce qui concerne les entreprises zombies, il n’est pas clair (…) pourquoi cela démontrerait que la relance n’est pas conseillée. L’article décrit une tendance séculaire dont les racines seraient l’investissement insuffisant des entreprises et une chute du taux de croissance potentiel (qui serait liée selon les auteurs à une chute de la productivité multi-factorielle). Le débat sur le rôle de la politique budgétaire sur ces problèmes est aussi vieux que la macroéconomie. Toutefois, au cours des vingt dernières années, le curseur est allé à l’encontre des idées de Sharma et de plus en plus d’études soulignent la présence d’effets d’entraînement : en particulier quand le stock de capital public est trop faible (ce qui est précisément le cas dans la plupart des pays développés) une hausse de l’investissement public (une "relance constante") a un impact positif sur l’investissement privé et la croissance potentielle (…). Le manque d’investissement public est aussi largement perçu comme l’un des facteurs maintenant nos économies piégées dans la stagnation séculaire.

Il y a quinze ans, on aurait pu lire l’attaque de Sharma contre la politique budgétaire dans plusieurs revues (plus ou moins prestigieuses). Mais même alors, il aurait été facile de démontrer qu’elle s’avère inexacte et qu’elle dépend fondamentalement d’un a priori idéologique. Aujourd’hui, elle semble tout simplement avoir été écrite par une personne vivant dans une autre galaxie. »

Francesco Saraceno, « Zombie arguments against fiscal stimulus », in Sparse Thoughts of a Gloomy European Economist (blog), 20 janvier 2021. Traduit par Martin Anota



aller plus loin...

« Politiques conjoncturelles : une décennie de divergences »

« La stagnation séculaire n'est-elle qu'un mythe ? »

« Les taux neutres, la stagnation séculaire et le rôle de la politique budgétaire »

« C’est le moment de relancer les infrastructures »

« Quel est l’impact de la politique monétaire sur les inégalités ? »

mardi 19 janvier 2021

Les épidémies érodent la confiance envers les scientifiques



« L’épidémie de Covid-19 rappelle brutalement l’importance de la science médicale. Les vaccins efficaces contre le coronavirus sont développés, approuvés et distribués en un temps record. Les cocktails d’anticorps monoclonaux ont été administrés avec succès à des patients infectés et, notamment parmi eux, le président Donald Trump. Nous pouvons espérer, avec le soutien de la science, que nous parviendrons à laisser la pandémie de Covid-19 derrière nous.

Pourtant, ces avancées se sont produites dans un contexte où beaucoup ont exprimé des doutes quant aux experts et à leurs conseils. Aux Etats-Unis par exemple, The Pew Charitable Trusts fait état d’une baisse séculaire de la part des adultes déclarant avoir une grande confiance envers les individus dirigeant les institutions médicales du pays. Ce part, qui approchait les 60 % du public au début des années soixante-dix, s’élève désormais à environ 40 %. C’est peut-être en partie pour cela que les conseils des experts sur la distanciation physique et le port du masque, basés sur les études scientifiques portant sur la diffusion du virus via gouttelettes et aérosols, ne sont pas pleinement acceptés. Cela nous amène à nous demander s’il y aura une acceptation générale des vaccins contre la Covid-19, vaccins que recommandent les experts.

Mais l’inverse, en l’occurrence la question quant à savoir dans quelle mesure l’expérience même de l’épidémie affectera les attitudes envers la science et les scientifiques, est également importante. Pour éclairer cette question, nous avons examiné l’impact des précédentes épidémies sur la confiance envers la science et les scientifiques. En l’occurrence, nous avons examiné les réponses d’environ 70.000 répondants à l’enquête Wellcome Trust menée dans 160 pays, en liant ces réponses aux données relatives à 47 épidémies et pandémies qui ont affecté 137 pays depuis 1970.

Nous mettons en évidence un impact négatif et significatif de l’exposition à l’épidémie sur la confiance envers les scientifiques. Non seulement cet effet est large, mais il dure aussi pendant plusieurs décennies (…). Il est limité aux personnes qui ont connu l’épidémie dans leurs "années impressionnables" (c’est-à-dire lorsqu’elles avaient entre 18 et 25 ans). Les études réalisées par les psychologues et les scientifiques cognitifs suggèrent que cette étape du cycle de vie (quand les individus "quittent le nid", mais que leur vision du monde n’a pas encire été durablement et irrémédiablement formée) correspond à l’instant où les attitudes sont les plus facilement influencées par l’expérience immédiate. Notre étude suggère que c’est en l’occurrence les membres de ce que l’on appelle la génération Z qui verront leurs attitudes envers les scientifiques et leurs conseils être le plus négativement affectées par l’épidémie de Covid-19.

Curieusement, cette dégradation de la confiance perçue ne touche pas d’autres professionnels de la médecine, comme les docteurs, les infirmiers et les guérisseurs traditionnels. Elle ne se manifeste pas non plus dans les réponses touchant à la confiance envers la science en tant qu’activité. C’est un problème touchant à la confiance perçue envers les scientifiques en tant qu’individus.

La défiance envers les experts scientifiques est un problème. Nos travaux suggèrent que le problème sera encore plus aigu après l’épidémie de Covid-19. Il ne sera pas simple d’y répondre. Au minimum, nos travaux suggèrent que les scientifiques travaillant sur les questions de santé publique et tous ceux travaillant sur la communication scientifique devraient davantage réfléchir à la façon de communiquer avec honnêteté et, en particulier, à la façon par laquelle la génération qui connaît actuellement ses années impressionnables (la génération Z) perçoit cette communication. »

Cevat Giray Aksoy, Barry Eichengreen et Orkun Saka, « Exposure to epidemics and trust in scientists », IZA, 18 janvier 2021. Traduit par Martin Anota



aller plus loin... lire « L’épidémie alimentera la défiance politique de toute une génération »

lundi 4 janvier 2021

Quelques erreurs dans le manuel de macroéconomie le plus vendu au monde



« (...)

"Quand le gouvernement cherche à couper le gâteau économique dans des parts plus égales, la taille du gâteau diminue"

Selon le premier principe d’une liste de dix, les étudiants apprennent qu’une distribution plus inégale du revenu entraîne une production plus élevée. Mankiw ajoute : "C’est une leçon concernant la répartition du revenu sur laquelle presque tout le monde s’accorde". Mais il n’y a guère de preuves empiriques allant dans ce sens. Les données de l’OCDE concernant les inégalités dans la distribution du revenu (mesurées par l’indice de Gini du revenu net des ménages) montrent de très fortes inégalités dans des pays très pauvres comme l’Afrique du Sud, le Chili, le Mexique, la Turquie ou la Bulgarie. A l’opposé, les pays scandinaves, très puissants économiquement (selon le PIB par tête) sont caractérisés par de très faibles inégalités de revenu. Outre la mauvaise description de la relation entre répartition du revenu et performances économiques, il est utile de noter que Mankiw décrit la redistribution des revenus comme un processus qui réduit les incitations à "travailler dur". Cela suggère que les gens avec des hauts revenus font plus d’efforts que ceux ayant de faibles revenus.

"Le gouvernement peut parfois améliorer les résultats du marché"

(…) Mankiw admet que le processus de marché n’est pas en soi capable de fournir assez de nourriture, de vêtements et de soins à l’ensemble des citoyens. Mais pour lui, cela ne justifie pas forcément une intervention de l’Etat. (…) On peut trouver une vision bien différente de l’Etat dans la description classique des fonctions de l’Etat que propose le spécialiste des finances publiques, Richard Musgrave (1959), une description qui reste selon moi tout à fait pertinente aujourd’hui. Il distingue entre fonction de distribution, fonction d’allocation et fonction de stabilisation. A l’inverse de Mankiw, qui parle seulement de la possibilité de l’intervention publique, Musgrave déclarait : "le secteur public, lorsqu’il accomplit ses différentes tâches, constitue une composante essentielle du bon fonctionnement d’une société". (...)

"La société fait face à un arbitrage à court terme entre inflation et chômage"

Mankiw présente la relation entre inflation et chômage comme l’un de ses dix principes. Selon lui, il y a toujours un arbitrage entre inflation et chômage à court terme. Même si Mankiw admet que certains économistes doutent toujours de cette relation, il prétend qu’elle est acceptée par la plupart des économistes.

Le problème est que plusieurs présentations de manuels de macroéconomie n’analysent pas systématiquement les chocs. (...) Il n’y a pas d’"arbitrage" entre inflation et chômage dans le cas d’un choc de demande. Dans le modèle offre agrégée-demande agrégée traditionnel, un choc de demande négatif entraîne un déplacement de la courbe de demande agrégée vers la gauche. Dans ce cas, le niveau des prix et la production diminuent. Si la banque centrale ou les autorités budgétaires réagissent à un tel choc, elles peuvent ramener la courbe de demande agrégée à sa position initiale en poursuivant des politiques expansionnistes. Donc, il n’y a pas d’ "arbitrage" entre la stabilisation du niveau des prix et la production. Dans le monde simple du modèle offre agrégée-demande-agrégée, on peut alors approximer l’inflation par la variation du niveau des prix et le chômage par l’écart de production.

Le conflit d’objectifs qu’évoque Mankiw existe seulement dans la situation faisant suite à un choc d’offre. Dans ce cas-là, la banque centrale (ou le ministère des Finances) doit en fait se demander s’il faut donner la priorité à la stabilisation de la production ou du niveau des prix.

"Un salaire minimum provoque du chômage"

(…) Certes, Mankiw souligne dans son manuel que les économistes sont en désaccord sur la question. Cependant, il ne s’appuie que sur les études sur l’effet du salaire minimum sur la situation des jeunes sur le marché du travail. Il prétend que les avocats du salaire minimum ont eux-mêmes concédé que le salaire minimum aurait des effets négatifs sur l’emploi, mais qu’ils "croient" que ces derniers sont faibles et que, globalement, un salaire minimum améliore la situation des plus modestes. La pléthore d’études qui conclut que le salaire minimum n’a pas d’impact négatif sur l’emploi est simplement ignorée par Mankiw.

Greg_Mankiw__equilibre_marche_du_travail_salaire_minimum_chomage_SMIC.png

Analytiquement, les diagrammes ci-dessus donnent l’impression que le salaire minimum a un impact négatif sur l’emploi. Le diagramme suppose qu’il y a une parfaite concurrence du côté de l’offre et du côté de la demande et que l’effet de substitution l’emporte sur l’effet de revenu lorsque le salaire change. Nous avons alors une courbe d’offre de travail croissante.

Pour un cours introductif, il n’est certes pas facile d’expliquer le fonctionnement du marché du travail pour un monopsone ou pour une situation dans laquelle l’effet de revenu prédomine. Au lieu de se contenter de présenter la seule représentation standard comme le fait Mankiw, représentation qui reste ensuite ancrée dans la tête des étudiants, il faut cependant donner au moins une autre représentation. (...)

Il n’est en outre pas facile de représenter le marché du travail avec une courbe d’offre de travail qui présente une partie décroissante, c’est-à-dire par une courbe en forme de S (Dessing, 2002).

"La déflation permet à l’économie de sortir de récession"

L’une des affirmations les plus surprenantes du manuel de macroéconomie est celle selon laquelle la déflation (Mankiw parle de baisse du niveau des prix) permet à l’économie de sortir de récession. Ce résultat peut être dérivé du cadre du modèle d’offre agrégée-demande agrégée. Il ne faut toutefois pas oublier que ce modèle est dérivé du modèle IS-LM. Dans ce dernier, il est supposé que la banque centrale maintient constante l’offre de monnaie nominale. Si le niveau des prix chute, l’offre de monnaie réelle (M/P) augmente. (…) Cela pousse à la baisse le taux d’intérêt nominal.

Conséquence d'une chute de la demande agrégée

Greg_Mankiw__consequence_chute_demande_agregee_deflation__effet_Keynes_.png

La chute du taux d’intérêt nominal accroît la composante de l’investissement qui dépend du taux d’intérêt, ce qui accroît la demande globale via le multiplicateur d’investissement. De ce point de vue, une chute du niveau des prix peut en principe entraîner le déplacement sur la courbe de la demande agrégée de B à C. Le déplacement sur la courbe de la demande agrégée de B à C est par conséquent une conséquence de la chute du niveau des prix.

Mankiw ne prend, cependant, pas en compte que, dans le cas de la déflation, le taux d’intérêt nominal peut rapidement atteindre zéro. Cela signifie qu’il y a déjà une limite inférieure pour la chute du taux d’intérêt nominal, qui devait en principe stabiliser l’économie. Et puisque l’investissement n’est pas déterminé par le taux d’intérêt nominal, mais par le taux d’intérêt réel, lorsque le taux d’intérêt nominal bute sur sa borne inférieure en présence de déflation, le taux d’intérêt réel peut en fait augmenter à mesure que les prix baissent. Au lieu de constituer nous faisons alors face à un processus, non pas stabilisateur, mais déstabilisateur.

En outre, la déflation se révèle déstabilisatrice pour les débiteurs et le système financier si elle suite une phase de fort endettement. Irving Fisher (1933) a évoqué le risque d’une "déflation par la dette" (debt-deflation).

La dette publique freine la croissance économique

La question de la relation entre dette publique et croissance économique est susceptible d’être particulièrement pertinente pour la politique économique. Mankiw estime que la dette publique réduit l’épargne et donc l’investissement dans une économie, ce qui freine la croissance économique.

Le problème fondamental ici est que le contexte est présenté dans le cadre du modèle de l’économie classique. Celui-ci ne prend en compte qu’un seul bien, utilisé à la fois comme bien de consommation, de bien d’investissement et d’actif financier. Les investissements doivent donc être "financés" par des ménages retardant leur consommation (c’est-à-dire épargnant). De cette façon, le bien devient disponible comme actif financier et celui-ci peut alors être utilisé par les investisseurs comme bien d’investissement (comme "capital"). Dans ce modèle, il n’est pas possible de financer l’investissement via le crédit bancaire et, dans le cas de l’Etat, via la banque centrale. (…)

Mais même dans le cadre du modèle classique, le résultat présenté par Mankiw n’est pas convaincant. Il fait implicitement l’hypothèse que le gouvernement utilise les fonds qu’il emprunte exclusivement pour la consommation. En outre, il dépend de l’hypothèse curieuse selon laquelle la demande additionnelle de crédit du gouvernement n’accroîtrait pas la demande agrégée du crédit, mais réduirait l’offre de fonds prêtables résultant de l’épargne des ménages.

Si nous supposons plutôt que le gouvernement emprunte pour financer l’investissement, les choses changent énormément. L’effet peut être représenté par un déplacement de la demande de crédit (et non par un déplacement de l’offre de fonds d’épargne). Le déplacement de la demande d’investissement entraîne alors une hausse du taux d’intérêt et, au nouvel équilibre, davantage d’épargne et davantage d’investissement. C’est donc l’exact opposé de ce que Mankiw suggère. L’emprunt public finançant l’investissement public stimule alors la croissance économique.

Les banques collectent des dépôts, puis les prêtent sous forme de prêts

Mankiw n’est pas le seul à penser que les banques sont de simples intermédiaires entre épargnants et investisseurs. Cette erreur tient aussi à la modélisation (…) du système financier dans la théorie (néo)classique. C’est encore aujourd’hui le paradigme qui façonne la plupart des travaux universitaires sur les questions relatives au système financier. Puisque dans le modèle de l’économie (…) il n’y a qu’un seul bien, qui n’est mis à la disposition du marché financier que si les ménages retardent leur consommation, le rôle des banques est réduit à celui d’un simple conduit entre épargnants et investisseurs.

Cela n’a rien à voir avec la réalité. (…) Dans un modèle monétaire (réaliste), les dépôts sont principalement créés à travers l’activité de crédit des banques commerciales. Et si les dépôts sont créés par des ménages apportant du liquide à la banque, alors cette liquidité a précédemment été créée par l’activité de prêt de la banque centrale.

Il est étonnant que les livres de Mankiw présentent le processus de création monétaire par les banques avec le modèle traditionnel du multiplicateur monétaire (…). Le modèle du multiplicateur monétaire n’est pas réaliste. Il suppose que les banques utilisent chaque émission de monnaie par la banque centrale pour prêter. Comme le montrent les achats d’actifs par les banques centrales, ce mécanisme n’est pas approprié. Il suppose un déséquilibre sur le marché des prêts bancaires, où il y aurait un excès de demande de prêts bancaires au taux prêteur qui prévaut.

Le lien de causalité supposé par le modèle du multiplicateur monétaire, selon lequel un accroissement de l’offre de monnaie par la banque centrale entraîne davantage de prêts bancaires et une hausse de l’offre de monnaie, est également inapproprié dans la mesure où les banques centrales ne contrôlent pas l’activité de crédit des banques commerciales via la base monétaire en temps normal, mais via le taux d’intérêt sur le marché monétaire. (...) »

Peter Bofinger « Best of Mankiw: Errors and tangles in the world's best-selling economics textbooks », INET, 3 janvier 2021. Traduit par Martin Anota



aller plus loin...

« L’art d’écrire des manuels selon Mankiw »

« Pourquoi la déflation est un problème et comment elle peut être combattue »

« La dette publique nuit-elle à la croissance économique ? »

« Les modèles ne saisissent toujours pas ce qu’est une banque »

« La crise financière a-t-elle bouleversé l’enseignement de la macroéconomie ? »

samedi 19 décembre 2020

Quand l'économie rencontre l'épidémiologie : les extensions du modèle SIR

« Le modèle SIR, développé tout d’abord par Kermack et McKendrick (1927), reste le modèle épidémiologique canonique. Il est naturel que les économistes le choisissent lorsqu’ils cherchent à modéliser les interactions entre les dynamiques économiques et épidémiologiques. Cette brève revue de la littérature présente plusieurs adaptations apportées au cadre SIR de base qui ont été proposées dans les travaux d'épi-macroéconomie réalisés au cours des six derniers mois. Ceux-ci ont toutes été utilisées pour analyser des questions comme les politiques de confinement, les super-propagateurs, l’immunité collective, les capacités hospitalières et la stratégie "test et traçage".

Le modèle SIR canonique

Le modèle SIR répartit la population en trois catégories (ou "compartiments" dans le jargon des épidémiologistes) : les personnes saines (susceptible), les personnes infectées (infected) par la maladie et les personnes guéries de la maladie (recovered). Il modélise le passage de ces individus d’une catégorie à l’autre en utilisant un ensemble de taux de transition qui sont donnés de façon exogène et qui sont liés aux tailles relatives des différents groupes. Et il suppose que la transition ne peut se faire que dans un seul sens (par exemple, les personnes saines peuvent devenir infectées, les personnes infectées peuvent guérir, mais il n’y a pas d’autres passages possibles entre les groupes).

Les modèles épi-macroéconomiques basés sur le modèle SIR modifient ce cadre de base en supposant que ces transitions entre compartiments sont endogènes et sont liées aux décisions économiques des individus (par exemple, en matière de consommation ou d’offre de travail). Ils s’appuient sur un modèle macroéconomique simple pour permettre des effets retour entre les dynamiques pandémiques et la macroéconomie.

Plusieurs articles en épi-macroéconomie utilisent ce modèle SIR de base, soit parce qu’ils veulent générer une simple référence (par exemple, Eichenbaum, Rebelo et Trabandt, 2020), soit parce que l’article se focalise sur autre chose. Au cours des six derniers mois, d’autres auteurs ont enrichi les modèles épi-macroéconomiques en étendant le cadre SIR de plusieurs façons.

L’incertitude sur le statut d’infection

Forsyth (2020) introduit une fiction informationnelle plausible : certaines personnes infectées sont asymptomatiques et d’autres présentent des symptômes ressemblant à ceux du coronavirus, mais ne sont pas infectés par ce dernier. Ce cadre permet de comparer des politiques ciblées sur ceux avec des symptômes par rapport à l’alternative d’un confinement uniforme. La première mesure est moins coûteuse en termes de production, parce que moins d’agents sont isolés, mais il se traduit par une certaine transmission via les agents asymptomatiques. La calibration à partir des données britanniques dans l’article suggère que les mesures d’atténuation réduisent le nombre de décès de 39,1 % au cours de 18 mois. Dans le cadre d’un confinement uniforme, le PIB baisse de 21,4 % en 2020, mais si les politiques sont conditionnées aux symptômes, les pertes en PIB peuvent être réduites sans accroître le nombre de décès.

Variations de "R"

D’autres articles ont relâché l’hypothèse que la probabilité des individus sains d’être infectés est la même d’un individu à l’autre. Cela peut être fait en introduisant une variation soit dans les taux de contact entre personnes, soit dans la probabilité de transmission quand deux individus se rencontrent.

Ellison (2020) utilise les avancées en matière de modélisation épidémiologique des années quatre-vingt et quatre-vingt-dix pour relâcher l’hypothèse de "taux de contacts uniformes" de deux façons. Premièrement, les agents sont répartis en sous-groupes avec différents niveaux d’activité, ce qui implique différentes probabilités de rencontrer les autres. Deuxièmement, les agents sont davantage susceptibles de rencontrer ceux de leur propre groupe que ceux qui en sont extérieurs. Ellison montre que les paramètres clés relatifs à la population comme les seuils d’immunité collective et le R composite, ne sont pas simplement des moyennes des groupes sous-jacents, mais dépendent de l’éventail et de la distribution des niveaux d’activité au sein de la population. Il montre que R peut décliner plus vite quand les rencontres sont plus hétérogènes et donc les modèles sur les hypothèses de rencontres homogènes peuvent surestimer l’impact initial des mesures de confinement et sous-estimer la vitesse à laquelle le virus peut se propager en l’absence de mesures de confinements.

Holden et Thornton (2020) font varier la probabilité de transmission d’un individu à l’autre en considérant que le taux de reproduction spécifique à une paire d’individu est une variable aléatoire. C’est une façon de modéliser les "super-propagateurs" qui sont bien plus contagieux que la moyenne. Si par "malchance" davantage des individus infectés au départ sont des super-propagateurs, cela accroît le nombre de cas initiaux et a des effets durables comme les cas s’accumulent à partir de cette base plus élevée. Le rôle de la "chance" est bien plus grand aux premiers temps de l’épidémie, quand moins de personnes sont infectées, tandis qu’après "la loi des moyennes" tend à se vérifier et R à converger vers la moyenne de la population. Par conséquent, des populations identiques peuvent présenter des trajectoires épidémiques très différentes simplement du fait de la chance. Dans ce modèle, la politique optimale dépend, non simplement du R moyen, mais étroitement de la proportion de sa distribution qui est supérieure à l’unité. Holden et Thornton montrent que l’efficacité relative des mesures pour réduire la transmissibilité d’un virus (par exemple les masques) versus la réduction des taux de contacts (par exemple les injonctions à rester chez soi) est affectée par la distribution de R.

La décroissance de l’immunité

Dans le modèle SIR canonique, l’immunité est permanente une fois acquise, parce que les agents guéris ne sont pas susceptibles d’être infectés de nouveau. Cette hypothèse peut être relâchée dans le modèle SIRS, où les individus qui sont guéris peuvent perdre leur immunité et se retrouver de nouveau dans la catégorie des personnes susceptibles de tomber malades. Cela suppose que l’immunité peut diminuer dans une certaine mesure, ce qui est cohérent avec certains cas de réinfections au coronavirus (par exemple Tillett et alii, 2020).

Le modèle SIRS de Çenesiz et Guimarães (2020) implique que plus la durée d'immunité est courte, plus il est difficile d’atteindre l’immunité collective et plus longue sera la période de distanciation physique nécessaire. La disparition de l’immunité a un rôle relativement faible au début de la pandémie, parce que les prescriptions en matière de politique sont similaires, qu’importe les hypothèses à propos de la durée de l’immunité. Mais au cours du temps, la différence entre les résultats des deux modèles s’accentue, parce que si l’immunité est permanente le stock d’agents immunisés s’accumule régulièrement. A des horizons plus lointains, même des changements relativement faibles dans la dureté du confinement peuvent avoir de larges implications.

Ils permettent alors d’enrichir les déterminants de l’immunité, notamment en prenant en compte la possibilité que les agents précédemment infectés soient moins susceptibles d’avoir des formes sévères de Covid-19 et considèrent la politique optimale si un futur vaccin est prévu. En l’occurrence, plus l’immunité disparaît rapidement et plus l’arrivée d’un vaccin est éloignée dans le temps, plus l’impact de la disparition de l’immunité sur la politique optimale sera importante, parce que la pandémie dure plus longtemps.

L’ajout de compartiments supplémentaires

Plusieurs travaux ont augmenté le nombre de compartiments entre lesquels la population est répartie, (bien) au-delà des trois compartiments du modèle SIR classique. Et, en permettant d’enrichir les équations de transitions, ils peuvent étudier d’autres possibilités que celle selon laquelle les individus ne peuvent aller que d’un groupe à l’autre selon une séquence précise. Favero (2020) a développé un modèle avec un compartiment pour les patients hospitalisés. Cela permet au modèle de faire des prédictions directes à propos du nombre d’hospitalisations et il permet aussi de prendre explicitement en compte le rôle des capacités hospitalières. Quand les admissions excèdent les capacités, ces patients additionnels ont (…) une plus forte probabilité de mourir parce qu’ils ne peuvent pas être soignés comme les autres. Favero montre que l’ajout de cette contrainte peut expliquer le taux de décès bien plus élevé dans la région de Lombardie en Italie et il montre que les stratégies qui impliquent un plus grand nombre d’infections simultanées sont associées à des taux de mortalité bien plus élevés.

Giordano et alii (2020) développent un modèle qui ajoute cinq compartiments supplémentaires. Certains capturent différentes possibilités pour ceux qui tombent malades, selon qu’ils présentent ou non des symptômes, qu’ils soient détectés ou non. D’autres compartiments sont pour les agents qui sont extrêmement malades et pour deux états finaux où les agents finissent soit par mourir, soit par pleinement guérir. Ce modèle enrichi permet de considérer davantage de paramètres, notamment différents taux de mortalité et une transmission différentielle des cas symptomatiques. Il permet de mieux expliquer les mauvaises perceptions du taux de mortalité et de la vitesse de propagation de l’épidémie. Les auteurs concluent que les mesures de confinement ne peuvent être retirées quand il est possible de tester et tracer à grande échelle et qu’une combinaison des deux outils est nécessaire pour réduire le nombre d’infections.

Mais un surcroît de complexité n’est pas toujours préférable. Roda et alii (2020) ont comparé le modèle SIR avec un modèle SEIR, qui présente une catégorie supplémentaire d’agents exposés, qui ont la maladie, mais qui ne sont pas encore contagieux. Cela crée deux paramètres supplémentaires, gouvernant la période de latence (combien de temps pour que ceux qui tombent malades deviennent contagieux) et la part initiale de la population dans la catégorie exposée. En pratique, il est difficile d’identifier les paramètres empiriquement, parce que le modèle ne peut pas distinguer entre une infection avec une longue période de latence et une faible part initiale ou un brève période de latence et une part initiale élevée. En utilisant les critères d’information d’Akaike, les auteurs concluent que le fait que le modèle SEIR colle un peu mieux aux données que le modèle SIR ne compense pas le gain de complexité qu’apportent ces deux paramètres supplémentaires.

En conclusion

Le modèle SIR originel a bien résisté à l’épreuve du temps. Dans sa forme la plus simple, il est capable de capturer les aspects clés des pandémies et cela en fait un modèle de choix en épi-macroéconomie pour les modélisateurs cherchant à élaborer un modèle économique qui reste simple. En outre, la structure compartimentée permet de la complexifier facilement. Ces extensions permettent d’obtenir d’importantes intuitions à propos des mérites respectifs des différentes politiques de confinement, du rôle des super-propagateurs dans la détermination de la trajectoire d’une pandémie, de la difficulté d’atteindre l’immunité collective, de la contrainte posée par les capacités hospitalières et du rôle des tests et traçages. »

John Lewis, « Covid-19 briefing: extensions to the SIR model », in Banque d’Angleterre, Bank Underground (blog), 30 novembre 2020. Traduit par Martin Anota

samedi 28 novembre 2020

Mémo à la BCE pour atteindre la bonne combinaison des politiques budgétaire et monétaire

« Ce mémo doit débuter par quelques mots de félicitations. La Banque Centrale Européenne (BCE) n’est certes pas parvenue à atteindre sa cible d’inflation (et je reviendrai sur ce sujet ci-dessous), mais elle a su stabiliser les marchés financiers et contribuer à soutenir l’activité économique dans la zone euro. Cela a été le cas lors de la crise financière mondiale et de la crise de la zone euro, mais aussi lors de la crise du coronavirus. Pour y parvenir, la BCE a introduit plusieurs nouveaux programmes et outils. Son bilan a été multiplié par 9 depuis 2000 et de 40 % depuis le début de la crise du coronavirus (cf. graphique). Il est temps de faire l’inventaire.

GRAPHIQUE Taille du bilan de la BCE (en milliers de milliards d'euros)

Blanchard__bilan_BCE.png

Pour cela, nous devons distinguer entre trois environnements économiques différents. Appelons le premier la "dislocation" pour désigner les moments où les marchés financiers connaissent de soudaines fuites de capitaux, où les investisseurs financiers quittent ou pénètrent soudainement des marchés, entraînant d’amples perturbations et d’amples mouvements des prix. L’Europe a connu de tels moments au printemps. Ce n’est plus le cas aujourd’hui.

Appelons le deuxième la "stagnation séculaire" pour désigner les périodes où le taux sûr réel neutre est si faible que, en combinaison avec une faible inflation, il limite la capacité de la banque centrale à utiliser le taux directeur comme principal outil de politique monétaire. La BCE fait face à un tel environnement depuis plus d’une décennie à présent.

Appelons le troisième "les temps normaux", ou peut-être plus correctement les "anciens temps", ces périodes où le taux neutre et, par implication, le taux nominal sont suffisamment élevés en moyenne pour qu’il y ait peu de contraintes sur la fixation du taux directeur. Selon les prévisions et les prix de marché, ce n’est pas prêt d’arriver de si tôt.

Considérons le premier : la BCE a su bien faire les choses pour combattre la dislocation. Elle a négocié des lignes de swap avec la Réserve fédérale, fourni d’amples liquidités aux marchés et aux institutions et su rapidement stabiliser les marchés financiers. Elle est prête à le faire de nouveau si nécessaire. Considérons le troisième : pour l’instant, l’Europe n’a pas à se demander quoi faire en "temps normal" : elle aura le temps de réfléchir et peut-être de changer les outils de politique économique si les temps normaux revenaient. Ce qui laisse la question de la politique monétaire dans le cas de la stagnation séculaire, chose sur laquelle je me focaliserai dans le reste de ce mémo.

Première priorité : donner davantage de place à la politique budgétaire


Dans un régime de stagnation séculaire, la question centrale est la bonne combinaison entre politique monétaire et politique budgétaire. En "temps normal", l’allocation est simple. La politique budgétaire doit se focaliser sur des objectifs budgétaires et laisser la stabilisation macroéconomique essentiellement à la politique monétaire. Dans le cas de la stagnation séculaire, la réponse n’est pas si simple. La politique monétaire ne peut assurer la tâche seule et cette limitation s’est en effet manifestée à travers l’incapacité durable de la BCE à atteindre sa cible d’inflation. Les politiques budgétaire et monétaire sont nécessaires pour la stabilisation macroéconomique et la combinaison est complexe.

Face à un écart de production négatif, un soutien insuffisant de la part de la politique budgétaire force la banque centrale à aller au-delà de sa zone de confort pour soutenir l’activité économique, la forcer à réduire les primes de risque peut-être excessivement et au cours du processus prendre des risques, non seulement financiers, mais aussi politiques. Un soutien excessif de la part de la politique budgétaire, d’un autre côté, peut soulever des problèmes de soutenabilité de la dette publique, inquiéter les marchés financiers, accroître les spreads et compliquer la tâche de la banque centrale.

Les politiques budgétaire et monétaire doivent donc trouver le point idéal, ce qui n’est pas facile à faire. Je crois qu’au cours de la crise actuelle, les autorités budgétaires nationales européennes et la BCE s’en sont bien approchées. Les risques pesant sur les bilans de la BCE et des banques nationales sont restés limités. Et, étant donné la faiblesse des taux d’intérêt et des spreads, les risques en termes de la soutenabilité de la dette publique sont aussi restés très faibles. Je vais toutefois souligner trois choses que je considère comme importantes.

La première implique la sémantique. "La stabilisation des marchés" et "l’amélioration du mécanisme de transmission" décrivaient bien ce que la BCE faisait lors de la phase de dislocation. Empêcher une panique autoréalisatrice sur les obligations publiques italiennes au début de l’année fut clairement la bonne politique à suivre. Ces termes peinent à décrire ce que la BCE fait aujourd’hui. Avec les détentions d’obligations proches de 3000 milliards d’euros, la BCE ne se contente pas de stabiliser les marchés ; elle réduit les spreads.

La deuxième concerne la division du travail entre politique budgétaire et politique monétaire. Réduire les spreads est la bonne chose à faire. Si le taux directeur ne peut davantage baisser et si l’activité économique et l’inflation restent excessivement faibles, il y a de bons arguments de second-best en faveur d’une réduction des spreads au-delà de ce que le marché aurait atteint, même si cela entraîne certaines perturbations. La question, cependant, est de savoir quand est-ce que cela n’est plus du ressort de la BCE mais de la politique budgétaire. Les programmes de liquidité de la BCE sont des carottes, non des bâtons. Si un gouvernement commençait à mal se comporter, la BCE ferait face à de très difficiles décisions et peut-être à des problèmes de bilan. Un Mécanisme Européen de Stabilité et un programme OMT plus légers, avec une conditionnalité très limitée mais toujours la possibilité de forcer un ajustement si nécessaire, serait une meilleure façon de fournir un prêt souverain à de plus faibles taux et de réduire l’exposition de la BCE. L’Europe ne peut arriver aujourd’hui à un tel accord, comme les marchés réagiraient sûrement très mal à celui-ci, mais les autorités européennes doivent se demander si une telle transition doit survenir à un moment ou à un autre.

La troisième concerne la nécessité de changements institutionnels majeurs du côté de la politique budgétaire, un changement des règles budgétaires, un pas supplémentaire vers l’union budgétaire et la nécessité d’un partenaire budgétaire à la BCE. Ce n’est pas de la responsabilité de la BCE, mais ils sont nécessaires pour que la BCE puisse assurer sa mission. Atteindre la bonne combinaison entre politique monétaire et politique budgétaire dans l’environnement actuel est difficile quand il y a 19 autorités budgétaires. Avoir un partenaire budgétaire officiel aiderait. Les règles budgétaires de l’UE ont été suspendues et les gouvernements de la zone euro ont été enclins à utiliser agressivement la politique budgétaire, mais les règles ne peuvent être à jamais suspendues. Elles doivent être réécrites pour prendre en compte les nouvelles réalités. Un plus grand rôle pour le MES comme suggéré ci-dessus nécessiterait un pas supplémentaire vers l’union budgétaire. Il est approprié pour la BCE de se prononcer en faveur de telles réformes, en indiquant que si celles-ci n’étaient pas mises en œuvre, elle serait forcée de prendre des risques excessifs, ce qui ne serait dans l’intérêt de personne.

Deuxième priorité : ce n’est pas le moment de relever la cible d’inflation


Penchons-nous sur d’autres questions, que je considère comme moins fondamentales, mais qui font l’objet davantage d’attention et qui seront discutées dans la revue stratégique de la BCE.

Il y a presque un accord universel entre économistes pour dire que, en général, les banques centrales doivent avoir un double mandat, comprenant la stabilisation de l’écart de production et la stabilisation de l’inflation. Mais le mandat unique de la BCE n’est pas forcément mauvais dans les faits : la stabilisation de l’inflation à sa cible va en général se traduire par une bonne performance de la production. De plus, la réalité est que la BCE s’inquiète de l’écart de la production et de l’inflation. Si l’inflation était à 2 % et si, pour une raison ou une autre, la production était bien en-deçà de son potentiel, je suis sûr que la BCE maintiendrait une politique monétaire expansionniste. Donc, étant donné la difficulté d’atteindre un changement de Traité, je laisse cette question de côté et je ne dérangerai pas le chat qui dort.

Que penser d’un relèvement de la cible de taux d’inflation ? Pa rapport au débat et aux divers articles qui ont été écrits avant la crise financière mondiale, qu’avons-nous appris à ce sujet ? D’un côté, nous avons appris que la probabilité de nous retrouver à la borne inférieure zéro est plus élevée que nous l’avions estimée ; que la raison sous-jacente ne tient pas simplement à des chocs négatifs, mais à une baisse du taux neutre par rapport au passé. D’un autre côté, nous avons appris qu’une banque centrale peut fixer des taux d’intérêt légèrement négatifs, ce qui relâche la borne inférieure. La courbe de Phillips est devenue non seulement plus plate, mais elle l’est devenue davantage à la baisse, ce qui réduit le risque d’une spirale déflationniste catastrophique. Et la faible inflation a rendu l’inflation moins saillante et les anticipations d’inflation plus visqueuses, un développement utile pour la politique monétaire.

Donc, même s’il semble en résumé que la BCE serait en meilleure position avec une cible d’inflation plus haute, ce n’est pas le moment de la relever. Nous devons clairement sortir d’une inflation "inférieure, mais proche, à 2 %" pour une inflation "à 2 %", mais ne pas aller plus loin. La crédibilité de la cible actuelle est déjà faible, la crédibilité d’une cible plus élevée serait encore plus faible. Contrairement à ce que la Réserve fédérale a dit, je laisserais la porte ouverte pour reconsidérer cette éventualité lorsque l’inflation sera revenue à 2 %.

Que dire à propos de l’idée de suivre la Fed et d’adopter un ciblage de l’inflation moyenne ou d’opter pour une version plus forte, le ciblage du niveau des prix ? D’un point de vue opportuniste, étant donné le contexte, cela constituait potentiellement une bonne manœuvre de la Fed, dans la mesure où elle pouvait ainsi accroître les anticipations d’inflations et réduire les taux réels (il s’avère que cela n’a pas été le cas, ce qui signale quelque chose de plus général à propos de la capacité de la politique monétaire à gérer les anticipations). La question pertinente, cependant, est de savoir si c’est une bonne règle en général. Si elle est symétrique, elle ne sera pas crédible : aucune banque centrale ne va déclencher une récession au motif que l’inflation est bonne aujourd’hui, mais qu’elle était trop élevée par le passé. Donc elle doit être asymétrique, peut-être comme selon la proposition avancée par l’ancien président de la Fed Ben Bernanke. Ainsi, je crois qu’elle peut-être moins floue que ne l’a décrite la Fed. Le flou à propos du laps de temps au cours duquel la moyenne est calculée et ce que cela signifie à propos du taux d’inflation que la banque centrale va tolérer va embrouiller les investisseurs financiers et compliquer la politique monétaire. Elle compliquera davantage les choses qu’elle ne les simplifiera. Si la banque centrale emprunte cette voie, je crois que le contrôle de la courbe des taux, à la Banque du Japon, serait une meilleure façon d’envoyer le bon signal. La BCE doit davantage explorer cette idée.

Je n’ai pas dit dans quelle mesure la politique monétaire devrait s’inquiéter de la répartition des revenus ou du changement climatique. C’était intentionnel. Dans le rôle de la BCE en tant que superviseur des marchés financiers, il est certes nécessaire de prendre en compte l’impact du changement climatique sur le portefeuille des institutions financières. Il serait malavisé d’aller au-delà, sauf lorsque le choix de différents outils de politique monétaire présente d’évidentes implications pour la répartition des revenus ou la nature de la croissance économique. La BCE peut avoir au mieux un effet marginal sur ces évolutions et avoir trop de cibles l’empêcherait d’accomplir le mieux qu’elle puisse son principal mandat. »

Olivier Blanchard, « Memo to the European Central Bank on achieving the right fiscal-monetary policy mix », in PIIE, Realtime Economic Issues Watch (blog), 24 novembre 2020. Traduit par Martin Anota



aller plus loin...

Comment expliquer le comportement de l’inflation et de l’activité suite à la Grande Récession ?

Faut-il s'inquiéter de la dette publique lorsque les taux d’intérêt sont faibles ?

Et si les banques centrales ciblaient une inflation de 4 % ?

mardi 17 novembre 2020

La stratégie post-Covid de la politique monétaire

« Le choc de l’épidémie de Covid-19 a posé aux autorités monétaires des défis substantiels et sans précédent. Ce billet résume la littérature clé sur la réponse immédiate de la politique monétaire au choc, notamment les questions relatives aux outils et aux stratégies à court et moyen termes (mais en laissant de côté la question des interactions entre politique monétaire et politique budgétaire à long terme).

Chocs de demande versus chocs d’offre

Au début, la littérature a cherché à modéliser comment le choc sectoriel de l’épidémie affectait l’équilibre entre offre et demande. Ensuite, la littérature empirique a cherché à déterminer quel canal dominait et a conclu que la réponse différait selon le secteur et l’horizon temporel. En général, les analyses empiriques suggèrent que, du moins à court terme, les chocs de demande déflationnistes s’avèrent relativement plus importants, même si une minorité d’analyses donne plutôt la proéminence aux chocs d’offre (Brinca, Duarte et Castro, 2020 ; del Rio-Chanona et alii, 2020). En utilisant les révisions des prévisions dans les données d’enquête américaines, Bekaert, Engstrom et Ermolov (2020) ont décelé un ralentissement de l’inflation tiré par un choc de demande négatif. Alvarez et Lein (2020) et Balleer et alii (2020) utilisent respectivement les données relatives aux transactions via carte bleue en Suisse et les données tirées d’enquêtes menées auprès d’entreprises en Allemagne et constatent aussi un ralentissement de l’inflation durant les premiers mois de la pandémie.

Mécanismes économiques alternatifs

La nature sans précédent du choc de l’épidémie de Covid-19 a aussi accru l’intérêt pour d’autres mécanismes potentiellement en jeu. Caballero et Simsek (2020) ont souligné le rôle des marchés financiers dans al transmission du choc du coronavirus et ils évoquent une "déconnexion entre Wall Street et Main Street". Les prix d’actifs américains ont réagi rapidement aux nouvelles relatives à la pandémie et ils ont ensuite connu un rebond brutal dans le sillage de l’assouplissement monétaire de la Fed. Le chômage a graduellement augmenté et est resté élevé. Ils rationalisent la politique monétaire de la Fed dans un modèle où la demande globale est molle, réagissant avec retard aux prix d’actifs. La politique optimale requiert un brutal dépassement initial des prix d’actifs pour compenser les forces récessives futures sur la demande agrégée, étant donné la viscosité des décisions relatives aux dépenses.

L’épidémie de Covid-19 a également alimenté l’incertitude. Pellegrino, Castelnuovo et Caggiano (2020) montrent que les chocs d’incertitude financière ont des effets sur l’économie réelle. Ils constatent que la politique monétaire américaine a réagi plus agressivement aux variations de la production après la crise financière mondiale et, en agissant ainsi, a su compenser environ la moitié des pertes provoquées par le choc d’incertitude. Le choc d’incertitude provoqué par l’épidémie de Covid-19 peut générer les pertes en termes de production deux fois plus amples que celles provoquées par la crise financière mondiale, mais à nouveau une réponse agressive de la politique monétaire peut réduire ces pertes de moitié. De nombreuses analyses (voir Mendes, Murchison et Wilkins, 2017) ont étudié la conduite de la politique monétaire en présence d’une incertitude généralisée. De Grauwe et Ji (2020) montrent que durant les crises il vaut mieux que la politique monétaire réagisse aux données courantes plutôt qu’à ses prévisions, en raison de l’incertitude entourant les perspectives économiques futures. Bordo, Levin et Levy (2020) proposent l’usage explicite de différents scénarii épidémiologiques (par exemple si ou quand un vaccin efficace sera mise à la disposition de la population) dans la stratégie et les communications de la banque centrale pour illustrer la profonde incertitude non économique et ses potentielles implications pour la trajectoire de la politique monétaire.

Les effets sectoriels hétérogènes de l’épidémie de Covid-19 ont suscité un courant de recherche sur ce que peut être la politique monétaire optimale pour la réallocation sectorielle des ressources. Woodford (2020) montre qu’avec le "choc du coronavirus" poussant dans certains secteurs l’activité en-deçà des niveaux cohérents avec la maximisation du bien-être, la politique monétaire ne peut compenser les distorsions transsectorielles et qu’elle ne peut donc stabiliser les effets de ces chocs. C’est similaire au résultat obtenu dans une analyse portant sur les réseaux de production, dans lequel aucune politique monétaire ne peut obtenir l’allocation optimale (La’O et Tahbaz-Salehi, 2020). Woodford affirme que des transferts budgétaires ciblés sont mieux adaptés pour répondre aux insuffisances de la demande et qu’ils peuvent être à même d’atteindre la meilleure allocation des ressources sans nécessiter une réponse de la politique monétaire.

Choix d’outils et efficacité

L’épidémie de Covid-19 a éclaté dans une période de taux directeurs historiquement faibles à travers le monde et d’amples bilans pour les banques centrales, alors même que ces dernières reconsidéraient déjà leur boîte à outils. Outre les répercussions sur la demande globale à court terme, Jordà, Singh et Taylor (2020) constatent que le taux d’intérêt d’équilibre a durablement chuté après les pandémies passées, ce qui réduirait davantage la marge de manœuvre pour les banques centrales. Cela suggère que les responsables de la politique économique aient à utiliser de façon plus routinière les outils non conventionnels développés depuis la crise financière mondiale et peut-être même en concevoir de nouveaux.

Parallèlement, les théoriciens ont beaucoup de difficultés à décortiquer les mécanismes à l’œuvre pour les outils non conventionnels. Sims et Wu (2020) distinguent entre prêt au secteur financier ("assouplissement quantitatif pour Wall Street" et prêt aux entreprises non financières ("assouplissement quantitatif pour Main Street"). Si un choc détériore les soldes des sociétés financières (par exemple comme dans le cas de la crise financière mondiale), les deux types d’assouplissement quantitatif sont de parfaits substituts l’un à l’autre. Mais pour un choc détériorant les flux de trésorerie des entreprises non financières (comme le choc associé à l’épidémie de Covid-19), l’"assouplissement quantitatif de Main Street" est significativement plus efficace, étant donné qu’il soutient les entreprises dépendent de l’endettement. Caballero et Simsek (2020) affirment qu’un large choc non financier, tel que le choc du coronavirus, génère une chute endogène de la tolérance au risque. Dans ce cas, l’assouplissement quantitatif peut réduire les effets du choc en transférant le risque au bilan de la banque centrale.

Levin et Sinha (2020) ont analysé l’efficacité du forward guidance à la borne inférieure (lower bound) dans un modèle incorporant des frictions dans la formation des anticipations, une crédibilité imparfaite des engagements de la politique monétaire et une incertitude de la banque centrale sur la structure de l’économie. Ce cadre suggère que le forward guidance requiert des promesses à long terme de dépassements d’inflation et qu’il peut être contreproductif si le modèle de base de l’économie est mal spécifié. Les auteurs concluent qu’il peut être risqué d’aller au-delà de l’actuel forward guidance du comité de politique monétaire de la Fed (qu’ils perçoivent comme clarifiant la fonction de réaction du comité et proche des anticipations de marché courante).

L’épidémie de Covid-19 a aussi rallumé le débat sur les mérites des taux d’intérêt négatifs au sein de la blogosphère, alors que la littérature universitaire sur le sujet reste encore éparse. Il n’y a pas de consensus sur l’efficacité des expériences passées. Par exemple, Andersson et Jonung (2020) suggèrent que les taux négatifs en Suède sur la période allant de 2015 à 2019 ont eu un effet modeste sur l’inflation, mais qu’ils ont par contre contribué à alimenter les vulnérabilités financières, tandis que Krogstrup, Kuchler et Spange (2020) affirment que la période commençant avec l’adoption des taux neutres par la banque centrale danoise en 2012 a été bien plus bénigne. D’autres ont affirmé que les taux négatifs vont constituer un précieux outil, étant donné les anticipations de marché d’un besoin d’un surcroît d’assouplissement monétaire (par exemple Lilley et Rogoff, 2020 ; de Groot and Haas, 2020). Il est clair que la recherche sur ce thème doit se poursuivre. (…) »

Richard Harrison, Kate Reinold et Rana Sajedi, « Covid-19 briefing: monetary policy strategy post-Covid », in Banque d’Angleterre, Bank Underground (blog), 16 novembre 2020. Traduit par Martin Anota



aller plus loin...

« Covid-19 : l'épidémie a-t-elle entraîné un choc d'offre ou de demande ? »

« Quelles sont les répercussions des pandémies à long terme ? »

vendredi 6 novembre 2020

La seule politique antitrust ne règlera pas le problème de l’innovation

« L’action judiciaire intentée par le Département de la Justice américain contre Google constitue peut-être la première salve d’un flot de procès antitrust lancés contre les géants du numérique. Limiter le pouvoir de ces entreprises est l’une des rares propositions qui aient reçu un soutien bipartisan au Capitole.

Le procès de Google se focalise sur les "pratiques anticoncurrentielles et d’éviction sur les marchés des moteurs de recherche et des publicités qui leur sont liées", mais un long rapport publié récemment par le Comité antitrust de la Chambre des Représentants liste divers autres problèmes sur le radar des responsables politiques. En plus de la position dominante de Google dans la publicité numérique et de sa possible tendance à favoriser excessivement les résultats de recherches qui lui soient bénéfiques, les législateurs américains ont à l’œil le contrôle des médias sociaux par Facebook, l’emprise d’Amazon sur les marchés de détail et les possibles violations de la vie privée par toutes les grandes plateformes.

Mais les effets pernicieux des géants du numérique sur la croissance économique et le bien-être des consommateurs peuvent découler moins des "pratiques anticoncurrentielles et d’exclusion" que de leur rôle dans l’orientation du changement technologique. Il est utile de rappeler que nous pouvons toujours utiliser différemment notre temps, nos ressources et notre attention dans le développement et le déploiement d’une technologie. Nous pouvons continuer d’investir dans les technologies qui aident les dirigeants, ingénieurs et professionnels qualifiés ou nous pouvons investir dans des technologies qui améliorent la situation des travailleurs peu qualifiés. Nous pouvons déployer notre savoir-faire actuel pour améliorer la création d’énergies à base de charbon ou nous pouvons porter notre attention sur des sources d’énergie plus propres telles que le solaire ou l’éolien. Nous pouvons orienter la recherche dans le domaine de l’intelligence artificielle vers l’automatisation des tâches réalisées par les travailleurs et l’amélioration de la reconnaissance faciale et de la surveillance ou nous pouvons utiliser les mêmes technologies sous-jacentes pour augmenter la productivité humaine et assurer une communication privée sécurisée et un discours politique basé sur les faits, préservé de la manipulation.

Divers facteurs vont déterminer quelles alternatives reçoivent le plus d’attention de la part des chercheurs et des entreprises. La taille du marché pour les nouvelles technologies dépend naturellement fortement de ceux qui prennent les décisions d’investissement dans les entreprises en quête de profit. Mais les besoins, les modèles commerciaux et la vision des entreprises orientant l’innovation technologique peuvent être de plus cruciaux déterminants pour des tendances plus générales.

Quand Microsoft dominait le marché du PC avec son système d’exploitation Windows dans les années 1990, elle n’avait pas d’incitation à investir dans les systèmes d’exploitation alternatifs ou des produits qui n’auraient pas été compatibles avec Windows. De même, les géants de la Silicon Valley ne sont pas poussés à développer des technologies susceptibles de cannibaliser leurs profits, tout comme les compagnies pétrolières n’ont pas été les premières à développer l’énergie verte qui concurrence directement les énergies fossiles. Sans surprise, quand des entreprises comme Facebook, Google, Amazon et Netflix redoublent d’efforts pour démontrer leur puissance technologique, elles le font dans des domaines qui sont compatibles avec leurs propres intérêts et modèles commerciaux.

En outre, chacune de ces entreprises est conduite non seulement par ses sources de recettes et catalogues de produits actuels, mais aussi par leur vision des choses. L’équipe dirigeante de chaque entreprise apporte ses propres approche, idiosyncrasies et préoccupations au processus d’innovation. L’iPod, l’iPhone et l’iPad étaient les produits de l’approche de l’innovation propre au cofondateur d’Apple Steve Jobs, si bien que ces technologies ne pouvaient être facilement émulées par d’autres acteurs. La réponse de Microsoft à la réussite mondiale et immédiate dont jouit l’iPod a été le lecteur Zune, un échec désastreux que beaucoup ont oublié.

Bien sûr, il n’y a en soi pas de problème avec le fait que les entreprises qui réussissent développent leur propre vision. Mais les choses sont différenctes quand une entreprise particulière devient le seul joueur en lice. Historiquement, les plus grandes avancées technologiques sont survenues quand plusieurs entreprises dans plusieurs secteurs testaient différentes idées.

Le problème aujourd’hui n’est pas simplement que les géants du numérique ont atteint une taille gargantuesque, c’est aussi que leurs investissements en recherche-développement déterminent la direction globale du changement technologique. Tous les autres acteurs du marché n’ont guère d’autre choix que de proposer des produits et services interopérables avec ceux des plateformes majeures, si bien qu’ils dépendent de ces dernières et leur sont subordonnés.

En termes de recherche-développement, le McKinsey Global Institute estime que les deux tiers des dépenses mondiales de développement de l’intelligence artificielle sont réalisées par quelques unes des plus larges entreprises chinoises et américaines de nouvelles technologies. En outre, ces entreprises partagent non seulement une vision similaire de la façon par laquelle les données et les intelligences artificielles doivent être utilisées (en l’occurrence, à des fins d’automatisation des tâches réalisées par les travailleurs et de surveillance), mais elles influencent aussi de plus en plus d’autres organisations, comme les lycées et les universités (…).

Le manque de diversité en recherche-développement apparaît même encore plus coûteux quand l’on considère les nombreuses technologies et plateformes alternatives qui auraient sinon été à notre disposition. Une fois que tous les œufs ont été mis dans un même panier, cela réduit le champ des possibles, car les alternatives ne peuvent plus faire face à la concurrence.

L’évolution des technologies énergétiques offre un bon exemple. La réduction des émissions de gaz à effet de serre aurait été impossible il y a trois décennies et demeure aujourd’hui un défi, pour la simple raison qu’un énorme montant a été investi dans la production de carburant fossile, les véhicules à combustion interne et toute l’infrastructure requise. Il a fallu trois décennies de subventions et d’autres dispositifs incitatifs pour qu’il y ait un rattrapage du côté de l’énergie renouvelable et les véhicules électriques. Le fait que ces technologies dépassent désormais les énergies fossiles dans plusieurs contextes montre ce qui peut être accompli via des politiques pour soutenir des plateformes alternatives qui soient davantage désirables d’un point de vue social.

Pourtant, il est rarement facile de réorienter le changement technologique, parce qu’il requiert une approche pluridimensionnelle. Il est important de limiter la taille des entreprises meneuses, mais cela ne suffit pas. Bien qu’une poignée de sociétés représente 25 % de la valorisation boursière américaine, démanteler Facebook, Google, Microsoft et Amazon ne suffira pas pour restaurer la diversité nécessaire pour l’innovation au niveau agrégé. Il faut aussi qu’il y ait de nouvelles entreprises, développant des visions différentes, et des gouvernements enclins à réclamer le rôle meneur qu’ils ont déjà joué par le passé dans le changement technologique. Il est toujours de notre pouvoir de pousser la technologie en direction de l’amélioration de la situation des travailleurs, des consommateurs et des citoyens plutôt que dans la conception d’un Etat espion dépourvu de bons emplois. Mais le temps presse. »

Daron Acemoglu, « Antitrust alone won’t fix the innovation problem », 30 octobre 2020. Traduit par Martin Anota



aller plus loin...

« Les robots, les intelligences artificielles et le travail »

« La transition vers les technologies plus propres »

mardi 27 octobre 2020

Les inégalités salariales selon l’origine ethnique dans les pays développés

« Dans plusieurs pays développés, les minorités ethno-raciales sont moins rémunérées, en moyenne, que la majorité blanche autochtone. Alors que les écarts de salaires entre les groupes ethniques s’expliquent en partie par l’immigration, ils persistent aussi pour les minorités raciales de deuxième génération, voire au-delà. L’élimination des inégalités de salaires entre les groupes ethniques et la promotion d’une égalité des opportunités entre les citoyens aux différentes origines ethniques constituent un objectif important de politique sociale. Les inégalités résultant des différences en matière d’opportunités entraîne un gâchis de talents pour ceux qui ne peuvent exploiter leur potentiel et à un gâchis de ressources si certaines personnes ne peuvent pleinement contribuer à la société. (…)

Il y a de robustes analyses empiriques suggérant que dans plusieurs pays développés les salaires des minorités raciales et ethniques sont, en moyenne, inférieurs à ceux de la majorité autochtone (blanche). Bien que ces écarts de salaires aient diminué au cours du temps, ils demeurent dans la plupart des pays. Même s’il est presque impossible d’identifier toutes les raisons expliquant la persistance des différentiels raciaux de salaires, on sait que l’une de ces raisons est que plusieurs personnes appartenant aux minorités ethniques sont des immigrés, or ces derniers peuvent rencontrer des difficultés pour communiquer dans la langue du pays d’accueil, ne pas être familiers avec son marché du travail, ne pas voir leurs qualifications être reconnues ou encore manquer des réseaux sociaux nécessaires pour obtenir un emploi adapté. Cependant, dans des pays comme les Etats-Unis, le Royaume-Uni ou l’Australie, une large proportion de minorités ethniques sont des immigrés de deuxième génération, ou même d’une génération ultérieure, et elles ne font pas face à des tels problèmes, or il y a aussi des inégalités salariales selon l’origine ethnique dans de tels pays.

La réduction des écarts de salaires entre groupes ethniques et la promotion d’une plus grande égalité des opportunités parmi les citoyens avec différentes origines raciales constituent d’importants objectifs de politique sociale. Les compétences et talents des minorités ethniques peuvent être sous-utilisés si elles ne peuvent exploiter la totalité de leur potentiel et contribuer pleinement à la société. En définitive, une réduction des inégalités de salaires entre groupes ethniques est susceptible de mener à une société plus cohésive, plus productive et plus égalitaire.

La discrimination


Diverses études se sont focalisées sur la discrimination comme source des écarts de salaires entre groupes ethniques. Les modèles théoriques suggèrent que les minorités peuvent être discriminées en raison d’attitudes sociales négatives à leur égard (c’est-à-dire d’une discrimination que l’on qualifie de "discrimination par goût", basée sur les préférences individuelles) ou parce que les employeurs jaugent la qualité d’un candidat à l’embauche issu d’une minorité en se basant sur la qualité moyenne perçue des gens appartenant à la même minorité (discrimination que l’on qualifie alors de "discrimination statistique"). Les stéréotypes, comme la croyance répandue que les gens d’une certaine origine raciale ou ethnique travaillent moins efficacement que les autres, peut être une raison pour les employeurs de ne pas recruter les candidats à l’embauche issus de cette minorité ou de leur offrir des salaires plus faibles, du moins initialement. Les stéréotypes raciaux peuvent même devenir une prophétie autoréalisatrice : une récente étude sur les travailleurs des supermarchés français suggère que ceux appartenant à une minorité ethnique travaillent moins efficacement s’ils ont des superviseurs présentant des biais raciaux (Glover et alii, 2017).

D’une perspective empirique, l’identification et la mesure de la discrimination sont très difficiles. Les récentes analyses empiriques suggèrent que les candidats à l’embauche avec des noms associés à une minorité sont moins susceptibles d’être recontactés pour un entretien d’embauche que des candidats à l’embauche similaires mais avec des noms associés à la majorité autochtone. Cependant, les analyses empiriques ont du mal à déterminer précisément le rôle que joue la discrimination dans les écarts salariaux entre groupes ethniques et dans quelle mesure elle relève de la discrimination par goût ou de la discrimination statistique (Lang et Lehmann, 2012). Le débat sur l’existence et l’importance de la discrimination et sur la façon par laquelle elle opère reste ouvert.

Les politiques visant à réduire les inégalités salariales entre groupes ethniques doivent clairement différer selon que la discrimination est le résultat d’une aversion vis-à-vis des minorités ou d’un manque d’information. Cependant, la compréhension et l’élimination de la discrimination ne sont pas la seule voie pour les politiques cherchant à réduire les inégalités salariales entre groupes ethniques. Il est important de garder à l’esprit qu’il peut y avoir des écarts de salaires entre groupes ethniques même en l’absence de discrimination (salariale).

Une importante raison expliquant pourquoi les minorités ethniques reçoivent moins de salaires que les natifs blancs est qu’elles ne présentent pas les mêmes caractéristiques que ces derniers. Aux Etats-Unis, par exemple, les latinos ont de moindres niveaux d’éducation que les natifs blancs, à l’instar de la population noire caribéenne au Royaume-Uni. D’un autre côté, les Afro-Américains aux Etats-Unis et les Pakistanais et Bangladais de deuxième génération au Royaume-Uni tendent à avoir de hauts niveaux d’éducation, mais ils sont aussi davantage susceptibles d’aller dans les plus mauvaises écoles que les natifs blancs, ce qui est susceptible d’avoir un effet négatif sur leurs salaires. En outre, les minorités ethniques tendent à se concentrer dans les professions peu payées.

Les analyses empiriques montrent régulièrement que les écarts de salaires entre groupes ethniques décroissent quand de telles caractéristiques sont prises en compte. Cependant, parce que les analyses empiriques peuvent souvent être contraintes par la disponibilité des données, les différentes études peuvent ne pas prendre en compte le même ensemble de caractéristiques, si bien qu’elles n’aboutissent pas forcément aux mêmes résultats, sans pour autant être erronées. La question est alors de savoir ce que les diverses estimations d’écarts de salaires entre groupes ethniques signifient vraiment et comment elles peuvent être mieux utilisées pour éclairer la politique publique.

Mesurer les inégalités de salaires entre groupes ethniques


Une manière largement acceptée de mesurer les écarts de salaires entre groupes ethniques consiste à utiliser des modèles ne prenant en compte que la seule appartenance à une minorité ethnique pour expliquer les salaires horaires. Ces modèles mesurent des écarts salariaux "non ajustés". Les modèles mesurent les écarts "ajustés" lorsqu’ils incluent d’autres variables, comme le niveau de diplôme et l’expérience professionnelle. Alors que les écarts salariaux non ajustés mesurent la différence moyenne de salaires entre la majorité et la minorité considérée prise dans son ensemble, les écarts ajustés mesurent l’écart salarial moyen résiduel entre les groupes après prise en compte de certaines caractéristiques pertinentes.

Quand les autres caractéristiques, telles que le niveau d’éducation ou l’expérience professionnelle, sont incluses dans le modèle, alors la variable ethnique peut être interprétée comme l’écart salarial ethnique résiduel, qui n’est pas dû à des différences en matière d’éducation et d’expérience professionnelle. Certains chercheurs emploient une approche particulière (connue sous le nom de "décomposition d’Oaxaca") pour déterminer dans quelle mesure les inégalités salariales entre les groupes ethniques restent inexpliquées. Cette approche divise les écarts salariaux ethniques en deux composantes : une première qui est expliquée par des différences en termes de caractéristiques moyennes entre les groupes (telles que l’éducation et l’expérience professionnelle) et une seconde qui est due aux différences en termes de rendements moyens de ces caractéristiques. Cette seconde composante est qualifiée de part "inexpliquée" (...).

La plupart des études cherchent à déterminer dans quelle mesure le différentiel salarial entre groupes ethniques diminue lorsque certaines caractéristiques sont incluses dans le modèle et quelle proportion du différentiel demeure inexpliqué (Aeberhardt et alii, 2010). Il est cependant important de noter que l’inclusion de certaines caractéristiques peut amener à estimer de plus larges, et non de plus faibles, écarts.

Certains chercheurs interprètent la part inexpliquée des inégalités salariales entre les groupes ethniques comme manifestant une "discrimination". C’est toutefois incorrect. La part inexpliquée indique dans quelle mesure les caractéristiques choisies expliquent l’écart salarial entre les groupes ethniques. La part inexpliquée inclut l’impact d’une éventuelle discrimination, mais aussi l’impact de tous les autres facteurs qui ne sont pas inclus dans le modèle. Par exemple, une raison expliquant pourquoi une partie des écarts salariaux entre groupes ethniques reste inexpliquée peut tenir à des différences entre ces groupes en termes d’interruptions de carrière, de durées passées au chômage ou dans le travail indépendant ou à d’autres facteurs qui ne sont pas mesurées dans les données et qui peuvent difficilement être pris en compte. Les périodes de chômage peuvent avoir un impact négatif sur les salaires et peuvent eux-mêmes résulter de la discrimination ou d’un manque d’opportunités. Cependant, elles ne sont pas nécessairement une source de discrimination salariale. Puisqu’il n’est pas possible d’estimer l’importance des causes non mesurées, la part non expliquée ne doit donc pas être entièrement attribuée à la seule discrimination.

Bien que le rôle que la discrimination est susceptible de jouer (directement ou indirectement) dans l’apparition d’inégalités salariales entre les groupes ethniques ne doit pas être complètement écarté, il est opportun pour la politique publique de se focaliser sur les caractéristiques qui se sont révélées être d’importants déterminants des écarts salariaux entre les groupes ethniques, comme l’éducation. Celles-ci peuvent être utilisées comme des cibles intermédiaires.

Les possibles déterminants des inégalités salariales entre groupes ethniques


Une comparaison des écarts salariés non ajustés et ajustés et une analyse des caractéristiques les plus pertinentes dans leur détermination peuvent être assez révélatrices et utiles pour la politique publique. Premièrement, certaines caractéristiques peuvent davantage contribuer que d’autres. Deuxièmement, toutes les caractéristiques ne réduisent pas les salaires, donc ne contribuent pas aux écarts salariaux entre groupes ethniques ; certaines caractéristiques peuvent accroître les salaires et contribuer à réduire les inégalités salariales entre groupes ethniques (Longhi et alii, 2012 ; Hellerstein et Neumark, 2008). Par exemple, les auteurs d’une étude constatent que le plus important déterminant des écarts de salaires entre groupes ethniques au Royaume-Uni est la concentration des minorités ethniques dans les professions peu rémunérées, tandis que le niveau d’éducation relativement plus élevé de ces minorités compense en partie l’effet négatif de la ségrégation professionnelle (Longhi et alii, 2012). Cela suggère que le problème peut tenir à l’accès aux emplois bien rémunérés ou dans le manque de possibilités de promotions de carrière, plutôt que dans le manque d’éducation.

La situation semble être légèrement différente aux Etats-Unis, où les analyses empiriques suggèrent que la ségrégation ethnique dans l’établissement est essentiellement due à la ségrégation en termes de compétences et notamment de compétence langagière, bien que cela semble être davantage le cas pour les hispaniques que pour les noirs (Hellerstein et Neumark, 2008). Notons cependant que la ségrégation en termes de professions ou sur le lieu de travail sont des concepts légèrement différents ; alors que les établissements (ou les employeurs) peuvent offrir des emplois dans différentes professions, les mêmes professions peuvent être disponibles dans d’autres établissements.

La littérature compare rarement l’importance relative des diverses caractéristiques comme déterminants des inégalités de salaires entre groupes ethniques. De nombreux pans de la littérature portent sur une poignée de déterminants. La comparaison des études utilisant différentes données et différentes méthodologies, qui ne sont pas conçues pour répondre aux mêmes questions (certaines ne se focalisant même pas sur les écarts de salaires), n’est pas claire, ce qui signifie que la généralisation n’est pas toujours possible. Néanmoins, en comparant les différentes études, il est possible de tirer des conclusions quant à savoir quels sont les facteurs susceptibles de jouer un rôle dans les écarts de salaires entre groupes ethniques, mais sans pour autant directement comparer leur importance.

Parmi les premières caractéristiques considérées dans la littérature, il y a l’éducation, les qualifications et les compétences. Les analyses empiriques concernant divers pays, notamment les Etats-Unis, le Royaume-Uni, la France et l’Allemagne (Algan et alii, 2010 ; Hellerstein et Neumark, 2008) suggèrent que les écarts de salaires entre groupes ethniques sont en partie dus à de plus faibles niveaux d’éducation pour plusieurs minorités, en particulier quand elles incluent une grande proportion d’immigrés. Cependant, il y a d’importantes différences entre les minorités. Alors que certaines minorités ethniques sont moins qualifiées que la majorité blanche, d’autres tendent à être plus qualifiées que celle-ci. Une explication de la persistance des différentiels de salaires entre groupes ethniques, même après prise en compte des qualifications, est que les minorités sont davantage susceptibles d’aller dans les écoles de moins bonne qualité que les autochtones blancs, ce qui peut avoir un impact négatif sur leur niveau de compétences globale. Les compétences, néanmoins, tendent à augmenter avec l’expérience professionnelle.

Un autre facteur important dans la détermination des écarts de salaires entre groupes ethniques est que les minorités tendent à être ségréguées vers les professions à faible rémunération (Longhi et alii, 2012). Une étude souligne l’importance des compétences et notamment de la compétence langagière (du moins pour certaines minorités aux Etats-Unis) pour la ségrégation d’établissements, mais les causes de la ségrégation en termes de professions n’ont pas été systématiquement analysées (Hellerstein et Neumark, 2008). Les théories économiques et sociologiques suggèrent que les minorités peuvent préférer travailler dans des professions où une grande partie des travailleurs partagent leur origine ethnique et ils peuvent donc être prêts à accepter des salaires comparativement plus faibles pour travailler dans ces professions. Il a également été suggéré que, à mesure que la taille d’une population minoritaire dans un pays augmente, les personnes appartenant à la majorité s’inquiètent davantage de la concurrence pour les emplois. La majorité réagirait alors en empêchant les minorités d’obtenir des emplois de grande qualité (…). Il y a des analyses empiriques allant dans ce sens dans le cas des Etats-Unis (Tienda et Lii, 1987). Comme la taille de la minorité augmente et que la majorité s’adapte à la présence de minorités, qui s’intègrent davantage, la ségrégation en termes de professions devrait à terme diminuer.

Suivant ce courant de la littérature, diverses études empiriques ont estimé l’impact de la taille relative des diverses minorités sur leur situation sur le marche du travail, même si la variable observée est souvent le niveau de salaires de la minorité plutôt que l’écart de salaire relativement à la majorité. En outre, ces études analysent l’impact de la taille des minorités en comparant les régions dans un seul pays ou des quartiers dans une ville et se focalisent sur l’impact de la ségrégation résidentielle. Ces études tendent à constater de pires situations sur le marché du travail, en termes de salaires, pour les minorités vivant dans les zones les plus ségréguées aux Etats-Unis (Tienda et Lii, 1987), même si certains affirment que la ségrégation a un impact positif sur les salaires une fois la sélection entre zones prise en compte.

L’un des mécanismes qui peut expliquer l’importance de la ségrégation résidentielle sur les écarts de salaires entre groupes ethniques est la qualité des réseaux et les types de personnes avec lesquelles les minorités et la population majoritaire sont susceptibles d’interagir, dans la mesure où ceux-ci jouent un rôle significatif sur le type d’emploi que les gens peuvent trouver. Une récente étude se focalisant sur les Etats-Unis et l’Estonie constate que les écarts de salaires entre groupes ethniques sont plus larges dans les zones où les gens sont plus susceptibles de lier amitié avec des personnes ayant la même origine ethnique (Toomet et alii, 2013). Cependant, (…) cela peut aussi être une question de classes sociales (Longhi et alii, 2012).

Finalement, certaines études focalisées sur les Etats-Unis affirment que la ségrégation en termes de professions peut en partie résulter de la ségrégation résidentielle, si bien qu’elles suggèrent que divers facteurs peuvent contribuer aux écarts de salaires entre groupes ethniques et interagir d’une façon complexe. En outre, il est possible que les différents facteurs puissent ne pas avoir la même importance pour chaque minorité ethnique. Par exemple, pour certaines minorités, le principal problème peut être le manque de qualifications appropriées, tandis que pour d’autres les qualifications peuvent ne pas être un problème et la localisation résidentielle jouer un rôle plus crucial. La politique publique doit donc prendre en compte que la littérature a trouvé d’importantes différences d’une minorité ethnique à l’autre et même au sein de chacune d’entre elles ; les écarts de salaires entre groupes ethniques ainsi que leurs déterminants sont susceptibles de ne pas être les mêmes d’un groupe à l’autre. Par conséquent, adopter une approche unifiée pour réduire les inégalités salariales entre groupes ethniques peut se révéler inapproprié.

Les inégalités entre les minorités ethniques et en leur sein


De nos jours la plupart des pays hébergent des proportions croissantes de minorités ethniques, soit immigrées, soit descendantes d’immigrés, mais la taille de la population minoritaire, l’histoire et l’ampleur des flux d’immigration, ainsi que les politiques d’intégration varient d’un pays à l’autre (Algan et alii, 2010 ; Aeberhardt et alii, 2010). Il n’est par conséquent pas surprenant que les inégalités salariales entre groupes ethniques, même pour les immigrés de deuxième génération, varient d’un pays à l’autre. L’expérience des Afro-américains aux Etats-Unis n’est pas la même que celle des noirs d’origine africaine au Royaume-Uni. De même, en raison des différences dans les relations coloniales, les populations d’origine africaine qui se sont établies au Royaume-Uni sont susceptibles d’être très différentes de celles qui se sont établies en France ou au Portugal.

GRAPHIQUE 1 Ecarts de salaires des hommes immigrés de première et deuxième générations en France relativement aux hommes nés en France de parents français (en 2005-2007, en %)
Algan__inegalites_salaires_selon_origine_ethnique_France_immigres.png
source : Longhi, d'après Algan et alii (2010)

Chose plus importante du point de vue de la politique publique, les écarts salariaux varient d’un groupe à l’autre, et ce même au sein d’un même pays. Alors que certaines minorités, comme les latinos ou Mexicains aux Etats-Unis, connaissent d’importantes pénalités salariales, d’autres, comme les asiatiques, reçoivent souvent des salaires plus élevés que les autochtones blancs. Par exemple, les graphiques 1 et 2 montrent que le différentiel de salaire n’est pas le même d’une minorité ethnique à l’autre pour les hommes en France et en Allemagne. En France (cf. graphique 1), ce sont les Turcs et les Africains qui subissent la plus mauvaise situation, tandis que les immigrés provenant du nord de l’Europe semblent être davantage payés que les autochtones français (Algan et alii, 2010). En Allemagne (cf. graphique 2), ce sont les immigrés venant d’Italie et de Grèce qui connaissent la plus mauvaise situation, tandis que ceux issus d’autres pays de l’UE semblent connaître une bien meilleure situation (Algan et alii, 2010). (…) Au Royaume-Uni, les immigrés blancs de deuxième génération ont globalement la meilleure situation, tandis que les immigrés provenant du Bangladesh et de Pakistan connaissent la pire situation (Algan et alii, 2010). Parmi les diplômés d’universités israéliennes, ce sont ceux provenant d’Ethiopie qui connaissent les plus fortes pénalités salariales, tandis que ceux provenant de l’ancienne Union soviétique connaissent les plus faibles différentiels de salaires (Epstein et alii, 2015).

GRAPHIQUE 2 Ecarts de salaires des hommes immigrés de première et deuxième générations en Allemagne relativement aux hommes nés en Allemagne de parents allemands (en 2005-2006, en %)
Algan__inegalites_salaires_selon_origine_ethnique_Allemagne_immigres.png
source : Longhi, d'après Algan et alii (2010)

Outre les inégalités entre groupes ethniques, il y a aussi d’amples inégalités au sein de chacun d’entre eux. Le genre en offre un bon exemple. La littérature qui se focalise sur les hommes décèle d’amples écarts de salaires selon l’origine ethnique. A l’inverse, la littérature analysant les écarts salariaux entre groupes ethniques parmi les femmes constate qu’en général les femmes appartenant à une minorité ethnique tendent à recevoir la même rémunération (voire même une rémunération supérieure) que les femmes natives blanches. Ce constat se retrouve dans de nombreux pays, notamment le Royaume-Uni, les Etats-Unis et Israël (Algan et alii, 2010 ; Lang et Lehmann, 2012 ; Epstein et alii, 2015 ; Brynin et alii, 2019), mais quelques pays comme la France et l’Allemagne font exception (Algan et alii, 2010). Le fait que les différentiels de salaires en fonction de l’origine ethnique soient plus faibles parmi les femmes peut s’expliquer par une possible auto-sélection : les femmes, en particulier celles qui appartiennent aux minorités ethniques, sont moins susceptibles d’être actives que les hommes et celles qui sont actives sont davantage susceptibles d’avoir des caractéristiques (comme un plus haut niveau d’éducation ou une plus forte motivation) qui accroissent les chances qu’elles reçoivent à un haut salaire. Malheureusement, il y a bien peu d’analyses empiriques susceptibles d’éclairer les raisons pour lesquelles les différentiels de salaires en fonction de l’origine ethnique sont plus faibles parmi les femmes que parmi les hommes.

La plupart des études estiment les différentiels de salaires raciaux spécifiques aux sexes, où les salaires des hommes issus des minorités sont comparés aux salaires des hommes natifs blancs et les salaires des femmes issus des minorités sont comparés aux salaires des femmes natives blanches. Néanmoins, il est aussi intéressant de voir comment les salaires des hommes et des femmes issus des minorités ethniques se comparent aux salaires des hommes natifs. Cela nous permet de mesurer les différentiels de salaires en fonction de l’origine ethnique et de voir comment ils interagissent avec les différentiels de salaires entre les sexes (Brynin et alii, 2019). (…)

Outre les différences entre hommes et femmes, il y a aussi d’importantes différences entre ceux qui sont nés à l’étranger et ceux qui sont nés dans le pays. Bien qu’en général les écarts salariaux entre les groupes ethniques tendent à être plus faibles pour les personnes nées dans le pays, ce n’est pas toujours le cas (pensons par exemple aux hommes d’origine turque en France, cf. graphique 1). De récentes analyses suggèrent aussi que les différentiels de salaires en fonction de l’origine ethnique pourraient être plus amples parmi les travailleurs peu qualifiés et quasiment nuls parmi les travailleurs très qualifiés (Lang et Lehmann, 2012 ; Zwysen et Longhi, 2018) et qu’ils tendraient à varier le long de la distribution salariale et selon le type de salariés. Par exemple, aux Etats-Unis, dans les emplois où la rémunération dépend de la performance, l’écart de salaires entre blancs et noirs est plus élevé aux plus hauts niveaux de salaires, tandis que dans les emplois où la rémunération n’est pas liée à la performance le différentiel est plus faible pour les plus hauts niveaux de salaires (Heywood et Parent, 2012). (…) »

Simonetta Longhi, « Racial wage differentials in developed countries », in IZA, World of Labor, n° 365, octobre 2020. Traduit par Martin Anota

lundi 19 octobre 2020

Pourquoi l'insécurité économique ne suffit pas pour expliquer l'attrait du populisme

« L’essor du populisme a amené à se poser des questions fondamentales pour les démocraties avancées à travers le monde. Peut-être que la plus grosse question est de savoir pourquoi il a émergé. Certaines analyses mettent en avant des explications économiques. Les Américains qui se laissèrent séduire par les discours nationalistes de Donald Trump et les électeurs britanniques qui approuvèrent la sortie de l’Union européenne aurait été frustrés par les destructions d’emplois provoquées par la mondialisation. Et cette anxiété les a rendus vulnérables aux politiciens qui leur promettaient de leur rendre leur puissance économique.

Le politiste Yotam Margalit ne pense pas que ce soit la bonne explication. Il estime que les changements culturels de long terme, comme l’accroissement de la diversité ethnique et l’urbanisation, sont de plus gros facteurs derrière l’attrait populiste. Ces changements ont alimenté les ressentiments parmi certains groupes qui menacent de saper la démocratie libérale. Margalit a récemment parlé avec Chris Fleisher de l’American Economic Association à propos de l’essor du populisme, de l’enchevêtrement des facteurs économiques et culturels à sa source et de la possibilité de faire ou non quelque chose pour y répondre. (…)

Fleisher : Qu’entendez-vous par populisme ?

Margalit : Je dirais que le populisme se caractérise avant tout et essentiellement par sa prétention à représenter la volonté du peuple versus les "autres", et que ces derniers désignent souvent une élite corrompue agissant dans son seul intérêt. Les populistes remettent en cause l’emplacement du pouvoir et l’autorité de l’Etat et affirment que la seule source légitime d’autorité politique et morale est celle qui repose sur le peuple. Les populistes tendent à affirmer que l’essentiel des maux politiques auxquels la nation fait face ont des solutions évidentes et que le bon sens du peuple est le mieux à même à traiter ces maux que les idées des prétendus experts : les responsables élus, les juges ou les scientifiques. Et la raison expliquant pourquoi le bon sens du peuple n’a pas été utilisé, selon les populistes, tient à l’intérêt propre des élites politiques corrompues.

Fleisher : En ce qui concerne les raisons derrière l’essor du populisme, les explications tendent à se regrouper en deux catégories : les premières sont d’ordre économique et les secondes d’ordre culturel. Selon vous, que se passe-t-il ?

Margalit : Il peut être opportun de définir très largement ce qu’est le récit de l’insécurité économique. Dans l’ensemble, les différents universitaires et les différentes études se focalisent sur différents facteurs causaux, mais le récit général est qu’un certain développement (que ce soit la mondialisation, les chocs commerciaux, l’immigration, le changement technologique ou la crise financière) a bouleversé les marchés du travail, généré de fortes perturbations et, par conséquent, provoqué une insécurité économique généralisée. Je pense qu’il y a certainement une part de vérité dans cette vision des choses, mais (…) je pense que ce raisonnement est très incomplet. Je pense que l’explication culturelle est plus proche de la vérité que celle mettant en avant les facteurs économiques (…).

Fleisher : L’une des explications populaires de la victoire de Trump aux présidentielles est qu’il a été capable de casser le "mur bleu" (Blue Wall) dans des Etats comme la Pennsylvanie, le Wisconsin et le Michigan, et que c’est son attrait pour les perdants de la mondialisation qui lui a permis de rafler ces Etats. Et il y a certaines études qui semblent soutenir cette théorie. Vous ne pensez pas que ce soit nécessairement le cas. Qu’est-ce qui, selon vous, explique ce phénomène ?

Margalit : J’ai une petite correction à faire ici. Je pense que les études auxquelles vous vous référez sont en fait correctes et qu’il y a des raisons de penser que le comportement électoral à la marge de certains perdants de la mondialisation, en particulier dans certains "swing States", a contribué à pousser Trump vers le sommet et à la victoire. Mais selon moi (…), nous télescopons deux choses, que je vais qualifier respectivement de portée en termes de résultats et de portée explicative.

La victoire de Trump et le vote du Brexit se sont joués à quelques voix près. Dans le cas du référendum du Brexit, nous parlons d’une marge de moins de 4 points de pourcentage. Dans le cas de Trump et du référendum du Brexit, il y a des analyses qui nous montrent qu’une partie de l’impact de la mondialisation et en particulier l’exposition aux importations chinoises ont déstabilisé certains groupes et contribué à expliquer quelques points de pourcentage des deux scrutins. Dans le cas du Brexit, cela a suffi pour faire gagner le "Leave". J’affirme que la portée en termes de résultats, en l’occurrence la transformation d’un échec en une victoire, est très élevée. Pourtant, le phénomène global que nous voulons expliquer est pourquoi 52 % de l’électorat britannique s’est finalement réveillé le matin du référendum pour aller voter en faveur d’une sortie de l’Union européenne. Le basculement de quelques points de pourcentage ne suffit pas à expliquer pourquoi une grande partie de la population britannique a voté pour le Brexit ou, dans le cas américain, pourquoi une grande partie de la population a voté Trump.

Fleisher : L’immigration est apparue fréquemment dans nombre de ces appels populistes. Pouvez-vous expliquer la position centrale de l’immigration dans de nombreux appels populistes ?

Margalit : L’immigration est réellement importante pour notre sujet ici parce qu’elle est souvent le thème le plus saillant pour les partis et électeurs populistes (…). Je pense que nous devons distinguer entre deux questions très différentes. L’une est de savoir si l’immigration elle-même est impulsée par des facteurs économiques et la seconde est de savoir si l’effet économique de l’immigration, réel ou perçu, est une cause majeure du vote populiste. Si la réponse à la deuxième question est positive, la question est alors de savoir si cela tient à l’effet de l’immigration sur le marché du travail ou bien aux répercussions budgétaires de celle-ci.

Concernant la première question, je pense que les analyses empiriques suggèrent plutôt que l’immigration, en particulier en Occident, est essentiellement impulsée par des forces économiques, en l’occurrence la pauvreté, les amples écarts de salaires, et ainsi de suite. Mais en ce qui concerne la seconde question, les analyses empiriques indiquent clairement que les inquiétudes des électeurs en Occident au regard de l’immigration ont peu à voir avec son impact sur leur situation économique ou leur niveau d’insécurité économique. Donc, je pense que l’immigration est souvent une inquiétude majeure pour les électeurs populistes, mais j’estime que la traiter comme un moteur économique du populisme est trompeur dans la mesure où nous voyons dans les analyses empiriques que les électeurs populistes inquiets à propos de l’immigration ne nourrissent pas vraiment d’inquiétude à propos des effets économiques que celle-ci peut avoir sur leur situation économique.

Fleisher : Pouvez-vous expliquer quels genres de facteurs culturels croyez-vous à la source de cet essor du populisme ?

Margalit : Les changements sociaux de long terme sont cruciaux pour comprendre le ressentiment derrière l’essentiel de l’attrait populiste. L’idée ici est que les changements structuraux et l’élargissement de l’accès à une plus grande éducation, l’urbanisation, l’accroissement de la diversité ethnique, ont mené progressivement à de significatifs changements culturels. Parmi certains segments de la population, (…) ces changements sociétaux et ce qui est perçu comme un abandon des valeurs sociales traditionnelles ont généré un profond sentiment de ressentiment.

Si nous ajoutons à cela une hausse de l’exposition aux influences étrangères comme conséquence de la mondialisation, les effets de l’immigration, cela a davantage exacerbé la sensation d’une menace culturelle et démographique. En combinaison avec ce changement générationnel graduel, nous avons ici des majorités auparavant prédominantes qui ont de plus en plus eu l’impression de voir leur statut social s’éroder et ces segments de l’électorat sont ceux qui sont en définitif vulnérables à la nostalgie populiste pour un certain âge d’or révolu au cours duquel il y avait supposément une homogénéité culturelle et une forte identité nationale et au cours duquel, pensent-ils, les valeurs traditionnelles prévalaient.

Je pense qu’il est important de souligner aussi que ce récit culturel n’écarte pas l’idée que les facteurs économiques aient pu jouer un rôle. Au-delà de l’impact des causes économiques que j’ai précédemment évoquées, que ce soit le commerce international, l’immigration ou l’automatisation, les périodes de difficultés économiques tendent à saper la confiance quant à la compétence des élites et à alimenter la défiance populaire à leur égard. Donc, il est par conséquent très probable que des choses comme la crise financière aient en effet contribué à la vague populiste. Mais étant donné la faible association empirique entre ces mesures de l’insécurité économique et le soutien en faveur du populisme, je pense que nous devrions considérer que la crise financière constitue davantage une sorte d’étincelle qu’une cause profonde du soutien généralisé en faveur du populisme.

Fleisher : Considérez-vous que le populisme constitue une menace pour la démocratie ?

Margalit : Je pense qu’il en constitue une. (…) L’idée que le peuple ait décidé, que la voix du peuple soit ce qui importe et que la voix du peuple n’est souvent qu’une simple majorité sape plusieurs protections dont nous disposons dans une démocratie libérale et qui sont conçues pour protéger les minorités et groupes désavantagés qui ne sont pas toujours une priorité pour la majorité. Nous le voyons dans plusieurs pays où nous avons des hommes forts au pouvoir qui essayent de rallier leur base en alimentant le ressentiment envers certains groupes, certains groupes désavantagés, certaines minorités. Avec ce genre de tentation majoritaire si forte parmi ces populistes, dans ce sens, je pense que c’est réellement une menace pour nos valeurs démocratiques et en particulier pour la protection de divers groupes désavantagés et plusieurs minorités.

Fleisher : Donc, si les racines profondes du populisme ne sont pas économiques, qu’est-ce que les responsables politiques pour faire pour atténuer la demande de partis populistes ?

Margalit : C’est une très bonne question. (…) Je pense qu’il y a un fort attrait pour une focalisation sur les facteurs économiques parce qu’ils sont plus faciles à mesurer et qu’il est attrayant d’avoir quelque chose de facile à mesurer et à quantifier, contrairement aux explications culturelles qui sont plus légères et plus difficiles à mesurer. L’autre facteur est que l’explication économique nous donne une idée de catalogue de réponses politiques qui nous aideraient à contrer cette vague populiste. Certaines des propositions qui ont été mises en avant (comme le renforcement des protections des travailleurs, les efforts pour réduire les inégalités, le revenu de base universel, le renforcement des programmes de formation pour les perdants du commerce et de la mondialisation) sont bonnes, notamment en soi. Je pense par contre que nous devons être très prudents lorsque nous affirmons que ces politiques auront un impact significatif pour contrer le ressentiment populiste.

Certaines des choses sur lesquelles nous devons nous focaliser sont de nature culturelle. Donc, aider à intégrer les immigrés, certains aspects de l’investissement dans les communautés, en particulier dans les communautés qui sont dans les campagnes, et aider à construire certaines de ces zones où nous voyons ce type de ressentiment se manifester et se transformer en un plus fort soutien populiste. Ces choses sont bien plus troubles, mais le fait qu’elles soient plus troubles et difficiles ne signifie pas qu’elles ne sont pas les choses sur lesquelles nous devons nous concentrer. Je pense que le véritable défi est de trouver des façons de comprendre ce sur quoi portent ces griefs culturels et essayer de trouver des façons intelligentes de les apaiser et de les alléger. C’est un dur défi, mais je pense qu’il est nécessaire de s’y attaquer. »

Chris Fleisher, « Populism's rise », in American Economic Association, Research Highlights, 14 octobre 2020. Traduit par Martin Anota



aller plus loin...

« Aux racines du mal. Crises financières et ascension de l’extrême-droite »

« L’austérité et l’ascension du parti nazi »

« Le Brexit, fruit d'une relation pernicieuse entre mondialisation et austérité »

« Immigration et extrême-droite »

« L’insécurité économique explique-t-elle la montée du populisme de droite ? »

« Pourquoi la mondialisation alimente-t-elle le populisme ? »

lundi 12 octobre 2020

Paul Milgrom et Robert Wilson, des Nobel en quête de l’enchère parfaite

Paul_Milgrom_Robert_Wilson_prix_Nobel_2020.png

« Chaque jour, les enchères allouent des valeurs astronomiques entre acheteurs et vendeurs. Les lauréats de cette année, Paul Milgrom et Robert Wilson, ont amélioré la théorie des enchères et inventé de nouveaux formats d’enchères, au bénéfice des vendeurs, des acheteurs et des contribuables à travers le monde.

Les enchères ont une longue histoire. Dans la Rome antique, les prêteurs utilisaient les enchères pour vendre les actifs qu’ils avaient confisqués des emprunteurs qui s’étaient révélés incapables de rembourser leur dette. La plus vieille maison d’enchères au monde, la Stockholms Auktionsverk, a été fondée en 1674, également avec l’objectif de vendre des actifs confisqués.

Aujourd’hui, quand nous entendons le mot "enchère", nous pensons peut-être à des enchères agricoles traditionnelles ou à des ventes d’œuvres d’art, mais il peut aussi s’agir de vendre quelque chose sur internet ou d'acheter un logement via un agent immobilier. Les résultats des enchères sont aussi très importants pour nous, en tant que contribuables et de citoyens. (…) Les prix de l’électricité, qui sont quotidiennement déterminés par les enchères régionales d’électricité, influencent le coût du chauffage de nos logements. La couverture de notre téléphone portable dépend des fréquences radio que les opérateurs téléphoniques ont acquises via des enchères de fréquences. Tous les pays contractent désormais des prêts en vendant des obligations publiques aux enchères. L’objectif de la mise aux enchères des quotas d’émissions par l’Union européenne est d’atténuer le réchauffement climatique.

Donc, les enchères nous affectent tous à différents niveaux. En outre, elles sont devenues de plus en plus fréquentes et de plus en plus compliquées. C’est là où les lauréats de cette année ont produit des contributions majeures. Ils n’ont pas simplement clarifié comment les enchères fonctionnent et pourquoi les enchérisseurs se comportent de telle ou telle façon, mais ils ont aussi utilisé leurs découvertes théoriques pour inventer des formats d’enchères entièrement nouveaux pour la vente de biens et services. Ces nouvelles enchères se sont largement diffusées à travers le monde.

La théorie des enchères


Pour comprendre les contributions des lauréats, nous devons en savoir un peu à propos de la théorie des enchères. Le résultat d'une enchère (…) dépend de trois facteurs. Le premier est les règles de l'enchère, ou format. Les offres sont-elles ouvertes ou fermées ? Combien d'offres les enchérisseurs peuvent-ils faire ? Quel prix paie le gagnant ? leur offre ou la deuxième offre la plus élevée ? Le deuxième facteur tient à l'objet mis aux enchères. A-t-il une valeur différente pour chaque enchérisseur ou valorisent-ils l'objet de la même façon ? Le troisième facteur concerne l'incertitude. Quelle information les différents enchérisseurs ont-ils à propos de la valeur de l'objet ?

En utilisant la théorie des enchères, il est possible d’expliquer comment ces trois facteurs gouvernent le comportement stratégique des enchérisseurs et donc le résultat de l’enchère. La théorie peut aussi montrent comment concevoir une enchère pour créer le plus de valeur possible. Les deux tâches sont particulièrement difficiles quand de multiples objets liés sont mis aux enchères en même temps. Les lauréats du prix en sciences économiques cette année ont rendu la théorie des enchères plus applicables en pratique via la création de formats d’enchères nouveaux, sur mesure.

Différents types d’enchères


Les maisons d’enchères autour du monde vendent habituellement des objets individuels en utilisant les enchères anglaises. Ici, le commissaire-priseur commence avec un prix bas et propose ensuite des prix de plus en plus élevés. Les participants peuvent voir toutes les offres et choisir s’ils veulent placer une offre plus élevée. Quel qu’il soit, celui qui propose l’offre la plus élevée gagne l’enchère et paye le prix de son offre. Mais d’autres enchères ont des règles complètement différentes ; une enchère hollandaise commence avec un prix élevé, qui est ensuite peu à peu réduit jusqu’à ce que l’objet soit vendu.

Les enchères anglaises et hollandaises ont des offres ouvertes, donc tous les participants voient les offres. Dans d’autres types d’enchères, cependant, les offres sont fermées. Dans les marchés publics, par exemple, les enchérisseurs proposent souvent des offres scellées et l'autorité publique choisit le fournisseur qui s’engage à assurer le service au prix le plus faible, tout en respectant les exigences de qualité spécifiques. Dans certaines enchères, le prix final est l’offre la plus élevée (enchères au premier prix), mais dans d’autres formats le gagnant paye la deuxième offre la plus élevée (enchères au deuxième prix).

Quel format d’enchères est le meilleur ? Cela ne dépend pas seulement de son résultat, mais aussi de ce que nous entendons par "meilleur". Les vendeurs privés espèrent surtout obtenir le prix le plus élevé. Les vendeurs publics ont des objectifs plus larges, de façon à ce que les biens soient vendus par l’enchérisseur qui délivre le plus important bénéfice à long terme pour la société dans son ensemble. La quête de la meilleure enchère est un problème épineux qui travaille depuis longtemps les économistes.

La difficulté avec l’analyse des enchères est que la meilleure stratégie d’un enchérisseur dépend de ses croyances quant aux offres des autres participants. Est-ce que certains enchérisseurs croient que l’objet vaut davantage que ne le pensent d’autres ? Est-ce que ces différences de valorisation reflètent le fait que certains enchérisseurs ont une meilleure information à propos des caractéristiques et de la valeur des biens ? Les enchérisseurs peuvent-ils coopérer et manipuler l’enchère afin de maintenir le prix final à un faible niveau ?

Les valeurs privées


Le lauréat en sciences économiques de 1996, William Vickrey, a fondé la théorie des enchères au début des années 1960. Il a analysé un cas spécial, dans lequel les enchérisseurs ont seulement des valeurs privées pour le bien ou service mis aux enchères. Cela signifie que les valeurs des enchérisseurs sont entièrement indépendantes l’une de l’autre. Par exemple, cela peut être une enchère de bienfaisance pour un dîner avec une célébrité (disons un lauréat du Nobel). Le montant que vous seriez prêt à payer est subjectif : votre propre valorisation n’est pas affectée par la valorisation du dîner qu’en ont les autres enchérisseurs. Donc comment devriez-vous enchérir dans un tel type d’enchère ? Vous ne devez pas enchérir plus que la valeur que le dîner a à vos yeux. Mais devez-vous enchérir moins, pour peut-être obtenir le dîner à un prix inférieur ? Vickrey a montré que les meilleurs formats d’enchères connus (comme les enchères anglaises et hollandaises) donnent le même revenu attendu pour le vendeur, à condition que tous les enchérisseurs soient rationnels et neutres au risque.

Les valeurs communes


Les valeurs entièrement privées constituent un cas extrême. La plupart des objets d’enchères (comme les titres, les droits de propriété et d’extraction) ont une considérable valeur commune, ce qui signifie qu’une partie de la valeur est égale à tous les enchérisseurs potentiels. En pratique, les enchérisseurs ont aussi différents montants d’information privée à propos des propriétés de l’objet.

Prenons un exemple concret. Imaginons que vous soyez un diamantaire et que vous, tout comme les autres diamantaires, considériez une offre sur un diamant brut, donc que vous pourriez produire des diamants taillés et les vendre. Votre consentement à payer dépend seulement de la valeur de revente des diamants taillés qui, elle-même, dépend de leur nombre et de leur qualité. Les différents diamantaires ont différentes opinions à propos de cette valeur commune, en fonction de leur expertise, de leur expérience et du temps qu’ils ont eu pour examiner le diamant. Vous pourriez mieux estimer la valeur si vous aviez accès aux estimations des autres diamantaires, mais chaque diamantaire préfère garder ses informations secrètes.

Les enchérisseurs dans les enchères avec valeurs communes courent le risque que les autres enchérisseurs aient de meilleures informations à propos de la vraie valeur. Cela mène au phénomène bien connu des offres basses en enchères réelles, connu sous le nom de malédiction du vainqueur. Imaginons que vous gagniez l’enchère du diamant brut. Cela signifie que les autres enchérisseurs valorisent moins le diamant que vous ne le valorisez, si bien que vous avez très certainement réalisé une perte lors de la transaction.

Paul_Milgrom_Robert_Wilson_encheres_malediction_du_vainqueur_Nobel.png

Robert Wilson a été le premier à créer un cadre pour analyser les enchères avec valeurs communes et à décrire comment les enchérisseurs se comportent en de telles circonstances. Dans trois articles classiques publiés lors des années 1960 et 1970, il décrit la stratégie d’enchère optimale pour une enchère au premier prix quand la vraie valeur est incertaine. Les participants vont proposer des offres plus faibles que leur meilleure estimation de la valeur, pour éviter de faire une mauvaise affaire et donc être touché par la malédiction du vainqueur. Son analyse montre aussi qu’avec une plus grande incertitude, les enchérisseurs vont être plus prudents et le prix final sera plus faible. Finalement, Wilson montre que les problèmes provoqués par la malédiction du vainqueur sont même accrus quand certains enchérisseurs ont de meilleures informations que d’autres. Ceux qui ont un désavantage informationnel vont alors proposer des offres encore plus basses ou complètement s’abstenir de participer à l’enchère.

Les valeurs à la fois privées et communes


Dans la plupart des enchères, les enchérisseurs ont des valeurs à la fois privées et communes. Supposons que vous pensez enchérir dans une enchère pour un appartement ou une maison ; votre consentement à payer dépend alors de votre valeur privée (combien vous appréciez son état, son plan de sol et sa localisation) et de votre estimation de la valeur commune (combien vous pensez récupérer en vendant le logement dans le futur). Un fournisseur d’énergie qui enchérit sur le droit d’extraire du gaz naturel s’inquiète à propos de la taille du réservoir de gaz (une valeur commune) et du coût d’extraction du gaz (une valeur privée, comme le coût dépend de la technologie disponible à la société). Une banque qui enchérit pour des obligations publiques considère le futur taux d’intérêt de marché (une valeur commune) et le nombre de ses clients qui veulent acheter des obligations (une valeur privée). Analyser les offres dans des enchères avec des valeurs privées et communes se révèle être un problème encore plus épineux que les cas spéciaux analysés par Vickrey et Wilson. La personne qui a finalement résolu ce problème a été Paul Milgrom, dans une poignée d’articles publiés autour de 1980.

L’analyse de Milgrom (en partie avec Robert Weber) inclut de nouvelles intuitions importantes à propos des enchères. L’une de ces inquiétudes est de savoir dans quelle mesure différents formats d’enchères permettent de traiter le problème de la malédiction du vainqueur. Dans une enchère anglaise, le commissaire-priseur commence avec un faible prix et le relève. Les enchérisseurs qui observent le prix auquel d’autres enchérisseurs quittent l’enchère obtiennent ainsi des informations à propos de leurs valorisations ; comme les enchérisseurs restants ont alors plus d’informations qu’au départ de l’enchère, ils sont moins enclins à enchérir sous leur valeur estimée. D’un autre côté, une enchère hollandaise, où le commissaire-priseur commence avec un prix élevé et le réduit jusqu’à ce que quelqu’un désire acheter l’objet, ne génère pas de nouvelles informations. Le problème avec la malédiction du vainqueur est donc plus grand dans les enchères hollandaises que dans les enchères anglaises, ce qui se traduit par de plus faibles prix finaux.

Ce résultat particulier reflète un principe général : un format d’enchère fournit plus de recettes si le lien entre les offres et l’information privée des enchérisseurs est renforcé. Par conséquent, le vendeur a un intérêt à fournir aux participants autant d’informations que possible à propos de la valeur de l’objet avant que les enchères commencent. Par exemple, le vendeur d’un logement peut anticiper un prix final plus élevé si les enchérisseurs ont accès à une estimation d’expert (indépendant) avant le début de l’enchère.

Les meilleures enchères en pratique


Milgrom et Wilson se sont non seulement dévoués à la théorie fondamentale des enchères. Ils ont aussi inventé de nouveaux meilleurs formats pour les situations complexes dans lesquelles les formations d’enchères existantes ne peuvent être utilisées. Leur contribution la plus connue est l’enchère qu’ils conçurent la première fois que les autorités américaines vendirent les fréquences radio aux opérateurs télécom.

Les fréquences radio qui permettent la communication sans fil (les appels mobiles, les paiements sur internet ou les vidéoconférences) sont des ressources limitées de grande valeur pour les consommateurs, les entreprises et la société. Ces fréquences sont possédées par le gouvernement, mais les acteurs privés peuvent souvent les utiliser plus efficacement. Les autorités ont donc souvent cherché à allouer l’accès de ces bandes de fréquences à ces acteurs. Ce fut initialement fait via un processus connu sous le nom de concours de beauté, dans lequel les sociétés ont à fournir des arguments justifiant pourquoi elles doivent recevoir une licence. Ce processus a amené les sociétés de télécommunications et de médias à dépenser de larges montants d’argent en lobbying. Les recettes générées par le processus furent cependant limitées.

Dans les années 1990, lorsque le marché de la téléphonie mobile se développait, les autorités responsables aux Etats-Unis, la Federal Communications Commission (FCC), prirent conscience que les concours de beauté n’étaient pas tenables. Le nombre de compagnies de mobiles s’est rapidement accru et la FCC s’est retrouvée submergée de demandes d’accès aux fréquences radio. Après avoir subi des pressions de la FCC, le Congrès américain permit l’usage de loteries pour allouer les bandes de fréquences. Le concours de beauté était donc remplacé par une allocation entièrement aléatoire de licences, qui ne générèrent pourtant qu’un revenu limité pour le gouvernement.

Cependant, les opérateurs mobiles n’étaient pas heureux. Les loteries étaient menées à un niveau local, donc les opérateurs mobiles nationaux n’obtenaient généralement que des réseaux discontinus avec différentes bandes de fréquences dans différentes régions. Les opérateurs essayèrent alors d’acheter et de vendre des fréquences entre eux, menant à l’émergence d’un large marché de l'occasion pour les licences. Entretemps, la dette nationale croissante des Etats-Unis rendit cela de plus en plus politiquement difficile de continuer de distribuer des licences presque gratuitement. La valeur de marché des licences s’élevait à plusieurs milliards de dollars, de l’argent qui finissait dans les mains de spéculateurs de fréquences à la place de bons du Trésor américain (une perte de recettes qui serait en définitive supportée par les contribuables). Finalement, en 1993, il fut décidé que les bandes de fréquences seraient distribuées en utilisant les enchères.

De nouveaux formats d’enchères


Maintenant, un nouveau problème se pose : comment concevoir une enchère qui atteigne l’allocation efficient des bandes de fréquences ratio, tout en bénéficiant un maximum aux contribuables ? Ce problème se révèle être très difficile à résoudre, puisqu’une bande de fréquence a à la fois des composantes de valeur privée et de valeur commune. En outre, la valeur d’une bande de fréquence spécifique dans une région spécifique dépend des autres bandes de fréquences détenues par un opérateur spécifique.

Considérons un opérateur qui cherche à construire un réseau mobile national. Disons qu’un régulateur suédois mette aux enchères des bandes de fréquence une par une, en commençant par la Laponie au nord pour ensuite s’enfoncer peu à peu vers le sud jusqu’à la province de la Scanie. A présent, la valeur de la licence de Laponie dépend de la possibilité pour l’opérateur de réussir à acheter des licences lors des enchères suivantes jusqu’à la Scanie et du prix de ces achats. L’opérateur ne connait pas le résultat des enchères futures, donc il est presque impossible de savoir combien il devra payer pour acquérir la licence. En outre, des spéculateurs peuvent essayer d’acheter la bande de fréquence exacte dont l’opérateur a besoin à la Scanie, afin de la lui vendre à un prix élevé sur le marché de l’occasion.

Cet exemple suédois illustre un problème général. Pour le contourner, la première enchère étasunienne devait allouer toutes les zones géographiques du sceptre radio en même temps. Elle devait aussi gérer de nombreux enchérisseurs. Pour surmonter ces problèmes, Milgrom et Wilson (en partie avec Preston McAfee), inventèrent un format d’enchères entièrement nouveau, l’enchère à plusieurs tours simultanés (simultaneous multiple round auction, SMRA). Cette enchère offre tous les objets (les bandes de fréquences radio dans différentes zones géographiques) simultanément. En commençant avec les prix les plus faibles et en laissant la possibilité d’offres répétées, l’enchère réduit les problèmes provoqués par l’incertitude et la malédiction du vainqueur. Quand la FCC utilisa pour la première fois une SMRA, en juillet 1994, elle vendit 10 licences dans 47 tours d’enchères pour un total de 617 millions de dollars, des objets que le gouvernement américain avait précédemment alloués quasiment gratuitement. La première enchère du spectre utilisant une SMRA a généralement été considérée comme un grand succès. Plusieurs pays (notamment la Finlande, l’Inde, le Canada, la Norvège, la Pologne, l’Espagne, le Royaume-Uni, la Suède et l’Allemagne) ont adopté le même format pour leurs enchères du spectre. Les enchères de la FCC, utilisant ce format, ont rapporté plus de 120 milliards de dollars entre 1994 et 2014 et, globalement, ce mécanisme a généré plus de 200 milliards de dollars des ventes du spectre. Le format SMRA a aussi été utilisé dans d’autres contextes, notamment pour les ventes d’électricité et de gaz naturel.

Les théoriciens des enchères (souvent en travaillant avec des informaticiens, des mathématiciens et des spécialistes du comportement) ont raffiné les nouveaux formats d’enchères. Ils les ont aussi adaptés pour réduire les opportunités de manipulation et de coopération entre enchérisseurs. Milgrom est l’un des architectes d’une enchère modifiée (la combinatorial clock auction) dans laquelle les opérateurs peuvent enchérir sur des « paquets » de fréquences, plutôt que sur des licences individuelles. Ce type d’enchères requiert une forte puissance de calcul, comme le nombre de paquets possibles augmente très rapidement avec le nombre de fréquences en vente. Milgrom est aussi un développeur de premier plan pour un nouveau format avec deux tours (l’incentive auction). Au premier tour, vous achetez les fréquences radio des détenteurs actuels de fréquences. Au second tour, vous vendez ces fréquences à d’autres acteurs qui peuvent les gérer plus efficacement. (…) »

Académie royale des sciences de Suède, « The quest for the perfect auction », Popular science background, 12 octobre 2020. Traduit par Martin Anota

dimanche 11 octobre 2020

Ce que le sport nous enseigne à propos du marché du travail

« (…) Les données relatives au sport permettent aux chercheurs de mesurer des facteurs qui sont typiquement inobservés, allant de la productivité d’un travailleur et aux détails des contrats à la fonction de production d’une entreprise. De plus, des phénomènes qui ont caractérisé depuis longtemps les marchés du travail du sport (les inégalités de rémunérations extrêmes entre les travailleurs faisant le même travail, la rémunération conditionnée à la performance, la surveillance de l’effort) ont souvent émergé sur le reste du marché du travail quelques décennies après, si bien qu’une analyse des données du sport tel qu’il est actuellement joué pourrait donner un aperçu du marché du travail futur. Avec les progrès réalisés dans le domaine des technologies portables, la productivité de nombreux travailleurs pourra bientôt être facilement observée comme dans le cas des joueurs de baseball ou des footballeurs aujourd’hui. Et alors que la "gig economy" est perçue comme un phénomène récent, elle n’est pas sans rappeler à la façon par laquelle des milliers de joueurs de tennis et de boxeurs ont toujours gagné leur vie. En outre, bien que les sports ne soient pas représentatifs du marché du travail dans son ensemble, les sportifs sont motivés par les mêmes facteurs qui motivent tous les travailleurs et ils sont sujets aux mêmes biais et contraintes comportementaux, notamment la discrimination et une tentation de tricher.

GRAPHIQUE 1 Rémunérations dans le monde du sport aux Etats-Unis en 2010 : faibles en moyenne, mais très inégales

Kerry_Papps_IZA__professions_Etats-Unis_inegalites_remunerations_coefficient_de_Gini_indice_sport.png

Comment la productivité affecte-t-elle la rémunération ?


La relation entre la rémunération d’un travailleur et son niveau de productivité dépend de la nature de la concurrence sur le marché du travail. Sur un marché du travail parfaitement concurrentiel, la théorie économique prédit que le salaire d’équilibre sera égal à la productivité marginale des travailleurs, c’est-à-dire la valeur de ce qui est produit par le dernier travailleur embauché au cours d’une période de temps donnée. Cependant, quand il y a un seul demandeur de travail sur le marché, c’est-à-dire un "monopsone", le salaire que les travailleurs reçoivent sera inférieur à leur productivité marginale.

Les économistes ont depuis longtemps cherché à savoir si ces prédictions étaient vérifiées en étudiant le marché du travail dans la Ligue majeure de baseball. Parmi les sports, le baseball s’est révélé être un cadre idéal pour comparer la rémunération et la productivité pour deux raisons. Premièrement, il est facile de mesure la contribution d’un joueur de baseball pris individuellement à la production de l’équipe (et donc le produit marginal du joueur) puisque chaque frappeur ou lanceur réalise ses tâches essentiellement seul. Deuxièmement, il y a eu de profonds changements dans l’organisation du marché du travail dans la Ligue majeure de baseball des Etats-Unis au cours du temps, ce qui permet aux chercheurs de tester l’importance du pouvoir de négociation sur la relation entre la rémunération et la productivité.

Pendant près d’un siècle, jusqu’aux années 1970, les équipes de baseball étaient essentiellement monopolistes. Les joueurs signaient des contrats d’un an et chaque joueur avait une clause dans son contrat lui imposant de ne pas signer avec une autre équipe. Avec cette clause de réserve, les équipes pouvaient proposer des offres "à prendre ou à laisser" à leurs joueurs. Cependant, après une série de litiges individuels et de contestations judiciaires, le système de clause de réserve a été progressivement démantelé entre 1973 et 1977. Depuis 1977, les joueurs ont été rattachés à leur équipe originelle pour leurs six premières années dans la ligue majeure, comme dans le cadre de la clause de réserve. Cependant, une fois ces six ans de service révolus, les joueurs pouvaient désormais devenir des "joueurs disponibles" (free agents), ce qui leur permettait de jouer avec n’importe quelle équipe. En outre, les joueurs qui avaient passé plus de trois ans de services dans la ligue majeure étaient éligibles à l’arbitrage salarial. Avec ce dernier, quand un joueur et une équipe ne parvenaient à s’accorder sur un contrat, l’un des deux partis pouvait présenter le désaccord à un arbitre indépendant, qui choisissait entre les offres faites par le joueur et par l’équipe et dont la décision était contraignante. L’introduction de l’arbitrage salarial et des joueurs disponibles s’est traduite par une explosion des salaires dans la ligue majeure : le salaire moyen a été multiplié par dix entre 1977 et 2010.

Parce que la réussite individuelle et la réussite d’une équipe peuvent toutes deux être observées dans le baseball, les chercheurs ont estimé la productivité marginale des joueurs en deux étapes. Tout d’abord, ils ont calculé quelle est la contribution d’un jour au score d’une équipe, puis ils ont déterminé dans quelle mesure le score d’une équipe affecte son revenu. Une étude des salaires de la ligue majeure en 1968-1969 a constaté que les joueurs étaient payés pour un tiers de leur productivité marginale (Scully, 1974). Cependant, parmi le premier groupe de joueurs disponibles en 1977, les salaires étaient substantiellement plus proches de la productivité marginale, en particulier pour les lanceurs.

Comme le montre le graphique 2, le retrait de la clause de réserve en 1977 a aussi brutalement accru les inégalités salariales entre joueurs. Il y a un salaire minimum que les équipes paient dans le cadre de leur accord avec l’association des joueurs. Il est régulièrement versé aux joueurs qui n’ont pas atteint l’éligibilité à l’arbitrage salarial. Jusqu’en 1976, le ratio salaire moyen sur salaire minimum était à peu près similaire au ratio rapportant le salaire horaire moyen du secteur privé américain au salaire minimum fédéral. Mais le salaire minimum du baseball a beau avoir été régulièrement relevé ces dernières décennies, il a augmenté bien moins vite que le salaire moyen. En comparaison, le ratio rapportant le salaire horaire moyen du secteur privé américain au salaire minimum fédéral a augmenté bien plus lentement au cours des cinq dernières décennies.

GRAPHIQUE 2 Ratio salaire moyen sur salaire minimum

Kerry_Papps_IZA_ratio_salaire_moyen_salaire_minimum_Etats-Unis_baseball.png

Bien que la persistance d’un élément de pouvoir monopoliste rende le baseball singulier par rapport au reste du marché du travail américain, le système hybride donne aux chercheurs l’opportunité de tester comment le pouvoir de négociation affecte les rémunérations. Par exemple, les analyses empiriques suggèrent que les joueurs reçoivent des hausses de rémunérations au cours de leur carrière qui ne dépendent pas des gains de productivité (Blass, 1992). Le graphique 3 montre comment la rémunération moyenne varie avec les années d’expérience dans les ligues majeures et compare cela avec (…) une statistique qui capture la valeur d’un joueur pour son équipe. Bien que les hausses observées de la rémunération soient surévaluées dans la mesure où seuls les meilleurs joueurs sont retenus chaque année, cela permet une comparaison de rémunération et de la productivité parmi les joueurs à chaque étape de leur carrière. Avant que la clause de réserve ne soit retirée, la rémunération et la productivité progressaient au même rythme, mais ensuite, jusqu’en 2010, la rémunération a augmenté plus vite avec l’ancienneté qu’avec la productivité. Ce n’est pas cohérent avec un marché dans lequel les joueurs sont rémunérés avec des salaires « spot » égaux à leur produit marginal à chaque période. Cela rapport plutôt les modèles de contrats implicites, où les plus vieux joueurs sont relativement surrémunérés de façon à motiver les joueurs à faire plus d’efforts au début de leur carrière. Le calendrier des revalorisations salariales coïncide avec les hausses dans le pouvoir de négociation d’un joueur. Les joueurs reçoivent des salaires significativement plus élevés une fois qu’ils deviennent éligibles à l’arbitrage salarial (trois ans après), sans changement de leurs statistiques de performance. De plus, ils signent des contrats de bien plus long terme une fois qu’ils deviennent éligibles pour devenir joueurs disponibles (six ans après). En comparaison à la relation entre rémunération et expérience vue dans le graphique 3, les travailleurs du marché du travail américain reçoivent en moyenne une plus faible hausse de rémunération pour chaque année passée embauchés.

GRAPHIQUE 3 Profils du salaire et de la performance en fonction de l’expérience dans la Ligue majeure de baseball en 1977 et en 2010 (en indices, base 1 pour l'année sans expérience)

Kerry_Papps_IZA__salaire_et_performance_selon_l__experience_baseball_Ligue_majeure.png

Globalement, un demi-siècle d’études empiriques portant sur le marché du travail du baseball indique que lorsque les travailleurs ont un pouvoir de négociation élevé, les entreprises préfèrent offrir à leurs meilleurs salariés des contrats de plus long terme et les structurer de façon à ce que la rémunération augmente au cours du temps plus vite que ne le fait la productivité.

Comment la rémunération affecte-t-elle la productivité ?


La structure de la rémunération dans une entreprise peut influencer la productivité d’un travailleur en altérant les incitations à l’effort. Les "tournois" sont souvent utilisés pour déterminer les promotions aux postes les plus élevés dans la hiérarchie des grandes organisations. Ils peuvent être ouverts (…) ou le résultat de possibilités de promotions relativement réduites (…). Le principe est que si l’écart de rémunération entre le premier et le deuxième dans un tournoi est particulièrement large, tous les concurrents vont être incités à travailler aussi dur que possible. Ici aussi, les sports permettent d’examiner quel effet la structure de rémunération exerce sur la performance en examinant les résultats des tournois (effectifs) qui sont communs dans plusieurs sports individuels.

Le golf est le sport idéal pour examiner les effets sur l’effort parce qu’il n’implique pas de confrontation immédiate entre joueurs, contrairement au tennis et à la plupart des autres sports individuels, où le résultat d’un match est déterminé par la performance des deux concurrents. En effet, le score de chaque golfeur reflète sa seule performance. La plupart des tournois de golf distribuent des récompenses pécuniaires plus ou moins de la même façon, avec une fraction similaire de la "cagnotte" totale allant au gagnant, au deuxième, etc. Cependant, la taille totale de la cagnotte varie fortement d’un tournoi à l’autre. Cela suggère qu’une plus large cagnotte peut inciter à davantage d’efforts, mais que cela doit être particulièrement prononcé pour ceux qui sont vers le sommet du classement. Une étude des scores de la Professional Golf Association en 1984 a constaté que cela était effectivement le cas, avec une hausse de 100.000 dollars dans la cagnotte d’un tournoi menant à une amélioration de 1,1 coup dans le score d’un joueur (Ehrenberg et Bognanno, 1990). Cet effet se concentre dans le dernier tour d’un tournoi et dépend du montant qui est en jeu pour un joueur donné, en fonction de sa performance antérieure dans le tournoi. Des résultats similaires ont été trouvés dans les études empiriques portant sur le tennis, un sport où les meilleurs joueurs font mieux dans les tournois les plus lucratifs et en points dans un match quand l’enjeu est le plus élevé. Inversement, il y a certaines preuves empiriques suggérant que dans le football les joueurs "s’étouffent" lorsqu’ils sont sous pression et réalisent de plus mauvaises performances lorsque les enjeux sont les plus élevés.

La productivité dépend-elle des personnes avec lesquelles on travaille ?


Les économistes ont aussi utilisé les données de performances tirées des sports professionnels pour examiner si la productivité d’une personne est influencée par la qualité de ses collègues. De tels effets de débordement peuvent exister parce que les coéquipiers se transmettent des compétences, sont poussés ou encouragés à travailler plus dur lorsqu’ils travaillent aux côtés de pairs plus productifs ou font face à une incitation financière à faire plus d’efforts lorsque leurs coéquipiers réalisent de bonnes performances.

Dans les tournois de la Professional Golfers’ Association, les joueurs sont aléatoirement assignés à un partenaire de jeu, contrairement à la plupart des cadres que les économistes ont étudiés. Puisque les partenaires de jeu peuvent s’observer les uns les autres durant un tournoi, ils ont l’opportunité d’apprendre de l’autre ou d’être motivé par l’autre. Cependant, les analyses empiriques suggèrent que la qualité du partenaire d’un joueur ne fait pas de différence pour leur score global. Néanmoins, la présence d’une superstar (à savoir Tiger Woods) semble réduire les performances des autres joueurs lors des tournois.

Bien sûr, le golf est un sport individuel, ce qui signifie que les effets de débordement ne peuvent être reliés à la nature de la fonction de production. D’autres études se sont focalisées sur le baseball et le basket, où les joueurs doivent interagir efficacement de façon à ce que leur équipe gagne. Cela permet de tester si les effets de débordement sont générés par une maximisation du revenu de la part d’individus, plutôt que des facteurs comportementaux. La théorie implique que le sens de tels effets de débordement dépend de la complémentarité ou substituabilité entre individus dans la fonction de production. Si les individus sont complémentaires, des effets de débordement positifs peuvent émerger, parce que les individus peuvent obtenir une plus grande rémunération de leur performance lorsque leurs coéquipiers réussissent. Cependant, si les individus sont substituables entre eux, des effets de débordement négatifs peuvent dominer, parce que les individus ont une incitation à se comporter en passager clandestin lorsqu’ils ont des collègues plus capables.

Les joueurs du baseball sont répartis entre frappeurs (hitters), dont le boulot est de marquer des points, et les lanceurs (pitchers), dont le boulot consister à empêcher l’équipe adverse de marquer des points. Dans une partie, les lanceurs et les frappeurs peuvent être vus comme substituts l’un pour l’autre, parce qu’une équipe peut gagner le jeu, soit en gagnant un maximum de points, soit en empêchant l’équipe adverse d’engranger des points. Cependant, les frappeurs sont complémentaires aux autres frappeurs et les lanceurs sont complémentaires aux autres lanceurs, parce qu’ils doivent travailler ensemble pour gagner des points ou empêcher l’équipe adverse de gagner des points, respectivement. Les résultats suggèrent que les frappeurs réalisent de meilleures performances dans les saisons au cours desquelles ils jouent avec de meilleurs lanceurs, mais ne sont pas affectés par les autres frappeurs. En réalité, les frappeurs peuvent être vus comme à la fois comme substituts et complémentaires l’un pour l’autre à différents degrés, en fonction de la façon par laquelle ils frappent et la nature d’une partie. Les données sur les frappes individuelles lors des parties de baseball indiquent que les frappeurs sont davantage susceptibles de réussir leur tâche si par ce biais ils augmentent les chances que l’équipe gagne les matchs aléatoires de fin de saison, mais bien moins si l’équipe a déjà une forte probabilité de les réussir (Papps et Bryson, 2019). Un frappeur peut influencer ses coéquipiers par l’un ou l’autre de ces canaux, mais ils les compensent en moyenne, si bien que la taille globale de l’effet de débordement est très faible.

En général, la productivité de joueurs individuels est plus difficile à mesurer dans des sports comme le basket et le football, où les joueurs interagissent de façon déstructurée. Cependant, les données sur chaque occasion au cours de laquelle un joueur tient une balle durant les partis de basket à la NBA indique que les effets de débordement sont une composante importante de la production d’une équipe (Arcidiacono et alii, 2017). Malgré cela, la rémunération des joueurs tend à être principalement déterminée par leurs propres niveaux de productivité, sans prise en compte de l’influence qu’ils ont sur les niveaux de performance des autres joueurs.

Qu’importe leur origine, l’existence d’effets de débordement entre coéquipiers a des implications pour les entraîneurs lorsqu’ils forment les équipes. Si les meilleurs joueurs enseignent des compétences aux autres joueurs, les motivent ou font pression sur eux, consacrer une grande proportion d’un budget salarial fixe sur un unique joueur star peut rapporter de meilleurs résultats pour l’équipe. Cependant, l’inverse peut aussi être vrai, si les joueurs stars sont démotivés à l’idée de jouer avec des coéquipiers moins efficaces. Globalement, il y a des preuves empiriques allant dans le sens d’un niveau "optimal" d’inégalité de capacités dans une équipe. En analysant la performance des équipes de la Ligue majeure de baseball au cours de huit décennies, les études empiriques suggèrent que les équipes gagnent la plupart des jeux quand l’écart-type de la performance entre frappeurs (…) correspond à 6,2 % de la moyenne des performances des frappeurs (Papps et alii, 2011). La plupart des équipes présentent des niveaux de dispersion qui sont plus étalés que cet optimum, ce qui suggère qu’elles gagneraient à ce que la sélection de joueurs soit plus homogène.

Qu’est-ce qui fait un bon chef ?


Les gens peuvent influencés non seulement par leurs pairs, mais également par leurs supérieurs. On considère habituellement que ce qui fait un bon dirigeant est une question hautement subjective. Cependant, les données du sport ont permis aux économistes d’analyser systématiquement les déterminants des réussites managériales. Dans le baseball, les dirigeants avec plus d’expérience et des pourcentages de victoires passées plus élevés gagnent davantage de jeux, lorsque l’on prend en compte la qualité des joueurs de l’équipe. De plus, les joueurs tendent à réaliser de meilleures performances lorsqu’ils ont un dirigeant de meilleure qualité.

Il est aussi possible d’utiliser les sports professionnels pour examiner si des travailleurs à forte capacité font de bons dirigeants. Dans plusieurs organisations, les entraîneurs sont promus de l’intérieur, en fonction de leurs performances au "niveau des ateliers". En utilisant les données de la NBA, une étude a constaté une corrélation entre la capacité d’une personne comme joueur et sa réussite ultérieure comme entraîneur plus tard dans sa vie (Goodall et alii, 2007). Ces effets semblent être assez larges. Par exemple, avoir un entraîneur ayant cinq ans d’expérience de jeu (plutôt qu’aucune expérience) fait gagner six places à l’équipe dans le classement de la ligue.

Quelle est l’ampleur de la discrimination entre joueurs ?


Le travail séminal de Gary Becker sur l’économie de la discrimination suggère que la discrimination de la part des entreprises devrait être éliminée au cours du temps, dans la mesure où l’entrée d’employeurs non discriminateurs évince du marché les employeurs discriminateurs. Les données du sport fournissent un cadre idéal pour étudier l’ampleur de la discrimination sur le marché du travail, puisque les chercheurs peuvent tester si des joueurs à la même productivité, mais ayant des origines ethniques différentes, ont les mêmes chances d’être embauchés ou, s’ils sont embauchés, le sont à des salaires différents. Ils peuvent aussi voir la question plus subtile quant à savoir si la discrimination de la part de ceux qui appliquent les règles peut rendre les joueurs de certains groupes ethniques moins productifs qu’ils ne l’auraient été sinon.

En 1945, Jackie Robinson a signé avec les Brooklyn Dodgers, franchissant la "ligne de couleur" de la Ligue majeure de baseball. Cependant, le processus de déségrégation a été graduel : la dernière équipe à avoir signé un joueur noir a été le Boston Red Sox en 1959. Les joueurs noirs étaient considérablement moins chers que les joueurs blancs : en 1947, les joueurs noirs capables d’aller directement aux ligues majeures depuis les ligues noires étaient souvent payés entre 1.000 et 5.000 dollars, alors que le coût total d’exploitation d’un joueur blanc était probablement supérieur de 100.000 dollars. De plus, les joueurs noirs qui étaient embauchés avaient de meilleures performances moyennes que les joueurs blancs. Chaque joueur noir additionnel qui était embauché était estimé rapporter deux victoires supplémentaires (sur 154 parties) par an. Etant donné le clair avantage compétitif de la signature de joueurs noirs, le fait qu’il fallut 14 ans pour pleinement déségréguer les ligues majeures jette le doute sur la théorie de la discrimination des employeurs de Backer. Cette conclusion est renforcée par les analyses empiriques suggérant que ce fut les équipes qui étaient déjà en réussite qui intégrèrent en premier des joueurs noirs (Goff et alii, 2002). Le fait que les clubs disposent d’un pouvoir de monopole peut contribuer à expliquer pourquoi ils étaient capables de poursuivre leurs pratiques discriminatrices aussi longtemps.

L’érosion des pouvoirs monopolistes des équipes de baseball dans les années 1970 semble avoir réduit l’ampleur de la discrimination salariale. En 1969, les joueurs non blancs gagnaient significativement moins que les joueurs blancs ayant des performances passées et expérience similaires (Scully, 1974). En 1978-1980, il n’y avait plus de différence significative de salaires entre blancs et non-blancs de capacités égales, tandis que les différences salariales demeuraient parmi ceux qui n’étaient pas éligibles pour devenir joueurs disponibles. A l’inverse des données empiriques en ce qui concerne la déségrégation, ces constats sont cohérents avec les prédictions théoriques de Becker et suggèrent que la concurrence sur le marché du travail peut aider les groupes discriminés.

Les analyses empiriques suggèrent aussi indirectement que la discrimination existe dans la ligue de football anglaise, dans la mesure où les clubs avec une proportion supérieure à la moyenne de joueurs noirs réalisent de meilleures performances que les clubs ayant une proportion de joueurs noirs inférieure à la moyenne, après avoir contrôlé leur masse salariale totale (Szymanski et alii, 2000).

La discrimination peut aussi se manifester sous al forme de traitements inégaux des membres d’une origine ethnique donnée sur leur lieu de travail. Les règles de différents sports ont permis aux économistes de tester si c’était le cas. Dans la NBA, les arbitres doivent sanctionner les fautes des joueurs ne respectant pas les règles du sport. Malgré le fait que les matchs soient regardés par des millions de fans, les arbitres semblent traiter inégalement les joueurs, en fonction de leur origine ethnique. Une étude des fautes commises dans les parties jouées entre 1991 et 2004 a trouvé que les arbitres noirs étaient significativement plus enclins à sanctionner les fautes commises par les joueurs blancs et les arbitres blancs à davantage sanctionner celles des joueurs noirs (Price et Wolfers, 2010). Après que ces constats aient reçu une grande attention des médias, une étude ultérieure à trouvé que la prévalence d’un tel comportement s’est réduite. Des phénomènes similaires ont aussi été décelés dans le cas du baseball (…) (Parsons et alii, 2011). (...)

Qu’est-ce qui explique les comportements non éthiques sur le lieu de travail ?


Les données du sport ont aussi permis d’examiner ce qui provoque les pratiques injustes et la corruption parmi les salariés. Le modèle économique du crime développé par Gary Becker et d’autres pose que les individus sont davantage susceptibles de s’engager dans des activités illégales lorsque les gains de cette activité sont larges, la probabilité d’être attrapé faible et la punition faible. Cependant, cela suppose un niveau de rationalité qui n’est pas réaliste dans de nombreux cas. L’examen du modèle de Becker a été freiné par la difficulté de calculer les coûts et bénéfices attendus d’un acte criminel. A nouveau, les sports offrent des avantages en termes de mesure : en comparaison avec presque tous les autres cadres, il est possible de mesurer plus précisément ce qu’une personne spécifique tire comme gain d’un "crime", ce qu’elle sait à cet instant-là et quelle est la probabilité que son "crime" soit détecté.

Le basket universitaire aux Etats-Unis fournit un cadre utile pour examiner si l’incidence des fautes commises durant une partie change en réponse à la probabilité que ce comportement soit détecté. En 1978, le nombre de responsables de l’Atlantic Coast Conference est passé de deux à trois par partie. Cela s’est traduit par une baisse de 34 % du nombre de fautes par jeu.

En utilisant l’information sur les résultats de tournois de lutte sumo, une étude a examiné si la corruption était plus probable lorsque les bénéfices d’être corrompu sont plus élevés (Duggan et Levitt, 2002). Les lutteurs sumo reçoivent le plus grand élan en termes de classement une fois qu’ils gagnent leur huitième match à un tournoi. Il apparaît qu’ils gagnent un huitième match plus souvent que ce qui est attendu. Bien sûr, cela pourrait s’expliquer par le fait que la perspective d’une huitième victoire les motive. Mais la fois suivante où les deux lutteurs se retrouvent, l’opposant a aussi une probabilité de gagner plus élevée qu’attendu, ce qui suggère une collusion. (...) »

Kerry L. Papps, « Sports at the vanguard of labor market policy », in IZA, World of Labor, n° 481, juillet 2020. Traduit par Martin Anota



aller plus loin… lire « Le changement d'entraîneur en cours de saison améliore-t-il les performances d’une équipe de football ? »

dimanche 4 octobre 2020

Les intellectuels tuent-ils la convergence ?

« Comment l’épidémie de Covid-19 affectera-t-elle les perspectives de croissance des pays en développement ? La réponse dépendra grandement de l’évolution de la mondialisation (et du soutien intellectuel en sa faveur) dans le sillage de la pandémie. Les perspectives ne sont pas encourageantes.

Même avant qu’éclate la pandémie, le ratio exportations mondiales de marchandises sur PIB mondial déclinait pour la première fois depuis la Seconde Guerre mondiale, en chutant de près de cinq points de pourcentage depuis 2008 à environ 20 % cette année.

Ce n’est pas la première fois que le monde se démondialise. Entre la Première Guerre mondiale et la veille de la Seconde Guerre mondiale, le commerce s’est effondré et le ratio exportations sur PIB a chuté d’un pic de 16 % en 1913 à simplement 6 %. Selon les célèbres mots de John Maynard Keynes, cette contraction a été le résultat des "projets et politiques de militarisme et impérialisme, de rivalités raciales et culturelles, de monopoles, de restrictions et d’exclusion".

Aujourd’hui, la démondialisation est provoquée par d’autres facteurs. Pour commencer, de nouvelles barrières protectionnistes ont été érigées, mais pas à la même échelle que lors des années 1930. Les restrictions aux échanges imposées par l’administration du Président américain Donald Trump depuis 2017 ont été relativement limitées et ont principalement ciblé la Chine. Au niveau mondial, elles ont en partie été compensées par de nouveaux accords de libre-échange, tels que l’Accord de Partenariat Economique que l’Union Européenne et le Japon ont conclu en 2018.

Un autre facteur, plus important, derrière la démondialisation actuelle est l’effilochage des chaînes de production mondiales, qui résulte lui-même de la transformation de la Chine d’une petite économie tirée par l’export en une plus grande économie davantage dépendante de la demande domestique. Ainsi, la dernière décennie peut en partie être perçue comme une période de normalisation après plusieurs années d’exceptionnalisme chinois. Mais il n’a pas eu que cela. Si la normalisation avait été le seul facteur à l’œuvre, le ratio exportations mondiales sur PIB mondial aurait simplement stagné, avec la part des exportations cédée par la Chine prise en charge par d’autres pays en développement. En fait, nous avons connu une forte chute de ce ratio, qui implique de sévères conséquences pour plusieurs pays en développement.

Du début des années 1990 jusqu’à récemment, le monde a connu une "convergence" économique, dans la mesure où les pays pauvres ont enfin commencé (après près de deux siècles) à rattraper les pays riches. Certains pays, en particulier en Asie de l’Est, avaient certes déjà amorcé leur convergence il y a longtemps, mais ce n’est qu’au cours des trois dernières décennies que ce phénomène s'est vraiment mondialisé.

L’accroissement des opportunités d’échanges constituait un important facteur derrière la convergence. Les années 1990 et 2000 ont constitué une ère que Martin Kessler et l’un d’entre nous avons qualifiée d’"hypermondialisation" (hyper-globalization), lorsque les avancées technologiques, la révolution des conteneurs, la chute des coûts d’information et de communication et le démantèlement des barrières à l’échange soutinrent une exubérance économique généralisée. Entre autres choses, l’hypermondialisation a tiré le ratio exportations mondiales sur PIB mondial de 15 % à 25 % au cours des deux décennies qui ont précédé la crise financière mondiale de 2008 et ce boom d’exportations a alimenté la croissance rapide des pays en développement. Par conséquent, comme le montre le graphique, l’hypermondialisation et la convergence ont été des phénomènes intimement liés l’un à l’autre.

GRAPHIQUE Ratio exportations mondiales de marchandises sur PIB mondial (en %) et écart de croissance du PIB par tête entre pays à haut revenu et pays à revenu faible et intermédiaire (en points de %)

Subramanian_Felman__mondialisation_convergence_pays_riches_pauvres.png

Puisque les deux phénomènes étaient connectés, le récent retour de la démondialisation a substantiellement freiné la convergence : les pays à revenu faible et intermédiaire qui croissaient à environ 3-4 % par an annuellement avant la crise financière mondiale croissent désormais à un rythme annuel moyen de 1-2 % depuis.

La question est désormais de savoir comment la pandémie va influencer le processus de démondialisation qui était déjà en cours. Il est trop tôt pour le dire, mais deux possibilités retiennent notre attention. Un premier scénario possible est celui d’un retrait généralisé dans lequel la démondialisation s’accélère, dans la mesure où les pays et les entreprises réévaluent les bénéfices du commerce relativement aux risques de dépendance aux importations. Un second scénario pourrait être celui d’une prochaine phase de la démondialisation plus limitée, tirée par la transition économique de la Chine. Dans ce cas, quelques pays en développement en tireraient un bénéfice à court terme, mais ils échoueraient à en tirer un avantage durable, parce que le risque accru de conflits commerciaux et stratégiques se traduirait par un nouveau climat de plus grande incertitude.

La réponse intellectuelle à la mondialisation et au renversement du processus historique de convergence a été un silence presque assourdissant. Très peu d’universitaires ou de responsables politiques dans les pays développés ont parlé en défense d’un ordre mondial ouvert au nom des pays pauvres. Les élites cosmopolites qui ont précédemment été des champions visibles et enthousiastes de la mondialisation sont restées les bras croisés.

En effet, le pendule peut basculer dans la direction opposée, vers une résurgence de vieilles idées du développement telles que celles du "big push", selon laquelle les pays en développement devraient remplacer les modèles de croissance tirés par l’export par des stratégies davantage autocentrées. Il y a des raisons pour cela, bien sûr, incluant notamment des inquiétudes fondées à propos des effets de la mondialisation sur les inégalités dans les pays développés. Pourtant, le fait demeure : les intérêts des pays en développement ont été abandonnés.

En fait, les intellectuels du monde en développement sont aussi restés silencieux, n’offrant pas de réelle défense pour le libre-échange. Dans les pays en développement clés, notamment la Chine et l’Inde, le paysage intellectuel et politique bascule brutalement vers l’autosuffisance et l’intérieur. Dans une certaine mesure, les responsables politiques font d’une nécessité vertu, étant donné le manque relatif d’influence des pays en développement sur la mondialisation. Mais il est également vrai que les courants intellectuels en Occident vont vers l’Est, en convainquant les responsables politiques d’appeler le fantôme de vieilles idées comme la substitution aux importations, dont l'échec dans les années 1960 et 1970 est notoire.

Dans l’environnement post-pandémique, nous devons nous attendre à une accélération continue de la démondialisation et, malheureusement, à un soutien intellectuel en faveur de cette tendance. Dans le meilleur scénario, quelques pays en développement pourront saisir de nouvelles opportunités à l’exportation, comme les entreprises majeures cherchent à diversifier leur production hors de Chine. Mais pour la plupart des pays à revenu faible et intermédiaire, le prix sera énorme en termes d’opportunités d’échanges perdues. Les pays très en retard en Asie du Sud et en Asie centrale, en Amérique latine et en Afrique subsaharienne se verront privés de l’échelle de croissance qu’empruntèrent par le passé Singapour, Taïwan, Hong Kong, la Corée du Sud, la Chine et le Vietnam.

Pendant deux décennies dorées, les pays en développement jouirent des fruits de l’hypermondialisation et de la convergence. Mais la démondialisation, en rencontrant peu de résistance intellectuelle, gagne du terrain, laissant augurer une perte de dynamisme à long terme pour les régions les plus pauvres du monde. »

Arvind Subramanian et Josh Felman, « Are intellectuals killing convergence? », 23 septembre 2020. Traduit par Martin Anota



aller plus loin...

« Les sept dimensions de l’hypermondialisation »

« L’effondrement des échanges lors de l’entre-deux-guerres et la Grande Récession »

« Petite macroéconomie des droits de douane »

« Faut-il s’inquiéter du ralentissement du commerce mondial ? »

« La libéralisation du commerce extérieur promeut-elle la croissance économique ? »

mercredi 23 septembre 2020

Quelles leçons tirer des échecs de l’Abenomics ?

« La raison officielle donnée au départ de Shinzo Abe du poste de premier ministre du Japon qu’il occupe de longue date concerne sa santé personnelle. Et maintenant, le programme économique qui porte sa signature pourrait connaître le même destin.

L’"Abenomics" a été annoncé en grande pompe en 2013, donc il est tout à fait opportun de se demander ce que ce programme a accompli au cours de ces sept dernières années. La version officielle sur le site web du gouvernement japonais a toujours évoqué trois "flèches de politique économique" comprenant une politique monétaire agressive, une politique budgétaire flexible et une stratégie de croissance reposant sur des réformes structurelles.

Parmi ces trois flèches, c’est la politique monétaire qui a le plus grandement attiré l’attention. La Banque du Japon a lancé un programme massif d’assouplissement quantitatif (quantitative easing) pour acheter de la dette publique, si bien qu’elle possède désormais la moitié de celle-ci. L’objectif officiel était de ramener l’inflation annuelle à 2 %, mais cette cible n’a pas été atteinte. La faible efficacité de l’assouplissement quantitatif était prévisible dès le départ, étant donné que les taux d’intérêt à long terme étaient déjà faibles au début de l’année 2013, autour de 0,6 %. Depuis 2016, ils ont fluctué autour de zéro. On peut donc attribuer à la flèche "monétaire" de l’Abenomics une chute des taux de 0,6 points de pourcentage, mais cela ne suffit pas pour ramener l’inflation.

Certains ont considéré que la deuxième flèche de l’Abenomics, "la politique budgétaire flexible", désignait une relance budgétaire, alors que d’autres y voyaient une consolidation budgétaire. Après coup, il apparaît que les politiques poursuivies s’inscrivent dans la seconde catégorie. Juste avant qu’Abe retourne au pouvoir en décembre 2012, le déficit budgétaire était supérieur à 8 % du PIB ; en 2016-2019, il a été ramené à 3-4 %. Cela a significativement freiné la croissance de la dette publique du pays, relativement au PIB. A environ 150 %, la dette nette courante du Japon va rester inchangée aussi longtemps que le taux de croissance du PIB nominal restera supérieur à 2 % et le déficit budgétaire égal ou inférieur à 3 % du PIB. Une réussite clé de l’Abenomics est donc d’avoir stabilisé les finances publiques du Japon.

La troisième flèche comprenait des réformes structurelles visant à stimuler la croissance économique en relevant la productivité de la main-d’œuvre existante et en accroissant le nombre de travailleurs. En ce qui concerne les gains de productivité, l’Abenomics est un échec total. A la différence de la zone euro, où la productivité du travail a au moins un peu augmenté au cours des sept dernières années, la productivité du Japon a globalement stagné depuis 2010. A l’inverse, il y a eu quelques progrès du côté de la taille de la population active. Mais le Japon atteignait déjà un taux d’activité élevé avant le début de l’Abenomics et ses hausses ultérieures correspondent à ce que l’on prévoyait en l’absence de l’Abenomics. Avec seulement de faibles hausses du taux d’activité et quasiment aucune amélioration de la productivité, la croissance du revenu japonais sous l’Abenomics est restée aussi faible qu’avant, en atteignant moins de 1 % par an.

Pendant un instant, le fort rebond observé après que les hausses d’impôts aient provoqué une récession en 2014 a été interprété comme démontrant l’efficacité de l’Abenomics. Mais la reprise a été aidée par une forte amélioration des termes de l’échange du pays, liée à la chute des prix du gaz naturel liquide, que le Japon doit importer en plus grandes quantités depuis le désastre nucléaire de Fukushima en 2011. Cette stimulation temporaire n’a pas suffi pour amorcer une nouvelle ère de croissance plus robuste et soutenue.

L’expérience du Japon doit être étudiée soigneusement pour tirer des leçons afin d’avoir une idée de ce qui attend peut-être l’Europe et d’autres pays développés en proie au vieillissement démographique. Une leçon clé de l’expérience du Japon est qu’il est extrêmement difficile de générer de l’inflation dans une société vieillissante présentant un excès d’épargne et du capital abondant. En 2014, l’inflation sous-jacente a chuté brièvement en-dessous de 1 % dans la zone euro. La BCE a commencé son propre programme d’achats d’actifs. Mais après des années d’achats, l’inflation n’a que légèrement grimpé au-dessus de 1 %. Et désormais, la pandémie va davantage compliquer le retour de l’inflation au canonique taux de 2 %. En fait, la BCE poursuit peut-être une cible inatteignable dans un avenir prévisible.

Une deuxième leçon est que les taux de croissance globaux importent politiquement, même si le revenu par tête est ce qui compte vraiment lorsqu’il s’agit du bien-être économique. C’est crucial pour l’Europe, parce que les tendances démographiques que l’on observe aujourd’hui dans la zone euro sont similaires à celles observées au Japon dans un récent passé. La population en âge de travail moyenne dans les 19 pays-membres de la zone euro décline d’environ un demi-point par an. Ce déclin est moins prononcé qu’au Japon, mais il est néanmoins promis à continuer pendant un long moment, ce qui suggère que la zone euro est destinée à connaître une nouvelle décennie de faible croissance économique, indépendamment de la crise du coronavirus. Et même si la croissance du revenu par tête reste possible, il faudra accroître la productivité pour l’obtenir.

Finalement, en l’absence d’une plus forte immigration, les limites imposées par la décroissance de la population en âge de travailler ne peuvent être surmontées qu’en repoussant l’âge légal de départ à la retraite et en accroissant le taux d’activité des plus âgés. De tels changements sont cohérents avec la hausse de l’espérance de vie et étaient déjà à l’œuvre dans plusieurs pays européens avant la crise du coronavirus. Mais l’accroissement du taux d’activité ne stimulera l’activité que temporairement. Il faudrait que la croissance de la productivité soit plus forte pour que la croissance économique soit plus robuste à long terme. C’est le principal défi économique de l’Europe. Pour y parvenir, les vastes ressources budgétaires qui sont utilisées pour faire face à la pandémie devraient être utilisées pour réorienter l’économie dans une direction plus verte, plus numérique, plutôt que pour renforcer les structures et accords économiques d’hier. »

Daniel Gros, « Retiring Abenomics », 7 septembre 2020. Traduit par Martin Anota



aller plus loin...

« Quelle est l’efficacité de l’Abenomics ? »

« La politique budgétaire est-elle efficace au Japon ? »

« Quelles options budgétaires pour le Japon ? »

samedi 19 septembre 2020

Inégalités et Covid-19 aux Etats-Unis

« Les inégalités sont par définition multiformes. Non seulement il y a une différence entre les inégalités de revenu et les inégalités de richesse, mais les inégalités peuvent aussi être des inégalités de genre, de race, d’âge, de territoire au sein d’un pays, et ainsi de suite. Quand on se promène dans une ville comme New York, les inégalités nous apparaissent clairement lorsque nous passons d’un quartier à l’autre.

Donc, il n’est pas surprenant que nous puissions voir une relation entre les inégalités (dans leurs diverses incarnations) et les effets de la pandémie. Cela apparaît très clairement, je pense, dans le cas des Etats-Unis, mais aussi probablement dans d’autres pays dévastés comme l’Afrique du Sud, le Pérou, le Brésil et l’Inde.

Les inégalités de santé aux Etats-Unis sont bien connues. Même après l’Obamacare, presque 30 millions d’Américains n’ont pas d’assurance-santé. Beaucoup dépendent de leur emploi pour en avoir une. Quand ils perdent leur emploi, comme ce fut le cas durant la pandémie, ils perdent aussi leur assurance-santé. Les inégalités de santé ont contribué aux décès même si beaucoup d’hôpitaux ont traité les patients sans s’inquiéter à l’idée qu’ils aient ou non une assurance-santé, présentant ainsi un remarquable sens d’esprit civique dont les politiciens semblaient par contre être dépourvus.

Les inégalités d’éducation aux Etats-Unis sont rarement évoquées dans les débats à propos du coronavirus. Mais la faible qualité de l’enseignement primaire et secondaire combinée à grande latitude pour faire l’école à la maison a contribué à un rejet généralisé de la science et des mesures prophylactiques adoptées pour freiner la propagation de l’épidémie. Le fait que les Etats-Unis présentent un fort pourcentage de personnes adhérant aux croyances les plus extravagantes (des reptiliens à la Terre plate), relativement aux pays aux niveaux de vie similaires, n’est pas un accident. Il révèle son aspect nocif durant la crise, lorsque les gens refusent de croire la science lorsqu’elle leur dit ce qui est mauvais pour eux, pour leur famille et pour leurs amis.

Un système fragmenté de prise de décision politique semblait à première vue très utile, face à un gouvernement fédéral ouvertement obstructionniste. Mais cela s’est révélé être illusoire : l’incapacité des plus hautes unités territoriales (comme les Etats) à mettre en application les règles pour contenir la pandémie dans les plus petites juridictions (les comtés) entraîna un chaos administratif. En outre, cela alimenta l’expansion dans la pandémie dans la mesure où le traitement inégal par les régions dans un contexte de libre circulation des personnes diffusa le virus à travers le territoire. Les régions les moins restrictives déterminaient la propagation. Il faisait peu sens d’être responsable dans de telles circonstances, dans la mesure où cela ne faisait que nuire aux entreprises et ne contenait pas la contagion. Donc il y eut une incitation à une irresponsabilité généralisée.

Les inégalités de pouvoir politique deviennent également manifestes. Même quand les administrations au niveau fédéral ou au niveau de chaque Etat fédéré étaient déterminées à imposer des mesures très strictes, elles furent soumises aux pressions acharnées des entreprises. Peu de politiciens, conscients de l’importance du soutien des entreprises pour leur élection, se sont révélés capables de résister à ces pressions. Cela explique pourquoi la Californie s’est retrouvée en pleine débâcle malgré ses succès initiaux.

Les inégalités face à la mort, qui se manifestent notamment par les taux de décès très élevés parmi les noirs et latinos, ont probablement émoussé la réponse politique. Aucune de ces deux communautés n’est politiquement puissante. Parmi les latinos en Californie, beaucoup pouvaient être des immigrés en situation irrégulière, si bien que leur influence politique était encore moindre. Leur mort n’importait vraiment pas.

Au terme de tous ces processus, un pays démocratique semblait être, et se révéla effectivement être, bien plus indifférent aux morts qu’un régime autoritaire comme celui de la Chine. Les Etats-Unis s’inquiètent davantage des entreprises que des morts, mais ils ont fini par connaître une puissante contraction de l’activité économique et atteindre le nombre de morts le plus élevé à travers le monde (en ce mois de septembre). »

Branko Milanovic, « Inequalities and Covid-19 », in globalinequality (blog), 15 septembre 2020. Traduit par Martin Anota



aller plus loin...

« Covid-19 : l’épidémie est la plus meurtrière là où les inégalités sont les plus fortes »

« Covid-19 : la pandémie ne manquera pas de creuser les inégalités »

mardi 15 septembre 2020

« Mort aux machines ! » Quand le changement technologique alimente les conflits sociaux



« Les violences débutèrent à la fin de l’été 1830 et durèrent jusqu’à l’année suivante. Les paysans de l’Angleterre rurale en avaient assez des batteuses. Ces dernières avaient mécanisé l’extraction du grain de son enveloppe et, en remplaçant le travail manuel, privaient les travailleurs agricoles d’une importante source de revenu. Cela entraîna la plus forte vague de protestations dans l’histoire anglaise.

Mais, comme bien d’autres soulèvements, les émeutes du "Captain Swing" étaient plus complexes qu’elles ne le paraissent de prime abord. Il ne s’agissait pas simplement d’un rejet des nouvelles technologies. "C’est comme avec un feu de forêt", dit Hans-Joachim Voth, dont l’article qui se penche sur ces émeutes est paru dans l’American Economic Review: Insights de septembre. "La forêt doit être sèche… Quelqu’un va jeter une allumette, mais la question est de savoir pourquoi la forêt était sèche à cet instant-là."

En combinant des documents du dix-neuvième siècle, de nouveaux comptes-rendus et des enquêtes agricoles, Voth et son coauteur Bruno Caprettini ont constitué une base de données historiques pour examiner dans quelle mesure la technologie économe en main-d’œuvre a contribué à la sévérité des émeutes. Bien que l’événement soit survenu il y a près de deux siècles, l’étude offre d’importants éclairages à propos des facteurs qui sont à l’origine des troubles sociaux lorsque les travailleurs sont remplacés par l’innovation.

Les économistes mettent depuis longtemps l’accent sur les effets bénéfiques des technologies économes en main-d’œuvre. Certains travailleurs vont en subir un coût immédiat, mais ils bénéficieront à terme d’une économie plus productive. Et, même si la recherche a récemment examiné les répercussions négatives du changement technologique sur l’emploi et les salaires, il n’y a pas beaucoup de preuves empiriques à propos des coûts sociaux qui accompagnent les destructions massives d’emplois, note Voth.

L’extraction des graines de leur enveloppe constituait une importante source de revenus pour les travailleurs ruraux : elle représentait près de la moitié de leurs rémunérations en hiver avant la mécanisation. L’introduction des batteuses mécaniques en 1786 a bouleversé les choses. Elles étaient certes peu efficaces au départ, mais elles furent ensuite améliorées au fil des décennies et, en 1830, leur déploiement avait déjà contribué à d’importantes destructions d’emplois. Les machines furent une cible privilégiée lors des émeutes, qui inclurent plus de 3.000 cas d’incendies criminels, de pillages, d’atteintes à l’autorité et de destructions de machines dans 45 comtés.

Mais il n’y a pas que la technologie qui ait alimenté les flammes du mécontentement. Le mauvais temps, de mauvaises récoltes et les nouvelles relatives aux révolutions en France et en Belgique contribuèrent aux "Swing riots" (du nom du fictif "Captain Swing" avec lequel les travailleurs contestataires signèrent les lettres de menace qu’ils envoyaient aux autorités). Et la consolidation des terres en grandes propriétés via le mouvement des "enclosures" les avait privés de l’accès aux communs et créé des "prolétaires sans terre".

Les auteurs se sont demandé dans quelle mesure la technologie a alimenté le mécontentement social. Voth et Caprettini ont examiné les pages de revues présentant les mentions de batteuses et les enquêtes agricoles pour identifier les zones qui ont les plus affectées par le changement technologique. Ils ont aussi identifié ces régions par la composition de leur sol, en se focalisant sur celles qui sont les plus adaptées pour faire pousser le blé, le grain qui était le plus susceptible d’être traité par les batteuses mécaniques.

GRAPHIQUE Répartition géographique des batteuses

Caprettini_Voth__swing_riots_batteuses_mecaniques.png
source : Caprettini et Voth (2020)

En liant cela aux données sur les incendies criminels, les pillages et d’autres incidents violents, les auteurs ont constaté que les batteuses ont joué un rôle clé derrière la révolte. Dans les paroisses les plus affectées par les batteuses, la probabilité d’une émeute s’élevait à 26,1 %, soit deux fois plus que dans les lieux sans batteuses. D’autres facteurs ont intensifié les émeutes. Le mouvement des enclosures a manifestement exacerbé les effets. En outre, les zones rurales qui n’avaient pas accès à d’autres opportunités d’emploi connurent les plus fortes violences. "Si vous étiez assez proche de l’un des centres urbains à croissance rapide avec une forte demande de travail, cela pouvait ne pas être si problématique", dit Voth.

GRAPHIQUE Répartition géographique des incidents liés aux Swing riots

Caprettini_Voth__swing_riots_Angleterre_emeutes.png
source : Caprettini et Voth (2020)

En effet, toutes les innovations technologiques ne se traduisent pas par de violentes révoltes. Plus de 90 % des emplois ont été détruits depuis la Révolution industrielle. L’essentiel de ces destructions d’emplois ont affecté une faible partie de la main-d’œuvre, comme le remplacement des opérateurs téléphoniques par les téléphones à cadran. Mais les destructions d’emplois qui menèrent aux Swing riots furent différentes. Le battage donnait du travail à une grande partie de la main-d’œuvre agricole pendant des mois ; les batteuses mécaniques eurent donc de profondes répercussions sur la vie des gens. Sans un robuste système de protection sociale pour soutenir les travailleurs affectés, les tensions ne pouvaient qu’éclater.

L’une des implications est que la redistribution importe, conclut Voth. Que les emplois soient détruits par les machines à battage du dix-neuvième siècle ou par les robots du vingt-et-unième siècle, les responsables politiques doivent se demander comment soutenir les gens qui en sont les plus affectés. Sinon, les désordres politiques et sociaux deviennent beaucoup plus fréquents, voire inévitables. "Plus il y a de changement technologique, plus celui-ci est susceptible de détruire des emplois, plus il est important que nous disposions de systèmes redistributifs pour que le changement technologique puisse s’opérer et améliorer le bien-être collectif", ajoute Voth. "Laissons la technologie adoptée nous rendre plus productifs, mais assurons-nous que personne n’y perde de trop". »

Chris Fleisher, « Kill the machines. To what extent can technological disruption lead to civil unrest? », in American Economic Association, Research Highlights, 8 septembre 2020. Traduit par Martin Anota



aller plus loin...

« Emploi : qui les machines menacent-elles ? »

« Les robots menacent-ils les travailleurs ? »

« Les robots, l’emploi et le paradoxe de Polanyi »

« La croissance de la productivité menace-t-elle l’emploi ? »

« Informatisation, productivité et emploi »

« Les robots, les intelligences artificielles et le travail »

vendredi 11 septembre 2020

La nouvelle stratégie de la Fed : davantage de discrétion, moins de prévention

« L’emploi peut se retrouver à son niveau maximal tel qu’on l’estime en temps réel ou au-delà sans susciter d’inquiétude, à moins que cela ne s’accompagne de signes d’accélérations indésirables de l’inflation ou de l’émergence d’autres risques qui peuvent nous empêcher d’atteindre nos objectifs. »

Jerome Powell, président de la Réserve fédérale, lors de la conférence de Jackson Hole du 27 août 2020.



Dans ce billet, nous identifions trois facteurs clés motivant la revue stratégique de la Fed et soulignons trois grands changements dans la stratégie du comité de politique monétaire. En outre, nous identifions d’importantes questions auxquelles le comité devra apporter une réponse lorsqu’il cherchera à mettre en place son nouveau cadre de politique monétaire. En particulier, l’adoption du ciblage flexible de l’inflation moyenne implique un changement dans la fonction de réaction du comité. Comment cette redéfinition de l’objectif influencera-t-elle la réponse systématique du comité aux variations de la croissance économique, du chômage, de l’inflation et des conditions financières ? Sous un ciblage flexible de l’inflation moyenne, la cible d’inflation effective au cours des prochaines années dépend aussi de l’expérience passée avec l’inflation. Quelle est cette relation ?

Peut-être que la Fed a été avant tout poussée à changer de stratégie en prenant conscience que le niveau soutenable des taux d’intérêt nominaux a décliné. Ce changement se manifeste à travers les révisions à la baisse des prévisions des taux des fonds fédéraux à long terme. Par conséquent, la banque centrale s’inquiète à l’idée de voir le taux directeur buter fréquemment à sa borne inférieure effective, dans la mesure où la marge de manœuvre de la Fed en matière de politique monétaire conventionnelle s’en trouverait réduite. L’idée du ciblage flexible de l’inflation moyenne est de relever la cible d’inflation lorsque l’inflation est faible. En réduisant le taux d’intérêt réel anticipé en de telles circonstances, le ciblage flexible de l’inflation moyenne réduit la nécessité d’utiliser le forward guidance et les outils de bilan à la borne inférieure zéro (voir notre précédent billet).

Deuxièmement, comme le président Powell le souligne dans la citation en ouverture, le lien entre le marché du travail et l’inflation est plus lâche que par le passé, ce qui rend plus difficile d’estimer le niveau de chômage compatible avec la stabilité des prix.

Troisièmement, pour l’essentiel, l’inflation s’est retrouvée sous les 2 % depuis 2012, quand le comité de politique a pour la première fois présenté sa cible quantitative. (Selon l’indice des prix, l’inflation s’est retrouvée en moyenne entre 1,3 % et 1,8 % par an au cours des huit dernières années.) Avec une inflation durablement inférieure à la cible, l’inquiétude est que les anticipations d’inflation finissent par chuter, ce qui accroîtrait les taux d’intérêt réels anticipés et resserrerait en conséquence les conditions financières, en particulier quand le taux directeur est proche de zéro. Comme le président Powell l’a souligné, "nous avons vu cette dynamique perverse affecter d’autres économies majeures à travers le monde et nous avons constaté qu’une fois tombé dans une telle situation il peut être très difficile d’en sortir".

En combinant ces trois facteurs, le comité de politique monétaire a considéré qu’il était nécessaire de répondre à l’asymétrie fondamentale de la politique monétaire conventionnelle : quand l’inflation s’élève au-dessus de sa cible, la banque centrale peut relever les taux d’intérêt, ce qui réduit la demande globale et atténue l’inflation. Cependant, si l’inflation est trop faible, quand le taux d’intérêt est à sa borne zéro, la politique conventionnelle n’est plus disponible pour davantage stimuler la demande globale, alimenter l’inflation et s’assurer que les anticipations d’inflation restent bien ancrées. L’expérience des dernières années aux Etats-Unis et à l’étranger a suscité des inquiétudes à la Fed quant à une telle éventualité.

Donc, quels sont les principaux changements quant aux objectifs de plus long terme du comité de politique monétaire ? Nous en soulignons trois : (I) l’introduction d’un ciblage flexible de l’inflation moyenne ; (ii) un relâchement des efforts pour prévenir une accélération de l’inflation ; (iii) un engagement explicite pour entreprendre une revue publique du cadre de politique monétaire "à peu près tous les cinq ans".

Le premier de ces trois objectifs vise à s’attaquer au maintien durable de l’inflation en-deçà de sa cible de 2 %. Le deuxième revient à admettre que la capacité de la Fed à prévoir l’inflation est limitée. Il dénote une moindre inquiétude à propos des marchés du travail sous tension et, dans le double mandat de la Fed, donne plus de poids à l’objectif de plein emploi relativement à celui de la stabilité des prix. Le troisième fournit un horizon temporel pour réévaluer l’adéquation du cadre de politique monétaire du comité. En se focalisant sur les deux premiers, les changements génèrent un biais vers une inflation moyenne plus élevée de façon à contrer l’asymétrie fondamentale inhérente à la politique conventionnelle de taux d’intérêt.

Nous avons discuté du ciblage de l’inflation moyenne en détails dans notre précédent billet. La version "flexible" de la Fed lui laisse une formidable discrétion. En rejetant toute "formule", l’approche définit ni la fenêtre de temps passée pour mesurer les déviations de l’inflation, ni la fenêtre de temps future pour ramener l’inflation à sa moyenne cible. De tels détails clés étant absents, le comité de politique monétaire devra communiquer d’une réunion à l’autre son objectif d’inflation à court terme. La capacité du comité à influencer les anticipations d’inflation à la borne inférieure (un motif clé pour adopter le ciblage flexible de l’inflation moyenne) va dépendre de la clarté avec laquelle il communiquera son objectif et de la crédibilité de son engagement pour l’atteindre. Plus la déclaration sera claire (à propos de l’objectif d’inflation et de l’horizon temporel), plus elle sera efficace pour réduire les taux d’intérêt réels anticipés quand le taux directeur butera sur sa borne inférieure.

Au même instant, la nouvelle déclaration laisse ouvertes d’importantes questions à propos de ce qui déclenchera un changement dans l’objectif d’inflation à moyen terme. Par exemple, si l’inflation courante ou l’inflation anticipée s’élèvent à 3 %, cela suffira-t-il pour amorcer un changement ? Alors que le ciblage flexible de l’inflation moyenne vise à rendre le niveau des prix à long terme plus prévisible, quelle variation de l’inflation à court terme le comité tolérera-t-il ?

Pour prendre un exemple simple, au cours des cinq dernières années, l’écart cumulé de l’inflation par rapport à sa cible de 2 % s’élève à 2,5 points de pourcentage (lorsque l’on mesure l’inflation à partir de l’indice des prix à la consommation). Si le comité de politique monétaire désire compenser une partie de cet écart au cours des cinq prochaines années (en ciblant sur dix ans un taux moyen d’inflation de 2 %), alors il devra atteindre une inflation de 2,5 % en moyenne. Alternativement, s’il désire rattraper plus rapidement l’écart, disons sur trois ans, alors la cible sera plus proche de 3 %. Plus le comité sera clair par rapport à sa fonction de réaction (notamment à propos de l’horizon au cours duquel il tend à restaurer l’inflation à l’objectif de plus long terme de 2 %), plus il sera probable que ses actions se révéleront stabilisatrices.

En ce qui concerne la moindre importance donnée à la prévention de l’inflation, le changement clé concerne la façon par laquelle la Fed considère l’emploi maximal. Plutôt que de décider de la politique monétaire en réaction aux "déviations", à la hausse comme à la baisse, par rapport à l’emploi maximal (comme dans une règle de Taylor typique), la nouvelle déclaration se focalise sur les écarts à la baisse par rapport à l’emploi maximal. Comme l’évoquait la citation de Powell en ouverture, le lien entre un faible taux de chômage et l’accélération de l’inflation n’est plus aussi robuste que par le passé. Selon nous, ce changement explicite simplement ce que la Fed faisait déjà en pratique. Rappelons-nous qu’en 2019 la Fed a réduit les taux d’intérêt de 75 points de base, alors même que le taux de chômage était à 3,5 %, un niveau qui n’avait pas été atteint depuis cinquante ans. (...)

Pour résumer, et ce en cohérence avec la réaction limitée des marchés financiers, nous ne voyons dans la nouvelle déclaration de la Fed qu’une modeste révision de ses pratiques. Etant donné que l’on s’attend à une longue période de taux d’intérêt nuls, la nouvelle stratégie de la Fed répond à l’accroissement du risque d’avoir une inflation trop faible relativement au risque d'avoir une inflation trop forte.

Cela dit, la réaction des marchés peut aussi refléter un profond scepticisme quant à la capacité de la Fed à relever l’inflation, en particulier dans une telle récession. Elle a régulièrement échoué à atteindre la cible de 2 % depuis qu’elle l’a annoncée. Pourquoi devrait-on croire qu’elle est capable de ramener l’inflation au-delà de 2 % ces prochains temps ? Peut-on vraiment croire que la Fed est vraiment différente des autres grandes banques centrales qui ont passé l’essentiel de leur temps la dernière décennie à essayer de stimuler l’inflation pour la ramener à sa cible sans y parvenir ? (…)

Par conséquent, la différence la plus manifeste à moyen terme tiendra dans la communication de la Fed, dans ce qu’elle dit à propos de sa politique monétaire. Comme Ben Bernanke, l’ancien président de la Fed avait l’habitude de le dire, "la politique monétaire, c’est 98 % de paroles et 2 % d’actions". C’est encore davantage de communication lorsque, comme à présent, le taux directeur se retrouve contraint vers zéro. Plus le comité de politique monétaire pourra nous en dire à propos de la façon par laquelle il utilisera systématiquement la plus grande discrétion qu’il se donne dans son nouveau cadre, plus son action sera efficace. »

Stephen Cecchetti et Kermit Schoenholtz, « The Fed's new strategy: More discretion, less preemption », in Money & Banking (blog), 29 août 2020. Traduit par Martin Anota

mardi 8 septembre 2020

Les sombres perspectives à long terme des jeunes diplômés en temps de pandémie

« En 2019, le contexte était favorable aux demandeurs d’emploi. L’emploi atteignait en Allemagne le plus haut niveau qu’il ait atteint depuis 1990 et le taux de chômage n’avait jamais été aussi faible aux Etats-Unis depuis 50 ans. Puis, le coronavirus a frappé le monde et provoqué la plus sévère crise économique des temps modernes. Les emplois ont été détruits à un rythme sans précédent. Aux Etats-Unis, le taux de chômage a grimpé à 14,2 % en avril et n’a que légèrement diminué pour revenir à 10 % à la fin du mois de juillet. Même en Allemagne, un pays qui a plutôt bien tenu face à la crise jusqu’à présent, près de 635.000 emplois ont été détruits sur un an en juillet 2020.

C’est une sombre perspective qui se présente aux jeunes qui ont le malheur de finir leurs études au cours de la pandémie. La raréfaction des opportunités d’emploi vont compliquer les transitions de l’école vers le travail et entraîner des pertes de revenu importantes et durables. Les études d’IZA ont régulièrement montré que les diplômés qui quittent l’école lors d’une récession gagnent substantiellement moins lors de leurs premiers emplois. Bien que les rémunérations tendent à rebondir après quelques années, à mesure que les opportunités sur le marché du travail s’améliorent, il demeure un ample fossé dans les revenus gagnés le reste de l’existence. Par exemple, une précédente étude d’IZA basée sur les données canadiennes des années 1980 et 1990 suggèrent qu’une hausse du taux de chômage de 3 à 4 points de pourcentage lors de l’obtention du diplôme se traduit par des pertes moyennes de 5 % dans les rémunérations gagnées tout au long de l’existence.

Quels sont les effets attendus de l’actuelle pandémie sur ceux qui ont récemment obtenu leur diplôme ? La dernière vague de sondage du IZA Expert Panel a demandé aux économistes du travail d’une cinquante de pays de quelle façon croient-ils que la crise du coronavirus affectera les nouveaux entrants sur le marché du travail dans leur pays.

L’analyse montre que plus des deux tiers des experts s’attendent à ce que les diplômés de l’année 2020 aient de plus grandes difficultés dans leur transition de l’école vers le travail que les précédentes cohortes. Les experts étasuniens et allemands sont plus pessimistes que la moyenne, tandis que les économistes italiens et espagnols se montrent légèrement plus optimistes. Alors que l’enquête ne permet pas de dégager les raisons expliquant ces différences entre pays, une possible explication pourrait être que l’Italie et l’Espagne ont déjà fait face à un important chômage des jeunes par le passé, tandis que les marchés du travail aux Etats-Unis et en Allemagne se sont révélés être très favorables aux diplômés au cours des dernières années, si bien que ces derniers pourraient y connaître un bien plus grand déclassement.

Poursuivre ses études dans le supérieur est une option qui s’offre aux jeunes afin d’éviter de se retrouver au chômage dans un marché du travail déprimé, tout en investissant en même temps dans leur capital humain pour améliorer les perspectives de rémunérations futures. Cette option semble être particulièrement pertinente au Royaume-Uni, où 60 % des experts interrogés croient que les diplômés du secondaire vont davantage se tourner vers le supérieur.

En ce qui concerne l’impact à plus long terme sur les perspectives de carrière, les experts (en particulier ceux des Etats-Unis et du Royaume-Uni) s’attendent à de significatifs désavantages à l’âge de 30 ans pour ceux qui ont été diplômés durant la récession. Ces effets négatifs sont susceptibles de s’effacer au cours du temps (…). A nouveau, ce sont les économistes italiens et espagnols qui s’attendent le moins à d’amples effets négatifs. Comme nous l’avons suggéré précédemment, cela peut notamment s’expliquer par les différences que l’on a pu observer entre les pays dans les conditions sur le marché du travail avant la crise.

Que peuvent faire les diplômés lors d’une pandémie pour essayer de tirer profit de la situation ? Philip Oreopoulos, de l’Université de Toronto, fournit quelques conseils dans un récent article d’opinion (…). Outre la poursuite d’études, il suggère que le volontariat est une manière de mettre en pratique ses compétences et de gagner de l’expérience pour améliorer ses chances lors des futurs entretiens d’embauche. Néanmoins, les récents diplômés risquent d’avoir à être plus mobiles et à faire preuve d’une plus grande flexibilité dans leurs préférences en matière d’emploi que les précédentes cohortes. »

IZA, « Graduating in a pandemic may lead to long-term income losses », IZA Newsroom, 31 août 2020. Traduit par Martin Anota



aller plus loin...

« Le diplôme rapporte… surtout lors des récessions »

« Quelles sont les répercussions à long terme des pandémies ? »

« Quelle reprise de l’activité économique après une pandémie ? »

samedi 5 septembre 2020

Qu'est-ce que le ciblage de l'inflation moyenne ?

« La première grande revue stratégique du comité de politique monétaire de la Réserve fédérale est sur le point de s’achever. Depuis qu’elle l’a annoncée le 15 novembre 2018, la Fed s’est focalisée sur les stratégies, les outils et les pratiques en matière de communication (…).

Peut-être que le point le plus important dans le programme de révision de la Fed est celui de la stratégie de ciblage d’inflation (inflation-targeting) du comité de politique monétaire. Depuis 2012, ce dernier a explicitement ciblé un taux d’inflation de 2 % (mesuré par l’indice des prix à la consommation). Un objectif clé de la stratégie du comité de politique monétaire est d’ancrer les anticipations d’inflation de long terme, pour contribuer non seulement à la stabilité de prix, mais aussi à "l’amélioration de la capacité du comité à promouvoir l’emploi maximal face aux perturbations économiques majeures". Pourtant, depuis le début de l’année 2012, l’inflation des prix à la consommation a atteint en moyenne seulement 1,3 %, amenant beaucoup de responsables de la politique monétaire à s’inquiéter à l’idée qu’une inflation durablement basse pousse davantage l’inflation anticipée à la baisse (cf. Williams). Et, avec le taux directeur de la Fed de nouveau à proximité de zéro, la chute des anticipations d’inflation accroît le taux d’intérêt réel, resserrant les conditions monétaires et sapant les efforts des autorités monétaires pour stimuler la croissance et l’inflation.

Il est peu probable que la Fed ne garde pas l'idée d'un ciblage de 2 % d’inflation sous une forme ou sous une autre, mais cela laisse ouverte la possibilité d’autres changements. Dans cette note, nous discutons d’une alternative pour l’approche courante qui a fait l’objet d’une grande attention : à savoir le ciblage d’inflation moyenne. L’idée derrière le ciblage d’inflation moyenne est que, lorsque l’inflation se retrouve au-dessus de la cible, cela crée l’anticipation d’une plus forte inflation. Et, si l’inflation se retrouve en-dessous de sa cible, alors il faut réduire les anticipations d’inflation. Même quand le taux directeur atteint zéro, le résultat est un mouvement contracyclique dans les taux d’intérêt qui améliore l’efficacité de la politique conventionnelle.

Une banque centrale adoptant un cadre de ciblage d’inflation moyenne choisit une période de temps (qualifions-la de fenêtre de moyennisation) au cours de laquelle elle mesure l’inflation avec l’objectif d’atteindre une cible numérique (disons 2 %) en moyenne. En incluant un certain nombre d’années passées, ce système diffère fortement d’un ciblage d’inflation conventionnel. Dans le cadre de ce dernier, le passé est de l’histoire ancienne : la stratégie conventionnelle ignore ce qui a été raté par le passé, cherchant une cible numérique constante au cours d’une poignée d’années suivantes. A l’inverse, si la stratégie des autorités monétaires est celle du ciblage de l’inflation moyenne, alors elles vont essayer de rattraper une partie de leurs erreurs passées.

Pour voir la différence, considérons l’expérience américaine depuis 2012. Comme nous l’avons noté ci-dessus, au cours des huit dernières années, l’inflation a été en moyenne inférieure de 0,7 point de pourcentage par rapport à la cible de 2 % de la Fed. Malgré cet échec, l’objectif d’inflation à moyen terme dans le futur de la Fed est resté inchangé. Si la cible du comité de politique monétaire avait été l’inflation moyenne, leur cible future aurait été relevée pour compenser l’échec passé et finir par atteindre la moyenne.

Pour comprendre la mécanique du ciblage d’inflation moyenne, il est utile de considérer le cas du ciblage du niveau des prix. Cette stratégie est l’exact opposé du ciblage d’inflation pur, comme le passé n’est pas ignoré. En d’autres termes, le ciblage du niveau des prix est un ciblage d’inflation moyenne avec une fenêtre de temps infinie pour mesurer l’inflation. En l’occurrence, la banque centrale cherche à maintenir les prix à proximité de leur trajectoire de long terme qui augmente au taux cible, cherchant à compenser quelques erreurs passées, et ce qu’importe quand elles ont été commises. Plusieurs économistes ont conseillé le ciblage du niveau des prix précisément parce que (s'il est crédible) il peut réduire le taux d’intérêt réel anticipé lorsque les taux d’intérêt nominaux butent sur leur borne inférieure, ce qui permet d’assouplir davantage la politique monétaire sans que la banque centrale ait à recourir au forward guidance ou aux outils de bilan (cf. Woodford).

Pour illustrer la différence entre les deux approches, considérons deux banques centrales avec un objectif identique de 2 % de croissance annuelle du niveau des prix. La première suit une stratégie pure de ciblage d’inflation où le passé est oublié, tandis que la seconde suit une stratégie de ciblage du niveau des prix, cherchant à compenser les erreurs passées. En l’absence de tout choc qui éloigne l’inflation de la cible, les deux stratégies sont indistinctes : le niveau des prix s’élève au rythme constant de 2 % par an. (Nous empruntons cet exemple à George Kahn.)

Supposons, cependant, qu’il y ait un choc désinflationniste qui réduise l’inflation au cours de l’année t+1 d’un point de pourcentage de 2 % à 1 % (…). Supposons en outre que les deux banques centrales réussissent à retourner à leur cible à l’année t+3, c’est-à-dire au terme d’une période de deux années (que nous qualifierons de période de restauration). Le graphique ci-dessous montre les trajectoires du niveau des prix dans le cas de ces deux stratégies. Dans le cadre du ciblage d’inflation pur, la banque centrale cherche à relever l’inflation de 1 % à 2 % graduellement au cours de la période de restauration (il s’agit de la ligne bleue solide). Chose importante, alors que le niveau des prix retourne à une trajectoire qui est parallèle à la trajectoire de prix originelle, elle est à jamais inférieure à celle-ci : la ligne bleue est en-dessous de la ligne pointillée noire. C’est dans ce sens que le passé est oublié.

GRAPHIQUE Trajectoires du niveau des prix selon que la banque centrale cible l'inflation ou le niveau des prix lorsque l’inflation chute d’un point de % au cours d’une année

Cecchetti_Schoenholtz__ciblage_d__inflation_ciblage_du_niveau_des_prix.png

La ligne aux traits rouges montre la stratégie de ciblage du niveau des prix. Notons que cette ligne rejoint graduellement la ligne pointillée noire : l’inflation excède la cible d’inflation de 2 % à long terme au cours de la période de restauration. C’est ce qui signifie rattraper les erreurs passées pour une banque centrale : une période où l’inflation est supérieure à la cible suit une période où l’inflation est inférieure à la cible. En d’autres termes, dans le cadre du ciblage du niveau des prix, la politique monétaire est dépendante de l’histoire. Dans le cadre du ciblage d’inflation pur, elle ne l’est pas.

A partir de là, nous pouvons voir que le ciblage d’inflation moyenne est un hybride entre ciblage d’inflation pur et ciblage du niveau des prix (…). Plus la fenêtre de moyennisation est large, plus on se rapproche du ciblage du niveau des prix. De plus, les deux stratégies polaires ont différentes implications pour la variabilité du niveau des prix à long terme. En minimisant les écarts par rapport à la trajectoire ciblée, un ciblage du niveau des prix rend prévisible le niveau des prix à long terme, mais cela rend l’inflation plus volatile à court terme. Dans le cadre du ciblage d’inflation pur, les écarts par rapport à la trajectoire du niveau des prix originelle se creusent au cours du temps, réduisant la prévisibilité des prix à long terme.

Aux Etats-Unis, les différences pratiques entre ciblage d’inflation et ciblage du niveau des prix ont été limitées. Nous pouvons considérer que la Fed a de facto ciblé l’inflation depuis le milieu des années 1980. Néanmoins, au cours des trente dernières années, le niveau des prix (excluant l’alimentaire et l’énergie) s’est accru à peu près au rythme avec celui d’un pur régime de ciblage du niveau des prix, si bien que le taux d’inflation annuel moyen a été de 1,86 % (voir le graphique). Au même instant, sur des intervalles de temps plus courts, les écarts ont eu tendance à persister. Dans les premières années, l’inflation a typiquement dépassé la cible. Par conséquent, au deuxième trimestre 1995, le niveau des prix a dépassé la trajectoire à long terme de 4,6 %. Plus récemment, le schéma s’est inversé. Au deuxième trimestre 2020, le niveau des prix était inférieur de 3,5 % par rapport à sa trajectoire à long terme.

GRAPHIQUE Indice des prix des dépenses de consommation aux Etats-Unis (excluant l’alimentaire et l’énergie)

Cecchetti_Schoenholtz__ciblage_d__inflation_moyenne_aux_Etats-Unis.png

Cela implique que l’adoption d’un régime de ciblage d’inflation moyenne aurait été une mesure modérée, plutôt que radicale (cf. Reifschneider et Wilcox). Pour le voir, nous pouvons faire une simple simulation. Commençons par supposer (comme dans la simulation ci-dessus) que la banque centrale cible l’inflation moyenne sur cinq ans, en observant les trois années précédentes et en cherchant à restaurer le niveau le niveau des prix sur sa trajectoire de 2 % au cours des deux années suivantes. Au vu des limites quant à l’efficacité de la politique monétaire, nous soupçonnons que la période de restauration actuelle aurait été plus longue, donc cette hypothèse se traduit par une réponse plus agressive aux chocs et ajoute de la volatilité dans la cible d’inflation annuelle de la Fed. (D’un autre côté, si la période de restauration s’allonge, il devient plus difficile pour le comité de politique monétaire de faire un engagement crédible pour atteindre la cible d’inflation.)

Dans le graphique ci-dessous, prenant dans la fenêtre de moyennisation les trois années précédentes, nous indiquons la cible d’inflation annuelle impliquée pour une période de restauration de deux ans. (Notez qu’il s’agit d’une hypothèse statique : nous ne prenons pas en compte le fait que le processus d’inflation aurait changé si la Fed avait effectivement adoptée ce ciblage de l’inflation moyenne.) Sous ces hypothèses, la cible impliquée depuis 2011 aurait été comprise entre 2,2 % et 3,04 %, avec une moyenne de 2,65 %. Avec une fenêtre de moyennisation historique sur trois ans et une période de restauration de deux ans, la cible d’inflation de la Fed aurait été 0,65 point de pourcentage plus élevée pour la décennie passée. Si ce comportement de la banque centrale était crédible et anticipée, cela aurait réduit le taux d’intérêt de court terme réel moyen de 65 points de base, ce qui serait une stimulation bienvenue (quoique modérée) lorsque les taux d’intérêt nominaux étaient à la borne inférieure zéro. (Nous notons qu’un passage du prix excluant l’alimentaire et l’énergie à une mesure globale accroît la volatilité de la cible d’inflation visée sur les deux années suivantes, en élargissant sa gamme sur l’échantillon de 30 ans d’environ un point de pourcentage.)

GRAPHIQUE Hypothétique cible d’inflation moyenne focalisée sur les trois années précédentes et les deux années suivantes

Cecchetti_Schoenholtz__ciblage_d__inflation_moyenne_impliquee.png

Ce sont sûrement de bonnes nouvelles, mais il y a un risque avec un tel cadre. Celui-ci apparaît sur le graphique. Dans les quatre premières années des années 1990 (incluant la récession de 1990-1991), un régime de ciblage d’inflation moyen sur cinq ans qui inclut une période de restauration de deux ans se serait probablement traduite par une politique substantiellement plus restrictive que celle observée. En effet, la banque centrale aurait ciblé une déflation comprise entre -1,21 % et -0,17% !

Il faut noter que le ciblage d’inflation moyenne (comme le ciblage du niveau des prix) peut se traduire par des épisodes au cours desquels la banque centrale veut réduire le niveau des prix, pas simplement l’inflation. Cela peut expliquer pourquoi aucune banque centrale n’a explicitement adopté un tel cadre, du moins jusqu’à présent. Nous notons aussi qu’il est d’autant plus probable qu’une banque centrale cible la déflation que l’on élargit la fenêtre de moyennisation et réduit la période de restauration. Pour compenser cela, la banque centrale peut rendre flexibles ces deux périodes, mais cela diminuerait probablement la crédibilité de l’engagement de la banque centrale et son impact sur les anticipations d’inflation. Une alternative, proposée par Ben Bernanke, est de suivre une stratégie asymétrique : cibler l’inflation lors des expansions et ne cibler le niveau des prix que lors des récessions. Même si cela fait sens, nous pensons qu’il serait difficile de communiquer une telle approche de façon à stimuler les anticipations d’inflation au bon moment, lorsqu’une récession commence. (…) »

Stephen Cecchetti & Kermit Schoenholtz, « Average inflation targeting », in Money & Banking (blog), 24 août 2020. Traduit par Martin Anota

vendredi 28 août 2020

Des rats, des labyrinthes et le pouvoir des prophéties autoréalisatrices

« En 1963, un jeune psychologue appelé Bob Rosenthal mène une expérience dans laquelle ses assistants placent des rats dans des labyrinthes et observent ensuite combien de temps mettent les rats avant de trouver la sortie. Les rats sont placés dans deux cages : une pour ceux qui se sont révélés brillants et une seconde pour ceux qui se sont révélés médiocres. Les assistants ne sont pas surpris de voir que les rats intelligents sortent plus vite du labyrinthe que les autres.

Leur supérieur est par contre très surpris, parce qu’il sait qu’en vérité les deux cages contiennent des rats de laboratoire tout à fait ordinaires. Le professeur Rosenthal (qui poursuivra ensuite sa carrière dans un département de psychologie de Harvard) en conclut finalement que l’ingrédient secret était les anticipations de ses assistants : ils ont traité les rats "spéciaux" avec soin et traité avec mépris les rats "stupides". Quand nous nous attendons au meilleur, nous obtenons le meilleur, et ce même avec les rats.

L’histoire est bien racontée dans le nouveau livre, intitulé Humankind, de Rutger Bregman. Son intérêt pour les travaux du professeur Rosenthal n’est pas difficile à expliquer. Bregman affirme que les gens sont fondamentalement aimables et motivés. Mais il affirme aussi que lorsque nous attendons plus les uns des autres, alors, comme les rats, nous nous montrons à la hauteur. Si les enseignants, les policiers ou les patrons croient que les gens sont tristes, malhonnêtes ou paresseux, alors les choses ne leur donneront pas tort.

Le professeur Rosenthal est à l’origine de l’expression "effet Pygmalion", inspirée du récit d’Ovide où l’entichement d’un sculpteur pour sa statue insuffle la vie à celle-ci. Mais l’effet Pygmalion est simplement un exemple de ce que le sociologue Robert K. Merton appelait les "prophéties autoréalisatrices".

Il y a l’effet placebo et son jumeau malin, l’effet nocebo : si le docteur leur dit qu’un remède peut avoir des effets secondaires, certains patients peuvent ressentir ces effets secondaires, et ce même s’ils ont reçu des cachets neutres.

Les prophéties autoréalisatrices sont un concept incontournable en économie. Une récession peut être provoquée par l’anticipation d’une récession, si les gens hésitent à dépenser, à embaucher ou à investir. Et une ruée bancaire est la quintessence de la prophétie autoréalisatrice.

La prophétie autodestructrice est tout aussi fascinante et elle tourmente les prévisionnistes en économie. Si je prédis une hausse des prix du pétrole l’année prochaine, la hausse peut immédiatement survenir, dans la mesure où les traders réagissent à mon annonce en achetant davantage de pétrole aujourd’hui dans l’optique d’en vendre davantage plus tard. La prévision ne se vérifiera pas précisément parce que les gens croiront qu’elle est exacte.

L’ère du coronavirus nous en donne un bon exemple. Une minorité visible affirme que le coronavirus n’est pas pire que la grippe que nous ignorons chaque hiver, si bien que les confinements et les mesures volontaires de précaution ne sont pas nécessaires. Une observation des données donne à cette thèse l’allure de la vraisemblance. Le Royaume-Uni a souffert d’un excès de 65.000 décès durant la première vague de la pandémie et un excès de 25.000-30.000 décès est attribué chaque année à la grippe saisonnière en Angleterre. La disparité est-elle vraiment énorme pour justifier que le pays se mette à l’arrêt ?

L’erreur dans le raisonnement se manifeste clairement : le coronavirus n’a été "que" deux fois plus sévère que la grippe saisonnière parce que nous avons pris des mesures extrêmes pour le contenir. L’efficacité du confinement est utilisée comme argument pour prétendre que celui-ci n’a pas été nécessaire. C’est frustrant, mais c’est la nature d’une prophétie autodestructrice dans un environnement politisé. On pourrait dire la même chose à propos de Fort Knox. Personne n’a jamais essayé d’en voler l’or, donc pourquoi y mettre autant de gardes ?

Les prophéties autoréalisatrices peuvent être pernicieuses. Lorsqu’il écrit en 1948, Robert K. Merton se focalisait sur le racisme. Par exemple, certains prétendaient alors que les Afro-Américains étaient des briseurs de grève et qu’il fallait par conséquent les empêcher de rejoindre les syndicats. Merton nota que c’est parce qu’ils étaient exclus des syndicats que les Afro-Américains étaient des briseurs de grève. Le sexisme tient aussi aux prophéties autoréalisatrices. Puisque nos chefs étaient habituellement des hommes blancs par le passé, il est facile de favoriser de telles personnes pour les rôles de meneurs à l’avenir.

De telles prophéties peuvent aussi être utilisées pour le bien. Bob Rosenthal se pencha sur les écoles et il y constata que ce qui était vrai pour les rats traités avec respect l’était également des élèves. Convainquez un enseignant qu’un élève a des talents cachés et l’enfant l’éblouira bientôt.

Pourtant, il ne faut pas trop avoir foi envers la prophétie autoréalisatrice. L’excitation fiévreuse autour des cours boursiers de Tesla va aider l’entreprise à vendre des voitures et à soulever des fonds, mais, à long terme, la valeur d’une action Tesla sera déterminée par la profitabilité de Tesla. (…) Le fait est que certaines choses sont erronées malgré toute la ferveur avec laquelle nous les voulons qu’elles soient exactes. Nous plongeons souvent dans des projets avec beaucoup d’optimisme quant au temps qu’ils nous prendront et quant à leur résultat, mais notre optimisme ne fait que nous lancer. Il ne concrétise pas le projet.

Je pense que nous gagnerons à nous traiter les uns les autres avec gentillesse et respect et ce pas simplement parce que cela a marché avec les rats de Bob Rosenthal. Mais il y a des limites au pouvoir de la pensée positive. Même dans les dessins animés, Vil Coyote finit toujours par être rattrapé par la force de la gravité. »

Tim Harford, « Rats, mazes, and the power of self-fulfilling prophecies », 17 juillet 2020. Traduit par Martin Anota

- page 1 de 39