Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Epistémologie et histoire de la pensée

Fil des billets

lundi 25 octobre 2021

Economie du socialisme et de la transition : la vie et l’œuvre de János Kornai

« Le grand économiste hongrois János Kornai nous a quittés. Il fut l’un des intellectuels les plus importants du vingtième siècle. Il vécut sous le nazisme et le communisme, les deux régimes totalitaires du vingtième siècle. Né dans une famille juive à Budapest, il perdit son père et l’un de ses frères à cause des nazis. Comme beaucoup d’autres jeunes juifs en Europe centrale qui survécurent à l’Holocauste, il fut pendant deux ans un partisan enthousiaste du communisme, le grand ennemi du nazisme. Au bout de quelques années, il en était désenchanté, en particulier lorsqu’il prit connaissance des purges staliniennes en Hongrie au début des années 1950.

Sa thèse en économie, Overcentralization in Economic Administration, était remplie de faits relatifs aux vices de la planification centrale et représenta un grand bol d’air frais dans l’atmosphère intellectuelle à l’époque. Il présenta sa thèse juste avant la répression soviétique de la Révolution hongroise de 1956. Sa soutenance fut suivie par une grande foule et constitua l’un des événements intellectuels majeurs de cette année-là. Etant donnée la visibilité de sa thèse, quand la répression vint, il perdit son poste à l’Institut d’économie (…), fut interrogé et se retrouva finalement avec des postes marginaux, d’abord au Bureau de Planification de l’Industrie légère, puis à l’Institut de Recherche de l’Industrie textile.

Au lieu de se décourager ou de plonger dans le cynisme, il utilisa le temps libre qu’il avait dans ces emplois obscurs pour étudier sérieusement l’économie et mieux se former à la recherche économique qui se faisait en Occident, de l’autre côté du Rideau de Fer. Son travail sur la planification à deux niveaux avec Tamás Lipták fut publié dans la revue Econometrica et devint un article important dans la littérature sur l’économie de la planification. Il en obtint une véritable reconnaissance de la part d’économistes proéminents de l’époque, notamment Kenneth Arrow, Leonid Hurwicz, Tjalling Koopmans et Edmond Malinvaud. Les autorités hongroises, qui étaient plus ouvertes que les autres régimes communistes, lui permirent même de voyager pour assister à des conférences en Occident, bien que sous la supervision étroite de la police secrète.

Au lieu de se contenter de devenir l’économiste le plus en vue concernant l’Europe centrale et orientale (avec le plus âgé Leonid Kantorovich, l’inventeur de la programmation linéaire, qui reçut le prix Nobel d’économie en 1975), Kornai écrit en 1971 un livre avec le titre provocateur, Anti-Equilibrium, qui représenta une virulente critique de la pertinence de la théorie de l’équilibre générale, le joyau de la couronne de la théorie économique. Ce livre proposa aussi d’ajouter des considérations relatives à la sphère informationnelle de l’économie, en développant des thèmes comme l’asymétrie informationnelle, la négociation, les conventions, les routines, les aspirations, des thèmes qui furent ensuite développés par d’autres économistes.

La thèse la plus développée de ce livre était que les économies capitalistes sont dans un état permanent d’excès d’offre (surproduction), tandis que les économies centralement planifiées sont dans un état constant d’excès de demande (pénurie). Kornai a tiré toutes les implications de cette analyse avec de minutieux détails. Je me souviens avoir évoqué des arguments de son livre dans mon cours sur l’équilibre général à l’université, ce qui ennuya sûrement le professeur. Olivier Blanchard me raconta un jour qu’il eut une expérience similaire. Le livre de Kornai était extrêmement populaire parmi les jeunes économistes rebelles qui voulaient changer le monde.

Son magnum opus, Socialisme et économie de la pénurie (Economics of Shortage), a été publié en 1980. Alors que ses précédents travaux sur l’économie de la planification étaient essentiellement théoriques (toute cette littérature était très éloignée du fonctionnement réel de la planification), ce fut le premier livre à proposer une analyse systématique et puissante de la façon par laquelle l’économie socialiste fonctionnait en pratique. En débutant avec le concept de contrainte budgétaire lâche (ou molle) (dans les économies socialistes, les entreprises publiques qui faisaient des pertes n’étaient jamais fermées), Kornai expliqua comment cela menait à une hausse de la demande par les entreprises, les rendant peu sensibles aux variations des prix. Ce supplément de demande menait à des pénuries généralisées qui influençaient profondément le comportement des dirigeants d’entreprises, des consommateurs et des planificateurs.

Aucun autre livre n’analysa les effets des pénuries d’une façon aussi complète sur des centaines de pages. Il approfondit son analyse dans Le Système Socialiste : l’économie politique du communisme (The Socialist System: The political economy of communism) en 1992, qu’il put écrire sans avoir à s’autocensurer et en expliquant clairement le rôle du Parti communiste dans l’instauration institutionnelle de l’économie socialiste.

Quand le Mur de Berlin chuta et que les régimes communistes s’effondrèrent les uns après les autres à la fin de l’année 1989, Kornai écrit un bref livre, The Road to a Free Economy, présentant un programme clair pour une transition économique vers l’économie de marché. Comme beaucoup d’autres économistes, notamment moi-même, il s’est opposé aux privatisations de masse et marqua ses préférences pour un développement organique du secteur privé. La plupart de ses idées concernant la transition se révélèrent correctes.

Il continua d’écrire des articles influents à propos de la transition et les réformes durant les années quatre-vingt-dix, même si déjà sa santé de détériorait. Il a fait sensation il y a deux ans en exprimant ses regrets d’avoir conseillé le régime communiste chinois pour créer un "Frankenstein", en l’occurrence une économie capitaliste très efficace dans le cadre d’un régime communiste représentant la plus importante menace pesant sur la liberté dans le monde aujourd’hui, en raison de sa force croissante et de ses ambitions hégémoniques.

Tout au long du processus de transition, il a toujours insisté sur ses "préférences lexicographiques" : la liberté, les droits humains et la démocratie prévalant sur la croissance économique et le bien-être matériel. Après avoir vécu sous le nazisme et le communisme, il était triste de voir à la fin de sa vie la démocratie en Hongrie être démantelée par le régime Orbán.

Contrairement à beaucoup de mes amis, en particulier des coauteurs comme Yingyi Qian et Chenggang Xu, je n’ai jamais été son étudiant, mais ses livres ont eu, et ont toujours, une profonde influence sur la pensée en tant qu’économiste. La première fois où je l’ai rencontré, j’étais encotre étudiant et il était président de l’European Economic Association en 1987. Inutile de préciser que j’étais très intimidé par lui et il me fallut beaucoup de courage pour l’approcher pour parler à propos de recherche.

(…) Il n’est plus avec nous désormais, mais il continuera de m’inspirer et d’inspirer bien d’autres chercheurs. Un véritable héros intellectuel ! »

Gérard Roland, « Economics of socialism and transition: The life and work of János Kornai, 1928-2021 », 23 octobre 2021. Traduit par Martin Anota

lundi 11 octobre 2021

Card, Angrist et Imbens, ou comment les expériences naturelles peuvent aider à répondre à d’importantes questions

David_Card_Joshua_Angrist_Guido_Imbens__prix_Nobel_d__economie_2021.png

« Les lauréats de cette année, David Card, Joshua Angrist et Guido Imbens, ont montré que les expériences naturelles peuvent être utilisées pour répondre à d’importantes questions de société, par exemple pour savoir comment le salaire minimum et l’immigration peuvent affecter le marché du travail. Ils ont aussi clarifié quelles conclusions à propos de la cause et de l’effet peuvent être tirées lorsque l'on utilise cette approche. Ensemble, ils ont révolutionné la recherche empirique dans les sciences économiques…

Pour prendre les bonnes décisions, nous devons comprendre les conséquences de nos choix. Cela s’applique aussi bien aux individus qu’aux responsables de la politique publique : les jeunes qui prennent leurs décisions en matière de poursuite d’études veulent savoir comment celles-ci affecteront leur revenu futur ; les politiciens considérant un éventail de réformes veulent savoir comment celles-ci affecteront l’emploi et la répartition du revenu, par exemple. Cependant, répondre à de grandes questions à propos de la cause et de l’effet n’est pas facile, parce que nous ne saurons jamais ce qui se serait passé si nous avions fait un choix différent.

Une façon d’établir une causalité est d’utiliser des expériences randomisées, où les chercheurs répartissent les individus à des groupes de contrôle de façon aléatoire. Cette méthode est utilisée pour étudier l’efficacité de nouveaux médicaments, parmi d’autres choses, mais elle n’est pas adaptée pour étudier plusieurs questions de société. Par exemple, nous ne pouvons pas réaliser une expérience aléatoire déterminant qui ira à l’université et qui n’y ira pas.

Malgré ces problèmes, les lauréats de cette année ont montré qu’il était possible de répondre à plusieurs des grandes questions de société. Leur solution consiste à utiliser des expériences naturelles, c’est-à-dire des situations survenant dans la vraie vie qui ressemblent à des expériences randomisées. Ces expériences naturelles peuvent résulter de variations naturelles aléatoires, de règles institutionnelles ou de changements de politique publique. Dans un travail pionnier au début des années 1990, David Card a analysé certaines questions centrales en économie du travail (telles que les effets d’un salaire minimum, de l’immigration et de l’éducation) en utilisant cette approche. Les résultats de ces études ont remis en cause la croyance conventionnelle et suscité de nouveaux travaux, auxquels Card a continué d’apporter d’importantes contributions. Globalement, nous avons à présent une bien meilleure compréhension du fonctionnement du marché du travail qu’il y a trente ans.

Les expériences naturelles diffèrent des essais cliniques sur un point important. Dans un essai clinique, le chercheur a le contrôle total sur l’identité des personnes qui se voient proposer un traitement et est ainsi susceptible de le recevoir (le groupe de traitement) et sur celle des personnes qui ne se voient pas proposer le traitement et qui ne le reçoivent pas par conséquent (le groupe de contrôle). Dans une expérience naturelle, le chercheur a aussi accès aux données du traitement et des groupes de contrôle, mais, à la différence d’un essai clinique, les individus peuvent eux-mêmes avoir choisi s’ils veulent participer à l’intervention qui est proposée. Cela rend encore plus difficile d’interpréter les résultats d’une expérience naturelle. Dans une étude innovante de 1994, Joshua Angrist et Guido Imbens ont montré quelles conclusions à propos de la causalité peuvent être tirées d’expériences naturelles dans lesquelles les gens ne peuvent être forcés de participer au programme qui est étudié (ni interdits de le faire). Le cadre qu’ils ont créé a radicalement changé la façon par laquelle les chercheurs s’attaquent aux questions empiriques en utilisant les données d’expériences naturelles ou d’expériences de terrain randomisées.

Un exemple d’expérience naturelle


Prenons un exemple concret pour illustrer comment fonctionne une expérience naturelle. Une question qui est pertinente pour la société et les jeunes considérant leur avenir est de savoir combien vous gagnez de salaire en plus en choisissant d’étudier plus longtemps. Une tentative initiale pour répondre à cette question peut impliquer de regarder les données sur le lien entre la rémunération des gens et leur éducation. Par exemple, pour les hommes nés aux Etats-Unis durant les années 1930, les rémunérations étaient en moyenne 7 % plus élevées pour ceux qui avaient une année supplémentaire d’éducation.

Donc, pouvons-nous conclure qu’une année supplémentaire d’éducation ajoute 7 % à votre revenu ? La réponse à cette question est non : les gens qui choisissent de rester longtemps scolarisés diffèrent de plusieurs façons de ceux qui choisissent de vite quitter l’école. Par exemple, certains peuvent être talentueux pour étudier et pour travailler. Ces gens sont susceptibles de continuer d’étudier, mais ils auraient tout de même probablement eu un revenu élevé s’ils ne l’avaient pas fait. Il se peut aussi que ce soit seulement ceux qui s’attendent à ce que l’éducation rapporte qui choisissent d’étudier plus longtemps.

Des problèmes similaires surviennent si vous voulez savoir comment le revenu affecte l’espérance de vie. Les données montrent que les gens avec des revenus plus élevés vivent plus longtemps, mais est-ce vraiment dû à leurs revenus plus élevés ou est-ce que ces gens avaient d’autres attributs qui expliquent à la fois qu’ils vivent plus longtemps et qu’ils gagnent plus ? Il est facile de trouver des exemples où il y a des raisons de se demander si la corrélation implique vraiment une relation de causalité.

Donc, comment pouvons-nous utiliser une expérience naturelle pour examiner si des années additionnelles d’éducation affectent le revenu futur ? Joshua Angrist et son collègue Alan Krueger (maintenant décédé) ont montré comment cela peut être fait dans un article majeur. Aux Etats-Unis, les enfants peuvent quitter l’école lorsqu’ils atteignent 16 ou 17 ans, en fonction de l’Etat où ils sont scolarisés. Parce que tous les enfants qui sont nés au cours d’une année donnée commencent l’école à la même date, les enfants qui sont nés plus tôt dans l’année peuvent quitter l’école plus tôt que les enfants nés plus tard. Quand Angrist et Krueger ont comparé les gens nés au premier trimestre avec ceux nés au quatrième trimestre, ils constatèrent que le premier groupe avait, en moyenne, passé moins de temps à l’école. Les gens nés au premier trimestre ont aussi eu des revenus plus faibles que ceux nés au quatrième trimestre. Lorsqu’ils atteignaient l’âge adulte, ils avaient à la fois moins d’éducation et de moindres revenus que ceux nés plus tard dans l’année.

Angrist_Krueger__association_entre_scolarite_education_et_revenu.png

La date de naissance est aléatoire, Angrist et Krueger ont été capables d’utiliser cette expérience naturelle pour établir une relation causale montrant qu’un surcroît d’éducation mène à un revenu plus élevé : l’effet d’une année additionnelle d’éducation sur le revenu était de 9 %. Ce fut surprenant que cet effet soit plus fort que la corrélation entre l’éducation et le revenu, qui équivalait à 7 %. Si les gens ambitieux et intelligents ont à la fois des niveaux d’éducation plus élevés et de plus hauts revenus (qu’importe l’éducation) nous aurions dû voir l’opposé : la corrélation aurait dû être plus forte que la relation causale. Cette observation suscita de nouvelles questions à propos de la façon d’interpréter les résultats des expériences naturelles, des questions auxquelles Joshua Angrist et Guido Imbens apportèrent par la suite une réponse.

Il serait facile de croire que des situations qui permettent les expériences naturelles sont très rares, en particulier celles qui peuvent être utilisées pour répondre à des questions importantes. La recherche au cours des trente dernières années a montré que ce n’est pas le cas : les expériences naturelles surviennent fréquemment. Par exemple, ils peuvent survenir en raison de changements dans certaines régions d’un pays (…) ou les seuils de revenu dans les systèmes socio-fiscaux, ce qui signifie que certains individus sont exposés à une intervention, pendant que d’autres individus, similaires, ne le sont pas. Il y a donc un hasard inattendu qui répartit les individus entre groupes de contrôle et groupes de traitement, fournissant aux chercheurs des opportunités pour découvrir des causalités.

Mieux comprendre le marché du travail

Les effets d’un salaire minimum

Au début des années 1990, le consensus parmi les économistes était qu’une hausse du salaire minimum détériore l’emploi parce qu’elle augmente les coûts des entreprises. Cependant, les éléments empiriques soutenant cette conclusion n’étaient pas très convaincants : il y avait en effet plusieurs études qui indiquaient une corrélation négative entre salaire minimum et emploi, mais est-ce que cela signifiait pour autant qu’une hausse du salaire minimum entraînait un chômage plus élevé ? Il peut y avoir une causalité inverse : quand le chômage augmente, les employeurs peuvent fixer de plus faibles salaires, ce qui alimente la demande en faveur d’une hausse du salaire minimum.

Pour étudier comment le salaire minimum affecte l’emploi, Card et Krueger ont utilisé une expérience naturelle. Au début des années 1990, le salaire horaire minimum dans l’Etat du New Jersey est passé de 4,25 dollars à 5,05 dollars. Etudier simplement ce qui s’est passé dans le New Jersey après cette hausse ne donne pas une réponse fiable à la question, comme de nombreux autres facteurs peuvent influencer le niveau d’emploi au cours du temps. Comme avec les expériences randomisées, un groupe de contrôle était nécessaire, c’est un groupe où les salaires ne changent pas, mais pour lequel tous les autres facteurs sont les mêmes.

David_Card_Alan_Krueger__fast-foods_Pennsylvanie_New_Jersey.png

Card et Krueger ont noté qu’il n’y a pas eu de revalorisation du salaire minimum dans l’Etat voisin de Pennsylvanie. Bien sûr, il peut y avoir des différences entre les deux Etats, mais il est probable que les marchés du travail évoluent assez similairement à proximité de la frontière entre les deux Etats. Donc, Card et Kruger ont étudié l’évolution de l’emploi dans deux zones voisines, le New Jersey et l’est de la Pennsylvanie, qui ont un marché du travail similaire, mais où le salaire minimum a augmenté d'un seul côté de la frontière, mais non l’autre. Il n’y avait pas de raison apparente de croire qu’un facteur autre que la hausse du salaire minimum (tel que la situation économique) affecterait différemment l’emploi des deux côtés de la frontière. Donc, si un changement dans le nombre de salariés était observé dans le New Jersey et non de l’autre côté de la frontière, il y avait de bonnes raisons d’interpréter ce changement comme un effet de la hausse du salaire minimum.

Card et Kruger se sont focalisés sur l’emploi dans les fast-foods, un secteur où la rémunération est faible et pour lequel le salaire minimum importe. Contrairement aux précédents travaux, ils trouvent qu’une hausse du salaire minimum n’a pas d’effet sur le nombre de salariés. David Card est arrivé à la même conclusion dans deux études au début des années 1990. Ce travail pionnier a suscité une vague d’études. La conclusion générale est que les effets négatifs d’une revalorisation du salaire minimum sont faibles et significativement plus faibles que ce que l’on croyait il y a trente ans.

Emploi dans le New Jersey et en Pennsylvanie (en indices, base 100 en février 1992)

David_Card_Alan_Krueger__emploi_New_Jersey_Pennsylvanie_apres_hausse_salaire_minimum.png

Le travail réalisé par Card au début des années 1990 a aussi suscité de nouveaux travaux cherchant à expliquer l’absence d’effets négatifs sur l’emploi. Une possible explication est que les entreprises peuvent répercuter la hausse des coûts à leurs clients sous la forme de prix plus élevés, sans réduction significative de la demande. Une autre explication est que les firmes qui dominent leur marché du travail local peuvent maintenir les salaires à un faible niveau. Quand les entreprises ont un tel pouvoir de marché, nous ne pouvons pas déterminer à l’avance comment l’emploi sera affecté par les changements du salaire minimum. Les diverses études inspirées par celle de Card et Krueger ont considérablement amélioré notre compréhension du marché du travail.

Des travaux sur l’immigration et l’éducation

Une autre question importante est de savoir comment l’immigration affecte le marché du travail. Pour vraiment répondre à cette question, il faudrait savoir ce qui se serait passé s’il n’y avait pas eu d’immigration. Parce que les immigrés sont susceptibles de s’installer dans les régions avec un marché du travail en expansion, comparer simplement les régions avec immigrés et celles sans immigrés ne suffit pas pour établir une relation causale. Un événement unique dans l’histoire américaine a donné lieu à une expérience naturelle, que David Card a utilisée pour déterminer comment l’immigration affecte le marché du travail. En avril 1980, Fidel Castro a de façon inattendue autorisé tous les Cubains qui le désiraient à quitter le pays. Entre mai et septembre, 125.000 Cubains émigrèrent aux Etats-Unis. Beaucoup d’entre eux s’installèrent à Miami, qui connut une hausse de la population active d’environ 7 %. Pour examiner comment cet afflux de travailleurs a affecté le marché du travail de Miami, David Card a comparé les tendances des salaires et de l’emploi à Miami avec l’évolution des salaires et de l’emploi dans quatre autres villes.

Malgré l’énorme hausse de l’offre de travail, Card n’a pas trouvé d’effet négatif pour les résidents de Miami avec de faibles niveaux d’éducation. Les salaires n’ont pas chuté et le chômage n’a pas augmenté relativement aux autres villes. Cette étude a généré de nombreux travaux empiriques et nous avons à présent une meilleure compréhension des effets de l’immigration. Par exemple, les études subséquentes ont montré que la hausse de l’immigration a un effet positif sur le revenu de plusieurs groupes de natifs, mais négatif sur ceux qui sont issus d’une vague récente d’immigration. Une explication est que les autochtones se tournent vers des emplois qui nécessitent une bonne maîtrise de la langue native et là où ils ne sont pas en concurrence avec les immigrés pour l’emploi.

Card a aussi fait d’importantes contributions en ce qui concerne l’impact des ressources scolaires sur la trajectoire future des étudiants sur le marché du travail. A nouveau, ses résultats remettent en cause la croyance conventionnelle : de précédentes études suggéraient que la relation entre ressources accrues et performance scolaire, aussi bien que les opportunités ultérieures sur le marché du travail, est faible. Cependant, un problème était que les précédents travaux n’avaient pas considéré la possibilité d’une allocation de ressources compensatrices. Par exemple, il est probable que les responsables investissent davantage dans la qualité éducationnelle dans les écoles où la réussite des élèves est plus faible.

Pour examiner si les ressources scolaires ont un impact sur la trajectoire ultérieure des étudiants sur le marché du travail, David Card et Alan Krueger ont comparé les rendements de l’éducation pour les personnes qui vivaient dans le même Etat aux Etats-Unis, mais qui avaient grandi dans des Etats différents, par exemple ceux qui avaient grandi en Alabama ou dans l’Iowa, mais qui vivaient désormais en Californie. L’idée est que les personnes qui ont déménagé en Californie et qui ont le même niveau d’éducation sont comparables. Si les rendements de l’éducation diffèrent, c’est probablement dû au fait que l’Alabama et l’Iowa n’ont pas investi autant dans leur système éducatif. Card et Krueger ont constaté que les ressources sont importantes : les rendements de l’éducation augmentent avec la densité d’enseignants dans l’Etat dans lequel les individus ont grandi.

Cette recherche a aussi inspiré de nombreuses études. Il y a désormais des éléments empiriques montrant de façon robuste que les investissements dans l’éducation influencent la trajectoire ultérieure des étudiants sur le marché du travail. Cet effet est particulièrement fort pour les étudiants issu de milieux défavorisés.

Un nouveau cadre pour étudier les relations causales

Dans tous les scénarii réalistes, l’effet d’une intervention (par exemple, l’effet d’une année supplémentaire de scolarité) varie d’une personne à l’autre. En outre, les individus ne sont pas affectés de la même façon par une expérience naturelle. La possibilité de quitter l’école à 16 ans va peu affecter ceux qui avaient déjà prévu d’aller à l’Université. Des problèmes similaires surviennent dans les études basées sur des expériences, parce que nous ne pouvons typiquement pas forcer les individus à participer à une intervention. Le sous-groupe qui finira par participer se composera probablement d’individus croyant qu’ils vont tirer un bénéfice de l’intervention. Cependant, un chercheur qui analyse les données sait seulement qui participe, non pourquoi ; il n’y a pas d’informations indiquant quelles personnes ont seulement participé parce qu’on leur en a donné la possibilité grâce à l’expérience naturelle (ou l’expérience randomisée) et quelles personnes y auraient de toute façon participé. Comment peut-on établir une relation causale entre éducation et revenu ?

Joshua_Angrist_Guido_Imbens__effet_de_traitement_moyen_local.png

Joshua Angrist et Guido Imbens se sont attaqués à ce problème dans une étude influente du milieu des années 1990. En l’occurrence, ils se sont posé la question suivante : dans quelles conditions pouvons-nous utiliser une expérience naturelle pour estimer les effets d’une intervention particulière, telle qu’un cours d’informatique, quand les effets varient d’un individu à l’autre et que nous n’avons pas complètement contrôlé qui participe ? Comment pouvons-nous estimer cet effet et comment doit-il être interprété ?

Si l’on simplifie un peu, nous pouvons imaginer une expérience naturelle comme si elle répartissait aléatoirement les individus entre un groupe de traitement et un groupe de contrôle. Le groupe de traitement a la possibilité de participer à un programme, tandis que le groupe de contrôle n’en a pas la possibilité. Angrist et Imbens ont montré qu’il est possible d’estimer l’effet du programme en appliquant un processus en deux étapes (connu sous le nom de "méthode des variables instrumentales"). La première étape évalue comment l’expérience naturelle affecte la probabilité de participer à un programme. La deuxième étape considère alors cette probabilité quand elle évalue l’effet du programme effectif. Au prix de quelques hypothèses, qu’Imbens et Angrist ont formulées et discutées en détails, les chercheurs peuvent donc estimer l’impact du programme, même quand il n’y a pas d’information sur l’identité de ceux qui ont été affectés par l’expérience naturelle. Une importante conclusion est qu’il est seulement possible d’estimer l’effet parmi les personnes qui ont changé leur comportement en conséquence de l’expérience naturelle. Cela implique que la conclusion d’Angrist et Krueger à propos de l’effet sur le revenu d’une année supplémentaire de scolarité (un gain qu’ils ont estimé être de 9 %) s’applique seulement aux personnes qui ont effectivement choisi de quitter l’école quand la possibilité leur a été donnée. Il n’est pas possible de déterminer quels individus sont inclus dans ce groupe, mais nous pouvons déterminer sa taille. L’effet pour ce groupe a été qualifié d’"effet de traitement moyen local".

Joshua Angrist et Guido Imbens ont donc montré exactement quelles conclusions à propos de la cause et de l’effet peuvent être tirées des expériences naturelles. Leur analyse est aussi pertinente pour les expériences randomisées où nous n’avons pas un contrôle complet sur l’identité des participants à l’intervention, ce qui est le cas de presque toutes les expériences de terrain. Le cadre développé par Angrist et Imbens a été largement adopté par les chercheurs qui travaillent avec des données observationnelles. En clarifiant les hypothèses nécessaires pour établir une relation causale, leur cadre a aussi augmenté la transparence (et donc la crédibilité) de la recherche empirique. (...) »

L'Académie royale des sciences de Suède, « Natural experiments help answer important questions », 11 octobre 2021. Traduit par Martin Anota



aller plus loin... lire « L’immigration nuit-elle à l’emploi ? »

jeudi 7 octobre 2021

L’économie a-t-elle un problème avec les femmes ?

« Quand Elinor Ostrom est devenue la première femme à recevoir le Prix de la Banque de Suède en mémoire de Nobel en 2009, elle a dit : "je ne serai pas la dernière". Elle n’est certes plus, depuis, la seule femme à avoir obtenu cette récompense, mais ce fut incroyablement tardif. Autre chose gênante, Ostrom, qui mourut en 2012, fut récompensée malgré le fait qu’elle fut en dehors de l’économie orthodoxe.

Mais alors, la science économique a-t-elle un problème avec les femmes ? Et les femmes ont-elles un problème avec la science économique ?

Un peu plus tôt cet été, la Royal Economic Society a publié un rapport passant en revue le déséquilibre de genre en économie au Royaume-Uni. (…) Le tableau qu’elle dresse n’est pas très encourageant. L’économie universitaire reste une activité très largement masculine et plus on monte dans la hiérarchie des postes, plus la domination masculine est importante. Les femmes constituent 32 % des étudiants en économie (contre 27 % en 1996) et 26 % des économistes universitaires (contre 18 % en 1996).

Sur l’échelle d’un quart de siècle, le rythme des progrès n’est pas très rassurant. C’est aussi une mauvaise nouvelle pour la science économique. L’économiste Diane Coyle, professeure de politique publique à Cambridge, le dit succinctement ainsi : "il n’est pas possible de faire de la bonne science sociale si vous êtes si peu représentatif de la société".

Le problème semble bien plus aigu pour l’économie universitaire que pour la science économique en général. La moitié de tous les étudiants diplômés en économie sont des femmes. Ces femmes semblent ensuite aller dans le secteur privé (la banque, le cabinet-conseil et la technologie d’information) ou elles vont dans des think-tanks, la Banque d’Angleterre ou le Government Economic Service, qui emploient tous une plus grande proportion de femmes économistes que ne le font les universités. Au niveau international, les femmes dirigent actuellement ou ont récemment dirigé le Trésor américain, la Réserve fédérale des Etats-Unis et le FMI. Les économistes en chefs du FMI et de la Banque mondiale sont des femmes. Donc, il semble extraordinaire que l’économie universitaire soit si peu accessible ou si peu attrayante pour les femmes.

Une part du problème tient à la précarité des emplois universitaires dans tous les champs et les exigences à publier à un rythme frénétique au moment même où beaucoup de femmes envisagent de prendre un congé maternité. Il ne doit pas être impossible de redéfinir les emplois universitaires pour les rendre plus attrayants et disponibles pour les personnes avec d’autres exigences en ce qui concerne leur temps. Jusqu’à présent, malheureusement, il ne semble pas que nous y soyons parvenus.

Mais le manque d’opportunités de carrière compatibles avec la vie de famille n’est pas le seul problème. Il y a quatre ans, Alice Wu, alors étudiante de l’Université de Berkeley, a publié une étude où elle analysait systématiquement le langage utilisé à propos des femmes universitaires sur le forum web EconJobRumors. (J’épargne aux lecteurs les détails, souvent avec des allusions sexuelles, un contenu offensant ou les deux. Mais les jeunes femmes économistes explorant le marché du travail universitaire ne s'épargnent pas ces "détails".)

L’étude de Wu a entraîné une certaine prise de conscience à l’American Economic Association, qui accorde depuis davantage d’attention à la mesure de la discrimination que les femmes peuvent rencontrer dans la profession. Il reste à voir si quelque chose de productif en est tiré, mais il vaut mieux s’informer sur ces problèmes plutôt que de les ignorer.

La journaliste économique Stacey Vanek Smith, auteur de Machiavelli for Women, estime que la transparence aide à faire changer les choses. Au Royaume-Uni, il est désormais obligatoire pour une organisation avec au moins 250 salariés de rendre public tout écart dans la rémunération moyenne entre hommes et femmes. Vanek Smith pense que cette règle réduit les inégalités salariales de genre : il est embarrassant d’avoir à expliquer de béantes inégalités salariales et les chefs n’aiment pas être embarrassés. Il est aussi maintenant devenu embarrassant d’avoir trop peu de femmes universitaires dans les postes de responsabilité universitaires, en particulier quand les femmes sont si visibles dans les postes de responsabilité dans les institutions de politique économique.

Donc il y a de l’espoir. Et un simple petit pas supplémentaire consisterait à mieux vendre l’économie à ceux qui arrivent à l’université et à mieux l'enseigner à ceux qui l'ont choisie comme discipline. "Si vous demandez" à des jeunes "comment ils décriraient un économiste, ils diront que c’est un homme ennuyeux avec un costume trois pièces", dit Sarah Smith, professeure d’économie à l’Université de Bristol. "Si vous leur demandez de quoi parle l’économie, ils vous diront d’argent, de banque et de finance." Smith et Diane Coyle pensent que cette identification de l’économie à l’argent et à la finance est quelque chose qui attire davantage les garçons de 17 ans que les filles de 17 ans. Je ne peux pas prouver que cette mauvaise perception contribue aux déséquilibres en termes de genre, mais elle joue certainement sur la "vente" de l’économie.

Core, un cours influent à accès libre, adopte une approche différente. Il commence avec de grosses questions économiques concernant les inégalités, la pauvreté et le développement durable, des questions que les étudiants à travers le monde considèrent comme essentielles. Core utilise ensuite les outils parfaitement standards en économie pour explorer ces questions. Cela rend davantage justice à ce que la science économique peut être. Si elle augmente aussi l’attrait de la matière, c’est un bonus.

La carrière d’Elinor Ostrom doit servir d’exemple. Elle a été écartée de l’économie conventionnelle parce que, parce qu’elle était une fille dans les années 1940, elle a été écartée des mathématiques. Elle s’est lancée dans la science politique et a abouti à une compréhension plus inclusive des questions auxquelles l’économie pouvait s’attaquer, des outils qui pouvaient être utilisés et des personnes qui devaient être là quand des décisions étaient prises. C’est une personne qui a permit d’approfondir la science économique en l’élargissant. Elle ne sera pas la dernière à le faire. »

Tim Harford, « Does economics have a problem with women? », 23 septembre 2021. Traduit par Martin Anota



aller plus loin... lire « La science économique rend-elle sexiste ? »

dimanche 5 septembre 2021

Réapprendre de vieilles idées en macroéconomie après la contre-révolution des nouveaux classiques

« Ce billet poursuit ce que Chris Dillow a développé dans un billet. Celui-ci fait deux affirmations à propos de la macroéconomie. Pour les comprendre, vous devez connaître la distinction entre économie orthodoxe et économie hétérodoxe. Il est difficile de définir précisément ce qui distingue ces deux groupes (beaucoup d’articles et de chapitres ont essayé de le faire), mais nous pouvons faire quelques observations. La plupart des économistes dans les départements universitaires sont orthodoxes et les économistes hétérodoxes se répartissent entre différentes écoles. Une autre observation est que les économistes orthodoxes ignorent presque totalement ce que les hétérodoxes font. Il est faux de dire que tous les économistes hétérodoxes sont orientés politiquement à gauche ou qu’aucun orthodoxe ne l’est.

Chris affirme tout d’abord que l’essentiel de l’économie hétérodoxe est la macroéconomie qui était dominante il y a longtemps. Sa seconde affirmation concerne l’orthodoxie. Il suggère qu’il y a eu une "grande amnésie" dans les années 1980, dans la mesure où plusieurs idées présentées comme nouvelles aujourd’hui sont juste de vieilles idées qui semblent avoir été oubliées. Je pense que chacune de ces affirmations a une certaine validité et j’espère parvenir ic à expliquer pourquoi cela est arrivé et quel lien il y a entre elles.

La grande amnésie a eu lieu en raison d’une révolution méthodologique en macroéconomie, en l’occurrence la contre-révolution des nouveaux classiques. Beaucoup à cette époque se sont focalisés sur un aspect de cette révolution, en l’occurrence l’attaque portée à l’encontre de ce qui constituait à l’époque la macroéconomie keynésienne orthodoxe. Celle-ci a rapidement échoué, mais ce qui a duré par contre fut une révolution méthodologique, qui est souvent qualifiée de microfondation de la macroéconomie. J’ai notamment écrit à propos de la contre-révolution des nouveaux classiques ici.

Avant la contre-révolution des nouveaux classiques, la macroéconomie était presque un sujet différent de la microéconomie. La principale théorie macroéconomique, l’économie keynésienne, pouvait être écrite avec des équations agrégées et elle pouvait être estimée en utilisant des données agrégées, mais il fut parfois difficile de la relier à la théorie microéconomique. En partie pour cette raison, la macroéconomie a contenu différentes écoles de pensée, où il était difficile de relier une "école" à une autre.

La contre-révolution des nouveaux classiques a affirmé que tout modèle macroéconomique devait non seulement être dérivé de la théorie microéconomique, mais aussi que la théorie devait être utilisée avec une certaine cohérence. En unifiant la macroéconomie et la microéconomie, elle apparut particulièrement attrayante aux jeunes économistes. Très rapidement, les universitaires prirent conscience que l’on pouvait aussi formaliser certains aspects de l’économie keynésienne antérieure à la contre-révolution des nouveaux classiques d’une façon microfondée et l’hégémonie des microfondations devint complète au sein de l’économie orthodoxe. Comme tous les macroéconomistes de l’orthodoxie parlaient le même langage (la microéconomie), il existait dans une certaine mesure en son sein des écoles de pensée liées aux différences à propos des valeurs des paramètres dans un cadre théorique commun (ces croyances pouvaient refléter des préférences idéologiques).

Cette réduction de la fragmentation dans la macroéconomie orthodoxe est une importante force unificatrice. Avant la contre-révolution des nouveaux classiques, vous pouviez aller à un séminaire de macroéconomie tenu par une personne d’une différente école de pensée et avoir peu d’idées de ce dont elle parlait. Après la contre-révolution des nouveaux classiques, vous compreniez exactement ce dont les intervenants évoquaient et même commenter leurs travaux, mais simplement penser qu’ils n’étaient pas très pertinents dans le monde réel.

L’un des aspects négatifs de la contre-révolution des nouveaux classiques a été qu’elle a mené à la "grande amnésie" dont Dillow a parlé. Pour certains, la contre-révolution des nouveaux classiques a constitué l’année zéro en macroéconomie, tout ce qui a été fait auparavant (en dehors de l’hégémonie des microfondations) ayant peu d’intérêt à leurs yeux. (…) J’ai réalisé des travaux où j’ai appliqué le modèle des taux de change d’équilibre de John Williamson, qui utilisait des techniques antérieures aux microfondations. Cette approche fut redécouverte par Obstfield et Rogoff qui utilisèrent un modèle microfondé (la "nouvelle approche en économie ouverte", qui appliquait les microfondations de la concurrence imparfaite au commerce international). C’était bien, mais à ma connaissance Obstfield et Rogoff n’ont jamais évoqué la littérature antérieure qui fut développée par John Williamson. C’est une parfaite illustration de la grande amnésie.

C’est une mauvaise idée d’avoir des années zéro dans une discipline. (…) Les microfondations sont une bonne chose, mais l’hégémonie des microfondations ne l’est pas. Par hégémonie, j’entends voir le reste de la macroéconomie comme désuète et peu digne d’être publiée dans les revues les plus prestigieuses. Certains économistes ont eu une réaction plus vive et choisirent de rejoindre l’hétérodoxie. Ils pensent que la microéconomie n’a pas mérité de rôle central en macroéconomie ou bien ils pensent qu’il ne fait pas sens de microfonder la macroéconomie. Je pense qu’il est juste de dire qu’après la contre-révolution des nouveaux classiques il est devenu plus difficile, si ce n’est impossible, pour ces économistes de prendre le train orthodoxe.

Dillow arrive à quelque chose de similaire en disant qu’une grande partie de l’économie hétérodoxe s’apparente à ce qu’il a appris avant la contre-révolution des nouveaux classiques. En faisant cette observation, il ne critique pas les économistes hétérodoxes, mais note plutôt qu’une partie de ce qu’ils font est une continuation de la macroéconomie antérieure à la contre-révolution des nouveaux classiques. (...)

La contre-révolution des nouveaux classiques n’a pas créé de macroéconomie hétérodoxe. L’économie hétérodoxe que je me souviens avoir étudiée à Cambridge au début des années 1970 était un rejet de l’économie néoclassique. Cette dernière observe comment les producteurs qui maximisent leurs profits interagissent avec des consommateurs qui maximisent leur utilité sur des marchés parfaites (c’est-à-dire où il y a beaucoup de producteurs et de consommateurs pour chaque produit de façon à ce que chacun soit preneur de prix). Comme Chris le note, la théorie implique que les gens soient payés à leur "productivité marginale".

Si vous demandez à la plupart des économistes orthodoxes aujourd’hui si ce qu’ils font suppose la validité de l’économie néoclassique, ils riraient probablement. Comme je l’ai souvent dit, une grande partie de l’économie aujourd’hui concerne l’étude de marchés qui sont loin d’être parfaits. (Nous pouvons débattre sans fin quant à savoir si avoir des marchés parfaits, et les conditions d’optimisait associées, constitue un point de référence utile ou trompeur.) La science économique s’est aussi étendue bien au-delà de l’étude des marchés et de leurs imperfections pour inclure la théorie des jeux et l’économie comportementale par exemple. Rien de cela n’a empêché les économistes de droite d’utiliser des idées de l’économie néoclassique quand cela leur convenait.

Un autre aspect de la microéconomie aujourd’hui est qu’elle est dominée par l’analyse empirique. L’époque où elle tournait autour des preuves hautement mathématiques à propos de la nature de l’équilibre général est aujourd’hui bien révolue.

Revenons à la contre-révolution des nouveaux classiques en macroéconomie. La microéconomie que les partisans de la contre-révolution des nouveaux classiques adoptèrent pour remodeler la macroéconomie était essentiellement l’économie néoclassique, alors même que les microéconomistes ont de leur côté eu tendance à s’éloigner de celle-ci. Les nouveaux keynésiens ont apporté une forme de concurrence imparfaite dans les modèles DSGE pour formaliser la rigidité des prix ou des salaires, mais il demeure que le modèle DSGE de base se base sur des microfondations néoclassiques. (…) Nous pouvons voir à présent une raison supplémentaire pour la barrière entre macroéconomistes hétérodoxes et orthodoxes. La macroéconomie a adopté l’économie néoclassique que les économistes hétérodoxes avaient rejetée plusieurs décennies avant la contre-révolution des nouveaux classiques.

Même si je considère pour ma part la macroéconomie postérieure à la contre-révolution des nouveaux classiques comme progressive dans le sens de Lakatos, je crois que son hégémonie ne se justifie pas. J’ai beaucoup appris à propos du fonctionnement du monde dans la macroéconomie antérieure à la contre-révolution des nouveaux classiques et cela a été complété plutôt que dupliqué par ce que j’ai appris de la macroéconomie microfondée. (J’ai beaucoup publié de travaux dans les deux.) La macroéconomie orthodoxe a aujourd’hui besoin de suivre la microéconomie en devenant plus empirique et une façon pour elle de le faire est de ressusciter le style de modélisation antérieur à la contre-révolution des nouveaux classiques. Cela implique des études économétriques des sous-systèmes ou des relations individuelles et l’usage de modèles économétriques structurels, des modèles qu'Olivier Blanchard qualifie de modèles de politique et que Chris mentionne justement dans son billet. Ces modèles sont une combinaison éclectique de théorique et d’études économétriques de relations individuels ou de sous-ensembles.

Comme je l’ai noté dans cet article, il est effrayant de voir que des institutions comme le FMI et la Fed font toujours beaucoup de ce genre d’analyse, mais que la macroéconomie orthodoxe dans les revues les plus prestigieuses n’en fasse presque pas. Loin est le temps où nous pouvions prétexter qu’il s’agit d’institutions à l’analyse obsolète ou qu’une telle analyse est erronée en raison de problèmes d’identification ou parce qu’elle ne passe pas la critique de Lucas. Si les macroéconomistes universitaires ne veulent pas s’aventurer dans ces directions, peut-être que certains économistes hétérodoxes peuvent prendre leur place. »

Simon Wren-Lewis, « Relearning old ideas in macroeconomics after the New Classical Counter Revolution », in Mainly Macro (blog), 3 août 2021. Traduit par Martin Anota



aller plus loin...

« La stagflation et la lutte des méthodologies en macroéconomie »

« Les modèles DSGE font-ils progresser la science économique ? »

vendredi 2 juillet 2021

Une nouvelle macroéconomie ?

« Il y a un récit dans notre champ selon lequel la macroéconomie se serait perdue. Même si j’ai une certaine sympathie pour ce récit, je pense qu’il s’agit davantage d’une description de la macroéconomie d’il y a dix ans que de la macroéconomie d’aujourd’hui. Aujourd’hui, la macroéconomie est en passe d’être remise sur pied. En conséquence, selon moi, l’état de la macroéconomie est actuellement bien meilleur qu’il ne l’a été depuis fort longtemps.

Le plus important problème avec la macroéconomie au cours des dernières décennies est qu’elle a été trop théorique. Je n’entends pas par là que la théorie est inutile. Au contraire, la théorie est un élément essentiel d’une science saine. Mais une science saine a besoin d’un certain équilibre entre théorie et travail empirique. La macroéconomie a perdu cet équilibre dans les années 1980 et ne le retrouve qu’à présent.

La plupart des récits que l'on entend de l’évolution de la macroéconomie se focalisent sur l’évolution de la théorie macroéconomique et en particulier sur la révolution des anticipations rationnelles. Une part trop négligée de cette histoire est que la révolution des anticipations rationnelles a éloigné la macroéconomie du travail empirique. Cela fut en partie parce que la modélisation qui respecte les standards de rigueur avancés par Robert Lucas et ses camarades de révolution constituait une tâche difficile et par conséquent particulièrement absorbante. Mais ce n’est pas la seule raison.

Pour des raisons qui ne sont pas entièrement claires, une grande proportion de macroéconomistes en vint à croire que la critique de Lucas impliquait que les méthodes empiriques quasi-expérimentales ne pouvaient pas être utilisées en macroéconomie. L’idée que les changements de politique économique puissent radicalement altérer les régularités empiriques (c’est-à-dire la critique de Lucas) finit par être interprétée comme impliquant que la seule façon de faire du travail empirique en macroéconomie était de concevoir des modèles d’équilibre général de l’ensemble de l’économie pleinement spécifiés et d’évaluer le modèle entier (soit par des méthodes d’inférence avec information complète, soit par adéquation des moments). Thomas Sargent, par exemple, a mis l’accent sur l’idée de "restrictions inter-équations" (cross-equation restrictions). Il semble que cette ligne de pensée ait amené pendant plusieurs décennies beaucoup de macroéconomistes à avoir une vue étroite en ce qui concerne la façon de réfléchir à propos du travail empirique en macroéconomie.

Le malentendu n’a jamais été complet. Il y a eu des poches isolées de travaux empiriques en macroéconomie qui employaient des méthodes de variables instrumentales, par exemple en utilisant les délais comme instruments lorsqu’il s’agit d’estimer des courbes de Phillips ou des équations d’Euler. (...) Il y a eu une petite minorité de chercheurs en macroéconomie empirique qui saisit la valeur des méthodes quasi-expérimentales. Mais une grande fraction des macroéconomistes rejeta une telle analyse en la considérant comme erronée et une fraction encore plus grande de macroéconomistes (notamment moi-même) se sont révélés confus et incohérents quant à savoir quand et comment les méthodes quasi-expérimentales pouvant être utilisées en macroéconomie (en rejetant souvent ces méthodes hors de cadres non familiers tout en étant heureux de les utiliser dans d’autres cadres plus familiers).

Ce malentendu a sérieusement freiné les progrès en macroéconomie empirique pendant toute une génération. Au cours de cette période, la microéconomie appliquée connut une révolution de la crédibilité qui amené divers types de méthodes quasi-expérimentales à être plus fréquemment utilisés dans plusieurs champs de la science économique. La macroéconomie est restée en retrait. Il est utile de noter deux choses à ce propos. Premièrement, le travail quasi-expérimental est particulièrement difficile en macroéconomie dans la mesure où l’identification est très difficile dans un cadre d’équilibre général. Deuxièmement, une partie substantielle de la microéconomie appliquée devint bien plus déséquilibrée dans l’autre direction, dans la mesure où la théorie se retrouva écartée. Récemment, alors que la macroéconomie se rattrapait sur le plan empirique, il semble que de plus en plus de chercheurs en microéconomie appliquée aient aussi commencé à embrasser plus étroitement la complémentarité des méthodes quasi-expérimentales et de la modélisation structurelle, c’est-à-dire à prendre "le meilleur des deux mondes" comme Todd et Wolpin l’ont récemment dit. A cet égard, la macroéconomie était probablement en avance et peut même avoir influencé les collègues en microéconomie appliquée.

Durant la période au cours de laquelle la théorie dominait en macroéconomie, beaucoup de progrès ont été réalisés sur le front théorique. Mais en étant si dominé par la théorie, le champ a été très exposé à un autre problème : les modèles dans lesquels les marchés fonctionnent bien sont (habituellement) plus faciles à résoudre que les modèles dans lesquels les marchés fonctionnent mal. Ce fait simple a d’importantes conséquences parce qu’il génère un biais sur la théorie économique en faveur des modèles dans lesquels les marchés fonctionnent bien. Puisque les modèles dans lesquels les marchés qui fonctionnent bien sont plus faciles à résoudre, les chercheurs tendent à travailler avec de tels modèles. L’hypothèse par défaut à propos d’un marché est typiquement qu’il est parfaitement concurrentiel. Les chercheurs vont souvent introduire une friction soigneusement construite dans un endroit précis de leur modèle et focaliser leur analyse sur les implications de cette friction. Mais tous les autres marchés dans le modèle sont typiquement modélisés comme étant parfaitement concurrentiels par simple souci de simplicité.

Le chercheur lambda a pour habitude de supposer que quasiment tous les marchés sont parfaitement concurrentiels, si bien qu’il ignore les conséquences de ces hypothèses. Il prend comme données certaines implications de ces hypothèses de concurrence pure et parfaite, dans la mesure où il n’y voit qu’une simple implication logique et non la conséquence d’hypothèses simplificatrices susceptibles d’être erronées qu’il utilise, comme tous ceux qu’il connait, depuis plusieurs années. Prenons un exemple qui m’est cher, l’idée que les propensions marginales à consommer soient extrêmement faibles dans plusieurs modèles macroéconomiques. Cette hypothèse a de larges répercussions sur le comportement de ces modèles (par exemple, les chèques versés dans le cadre de la relance seraient inutiles). Pendant plusieurs années, je n’ai jamais rencontré un modèle où ce n’était pas le cas (…). Donc, j’ai été grandement lobotomisé pour croire que ces aspects de ces modèles étaient les bonnes choses à faire. Mais ensuite, à un certain moment, je finis par apprécier de voir comment des modèles avec risque idiosyncratique non assurable pouvaient se comporter différemment et ce fut comme être frappé par la foudre. Comment avais-je pu ne pas voir à quel point l’hypothèse simplificatrice de concurrence pure et parfaite était critique à cet égard ? (Il y a plein d’autres exemples. L’un des plus notoires en économie du travail a à voir avec les implications du relèvement du salaire minimum.)

L’un des rôles cruciaux du travail empirique est de confronter les théoriciens et les responsables de la politique économique à des faits qui les aident à voir si les modèles qu’ils utilisent sont ou non bien adaptés pour analyser tel ou tel aspect de la réalité qui les intéresse. Le fait que la macroéconomie ait mal saisi la valeur des méthodes quasi-expérimentales a été un réel handicap pour le développement du champ à cet égard. Certains faits sont simples et n’ont pas besoin de méthodes quasi-expérimentales pour établir (la prime relative aux actions en constitue un bon exemple). Mais plusieurs faits empiriques essentiels sont hors d’atteinte sans méthode quasi-expérimentale (par exemple, les estimations des propensions marginales à consommer, les multiplicateurs budgétaires, la pente de la courbe de Phillips, les élasticités de substitution intertemporelle, les effets des chocs monétaires, etc.). Sans un ensemble robuste de telles estimations pour guider le développement de la théorie, la littérature théorique se retrouve à la dérive et risque de se perdre en mer.

Heureusement, les choses ont commencé à s’améliorer rapidement sur ce front en macroéconomie. En particulier parmi les jeunes chercheurs. Le brouillard des restrictions inter-équations se lève et on commence à mieux saisir la valeur des méthodes quasi-expérimentales. Par exemple, on saisit de mieux en mieux qu’avec l’aide d’un instrument (ou d’une certaine source de variation exogène) on peut estimer divers types d’effets causaux sans spécifier un modèle structurel complet de l’ensemble de l’économie. (Les méthodes de données de panel et diverses bases de données non traditionnelles ont également beaucoup aidé.)

On peut toujours faire face à des questions du type "mais X et Y ne sont-ils pas des variables endogènes qui sont déterminées conjointement en équilibre général ?" même lorsqu’on a passé beaucoup de temps à expliquer la nature de la variation exogène que l’on exploite ; et l’on fait toujours face à des regards vides en certaines occasions lorsque l’on répond à de telles questions avec une version de "oui, tout comme P et Q dans un cadre d’offre et de demande, mais cela ne signifie pas qu’il n’est pas possible d’estimer par des variables instrumentales". Cependant de telles situations apparaissent de moins en moins fréquemment.

Les estimations crédibles d’un éventail toujours plus large de statistiques empiriques émergent en macroéconomie et cela commence à mieux guider le travail théorique et l’élaboration de la politique économique. Prenons quelques exemples : nous avons maintenant un ensemble de travaux de haute qualité indiquant que les propensions marginales à consommer sont assez larges. C’est le fait empirique fondamental qui favorise les modèles HANK par rapport aux modèles nouveaux keynésiens traditionnels. Mais ce fait a aussi d’importantes conséquences quand il touche aux effets macroéconomiques des politiques qui soutiennent les revenus de la population au cours des récessions. Nous avons aussi un ensemble important de travaux de haute qualité indiquant que les multiplicateurs budgétaires sont larges (…). Ce va dans le même sens que le fait relatif aux propensions marginales à consommer élevées : la relance peut substantiellement accroître la production dans des situations où la politique est accommodante (par exemple à la borne inférieure zéro). De plus, nous avons de plus en plus de travaux indiquant que la pente de la courbe de Phillips est modeste. Cela implique qu’un boom qui mène à une surchauffe de l’économie aura de modestes effets sur l’inflation aussi longtemps que les anticipations d’inflation restent ancrées. (Il y a pléthore de bons exemples.)

La macroéconomie a perdu beaucoup de temps à se rattraper en ce qui touche l’usage des méthodes empiriques quasi-expérimentales. Cela crée un problème de stock et de flux. Le stock de travail empirique utilisant les méthodes quasi-expérimentales en macroéconomie reste bas et les problèmes posés par un tel travail restent importants en raison des difficultés d’identification dans un cadre d’équilibre général. Mais le flux est très différent du stock : il y a un important flux de travail empirique quasi-expérimental de qualité en macroéconomie. En observant ce flux, on peut raisonnablement affirmer que le champ rejoint un équilibre sain entre théorie et travail empirique. Je suis optimiste en pensant que cela va amener de plus en plus de gens à conclure que la macroéconomie a de nouveau "retrouvé sa voie". Je crois vraiment qu’elle l’a retrouvée. »

Jón Steinsson, « A new macroeconomics? », 2 juillet 2021. Traduit par Martin Anota



aller plus loin...

« La stagflation et la lutte des méthodologies en macroéconomie »

« Modèles DSGE : quels développements depuis la crise ? »

« Les modèles DSGE font-ils progresser la science économique ? »

- page 1 de 15