Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Epistémologie et histoire de la pensée

Fil des billets

lundi 14 octobre 2019

Prix Nobel 2019 : Banerjee, Duflo et Kremer cherchent à réduire la pauvreté dans le monde

Abhijit_Banerjee_Esther_Duflo_Michael_Kremer_Nobel.png

« Quelle est la meilleure façon de concevoir des mesures qui réduisent la pauvreté dans le monde ? En utilisant une recherche innovante basée sur des expériences de terrain (field experiments), Abhijit Banerjee, Esther Duflo et Michael Kremer ont jeté les bases pour répondre à cette question qui est si vitale pour l’humanité.

Au cours des deux dernières décennies, les niveaux de vie des populations se sont significativement améliorés presque partout dans le monde. Le bien-être économique (mesuré avec le PIB par tête) a doublé dans les pays les plus pauvres entre 1995 et 2018. La mortalité infantile a diminué de moitié par rapport à 1995 et la proportion d’enfants scolarisés est passée de 56 % à 80 %.

Malgré ces progrès, de gigantesques défis demeurent. Plus de 700 millions de personnes vivent toujours avec des revenus extrêmement faibles. Chaque année, cinq millions d’enfants meurent avant leur cinquième anniversaire, souvent en raison de maladies qui auraient pu être évitées ou soignées avec des traitements simples et relativement peu chers. La moitié des enfants dans le monde quittent toujours l’école sans maitriser la lecture et des notions en mathématique.

Une nouvelle approche pour réduire la pauvreté dans le monde


De façon à combattre la pauvreté dans le monde, nous devons identifier les formes d’action les plus efficaces. Abhijit Banerjee, Esther Duflo et Michael Kremer ont montré comment l’on pouvait s’attaquer au problème de la pauvreté dans le monde en le morcelant en plusieurs questions plus petites, mais plus précises, au niveau des groupes ou des individus. Ils ont ensuite répondu à chacune de ces questions en utilisant une expérience de terrain spécialement conçue. Au cours des vingt dernières années, cette approche a complètement refaçonné la recherche dans le domaine de l’économie du développement. Cette nouvelle recherche fournit désormais un flux régulier de résultats concrets, contribuant à réduire les problèmes de pauvreté dans le monde.

Cela fait longtemps que l’on a conscience des différences dans la productivité moyenne entre les pays riches et les pays pauvres. Cependant, comme Banerjee et Duflo l’ont noté, la productivité diffère fortement, pas seulement entre les pays riches et les pays pauvres, mais aussi au sein même des pays pauvres. Certains individus ou certaines entreprises utilisent la dernière technologie disponible, tandis que d’autres (qui produisent des biens ou services similaires) utilisent des moyens de production obsolètes. La faible productivité moyenne est donc largement due à certains individus ou certaines entreprises à la traîne. Est-ce que cela reflète un problème d’accès au crédit, à des politiques mal conçues ou au fait que les gens trouvent cela difficile de prendre des décisions d’investissement parfaitement rationnelles ? Cette approche de recherche conçue par les lauréats de cette année traite de ces questions.

Les premières expériences de terrain dans les écoles


Les premières études des lauréats ont examiné les problèmes relatifs à l’éducation. Quelles interventions accroissent les résultats éducationnels au coût le plus faible ? Dans les pays à faible revenu, les manuels sont rares et les enfants vont souvent à l’école en ayant faim. Est-ce que les résultats des élèves s’amélioreraient s’ils avaient accès à davantage de manuels ? Ou serait-il plus efficace de leur donner des repas gratuits à l’école ? Au milieu des années quatre-vingt-dix, Michael Kremer et ses collègues décidèrent de déplacer une partie de leur recherche de leurs universités au nord-est des Etats-Unis vers les campagnes à l’ouest du Kenya de façon à répondre à ce type de questions. Ils réalisent plusieurs expériences de terrain en partenariat avec une organisation local non gouvernementale (ONG).

Nobel_resume_2019.png

Pourquoi est-ce que ces chercheurs choisirent d’utiliser les expériences de terrain ? Eh bien, si vous voulez examiner l’effet de l’introduction de manuels supplémentaires sur les résultats scolaires des élèves, par exemple, comparer simplement les écoles avec différents accès aux manuels ne constitue pas une approche viable. Les écoles peuvent différer les unes des autres de plusieurs façons : les familles les plus riches achètent habituellement plus de livres pour leurs enfants, les notes sont généralement meilleures dans les écoles où moins d’enfants sont très pauvres, et ainsi de suite. Une façon de contourner ces difficultés est de s’assurer que les écoles qui font l’objet d’une comparaison aient les mêmes caractéristiques en moyenne. On peut y parvenir en laissant le hasard décider quelles écoles sont à placer dans tel ou tel groupe de comparaison, une vieille intuition qui sous-tend la longue tradition d’expérimentations dans les sciences naturelles et en médecine. Contrairement aux essais cliniques traditionnels, Banerjee, Duflo et Kremer ont utilisé les expériences de terrain dans lesquelles ils étudient comment les individus se comportent dans leurs environnements quotidiens.

Kremer et ses collègues sélectionnèrent de nombreuses écoles qui avaient besoin d’un soutien et les répartirent aléatoirement en différents groupes. Les écoles reçurent toutes des ressources supplémentaires, mais sous des formes différentes et en différents instants selon le groupe. Dans une étude, un groupe reçut plus de manuels, tandis qu’une autre étude examina les repas gratuits à l’école. Parce que le hasard avait déterminé quelles écoles recevraient telles ou telles ressources, il n’y avait pas de différences moyennes entre les différents groupes au début de l’expérience. Les chercheurs purent donc lier de façon crédible les différences dans les résultats en matière d’apprentissage aux différences dans l’attribution des soutiens. Les expériences montrèrent que ni un supplément de manuels, ni les repas gratuits à l’école ne firent une différence dans les résultats scolaires. Si les manuels présentaient un quelconque effet positif, cela ne s’appliquait qu’aux meilleures élèves.

Les dernières expériences de terrain ont montré que le principal problème dans beaucoup de pays à faible revenu n’est pas le manque de ressources. Le plus gros problème est que l’enseignement n’est pas suffisamment adapté aux besoins des élèves. Dans la première de ces expérimentations, Banerjee, Duflo et leurs coauteurs étudièrent les programmes de tutorat pour les élèves dans deux villes indiennes. Des écoles à Bombay et Vadodara reçurent un plus grand accès aux nouveaux auxiliaires pédagogiques qui soutinrent les enfants avec des besoins spécifiques. Ces écoles furent ingénieusement et aléatoirement placées dans différents groupes, permettant aux chercheurs de mesurer de façon crédible les effets des auxiliaires pédagogiques. L’expérience montra clairement que cibler les élèves les plus en difficulté était une mesure efficace à court terme comme à moyen terme.

Ces premières études au Kenya et en Inde furent suivies par plusieurs autres expériences de terrain dans d’autres pays, se focalisant sur d’importants domaines tels que la santé, l’accès au crédit et l’adoption de nouvelles technologies. Les trois lauréats furent en première ligne de cette recherche. Grâce à leurs travaux, les expériences de terrain sont devenues la méthode standard des économistes du développement lorsqu’il s’agit d’étudier les effets de mesures pour atténuer la pauvreté.

Des expériences de terrain liées à la théorie


Des expériences bien conçues sont particulièrement fiables ; elles ont une validité interne. Cette méthode a été fréquemment utilisée dans les essais cliniques traditionnels pour de nouveaux médicaments qui ont recruté spécialement des participants. La question a souvent été si un traitement particulier avait ou non un effet statistiquement significatif.

Les expériences conçues par Banerjee, Duflo et Kremer ont deux aspects distincts. Premièrement, les participants prenaient leurs décisions dans leur environnement quotidien, que ce soit dans le groupe d’intervention ou dans le groupe de contrôle. Cela signifie que les résultats de l’examen d’une nouvelle mesure de politique publique, par exemple, pouvaient souvent être appliqués sur place.

Deuxièmement, les lauréats s’appuyèrent sur l’intuition fondamentale que l’essentiel de ce qu’ils voulaient améliorer (par exemple les résultats scolaires) reflètent diverses décisions individuelles (par exemple de la part des élèves, de leurs parents ou des professeurs). Des améliorations soutenables requièrent donc une compréhension des raisons pour lesquelles les gens prennent les décisions qu’ils prennent, les forces motrices derrière leurs décisions. Non seulement Banerjee, Duflo et Kremer testèrent si une intervention donnée fonctionnait (ou non), mais ils cherchèrent aussi à savoir pourquoi.

Pour étudier les incitations, les restrictions et l’information qui motiva les décisions des participants, les lauréats utilisèrent la théorie des contrats et l’économie comportement qui furent respectivement récompensées par le prix de sciences économiques en 2016 et 2017.

La généralisation des résultats


Une question clé est si les résultats expérimentaux ont une validité externe ; en d’autres mots, si les résultats s’appliquent à d’autres contextes. Est-il possible de généraliser les résultats des expérimentations dans les écoles kényanes aux écoles indiennes ? Est-ce que cela fait une différence si c’est une ONG spécialisée plutôt qu’une administration publique qui procède à une intervention particulière visant à améliorer la santé ? Que se passe-t-il si une intervention expérimentale est menée sur une plus grande échelle, à partir d’un petit groupe d’individus pour inclure davantage de personnes ? Est-ce que l’intervention affecte aussi les individus en-dehors du groupe d’intervention, parce qu’ils sont évincés de l’accès aux ressources rares ou font face à des prix plus élevés ?

Banerjee, Duflo et Kremer ont aussi été en première ligne de la recherche sur la question de validité externe et développé de nouvelles méthodes qui considèrent les effets d’éviction et d’autres effets de débordement. Relier étroitement les expériences à la théorie économique accroît aussi les opportunités pour que les résultats soient généralisés, comme les schémas fondamentaux du comportement ont souvent une incidence dans des contextes élargis.

Les résultats concrets


Ci-dessous nous présentons quelques exemples de conclusions spécifiques tirées du type de recherche initié par Banerjee, Duflo et Kremer, en plaçant l’emphase sur leurs propres études.

L’éducation : Nous avons maintenant une bonne perspective sur les principaux problèmes dans les écoles de plusieurs pays pauvres. Les programmes et l’enseignement ne correspondent pas aux besoins des élèves. Il y a un fort niveau d’absentéisme parmi les enseignants et les institutions éducatives sont généralement défaillantes.

L’étude que nous avons mentionnée réalisée par Banerjee, Duflo et leurs coauteurs a montré que le soutien ciblé pour les élèves faibles avait de forts effets positifs, même à moyen terme. Cette étude était le départ d’un processus interactif, dans lequel les résultats de nouvelles études allèrent main dans la main avec des programmes menés sur des échelles de plus en plus grandes pour aider les élèves. Ces programmes ont concerné plus de 100.000 écoles indiennes.

D’autres expériences de terrain étudièrent le manque d’incitations claires et d’accountability pour les enseignants, qui se traduisait par un fort absentéisme. Une façon de stimuler la motivation des enseignants était de les employer sur des contrats de court terme qui pouvaient être prolongés s’ils obtenaient de bons résultats. Duflo, Kremer et leurs coauteurs comparèrent les effets de l’emploi des enseignants employés sur de tels contrats en réduisant le nombre d’élèves pour les enseignants employés de façon permanente. Ils constatèrent que les élèves qui avaient des enseignants employés sur des contrats courts avaient des résultats significativement meilleurs, mais que la réduction du nombre d’élèves par enseignant employé sur des contrats permanents n’avait pas d’effets significatifs.

Globalement, cette nouvelle recherche basée sur les expériences autour de l’éducation dans les pays à faible revenu montre que les ressources additionnelles sont, en général, de valeur limitée. Cependant, les réformes éducationnelles qui adaptent l’enseignement aux besoins des élèves sont de grande valeur. Améliorer la gouvernance des écoles et demander plus de responsabilité de la part des enseignants qui ne font pas leur boulot sont aussi des mesures efficaces en termes de coûts.

La santé : Un problème important est si la médecine et les soins de santé doivent être payants et, si c’est le cas, quel doit être leur prix. Une expérience de terrain réalisée par Kremer et ses coauteurs ont cherché comment la demande de comprimés de déparasitage était affectée par le prix. Ils constatèrent que 75 % des parents donnèrent à leurs enfants ces comprimés quand leur distribution était gratuite, contre 18 % quand ils coûtaient moins d’un dollar américain, ce qui était déjà fortement subventionné. En conséquence, plusieurs expériences similaires ont constaté la même chose : les pauvres sont extrêmement sensibles au prix en ce qui concerne les investissements dans la santé préventive.

Banerjee_Duflo__experience_vaccin_lentilles_cliniques_mobiles__1.png

Une faible qualité de service est une autre explication pourquoi les familles pauvres investissent si peu dans les mesures préventives. Un exemple est que le personnel dans les centres de santé qui sont responsables de la vaccination est souvent absent au travail. Banerjee, Duflo et leurs coauteurs cherchèrent à savoir si les cliniques de vaccination mobiles (où l’équipe soignante était toujours sur place) pouvaient régler le problème. Les taux de vaccination triplèrent dans les villages qui furent sélectionnés aléatoirement pour avoir accès à ces cliniques, à 18 % contre 6 %. Cette part augmenta davantage, à 39 %, lorsque les familles recevaient un sac de lentilles en bonus quand ils vaccinèrent leurs enfants. Parce que la clinique mobile avait un niveau élevé de coûts fixes, le coût total par vaccination diminua de moitié, malgré les dépenses additionnelles en lentilles.

Banerjee_Duflo__experience_vaccin_lentilles_cliniques_mobiles__2.png

La rationalité limitée : Dans l’étude sur la vaccination, les incitations et une plus grande disponibilité des soins ne résolvent pas complètement le problème, dans la mesure où 61 % des enfants restaient partiellement immunisés. Le faible taux de vaccination dans plusieurs pays pauvres a probablement d’autres causes, dont notamment le fait que les gens ne soient pas toujours complètement rationnels. Cette explication peut aussi éclairer d’autres observations qui, du moins initialement, apparaissent difficiles à comprendre.

L’une de ces observations est que beaucoup de gens sont réticents à adopter la technologie moderne. Dans une expérimentation de terrain intelligemment conçue, Duflo, Kremer et leurs coauteurs cherchèrent à comprendre pourquoi les petits exploitants (en particulier en Afrique subsaharienne) n’adoptaient pas des innovations relativement simples, telles que les engrais artificiels, alors même qu’ils en tireraient de grands bénéfices. Une explication est le biais vis-à-vis du présent : le présent prend une grande place dans la conscience des gens, si bien qu’ils tendent à reporter leurs décisions d’investissement. Le lendemain, ils font de nouveau face à la même décision et choisissent à nouveau de reporter l’investissement. La conséquence peut être un cercle vicieux où les individus n’investissent pas dans l’avenir, même si c’est dans leur intérêt à long terme de le faire.

La rationalité limitée a d’importantes implications pour la conception de la politique publique. Si les individus présentent un biais vis-à-vis du présent, alors les subventions temporaires sont plus efficaces que les subventions permanentes : une offre qui s’applique seulement ici et aujourd’hui réduit les incitations à retarder l’investissement. C’est exactement ce que Duflo, Kremer et leurs coauteurs ont découvert dans leur expérimentation : les subventions temporaires avaient un effet considérablement plus fort sur l’usage de l’engrais que les subventions permanentes.

Le microcrédit : Les économistes du développement ont aussi utilisé les expériences de terrain pour évaluer les programmes qui ont déjà été mis en œuvre à grande échelle. Un exemple est l’introduction massive de microprêts dans divers pays, chose qui avait été accueillie avec optimisme. Banerjee, Duflo et leurs coauteurs ont réalisé une étude initiale sur un programme de microcrédit qui se focalisa sur des ménages pauvres dans la métropole indienne d’Hyderabad. Leurs expériences de terrain montrèrent des effets positifs assez faibles sur les investisseurs des petites entreprises existantes, mais ils ne trouvèrent pas d’effets sur la consommation ou d’autres indicateurs de développement, que ce soit 18 ou 36 mois après. Des expériences similaires menées dans des pays comme la Bosnie-Herzégovine, l’Ethiopie, le Maroc, le Mexique et la Mongolie ont abouti à des résultats similaires.

L’influence sur la politique publique


Les travaux de Banerjee, Duflo et Kremer ont eu des effets clairs sur la politique publique, que ce soit directement ou indirectement. Naturellement, il est impossible de mesurer précisément dans quel mesure leurs recherches ont contribué façonner les politiques menées dans divers pays. Cependant, il est parfois possible de tirer une ligne droite de la recherche vers la politique.

Certaines des études que nous avons mentionnées ont en effet eu un impact direct sur la politique publique. Les études sur le tutorat ont fourni des arguments pour des programmes de soutien à grande échelle qui concernent désormais plus de cinq millions d’enfants en Inde. Les études sur le déparasitage ont non seulement montré que le déparasitage rapportait des bénéfices de santé manifestes pour les écoliers, mais aussi que leurs parents étaient très sensibles au prix. En accord avec ces résultats, l’OMS recommande que les soins médicaux soient fournis gratuitement à plus de 800 millions d’écoliers vivant dans les zones où plus de 20 % d’entre eux ont un type spécifique d’infection parasitaire.

Il y a aussi des estimations grossières du nombre de personnes qui ont été affectées par ces résultats d’études. L’une de ces estimations provient d’un réseau de recherche mondial que Banerjee et Duflo ont contribué à créer (J-PAL) ; les programmes qui ont été menés sur une plus grande échelle après évaluation par les chercheurs du réseau ont concerné plus de 400 millions de personnes. Cependant, cela sous-estime clairement l’impact total de la recherche parce que beaucoup d’économistes du développement ne sont pas affiliés à J-PAL. Les travaux pour combattre la pauvreté impliquent aussi de ne pas investir l’argent dans des mesures inefficaces. Les gouvernements et les associations ont libéré d’amples ressources pour des mesures plus efficaces en fermant plusieurs programmes qui furent évalués en utilisant des méthodes fiables et qui se révélèrent être inefficaces.

Les recherches de Banerjee, Duflo et Kremer ont aussi eu une influence indirecte, en changeant le fonctionnement des organisations publiques et privées. De façon à prendre de meilleures décisions, accroître le nombre d’organisations qui combattent la pauvreté mondiale a systématiquement commencé par une évaluation des nouvelles mesures, souvent en utilisant les expériences de terrain.

Les lauréats de cette année ont joué un rôle décisif pour refaçonner la recherche dans l’économie du développement. Au cours des vingt dernières années, le sujet est devenu une zone florissante, essentiellement expérimentale, de l’économie orthodoxe. Cette nouvelle recherche fondée sur l’expérimentation a déjà contribué à réduire la pauvreté dans le monde et a un grand potentiel pour améliorer davantage la vie des personnes les plus pauvres sur la planète. »

L'Académie royale des sciences de Suède, « Research to help the world’s poor. Popular science background », 14 octobre 2019. Traduit par Martin Anota

lundi 6 mai 2019

Le prix de tout, la valeur de l’économie : une médaille Clark pour Emi Nakamura



« C’est fantastique et mérité (…) que la médaille John Bates Clark soit décernée à Emi Nakamura, qui a récemment quitté Columbia pour Berkeley. C’est la première médaille Clark qui est décernée à un macroéconomiste au vingt-et-unième siècle. La Grande Récession, les changements massifs dans le commerce international, l’essor de zones monétaires comme la zone euro, le saving glut et ses effets sur les taux d’intérêt, le changement dans l’ouverture aux entrées fébriles de capitaux, etc. : il s’est passé énormément de choses au niveau macroéconomique au cours des deux décennies qui se sont écoulées depuis qu’Andrei Shleifer a gagné la médaille Clark. Il est difficile d’imaginer ce qui peut être plus important pour un économiste à comprendre que ces dynamiques.

Au cours des vingt dernières années, la macroéconomie a connu quelque chose d’inhabituel : elle est devenue semblable à l’organisation industrielle ! Un bref rappel historique pourrait être utile. Le terme "macroéconomie" est dû à Ragnar Frisch, dans l’article qu’il publia en 1933 sur la propagation des chocs économiques. Il écrivait : "L’analyse macrodynamique (…) essaye de donner un compte-rendu de l’ensemble du système économique pris dans son entièreté. Evidemment dans ce cas il est impossible de procéder à une analyse des détails. Bien sûr, il est toujours possible de réaliser une analyse macrodynamique en détail si nous nous confinons à une théorie purement formelle. En effet, il est toujours possible par un système adapté d’indices et d’exposants, etc., d’introduire pratiquement tous les facteurs que nous pouvons imaginer. (…) Une telle théorie, cependant, n’aurait qu’un intérêt limité. Il ne serait guère possible d’étudier des problèmes fondamentaux tels que la forme exacte de la solution (…). Ces derniers problèmes sont des problèmes majeurs dans l’analyse du cycle d’affaires. De façon à s’attaquer à ces problèmes sur une base macrodynamique (…), nous devons délibérément négliger une masse considérable de détails de l’image".

Et c’est ce que nous avons fait. Les keynésiens ont ramené les microfondations de la macroéconomie dans une poignée de paramètres globaux pertinents. La critique de Lucas affirma que nous pouvons simplifier certaines choses (plusieurs agents en un agent représentatif, par exemple), mais que nous devons toujours commencer notre analyse avec les paramètres fondamentaux que sont les préférences, les contraintes et les technologies. La synthèse néoclassique a combiné ces paramètres bruts avec les rigidités nominales (les prix visqueux, l’information limitée, et ainsi de suite). Mais le principal point de Frisch demeurait : à quoi servent ces paramètres théoriques plus profonds si nous ne pouvons estimer leur valeur et leurs effets macroéconomiques ? Comme Einstein nous l’a enseigné, le but du scientifique devrait être de simplifier le plus possible les choses, mais pas davantage.

Il y a deux choses qui ont récemment changé en macroéconomie. Premièrement, la puissance de calcul offre désormais la possibilité d’estimer ou de calibrer de très complexes modèles dynamiques et stochastiques, avec des agents tournés vers l’avenir, avec des trajectoires de prix à l’équilibre ou en dehors de l’équilibre, avec diverses frictions ; c’est en cela que la macroéconomie a commencé à ressembler un peu comme l’organisation industrielle, avec les paramètres microéconomiques à la base. Mais deuxièmement, et de nouveau de façon analogue à l’organisation industrielle, le montant de données disponibles pour le chercheur a crû énormément. Nous avons maintenant des données sur les prix qui nous disent exactement quand les prix changent et de quel montant, comment ces changements se propagent le long des chaines de valeur et d’un pays à l’autre, comment ils interagissent avec les impôts, et ainsi de suite. Le problème de Frisch a dans un sens été résolu : nous n’avons plus le même arbitrage entre utilité et profondeur lorsque nous étudions la macroéconomie.

Nakamura est surtout connue pour utiliser cette profonde combinaison de données et de théorie pour comprendre comment les entreprises fixent leurs prix. Les rigidités des prix jouent un rôle particulièrement important dans les théories de la macroéconomie qui impliquent potentiellement de l’inefficacité. Considérons une version (quelque peu expurgée) de la théorie des cycles d’affaires réels. Ici, des chocs touchent l’économie : par exemple, un cartel du pétrole réduit l’offre de pétrole pour des raisons politiques. Les entreprises doivent réagir à ce choc "réel" du côté de l’offre en réorganisant l’activité économique. Le choc réel se propage ensuite d’un secteur à l’autre. Le rôle de la politique monétaire dans un tel monde est limité : une récession reflète simplement la réaction des entreprises au changement réel dans l’environnement économique.

Cependant, quand les prix sont "visqueux", ce n’est plus vrai. La vitesse à laquelle les chocs réels se propagent et la distorsion que les prix visqueux introduisent peuvent être affectées par la politique monétaire, puisque les firmes vont réagir aux changements de leurs anticipations d’inflation en changeant la fréquence à laquelle ils révisent les prix. Golosov et Lucas dans le Journal of Political Economy affirmèrent, théoriquement et empiriquement, que les effets en termes de bien-être des "prix visqueux" ou de "coûts de menu" n’étaient pas très significatifs. L’extraction de ces effets de bien-être est assez sensible à plusieurs aspects des données et de la théorie. Dans quelle mesure y a-t-il une dispersion des prix à court terme plutôt qu’une chance exogène pour toutes les entreprises dans un secteur de changer leurs prix ? Notons que la dispersion des prix est difficile à maintenir à moins que nous ayons des coûts de recherche pour le consommateur (sinon chacun achèterait au vendeur le moins cher), donc la dispersion des prix ajoute un défi technique non trivial. De combien les prix changent-ils dans la réalité (…) ? Quand l’inflation est plus forte, est-ce que les entreprises ajustent aussi fréquemment, mais plus amplement, leurs prix (rappelons-nous du fameux doublement du prix du Coca-Cola), ou est-ce qu’elles ajustent les prix plus souvent en modifiant leurs prix dans la même proportion qu’elles le faisaient dans des environnements de faible inflation ? Combien d’hétérogénéité y a-t-il dans les pratiques de fixation des prix d’un secteur à l’autre et dans quelle mesure ces différences affectent les conséquences des prix en termes de bien-être étant donné les relations entre secteurs ?

Nakamura nous a amenés très loin dans ces questions. Elle a construit d’incroyables bases de données, proposé des stratégies d’identification très astucieuses pour séparer les modèles de fixation des prix et utilisé ces outils pour grandement améliorer notre compréhension de l’interaction entre rigidités des prix et cycle d’affaires. Son article sur les "cinq faits" utilise des microdonnées du Bureau of Labor Statistics pour montrer que les soldes représentent la moitié des "modifications de prix" que les chercheurs avaient précédemment estimées, que les prix changent plus vite lorsque l’inflation est plus forte et qu’il y a une forte hétérogénéité entre les secteurs dans le comportement de changement des prix. En faisant remonter ces données jusqu’aux années soixante-dix, Nakamura et ses coauteurs montrent aussi que les environnements à forte inflation ne provoquent pas plus de dispersion des prix : en fait, les entreprises révisent leurs prix plus souvent. Robert Lucas dans ses Macroeconomic Priorities avait fait valoir de façon convaincante que les coûts du cycle d’affaires en termes de bien-être étaient bien plus faibles que les coûts d’inflation et que les coûts d’inflation étaient eux-mêmes bien plus faibles que les coûts de distorsions fiscales. Comme Nakamura le souligne, si vous croyez cela, alors ne vous étonnez pas de donner la priorité à la stabilité des prix et à la politique fiscale ! (Beaucoup ont chipoté sur le raisonnement de Lucas, mais même en ajoutant des agents hétérogènes il est difficile de faire apparaître que les cycles d’affaires se traduisent par de larges coûts, cf. Krusell et alii (2009)). Mieux comprendre les vrais coûts de l’inflation, via l’effet retour de l’expansion monétaire sur la fixation des prix, va grandement aider les responsables de la politique économique pour calibrer les coûts et bénéfices de la stabilité des prix vis-à-vis des autres objectifs macroéconomiques.

Bien qu’elle soit généralement connue en tant que macroéconomiste empirique, Nakamura a aussi publié plusieurs articles (en l’occurrence notamment avec son mari Jon Steinsson) sur la théorie de la fixation des prix. Par exemple, pourquoi les prix sont-ils à la fois visqueux et impliquent aussi des soldes ? Dans un article astucieux publié dans le Journal of Monetary Economics, Nakamura et Steinsson modélisent une fixation des prix par les firmes face à des consommateurs sujets à des habitudes. Si la firme ne se contraint pas elle-même, elle a l’incitation à accroître les prix une fois que les consommateurs acquièrent leur habitude sur un produit (…). Pour éviter ces problèmes d’incohérence temporelle, les entreprises aimeraient s’engager à une trajectoire de prix avec une certaine flexibilité pour répondre aux changements de la demande. Un équilibre à ce modèle de type contrat relationnel implique un prix-plafond avec des soldes quand la demande chute : des prix rigides et des soldes, comme nous l’avons vu dans les données ! Dans un second article théorique avec Steinsson et Alisdair McKay, Nakamura observe dans quelle mesure la communication à propos des futurs taux d’intérêt nominaux peut affecter les comportements. En principe, beaucoup : si vous me dites que la Fed va garder les taux d’intérêt réels à un faible niveau pendant plusieurs années (de faibles taux dans le futur accroissent la consommation dans le futur, ce qui accroît l’inflation dans le futur, ce qui réduit les taux réels aujourd’hui), je vais emprunter. Mais le fait d’introduire les contraintes d’emprunt et le risque de revenu signifie que je ne vais jamais emprunter beaucoup d’argent : je peux connaître un mauvais choc demain et me retrouver à la rue. Donner cinq années au forward guidance à propos des taux d’intérêt plutôt qu’une année ne va par conséquent pas vraiment affecter mon comportement : c’est le désir de détenir de l’épargne de précaution qui limite mon emprunt, pas le taux d’intérêt.

Nakamura mérite le prix qu’elle a reçu, tant elle a joué un rôle de premier plan dans la réorientation de la macroéconomie qui l’a rendue, d’une part, plus empirique et, d’autre part, plus "microéconomique" sur le plan théorique. Sa focale est ciblée sur certaines des énigmes clés pour les responsables de la politique économique. Il est impossible de couvrir un aussi large champ dans un unique billet (…), mais heureusement il y a deux résumés faciles à lire et de qualité de ses principaux travaux. D’une part, dans l’Annual Review of Economics, elle a compilé les nouveaux faits empiriques sur les changements des prix, les tentatives pour identifier le lien entre politique monétaire et changements des prix et les implications pour la théorie du cycle d’affaires. D’autre part, dans le Journal of Economic Perspectives, elle discute de la façon par laquelle les macroéconomistes ont tenté d’identifier les paramètres théoriques de façon plus crédible. (…) J’hésite à m’arrêter ici tant Nakamura a publié de nombreux articles influents, mais je finirais en évoquant brièvement deux points que vous devriez davantage explorer. Du côté des dépenses publiques, elle a utilisé les chocs de dépenses locaux et un modèle robuste pour estimer le multiplicateur budgétaire national des dépenses publiques. Deuxièmement, elle a récemment suggéré que les récessions tendent à durer plus longtemps depuis que les femmes quittent moins massivement qu’auparavant la production domestique pour la vie active. »

Kevin Bryan, « The price of everything, the value of the economy: A Clark medal for Emi Nakamura », in A Fine Theorem (blog), 1er mai 2019.

jeudi 28 mars 2019

Alan Krueger est l’un des rares économistes dont les travaux ont amélioré la vie de millions de personnes

« Le lundi 18 mars, le monde a appris la disparition à 58 ans d'Alan Krueger, (…) professeur d’économie politique à l’Université Princeton et l’un des économistes les plus influents de notre époque. Peu de temps après avoir appris cette tragique nouvelle, un ami m’a demandé : "quand as-tu rencontré pour la première fois Alan ?" Sur le coup, je ne m’en souvenais plus. Cela semblait que cela remontait il y a très longtemps. Donc je suis retourné dans ma correspondance avec Alan et j’ai trouvé que nous nous sommes rencontrés pour la première fois en personne assez récemment, en l’occurrence à la conférence de la Society of Labor Economists qui s’est tenue à Vancover en 2011, où nous avions parlé d’une étude que j’avais présentée et qui mesurait l’impact des salaires minima sur la rotation du personnel. J’ai trouvé cela assez surprenant, dans la mesure où j’ai ressenti la présence intellectuelle d’Alan durant l’essentiel de ma vie d’adulte. En effet, peu de gens ont eu autant d’influence qu’Alan sur la façon par laquelle je m’attaque à la recherche économique. (…)

Alan a contribué aux efforts visant à faire de l’économie une science empirique, quelque chose qui a touché chaque pan de la discipline. Vous pouvez ne pas suivre étroitement les études autour du salaire minimum, les rendements de l’éducation, les monopsones sur le marché du travail, l’économie du rock’n’roll ou tout autre domaine spécifique où Alan a réalisé d’importantes contributions. Mais si vous croyez que l’économie comme discipline doit chercher à répondre aux questions relatives ai fonctionnement de l’économie via des études crédibles et sans jamais substituer sacrifier l’empirique à l’idéologie, vous avez une grande dette envers Alan Krueger.

Pour beaucoup des plus jeunes économistes aujourd’hui, c’est comme une seconde nature de se focaliser sur des cadres de recherche transparents pour rechercher des liens causaux. Cependant, ce n’était pas le cas quand j’ai commencé à étudier la science économique au début des années quatre-vingt-dix. La "révolution de la crédibilité" en science économique était un combat difficile à mener en vu de pousser la discipline dans une autre direction. Cela peut sembler surprenant pour certains ; après tout, pourquoi quelqu’un ne voudrait-il pas de preuves empiriques qui soient fiables ?

Comme Alan le savait, la révolution de la crédibilité était profondément sujette à controverses et l’est toujours dans une certaine mesure. "L’idée de faire de l’économie une véritable science empirique, où les théories centrales peuvent être rejetées, est une grande idée révolutionnaire", m’avait-il écrit sur Twitter l’année dernière. Le courage intellectuel d’Alan se retrouvait dans sa volonté de laisser l’empirique nous mener là où il peut nous mener, en toute liberté vis-à-vis de nos idées reçues. Et peut-être qu’aucun autre travail n’illustre mieux cette volonté que le livre qu’il a publié en 1995 avec David Card, Myth and Measurement, qui envoya des ondes de choc à l’ensemble de la communauté des économistes.

Dans ce livre, Card et Krueger soutiennent avec force que les preuves empiriques selon lesquelles le salaire minimum détruit des emplois (une idée largement acceptée jusqu’alors) étaient étonnamment fragiles. Leur propre étude de cas (déjà publiée dans la revue American Economic Review) comparait les restaurants de fast-food dans le New Jersey et en Pennsylvanie après une hausse du salaire minimum dans le New Jersey. Ils constatèrent que l’emploi avait augmenté dans le New Jersey après la hausse du salaire minimum. Ce résultat était cohérent avec celui d’une autre étude qu’Alan avait réalisée avec Lawrence Katz, un économiste de Harvard qui était l’un de ses collaborateurs de longue date. Mais Myth and Measurement était bien plus que cela. Ce livre fournissait un vaste éventail de preuves empiriques sur des questions plus larges relatives au travail et poursuivait en affirmant que la totalité des preuves empiriques suggéraient que le modèle simple d’offre et de demande était inadéquat pour comprendre le marché du travail des bas salaires. Card et Krueger affirmaient que les employeurs avaient un certain pouvoir pour décider de leurs politiques salariales et ne se voyaient pas entièrement dicter leurs décisions par les forces invisibles du marché. Ils peuvent augmenter leurs salaires pour améliorer leur capacité à recruter et retenir les travailleurs, même si cela se traduit par des coûts du travail plus élevés. Ils appelaient cela le modèle de monopsone dynamique et ils affirmaient que celui-ci collait mieux aux données que le modèle simple d’offre et de demande.

Globalement, le livre visait à utiliser les meilleures preuves empiriques disponibles pour tester les théories fondamentales relatives au marché du travail. Et c’était une chose courageuse à faire : aller contre de ce qui faisait consensus en science économique à l’époque. En effet, la réaction de la part de certains économistes a été incroyablement hostile. Cependant, elle apporta une nouvelle énergie à la discipline. L’idée selon laquelle les preuves empiriques peuvent être utilisées pour tester différentes théories sur le fonctionnement de l’économie m’a enthousiasmé lorsque j’avais lu, encore étudiant, Myth and Measurement au milieu des années quatre-vingt-dix et cet ouvrage m’emmena dans ce champ. Et c’était également le cas pour beaucoup d’autres.

Un quart de siècle riche en événements s’est écoulé depuis la publication de Myth and Measurement. Selon moi, ses principaux constats ont plutôt bien résisté à l’épreuve du temps et restent en accord avec l’essentiel des analyses empiriques réalisées dans les études ultérieures. Cependant, même si l’on est en désaccord avec les preuves empiriques concernant le salaire minimum et l’emploi, on ne peut contester le fait que Myth and Measurement a exercé une énorme influence sur la discipline et qu’il a permis de mettre en avant un programme de recherche fructueux. Premièrement, il a aidé à catapulter le cadre de recherche « quasi-expérimental » (une approche qui se focalise sur l’utilisation de modifications exogènes de politique et qui soigne particulièrement la constitution de groupes de contrôle) au devant de l’analyse économique. Deuxièmement, ce livre permit de considérer un ensemble plus large de modèles du marché du travail. En d’autres mots, il contribua à pousser la science économique dans la direction où nous considérons la théorie fondamentale comme vérifiable, et non comme quelque chose découlant de la seule déduction. Et si l’essor de la littérature sur la concurrence imparfaite au cours des dernières années est un guide, Myth and Measurement a été un franc succès.

Alan a réalisé d’autres contributions à la fois méthodologiques et de substance, qui ont permis à la science économique de progresser. Un thème commun connectant l’essentiel de ses travaux est la combinaison de sa curiosité intellectuelle avec sa capacité à glaner des preuves empiriques à partir de sources inattendues. En 1991, avec son collègue de Princeton Orley Ashenfelter, il visita le seizième festival annuel de la journée des jumeaux à Twinsburg, dans l’Ohio, pour collecter des données sur des jumeaux identiques avec différents niveaux d’éducation. Ce fut une façon ingénieuse de contrôler les différences de capacité qui pourraient biaiser les estimations du taux de rendement de l’éducation. Son article avec Alex Mas, un autre collègue de Princeton, utilisa les bandes de roulement des pneus Firestone produits à la suite d’une grève au cours de laquelle l’entreprise remplaça les travailleurs grévistes pour montrer l’importance des relations de travail sur la qualité du produit. Son travail avec Stacy Dale de la Mathematica Policy Research utilisa de l’information à propos des diverses universitaires auxquelles chaque étudiant est admis de façon à prendre en compte les facteurs inobservés qui pourraient affecter le salaire de chacun. En procédant ainsi, ils aboutirent à un constat surprenant : dans plusieurs cas, aller dans une université d’élite n’accroît pas la rémunération future. Dans un travail antérieur avec Josh Angrist (désormais au MIT), il utilisa des bizarreries comme le trimestre de naissance ou la loterie de l’époque du Vietnam pour estimer l’effet causal de l’éducation sur les rémunérations. Ces études ont suscité de nombreux travaux postérieurs, notamment des études qui ont pu être en désaccord avec leurs constats. Mais c’est exactement la façon par laquelle la science progresse et Alan a contribué à nous pousser dans cette direction. (…) »

Arindrajit Dube, « Alan Krueger was the rare economist whose work improved the lives of millions », in Slate, 19 mars 2019. Traduit par Martin Anota

jeudi 21 février 2019

Pouvons-nous (toujours) compter sur la science économique ?

« Le magazine Foreign Policy considère mon ami Fareed Zakaria comme l’un des dix plus importants penseurs dans le domaine de la politique étrangère de la dernière décennie. Farred a célébré cette reconnaissance méritée en y publiant un essai intitulé "The End of Economics", où il fait part de ses doutes quant à la pertinence et à l’utilité de la science économique et des économistes. Parce que Fareed tient des propos réfléchis et fait écho à des arguments fréquemment avancés, il mérite une réponse tout aussi réfléchie.

Fareed ignore de grands pans de la pensée économique, il ignore que les économistes ont été à l’origine de la plupart des critiques avancées à l’encontre des précédentes théories économiques, il s’en prend à des hommes de paille et il n’offre pas vraiment d’alternative aux approches économiques de la politique publique.

Plusieurs critiques de l’économie saisissent l’échec des économistes à prédire la crise financière comme motif d’inculpation. Cet argument échoue à tenir compte d’une idée centrale qui est enseignée dans chaque cours sur les fondamentaux en finance. Les effondrements de marchés sont intrinsèquement imprévisibles, parce que si l’on parvenait à en prédire un, il surviendrait plus tôt, comme tout le monde vendrait ses actifs par anticipation. De plus, plusieurs économistes, notamment Janet Yellen, Raghuram Rajan et Robert Shillerand, ont fait part de leurs inquiétudes quant aux risques pesant sur le système financier et l’économie réelle dans les années et les mois qui précédèrent la crise.

Fareed cite les propos que Paul Krugman a pu avoir concernant "l’aveuglement face à la possibilité qu’il y ait des défaillances catastrophiques dans une économie de marché" dont feraient preuve les économistes. Pourtant, Fareed ne cite pas tous les propos de Krugman. Ce dernier se montre en effet critique envers la science économique, mais il a aussi affirmé pendant des années que la théorie macroéconomique telle qu’elle est présentée dans les manuels peut expliquer l’essentiel de la crise financière et de ses répercussions, mais aussi que les principaux échecs en matière de politique économique après la crise (en l’occurrence, l’insuffisance de la relance et les inquiétudes excessives à propos de l’inflation et des déficits publics) tiennent justement à une méconnaissance de la science économique (…). J’ai longtemps partagé les idées de Paul sur la fétichisation excessive de l’élégance mathématique en macroéconomie, mais cela ne revient pas à rejeter la macroéconomie des manuels qui s’est être révélée des plus pertinentes.

En faisant écho à d’autres critiques, Fareed s’attaque à l’utilisation par les économistes du PIB pour évaluer la performance économique nationale. C’est une inquiétude justifiée. Pourtant, tous les efforts sérieux visant à aller au-delà du PIB se fondent sur des travaux réalisés par d’éminents économistes. Pensez à James Tobin et à William Nordhaus avec leur ouvrage "Measure of Economic Welfare" écrit il y a un demi-siècle, à Partha Dasgupta sur la soutenabilité, à Amartya Sen sur les mesures du développement humain ou à Tony Atkinson et à Thomas Piketty sur les inégalités.

On affirme que l’hypothèse économique commune selon laquelle chaque agent est rationnel et présente un comportement maximisateur est peu cohérente avec les faits. C’est vrai. C’était déjà un thème majeur dans la recherche économique avant même que je naisse, par exemple avec Milton Friedman qui a écrit un célèbre article évoquant les raisons pour lesquelles les gens jouent à la loterie. Andrei Shleifer et moi-même avons passé en revue il y a plus d’un quart de siècle la littérature, déjà bien imposante à l’époque, sur les "spéculateurs bruyants" (noise traders), et l’idée selon laquelle les prix spéculatifs ne sont pas pleinement rationnels et reflètent l’avidité, la peur et l’émotion humaine apparaît clairement dans les écrits de bien d’autres économistes comme Charles Kindleberger, Robert Shiller, Richard Thaler et Brad DeLong. L’hypothèse d’individus rationnels maximisateurs est seulement utilisée comme une approximation de la réalité et les bons économistes en comprennent les limites. Plusieurs des plus grandes intuitions en économie comportementale ont été avancées il y a plusieurs décennies et elles font partie intégrante de la théorie et de la pratique économiques modernes. Les idées en matière de politique économique comme les taxes sur les transactions et les "nudges" qui se fondent sur l’irrationalité proviennent pour l’essentiel des économistes.

Fareed affirme aussi que les pays ne cherchent pas à maximiser un profit, comme s’il s’agissait d’une critique de l’économie. Je ne connais pas d’économistes qui ait affirmé que les pays maximisaient un profit. Et contrairement à son affirmer, je ne connais pas d’économistes qui aient affirmé que le revenu était le principal déterminant du comportement électoral.

Une évaluation des changements dans la pertinence de la science économique doit aussi considérer les domaines où l’analyse économique est devenue de plus en plus importante. Les questions de choix scolaire et d’écoles de charte tout d’abord étudiées par les économistes sont centrales aux débats à propos de la politique éducative. Les systèmes de paiement pour résultats plutôt qu’intrants, qui ont le potentiel de révolutionner le remboursement de soins de santé, sont le fruit du raisonnement et de la recherche économiques. Les débats de politique environnementale tournent autour de schémas basés sur le marché pour décourager la pollution et encourager des formes plus propres de la production. Peu de domaines de la société ne sont pas influencés par les big data et l’apprentissage automatique qui sont la dernière incarnation de l’économétrie.

La science économique ne peut perdre le rôle qu’elle joue que s’il y a quelque chose pour la supplanter. Fareed est enthousiaste à propos de ce que les autres disciplines peuvent apporter. Je partage son espoir, mais je note qu’il ne met pas en avant d’idées ou cadres spécifiques émanant des autres disciplines qui auraient aurait contribué à la politique publique au cours des dernières décennies. Il y a certainement des exemples de recherches des autres sciences sociales qui ont eu un impact important sur le débat public, mais sûrement pas assez pour suggérer que la science économique puisse être reléguée à la marge.

Je conclurai en étant très explicite sur un point. Je ne remets pas en question l’importance de l’évolution de la réflexion au regard de la politique publique qui a pris place depuis l’ère de Reagan-Thatcher ou même depuis l’ère Clinton-Blair. Pour des raisons qui tiennent à la fois des avancées dans la compréhension du monde et des changements dans sa structure, la plupart des économistes (…) s’intéressent davantage aux questions de la redistribution, de la régulation, des monopoles et de la gestion de la demande globale qu’ils ne l’étaient il y a un quart de siècle. Comme le disait Keynes, "lorsque les faits changent, je change d’opinion. Et vous ?".

La gestion de la mondialisation, le soutien d’une classe moyenne à l’ère des intelligences artificielles et la préservation de la planète doivent être considérés comme des défis majeurs, voire comme les principaux défis, de notre ère. Si ce n’est pas de l’économie, il est difficile de voir d’où les solutions pourraient provenir. Chacun (qu’il apprécie la science économique ou ressente de la défiance à son égard) a intérêt à ce que la discipline soit pertinente et fructueuse pour aller de l’avant. »

Lawrence Summers, « Has economics failed us? Hardly ». Traduit par Martin Anota

samedi 24 novembre 2018

Ce que Solow pense de l’offensive de Friedman

« La fameuse allocution présidentielle de Milton Friedman en 1967 porte explicitement sur les usages et la conduite de la politique monétaire. Mais cela entrait dans un objectif plus large. Il cherchait à saper le keynésianisme américain éclectique des années cinquante et soixante, (…) celui auquel Joan Robinson donna l’étiquette (…) de keynésianisme "bâtard".

En fait, si j’emploie l’adjectif "éclectique", c’est pour vous rappeler que ce n’était pas une doctrine axiomatique unifiée, mais plutôt une collection d’idées à travers lesquelles des gens comme James Tobin, Arthur Okun, Paul Samuelson et d’autres (notamment moi-même) ont évoqué des événements et politiques macroéconomiques. Ils pensaient généralement qu’un déséquilibre entre la demande agrégée et l’offre agrégée (ou "potentiel") était possible, mais aussi que les mécanismes équilibreurs étaient tellement lents et faibles qu’une tel déséquilibre était susceptible de persister. Quand la demande est insuffisante par rapport au potentiel, une certaine version du modèle Is-LM était utilisée, à laquelle on pouvait ajouter des extensions et des raffinements quand c’était nécessaire. En temps utile, une variante ou une autre de la courbe de Phillips était intégrée dans l’appareillage standard. Les chocs d’offres et leurs conséquences furent ensuite pris en compte.

Dans la section où il explique "ce que la politique monétaire ne peut pas faire", Friedman (…) affirme tout d’abord que la banque centrale, en l’occurrence la Fed, ne peut "fixer" (peg) le taux d’intérêt réel. (Cette idée de "fixation" va se révéler importante.) Ce devait être le taux d’intérêt réel s’il s’agissait d’affecter l’investissement et d’autres dépenses. Le but ici est de remettre en cause la courbe LM standard. Ces jours-ci, il est pratique courante de remplacer la vieille courbe LM avec un M donné par une fonction de réaction de la banque centrale de base qui spécifie une taux directeur réel comme fonction du niveau de l’activité économique. Dans ce cadre, l’affirmation de Friedman est qu’il peut ne pas avoir une telle fonction de réaction. La Fed peut fixer le taux de fonds fédéraux, mais pas le taux d’intérêt réel.

La raison fondamentale est que la Fed contrôle une variable nominale, la taille de son propre bilan, et qu’elle peut utiliser ce contrôle pour déterminer une autre quantité nominale, mais pas réelle. (Les keynésiens américains éclectiques pensaient que ces territoires étaient remplis de rigidités, de retards et d’irrationalités, si bien que les événements nominaux pouvaient facilement avoir des conséquences réelles.) Mais Friedman explique plus concrètement l’essence de son raisonnement. Supposons que la Fed essaye d’atteindre un taux d’intérêt réel plus faible (en partant depuis une certaine position d’équilibre initiale), des achats de titres vont accroître leur prix et réduire leur rendement nominal. Mais comme le niveau des prix ne répond pas instantanément, le taux d’intérêt réel chute aussi. Comme Friedman le dit, c’est seulement le début du processus, pas la fin. De plus faibles taux d’intérêts et de plus amples détentions de liquidité vont stimuler l’investissement et peut-être d’autres dépenses. (C’est ce qui semblait être l’objectif de la Fed en premier lieu.) Les plus fortes dépenses vont accroître la demande de crédit, pousser les prix à la hausse et donc réduire les détentions de liquidité, et ainsi de suite. Après une brève discussion, Friedman en vient au point que je veux souligner. "Ces (…) effets vont annuler la pression baissière sur les taux d’intérêts assez promptement, disons, en moins d’un an. Ensemble, ils vont tendre plus tard, disons, après une année ou deux, à ramener les taux d’intérêt au niveau qu’ils auraient sinon atteint" (Friedman, p. 6). Maintenant, nous savons ce que la "fixation" signifie.

Ces affirmations à propos du calendrier ne sont pas anecdotiques. L’objectif, souvenez-vous, est de réfuter la conception que se faisait le keynésianisme américain éclectique de la politique monétaire contracyclique (…). Si la Fed peut avoir une influence significative seulement pendant un ou deux ans au maximum, alors elle joue sûrement un jeu perdant, en particulier à la vue de ces "délais longs et variables". Est-ce vraiment le cas ? Un esprit chevronné peut facilement imaginer une économie qui fonctionne ainsi ; la question est de savoir si notre économie fonctionne comme cela.

Dans un récent article bien caustique ("The Trouble With Macroeconomics", qui sera bientôt publié dans l’American Economist), Paul Romer a montré (dans son graphique n° 2) ce qui s’est passé pour le taux réel des fonds fédéraux dans les années juste avant et juste après la nomination de Paul Volcker à la tête de la Réserve fédérale. Le taux réel des fonds a fluctué autour de zéro au cours de l’année précédente. Après une brève récession, il a ensuite grimpé brutalement à 5 % et fluctué autour de ce niveau pendant les six années suivantes, lorsque le diagramme de Romer s’arrête. Cette hausse soutenue de 5 points de pourcentage du taux réel des fonds fédéraux n’est pas un événement aléatoire. Ce fut le résultat d’une intervention délibérée, visant à mettre un terme à l’inflation "à deux chiffres" des années soixante-dix, et celle-ci y parvint, avec de réels dommages collatéraux. Cette chaîne d’événements peut ne pas avoir fonctionné via un quelconque mécanisme de "perception erronée", il n’y avait pas de secret à propos de ce que faisait la Fed de Volcker.

Paul_Romer__desinflation_Volcker.png

source : Romer

Donc, la Fed était en fait capable de contrôler (fixer) son taux directeur réel, non pas sur un an ou deux, mais pendant au moins six ans, certainement assez longtemps pour que la conduite normale de la politique monétaire contracyclique soit efficace. L’histoire de la Fed de Bernanke et de Yellen est bien plus compliquée, en raison de la borne inférieure zéro (zero lower bound), mais elle ne soutient clairement pas la conception de Friedman. La Fed était apparemment capable de réduire le taux réel des bons du Trésor à dix ans une demi-douzaine d’années, entre 2011 et 2016. (…) La différence entre "une année ou deux" et une "demi-douzaine d’années" n’est pas une mince affaire. Cette partie du projet de démolition de Friedman semble avoir échoué en tant qu’économie pragmatique, bien qu’elle ait pu avoir réussi à séduire la profession.

La deuxième contribution, plus marquante, de l’allocution présidentielle de 1967 a été l’introduction du "taux de chômage naturel" par Friedman avec la courbe de Phillips verticale à long terme et ses implications accélérationnistes. Selon la formule bien connue, le taux naturel est celui "qui résulterait de l’équilibre général walrasien, en tentant compte des caractéristiques structurelles des marchés des biens et du travail, notamment des imperfections de marché, de la variabilité stochastique des demandes et des offres, du côté d’obtention d’informations à propos des postes vacants ou des disponibilités en main-d’œuvre, des coûts de mobilité, et ainsi de suite" (p. 8). (Etait-ce ironique ? Y a-t-il une personne sur Terre qui soit capable de dire ce que pourrait être le taux naturel ce trimestre ou le suivant ?)

Je n’ai pas besoin de rappeler la discussion classique de Friedman des conséquences si la Fed (ou quelqu’un d’autre) cherche à pousser le taux de chômage sous le taux naturel : une plus forte expansion monétaire, qui accroît tout d’abord les dépenses, la production et l’ample, comme les prix s’ajustent avec retard au nouvel état de la demande. Mais au final, le taux d’inflation, qu’importe son niveau antérieur, s’accroît et cela est pris en compte dans les anticipations. "Les salariés vont commencer à prendre conscience de la hausse des prix des choses qu’ils achètent et à demander de plus hauts salaires nominaux à l’avenir" (Friedman, p. 10). Donc la Fed doit créer encore une plus forte croissance monétaire pour soutenir le taux de chômage plus faible et vous connaissez la suite. Une fois encore, nous pouvons imaginer un tel monde ; ce que Friedman affirme, c’est que nous vivons dans un tel monde. (…)

Pendant une brève période de temps dans les années soixante-dix et au début des années quatre-vingt, le modèle accélérationniste le plus simple semblait bien fonctionner : si vous représentiez la variation du taux d’inflation et le taux de chômage (cf. Modigliani et Papademos, 1975), vous obteniez un nuage de points qui tendait à se regrouper autour d’une droite décroissante croisant l’axe des abscisses à un taux naturel (ou NAIRU) assez bien défini. A d’autres époques, pas vraiment.

Modigliani_Papademos__courbe_de_Phillips_accelerationniste.png

source : Modigliani et Papademos (1975)

Par exemple, Olivier Blanchard (2016) a récemment observé soigneusement et impartialement la période après 1980 et il a abouti aux conclusions suivantes. Premièrement, il y a toujours une courbe de Phillips, dans le sens où l’inflation réagit au chômage. Deuxièmement, les anticipations d’inflation sont devenues de plus en plus "ancrées", ce qui signifie de moins en moins dépendantes de l’expérience courante et récente. Donc (…) nous sommes plus ou moins retournés à la courbe de Phillips de Phillips où le taux d’inflation, non la variation du taux d’inflation, dépend du taux de chômage. (Une telle ancre n’est pas susceptible de survivre lorsque l’inflation dévie significativement et durablement par rapport à l’expérience courante. C’est dans le moyen terme que nous vivons.) Troisièmement, la pente de la courbe de Phillips s’est aplatie, depuis les années quatre-vingt, et elle est désormais assez faible. Et enfin, l’écart-type autour de la courbe de Phillips est large ; la relation n’est pas bien définie dans les données.

Combinés, ces deux derniers constats impliquent qu’il n’y a pas de taux de chômage naturel bien défini, que ce soit statistiquement ou conceptuellement. (…). Entre 2009 et 2016, le taux de chômage national a chute assez régulièrement de 9,3 % à 4,9 % tandis que l’inflation (du PIB en chaîne) est passée de 0,8 % à 1,3 % par an, sans tendance claire.

C’est très différent de l’histoire que l’on entend être récitée avec tant de confiance et d’aisance dans l’allocution de 1967. (…) L’allocution présidentielle de Friedman (…) a certainement contribué à mener la macroéconomie vers son étant actuel de non-pertinence épurée. La crise financière et la récession qui suivit celle-ci a peut-être planté certains doutes, mais nous ne pouvons même pas être certains de cela.

Certains des grands échecs comme ceux que j’ai notés dans cette note peuvent ne pas suffire pour rejeter la doctrine de Friedman et de ses divers successeurs. Mais ils suffisent certainement pour justifier qu’on se montre sceptique, en particulier parmi les économistes, pour qui le scepticisme devrait de toute façon être l’état mental par défaut. Donc pourquoi (…) ces idées ont-elles vogué pendent si longtemps sans rencontrer beaucoup de résistance ? Je n’ai pas de réponse définitive.

On peut spéculer. Peut-être qu’un patchwork d’idées comme celles du keynésianisme américain éclectique, tenues ensemble avec du ruban adhésif, constitue toujours un désavantage par rapport à une doctrine monolithique qui a une réponse pour tout et la même réponse pour tout. Peut-être que cette même doctrine monolithique s’est renforcée et a été renforcée par le déplacement général des préférences politiques et sociales vers la droite que l’on a pu observer au cours du temps. Peut-être que ce morceau d’histoire intellectuelle était essentiellement une concaténation accidentelle d’événements, de personnalités et de dispositions. Et peut-être que c’est la sorte de question dont il vaut mieux discuter en grillant des marshmallows autour d’un feu de camp mourant. »

Robert Solow, « A theory is a sometime thing », in Review of Keynesian Economics, vol. 6, n °4, 2018. Traduit par Martin Anota



aller plus loin...

« La courbe de Phillips est-elle bien morte ? (édition américaine) »

L’élaboration et la réception du discours présidentiel de Friedman

« Quel est l’héritage du discours présidentiel de Friedman ? »

« Gordon et l’hypothèse du taux de chômage naturel »

« Le taux de chômage naturel, un concept suranné »

jeudi 18 octobre 2018

La croissance et l’environnement au menu du prix Nobel d’économie 2018

« Le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel a été attribué cette année à William Nordhaus et à Paul Romer pour avoir intégré le changement climatique et l’innovation technologique à l’analyse macroéconomie de long terme. Nous passons en revue les réactions de plusieurs économistes à cette annonce.

Sur VoxEU, Kevin Bryan a évoqué comment les lauréats du prix Nobel d’économie de cette année ont élaboré leurs contributions et comment ces dernières sont liées entre elles. Cela faisait plusieurs années que l’on s’attendait à ce que Nordhaus et Romer reçoivent cette récompense, mais c’est le fait qu’ils l’aient reçue en même temps qui a surpris : Nordhaus est surtout connu pour ses travaux en économie environnementale et Romer pour sa théorie de la croissance endogène. Mais après réflexion, les liens entre leurs travaux apparaissent évidents.

Avec Romer, nous avons un modèle d’équilibre général pour réfléchir aux raisons pour lesquelles les gens produisent de nouvelles technologies. La connexion avec Nordhaus se fait avec un problème qui est à la fois provoqué et résolu par la croissance. La croissance en tant qu’objectif de politique économique n’était pas remise en cause dans les années soixante, mais au début des années soixante-dix les inquiétudes environnementales font leur apparition. Les « modèles d’évaluation intégrés » ont de l’épargne endogène à la Solow et précisent l’arbitrage entre croissance économique et changement climatique, mais met aussi en évidence l’importance critique du taux d’escompte social et des micro-estimations du coût d’ajustement au changement climatique. (…)

Martin Sandbu affirme qu’au cours de notre existence, les changements technologique et environnemental ont transformé la façon par laquelle nos économies fonctionnent. La prochaine fois que nous nous émerveillerons à propos de notre application de smartphone favorite ou que nous nous inquiéterons de la plus grande fréquence des intempéries, affirme Sandbu, nous devrons avoir une pensée pour Romer et Nordhaus. Grâce à eux, nous sommes mieux armés pour trouver les bonnes politiques pour traiter avec la question de l’innovation ou du changement climatique. Ils méritent leur prix.

Peter Dorman a voulu parler d’une personne qui n’a pas reçu le prix Nobel et dont l’absence de consécration est lourde de signification. Nordhaus a passé plusieurs années à débattre avec Martin Weitzman, qui rejetait l’approche en termes de coût social du carbone au motif qu’une bonne politique doit se baser sur le principe d’assurance visant à éviter le pire scénario. Son "théorème lugubre" démontre que, sous certaines hypothèses, la probabilité d’événements extrêmes ne baisse pas aussi rapidement que s’élève de catastrophe augmente, si bien que leur coût attend s’accroît sans limite ; et cela s’applique aux scénarii du changement climatique.

Les travaux de Weitzman sont souvent invoqués par ceux qui croient qu’une action plus agressive est nécessaire pour limiter le réchauffement climatique. Par conséquent, quand les économistes spéculaient sur l’identité du prochain lauréat du prix Nobel et considéraient l’hypothèse d’une attribution de la récompense à Nordhaus, ils pensaient que Weitzman serait son colistier. Selon Dormans, le combo Nordhaus-Romer est si artificiel et si peu convaincant qu’il est difficile de penser que le prix qui n’a pas été attribué à Weitzman est aussi important que celui qui a été attribué à Nordhaus et qu’il s’agit clairement d’un message politique sur la bonne façon de gérer le changement climatique et la mauvaise façon de gérer le changement climatique.

Timothy Terrell n’est pas du même avis. Il pense que le comité Nobel a promu la réglementation environnementale avec son dernier choix. Les deux lauréats appellent à un plus grand rôle pour l’Etat : Romer lorsqu’il suggère que le gouvernement doit investir dans la recherche-développement et utiliser la réglementation des brevets pour stimuler la croissance économique ; Nordhaus lorsqu’il indique que le gouvernement doit agir pour empêcher un changement climatique pernicieux. (…)

David Warsh affirme que Nordhaus et Romer ont beau avoir travaillé sur des problèmes apparemment différents et n’ont que rarement été cités ensemble, leurs travaux se combinent pour donner lieu à un argument convaincant. En s’efforçant de modéliser le plus finement possible l’interaction entre la présence de carbone dans l’atmosphère, le changement climatique et la croissance économique, Nordhaus a rendu possible l’estimation des dommages provoqués par la hausse des températures. Une taxe carbone (que Nordhaus et bien d’autres économistes considèrent comme préférable au système de marchés de droits à polluer comme celui de l’Accord de Paris) peut empêcher les dommages les plus sérieux : elle doit tout d’abord être fixée à un faible niveau pour ensuite augmenter et ce tant qu’il le faut pour contenir les dommages. Romer, de son côté, a créé un cadre analytique dans lequel l’anticipation d’une telle taxe conduit à une vague d’innovations qui permettraient de réduire les émissions de carbone. (…)

Noah Smith écrit que, en plus d’honorer deux chercheurs dont les contributions ont profondément influencé leur champ respectif, la récompense fait écho à quelque chose dont le monde commence à manquer, en l’occurrence la croissance économique. Dans la mesure où la croissance ralentit et où la productivité stagne dans le monde riche, les intuitions de Romer sont plus importantes que jamais. »

Silvia Merler, « The 2018 Nobel prize: Growth and the environment », in Bruegel (blog), 15 octobre 2018. Traduit par Martin Anota



aller plus loin... lire le résumé des travaux de Nordhaus et Romer par l'Académie des sciences de Suède et la synthèse d'Alexandre Delaigue

lundi 8 octobre 2018

Innovation, croissance et changement climatique. Petit résumé des travaux de Nordhaus et Romer

« Le prix en sciences économiques de cette année récompense la conception de méthodes qui contribuent à répondre à certains enjeux les plus fondamentaux et pressants de notre époque : la croissance soutenable à long terme de l’économie mondiale et du bien-être de la population mondiale.

L’étude de la façon par laquelle l’humanité gère des ressources limitées est au cœur de la science économique et, depuis sa constitution comme science, l’économie a reconnu que les plus importantes contraintes sur les ressources concernent la Nature et le savoir. La Nature dicte les conditions dans lesquelles nous vivons et le savoir définit notre capacité à gérer ces conditions. Cependant, malgré leur rôle central, les économistes n’ont généralement pas étudié comment la Nature et le savoir sont affectés par les marchés et les comportements économiques. Les lauréats de cette année, Paul M. Romer et William D. Nordhaus, ont élargi le champ de l’analyse économique en concevant des outils qui nous permettent d’examiner comment l’économie de marché influence à long terme la Nature et le savoir.

Le savoir. Pendant plus d’un siècle, l’économie mondiale a crû à un rythme remarquable et assez régulier. Quand quelques pourcents de croissance économique par an s’accumulent sur plusieurs décennies, voire plusieurs siècles, cela bouleverse vraiment la vie des gens. Cependant, la croissance a progressé bien plus lentement durant l’essentiel de l’histoire humaine. Elle varie aussi d’un pays à l’autre. Donc, qu’est-ce qui explique pourquoi la croissance survient à un tel moment et à tel endroit ? La réponse qu’avancent habituellement les économistes est le progrès technique, à travers lequel des volumes croissants de savoirs sont incarnés dans les technologies créées par des inventeurs, des ingénieurs et des scientifiques. Au début des années quatre-vingt, quand il était un étudiant en doctorat à l’Université de Chicago, Paul Romer a commencé à développer la théorie de la croissance endogène, où les avancées technologiques ne proviennent pas simplement de sources externes – exogènes -, comme le supposaient jusqu’alors les modèles économiques. En fait, elles sont créées par des activités marchandes. Les constats de Romer nous permettent de mieux comprendre quelles sont les conditions de marché qui favorisent la création de nouvelles idées pour des technologies rentables. Ses travaux nous aident à concevoir des institutions et des politiques qui peuvent améliorer la prospérité humaine en instaurant les bonnes conditions pour le développement technologique.

La Nature. William Nordhaus a commencé ses travaux dans les années soixante-dix, après que les scientifiques aient commencé à se préoccuper à l’idée que la combustion des énergies fossiles puisse entraîner un réchauffement climatique et des effets pernicieux d’un tel changement climatique. Nordhaus s’est donné la tâche immense d’examiner les liens de causalité bidirectionnels entre l’activité humaine et le climat, en combinant théories fondamentales et résultats empiriques tirés de la physique, de la chimie et de l’économie. Il n’a donc pas simplement considéré la Nature comme une contrainte sur l’activité humaine, mais il a également pris en compte le fait que la première soit en retour grandement influencée par cette dernière. Nordhaus est la première personne à concevoir des modèles simples, mais dynamiques et quantitatifs, du système économique-climatique mondial, désormais appelés "modèles intégrés d’évaluation" (integrated assessment models, IAM). Ses outils nous permettent de simuler comment l’économie et le climat évolueront dans le futur selon des hypothèses alternatives à propos des fonctionnements de la Nature et de l’économie de marché, notamment à propos des politiques mises en œuvre. Ses modèles apportent des réponses à des questions à propos de la désirabilité de différents scénarii mondiaux et différentes interventions politiques.

Les imperfections dans le marché mondial. Les deux lauréats ont mis en lumière les effets de débordement (spillover effects) dans la société, c’est-à-dire les conséquences sur autrui qui ne sont pas prises en compte par les individus, notamment les innovateurs et les pollueurs. Toute idée de nouvelle technologie, qu’importe là où elle apparaît, peut être utilisée pour la production de nouveaux biens et de nouvelles idées ailleurs, aujourd’hui ou dans le futur. De même, l’émission d’une unité supplémentaire de carbone se diffuse rapidement dans l’atmosphère et contribue au changement climatique, affectant toute l’humanité aujourd’hui et dans le futur. Les économistes parlent d’"externalités" pour qualifier ces effets de débordement. Les externalités étudiées par Romer et Nordhaus ont une portée mondiale et des conséquences à long terme. Comme les marchés non régulés vont générer des conséquences inefficaces en présence de telles externalités, le travail de Romer et de Nordhaus fournit des arguments convaincants pour l’intervention publique.

L’innovation technologique


Motivation. Les différences de long terme dans les taux de croissance ont d’énormes conséquences. Si deux économies commencent avec le même PIB par tête, mais que l’une d’entre elles croît à un rythme annuel supérieur de 4 points de pourcentage à la seconde, alors elle sera presque cinq fois plus riche que la seconde au bout de 40 ans. Un modeste écart de croissance de 2 points de pourcentage permet à la première économie d’être deux fois plus riche que la seconde au bout de 40 ans.

A la fin des années quatre-vingt, Romer a constaté que les taux de croissance du revenu dans les données observées variaient grandement d’une économie à l’autre. Le graphique 1, basé sur l’un des articles de Romer, représente le revenu par tête en 1960 et la croissance moyenne pour les 25 années suivantes pour plus de 100 pays ; un graphique avec des données actualisées lui ressemblerait fortement. Chaque carré représente un pays. Comme le graphique le montre, les écarts de taux de croissance typiques entre des pays s’élevaient à plusieurs points de pourcentage et il y a un grand écart (autour de 10 points de pourcentage) entre les pays ayant la plus forte croissance et les pays ayant la plus faible croissance. De plus, le graphique ne montre pas de relation systématique entre le revenu initial et la croissance : certains pays pauvres croissent rapidement, tandis que d’autres décroissent. Romer en conclut qu’il était crucial de comprendre les causes de tels écarts persistants et significatifs entre les taux de croissance et il commença à rechercher une explication.

GRAPHIQUE Revenu par tête (relativement à celui des Etats-Unis) et croissance annuelle subséquente du revenu par tête

Paul_Romer__revenu_par_tete_1960_croissance_1960_1985.png
source : Romer (1987)

Des zones d’ombre empiriques et théoriques. Comme Romer l’a noté, la théorie de la croissance qui dominait à l’époque (le modèle de croissance de Solow, qui fut couronnée par le prix Nobel de sciences économiques en 1987) pouvait expliquer plusieurs aspects de la croissance économique, mais pas des écarts amples et durables dans les taux de croissance entre les pays. Le modèle de Solow prédit que les pays les plus pauvres devraient croître plus rapidement les pays riches et rattraper ces derniers assez rapidement, ce qui n’est pas ce que suggère le graphique 1. Dans ce modèle, une économie peut croître en accumulant du capital physique, par exemple des machines ou des infrastructures, mais la croissance tirée par le capital peut s’essouffler à long terme ; pour toute technologie donnée, tout supplément de capital accroît de moins en moins la production. Pour qu’il y ait une croissance durable à long terme (et des écarts de croissance) dans le modèle, l’hypothèse était que les travailleurs deviennent de plus en plus productifs grâce aux avancées technologiques, bien qu’à des rythmes différents d’un pays à l’autre. Par conséquent, le modèle de Solow n’explique pas ces tendances, parce que les changements technologiques n’y arrivent que de façon exogène, depuis une "boîte noire".

L’une des percées majeures de Romer est d’avoir ouvert cette boîte noire et d’avoir montré comment les idées pour les nouveaux biens et services (produits par de nouvelles technologies) peuvent être créées dans l’économie de marché. Il a aussi montré comment un tel changement technologique endogène peut influencer la croissance économique et quelles politiques sont nécessaires pour que ce processus fonctionne bien. Les contributions de Romer ont eu un énorme impact dans le champ de la science économique. Ses explications théoriques ont posé les fondations pour la recherche sur la croissance endogène et les débats suscités par ses comparaisons internationales de croissance ont ouvert la voie à de nouvelles et prometteuses recherches empiriques.

Qu’y a-t-il de spécial à propos de la croissance tirée par les idées ? Pour répondre à cette question, nous devons comprendre comment les idées diffèrent des biens comme le capital physique ou du capital humain. Romer nous apprend à considérer les biens en utilisant deux dimensions (…). Dans la première dimension, le capital physique et le capital humain sont des biens rivaux. Si une machine ou un ingénieur formé sont utilisés dans une usine, cette machine ou cet ingénieur ne peuvent être utilisés simultanément dans une autre usine. Par contre, les idées sont des biens non rivaux : une personne ou une entreprise utilisant une idée n’empêchent pas les autres de l’utiliser également.

Dans la seconde dimension, ces biens peuvent être excluables (ou exclusifs) si les institutions ou régulations permettent d’empêcher quelqu’un de les utiliser. Pour certaines idées, telles que les résultats tirés de la recherche fondamentale, c’est difficile, voire impossible : pensez à des outils mathématiques comme le théorème de Pythagore. Pour d’autres idées, cependant, les utilisateurs peuvent être exclus via des mesures techniques (telles que le cryptage) ou la réglementation des brevets. L’un des articles de Romer a montré comment la rivalité et l’excluabilité des idées déterminaient la croissance économique.

Romer croyait qu’un modèle de marché pour la création d’idées devait prendre en compte le fait que la production de nouveaux biens (qui se base sur les idées) puisse avoir des coûts déclinant rapidement : la première ébauche a un énorme coût fixe, mais la réplication a de faibles coûts marginaux. Une telle structure des coûts implique que les entreprises doivent avoir une marge, c’est-à-dire fixer le prix au-dessus du coût marginal, de façon à ce qu’elles puissent récupérer le coût fixe initial. Les entreprises doivent donc avoir un certain pouvoir de monopole, ce qui n’est possible que pour des idées suffisamment excluables. Romer a aussi montré que la croissance tirée par l’accumulation d’idées, à la différence de la croissance tirée par l’accumulation de capital physique, ne présente pas forcément de rendements décroissants. En d’autres termes, la croissance tirée par les idées peut rester soutenue à long terme.

Les imperfections de marché et la politique économique. En principe, le nouveau savoir créé par une recherche-développement fructueuse peut profiter aux entrepreneurs et aux innovateurs partout dans le monde, maintenant et dans le futur. Cependant, les marchés ne récompensent en général pas totalement les créateurs de nouveaux savoirs pour tous les bénéfices de leurs innovations, ce qui signifie que (aussi longtemps que le nouveau savoir est socialement bénéfique), il y aura trop peu de recherche-développement. De plus, comme les incitations de marché pour la recherche-développement prennent la forme de profits de monopole, il n’y aura typiquement pas de provision adéquate de nouvelles idées une fois qu’elles auront été inventées. La recherche subséquente a montré comment les résultats de marché peuvent aussi entraîner trop de recherche-développement : soit lorsque les nouvelles idées conduisent à l’éviction de trop nombreuses entreprises existantes lors du processus de destruction créatrice, soit lorsque les nouvelles idées augmentent les technologies socialement néfastes, par exemple en permettant une extraction ou un usage excessifs de carburants fossiles, ce qui nuit au climat.

Pour résumer, Romer a montré que des marchés non régulés vont générer un changement technologique, mais qu’ils tendent à ne pas fournir assez de recherche-développement, donc pas assez de nouveaux biens. Pour répondre à cette insuffisance, il faut des interventions publiques bien conçues, comme les subventions à la recherche-développement et la réglementation des brevets. Son analyse dit que de telles politiques sont vitales pour la croissance à long terme, pas simplement dans un pays, mais au niveau mondial. Elle fournit aussi un guide pour la conception des politiques : le système de brevets doit parvenir à établir un bon équilibre entre les incitations à créer de nouvelles idées (en accordant à leurs concepteurs certains droits au monopole) et la capacité des autres à les utiliser (en limitant ces droits au monopole dans le temps et dans l’espace).

Le changement climatique


L’activité humaine a contribué à une hausse rapide des températures mondiales moyennes au cours du dernier siècle. Même s’il y a une certaine ’incertitude autour de l’ampleur à laquelle cela va affecter le climat dans le futur, le consensus en sciences naturelles est que ce sera "selon toute probabilité un impact significatif".

Motivation. Dans les années soixante-dix, quand il était un jeune étudiant à l’Université de Yale, William Nordhaus a étudié en profondeur les données naissantes sur le réchauffement climatique et ses causes probables et il en conclut qu’il devait faire quelque chose. Sa crainte l’a amené à développer de nouveaux outils pour nous aider à comprendre comment l’économie peut générer un changement climatique, ainsi que les conséquences sociétales du changement climatique. Il voulait développer un cadre qui permette d’analyser le changement climatique en termes de coûts et bénéfices.

Un défi de taille. Comme Romer, Nordhaus étendit le modèle de croissance de Solow avec un important ensemble d’effets de débordement en incluant le réchauffement climatique provoqué par les émissions de carbone. Dans ce cas, les externalités en question étaient essentiellement négatives. Surtout, les mécanismes et causes du changement climatique anthropique impliquent des processus étudiés dans les sciences naturelles. Une analyse globale du changement climatique requiert donc une approche vraiment intégrée, dans laquelle la société et la Nature interagissent.

Prenant conscience de la nécessité d’une telle approche, Nordhaus est à l’origine du développement des modèles intégrés d’évaluation (integrated assessment models). (…)

Des recommandations en matière de politique. Selon les travaux de Nordhaus, le remède le plus efficace pour les problèmes provoqués par les émissions de gaz à effet de serre serait un dispositif mondial de taxes carbone qui soient imposées uniformément dans tous les pays. Cette recommandation s’appuie sur un résultat formulé dans les années soixante par un économiste britannique, Arthur Cecil Pigou, à savoir que chaque émetteur paye le coût social du dommage provoqué par ses émissions via un prix approprié. Un système mondial de droits d’émission peut parvenir au même résultat, à condition que les quotas soient fixés à un niveau suffisamment faible pour entraîner un prix du carbone suffisamment élevé.

Cependant, les modèles IAM ne fournissent pas seulement des résultats qualitatifs. Ils nous permettent de calculer des trajectoires quantitatives pour la meilleure taxe carbone et montrent comment ces trajectoires dépendent crucialement d’hypothèses à propos des paramètres : par exemple, la sensibilité de la température mondiale à la concentration de carbone dans l’atmosphère, la durée pendant laquelle celui-ci reste dans l’atmosphère et l’ampleur des dommages provoqués par le changement climatique. Une récente étude de Nordhaus offre une bonne illustration de la façon par laquelle les modèles IAM peuvent être utilisés pour analyser la politique. Il simule quatre politiques dans la dernière version de son modèle DICE en utilisant les meilleures estimations pour les paramètres du changement climatique :

GRAPHIQUE Emissions de CO2 (en gigatonnes par an) selon différents scénarii

William_Nordhaus__differents_scenarios_emissions_CO2_taxe_carbone_Stern.png

Dans le scénario n° 1, il n’y a pas de mesures de politique climatique de plus que celles déjà en place en 2015. Dans le scénario n° 2, les taxes carbone maximisent le bien-être mondial, selon des hypothèses économiques conventionnelles à propos de l’importance du bien-être des générations futures. Dans le scénario n° 3, les taxes carbone maximisent le bien-être mondial en donnant un plus grand poids au bien-être des générations futures que dans le scénario n° 2, comme le suggère The Economics of Climate Change: The Stern Review de 2007. Dans le scénario n° 4, les taxes carbone sont suffisamment élevées pour maintenir le réchauffement climatique en-deçà des 2,5°C tout en réduisant le coût en bien-être mondial.

Le graphique montre l’évolution des émissions de CO2 au cours du temps dans chacun de ces quatre scénarii. Les différentes trajectoires pour les taxes carbone signifient que les émissions (et donc l’ampleur du changement climatique) sont très différentes d’un scénario à l’autre. Dans le scénario n° 2, les taxes débutent à environ 30 dollars la tonne de CO2 et augmentent au cours du temps à peu près au même rythme que le PIB mondial. Dans les scénarii n° 3 et 4, qui simulent des réductions d’émissions plus fortes, les taxes sont six à huit fois plus importantes.

De grandes incertitudes. Dans les sciences naturelles et dans les sciences sociales, il y a des incertitudes à propos de plusieurs aspects du changement climatique. Par exemple, nous ne savons pas exactement à quel point le climat est sensible aux émissions de gaz à effet de serre ou quel est la probabilité que l’on atteigne un point tournant mondial au-delà duquel le climat échappe à tout contrôle. De même, nous ne savons pas tout à propos des dommages économiques et humains provoqués par le changement climatique et du coût de la décarbonisation.

Naturellement, les IAM développés par Nordhaus ne peuvent éliminer cette incertitude. Cependant, ses modèles peuvent analyser comment le prix approprié du carbone est affecté par différentes possibilités, par exemple une plus forte sensibilité du climat ou une plus forte probabilité d’un point tournant mondial dangereux à 2° C de réchauffement. (...) »

Académie royale des sciences de Suède, « Integrating nature and knowledge into economics », 8 octobre 2018. Traduit par Martin Anota

vendredi 14 septembre 2018

Larry Summers, la crise financière et les fondations de la macroéconomie

« L’une des préoccupations (pour ne pas dire la principale préoccupation) de la dernière génération de macroéconomistes a été d’élaborer une macroéconomie avec des fondations microéconomiques. D’un certain point de vue, cela fait pleinement sens. Comment peut-on être contre l’idée d’établir des fondations ? Et il fait sens de penser que les théories macroéconomiques des fluctuations de l’investissement, par exemple, doivent être bâties sur des théories expliquant comment les entreprises prennent leurs décisions d’investissement.

Il faut cependant reconnaître que les principes d’une construction de la macroéconomie sur des fondations microéconomiques, telle qu’elle a été pratiquée par les économistes, n’a aucunement contribué à prédire, expliquer ou résoudre la Grande Récession. Les idées à propos de l’effondrement financier que les responsables de la politique économique ont trouvées les plus utiles venaient d’économistes comme Hyman Minsky et Charles Kindleberger, qui réfléchissaient à un niveau agrégé et ne recherchaient pas à établir des fondements microéconomiques. Les participants de marché, comme Ray Dalio, qui ont été très lucides à propos de la crise ignoraient la microéconomie en réfléchissant en termes d’agrégats de dette et de crédit.

Qu’est-ce qui n’allait pas et quel enseignement doit-on en tirer ? Selon moi, la supposition clé que fait une grande partie de la macroéconomie (en l’occurrence, celle selon laquelle il est préférable d’opérer avec des fondations aussi fondamentales que possible) n’est pas soutenue par l’histoire de la science. Les psychologues comprennent une grande partie du comportement humain sans réfléchir aux neurones. Les géologues étudient des séismes sans remonter aux premiers principes de la physique. Les ingénieurs du génie civil utilisent des règles générales tirées de l’expérience pour comprendre les propriétés des matériaux utilisés en construction.

Donc la macroéconomie n’a pas besoin d’être (ni même ne doit être) construite sur des fondations qui se focalisent sur les décisions d’optimisation des ménages et des entreprises. Pour qu’une telle approche soit utilisable trop de choses doivent être ignorées. De plus, de récentes analyses en économie comportementale suggèrent que l’optimisation telle que l’envisagent les économistes explique bien mal les décisions que les agents prennent vraiment lorsqu’ils dépensent.

Mais la macroéconomie a toujours besoin d’un certain type de fondations. C’est pourquoi j’ai été ravi de voir Andrei Shleifer publier l'ouvrage A Crisis of Beliefs: Investor Psychology and Financial Fragility avec Nicola Gennaioli. Le livre replace les anticipations au centre de la réflexion à propos des fluctuations économiques et des crises financières, mais ces anticipations ne sont pas "rationnelles". En fait, comme toutes les données empiriques le suggèrent, elles sont sujettes à des erreurs d’extrapolation systématiques. Le livre suggère que ces erreurs d’anticipations doivent être saisies comme découlant de biais cognitifs que les êtres humains sont prompts à faire.

Ce livre parle tout d’abord du travail de Daniel Kahneman et Amos Tversky, en montrant comment leurs idées peuvent être mobilisées pour construire des modèles d’anticipations dans l’économie qui soient utiles. Cette approche amène à reconsidérer la bulle immobilière avant la crise financière et contribue à expliquer pourquoi les investisseurs et les responsables de la politique économique ont été si lents à saisir les vulnérabilités des marchés lorsque la bulle commença à éclater. Elle fournit un compte-rendu convaincant de la crise de 2008 et propose un type de perspectives qui aurait pu empêcher ou tout du moins atténuer ses conséquences. Et elle propose une façon de réduire les risques futurs de crise.

Bien sûr, il y a pas mal de choses à faire encore. Les arguments que mettent en avant Gennaioli et Shleifer doivent être débattus dans la profession. Et, oui, il est plus facile d’expliquer le passé que de prévoir le futur. Mais les théories des fluctuations économiques et des crises basées sur la tendance des êtres humains à devenir trop gourmands, puis ensuite à basculer dans la panique semblent bien plus fructueuses que des théories basées sur une optimisation précise.

Quelque chose ne va pas avec les économistes si des événements comme la crise de 2008 ne les amènent pas à changer leur manière de penser. Ceux qui veulent être à l’avant-garde de la nouvelle pensée devraient lire A Crisis of Beliefs. »

Larry Summers, « The financial crisis and the foundations for macroeconomics », 13 septembre 2018. Traduit par Martin Anota

samedi 26 mai 2018

La science économique a-t-elle échoué ?

En janvier 2018, la Oxford Review of Economic Policy a publié un numéro édité par David Vines et Samuel Wills qui est dédié au projet de reconstruire la théorie macroéconomique. (…) Le numéro bénéficie notamment des contributions d’Olivier Blanchard, de Simon Wren-Lewis, de Joseph Stiglitz, de Paul Krugman et de Ricardo Reis. Elle a déclenché un débat qui est toujours en cours et que nous allons passer en revue.

Martin Sandbu a affirmé que la science économique peut être plus ouverte sans pour autant perdre en rigueur. L’approche autour de la modélisation DSGE peut être suffisamment assouplie pour qu’elle permette d’élargir l’éventail d’hypothèses à propos des comportements microéconomiques et l’éventail de relations macroéconomiques auxquels ceux-ci donnent lieu. Mais le pluralisme va conduire inévitablement à de nouveaux désaccords sur les hypothèses microéconomiques que l’on peut qualifier d’ad hoc et celles que l’on peut considérer comme fondées. Mais un pluralisme intégré dans un cadre commun est préférable à un "pluralisme par juxtaposition", où des approches méthodologiques fondamentalement différentes ne cherchent absolument pas à dialoguer les unes avec les autres.

Martin Wolf a écrit dans le Financial Times que les véritables tests pour l’économie consistent à savoir si ses adeptes comprennent ce qui peut mal tourner dans l’économie et comment y remédier. Quand la crise financière a éclaté en 2007, elle a surpris une bonne partie de la profession, si bien qu’elle a échoué au premier de ces tests. Elle s’est révélée plus efficace au deuxième test, mais elle nécessite néanmoins d’être reconstruite.

L’analyse de la théorie macroéconomique fondamentale suggère une ignorance substantielle du fonctionnement de nos économies. Nous pouvons ne jamais comprendre comment de tels systèmes complexes fonctionnent vraiment. Cela ne signifie pas qu’il est inutile d’améliorer notre compréhension. Mais, en pratique, il peut être justifié de se focaliser sur deux autres tâches : la première consiste à rendre l’économie plus résistante aux conséquences des euphories et aux paniques ; la seconde consiste à la guérir aussi rapidement que possible. Dans les deux cas, nous devons poursuivre notre réflexion.

Ferdinando Giugliano affirme que nous devons lutter contre la fausse économie. Les critiques auxquels les universitaires ont fait face depuis la crise ont aussi ouvert la porte à des vues économiques alternatives qui ont peu ou aucun de fondement académique. Plusieurs économistes qui colportent des théories hautement non conventionnelles s’en tirent sans aucune forme d’examen. La discipline est bien plus ouverte à une variété de vues que ses critiques le concèdent, mais cela signifie les soumettre à un degré de rigueur pour lequel la plupart de ces dissidents ne sont pas préparés.

Les médias peuvent jouer un meilleur rôle en distinguant entre les théories économiques qui ont été essayées et testés et les spéculations avec peu de fondement académique. Cependant, les économistes orthodoxes doivent aussi en faire beaucoup plus pour défendre leur profession dans le débat public. Ils doivent faire attention à ce que les théories universitaires peuvent et ne peuvent pas dire et, surtout, les économistes orthodoxes doivent continuer d’améliorer leur discipline de façon à regagner la confiance du public.

Peter Doyle est aussi en désaccord avec Martin Wolf. Il pense que les efforts de reconstruction que Wolf salue n’ont, même il y a une décennie, apporté aucun changement substantiel à l’état de savoir de la profession, ni apporté aucune véritable lumière sur la genèse de la crise. Le problème mis en lumière par la crise n’est pas, selon Doyle, que la science doit être reconstruite. Les professionnels qui l’utilisent proprement, bien qu’ils soient peu, ont mis en avant les risques sous-jacents bien en avance, mais ils ont été ignorés (…). En fait, le problème était et est toujours comment la science est utilisée par ceux qui jouent un rôle éminent dans l’arène mondiale. (...)

Lajor Bokros répond à Martin Wolf dans le Financial Times en affirmant que nous ne devrions pas faire porter le blâme sur la science si les politiciens n’apprennent pas. La plus grande erreur est probablement que la macroéconomie orthodoxe ne fasse pas clairement savoir que les crises sont absolument inévitables. La question, par conséquent, n’est alors pas comment empêcher une crise, mais plus modestement : comment ralentir l’accumulation de bulles d’investissement alimentées par une croissance insoutenable du crédit et de la dette et comment atténuer les conséquences négatives économique, financière et sociales après le déclenchement de la crise. C’est là où les gouvernements ont un rôle important à jouer dans l’économie de marché capitaliste et c’est là où plusieurs gouvernements ont échoué misérablement il y a une décennie.

Sur le Financial Times se déroule actuellement un débat sur le sujet, un débat qui a commencé avec une discussion entre Tom Clark et Chris Giles. Tom Clark pense que l’économie a échoué et que l’essentiel du travail des économistes est en vérité simplement de l’arithmétique sociale dans laquelle le raisonnement économique colore un peu (ou par moments déforme) l’interprétation. L’économie contemporaine saisit le monde comme une série de déviations par rapport à une vision irréaliste de marchés omniprésents et parfaits. Le vieux paradigme cadre toujours les prescriptions en matière de politique économique, mais dans un monde de flux, où les fortunes sont façonnées par des processus dynamiques comme l’invention et la guerre, l’économie est entraînée par une quête d’équilibres stables.

Chris Giles pense que l’économie n’a pas échoué et que, aussi longtemps que vous ne vous attendez pas à de la divination, elle se révèle remarquablement efficace. L’économie consiste fondamentalement à étudier comment le monde fonctionne et comment le rendre meilleur. Les bons économistes n’affirment pas être capables de prédire le futur ou répondre à toutes les questions avec précision, mais ils peuvent utiliser une variété d’outils, de données et de théories pour offrir un aperçu et améliorer notre compréhension des choses. L’économie apprend de ses erreurs, bien qu’il y ait beaucoup de mauvaise économie : la pensée aléatoire, que ce soit celle des économistes orthodoxes qui sont accrochés rigidement à une école de pensée et les prétendus hétérodoxes qui font exactement la même chose, mais avec un autre ensemble de théories rigides. (...)

The Economist (…) a publié une série de trois articles critiques. Le premier affirme que plusieurs résultats en microéconomie sont fragiles et qu’à la lumière du fait que l’économie jouisse d’une plus grande influence sur la politique que d’autres sciences sociales, alerter sur les défauts des travaux publiés ne mène pas forcément au nihilisme, mais il serait sage de se montrer sceptique face à tout résultat pris isolément. Un autre article affirme que les économistes comprennent peu les causes de la croissance, alors même que l’économie de la croissance doit être centrale à la discipline, en raison de l’impact que la croissance peut avoir sur les niveaux de vie des gens. Les questions que cela pose sont objectivement difficiles et les réponses reposent davantage dans l’histoire et la politique que dans d’élégantes équations, mais tant que les économistes n’auront pas su donner de meilleures réponses dans ce domaine, ils n’auront pas gagné le droit à la confiance. Le dernier article affirme que les économistes ne parviennent pas non plus à comprendre vraiment les cycles d’affaires et que la macroéconomie doit s’attaquer à ses problèmes méthodologiques si elle espère maintenir son influence et limiter les dommages provoqués par la prochaine crise.

Howard Reed pense que nous devons (…) tout d’abord, (…) accepter l’idée qu’il n’est pas possible d’offrir une analyse de l’économie qui soit détachée de toute valeur. Deuxièmement, l’analyse doit se fonder sur le comportement des êtres humains que nous observons, plutôt que sur ce que l’économie néoclassique considère être le comportement que devrait adopter « un agent économique (ou une entreprise) rationnel ». Troisièmement, nous devons mettre la vie bonne au centre de l’analyse, plutôt que de privilégier les domaines qui sont les plus faciles à analyser via les mathématiques linéaires de la fin du dix-neuvième siècle. Le progrès technique et les relations de pouvoir entre les entreprises, les travailleurs et les gouvernements doivent être au cœur du discours et de la recherche économiques. Enfin, la science économique doit être pluraliste. Au cours du dernier demi-siècle, l’économie néoclassique a graduellement colonisé d’autres sciences sociales comme la sociologie et la science politique. Il est temps que ce processus s’inverse de façon à ce qu’il y ait des échanges dans les deux sens et un échange de connaissance mutuellement bénéfique entre les disciplines.

Noah Smith a férocement réfuté sur Twitter les propos de The Economist aussi bien que la réponse de Reed, en affirmant que la plupart des critiques de l’économie sont enlisées dans le passé. Les attaques basiques contiennent une part de vérité, mais désormais les lacunes qu’elles évoquent sont bien connues. Plusieurs allégations semblent obsolètes. Par exemple, Reed prétend que les économistes "célèbrent un culte" au "temple" des modèles classiques comme la théorie de l’équilibre générale telle qu’elle a été développée par Kenneth Arrow et Gerard Debreu et que la théorie du consommateur souvent "ne dit rien du tout".

Smith pense que Reed se trompe sur l’état de la profession et ne semble pas comprendre ce que les économistes modernes font pour vivre. L’idée semble être que les économistes s’engagent principalement dans une entreprise déductive, prodiguant une haute théorie venant de monts olympiens, mais la plupart des économistes parcourent des montagnes de données, s’échinent à glaner les faits à propos du fonctionnement réel du monde. La critique standard que The Economist porte sur la profession des économistes n’est pas juste fastidieuse et erronée dans ses détails ; ce que la revue pense sur ce que devrait être le devenir de la science économique est sapé par une image déformée de ce qu’est la profession aujourd’hui.

Simon Wren-Lewis avance trois raisons pour expliquer le flot ininterrompu de critiques que Noah Smith a identifiés, mais il affirme que l’économie est aussi une cible facile parce que elle a été historiquement très insulaire et, par conséquent, assez différente des autres sciences sociales. Wren-Lewis pense que cela est dû au fait que presque toute l’économie peut être dérivée des axiomes basiques du choix rationnel, tandis qu’il n’y a rien qui se rapproche d’un tel arbre déductif dans les autres sciences sociales. Les limites de ce qui peut être fait avec quelques axiomes à propos des choix rationnels ont mené ces dernières années l’économie à devenir de plus en plus empiriques et à s’écarter de cette théorie déductive, mais elle garde de cette insularité une regrettable gueule de bois. Comme discipline, l’économie montre peu d’intérêt à l’idée de communiquer son savoir fondamental à d’autres, que ce soit dans le monde universitaire ou avec le monde extérieur. Cette épidémie d’articles à propos de l’échec de l’économie reflète en partie cet échec de communication. Surtout, des événements comme le Brexit et ou l’élection de Trump sont un signal d’alarme signifiant aux économistes, en tant que collectif, doivent faire mieux lorsqu’ils communiquent les intuitions fondamentales de l’économie. »

Silvia Merler, « Did economics fail? », in Bruegel (blog), 7 mai 2018. Traduit par Martin Anota

vendredi 20 avril 2018

La macroéconomie a-t-elle abandonné l’idée d’expliquer les événements économiques ?

« Le débat sur la possible disparition de la courbe de Phillips se poursuit, notamment parce que divers pays sont dans une situation où le chômage s’est stabilisé à des niveaux qui avaient précédemment été synchrone à une accélération de l’inflation, mais que cette fois-ci l’inflation salariale semble assez statique. Cela s’explique certainement par deux choses : l’existence d’un chômage dissimulé et le fait que le NAIRU ait chuté. C’est ce qu’ont suggéré Bell et Blanchflower dans le cas du Royaume-Uni.

L’idée que le NAIRU puisse bouger graduellement au cours du temps amène certains à affirmer que la courbe de Phillips est elle-même suspecte. Dans ce billet, j’avais essayé de démontrer que c’est une erreur. C’est aussi une erreur de penser qu’estimer la position du NAIRU soit un jeu de dupes. C’est ce que les banques centrales doivent faire si elles adoptent une approche structurelle pour modéliser l’inflation (et quelles autres approches raisonnables y a-t-il ici ?). Ce qui nous amène à nous demander pourquoi l’analyse des raisons amenant le NAIRU à varier ne constitue pas un point central de la macroéconomie.

(…) J’aimerais commencer en rappelant pourquoi la macroéconomie moderne a laissé le secteur financier hors de ses modèles avant la crise. Pour résumer une longue histoire, disons qu’en se focalisant sur les dynamiques de cycles d’affaires, les macroéconomistes ont eu tendance à ignorer les modifications de moyen terme de la relation entre la consommation et le revenu. Ceux qui ont étudié ces modifications les ont reliés de façon convaincante au comportement de secteur financier. Si davantage d’attention leur avait été accordée, nous aurions eu sous la main bien plus d’études sur le sujet et nous aurions mieux compris les liens entre la finance et l’économie réelle.

Peut-on dire la même chose à propos du NAIRU ? Comme avec les tendances de moyen terme de la consommation, il y a toute une littérature sur les variations à court terme du NAIRU (ou du chômage structurel), mais elle n’est pas très présente dans les journaux les plus prestigieux. L’une des raisons, comme avec la consommation, est qu’une telle analyse tend à être ce que les macroéconomistes modernes qualifient d’ad hoc : elle utilise beaucoup d’idées théoriques, mais aucune qui soit soigneusement microfondée dans le même article. Ce n’est pas un choix que feraient ceux qui font ce genre de travail empirique, mais une nécessité.

La même chose peut s’appliquer à d’autres agrégats macroéconomiques comme l’investissement. Quand les économistes se demandent si l’investissement est aujourd’hui inhabituellement élevé ou faible, ils tirent typiquement des graphiques et calculent des tendances et des moyennes. Nous devons être capables de faire bien plus que cela. Nous devrions plutôt rechercher l’équation qui capture le mieux les données relatives à l’investissement lors de ces 30 dernières années et nous demander si elle conduit à surestimer ou sous-évaluer le niveau actuel d’investissement. On peut dire la même pour les taux de change d’équilibre.

Ce n’est pas seulement la contre-révolution des nouveaux classiques en macroéconomie qui a mené à cette dévalorisation de ce que l’on peut qualifier d’analyse structurelle des données temporelles des relations macroéconomiques clés. Le fameux article que Sims a publié en 1980, "Macroeconomics and reality", où il s’est attaqué au type de restrictions d’identification qui était utilisé dans l’analyse des séries temporelles et où il a proposé la méthode des modèles auto-vectoriels régressifs (VAR), tient aussi une certaine responsabilité. Cette parfaite tempête a relégué l’analyse des séries temporelles qui avait été le pain quotidien de la macroéconomie dans les journaux mineurs.

Je ne pense pas qu’il soit excessif d’affirmer que la macroéconomie a subséquemment abandonné l’idée d’essayer d’expliquer la récente histoire macroéconomique : ce qui peut être qualifié de comportement à moyen terme des agrégats macroéconomiques ou pourquoi l’économie s’est comportée comme elle l’a fait ces 30 ou 40 dernières années. La macroéconomie s’est focalisée sur les détails du fonctionnement des cycles d’affaires et non sur la façon par laquelle les cycles d’affaires sont liés les uns aux autres.

Des macroéconomistes influents qui sont impliqués dans l’élaboration de la politique économique ont pris conscience de ces insuffisances, mais ils expriment leur insatisfaction d’une façon différente (Olivier Blanchard constituant toutefois une importante exception). Par exemple, John Williams, qui vient juste d’arriver à la tête de la Réserve fédérale de New York, appelle ici à une nouvelle génération de modèles DSGE qui se focaliserait sur trois domaines. Premièrement, ces modèles devront davantage se focaliser sur la modélisation du marché du travail et de sa mollesse, ce qui selon moi revient à chercher à expliquer pourquoi le NAIRU varie au cours du temps. Deuxièmement, ces modèles doivent davantage se focaliser sur les développements à moyen ou long terme touchant aussi bien l’économie du côté de l’offre que de la demande. Troisièmement, de tels modèles doivent bien sûr davantage incorporer le secteur financier.

Peut-être qu’un jour les modèles DSGE parviendront à faire tout cela, mais je pense que la macroéconomie est si complexe que tout ne puisse pas être microfondé. En tout cas, un tel jour ne viendra pas de si tôt. Il est temps que les macroéconomistes reviennent sur les décisions qu’ils ont prises autour de 1980 et qu’ils prennent conscience que les déficiences avec l’analyse traditionnelle des séries temporelles qu’ils ont mis en lumière ne sont pas aussi importantes que ne l’ont ensuite imaginé les générations suivantes. La macroéconomie doit commencer à essayer de nouveau de chercher à expliquer la récente histoire macroéconomique. »

Simon Wren-Lewis, « Did macroeconomics give up on explaining recent economic history? », in Mainly Macro (blog), 19 avril 2018. Traduit par Martin Anota

dimanche 25 mars 2018

Francis Bator, le père de l'analyse des défaillances de marché, est mort

« Né en 1925 à Budapest (émigré aux Etats-Unis en 1939 avec sa famille), Francis M. Bator est mort à l’âge de 92 ans, quelques jours après avoir été renversé par une voiture alors qu’il traversait la rue. (…)

Il s’avère que pour le public il est surtout connu en tant que conseiller en matière d’économie et de sécurité nationale sous Lyndon B. Johnson dans les années soixante, ayant été conseiller adjoint à la sécurité nationale pour McGeorge Bundy et donc en partie responsable pour la guerre au Vietnam. (…) Je pense qu’il a quitté l’administration en 1967 essentiellement en raison de son manque d’enthousiasme pour le conflit, avec avoir encouragé un réchauffement des relations avec l’URSS et l’Europe occidentale. Il semble aussi avoir été l’un des fondateurs de la Kennedy School of Government à Harvard, où il alla après avoir quitté l’administration Johnson, avant de prendre sa retraite en 1994. Ces dernières années, il a beaucoup écrit sur l’interaction entre les politiques budgétaire et monétaire, mais ce ne sont pas ses travaux les plus intéressants.

Si Bator m’intéresse et si je publie aujourd’hui ce billet, c’est en raison du rôle intellectuel qu’il a joué de 1957 à 1958, peu après qu’il ait fini sa thèse au MIT sous la direction de Robert Solow, avec une paire d’articles particulièrement influents, dont les propos prirent durablement place dans les manuels (… je ne savais pas à quel point il était jeune quand il a écrit ces articles). Le second article est le plus important. Son titre ("The Anatomy of Market Failure") a depuis été repris pour nommer la liste, largement admise, qu’il présentait. C’est Bator qui a formulé la notion de "défaillances de marché" ("market failures") et dressé leur liste standard, pointant par là la possibilité qu’un marché libre ne parvienne pas à être Pareto-optimale, c’est-à-dire remettant en cause le premier théorème du bien-être de Pareto, celui selon lequel l’équilibre général serait Pareto-optimal. Les quatre raisons derrière un tel échec du marché selon Bator sont le pouvoir de monopole, les biens de consommation collectifs (ou "publics"), les externalités et les imperfections de l’information.

(…) En formulant cette liste largement acceptée, il a été le premier à clairement distinguer entre (…) les biens collectifs (ou publics) et les externalités. Il est facile d’oublier que chacune de ces deux défaillances implique d’une façon ou d’une autre des aspects collectifs, mais de façons légèrement différentes. Mais en acceptant cette distinction, nous avons eu tendance à oublier que certains de nos problèmes les plus importants impliquent simultanément ces deux dimensions, le changement climatique en étant peut-être l’exemple actuel le plus important. La pollution qui mène au changement climatique implique des externalités, tandis que la condition du climat mondial est clairement un bien de consommation collectif du plus haut niveau.

Comme ce fut, les externalités ont été analysées rigoureusement pour la première fois par Pigou en 1922 dans son ouvrage Economics of Welfare, la conception « pigouvienne » étant par la suite devenue celle dominante dans les manuels et le restant toujours, avec certaines réserves. La critique avancée Ronald Coase en 1960 dans son article "Le Problème du coût social" rendit manifeste que, sous certaines conditions, en l’occurrence lorsque les droits de propriété sont bien définis et que les coûts de transaction sont faibles, les marchés peuvent réussir à internaliser les externalités et beaucoup des mesures environnementales adoptées depuis, notamment le mécanisme du marché des droits à polluer (cap and trade), s’en sont inspirées en essayant d’internaliser les externalités en utilisant les marchés. Il doit être souligné que l’article de Bator a été paru deux ans avant celui de Coase.

Le concept qui n’a été clarifiée que quelques années avant les articles de Bator est celui des biens de consommation collectifs ; Paul Samuelson, dont Bator a suivi des cours au MIT lorsqu’il était étudiant, a apporté une clarification décisive dans son fameux article de 1954. La célèbre formulation de Samuelson est qu’un tel bien implique non-rivalité et non-excluabilité en raison de sa nature collective, ce qui implique que pour trouver une vraie demande de marché on doit verticalement faire la somme des courbes de demande individuelle sous la forme de "dispositions à payer" en contraste avec l’addition horizontale des courbes de demande que nous voyons sur les marchés de biens purement privés. De super individualistes affirment parfois qu’il n’y a pas de purs biens de consommation collectifs et il est vrai que certains exemples classiques, par exemple celui des phares, se sont révélés ne pas en être, mais certains existent certainement, ce qui est manifestement le cas avec le climat mondial.

En tout cas, probablement influencé par publication de l’article éclairant de Samuelson sur les biens de consommation collectifs (où Samuelson n’a pas fait de commentaires au sujet des externalités), Bator s’est lancé dans l’élaboration de sa liste et de son analyse. Celles-ci prirent durablement place dans les manuels, au grand dam de certains partisans du libre marché, tels que feu James Buchanan, qui débattit publiquement et régulièrement avec Richard Musgrave, qui, de son côté, contribua grandement à la reprise de l’analyse de Bator dans les manuels de finances publiques et d’économie publique. Je n’ai jamais entendu personne réclamer à ce que Bator reçoive un prix Nobel pour ses travaux, mais la rumeur voudrait que la personne qui aurait dû partager le prix Nobel que Buchanan obtint pour ses travaux relatifs au choix public (public choice) n’était pas Gordon Tullock, mais celui avec qui il débattit longuement, en l’occurrence Musgrave, qui est probablement plus connu que Bator pour son analyse en termes de "défaillances de marché". Mais c’est bien Bator qui a été le premier à la formuler. »

Barkley Rosser, « The father of "market failure" analysis dies », in Econospeak (blog), 21 mars 2018. Traduit par Martin Anota

lundi 8 janvier 2018

Pourquoi l’hégémonie des microfondations entrave les progrès en macroéconomie

« Je pense que quand David Vines m’a demandé de contribuer à un numéro de l’Oxford Review of Economic Policy basé sur la "refondation de la théorie macroéconomique", il pensait que j’écrirais sur la façon par laquelle le modèle macroéconomique de base devait changer pour refléter les développements de la macroéconomie depuis la crise en me focalisant tout particulièrement sur la modélisation de l’impact de la politique budgétaire. Cela aurait été un article bien intéressant à écrire, mais j’ai rapidement décidé de parler de choses que je considérais comme bien plus importantes.

Selon moi, le plus grand obstacle à l’avancée de la macroéconomie est l’hégémonie des microfondations. Je voulais qu’au moins un article questionne cette hégémonie. Il s’est avéré que je n’étais pas le seul à rédiger un tel article, que d’autres firent de même. J’ai été particulièrement motivé à le faire quand j’ai vu qu’Olivier Blanchard, dans ses billets de blog où il faisait part de ses réflexions avant d’écrire sa propre contribution, était sur la même longueur d’onde que moi.

Je parlerai des autres articles quand plus de gens auront eu la chance de les lire. Ici, je vais me focaliser sur ma propre contribution. J’ai déjà développé cette réflexion il y a quelques temps sur mon blog et cela m’a amené à penser que la plupart des macroéconomistes qui travaillent dans l’hégémonie des microfondations souffrent d’un blocage mental quand ils sont confrontés à des approches de modélisation alternatives. (…)

Imaginons un modèle DSGE, "estimé" par des techniques bayésiennes. Pour être spécifiques, supposons qu’il contienne une fonction de consommation intertemporelle standard. Ensuite, supposons que quelqu’un ajoute un terme dans le modèle, disons le chômage dans la fonction de consommation et par là même améliore significativement l’ajustement (fit) du modèle vis-à-vis des données. Il n’est pas difficile de comprendre pourquoi l’ajustement s’améliore significativement : par exemple, le chômage peut être un indicateur de l’incertitude entourant revenu du travail. La question clé devient alors : quel est le meilleur modèle pour examiner la politique macroéconomique ? Le modèle DSGE originel ou le modèle augmenté ?

Le macroéconomiste des microfondations va sans doute tendre à dire le modèle DSGE originel, parce que seul ce modèle est connu comme étant théoriquement cohérent. (Ils peuvent se contenter de dire que ce modèle satisfait mieux la critique de Lucas, mais la cohérence interne reste un critère plus général.) Mais une réponse également valide consisterait à dire que le modèle DSGE originel va donner des réponses de politique incorrectes, parce qu’il néglige un lien important entre le chômage et la consommation, si bien qu’on doit lui préférer le modèle augmenté.

Il n’y a absolument rien qui dise que la cohérence interne soit plus importante que la mauvaise spécification (relative). D’après mon expérience, lorsqu’ils sont confrontés à ce fait, certains concepteurs de modèles DSGE ont recours à deux tactiques de diversion. La première, qui consiste à dire que tous les modèles sont mal spécifiés, ne vaut pas la peine d’être discutée. La seconde consiste à dire qu’aucun modèle n’est satisfaisant et que de nouvelles recherches sont nécessaires pour incorporer l’effet du chômage de façon cohérente.

Je n’ai pas de problème avec cette réponse en soi et, pour cette raison, je n’ai pas de problème avec le projet des microfondations en tant que manière de faire de la modélisation macroéconomique. Mais dans ce contexte particulier c’est une esquive. Il n’y aura pas, du moins tant que je serais en vie, un modèle DSGE qui ne puisse être amélioré en ajoutant des effets plausibles, mais potentielles incohérents, comme l’influence du chômage sur la consommation. Par conséquent, si vous pensez que les modèles qui sont significativement meilleurs dans l’ajustement aux données doivent être préférés aux modèles DSGE (…), alors ces modèles augmentés vont toujours battre le modèle DSGE pour modéliser la politique économique.

(…) Il existe une méthodologie alternative pour construire des modèles macroéconomiques qui n’est pas inférieure à l’approche des microfondations. Elle commence avec une certaine spécification théorique, qui peut être un modèle DSGE comme dans l’exemple, et elle étend ensuite celle-ci en des voies qui sont théoriquement plausibles et qui améliorent aussi significativement l’ajustement du modèle, mais qui ne sont pas formellement dérivées des microfondations. Je qualifie un tel modèle de modèle économétrique structurel (structural econometric model) et Blanchard de modèle de politique économique (policy model).

Ce que je souligne tout particulièrement dans mon article, c’est que ces méthodologies ne sont pas contradictoires, mais bien complémentaires. Les modèles économétriques structurels comme je les décris ici débutent avec la théorie microfondée. (Bien sûr, les modèles économétriques structurels peuvent aussi commencer avec la théorie non-microfondée, mais le bien-fondé d’une telle stratégie est un autre débat que je ne veux pas aborder ici.) En tant que produit fini, ils fournissent plusieurs agendas de recherche pour la modélisation microfondée. Donc la conception de modèles DSGE peut fournir le point de départ pour les concepteurs de modèles économétriques structurels ou les modèles de politique économique et ces modèles peuvent alors, lorsqu’ils sont complétés, fournir un agenda de recherche pour les concepteurs de modèles DSGE.

Une fois que vous saisissez cette complémentarité, vous pouvez saisir pourquoi je pense que la macroéconomie se développerait bien plus rapidement si les universitaires s’échinaient à développer aussi bien des modèles économétriques structurels que des modèles DSGE. L’erreur que les nouveaux classiques ont commise dans leur contre-révolution a été d’écarter les précédentes façons de modéliser l’économie, au lieu de les compléter avec des approches additionnelles. Chaque méthodologie, prise isolément, va se développer bien plus lentement que si elles étaient combinées. Ou, pour le dire autrement, la recherche basée sur les modèles économétriques structurels est bien plus efficace que l’approche de résolution d’énigmes qui est aujourd’hui utilisée.

Dans cet article, j’essaye d’imaginer ce qui se serait passé si le projet des microfondations s’était contenté d’augmenter la macroéconomie existante (c’est-à-dire les modèles économétriques structurels) plutôt que de l’écarter. Je pense que nous avons de bonnes preuves qu’une complémentarité active entre modèles économétriques structurels et modélisation des microfondations aurait permis de mieux cerner les liens entre secteurs réel et financier avant la crise financière mondiale. L’hégémonie des microfondations a choisi de s’attaquer aux mauvaises énigmes, détournant ainsi la macroéconomie de questions empiriques bien plus importantes. La même chose peut se reproduire si l’hégémonie des microfondations demeure. »

Simon Wren-Lewis, « Why the microfoundations hegemony holds back macroeconomic progress », in Mainly Macro (blog), 6 janvier 2018. Traduit par Martin Anota

vendredi 22 décembre 2017

Le débat autour de l'économie, encore et encore

« Le débat sur la profession des économistes (sur leurs possibles maux et défaillances) s’essouffle par moment, mais ne s’éteint jamais. (…) J’en profite pour actualiser mes réflexions sur ce débat, sous la forme de deux dizaines de commandements. Le premier ensemble s’adresse directement aux économistes et le second aux non-économistes.

Dix commandements pour les économistes :

1. L’économie est une collection de modèles ; choyez leur diversité.

2. C’est un modèle, pas "le" modèle.

3. Simplifiez suffisamment votre modèle pour isoler les causes spécifiques et la façon par laquelle elles agissent, mais pas de trop, pour ne pas négliger des interactions clés entre elles.

4. Il n’y a pas de problème avec les hypothèses irréalistes ; il y en a un si les hypothèses critiques sont irréalistes.

5. Le monde est (presque) toujours un second-best.

6. Pour confronter un modèle au monde réel vous avez besoin de diagnostics empiriques explicites, ce qui relève davantage de l’artisanat qu’à la science.

7. Ne confondez pas l’accord entre les économistes avec la certitude quant à la façon par laquelle le monde marche.

8. Ce n’est pas grave si vous dites "je ne sais pas" lorsqu’on vous interroge sur l’économie ou la politique économique.

9. L’efficacité n’est pas tout.

10. Substituer vos valeurs à celles du public est un abus de votre expertise.

Dix commandements pour les non-économistes :

1. L’économie est une collection de modèles sans conclusions prédéterminées ; rejetez sinon les arguments.

2. Ne critiquez pas le modèle d’un économiste en raison de ses hypothèses ; demandez-lui quels seraient les résultats si certaines hypothèses étaient plus réalistes.

3. L’analyse requiert de la simplicité ; attention à l’incohérence qui se fait passer pour de la complexité.

4. Ne soyez pas effrayé par les maths : les économistes utilisent les maths non pas parce qu’ils sont intelligents, mais parce qu’ils ne le sont pas assez.

5. Quand un économiste fait une recommandation, demandez-lui ce qui l’amène à penser que le modèle sous-jacent s’applique au cas en question.

6. Quand un économiste utilise le terme "économie du bien-être", demandez-lui de préciser ce qu’il entend par là.

7. Faites attention aux économistes qui ne disent pas la même chose en public que lors des séminaires.

8. (Tous) les économistes n’aiment pas les marchés, mais ils savent mieux que vous comment ils fonctionnent.

9. Si vous pensez que les économistes pensent la même chose, allez à l’un de leurs séminaires.

10. Si vous pensez que les économistes ne sont grossiers qu’avec les non-économistes, allez assister à l’un de leurs séminaires.

J’ai passé suffisamment de temps avec les non-économistes pour savoir que leur critique manque souvent le point. En l’occurrence, plusieurs non-économistes ne comprennent pas l’utilité d’une modélisation parcimonieuse (en particulier du genre mathématique). Leur riposte consiste typiquement à dire "mais c’est plus compliqué que ça !". Ça l’est, bien sûr. Mais sans simplification, il ne peut pas y avoir d’analyse utile.

Les économistes, d’un autre côté, sont très bons pour modéliser, mais pas si bons que ça lorsqu’il s’agit de naviguer entre leurs modèles. En l’occurrence, ils confondent souvent leur modèle avec "le" modèle. Une grosse partie du problème est que la méthode scientifique à laquelle ils souscrivent implicitement est une méthode qui consiste pour eux à chercher constamment à atteindre le "meilleur" modèle.

Les macroéconomistes sont particulièrement mauvais à cela, ce qui explique en partie leur mauvaise performance. En l’occurrence, il y a trop de "le bon modèle est-il néoclassique ou keynésien ?" et trop peu de "comment pouvons-nous savoir si c’est le modèle keynésien ou le modèle néoclassique qui est le plus pertinent et approprié à cet instant précis dans ce contexte particulier ?".

Dani Rodrik, « The economics debate, again and again », 21 décembre 2017. Traduit par Martin Anota

jeudi 14 décembre 2017

La querelle autour des modèles DSGE continue

« Les modèles dynamiques stochastiques d’équilibre général DSGE ont fait l’objet de vives critiques depuis la crise financière. Un récent document de Christiano, Eichenbaum et Trabandt (qui cherchent à défendre les modèles DSGE) a suscité toute une vague de réactions dans la blogosphère économique. Nous passons en revue les plus récentes contributions à ce sujet…

Un récent document de travail réalisé par Christiano, Eichenbaum et Trabandt sur les modèles dynamiques stochastiques d’équilibre général (DSGE) a suscité de nombreuses réactions sur la blogosphère. Dans ce document, les auteurs affirment que les modèles DSGE d’avant-crise ont certes eu des défauts que la crise a mis en évidence, mais que des progrès ont été réalisés au cours des dix dernières années, notamment en incorporant des fictions financières et l’hétérogénéité dans les modèles DSGE. Christiano et ses coauteurs s’attendent ainsi à ce que les modèles DSGE restent un outil primordial à la disposition des macro-économistes pour étudier les phénomènes agrégés et la politique économique, parce qu’il n’y aurait tout simplement pas d’alternative crédible pour l’analyse de la politique économique dans un monde où diverses forces économiques se font concurrence.

De nombreuses critiques suscitées par le document de travail se réfèrent à la première version publiée en ligne, qui n’est cependant plus disponible (la dernière version est celle datée du 27 novembre). Noah Smith a cité quelques extraits de la première version, en particulier un passage dans laquelle Christiano et ses coauteurs qualifient de "dilettantes" les personnes qui n’aiment pas les modèles DSGE, au motif que celles-ci mettraient certes en avant l’existence des forces concurrentes à l’œuvre (et jugent leur importance relative via d’implicites expériences de pensée) sans pouvoir jamais donner de sérieuses recommandations en matière de politique économique. Smith affirme que la ligne de défense des modèles DSGE que proposent Christiano et ses coauteurs comme seule façon de faire des prédictions quantitatives à propos des effets des changements de politique économique est erronée, parce qu’il y a au moins deux autres approches très communes, en l’occurrences les modèles économétriques structurels et les modèles autorégressifs vectoriels (VAR) structurels. Un modèle structurel n’est en outre pas toujours nécessaire pour faire des prédictions quantitatives à propos de la politique économique, comme cela peut être réalisé sous forme réduite. Quand les changements de politique économique peuvent être traités comme des expériences naturelles, leurs effets (notamment les effets d’équilibre général) peuvent être mesurés directement au lieu d’être inférés à partir d’un modèle structurel. Mais Christiano et ses coauteurs ignorent l’existence des expériences naturelles, malgré la popularité croissante de cette approche en science économique.

Bradford DeLong souligne que les modèles nouveaux keynésiens ont été élaborés pour montrer que les conclusions des vieux keynésiens et des vieux monétaristes en matière de politique économique étaient relativement robustes et qu’elles n’étaient pas remises en cause par l’acceptation de l’hypothèse des anticipations rationnelles. Ils ont été élaborés pour montrer qu’il est extrêmement fragile de conclure à l’insensibilité des variables réelles vis-à-vis des politiques systématiques. Lucas et ses disciples suivirent ensuite Prescott sur le territoire des cycles d’affaires réels, en prenant une erreur résiduelle et en affirmant qu’elle constitue leur principale variable conductrice exogène. Le cadre DSGE fut alors construit afin que les nouveaux keynésiens puissent communiquer avec les partisans des cycles d’affaires réels. Rien de tout cela n’a permis, jusqu’à présent, de faire des progrès concrets dans la compréhension des propriétés émergentes en matière de politique macroéconomique des économies réelles.

Jo Mitchell pense que Christiano et ses coauteurs cherchent à affirmer qu’on ne peut pas faire de la macroéconomie correctement sans modèle DSGE. Mais sur quelle base pouvons-nous dire que la macroéconomie DSGE est « faite proprement » ? Il y a deux endroits où l’on peut procéder à une validation empirique : les données microéconomiques et les données macroéconomiques. Trente ans de recherche en matière de modèles DSGE n’ont produit qu’un seul résultat empiriquement plausible : la courbe de Phillips augmentée des anticipations. Et elle était déjà bien connue avant. Il y a un revirement ironique ici : la faillite de la courbe de Phillips dans les années soixante-dix traça la voie vers la réussite pour les nouveaux classiques. La faillite de la courbe de Phillips à présent (dans l’autre direction) laisse les modèles DSGE avec aucun accomplissement vérifiable. Le document de Christiano et ses coauteurs a au moins un mérite : celui de confirmer ce que les macro-économistes au sommet de la discipline pensent à propos de leurs collègues sur les échelons inférieurs, en particulier ceux qui adoptent une position critique. (...)

Selon Chris Surro, le problème avec les modèles DSGE n’est pas qu’ils sont incapables d’expliquer des phénomènes économiques spécifiques : ils peuvent expliquer quasiment n’importe quel phénomène que vous pouvez imaginer, mais nous n’avons finalement aucun moyen pour décider quels modèles sont meilleurs que d’autres, si ce n’est en les confrontant aux données qu’ils sont censés expliquer. Tout ce que le modèle DSGE apporte est un ensemble d’hypothèses que tout le monde sait fausses (…). Christiano et ses coauteurs ne font rien pour répondre à cette critique. Surra affirme que la macroéconomie doit faire l’exact opposé : commencer par avoir les bonnes hypothèses. Puisque nous nous ne serons jamais capables de capturer toutes les complexités d’une véritable économie, l’économie du modèle est différente d’une économie réelle. Cependant, si les hypothèses qui fondent cette économie fictive sont réalistes, le modèle peut toujours fournir des réponses qui sont pertinentes pour le monde réel. Un modèle qui colle aux faits, mais dont les hypothèses sont irréalises, ne peut apporter des réponses pertinentes. »

Silvia Merler, « The DSGE model quarrel (again) », in Bruegel (blog), 11 décembre 2017. Traduit par Martin Anota

samedi 2 décembre 2017

L’élaboration et la réception du discours présidentiel de Friedman

« Dans quelques semaines, le fameux discours présidentiel où Milton Friedman a introduit la notion de taux de chômage d’équilibre et s’est opposé à l’usage de la courbe de Phillips dans la politique macroéconomique fêtera ses 50 ans. Il a atteint plus de 8.000 citations, c’est-à-dire davantage que l’ensemble des preuves de l’existence d’un équilibre général apportées par Arrow, Debreu et McKenzie, davantage que l’article de Lucas où celui-ci avance sa fameuse critique. Dans un article qui sera présenté à la session anniversaire organisée par l’American Economic Association en janvier, Greg Mankiw et Ricardo Reis se sont demandé "ce qui explique la grande influence de ce travail", qu’ils interprètent comme "le point de départ pour les modèles d’équilibre général stochastiques dynamiques" (DSGE). Ni leur article, ni la contribution d’Olivier Blanchard qui sera également présentée à cette conférence, ne montrent comment l’allocution de Friedman a pu capturer l’opinion des macroéconomistes. C’est une tâche pour laquelle les historiens de la pensée économique (dont aucun n’est invité à la session anniversaire) sont les mieux équipés. En l’occurrence, plusieurs travaux historiques ont récemment éclairé comment Friedman a élaboré son allocution et comment celle-ci s’est divulguée.

L’élaboration de l’allocution présidentielle de Friedman


Un vendredi soir de décembre 1967, dans le Sheraton Hall de Washington, le président de l’American Economic Association Milton Friedman commença son allocution présidentielle ainsi : "Il y a un large accord à propos des objectifs majeurs de la politique économie : un emploi élevé, des prix stables et une croissance rapide. Il y a par contre plus de désaccords à l’idée que ces objectifs puissent être mutuellement compatibles ou, parmi ceux qui les considèrent comme incompatibles, à propos les modalités par lesquelles ils peuvent et doivent se substituer l’un à l’autre. Il y a plus de désaccords à propos du rôle que divers instruments de politique économique peuvent et doivent jouer pour atteindre les divers objectifs. Mon sujet ce soir portera sur le rôle d’un de ces instruments – la politique monétaire",

Comme l’a expliqué James Forder, Friedman a réfléchi à son allocution pendant au moins 6 mois. En juillet, il avait écrit un premier brouillon, appelé "Can full employment be a criterion of monetary policy?" ("Le plein emploi peut-il être un critère de politique monétaire ?"). A cette époque, Friedman voulait remettre en cause l’idée qu’il existe un arbitrage entre inflation et chômage. L’idée "que le plein emploi (…) puisse être atteint et doive être un critère spécifique de politique monétaire, que cette dernière doive être accommodante quand le chômage est élevé (…) est tellement tenue pour acquise qu’il vous sera difficile de croire que (…) cette croyance est fausse", écrit-il. L’une des raisons qu’il invoque est qu’il existe un "taux de chômage naturel (…), dont le niveau serait celui qui serait généré par un système walrasien d’équations d’équilibre", un chômage qu’il est difficile de cibler. Il a ensuite cherché à expliquer pourquoi il n’y avait pas, en fait, d’arbitrage à long terme entre inflation et chômage.



Dans l’essentiel du raisonnement, il n’y a pas de référence explicite à la "courbe de Phillips" ; cette dernière n’est discutée sur deux pages. Friedman, qui avait, en restant à la LSE en 1952, abondamment discuté de l’inflation et des anticipations avec notamment William Phillips et Phillip Cagan, expliqua que la confusion entre salaires réels et nominaux du premier était peut-être compréhensible dans une ère de prix stables, mais qu’elle était désormais devenue problématiques. En effet, comme l’inflation pousse les salaires réels (et le chômage) à la baisse, les anticipations s’adaptent : "il y a toujours un arbitrage temporaire entre l’inflation et le chômage ; il n’y a pas d’arbitrage permanent. L’arbitrage temporaire ne vient pas de l’inflation en soi, mais de l’inflation non anticipée, c’est-à-dire généralement une accélération de l’inflation", conclut-il.

Mais au final, l’allocution que Friedman donna en décembre couvrit un domaine beaucoup plus vaste. L’allocution commença avec la démonstration que la politique monétaire ne peut pas ancrer les taux d’intérêt et la section sur le taux de chômage naturel s’est trouvée complétée par des réflexions sur la façon par laquelle la politique monétaire doit être conduite. En lien avec ce qu’il conseillait depuis 1948, Friedman suggéra que les autorités monétaires devaient obéir à trois principes : (1) ne pas faire de la politique monétaire une force perturbatrice ; (2) cibler des grandeurs que les autorités peuvent contrôler et (3) éviter de brutales fluctuations. Ces trois principes seraient mieux combinés quand la banque centrale "adopte publiquement une politique visant à atteindre un taux régulier de croissance comme celui d’un total monétaire précis", ce qui fut par la suite appelé la "règle de k %" de Friedman.

L’interprétation habituelle de l’allocution de Friedman est précisément celle véhiculée par Mankiw et Reis, c’est-à-dire celle d’une réaction à la présentation de la courbe de Phillips par Samuelson et Solow en 1960 comme un "menu d’options entre divers degrés de chômage et de stabilité des prix". Mankiw et Reis supposent que cette interprétation, avec l’idée que l’arbitrage puisse varier au cours du temps, était si acceptée qu’ils considèrent Samuelson, Solow et leurs disciples comme le seul public auquel Friedman cherchait à s’attaquer. Pourtant, Forder et Robert Leeson, entre autres, ont apporté des preuves robustes que les macroéconomistes présentaient déjà une approche bien plus subtile du ciblage du chômage dans la politique monétaire. La nature des anticipations et la forme des anticipations faisaient l’objet de nombreuses discussions aussi bien aux Etats-Unis qu’au Royaume-Uni. Samuelson, Phelps, Cagan, Hicks ou Phillips avaient régulièrement indiqué, aussi bien dans des publications universitaires que dans des journaux, que l’idée d’un arbitrage doit être sérieusement nuancée en théorie et ne doit en aucun cas guider la politique monétaire à la fin des années soixante. Friedman lui-même avait déjà consacré tout une chronique en 1966 dans Newsweek pour expliquer pourquoi il y aurait "une récession inflationniste".

Cet environnement intellectuel, aussi bien que le changement de focale de la version définitive de cette allocution amena Forder à conclure qu’"il n’y a pas de preuve que Friedman ait voulu mettre l’accent sur un quelconque argument à propos des anticipations ou de la courbe de Phillips et (…) qu’il n’aurait pas trouvé un tel argument nouveau, surprenant ou intéressant". Nous sommes en désaccord avec cette idée. En effet, un discours devant l'AEA constituait un forum dont Friedman ne pouvait négliger la portée, d'autant plus que les débats académiques et politiques sur la politique monétaire prenaient de l'ampleur à l'époque. Le lendemain de l’allocution de Friedman, William Poole, de John Hopkins, présenta un article intitulé "Monetary Policy in an Uncertain World" ("La politique monétaire dans un monde incertain"). Six moins après, la Réserve fédérale de Boston tint une conférence sur "le contrôle des agrégats monétaires". Présentée comme la première d’une "série couvrant une large gamme de problèmes financiers ou monétaires", son propos était de faciliter les échanges sur l’"une des questions de politique économique les plus pressantes actuellement, le rôle de la monnaie dans l’activité économique". Cela amena Samuelson, David Meiselman, James Tobin, Alan Meltzer, John Kareken à se pencher ensemble sur le "modus operandi de la Réserve fédérale", James Duesenberry sur "les tactiques et les cibles de la politique monétaire" et le membre du comité Sherman Maisel sur "le contrôle des agrégats monétaires". Lorsqu’il ouvrit la conférence, Samuelson proposa à ce que "la question centrale qui soit débattue les jours suivants en connexion avec la macroéconomie soit la doctrine du monétarisme", citant, non pas la récente allocution de Friedman, mais son Histoire monétaire des Etats-Unis de 1963, réalisée avec Anna Schwartz. Cette même année, le Journal of Money, Credit and Banking a été créé, suivi par le Journal of Monetary Economics en 1973. Les économistes ont joué un plus grand rôle à la Fed depuis 1965, quand Ando et Modigliani furent chargés de développer d’un large modèle macroéconométrique (…).

En réfléchissant au "rôle de la politique monétaire" à un tel moment crucial, Friedman essayait donc de s’adresser à des publics bien différents. C’est pour cela que son discours était à la fois théorique, historique et orienté vers la politique économique, qu’il a amalgamé divers arguments avec l’objectif de proposer un ensemble convaincant. Le fait que, dans des contextes et des débats scientifiques changeants, ces différents publics aient retenu, souligné et naturalisé différents morceaux de l’ensemble nous empêche de bien suivre sa divulgation et de bien saisir son influence.

Le discours de Friedman dans le contexte des années soixante-dix


La divulgation au sein du monde universitaire


Ce sont les macroéconomistes universitaires auquel Friedman s’adressa le plus directement. Le récit canonique (celui dont Mankiw et Reis font écho) est que l’allocution de Friedman a ouvert la voie au déclin du keynésianisme et à l’essor de la nouvelle école classique, pour ne pas dire des modèles DSGE. Mais certaines recherches historiques en cours que l’un d’entre nous (Aurélien) réalise en collaboration avec Goulven Rubin suggèrent que ce furent plutôt des économistes keynésiens (et non les nouveaux classiques) qui impulsèrent la diffusion de l’hypothèse du taux de chômage naturel. Un protagoniste clé fut Robert Gordon, qui venait juste d’achever sa thèse sur les "problèmes de la mesure de l’investissement réel dans le secteur privé de l’économie américaine" sous la direction de Solow au MIT lorsque Friedman fit son discours. Il rejeta initialement l’hypothèse de taux de chômage naturel ; il ne l’adopta que bien après, dans ce qui deviendra le modèle du manuel élémentaire des nouveaux keynésiens à la fin des années soixante-dix.

Ce n’est pas la théorie qui l’amena à changer d’avis. Ce furent les données empiriques : dans la courbe de Phillips où l’inflation salariale dépend des anticipations d’inflation et du chômage que Solow et lui-même estimèrent séparément en 1970, le paramètre associé aux anticipations d’inflation était extrêmement faible, chose qui l’amena à rejeter l’argument accélérationniste de Friedman. Par conséquent, Gordon trouvait que l’impact du changement de la composition de la population active (en termes d’âge et de sexe) sur le taux de chômage structurel, mis en lumière par George Perry, constituait une meilleure explication pour l’accélération de l’inflation à la fin des années soixante. En 1973, le paramètre avait suffisamment augmenté pour que l’économiste keynésien change d’avis. Il importa le taux de chômage naturel dans un modèle sans apurement avec une concurrence imparfaite et des rigidités salariales, ce qui permettait de faire apparaître un chômage involontaire et surtout préservait la justification de politiques monétaires actives de stabilisation.

Le manuel de 1978 où Gordon introduisit son cadre offre globale-demande globale présenta tout un chapitre sur la courbe de Phillips, dans lequel il s’appuyait explicitement sur l’allocution de Friedman pour expliquer pourquoi la courbe était supposée verticale à long terme. Les éditions suivantes continuèrent de se référer au taux de chômage naturel et à la verticalité à long terme, mais plutôt expliqués avec la concurrence imparfaite et la rigidité des salaires. 1978 fut aussi l’année où Stanley Fischer et Rudiger Durnbusch publièrent leur ouvrage Macroeconomics (le modèle des manuels de macro ultérieurs). Les deux auteurs firent allusion à un possible arbitrage à long terme, mais comme Gordon, établie sur une courbe de Phillips verticale à long terme. A la différence de Gordon, cependant, ils présentèrent immédiatement des fondations "keynésiennes".

Au même instant, les nouveaux classiques empruntèrent une autre voie. Ils se proposèrent d’"améliorer" les propos de Friedman en les rendant cohérents avec les anticipations rationnelles, en pointant la conséquence théorique de cette nouvelle classe de modèles pour la politique monétaire. En 1972, Robert Lucas montra clairement que la règle de "k %" de Friedman est optimale dans son modèle d’anticipations rationnelles avec asymétrie d’informations et Thomas Sargent et Neil Wallace confirmèrent bientôt qu'"une règle de croissance de X pourcents pour l’offre de monnaie est optimale dans ce modèle, du point de vue de la minimisation de la variance de la production réelle". La critique de Lucas de 1976 insista davantage sur le fossé entre le contenu des modèles macroéconométriques structuraux keynésiens, notamment ceux utilisés par la Fed, et les idées de Friedman.

L’impact sur la politique économique


Divers économistes au Sheraton Hall de Washington et notamment Friedman lui-même eurent bientôt pour tâche d’évaluer la pertinence de l’allocution pour la politique économique. C’est Arthur Burns, l’analyste des cycles d’affaires au NBER, l’économiste de Rutgers qui convainquit le jeune Friedman de poursuivre une carrière d’économiste, qui présida la session de l’American Economic Association. Il quitta la salle convaincu par Friedman que l’inflation découle des anticipations adaptatives. Lors d’une audience de confirmation au Congrès en décembre 1969, il déclara : "je pense que la courbe de Phillips est une généralisation, une généralisation très sommaire, pour les mouvements de court terme et je pense que même à court terme la courbe de Phillips peut être changée". Quelques semaines après, il fut placé à la tête de la Réserve fédérale. Edward Nelson a montré comment, au grand désarroi de Friedman, les vues changeantes de Burns l’amenèrent rapidement à appuyer le contrôle des prix et des salaires que proposait par Nixon et qui fut instauré en août 1971. En réaction, les monétaristes Karl Brunner et Allan Meltzer fondèrent en 1973le "comité parallèle d’open market" (Shadow Open Market Committee). Comme l’expliqua par la suite Meltzer, "Karl Brunner et moi-même avons décidé d’organiser un groupe pour critiquer cette décision et signaler en quoi c’est une erreur d’affirmer que les contrôles peuvent stopper l’inflation".



Alors que les contrôles des prix et des salaires étaient supprimés en 1974, l’indice des prix à la consommation augmenta soudainement de 12 % (suite au choc pétrolier d’octobre 1973) et le chômage augmentait, pour atteindre 9 % en 1975. Ce double fléau, que le politicien britannique Ian MacLeod qualifia de "stagflation" en 1965, divisa profondément le pays (aussi bien que les économistes, comme le montre la fameuse couverture du Time en 1971). A quoi devait-on tout d’abord s’attaquer, au chômage ou à l’inflation ? En 1975, le sénateur Proxmire, membre du comité sur l’activité bancaire du Sénat, soumit une résolution qui visait à forcer la Fed à se coordonner avec le Congrès, en prenant en compte la hausse de la production et "l’emploi maximal" avec la stabilité des prix dans ses objectifs, et à présenter des "fourchettes numériques" pour la croissance de la masse monétaire. Friedman fut appelé à témoigner et le rapport du Sénat qui en résulta fit écho à l’affirmation de son allocution de 1968 selon laquelle il n’y aurait pas d’"arbitrage à long terme" : "il semble qu’il n’y ait pas d’arbitrage à long terme. Par conséquent, il n’y a pas besoin de choisir entre le chômage et l’inflation. Plutôt, l’emploi maximal et la stabilité des prix sont des objectifs compatibles (…) à long terme (…) à condition que la stabilité soit atteinte avec une croissance des agrégats monétaires et de crédit qui soit compatible avec la croissance du potentiel productif de l’économie".

S’il n’y a pas d’arbitrage à long terme, alors rechercher explicitement l’emploi maximal n’était pas nécessaire. La stabilité des prix favoriserait l’emploi et le programme de politique économique de Friedman s’en trouverait confirmé.

La Résolution 133 qui en résulta n’empêcha toutefois pas le personnel de la Fed de saper les tentatives du Congrès visant à prendre le contrôle de la politique monétaire : sa stratégie consistait à présenter un ensemble confus de cinq mesures différentes d’agrégats monétaires et de crédit. Entretemps, d’autres assauts sur le mandat de la Fed gagnèrent en vigueur. Les activistes de l’emploi, en particulier ceux qui, dans le sillage de Coretta Scott King, faisaient valoir que les travailleurs noirs étaient tout particulièrement touchés par le chômage, multiplièrent les manifestations. En 1973, le parlementaire noir de Californie Augustus Hawkins a organisé une conférence pour dessiner les contours d’une "politique de plein emploi pour l’Amérique". On demanda aux participants de discuter des ébauches d’un projet de loi soumis conjointement par Hawkins et le sénateur du Minnesota Hubert Humphrey, membre du Comité économique mixte. Promulguée en 1978 sous le nom de "loi du plein emploi et de la croissance équilibrée" (Full Employment ad Balanced Growth Act), cette loi institua la surveillance de la politique monétaire par le Congrès. Elle exige de la Fed qu’elle fournisse un compte-rendu deux fois par an auprès du Congrès et qu’elle établisse et suive une règle monétaire qui prenne en compte l’inflation et le chômage. Les conséquences de la loi ont donné lieu à de vifs débats dès 1976 au sein de l’American Economic Association, dans le Journal of Monetary Economics ou dans la revue Challenge. Les passions suscitées par la loi contrastèrent avec les effets de celle-ci sur la politique monétaire, effets qui, de nouveau, furent limités. L’année suivante, Paul Volcker prit la tête de la Fed et, en octobre, il annonça abruptement que la Fed fixerait des règles contraignantes pour la création de réserves et laisserait les taux d’intérêt dériver si nécessaire.

Une transmission compliquée entre sphère universitaire et décideurs publics


L’allocution de 1967 circula donc initialement dans la sphère universitaire et dans les cercles de politique publique, avec des retombées qui n’ont pas toujours plu à Friedman. Le taux de chômage naturel a été adopté par certains économistes keynésiens parce qu’il semblait robuste sur le plan empirique ou, tout du moins, utile, mais il fut introduit dans des modèles soutenant une politique monétaire discrétionnaire de stabilisation. Les règles de politique monétaire furent graduellement introduites dans le cadre légal présidant la conduite de la politique monétaire, mais elles le furent avec l’objectif de réorienter la Fed vers la poursuite de l’emploi maximal. Paradoxalement, on a beau avoir l’habitude de présenter les travaux des nouveaux classiques comme le canal de transmission clé par lequel l’allocution s’est diffusée dans la science économique et au-delà de celle-ci, ces travaux semblent à première vue n’avoir qu’un lien lointain avec la politique économique.

En effet, on doit lire attentivement les articles séminaux des années soixante-dix qui sont habituellement associés à la "révolution des nouveaux classiques" pour trouver des références au contexte trouble de la politique économique. Le cadre de l’article de Finn Kydland et Edward Prescott sur "la règle versus la discrétion" ("Rules versus discretion"), dans lequel l’usage des anticipations rationnelles mit en lumière des problèmes de crédibilité et d’incohérences temporelles, était entièrement théorique. Il se conclut par la phrase cryptique : "il peut y avoir des accords institutionnels qui rendent le changement des règles de politique économique un processus difficile et chronophage sauf dans les situations d’urgence. Un possible accord institutionnel consisterait pour le Congrès à introduire des règles de politique monétaire et budgétaire et à ce que ces règles deviennent effectives après seulement un délai de deux ans. Cela rendrait la politique discrétionnaire impossible". De même, Sargent et Wallace débutèrent leur article sur la "déplaisante arithmétique monétariste" ("unpleasant monetarist arithmetic") de 1981 en discutant de l’allocution présidentielle de Friedman, mais ils s’empressèrent d’ajouter que l’article avait été conçu comme une démonstration théorique de l’impossibilité de contrôler l’inflation. Aucune des controverses institutionnelles ne fut mentionnée, mais l’auteur avait fini l’un de ses travaux antérieurs avec cette phrase : "Nous avons écrit cet article, non pas parce que nous pensons que notre hypothèse à propos du jeu que se livrent les autorités monétaires et budgétaires décrit la façon par laquelle les politiques monétaires et budgétaire doivent être coordonnées, mais par crainte qu’elle puisse décrire la façon par laquelle le jeu est actuellement joué".

Robert Lucas fut le seul à écrire un article qui débattit explicitement du programme monétaire de Friedman et pourquoi il avait "un impact si limité". Présenté à la conférence du NBER en 1978, il lui fut demandé de discuter de "ce que la politique économique aurait dû être en 1973-1975", mais il déclina. La question était "mal posée", selon lui. La source du chaos économique des années soixante-dix, continua-t-il, se situait dans l’incapacité à construire des institutions monétaires et budgétaires appropriées, chose dont il discuta abondamment. En mentionnant la "révolte des contribuables", il salua la Proposition 13 de la Californie qui visait à limiter les taxes sur la propriété. Il défendit ensuite la Résolution 133, qui exigeait de la Fed qu’elle annonce au préalable des cibles de croissance monétaire, en espérant un prolongement plus contraignant.

Cette distance contraste avec la volonté des économistes monétaristes et keynésiens de discuter des accords institutionnels monétaires américains en vigueur dans les travaux universitaires et dans la presse. C’est particulièrement étrange étant donné que ces économistes travaillaient dans l’œil du cyclone (institutionnel). Sargent, Wallace et Prescott étaient alors des économistes à la Réserve fédérale de Minneapolis et l’article de Sargent et Wallace mentionné ci-dessus avait été publié par la revue trimestrielle de celle-ci. Même si aucun d’entre eux ne semblait s’intéresser en priorité aux débats autour de la politique économique, leur influence intellectuelle était manifeste dans les déclarations des responsables de la Réserve fédérale de Minneapolis. Son président, Mark Willes, un ancien doctorant en économie monétaire de l’Université de Columbia, était impatient de prêcher l’évangile des nouveaux classiques au comité fédéral d’open market. "Il n’y a pas d’arbitrage entre l’inflation et le chômage" martela-t-il dans une lecture à l’Université de Minnesota. Il ajouta plus tard que : "C’est bien sûr principalement à la communauté universitaire et à d’autres groupes de recherche que nous nous adressions… Si vous voulez avoir une politique économique efficace, vous devez avoir une théorie cohérente du fonctionnement de l’économie… Friedman ne semble pas non plus complètement convaincant. Peut-être que les partisans des anticipations rationnelles ici… ont la réponse ultime. A ce stade, seuls Heaven, Neil Wallace et Tom Sargent la connaissent probablement".

Si les débats faisaient rage aussi bien à la Réserve fédérale de Minneapolis qu’à l’Université du Minnesota, c’était parce que les politiques conçues pour atteindre l’emploi maximal étaient conçues par le sénateur du Minnesota Humphrey, lui-même conseillé par un ancien collègue de Sargent et Wallace, le célèbre économiste keynésien Walter Heller, qui fut un membre du Council of Economic Advisers (CEA) et un architecte de la réduction d’impôts de Kennedy en 1964.

La vie autonome de l’allocution présidentielle dans les années quatre-vingt et quatre-vingt-dix


L’allocution présidentielle de Friedman semble faire l’objet d’un surcroît de citations dans les années quatre-vingt et quatre-vingt-dix, mais c’est encore une hypothèse qui doit être vérifiée. Nous faisons le pari que les macroéconomistes en sont venus à relire l’allocution dans le sillage de la détérioration des conditions économiques qu’ils associèrent au ciblage de Volcker. Après que l’expérience de la cible monétaire ait été interrompue en 1982, les macroéconomistes s’intéressèrent de plus en plus aux accords institutionnels et aux instruments de politique économique. Nous croyons que ce changement apparaît le plus manifestement dans les écrits de John Taylor. Leeson raconte comment les travaux de Taylor (qui était un étudiant de cycle supérieur à l’époque où Friedman fit son allocution présidentielle) se focalisèrent sur la théorie de la politique monétaire. Après ses deux passages au CEA en tant qu’économiste, il était obsédé par la façon de rendre la politique monétaire plus malléable. Il fut de plus en plus convaincu à l’idée d’inclure les pratiques monétaires dans l’analyse, un processus qui culmina avec la formulation de la règle de Taylor en 1993 (dans un article qui est aujourd’hui davantage cité que l’allocution présidentielle de Friedman). Un changement de l’intérêt des universitaires (que l’on peut interpréter comme se rapprochant de l’esprit, si ce n’est du contenu, de l’allocution de Friedman) a aussi été manifeste dans les discussions autour des cibles de revenu nominal dans les années quatre-vingt. Ici, les débats universitaires précédèrent les réformes de politique économique, dans la mesure où le double mandat de la Fed vis-à-vis de l’inflation et du chômage n’est apparu dans une déclaration du comité fédéral d’open market que sous Ben Bernanke, en 2010, dans le sillage de la crise financière (…). Cette reconnaissance tardive peut, à nouveau, fournir une nouvelle lecture de l’allocution présidentielle de Friedman, une vieille dame dont le charme apparaît intemporel. »

Beatrice Cherrier et Aurélien Goutsmedt, « The making and dissemination of Milton Friedman’s 1967 AEA presidential address », in The Undercover Historian (blog), le 27 novembre 2017. Traduit par Martin Anota

samedi 18 novembre 2017

Une défense bien maladroite des modèles DSGE

« Je suis lessivé par le bashing dont la macroéconomie fait l’objet. J’ai déjà dit ce que j’avais à dire sur le sujet. Et je vois beaucoup de jeunes macroéconomistes faire du bon boulot. Et il y a des gens plus qualifiés que moi et avec une plus grande légitimité pour critiquer la méthodologie en macroéconomie. (…) Mais parfois je dois donner des conseils de marketing à certains de mes collègues macroéconomistes.

La nouvelle ligne de défense des modèles DSGE que proposent Christiano, Eichenbaum et Trabandt donne de sacrés frissons. Nous pouvons notamment y lire que : "Ceux qui n’aiment pas les modèles stochastiques dynamiques d’équilibre général (DSGE) sont des dilettantes. En les qualifiant ainsi, nous entendons qu’ils ne sont pas sérieux en matière d’analyse de politique économique. Pourquoi disons-nous cela ? Les questions de politique macroéconomique impliquent des arbitrages entre les forces qui s’affrontent dans l’économie. Il n’est malheureusement pas facile d’évaluer la puissance relative de ces forces pour telle ou telle question en matière de politique économique. Une stratégie consisterait à réaliser des expériences dans les économies réelles. Cette stratégie n’est pas disponible en sciences sociales. Comme Lucas (1980) l’a souligné crûment il y a près de quatre décennies, le seul endroit où nous pouvons faire des expériences, c’est dans nos modèles. Aucune théorisation a priori ou régression à partir de données microéconomiques ne peut se substituer à ces expériences. Les dilettantes qui évoquent seulement l’existence de forces concurrentes à l’œuvre (et qui jugent de façon informelle leur importance relative via des expériences de pensée implicites) ne peuvent jamais donner de conseils sérieux en matière de politique économique".

(…) C’est si stupide que l’on pourrait même se demander si Christiano et ses coauteurs ne nourrissent pas en fait le projet d’inciter davantage de monde à rejoindre les rangs des détracteurs des modèles DSGE.

Premièrement, ce n’était pas une bonne idée de qualifier de "dilettantes" ceux qui critiquent les modèles DSGE. Jusqu’à présent, la meilleure critique des modèles DSGE qu’on a pu récemment entendre (selon moi) provient d’Anton Korinek (…). Korinek est un macroéconomiste spécialisé dans les modèles DSGE. Il gagne sa vie en faisant des modèles DSGE. Mais selon Christiano et ses coauteurs, le fait qu’il pense que son propre champ ait des problèmes fait de lui une "dilettante".

D’accord, mais soyons généreux et supposons que Christiano et ses coauteurs ne savent pas ce qu’a pu dire Korinek (ni même ce qu’ont pu dire Ricardo Caballero, Paul Romer, Paul Pfleiderer, etc.). Supposons qu’ils ne parlent que de personnes comme Joseph Stiglitz, qui a vraiment l'air d’une dilettante ces derniers jours, de blogueurs comme moi (qui suis une sacrée dilettante) ou encore des gens de l’INET. Même dans ce cas, ce déluge de propos méprisants reste tout à fait déplacé.

Pourquoi ? Parce que déclarer que les personnes extérieures à votre champ ne sont jamais qualifiées pour critiquer celui-ci vous donne l’air d’être renfermé et arrogant. Chaque économiste connaît l’idée de capture du réglementateur. Il n’est pas difficile d’imaginer que les chercheurs puissent également être capturés, par exemple, que si les seules personnes qui sont autorisées à critiquer X sont les gens qui gagnent leur vie en faisant X, alors tous les détracteurs potentiels vont avoir un intérêt à préserver le statu quo.

En d’autres mots, l’essai de Christiano et de ses coauteurs n’est peut-être rien d’autre qu’un mémo envoyé aux outsiders où ils leur demandent de se taire et de continuer à envoyer les chèques.

Deuxièmement, Christiano et ses coauteurs ont donné des munitions à la foule qui proclame que "l’économie n’est pas une science" en utilisant le mot "expériences" lorsqu’ils font référence aux simulations de modèle. Brad DeLong a déjà écrit à propos de cette terminologie malheureuse. Chacun sait que les simulations de modèles ne sont pas des expériences, donc insister obstinément à mal utiliser le mot contribue juste à donner l’air de pseudoscience à l’économie aux yeux des observateurs extérieurs.

Troisièmement, Christiano et ses coauteurs ont tout simplement tort. Leur défense des modèles DSGE consiste fondamentalement à dire que c’est le "seul jeu en ville", la seule façon de faire des prédictions quantitatives à propos des effets des changements de politique économique.

C’est faux. Il y au moins deux autres approches qui sont régulièrement utilisées : les modèles vectoriels autorégressifs (VAR) structurels et les modèles économétriques structurels. Les modèles VAR structurels sont souvent utilisés pour l’analyse de la politique économique dans les travaux universitaires. Les modèles économétriques structurels sont utilisés par les banques centrales pour éclairer les décisions de politique économique. Ces deux types de modèles affirment être structurels. Une telle affirmation fait rire beaucoup de monde. Mais à nouveau, beaucoup rient aussi des modèles DSGE.

En fait, vous n’avez même pas à avoir toujours besoin d’un modèle structurel pour faire des prédictions quantitatives à propos de la politique économique ; souvent, vous pouvez le faire sous forme réduite. Quand les changements de politique économique peuvent être traités comme des expériences naturelles, leurs effets (notamment leurs effets d’équilibre général !) peuvent être mesurées directement plutôt qu’être inférés directement à partir d’un modèle structurel.

Comme Justin Wolfers l’a indiqué sur Twitter, au moins l’une des questions que Christiano et ses coauteurs prétendent ne trouver une réponse qu’à travers les simulations DSGE peut tout à fait trouver une réponse sous forme réduite : "Est-ce qu’une extension des allocations chômage accroît le chômage ? D’un côté, la croyance conventionnelle affirme qu’un montant plus élevé d’allocations se traduit par des salaires plus élevés et aggrave le chômage. D’un autre côté, si le taux d’intérêt nominal est relativement insensible aux conditions économiques, alors la hausse des salaires accroît l’inflation. La baisse des taux d’intérêt réels qui en résulte stimule la demande globale, donc alimente l’activité économique et réduit le chômage. Lequel de ces effets prédomine ?"

En 2015, John Coglianese s’est attaqué à cette question sans utiliser de modèle DSGE : "J’ai analysé une expérience naturelle suscitée par l’extension de l’assurance-chômage fédérale aux Etats-Unis durant la Grande Récession et j’ai mesuré son effet sur le chômage au niveau de chaque Etat. J’ai exploité une caractéristique de cette extension de l’assurance-chômage avec laquelle l’erreur d’échantillonnage aléatoire dans l’enquête nationale altérait la durée d’indemnisation du chômage dans plusieurs Etats, ce qui se traduisait par des variations aléatoires du nombre de semaines d’indemnisation au niveau de l’Etat".

Christiano et ses coauteurs occultent totalement l’existence des expériences naturelles. Ils affirment qu’en l’absence d’expériences de laboratoire, les simulations de modèles sont les meilleures simulations que nous puissions avoir. L’approche des expériences naturelles a beau voir sa popularité s’accroître rapidement économie, elle n’est même pas enregistrée sur leurs écrans de radar. Ce n’est pas une bonne vision des choses.

Finalement, Christiano et ses coauteurs adoptent un ton d’arrogance désinvolte à un moment où le monde (notamment le reste des économistes) appelle avec raison à une plus grande humilité de la part des macroéconomistes. Les modèles DSGE les plus réputés, les plus communs (ceux qui ont justement été créés par Christiano et Eichenbaum) ont spectaculairement échoué entre 2008 et 2012. Ce n’est pas le genre de chose qui vous donne le droit d’être arrogant, mais plutôt quelque chose pour laquelle vous devriez vous excuser. Maintenant, la profession a corrigé ces modèles en y ajoutant la finance, une borne inférieure zéro (zero lower bound), des non-linéarités, etc. Il reste à voir si ces nouvelles modélisations marchent bien avec les échantillons. Heureusement, ils ont l'air plus efficace.

Mais la charge de la preuve incombe aux concepteurs de modèles DSGE, non sur leurs détracteurs. Christiano et ses coauteurs devraient jeter un coup d’œil autour d’eux et réaliser que les gens en-dehors de leur petit cercle ne sont pas convaincus. Les banques centrales utilisent toujours des modèles économétriques structurels, le jugement humain et beaucoup d’autres outils. Les personnels de l’industrie financière n’utilisent pas du tout les modèles DSGE. Même au sein du monde universitaire, l’usage des modèles DSGE est probablement sur le déclin.

En d’autres mots, Christiano et ses coauteurs et les autres grands défenseurs de modèles DSGE sont toujours bien payés pour concevoir des modèles DSGE, mais ils ne sont pas en train de gagner la lutte intellectuelle qui se tient à l’échelle du monde. La rhétorique méprisante qui emplit cet essai ne va pas les aider. Même Miles Kimball, qui a passé sa carrière à faire des modèles DSGE et qui a apporté des contributions décisives aux modèles qui rendirent célèbres Christiano et Eichenbaum, a été déçu par cet essai.

Regardez. Il y a de bonnes lignes de défense que l’on peut avancer pour la macroéconomie moderne et la modélisation DSGE. Ricardo Reis en a apporté une bonne un peu plus tôt cette année. Fabio Ghironi en a apporté une autre. Tous deux se sont montrés humbles et intelligents dans leurs essais. Ils font savoir l’importance cruciale des preuves empiriques et d’une diversité d’approches. Ils font aussi savoir que les macroéconomistes doivent faire mieux et que cela va prendre du temps. Ils comptent sur les jeunes pour faire du bon travail, chercher à améliorer les choses et prendre de nouvelles directions. Ce sont les défenses de la macroéconomie dont la profession a besoin.

L’idée des modèles DSGE n’est pas mauvaise. Travailler sur les modèles DSGE n’est pas nécessairement un effort vain. Tous les concepteurs de modèles DSGE ne sont pas aussi méprisants et bouffis d’orgueil que les dépeignent l’essai de Christiano et de ses coauteurs. Il y a plein de gens qui font du bon boulot dans ce domaine, qui essayent d’améliorer la performance des modèles macroéconomiques. Mais une rhétorique comme celle-ci finit par nuire à leur tâche, plutôt qu’à les aider. »

Noah Smith, « The "cackling cartoon villain" defense of DSGE », in Noahpinion (blog), 15 novembre 2017. Traduit par Martin Anota

vendredi 10 novembre 2017

La macroéconomie est-elle une science ou une religion ?

« Dans un article désormais très célèbre, "The Science of Monetary Policy", qu’ils publièrent en 1999, trois grands économistes, Richard Clarida, Jordi Galí et Mark Gertler, affirmèrent que la politique monétaire est une science. Bien qu’il y ait une part de vérité dans cette affirmation, Clarida et ses coauteurs auraient pu se demander dans leur article si la macroéconomie était une religion ou une science.

La science et la religion forment un drôle de ménage. La science date du siècle des Lumières. La religion remonte à l’aube de l’histoire. La science est soutenue par le rationalisme. La religion est soutenue par le dogme. La science est mise au défi par l’expérimentation. La religion est codifiée par des érudits et protégée par un clergé. La macroéconomie présente des aspects relevant aussi bien de l’une que de l’autre.

Les macroéconomistes construisent des théories codifiées par des systèmes d’équations. Nous utilisons ces équations pour expliquer les schémas que l’on décèle dans les données économiques. A la différence des sciences expérimentales, la chimie et la physique par exemple, les macroéconomistes ne peuvent facilement expérimenter. Cela ne signifie pas que nous ne pouvons pas mettre à l’épreuve les théories existantes, mais qu’il est plus difficile de le faire. Comme les astronomes attendant qu’une nouvelle supernova explose, les macroéconomistes doivent attendre de grandes récessions ou de graves stagflations pour que nous puissions privilégier une théorie plutôt qu’une autre.

L’incapacité à expérimenter est plus sérieuse que ce que pensent la plupart des macroéconomistes. Lorsque Clarida, Galí et Gertler écrivaient leur article sur la politique monétaire, ils mettaient en avant une théorie néo-keynésienne. Cette théorie était codifiée par trois équations qu’ils utilisaient pour expliquer le PIB, le taux d’intérêt et l’inflation. Les équations néo-keynésiennes sont largement utilisées aujourd’hui par les décideurs politiques dans chaque grande banque centrale pour aider à guider la politique économique. Et si ces équations étaient incorrectes ?

Les économistes sélectionnent une théorie plutôt qu’une autre en utilisant une procédure statistique appelée maximum de vraisemblance. Nous disons que la théorie A est meilleure que la théorie B si les données que nous observons ont une plus forte probabilité d’être générées par A que par B. Dans une étude que j’ai réalisée avec Andreas Beyer, un économiste de la BCE, nous avons montré comment produire des théories qui ne peuvent pas être distinguées de cette façon. Si vous proposez avec la théorie A d’expliquer un ensemble de données X, notre procédure va produire une autre, la théorie B, qui a la probabilité identique d’avoir généré les données observées que la théorie A.

Les choses empirent. Nous donnons un exemple de ce problème où la théorie A et la théorie B fournissent des conclusions de politique contradictoires. La seule façon de les distinguer consisterait pour un décideur d’expérimenter en changeant la façon par laquelle il réagit aux données économiques. La Banque d’Angleterre peut, par exemple, relever son taux directeur, tandis qu’au même instant, le comité fédéral d’open market aux Etats-Unis réduit le taux des fonds fédéraux.

Les macroéconomistes peuvent expliquer relativement bien les données passées. Mais nous ne sommes pas trop bons lorsqu’il s’agit d’expliquer de nouveaux événements et nos théories sont toujours en évolution. En ce sens, l’économie est une science. La façon par laquelle on permet à nos modèles d’évoluer est contrôlée par un groupe de grands prêtres qui maintiennent la pureté doctrinale. En ce sens, l’économie est une religion. L’aspect religieux est important en temps normal, lorsque nous n’avons pas connu de grand événement dans le passé immédiat. A d’autres moments, peu après que nous ayons assisté à une supernova économique, l’emprise des grands prêtres devient contreproductive et c’est un temps fertile pour explorer des idées que les prêtres considèrent comme hérétiques. C’est un tel moment que nous connaissons aujourd’hui. »

Roger Farmer, « Macroeconomics: Religion or Science? », in Roger Farmer’s Economic Window (blog), 5 novembre 2017. Traduit par Martin Anota

samedi 14 octobre 2017

Non, la crise n'amène pas à renouveler en profondeur la pensée économique

Les fausses révolutions en économie


« (…) Quand la crise financière a éclaté, beaucoup ont appelé à formuler de nouvelles idées économiques (…). L’idée qu’il y avait implicitement derrière et que l’on considérait comme juste était que la crise révélait la défaillance de l’orthodoxie économique et la nécessité d’avoir de nouveaux concepts fondamentaux. Ceux qui appelaient à renouveler la pensée économique avaient une sorte de scénario hollywoodien en tête : des innovateurs audacieux proposeraient des idées radicales, feraient face à la résistance de la part de vieux ringards, mais ils triompheraient finalement via leur capacité supérieur à prédire les événements. Les choses ne se sont pas vraiment passées ainsi. Certes, personne ne vit la crise venir. Mais ce n’est pas parce que l’orthodoxie n’avait pas les moyens de la prévoir ; au contraire, les paniques bancaires sont un vieux sujet, présenté dans chaque manuel où sont exposés les principes fondamentaux. Si personne ne vit la crise venir, c’est en raison d’un échec empirique : peu comprirent que l’essor du système bancaire parallèle (shadow banking) rendait définitivement obsolètes les défenses bancaires qui avaient été instaurées dans le sillage de la Grande Dépression.

En fait, seuls les idéologues les plus étroits d’esprit du libre marché réagirent en montrant un réel étonnement. Les autres se tapèrent le front en s’exclamant "Diamond-Dybvig ! Comme je suis stupide ! Diamond-Dybvig bien sûr !"

Et après-crise, la macroéconomie standard se révéla assez efficace. La politique budgétaire et la politique monétaire firent ce qu’elles étaient censées faire (ou tout du moins, dans le cas de la monnaie, ne firent pas ce qu’elles n’étaient pas censées faires) à la borne inférieure zéro. Il y avait une grande marge d’amélioration, il était possible de s’appuyer sur la mère de toutes les expériences naturelles pour le travail empirique, mais il n’était pas vraiment utile de s’appuyer sur une nouvelle pensée radicale.

Néanmoins, il y a eu une prolifération de nouveaux concepts radicaux : l’austérité budgétaire serait en fait expansionniste, la politique monétaire expansionniste serait en fait déflationniste, des choses terribles arriveraient à la croissance économique quand la dette publique dépasse les 90 % du PIB. Ces idées reçurent instantanément beaucoup d’écho politique ; laissez de côté les ringards de l’establishment économique, l’establishment politique se saisit de l’occasion d’appliquer de nouvelles idées.

Qu’est-ce que ces idées avaient en commun ? Toutes avaient, explicitement ou non, des implications idéologiques conservatrices, que leurs auteurs les aient intentionnellement recherchées ou non. (Je pense que Reinhart et Rogoff ont vraiment travaillé hors de tout agenda politique. Je n’en suis pas aussi sûr pour les autres.) Et toutes ces idées se révèrent assez vite mortellement fausses.

Donc la nouvelle pensée économique qui émargea de la crise s’est révélée être, dans sa grande majorité, un ensemble de mauvaises idées servant un agenda politique conservateur. Ce n’était pas vraiment le scénario qu’on nous promettait, n’est-ce pas ?

Une fois que vous y pensez, il n’est pas trop difficile de voir comment cela s’est passé. Tout d’abord, la macroéconomie conventionnelle a bien marché, donc vous avez besoin d’innovations réellement brillantes pour qu’elle parvienne à vraiment bouleverser cette convention. Et les innovations réellement brillantes n’apparaissent pas facilement. En fait, les bouleversements de la croyance conventionnelle provinrent principalement de personnes qui, loin de transcender cette croyance, échouèrent en fait à comprendre celle-ci au préalable.

Et même s’il y a de telles personnes aussi bien à gauche qu’à droite, il y a une grande asymétrie en termes de richesse et d’influence entre les deux bords politiques. (…) Les idées confuses à droite se retrouvèrent dans les annonces de politique économique formulées par la Commission européenne et les Républicains.

(…) Beaucoup de travaux ont contribué à faire émerger le consensus ; cela ne signifie pas qu’il soit exact, mais vous devez arriver avec une idée réellement bonne si vous voulez vraiment le remettre en cause. D’un autre côté, vous pouvez avoir beaucoup d’écho politique avec une très mauvaise idée qui remet en cause le consensus, aussi longtemps que cela sert les intérêts des grands argentiers et des politiciens de droite. (…) »

Paul Krugman, « The schlock of the new », in The Conscience of a Liberal (blog), 8 octobre 2017. Traduit par Martin Anota



Il y a trop d’idéologues (et trop peu d’artisans) parmi les économistes


« Paul Krugman affirme qu’il est erroné de croire que la crise financière oblige à renouveler la pensée économique, mais que cette croyance a pourtant mener à des idées folles, mais influentes, qui ont été reprises par les grands argentiers et les politiciens de droite. Même si je suis en accord avec la plupart des propos de Krugman, je voudrais ajouter quelque chose. Ma réflexion se nourrit du dernier livre de Dani Rodrik, Straight Talk on Trade, que je n'ai pas encore fini, mais dont je parlerai plus amplement dans un prochain billet.

Dans la préface à ce livre, il raconte une petite anecdote. Il y a 20 ans, il avait demandé à un économiste d’appuyer l’un de ses livres, Has Globalization Gone Too Far?. L’économiste lui a répondu qu’il ne pouvait pas le faire, non pas parce qu’il était en désaccord avec quelque chose dans le livre, mais parce qu’il pensait que le livre "fournirait des munitions aux barbares". Dani Rodrik note que cette attitude est toujours très courante parmi les économistes. Bien sûr, on peut difficilement qualifier cette attitude d’apolitique et de scientifique.

Je pense que quelque chose de similaire peut s’être produit à la veille de la crise financière parmi les économistes travaillant dans la finance. Paul Krugman a certainement raison lorsqu’il dit que l’économie orthodoxe propose des modèles capables d’expliquer pourquoi la grande crise financière mondiale a éclaté, donc, de ce point de vue, peu de nouvelles idées sont nécessaires. Mais si aussi peu d’économistes orthodoxes ont utilisé ces modèles avant la crise financière, c’est notamment en raison d’une certaine aversion idéologique vis-à-vis de la réglementation et peut-être aussi en raison d'une certaine réticence à mordre la main qui les nourrit.

L’économie orthodoxe propose aujourd’hui des modèles très divers. Ceux qui ajoutent de nouveaux modèles à ceux-ci gagnent en prestige universitaire. Mais comment pouvez déterminer quel est le modèle que vous devez utiliser quand il s’agit d’étudier un problème en particulier ? Il faut regarder les données empiriques. Ce n’est pas une tâche triviale en raison de la nature probabiliste et diverse des données empiriques économiques. Dani Rodrik décrit ce processus a un côté davantage artisanal que proprement scientifique.

Donc, dans le cas de la crise financière mondiale, le bon artisan aurait dû constater que les nouvelles méthodes de répartition des risques étaient vulnérables aux événements d’ordre systémique. Le bon artisan aurait vu, s’il avait accès aux données, que la hausse rapide de l’endettement des banques est toujours dangereuse et, plus généralement, que les périodes au cours desquelles on entend dire que "cette fois, les choses sont différentes" ne finissent généralement pas très bien.

Dans ma propre discipline, je pense qu’il y a au moins un domaine qui n’aurait pas dû voir le jour si l’art de la sélection des modèles avait été bien appliqué. Les modèles de cycles d’affaires réels (real business cycles) n’ont jamais réussi à décrire les cycles d’affaires parce que nous savons que les hausses du chômage lors des récessions correspondent à du chômage involontaire. Si vous n’appliquez pas bien cette technique artisanale, alors ce qui peut la remplacer, c’est l’idéologie, la politique ou simplement la pensée de groupe. Ce n’est pas simplement un problème pour quelques économistes pris individuellement, c’est souvent un problème pour la majorité d’entre eux. »

Simon Wren-Lewis, « Economists: too much ideology, too little craft », in Mainly Macro (blog), 9 octobre 2017. Traduit par Martin Anota

lundi 9 octobre 2017

Richard H. Thaler, prix Nobel 2017



« L’économiste américain Richard H. Thaler est un pionnier dans l’économie comportementale, un champ de recherche dans lequel les intuitions tirées de la recherche psychologique sont appliquées à la prise de décision économique. Une perspective comportementale incorpore une analyse plus réaliste de la façon par laquelle les gens pensent et se comportent lorsqu’ils prennent des décisions économiques, ce qui fournit de nouvelles opportunités pour concevoir des mesures et institutions qui accroissent le bénéfice social.

L’économie implique de comprendre le comportement humain dans les situations de prise de décision économique et sur les marchés. Les gens sont des êtres compliqués et nous devons faire des hypothèses simplificatrices si nous désirons construire des modèles utiles. La théorie économique traditionnelle suppose que les gens ont un bon accès à l’information et peuvent la traiter parfaitement. Elle suppose aussi que nous pouvons toujours exécuter nos plans et que nous nous préoccupons de notre seul gain personnel. Ce modèle simplifié du comportement humain a aidé les économistes à formuler des théories qui ont fourni des solutions à des problèmes importants et compliqués en économie. Cependant, les décalages entre la théorie et la réalité sont parfois systématiques et significatifs. Richard Thaler a contribué à étendre et affiner l’analyse économique en considérant trois traits psychologiques qui influencent systématiquement les décisions économiques, en l’occurrence la rationalité limitée, les perceptions relatives à l’équité et le manque de contrôle de soi.

La rationalité limitée


Il n’est pas réaliste de supposer que les gens, avant chaque décision économique, considèrent toutes les alternatives réalisables et toutes les conséquences à long terme de chacune d'entre elles. C’est tout simplement une tâche insurmontable, donc les décisions sont souvent prises en utilisant une focale étroite. Herbert Simon, un autre lauréat du prix Nobel d’économie, a développé le concept de rationalité limitée (bounded rationality), un terme qui fait écho aux limites cognitives des gens et des organisations et aux règles de prise de décision simplifiées que ceux-ci utilisent. On peut trouver un exemple d’une telle limite dans la théorie de la comptabilité mentale (mental accounting), qui décrit comment les gens organisent, formulent et évaluent les décisions financières. Nous tendons à simplifier de telles décisions en créant des comptes distincts dans notre esprit, en prenant des décisions individuelles sur la base de leurs effets sur chacun de ces comptes plutôt que sur la totalité de nos actifs. On peut trouver un exemple dans la façon par laquelle les gens divisent le budget de leur ménage en un compte pour les factures du ménage, un autre pour les vacances, etc., en s'interdisant d’utiliser l’argent d’un compte pour payer quelque chose dans un autre. Ce comportement mène par moments à des coûts supplémentaires, par exemple si l’on n’utilise pas de l’argent d’un compte d’épargne à long terme pour des besoins de court terme, mais que l’on utilise à la place des prêts à la consommation onéreux. En même temps, cela peut nous aider à prévoir nos finances et à protéger notre épargne de long terme.

Un autre élément de comptabilité mentale est que nous utilisons des points de référence pour prendre plus facilement des décisions. Ils diffèrent d’une situation à une autre, c’est-à-dire entre différents comptes mentaux. Un point de référence peut être le prix auquel nous achetons un article ou le prix le plus bas que nous trouvons lorsque nous faisons des recherches sur internet, et nous utilisons ce point de référence pour évaluer si nous avons fait une "bonne affaire". Thaler a fourni de nombreux exemples de la façon par laquelle la comptabilité mentale peut, en s’appuyant sur différents points de référence, mener à des décisions qui s’avèrent étranges lorsqu’on évalue celles-ci d’une perspective économique traditionnelle. Par exemple, un consommateur trouve que la montre qu’il est prêt à acheter coûte 100 euros de moins dans un autre magasin. Il choisit d’aller dans l’autre magasin si la montre coûte 1.000 euros, mais il ne le fait pas si elle coûte 10.000 euros, même si le montant absolu d’épargne est le même dans les deux cas. L’explication est qu’il se focalise sur le pourcentage, plutôt que sur l’épargne relativement au point de référence. Un autre exemple, pris dans l’étude très connue qu’a coréalisé Thaler, est celui d’un chauffeur de taxi qui doit mettre en balance son temps de travail avec son temps libre et sa famille. Le chauffeur résout cela en se fixant des cibles pour son revenu journalier et en mettant un terme à sa journée de travail lorsqu’il a atteint cette cible. Cependant, une telle règle implique que le conducteur finit plus tôt lorsqu’il y a plein de clients et que le revenu horaire est élevé, mais qu’il doit travailler davantage les jours où la demande est faible. Avec une règle différente, il peut gagner plus en travaillant moins et la ville aurait plus de taxis les jours où beaucoup de gens ont besoin d’eux.

Nos expériences passées et nos perceptions de la propriété sont d’autres facteurs qui gouvernent notre prise de décision. Nous voulons normalement plus d’argent lorsque l’on vend quelque chose que nous possédons que nous ne sommes prêts à payer pour acheter exactement le même article, un phénomène que Thaler appelle l’"effet de dotation" (endowment effect). L’un des divers exemples est celui de la fameuse expérience de 1990, conduite par Thaler avec Daniel Kahneman (lauréat en 2002 du prix Nobel) et Jack Knetsch. Dans cette expérience, plusieurs tasses décoratives sont distribuées à des sujets choisis au hasard, qui pouvaient alors choisir s’ils voulaient ou non vendre la tasse à quelqu’un dans un second groupe qui n’avait pas reçu de tasse. Parce que les deux groupes étaient constitués aléatoirement, ils devraient en moyenne donner la même valeur aux tasses et environ la moitié des tasses devraient être vendues. Cependant, il s’avéra que, en moyenne, ceux qui ont reçu les tasses lui donnèrent une valeur plus élevée que dans le groupe de contrôle, celui qui n’en avait pas reçues, et bien moins de la moitié des tasses ont changé de propriétaire.

L’effet de dotation peut avoir des conséquences à long terme, notamment en réduisant les échanges de biens et services et en compliquant la résolution des litiges juridiques. L’explication que propose Thaler pour l’effet de dotation se fonde sur la façon par laquelle les gens tendent à éprouver une plus grande insatisfaction lors d’une perte qu’ils n’éprouvent de satisfaction avec un gain d’un montant aussi élevé, phénomène connu sous le nom d’aversion aux pertes. Se défaire de quelque chose que nous possédons déjà est perçu comme une perte, alors qu’acquérir la même chose est perçu comme un gain.

Plus généralement, ce que nous définissons comme un gain ou une perte dépend du niveau où nous plaçons le point de référence, ce qui est par conséquent important pour notre décision. Par exemple, les ventes au rabais amènent les consommateurs à placer leur prix de référence à un niveau plus élevé qu’ils ne l’auraient sinon fait en temps normal, si bien qu’ils perçoivent l’achat d’un article comme une meilleure affaire qu’ils ne l’auraient fait s’ils avaient acheté cet article au même prix, mais ailleurs. Un autre exemple est celui d’un investisseur sur le marché boursier qui ne considère pas une transaction comme un profit ou une perte tant que les actions ne sont pas vendues. Cela amène généralement les investisseurs à garder leurs actions perdantes pendant longtemps dans l’espoir "que les choses s’améliorent" et à vendre des actions gagnantes trop tôt de façon "à ramener le profit à la maison", alors qu’il est souvent plus rentable de faire l’inverse (pour des raisons fiscales par exemple).

Nos propres expériences influencent aussi les risques que nous sommes enclins à prendre. Une personne qui a récemment gagné de l’argent en Bourse ou dans un casino tend à prendre de plus grands risques qu’une personne qui a récemment perdu de l’argent. Il est moins douloureux de perdre si nous sommes toujours "dans le vert" dans notre compte mental, même si les circonstances sont exactement les mêmes (quelque chose que Thaler appelle l’"effet argent du ménage", house money effect).

Préférences sociales : qu’est-ce qui est juste ?


Lorsqu’ils prennent des décisions, les gens ne prennent pas seulement en compte ce qui leur est bénéfique. Ils ont aussi une certaine idée de ce qui est juste et ils peuvent prendre en compte le bien-être des autres aussi bien positivement (en se montrant coopératifs ou solidaires) que négativement (en se montrant jaloux ou malveillants). Des expériences à grande échelle conduites par Richard thaler et d’autres économistes comportementaux ont montré que les notions autour de la justice jouent un rôle dans la prise de décision. Les gens sont prêts à se priver de bénéfices matériels pour maintenir ce qu’ils estiment être une distribution juste. Ils sont aussi prêts à supporter un coût personnel pour punir des personnes qui ont violé des règles basiques de justice, non seulement lorsqu’ils sont eux-mêmes affectés, mais aussi lorsqu’ils voient quelqu’un d’autre se retrouver dans une situation injuste.

Une objection fréquente est que les résultats des expériences en laboratoire ne peuvent être transférés à la vraie vie, mais il est facile de trouver des exemples où les considérations de justice ont un impact en dehors du laboratoire. Une pluie inattendue peut susciter une forte demande de parapluies, mais si un commerçant accroît alors leurs prix pour faire face à la plus forte demande, plusieurs consommateurs réagissent mal et estiment que le commerçant s’est comporté avec avidité. Les entreprises qui enfreignent les normes de justice peuvent être sanctionnées par des boycotts de la part des consommateurs, ce qui peut les amener à maintenir leurs prix dans les cas où elles les auraient sinon augmentés. De plus, il y a de puissants sentiments à propos de ce qui est juste lorsqu’il s’agit de la rémunération, ce qui affecte la fixation du salaire sur le marché du travail via les comparaisons entre différents groupes de salariés. Il est difficile de faire accepter une baisse du salaire nominal (son niveau courant est le point de référence sous lequel les gens ne veulent pas qu’il chute), alors qu’il est plus facile d’accepter une hausse du salaire nominal qui est inférieure à l’inflation, même s’il conduit à la même chute du salaire réel. (…)

L’économie comportementale en pratique


L’économie comportementale a aussi remis en question le comportement rationnel tel qu’il est considéré dans des domaines tels que la finance. Richard Thaler, avec notamment Robert Shiller (prix Nobel d’économie en 2014), a contribué à la recherche en finance comportementale, un domaine dans lequel les chercheurs se sont penchés sur la volatilité (apparemment injustifiée) des marchés, une volatilité qui semble incompatible avec la théorie des marchés efficients. Thaler a aussi mis à jour ce qui s’apparente à des valeurs de marché négatives pour les actions, ce qui n’est pas rationnel dans la mesure où l’on peut toujours rejeter une action qui n’a pas de valeur. Les expériences avec des sujets qui peuvent choisir entre différents investissements montrent que les gens sont sensibles à l’horizon temporel choisi. Les investisseurs tendent aussi à préférer les titres à faible risque sur des horizons courts, mais lorsqu’on leur présente les résultats potentiels de divers investissements sur des horizons plus longs, ils sont davantage susceptibles de choisir des titres plus risqués, notamment les actions.

On peut considérer que les pratiques communes en marketing cherchent à tirer profit de l’irrationalité du consommateur. Les ventes au rabais ou les offres du type "deux achetés, le troisième offert" donnent aux consommateurs l’impression d’avoir réalisé un gain, ce qui les amène à modifier le point de référence pour évaluer les prix. Les loteries et les paris sont présentés d’une telle façon que l’on surexpose les rares gagnants et en dissimulant la multitude de perdants. De nombreux consommateurs sont séduits par des crédits aux conditions qui leur sont défavorables pour acheter un article qu’ils n’ont pas les moyens d’acheter. Les travaux de Thaler sont fréquemment cités dans la littérature du marketing et ses intuitions et ceux d’autres économistes comportementaux peuvent nous aider à reconnaître les astuces du marketing et à éviter de prendre mauvaises décisions économiques.

Dans plusieurs situations, le soi planificateur nécessite de résister aux tentations. De telles considérations sont derrière les restrictions en matière d’alcool et de drogue dans divers pays, mais dans d’autres contextes on considère que de telles restrictions vont trop loin. Les politiciens et d’autres décideurs peuvent utiliser les études en économie comportementale pour concevoir des alternatives qui s’avèrent bénéfiques à la société. Richard Thaler et Cass Sunstein ont affirmé que, dans divers domaines, les institutions publiques et privées doivent activement chercher à pousser les individus dans la bonne direction (mais en leur laissant toujours la liberté de décider). Cela s’est notamment traduit par l’introduction d’unités incitatives (nudge units) dans divers pays, notamment le Royaume-Uni et les Etats-Unis, des agences qui cherchent à réformer l’administration publique en s’appuyant sur les intuitions de l’économie comportementale. Les améliorations passent souvent par des choses simples, notamment la manière par laquelle l’option par défaut est définie, celle qui se réalise à moins que vous choisissiez activement quelque chose d’autre. Il y a des applications dans des domaines comme l’épargne retraite, le don d’organes et la politique environnementale. Les gens peuvent avoir des difficultés à épargner plus qu’ils ne le font actuellement, parce que cela réduit directement le montant qu’ils peuvent consommer aujourd’hui. Il leur est souvent plus facile de se dire qu’ils épargneront davantage à l’avenir, en particulier s’ils s’attendent à ce que leur salaire augmente. Cette intuition a été utilisée dans le programme "Save More Tomorrow", conçu par Thaler et de façon à accroître l’épargne-retraite. Le programme, dans lequel un individu s’engage à allouer une part de ses hausses futures de salaire pour l’épargne a été utilisé avec succès par diverses entreprises aux Etats-Unis. Dans certains quartiers, ce type de programme a été critiqué pour sa teneur paternaliste, mais il est important de souligner que la participation au programme est entièrement volontaire et que les participants sont libres de le quitter à n’importe quel moment.

Au total, les contributions de Richard Thaler ont jeté un pont entre les analyses économiques et psychologiques de la prise de décision des individus. Ses constats empiriques et ses intuitions théoriques ont contribué au développement du champ nouveau, mais en rapide essor, de l’économie comportementale, qui a eu un profond impact dans divers domaines de la recherche et la politique économiques. »

Académie royale des sciences de Suède, « Easy money or a golden pension? Integrating economics and psychology », octobre 2017. Traduit par Martin Anota

mardi 12 septembre 2017

Les révolutions en politique économique

« La Commission on Economic Justice organisée par le think tank Institute for Public Policy Research (IPPR) vient de publier un long rapport sur l’économie britannique appelé "Time for Change". (…) Sa conclusion est que nous devons connaître une révolution en matière de mise en œuvre de la politique économique, une révolution aussi profonde que celles qui ont été associées au gouvernement Attlee et à Thatcher après la Seconde Guerre mondiale. Le raisonnement derrière l’idée de révolutions en matière de politique économique a été développé par Alfie Stirling et Laurie Laybourne-Langton dans un article publiée The Political Quarterly.

Les auteurs adaptent les idées de La Structure des révolutions scientifiques de Thomas Kuhn à la politique économique. Je ne veux pas m’attarder sur la légitimité ou les détails de cette entreprise. L’idée que certaines périodes impliquent de profonds changements dans la politique économique n’est pas vraiment controversée. De même, l’idée selon laquelle le paradigme défaillant va tout d’abord essayer de s’adapter avant d’être remplacé par l’idée révolutionnaire est facile à accepter. Vous n’avez qu’à regarder l’état des politiques actuelles au Royaume-Uni et aux Etats-Unis pour prendre au sérieux l’idée que ce qu’on appelle le néolibéralisme (l’ensemble des politiques et la vision du monde associés à Thatcher et Reagan) arrive à sa fin.

Il y a plein de choses dans l’article avec lesquelles je suis d’accord, du moins jusqu’aux conclusions. Mais je regrette que l’article se focalise de trop sur la macroéconomie et pense qu’il s’égare ainsi quelque peu. C’est comme si, après avoir emprunté l’idée de Kuhn et l’avoir appliquée à la politique économique, les auteurs se sentaient obligés de revenir à une discipline académique, la théorie macroéconomique, plutôt que de rester avec la politique économique dans son ensemble. Laissez-moi présenter comment je vois la transformation macroéconomique qui a pris place autour de l’époque de Thatcher et de Reagan.

Une énorme erreur que beaucoup de gens commettent est de penser que la théorie macroéconomique keynésienne conventionnelle était incapable d'expliquer la stagflation, mais aussi que les responsables de la politique économique adoptèrent en conséquence le monétarisme ou des idées des nouveaux classiques. La base pour comprendre la stagflation et réduire l'inflation était connue au moins depuis le fameux discours de Friedman en 1968, où celui-ci expliqua son idée de courbe de Phillips augmentée des anticipations. Cette courbe de Phillips n’a pas été utilisée pour guider la politique monétaire ou budgétaire avant la fin des années soixante-dix, car la plupart des décideurs de la politique économique et certains économistes étaient réticents à l'idée d'accroître le chômage en vue de réduire l'inflation.

Au Royaume-Uni, cet usage de la gestion de la demande globale pour contrôler l’inflation (ou sa contrepartie, qui fut l’abandon des tentatives à des contrôles directs comme les politiques de revenu) coïncida avec l’élection de Thatcher, mais aux Etats-Unis, elle fut initiée par Paul Volcker sous la présidence de Jimmy Carter. Aux Etats-Unis et au Royaume-Uni, il a été associé aux tentatives de contrôle des agrégats monétaires, mais cela ne dura que quelques années. Vous pouvez penser que l’abandon des politiques de revenu s’inscrit dans une logique néolibérale, mais je pense pour ma part qu’il s’agit plutôt de la conséquence inévitable de l’inflation à deux chiffres.

Il y a eu une révolution en théorie macroéconomique, mais j'ai souligné ailleurs qu’elle ne colle pas au cadre kuhnien. La contre-révolution menée par les nouveaux classiques n'a pas donné d'analyse alternative de l'inflation : en fait, leurs inquiétudes étaient davantage d’ordre méthodologique. Il est vrai que ceux qui promurent cette contre-révolution étaient partisans du néolibéralisme et que vous pouvez relier le réductionnisme à l'individualisme (et donc le néolibéralisme), mais je pense que l’attrait de cette contre-révolution tient davantage à une collection de bonnes idées auxquelles l'orthodoxie d’alors résista, comme les anticipations rationnelles.

Le ciblage d'inflation par les banques centrales implique une tentative de gestion de l'économie d’une façon assez similaire à celle de l'activisme budgétaire keynésienne auparavant. La banque centrale est une partie de l’État. L'indépendance de la banque centrale au Royaume-Uni date de 1997 et elle était en vigueur aux Etats-Unis bien avant Reagan. La crise financière mondiale a porté un coup fatal à ce que j'appelle le "consensus sur l’assignation" (l’idée que la gestion de la demande doit être du ressort de la politique monétaire et le contrôle de la dette publique du ressort de la politique budgétaire), mais la popularité de cette assignation doit peu au libéralisme. Beaucoup ont beau fréquemment chercher à relier le ciblage d'inflation au néolibéralisme, mais on ne peut établir un tel lien selon moi.

Il est par conséquent problématique de chercher à relier la macroéconomie à l'essor du néolibéralisme et, surtout, cela nous détourne de la réelle révolution en termes de politique économique que représenta le néolibéralisme, en l’occurrence un changement dans l'attitude des responsables politiques vis-à-vis de presque tout genre d’intervention de l’État. (…) Il y a eu un déplacement correspondant du collectif (notamment avec l’attaque des syndicats) à l'individu, notamment avec l'idée que les "créateurs de richesse" (c'est-à-dire ceux qui obtiennent les plus fortes rémunérations) doivent justement être incités à créer de la richesse en réduisant l’imposition "punitive". L'argent public devint l’"argent du contribuable" et ainsi de suite.

Cette révolution néolibérale a été victorieuse, dans le sens où elle s’est maintenue pendant plusieurs décennies. Elle a provoqué, au travers ses excès, de sérieux problèmes et il est temps de la réexaminer. Mais, ironiquement, les tentatives de mise en place d’une politique macroéconomique véritablement néolibérale (un ciblage d’inflation sans intervention, sans gestion de la demande globale) ont échoué à peine quelques années après avoir débuté. »

Simon Wren-Lewis, « Revolutions in economic policy », in Mainly Macro (blog), 12 septembre 2017. Traduit par Martin Anota

- page 1 de 4