Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Epistémologie et histoire de la pensée

Fil des billets

lundi 8 janvier 2018

Pourquoi l’hégémonie des microfondations entrave les progrès en macroéconomie

« Je pense que quand David Vines m’a demandé de contribuer à un numéro de l’Oxford Review of Economic Policy basé sur la "refondation de la théorie macroéconomique", il pensait que j’écrirais sur la façon par laquelle le modèle macroéconomique de base devait changer pour refléter les développements de la macroéconomie depuis la crise en me focalisant tout particulièrement sur la modélisation de l’impact de la politique budgétaire. Cela aurait été un article bien intéressant à écrire, mais j’ai rapidement décidé de parler de choses que je considérais comme bien plus importantes.

Selon moi, le plus grand obstacle à l’avancée de la macroéconomie est l’hégémonie des microfondations. Je voulais qu’au moins un article questionne cette hégémonie. Il s’est avéré que je n’étais pas le seul à rédiger un tel article, que d’autres firent de même. J’ai été particulièrement motivé à le faire quand j’ai vu qu’Olivier Blanchard, dans ses billets de blog où il faisait part de ses réflexions avant d’écrire sa propre contribution, était sur la même longueur d’onde que moi.

Je parlerai des autres articles quand plus de gens auront eu la chance de les lire. Ici, je vais me focaliser sur ma propre contribution. J’ai déjà développé cette réflexion il y a quelques temps sur mon blog et cela m’a amené à penser que la plupart des macroéconomistes qui travaillent dans l’hégémonie des microfondations souffrent d’un blocage mental quand ils sont confrontés à des approches de modélisation alternatives. (…)

Imaginons un modèle DSGE, "estimé" par des techniques bayésiennes. Pour être spécifiques, supposons qu’il contienne une fonction de consommation intertemporelle standard. Ensuite, supposons que quelqu’un ajoute un terme dans le modèle, disons le chômage dans la fonction de consommation et par là même améliore significativement l’ajustement (fit) du modèle vis-à-vis des données. Il n’est pas difficile de comprendre pourquoi l’ajustement s’améliore significativement : par exemple, le chômage peut être un indicateur de l’incertitude entourant revenu du travail. La question clé devient alors : quel est le meilleur modèle pour examiner la politique macroéconomique ? Le modèle DSGE originel ou le modèle augmenté ?

Le macroéconomiste des microfondations va sans doute tendre à dire le modèle DSGE originel, parce que seul ce modèle est connu comme étant théoriquement cohérent. (Ils peuvent se contenter de dire que ce modèle satisfait mieux la critique de Lucas, mais la cohérence interne reste un critère plus général.) Mais une réponse également valide consisterait à dire que le modèle DSGE originel va donner des réponses de politique incorrectes, parce qu’il néglige un lien important entre le chômage et la consommation, si bien qu’on doit lui préférer le modèle augmenté.

Il n’y a absolument rien qui dise que la cohérence interne soit plus importante que la mauvaise spécification (relative). D’après mon expérience, lorsqu’ils sont confrontés à ce fait, certains concepteurs de modèles DSGE ont recours à deux tactiques de diversion. La première, qui consiste à dire que tous les modèles sont mal spécifiés, ne vaut pas la peine d’être discutée. La seconde consiste à dire qu’aucun modèle n’est satisfaisant et que de nouvelles recherches sont nécessaires pour incorporer l’effet du chômage de façon cohérente.

Je n’ai pas de problème avec cette réponse en soi et, pour cette raison, je n’ai pas de problème avec le projet des microfondations en tant que manière de faire de la modélisation macroéconomique. Mais dans ce contexte particulier c’est une esquive. Il n’y aura pas, du moins tant que je serais en vie, un modèle DSGE qui ne puisse être amélioré en ajoutant des effets plausibles, mais potentielles incohérents, comme l’influence du chômage sur la consommation. Par conséquent, si vous pensez que les modèles qui sont significativement meilleurs dans l’ajustement aux données doivent être préférés aux modèles DSGE (…), alors ces modèles augmentés vont toujours battre le modèle DSGE pour modéliser la politique économique.

(…) Il existe une méthodologie alternative pour construire des modèles macroéconomiques qui n’est pas inférieure à l’approche des microfondations. Elle commence avec une certaine spécification théorique, qui peut être un modèle DSGE comme dans l’exemple, et elle étend ensuite celle-ci en des voies qui sont théoriquement plausibles et qui améliorent aussi significativement l’ajustement du modèle, mais qui ne sont pas formellement dérivées des microfondations. Je qualifie un tel modèle de modèle économétrique structurel (structural econometric model) et Blanchard de modèle de politique économique (policy model).

Ce que je souligne tout particulièrement dans mon article, c’est que ces méthodologies ne sont pas contradictoires, mais bien complémentaires. Les modèles économétriques structurels comme je les décris ici débutent avec la théorie microfondée. (Bien sûr, les modèles économétriques structurels peuvent aussi commencer avec la théorie non-microfondée, mais le bien-fondé d’une telle stratégie est un autre débat que je ne veux pas aborder ici.) En tant que produit fini, ils fournissent plusieurs agendas de recherche pour la modélisation microfondée. Donc la conception de modèles DSGE peut fournir le point de départ pour les concepteurs de modèles économétriques structurels ou les modèles de politique économique et ces modèles peuvent alors, lorsqu’ils sont complétés, fournir un agenda de recherche pour les concepteurs de modèles DSGE.

Une fois que vous saisissez cette complémentarité, vous pouvez saisir pourquoi je pense que la macroéconomie se développerait bien plus rapidement si les universitaires s’échinaient à développer aussi bien des modèles économétriques structurels que des modèles DSGE. L’erreur que les nouveaux classiques ont commise dans leur contre-révolution a été d’écarter les précédentes façons de modéliser l’économie, au lieu de les compléter avec des approches additionnelles. Chaque méthodologie, prise isolément, va se développer bien plus lentement que si elles étaient combinées. Ou, pour le dire autrement, la recherche basée sur les modèles économétriques structurels est bien plus efficace que l’approche de résolution d’énigmes qui est aujourd’hui utilisée.

Dans cet article, j’essaye d’imaginer ce qui se serait passé si le projet des microfondations s’était contenté d’augmenter la macroéconomie existante (c’est-à-dire les modèles économétriques structurels) plutôt que de l’écarter. Je pense que nous avons de bonnes preuves qu’une complémentarité active entre modèles économétriques structurels et modélisation des microfondations aurait permis de mieux cerner les liens entre secteurs réel et financier avant la crise financière mondiale. L’hégémonie des microfondations a choisi de s’attaquer aux mauvaises énigmes, détournant ainsi la macroéconomie de questions empiriques bien plus importantes. La même chose peut se reproduire si l’hégémonie des microfondations demeure. »

Simon Wren-Lewis, « Why the microfoundations hegemony holds back macroeconomic progress », in Mainly Macro (blog), 6 janvier 2018. Traduit par Martin Anota

vendredi 22 décembre 2017

Le débat autour de l'économie, encore et encore

« Le débat sur la profession des économistes (sur leurs possibles maux et défaillances) s’essouffle par moment, mais ne s’éteint jamais. (…) J’en profite pour actualiser mes réflexions sur ce débat, sous la forme de deux dizaines de commandements. Le premier ensemble s’adresse directement aux économistes et le second aux non-économistes.

Dix commandements pour les économistes :

1. L’économie est une collection de modèles ; choyez leur diversité.

2. C’est un modèle, pas "le" modèle.

3. Simplifiez suffisamment votre modèle pour isoler les causes spécifiques et la façon par laquelle elles agissent, mais pas de trop, pour ne pas négliger des interactions clés entre elles.

4. Il n’y a pas de problème avec les hypothèses irréalistes ; il y en a un si les hypothèses critiques sont irréalistes.

5. Le monde est (presque) toujours un second-best.

6. Pour confronter un modèle au monde réel vous avez besoin de diagnostics empiriques explicites, ce qui relève davantage de l’artisanat qu’à la science.

7. Ne confondez pas l’accord entre les économistes avec la certitude quant à la façon par laquelle le monde marche.

8. Ce n’est pas grave si vous dites "je ne sais pas" lorsqu’on vous interroge sur l’économie ou la politique économique.

9. L’efficacité n’est pas tout.

10. Substituer vos valeurs à celles du public est un abus de votre expertise.

Dix commandements pour les non-économistes :

1. L’économie est une collection de modèles sans conclusions prédéterminées ; rejetez sinon les arguments.

2. Ne critiquez pas le modèle d’un économiste en raison de ses hypothèses ; demandez-lui quels seraient les résultats si certaines hypothèses étaient plus réalistes.

3. L’analyse requiert de la simplicité ; attention à l’incohérence qui se fait passer pour de la complexité.

4. Ne soyez pas effrayé par les maths : les économistes utilisent les maths non pas parce qu’ils sont intelligents, mais parce qu’ils ne le sont pas assez.

5. Quand un économiste fait une recommandation, demandez-lui ce qui l’amène à penser que le modèle sous-jacent s’applique au cas en question.

6. Quand un économiste utilise le terme "économie du bien-être", demandez-lui de préciser ce qu’il entend par là.

7. Faites attention aux économistes qui ne disent pas la même chose en public que lors des séminaires.

8. (Tous) les économistes n’aiment pas les marchés, mais ils savent mieux que vous comment ils fonctionnent.

9. Si vous pensez que les économistes pensent la même chose, allez à l’un de leurs séminaires.

10. Si vous pensez que les économistes ne sont grossiers qu’avec les non-économistes, allez assister à l’un de leurs séminaires.

J’ai passé suffisamment de temps avec les non-économistes pour savoir que leur critique manque souvent le point. En l’occurrence, plusieurs non-économistes ne comprennent pas l’utilité d’une modélisation parcimonieuse (en particulier du genre mathématique). Leur riposte consiste typiquement à dire "mais c’est plus compliqué que ça !". Ça l’est, bien sûr. Mais sans simplification, il ne peut pas y avoir d’analyse utile.

Les économistes, d’un autre côté, sont très bons pour modéliser, mais pas si bons que ça lorsqu’il s’agit de naviguer entre leurs modèles. En l’occurrence, ils confondent souvent leur modèle avec "le" modèle. Une grosse partie du problème est que la méthode scientifique à laquelle ils souscrivent implicitement est une méthode qui consiste pour eux à chercher constamment à atteindre le "meilleur" modèle.

Les macroéconomistes sont particulièrement mauvais à cela, ce qui explique en partie leur mauvaise performance. En l’occurrence, il y a trop de "le bon modèle est-il néoclassique ou keynésien ?" et trop peu de "comment pouvons-nous savoir si c’est le modèle keynésien ou le modèle néoclassique qui est le plus pertinent et approprié à cet instant précis dans ce contexte particulier ?".

Dani Rodrik, « The economics debate, again and again », 21 décembre 2017. Traduit par Martin Anota

jeudi 14 décembre 2017

La querelle autour des modèles DSGE continue

« Les modèles dynamiques stochastiques d’équilibre général DSGE ont fait l’objet de vives critiques depuis la crise financière. Un récent document de Christiano, Eichenbaum et Trabandt (qui cherchent à défendre les modèles DSGE) a suscité toute une vague de réactions dans la blogosphère économique. Nous passons en revue les plus récentes contributions à ce sujet…

Un récent document de travail réalisé par Christiano, Eichenbaum et Trabandt sur les modèles dynamiques stochastiques d’équilibre général (DSGE) a suscité de nombreuses réactions sur la blogosphère. Dans ce document, les auteurs affirment que les modèles DSGE d’avant-crise ont certes eu des défauts que la crise a mis en évidence, mais que des progrès ont été réalisés au cours des dix dernières années, notamment en incorporant des fictions financières et l’hétérogénéité dans les modèles DSGE. Christiano et ses coauteurs s’attendent ainsi à ce que les modèles DSGE restent un outil primordial à la disposition des macro-économistes pour étudier les phénomènes agrégés et la politique économique, parce qu’il n’y aurait tout simplement pas d’alternative crédible pour l’analyse de la politique économique dans un monde où diverses forces économiques se font concurrence.

De nombreuses critiques suscitées par le document de travail se réfèrent à la première version publiée en ligne, qui n’est cependant plus disponible (la dernière version est celle datée du 27 novembre). Noah Smith a cité quelques extraits de la première version, en particulier un passage dans laquelle Christiano et ses coauteurs qualifient de "dilettantes" les personnes qui n’aiment pas les modèles DSGE, au motif que celles-ci mettraient certes en avant l’existence des forces concurrentes à l’œuvre (et jugent leur importance relative via d’implicites expériences de pensée) sans pouvoir jamais donner de sérieuses recommandations en matière de politique économique. Smith affirme que la ligne de défense des modèles DSGE que proposent Christiano et ses coauteurs comme seule façon de faire des prédictions quantitatives à propos des effets des changements de politique économique est erronée, parce qu’il y a au moins deux autres approches très communes, en l’occurrences les modèles économétriques structurels et les modèles autorégressifs vectoriels (VAR) structurels. Un modèle structurel n’est en outre pas toujours nécessaire pour faire des prédictions quantitatives à propos de la politique économique, comme cela peut être réalisé sous forme réduite. Quand les changements de politique économique peuvent être traités comme des expériences naturelles, leurs effets (notamment les effets d’équilibre général) peuvent être mesurés directement au lieu d’être inférés à partir d’un modèle structurel. Mais Christiano et ses coauteurs ignorent l’existence des expériences naturelles, malgré la popularité croissante de cette approche en science économique.

Bradford DeLong souligne que les modèles nouveaux keynésiens ont été élaborés pour montrer que les conclusions des vieux keynésiens et des vieux monétaristes en matière de politique économique étaient relativement robustes et qu’elles n’étaient pas remises en cause par l’acceptation de l’hypothèse des anticipations rationnelles. Ils ont été élaborés pour montrer qu’il est extrêmement fragile de conclure à l’insensibilité des variables réelles vis-à-vis des politiques systématiques. Lucas et ses disciples suivirent ensuite Prescott sur le territoire des cycles d’affaires réels, en prenant une erreur résiduelle et en affirmant qu’elle constitue leur principale variable conductrice exogène. Le cadre DSGE fut alors construit afin que les nouveaux keynésiens puissent communiquer avec les partisans des cycles d’affaires réels. Rien de tout cela n’a permis, jusqu’à présent, de faire des progrès concrets dans la compréhension des propriétés émergentes en matière de politique macroéconomique des économies réelles.

Jo Mitchell pense que Christiano et ses coauteurs cherchent à affirmer qu’on ne peut pas faire de la macroéconomie correctement sans modèle DSGE. Mais sur quelle base pouvons-nous dire que la macroéconomie DSGE est « faite proprement » ? Il y a deux endroits où l’on peut procéder à une validation empirique : les données microéconomiques et les données macroéconomiques. Trente ans de recherche en matière de modèles DSGE n’ont produit qu’un seul résultat empiriquement plausible : la courbe de Phillips augmentée des anticipations. Et elle était déjà bien connue avant. Il y a un revirement ironique ici : la faillite de la courbe de Phillips dans les années soixante-dix traça la voie vers la réussite pour les nouveaux classiques. La faillite de la courbe de Phillips à présent (dans l’autre direction) laisse les modèles DSGE avec aucun accomplissement vérifiable. Le document de Christiano et ses coauteurs a au moins un mérite : celui de confirmer ce que les macro-économistes au sommet de la discipline pensent à propos de leurs collègues sur les échelons inférieurs, en particulier ceux qui adoptent une position critique. (...)

Selon Chris Surro, le problème avec les modèles DSGE n’est pas qu’ils sont incapables d’expliquer des phénomènes économiques spécifiques : ils peuvent expliquer quasiment n’importe quel phénomène que vous pouvez imaginer, mais nous n’avons finalement aucun moyen pour décider quels modèles sont meilleurs que d’autres, si ce n’est en les confrontant aux données qu’ils sont censés expliquer. Tout ce que le modèle DSGE apporte est un ensemble d’hypothèses que tout le monde sait fausses (…). Christiano et ses coauteurs ne font rien pour répondre à cette critique. Surra affirme que la macroéconomie doit faire l’exact opposé : commencer par avoir les bonnes hypothèses. Puisque nous nous ne serons jamais capables de capturer toutes les complexités d’une véritable économie, l’économie du modèle est différente d’une économie réelle. Cependant, si les hypothèses qui fondent cette économie fictive sont réalistes, le modèle peut toujours fournir des réponses qui sont pertinentes pour le monde réel. Un modèle qui colle aux faits, mais dont les hypothèses sont irréalises, ne peut apporter des réponses pertinentes. »

Silvia Merler, « The DSGE model quarrel (again) », in Bruegel (blog), 11 décembre 2017. Traduit par Martin Anota

samedi 2 décembre 2017

L’élaboration et la réception du discours présidentiel de Friedman

« Dans quelques semaines, le fameux discours présidentiel où Milton Friedman a introduit la notion de taux de chômage d’équilibre et s’est opposé à l’usage de la courbe de Phillips dans la politique macroéconomique fêtera ses 50 ans. Il a atteint plus de 8.000 citations, c’est-à-dire davantage que l’ensemble des preuves de l’existence d’un équilibre général apportées par Arrow, Debreu et McKenzie, davantage que l’article de Lucas où celui-ci avance sa fameuse critique. Dans un article qui sera présenté à la session anniversaire organisée par l’American Economic Association en janvier, Greg Mankiw et Ricardo Reis se sont demandé "ce qui explique la grande influence de ce travail", qu’ils interprètent comme "le point de départ pour les modèles d’équilibre général stochastiques dynamiques" (DSGE). Ni leur article, ni la contribution d’Olivier Blanchard qui sera également présentée à cette conférence, ne montrent comment l’allocution de Friedman a pu capturer l’opinion des macroéconomistes. C’est une tâche pour laquelle les historiens de la pensée économique (dont aucun n’est invité à la session anniversaire) sont les mieux équipés. En l’occurrence, plusieurs travaux historiques ont récemment éclairé comment Friedman a élaboré son allocution et comment celle-ci s’est divulguée.

L’élaboration de l’allocution présidentielle de Friedman


Un vendredi soir de décembre 1967, dans le Sheraton Hall de Washington, le président de l’American Economic Association Milton Friedman commença son allocution présidentielle ainsi : "Il y a un large accord à propos des objectifs majeurs de la politique économie : un emploi élevé, des prix stables et une croissance rapide. Il y a par contre plus de désaccords à l’idée que ces objectifs puissent être mutuellement compatibles ou, parmi ceux qui les considèrent comme incompatibles, à propos les modalités par lesquelles ils peuvent et doivent se substituer l’un à l’autre. Il y a plus de désaccords à propos du rôle que divers instruments de politique économique peuvent et doivent jouer pour atteindre les divers objectifs. Mon sujet ce soir portera sur le rôle d’un de ces instruments – la politique monétaire",

Comme l’a expliqué James Forder, Friedman a réfléchi à son allocution pendant au moins 6 mois. En juillet, il avait écrit un premier brouillon, appelé "Can full employment be a criterion of monetary policy?" ("Le plein emploi peut-il être un critère de politique monétaire ?"). A cette époque, Friedman voulait remettre en cause l’idée qu’il existe un arbitrage entre inflation et chômage. L’idée "que le plein emploi (…) puisse être atteint et doive être un critère spécifique de politique monétaire, que cette dernière doive être accommodante quand le chômage est élevé (…) est tellement tenue pour acquise qu’il vous sera difficile de croire que (…) cette croyance est fausse", écrit-il. L’une des raisons qu’il invoque est qu’il existe un "taux de chômage naturel (…), dont le niveau serait celui qui serait généré par un système walrasien d’équations d’équilibre", un chômage qu’il est difficile de cibler. Il a ensuite cherché à expliquer pourquoi il n’y avait pas, en fait, d’arbitrage à long terme entre inflation et chômage.



Dans l’essentiel du raisonnement, il n’y a pas de référence explicite à la "courbe de Phillips" ; cette dernière n’est discutée sur deux pages. Friedman, qui avait, en restant à la LSE en 1952, abondamment discuté de l’inflation et des anticipations avec notamment William Phillips et Phillip Cagan, expliqua que la confusion entre salaires réels et nominaux du premier était peut-être compréhensible dans une ère de prix stables, mais qu’elle était désormais devenue problématiques. En effet, comme l’inflation pousse les salaires réels (et le chômage) à la baisse, les anticipations s’adaptent : "il y a toujours un arbitrage temporaire entre l’inflation et le chômage ; il n’y a pas d’arbitrage permanent. L’arbitrage temporaire ne vient pas de l’inflation en soi, mais de l’inflation non anticipée, c’est-à-dire généralement une accélération de l’inflation", conclut-il.

Mais au final, l’allocution que Friedman donna en décembre couvrit un domaine beaucoup plus vaste. L’allocution commença avec la démonstration que la politique monétaire ne peut pas ancrer les taux d’intérêt et la section sur le taux de chômage naturel s’est trouvée complétée par des réflexions sur la façon par laquelle la politique monétaire doit être conduite. En lien avec ce qu’il conseillait depuis 1948, Friedman suggéra que les autorités monétaires devaient obéir à trois principes : (1) ne pas faire de la politique monétaire une force perturbatrice ; (2) cibler des grandeurs que les autorités peuvent contrôler et (3) éviter de brutales fluctuations. Ces trois principes seraient mieux combinés quand la banque centrale "adopte publiquement une politique visant à atteindre un taux régulier de croissance comme celui d’un total monétaire précis", ce qui fut par la suite appelé la "règle de k %" de Friedman.

L’interprétation habituelle de l’allocution de Friedman est précisément celle véhiculée par Mankiw et Reis, c’est-à-dire celle d’une réaction à la présentation de la courbe de Phillips par Samuelson et Solow en 1960 comme un "menu d’options entre divers degrés de chômage et de stabilité des prix". Mankiw et Reis supposent que cette interprétation, avec l’idée que l’arbitrage puisse varier au cours du temps, était si acceptée qu’ils considèrent Samuelson, Solow et leurs disciples comme le seul public auquel Friedman cherchait à s’attaquer. Pourtant, Forder et Robert Leeson, entre autres, ont apporté des preuves robustes que les macroéconomistes présentaient déjà une approche bien plus subtile du ciblage du chômage dans la politique monétaire. La nature des anticipations et la forme des anticipations faisaient l’objet de nombreuses discussions aussi bien aux Etats-Unis qu’au Royaume-Uni. Samuelson, Phelps, Cagan, Hicks ou Phillips avaient régulièrement indiqué, aussi bien dans des publications universitaires que dans des journaux, que l’idée d’un arbitrage doit être sérieusement nuancée en théorie et ne doit en aucun cas guider la politique monétaire à la fin des années soixante. Friedman lui-même avait déjà consacré tout une chronique en 1966 dans Newsweek pour expliquer pourquoi il y aurait "une récession inflationniste".

Cet environnement intellectuel, aussi bien que le changement de focale de la version définitive de cette allocution amena Forder à conclure qu’"il n’y a pas de preuve que Friedman ait voulu mettre l’accent sur un quelconque argument à propos des anticipations ou de la courbe de Phillips et (…) qu’il n’aurait pas trouvé un tel argument nouveau, surprenant ou intéressant". Nous sommes en désaccord avec cette idée. En effet, un discours devant l'AEA constituait un forum dont Friedman ne pouvait négliger la portée, d'autant plus que les débats académiques et politiques sur la politique monétaire prenaient de l'ampleur à l'époque. Le lendemain de l’allocution de Friedman, William Poole, de John Hopkins, présenta un article intitulé "Monetary Policy in an Uncertain World" ("La politique monétaire dans un monde incertain"). Six moins après, la Réserve fédérale de Boston tint une conférence sur "le contrôle des agrégats monétaires". Présentée comme la première d’une "série couvrant une large gamme de problèmes financiers ou monétaires", son propos était de faciliter les échanges sur l’"une des questions de politique économique les plus pressantes actuellement, le rôle de la monnaie dans l’activité économique". Cela amena Samuelson, David Meiselman, James Tobin, Alan Meltzer, John Kareken à se pencher ensemble sur le "modus operandi de la Réserve fédérale", James Duesenberry sur "les tactiques et les cibles de la politique monétaire" et le membre du comité Sherman Maisel sur "le contrôle des agrégats monétaires". Lorsqu’il ouvrit la conférence, Samuelson proposa à ce que "la question centrale qui soit débattue les jours suivants en connexion avec la macroéconomie soit la doctrine du monétarisme", citant, non pas la récente allocution de Friedman, mais son Histoire monétaire des Etats-Unis de 1963, réalisée avec Anna Schwartz. Cette même année, le Journal of Money, Credit and Banking a été créé, suivi par le Journal of Monetary Economics en 1973. Les économistes ont joué un plus grand rôle à la Fed depuis 1965, quand Ando et Modigliani furent chargés de développer d’un large modèle macroéconométrique (…).

En réfléchissant au "rôle de la politique monétaire" à un tel moment crucial, Friedman essayait donc de s’adresser à des publics bien différents. C’est pour cela que son discours était à la fois théorique, historique et orienté vers la politique économique, qu’il a amalgamé divers arguments avec l’objectif de proposer un ensemble convaincant. Le fait que, dans des contextes et des débats scientifiques changeants, ces différents publics aient retenu, souligné et naturalisé différents morceaux de l’ensemble nous empêche de bien suivre sa divulgation et de bien saisir son influence.

Le discours de Friedman dans le contexte des années soixante-dix


La divulgation au sein du monde universitaire


Ce sont les macroéconomistes universitaires auquel Friedman s’adressa le plus directement. Le récit canonique (celui dont Mankiw et Reis font écho) est que l’allocution de Friedman a ouvert la voie au déclin du keynésianisme et à l’essor de la nouvelle école classique, pour ne pas dire des modèles DSGE. Mais certaines recherches historiques en cours que l’un d’entre nous (Aurélien) réalise en collaboration avec Goulven Rubin suggèrent que ce furent plutôt des économistes keynésiens (et non les nouveaux classiques) qui impulsèrent la diffusion de l’hypothèse du taux de chômage naturel. Un protagoniste clé fut Robert Gordon, qui venait juste d’achever sa thèse sur les "problèmes de la mesure de l’investissement réel dans le secteur privé de l’économie américaine" sous la direction de Solow au MIT lorsque Friedman fit son discours. Il rejeta initialement l’hypothèse de taux de chômage naturel ; il ne l’adopta que bien après, dans ce qui deviendra le modèle du manuel élémentaire des nouveaux keynésiens à la fin des années soixante-dix.

Ce n’est pas la théorie qui l’amena à changer d’avis. Ce furent les données empiriques : dans la courbe de Phillips où l’inflation salariale dépend des anticipations d’inflation et du chômage que Solow et lui-même estimèrent séparément en 1970, le paramètre associé aux anticipations d’inflation était extrêmement faible, chose qui l’amena à rejeter l’argument accélérationniste de Friedman. Par conséquent, Gordon trouvait que l’impact du changement de la composition de la population active (en termes d’âge et de sexe) sur le taux de chômage structurel, mis en lumière par George Perry, constituait une meilleure explication pour l’accélération de l’inflation à la fin des années soixante. En 1973, le paramètre avait suffisamment augmenté pour que l’économiste keynésien change d’avis. Il importa le taux de chômage naturel dans un modèle sans apurement avec une concurrence imparfaite et des rigidités salariales, ce qui permettait de faire apparaître un chômage involontaire et surtout préservait la justification de politiques monétaires actives de stabilisation.

Le manuel de 1978 où Gordon introduisit son cadre offre globale-demande globale présenta tout un chapitre sur la courbe de Phillips, dans lequel il s’appuyait explicitement sur l’allocution de Friedman pour expliquer pourquoi la courbe était supposée verticale à long terme. Les éditions suivantes continuèrent de se référer au taux de chômage naturel et à la verticalité à long terme, mais plutôt expliqués avec la concurrence imparfaite et la rigidité des salaires. 1978 fut aussi l’année où Stanley Fischer et Rudiger Durnbusch publièrent leur ouvrage Macroeconomics (le modèle des manuels de macro ultérieurs). Les deux auteurs firent allusion à un possible arbitrage à long terme, mais comme Gordon, établie sur une courbe de Phillips verticale à long terme. A la différence de Gordon, cependant, ils présentèrent immédiatement des fondations "keynésiennes".

Au même instant, les nouveaux classiques empruntèrent une autre voie. Ils se proposèrent d’"améliorer" les propos de Friedman en les rendant cohérents avec les anticipations rationnelles, en pointant la conséquence théorique de cette nouvelle classe de modèles pour la politique monétaire. En 1972, Robert Lucas montra clairement que la règle de "k %" de Friedman est optimale dans son modèle d’anticipations rationnelles avec asymétrie d’informations et Thomas Sargent et Neil Wallace confirmèrent bientôt qu'"une règle de croissance de X pourcents pour l’offre de monnaie est optimale dans ce modèle, du point de vue de la minimisation de la variance de la production réelle". La critique de Lucas de 1976 insista davantage sur le fossé entre le contenu des modèles macroéconométriques structuraux keynésiens, notamment ceux utilisés par la Fed, et les idées de Friedman.

L’impact sur la politique économique


Divers économistes au Sheraton Hall de Washington et notamment Friedman lui-même eurent bientôt pour tâche d’évaluer la pertinence de l’allocution pour la politique économique. C’est Arthur Burns, l’analyste des cycles d’affaires au NBER, l’économiste de Rutgers qui convainquit le jeune Friedman de poursuivre une carrière d’économiste, qui présida la session de l’American Economic Association. Il quitta la salle convaincu par Friedman que l’inflation découle des anticipations adaptatives. Lors d’une audience de confirmation au Congrès en décembre 1969, il déclara : "je pense que la courbe de Phillips est une généralisation, une généralisation très sommaire, pour les mouvements de court terme et je pense que même à court terme la courbe de Phillips peut être changée". Quelques semaines après, il fut placé à la tête de la Réserve fédérale. Edward Nelson a montré comment, au grand désarroi de Friedman, les vues changeantes de Burns l’amenèrent rapidement à appuyer le contrôle des prix et des salaires que proposait par Nixon et qui fut instauré en août 1971. En réaction, les monétaristes Karl Brunner et Allan Meltzer fondèrent en 1973le "comité parallèle d’open market" (Shadow Open Market Committee). Comme l’expliqua par la suite Meltzer, "Karl Brunner et moi-même avons décidé d’organiser un groupe pour critiquer cette décision et signaler en quoi c’est une erreur d’affirmer que les contrôles peuvent stopper l’inflation".



Alors que les contrôles des prix et des salaires étaient supprimés en 1974, l’indice des prix à la consommation augmenta soudainement de 12 % (suite au choc pétrolier d’octobre 1973) et le chômage augmentait, pour atteindre 9 % en 1975. Ce double fléau, que le politicien britannique Ian MacLeod qualifia de "stagflation" en 1965, divisa profondément le pays (aussi bien que les économistes, comme le montre la fameuse couverture du Time en 1971). A quoi devait-on tout d’abord s’attaquer, au chômage ou à l’inflation ? En 1975, le sénateur Proxmire, membre du comité sur l’activité bancaire du Sénat, soumit une résolution qui visait à forcer la Fed à se coordonner avec le Congrès, en prenant en compte la hausse de la production et "l’emploi maximal" avec la stabilité des prix dans ses objectifs, et à présenter des "fourchettes numériques" pour la croissance de la masse monétaire. Friedman fut appelé à témoigner et le rapport du Sénat qui en résulta fit écho à l’affirmation de son allocution de 1968 selon laquelle il n’y aurait pas d’"arbitrage à long terme" : "il semble qu’il n’y ait pas d’arbitrage à long terme. Par conséquent, il n’y a pas besoin de choisir entre le chômage et l’inflation. Plutôt, l’emploi maximal et la stabilité des prix sont des objectifs compatibles (…) à long terme (…) à condition que la stabilité soit atteinte avec une croissance des agrégats monétaires et de crédit qui soit compatible avec la croissance du potentiel productif de l’économie".

S’il n’y a pas d’arbitrage à long terme, alors rechercher explicitement l’emploi maximal n’était pas nécessaire. La stabilité des prix favoriserait l’emploi et le programme de politique économique de Friedman s’en trouverait confirmé.

La Résolution 133 qui en résulta n’empêcha toutefois pas le personnel de la Fed de saper les tentatives du Congrès visant à prendre le contrôle de la politique monétaire : sa stratégie consistait à présenter un ensemble confus de cinq mesures différentes d’agrégats monétaires et de crédit. Entretemps, d’autres assauts sur le mandat de la Fed gagnèrent en vigueur. Les activistes de l’emploi, en particulier ceux qui, dans le sillage de Coretta Scott King, faisaient valoir que les travailleurs noirs étaient tout particulièrement touchés par le chômage, multiplièrent les manifestations. En 1973, le parlementaire noir de Californie Augustus Hawkins a organisé une conférence pour dessiner les contours d’une "politique de plein emploi pour l’Amérique". On demanda aux participants de discuter des ébauches d’un projet de loi soumis conjointement par Hawkins et le sénateur du Minnesota Hubert Humphrey, membre du Comité économique mixte. Promulguée en 1978 sous le nom de "loi du plein emploi et de la croissance équilibrée" (Full Employment ad Balanced Growth Act), cette loi institua la surveillance de la politique monétaire par le Congrès. Elle exige de la Fed qu’elle fournisse un compte-rendu deux fois par an auprès du Congrès et qu’elle établisse et suive une règle monétaire qui prenne en compte l’inflation et le chômage. Les conséquences de la loi ont donné lieu à de vifs débats dès 1976 au sein de l’American Economic Association, dans le Journal of Monetary Economics ou dans la revue Challenge. Les passions suscitées par la loi contrastèrent avec les effets de celle-ci sur la politique monétaire, effets qui, de nouveau, furent limités. L’année suivante, Paul Volcker prit la tête de la Fed et, en octobre, il annonça abruptement que la Fed fixerait des règles contraignantes pour la création de réserves et laisserait les taux d’intérêt dériver si nécessaire.

Une transmission compliquée entre sphère universitaire et décideurs publics


L’allocution de 1967 circula donc initialement dans la sphère universitaire et dans les cercles de politique publique, avec des retombées qui n’ont pas toujours plu à Friedman. Le taux de chômage naturel a été adopté par certains économistes keynésiens parce qu’il semblait robuste sur le plan empirique ou, tout du moins, utile, mais il fut introduit dans des modèles soutenant une politique monétaire discrétionnaire de stabilisation. Les règles de politique monétaire furent graduellement introduites dans le cadre légal présidant la conduite de la politique monétaire, mais elles le furent avec l’objectif de réorienter la Fed vers la poursuite de l’emploi maximal. Paradoxalement, on a beau avoir l’habitude de présenter les travaux des nouveaux classiques comme le canal de transmission clé par lequel l’allocution s’est diffusée dans la science économique et au-delà de celle-ci, ces travaux semblent à première vue n’avoir qu’un lien lointain avec la politique économique.

En effet, on doit lire attentivement les articles séminaux des années soixante-dix qui sont habituellement associés à la "révolution des nouveaux classiques" pour trouver des références au contexte trouble de la politique économique. Le cadre de l’article de Finn Kydland et Edward Prescott sur "la règle versus la discrétion" ("Rules versus discretion"), dans lequel l’usage des anticipations rationnelles mit en lumière des problèmes de crédibilité et d’incohérences temporelles, était entièrement théorique. Il se conclut par la phrase cryptique : "il peut y avoir des accords institutionnels qui rendent le changement des règles de politique économique un processus difficile et chronophage sauf dans les situations d’urgence. Un possible accord institutionnel consisterait pour le Congrès à introduire des règles de politique monétaire et budgétaire et à ce que ces règles deviennent effectives après seulement un délai de deux ans. Cela rendrait la politique discrétionnaire impossible". De même, Sargent et Wallace débutèrent leur article sur la "déplaisante arithmétique monétariste" ("unpleasant monetarist arithmetic") de 1981 en discutant de l’allocution présidentielle de Friedman, mais ils s’empressèrent d’ajouter que l’article avait été conçu comme une démonstration théorique de l’impossibilité de contrôler l’inflation. Aucune des controverses institutionnelles ne fut mentionnée, mais l’auteur avait fini l’un de ses travaux antérieurs avec cette phrase : "Nous avons écrit cet article, non pas parce que nous pensons que notre hypothèse à propos du jeu que se livrent les autorités monétaires et budgétaires décrit la façon par laquelle les politiques monétaires et budgétaire doivent être coordonnées, mais par crainte qu’elle puisse décrire la façon par laquelle le jeu est actuellement joué".

Robert Lucas fut le seul à écrire un article qui débattit explicitement du programme monétaire de Friedman et pourquoi il avait "un impact si limité". Présenté à la conférence du NBER en 1978, il lui fut demandé de discuter de "ce que la politique économique aurait dû être en 1973-1975", mais il déclina. La question était "mal posée", selon lui. La source du chaos économique des années soixante-dix, continua-t-il, se situait dans l’incapacité à construire des institutions monétaires et budgétaires appropriées, chose dont il discuta abondamment. En mentionnant la "révolte des contribuables", il salua la Proposition 13 de la Californie qui visait à limiter les taxes sur la propriété. Il défendit ensuite la Résolution 133, qui exigeait de la Fed qu’elle annonce au préalable des cibles de croissance monétaire, en espérant un prolongement plus contraignant.

Cette distance contraste avec la volonté des économistes monétaristes et keynésiens de discuter des accords institutionnels monétaires américains en vigueur dans les travaux universitaires et dans la presse. C’est particulièrement étrange étant donné que ces économistes travaillaient dans l’œil du cyclone (institutionnel). Sargent, Wallace et Prescott étaient alors des économistes à la Réserve fédérale de Minneapolis et l’article de Sargent et Wallace mentionné ci-dessus avait été publié par la revue trimestrielle de celle-ci. Même si aucun d’entre eux ne semblait s’intéresser en priorité aux débats autour de la politique économique, leur influence intellectuelle était manifeste dans les déclarations des responsables de la Réserve fédérale de Minneapolis. Son président, Mark Willes, un ancien doctorant en économie monétaire de l’Université de Columbia, était impatient de prêcher l’évangile des nouveaux classiques au comité fédéral d’open market. "Il n’y a pas d’arbitrage entre l’inflation et le chômage" martela-t-il dans une lecture à l’Université de Minnesota. Il ajouta plus tard que : "C’est bien sûr principalement à la communauté universitaire et à d’autres groupes de recherche que nous nous adressions… Si vous voulez avoir une politique économique efficace, vous devez avoir une théorie cohérente du fonctionnement de l’économie… Friedman ne semble pas non plus complètement convaincant. Peut-être que les partisans des anticipations rationnelles ici… ont la réponse ultime. A ce stade, seuls Heaven, Neil Wallace et Tom Sargent la connaissent probablement".

Si les débats faisaient rage aussi bien à la Réserve fédérale de Minneapolis qu’à l’Université du Minnesota, c’était parce que les politiques conçues pour atteindre l’emploi maximal étaient conçues par le sénateur du Minnesota Humphrey, lui-même conseillé par un ancien collègue de Sargent et Wallace, le célèbre économiste keynésien Walter Heller, qui fut un membre du Council of Economic Advisers (CEA) et un architecte de la réduction d’impôts de Kennedy en 1964.
La vie autonome de l’allocution présidentielle dans les années quatre-vingt et quatre-vingt-dix

L’allocution présidentielle de Friedman semble faire l’objet d’un surcroît de citations dans les années quatre-vingt et quatre-vingt-dix, mais c’est encore une hypothèse qui doit être vérifiée. Nous faisons le pari que les macroéconomistes en sont venus à relire l’allocution dans le sillage de la détérioration des conditions économiques qu’ils associèrent au ciblage de Volcker. Après que l’expérience de la cible monétaire ait été interrompue en 1982, les macroéconomistes s’intéressèrent de plus en plus aux accords institutionnels et aux instruments de politique économique. Nous croyons que ce changement apparaît le plus manifestement dans les écrits de John Taylor. Leeson raconte comment les travaux de Taylor (qui était un étudiant de cycle supérieur à l’époque où Friedman fit son allocution présidentielle) se focalisèrent sur la théorie de la politique monétaire. Après ses deux passages au CEA en tant qu’économiste, il était obsédé par la façon de rendre la politique monétaire plus malléable. Il fut de plus en plus convaincu à l’idée d’inclure les pratiques monétaires dans l’analyse, un processus qui culmina avec la formulation de la règle de Taylor en 1993 (dans un article qui est aujourd’hui davantage cité que l’allocution présidentielle de Friedman). Un changement de l’intérêt des universitaires (que l’on peut interpréter comme se rapprochant de l’esprit, si ce n’est du contenu, de l’allocution de Friedman) a aussi été manifeste dans les discussions autour des cibles de revenu nominal dans les années quatre-vingt. Ici, les débats universitaires précédèrent les réformes de politique économique, dans la mesure où le double mandat de la Fed vis-à-vis de l’inflation et du chômage n’est apparu dans une déclaration du comité fédéral d’open market que sous Ben Bernanke, en 2010, dans le sillage de la crise financière (…). Cette reconnaissance tardive peut, à nouveau, fournir une nouvelle lecture de l’allocution présidentielle de Friedman, une vieille dame dont le charme apparaît intemporel. »

Beatrice Cherrier et Aurélien Goutsmedt, « The making and dissemination of Milton Friedman’s 1967 AEA presidential address », in The Undercover Historian (blog), le 27 novembre 2017. Traduit par Martin Anota

samedi 18 novembre 2017

Une défense bien maladroite des modèles DSGE

« Je suis lessivé par le bashing dont la macroéconomie fait l’objet. J’ai déjà dit ce que j’avais à dire sur le sujet. Et je vois beaucoup de jeunes macroéconomistes faire du bon boulot. Et il y a des gens plus qualifiés que moi et avec une plus grande légitimité pour critiquer la méthodologie en macroéconomie. (…) Mais parfois je dois donner des conseils de marketing à certains de mes collègues macroéconomistes.

La nouvelle ligne de défense des modèles DSGE que proposent Christiano, Eichenbaum et Trabandt donne de sacrés frissons. Nous pouvons notamment y lire que : "Ceux qui n’aiment pas les modèles stochastiques dynamiques d’équilibre général (DSGE) sont des dilettantes. En les qualifiant ainsi, nous entendons qu’ils ne sont pas sérieux en matière d’analyse de politique économique. Pourquoi disons-nous cela ? Les questions de politique macroéconomique impliquent des arbitrages entre les forces qui s’affrontent dans l’économie. Il n’est malheureusement pas facile d’évaluer la puissance relative de ces forces pour telle ou telle question en matière de politique économique. Une stratégie consisterait à réaliser des expériences dans les économies réelles. Cette stratégie n’est pas disponible en sciences sociales. Comme Lucas (1980) l’a souligné crûment il y a près de quatre décennies, le seul endroit où nous pouvons faire des expériences, c’est dans nos modèles. Aucune théorisation a priori ou régression à partir de données microéconomiques ne peut se substituer à ces expériences. Les dilettantes qui évoquent seulement l’existence de forces concurrentes à l’œuvre (et qui jugent de façon informelle leur importance relative via des expériences de pensée implicites) ne peuvent jamais donner de conseils sérieux en matière de politique économique".

(…) C’est si stupide que l’on pourrait même se demander si Christiano et ses coauteurs ne nourrissent pas en fait le projet d’inciter davantage de monde à rejoindre les rangs des détracteurs des modèles DSGE.

Premièrement, ce n’était pas une bonne idée de qualifier de "dilettantes" ceux qui critiquent les modèles DSGE. Jusqu’à présent, la meilleure critique des modèles DSGE qu’on a pu récemment entendre (selon moi) provient d’Anton Korinek (…). Korinek est un macroéconomiste spécialisé dans les modèles DSGE. Il gagne sa vie en faisant des modèles DSGE. Mais selon Christiano et ses coauteurs, le fait qu’il pense que son propre champ ait des problèmes fait de lui une "dilettante".

D’accord, mais soyons généreux et supposons que Christiano et ses coauteurs ne savent pas ce qu’a pu dire Korinek (ni même ce qu’ont pu dire Ricardo Caballero, Paul Romer, Paul Pfleiderer, etc.). Supposons qu’ils ne parlent que de personnes comme Joseph Stiglitz, qui a vraiment l'air d’une dilettante ces derniers jours, de blogueurs comme moi (qui suis une sacrée dilettante) ou encore des gens de l’INET. Même dans ce cas, ce déluge de propos méprisants reste tout à fait déplacé.

Pourquoi ? Parce que déclarer que les personnes extérieures à votre champ ne sont jamais qualifiées pour critiquer celui-ci vous donne l’air d’être renfermé et arrogant. Chaque économiste connaît l’idée de capture du réglementateur. Il n’est pas difficile d’imaginer que les chercheurs puissent également être capturés, par exemple, que si les seules personnes qui sont autorisées à critiquer X sont les gens qui gagnent leur vie en faisant X, alors tous les détracteurs potentiels vont avoir un intérêt à préserver le statu quo.

En d’autres mots, l’essai de Christiano et de ses coauteurs n’est peut-être rien d’autre qu’un mémo envoyé aux outsiders où ils leur demandent de se taire et de continuer à envoyer les chèques.

Deuxièmement, Christiano et ses coauteurs ont donné des munitions à la foule qui proclame que "l’économie n’est pas une science" en utilisant le mot "expériences" lorsqu’ils font référence aux simulations de modèle. Brad DeLong a déjà écrit à propos de cette terminologie malheureuse. Chacun sait que les simulations de modèles ne sont pas des expériences, donc insister obstinément à mal utiliser le mot contribue juste à donner l’air de pseudoscience à l’économie aux yeux des observateurs extérieurs.

Troisièmement, Christiano et ses coauteurs ont tout simplement tort. Leur défense des modèles DSGE consiste fondamentalement à dire que c’est le "seul jeu en ville", la seule façon de faire des prédictions quantitatives à propos des effets des changements de politique économique.

C’est faux. Il y au moins deux autres approches qui sont régulièrement utilisées : les modèles vectoriels autorégressifs (VAR) structurels et les modèles économétriques structurels. Les modèles VAR structurels sont souvent utilisés pour l’analyse de la politique économique dans les travaux universitaires. Les modèles économétriques structurels sont utilisés par les banques centrales pour éclairer les décisions de politique économique. Ces deux types de modèles affirment être structurels. Une telle affirmation fait rire beaucoup de monde. Mais à nouveau, beaucoup rient aussi des modèles DSGE.

En fait, vous n’avez même pas à avoir toujours besoin d’un modèle structurel pour faire des prédictions quantitatives à propos de la politique économique ; souvent, vous pouvez le faire sous forme réduite. Quand les changements de politique économique peuvent être traités comme des expériences naturelles, leurs effets (notamment leurs effets d’équilibre général !) peuvent être mesurées directement plutôt qu’être inférés directement à partir d’un modèle structurel.

Comme Justin Wolfers l’a indiqué sur Twitter, au moins l’une des questions que Christiano et ses coauteurs prétendent ne trouver une réponse qu’à travers les simulations DSGE peut tout à fait trouver une réponse sous forme réduite : "Est-ce qu’une extension des allocations chômage accroît le chômage ? D’un côté, la croyance conventionnelle affirme qu’un montant plus élevé d’allocations se traduit par des salaires plus élevés et aggrave le chômage. D’un autre côté, si le taux d’intérêt nominal est relativement insensible aux conditions économiques, alors la hausse des salaires accroît l’inflation. La baisse des taux d’intérêt réels qui en résulte stimule la demande globale, donc alimente l’activité économique et réduit le chômage. Lequel de ces effets prédomine ?"

En 2015, John Coglianese s’est attaqué à cette question sans utiliser de modèle DSGE : "J’ai analysé une expérience naturelle suscitée par l’extension de l’assurance-chômage fédérale aux Etats-Unis durant la Grande Récession et j’ai mesuré son effet sur le chômage au niveau de chaque Etat. J’ai exploité une caractéristique de cette extension de l’assurance-chômage avec laquelle l’erreur d’échantillonnage aléatoire dans l’enquête nationale altérait la durée d’indemnisation du chômage dans plusieurs Etats, ce qui se traduisait par des variations aléatoires du nombre de semaines d’indemnisation au niveau de l’Etat".

Christiano et ses coauteurs occultent totalement l’existence des expériences naturelles. Ils affirment qu’en l’absence d’expériences de laboratoire, les simulations de modèles sont les meilleures simulations que nous puissions avoir. L’approche des expériences naturelles a beau voir sa popularité s’accroître rapidement économie, elle n’est même pas enregistrée sur leurs écrans de radar. Ce n’est pas une bonne vision des choses.

Finalement, Christiano et ses coauteurs adoptent un ton d’arrogance désinvolte à un moment où le monde (notamment le reste des économistes) appelle avec raison à une plus grande humilité de la part des macroéconomistes. Les modèles DSGE les plus réputés, les plus communs (ceux qui ont justement été créés par Christiano et Eichenbaum) ont spectaculairement échoué entre 2008 et 2012. Ce n’est pas le genre de chose qui vous donne le droit d’être arrogant, mais plutôt quelque chose pour laquelle vous devriez vous excuser. Maintenant, la profession a corrigé ces modèles en y ajoutant la finance, une borne inférieure zéro (zero lower bound), des non-linéarités, etc. Il reste à voir si ces nouvelles modélisations marchent bien avec les échantillons. Heureusement, ils ont l'air plus efficace.

Mais la charge de la preuve incombe aux concepteurs de modèles DSGE, non sur leurs détracteurs. Christiano et ses coauteurs devraient jeter un coup d’œil autour d’eux et réaliser que les gens en-dehors de leur petit cercle ne sont pas convaincus. Les banques centrales utilisent toujours des modèles économétriques structurels, le jugement humain et beaucoup d’autres outils. Les personnels de l’industrie financière n’utilisent pas du tout les modèles DSGE. Même au sein du monde universitaire, l’usage des modèles DSGE est probablement sur le déclin.

En d’autres mots, Christiano et ses coauteurs et les autres grands défenseurs de modèles DSGE sont toujours bien payés pour concevoir des modèles DSGE, mais ils ne sont pas en train de gagner la lutte intellectuelle qui se tient à l’échelle du monde. La rhétorique méprisante qui emplit cet essai ne va pas les aider. Même Miles Kimball, qui a passé sa carrière à faire des modèles DSGE et qui a apporté des contributions décisives aux modèles qui rendirent célèbres Christiano et Eichenbaum, a été déçu par cet essai.

Regardez. Il y a de bonnes lignes de défense que l’on peut avancer pour la macroéconomie moderne et la modélisation DSGE. Ricardo Reis en a apporté une bonne un peu plus tôt cette année. Fabio Ghironi en a apporté une autre. Tous deux se sont montrés humbles et intelligents dans leurs essais. Ils font savoir l’importance cruciale des preuves empiriques et d’une diversité d’approches. Ils font aussi savoir que les macroéconomistes doivent faire mieux et que cela va prendre du temps. Ils comptent sur les jeunes pour faire du bon travail, chercher à améliorer les choses et prendre de nouvelles directions. Ce sont les défenses de la macroéconomie dont la profession a besoin.

L’idée des modèles DSGE n’est pas mauvaise. Travailler sur les modèles DSGE n’est pas nécessairement un effort vain. Tous les concepteurs de modèles DSGE ne sont pas aussi méprisants et bouffis d’orgueil que les dépeignent l’essai de Christiano et de ses coauteurs. Il y a plein de gens qui font du bon boulot dans ce domaine, qui essayent d’améliorer la performance des modèles macroéconomiques. Mais une rhétorique comme celle-ci finit par nuire à leur tâche, plutôt qu’à les aider. »

Noah Smith, « The "cackling cartoon villain" defense of DSGE », in Noahpinion (blog), 15 novembre 2017. Traduit par Martin Anota

vendredi 10 novembre 2017

La macroéconomie est-elle une science ou une religion ?

« Dans un article désormais très célèbre, "The Science of Monetary Policy", qu’ils publièrent en 1999, trois grands économistes, Richard Clarida, Jordi Galí et Mark Gertler, affirmèrent que la politique monétaire est une science. Bien qu’il y ait une part de vérité dans cette affirmation, Clarida et ses coauteurs auraient pu se demander dans leur article si la macroéconomie était une religion ou une science.

La science et la religion forment un drôle de ménage. La science date du siècle des Lumières. La religion remonte à l’aube de l’histoire. La science est soutenue par le rationalisme. La religion est soutenue par le dogme. La science est mise au défi par l’expérimentation. La religion est codifiée par des érudits et protégée par un clergé. La macroéconomie présente des aspects relevant aussi bien de l’une que de l’autre.

Les macroéconomistes construisent des théories codifiées par des systèmes d’équations. Nous utilisons ces équations pour expliquer les schémas que l’on décèle dans les données économiques. A la différence des sciences expérimentales, la chimie et la physique par exemple, les macroéconomistes ne peuvent facilement expérimenter. Cela ne signifie pas que nous ne pouvons pas mettre à l’épreuve les théories existantes, mais qu’il est plus difficile de le faire. Comme les astronomes attendant qu’une nouvelle supernova explose, les macroéconomistes doivent attendre de grandes récessions ou de graves stagflations pour que nous puissions privilégier une théorie plutôt qu’une autre.

L’incapacité à expérimenter est plus sérieuse que ce que pensent la plupart des macroéconomistes. Lorsque Clarida, Galí et Gertler écrivaient leur article sur la politique monétaire, ils mettaient en avant une théorie néo-keynésienne. Cette théorie était codifiée par trois équations qu’ils utilisaient pour expliquer le PIB, le taux d’intérêt et l’inflation. Les équations néo-keynésiennes sont largement utilisées aujourd’hui par les décideurs politiques dans chaque grande banque centrale pour aider à guider la politique économique. Et si ces équations étaient incorrectes ?

Les économistes sélectionnent une théorie plutôt qu’une autre en utilisant une procédure statistique appelée maximum de vraisemblance. Nous disons que la théorie A est meilleure que la théorie B si les données que nous observons ont une plus forte probabilité d’être générées par A que par B. Dans une étude que j’ai réalisée avec Andreas Beyer, un économiste de la BCE, nous avons montré comment produire des théories qui ne peuvent pas être distinguées de cette façon. Si vous proposez avec la théorie A d’expliquer un ensemble de données X, notre procédure va produire une autre, la théorie B, qui a la probabilité identique d’avoir généré les données observées que la théorie A.

Les choses empirent. Nous donnons un exemple de ce problème où la théorie A et la théorie B fournissent des conclusions de politique contradictoires. La seule façon de les distinguer consisterait pour un décideur d’expérimenter en changeant la façon par laquelle il réagit aux données économiques. La Banque d’Angleterre peut, par exemple, relever son taux directeur, tandis qu’au même instant, le comité fédéral d’open market aux Etats-Unis réduit le taux des fonds fédéraux.

Les macroéconomistes peuvent expliquer relativement bien les données passées. Mais nous ne sommes pas trop bons lorsqu’il s’agit d’expliquer de nouveaux événements et nos théories sont toujours en évolution. En ce sens, l’économie est une science. La façon par laquelle on permet à nos modèles d’évoluer est contrôlée par un groupe de grands prêtres qui maintiennent la pureté doctrinale. En ce sens, l’économie est une religion. L’aspect religieux est important en temps normal, lorsque nous n’avons pas connu de grand événement dans le passé immédiat. A d’autres moments, peu après que nous ayons assisté à une supernova économique, l’emprise des grands prêtres devient contreproductive et c’est un temps fertile pour explorer des idées que les prêtres considèrent comme hérétiques. C’est un tel moment que nous connaissons aujourd’hui. »

Roger Farmer, « Macroeconomics: Religion or Science? », in Roger Farmer’s Economic Window (blog), 5 novembre 2017. Traduit par Martin Anota

samedi 14 octobre 2017

Non, la crise n'amène pas à renouveler en profondeur la pensée économique

Les fausses révolutions en économie


« (…) Quand la crise financière a éclaté, beaucoup ont appelé à formuler de nouvelles idées économiques (…). L’idée qu’il y avait implicitement derrière et que l’on considérait comme juste était que la crise révélait la défaillance de l’orthodoxie économique et la nécessité d’avoir de nouveaux concepts fondamentaux. Ceux qui appelaient à renouveler la pensée économique avaient une sorte de scénario hollywoodien en tête : des innovateurs audacieux proposeraient des idées radicales, feraient face à la résistance de la part de vieux ringards, mais ils triompheraient finalement via leur capacité supérieur à prédire les événements. Les choses ne se sont pas vraiment passées ainsi. Certes, personne ne vit la crise venir. Mais ce n’est pas parce que l’orthodoxie n’avait pas les moyens de la prévoir ; au contraire, les paniques bancaires sont un vieux sujet, présenté dans chaque manuel où sont exposés les principes fondamentaux. Si personne ne vit la crise venir, c’est en raison d’un échec empirique : peu comprirent que l’essor du système bancaire parallèle (shadow banking) rendait définitivement obsolètes les défenses bancaires qui avaient été instaurées dans le sillage de la Grande Dépression.

En fait, seuls les idéologues les plus étroits d’esprit du libre marché réagirent en montrant un réel étonnement. Les autres se tapèrent le front en s’exclamant "Diamond-Dybvig ! Comme je suis stupide ! Diamond-Dybvig bien sûr !"

Et après-crise, la macroéconomie standard se révéla assez efficace. La politique budgétaire et la politique monétaire firent ce qu’elles étaient censées faire (ou tout du moins, dans le cas de la monnaie, ne firent pas ce qu’elles n’étaient pas censées faires) à la borne inférieure zéro. Il y avait une grande marge d’amélioration, il était possible de s’appuyer sur la mère de toutes les expériences naturelles pour le travail empirique, mais il n’était pas vraiment utile de s’appuyer sur une nouvelle pensée radicale.

Néanmoins, il y a eu une prolifération de nouveaux concepts radicaux : l’austérité budgétaire serait en fait expansionniste, la politique monétaire expansionniste serait en fait déflationniste, des choses terribles arriveraient à la croissance économique quand la dette publique dépasse les 90 % du PIB. Ces idées reçurent instantanément beaucoup d’écho politique ; laissez de côté les ringards de l’establishment économique, l’establishment politique se saisit de l’occasion d’appliquer de nouvelles idées.

Qu’est-ce que ces idées avaient en commun ? Toutes avaient, explicitement ou non, des implications idéologiques conservatrices, que leurs auteurs les aient intentionnellement recherchées ou non. (Je pense que Reinhart et Rogoff ont vraiment travaillé hors de tout agenda politique. Je n’en suis pas aussi sûr pour les autres.) Et toutes ces idées se révèrent assez vite mortellement fausses.

Donc la nouvelle pensée économique qui émargea de la crise s’est révélée être, dans sa grande majorité, un ensemble de mauvaises idées servant un agenda politique conservateur. Ce n’était pas vraiment le scénario qu’on nous promettait, n’est-ce pas ?

Une fois que vous y pensez, il n’est pas trop difficile de voir comment cela s’est passé. Tout d’abord, la macroéconomie conventionnelle a bien marché, donc vous avez besoin d’innovations réellement brillantes pour qu’elle parvienne à vraiment bouleverser cette convention. Et les innovations réellement brillantes n’apparaissent pas facilement. En fait, les bouleversements de la croyance conventionnelle provinrent principalement de personnes qui, loin de transcender cette croyance, échouèrent en fait à comprendre celle-ci au préalable.

Et même s’il y a de telles personnes aussi bien à gauche qu’à droite, il y a une grande asymétrie en termes de richesse et d’influence entre les deux bords politiques. (…) Les idées confuses à droite se retrouvèrent dans les annonces de politique économique formulées par la Commission européenne et les Républicains.

(…) Beaucoup de travaux ont contribué à faire émerger le consensus ; cela ne signifie pas qu’il soit exact, mais vous devez arriver avec une idée réellement bonne si vous voulez vraiment le remettre en cause. D’un autre côté, vous pouvez avoir beaucoup d’écho politique avec une très mauvaise idée qui remet en cause le consensus, aussi longtemps que cela sert les intérêts des grands argentiers et des politiciens de droite. (…) »

Paul Krugman, « The schlock of the new », in The Conscience of a Liberal (blog), 8 octobre 2017. Traduit par Martin Anota



Il y a trop d’idéologues (et trop peu d’artisans) parmi les économistes


« Paul Krugman affirme qu’il est erroné de croire que la crise financière oblige à renouveler la pensée économique, mais que cette croyance a pourtant mener à des idées folles, mais influentes, qui ont été reprises par les grands argentiers et les politiciens de droite. Même si je suis en accord avec la plupart des propos de Krugman, je voudrais ajouter quelque chose. Ma réflexion se nourrit du dernier livre de Dani Rodrik, Straight Talk on Trade, que je n'ai pas encore fini, mais dont je parlerai plus amplement dans un prochain billet.

Dans la préface à ce livre, il raconte une petite anecdote. Il y a 20 ans, il avait demandé à un économiste d’appuyer l’un de ses livres, Has Globalization Gone Too Far?. L’économiste lui a répondu qu’il ne pouvait pas le faire, non pas parce qu’il était en désaccord avec quelque chose dans le livre, mais parce qu’il pensait que le livre "fournirait des munitions aux barbares". Dani Rodrik note que cette attitude est toujours très courante parmi les économistes. Bien sûr, on peut difficilement qualifier cette attitude d’apolitique et de scientifique.

Je pense que quelque chose de similaire peut s’être produit à la veille de la crise financière parmi les économistes travaillant dans la finance. Paul Krugman a certainement raison lorsqu’il dit que l’économie orthodoxe propose des modèles capables d’expliquer pourquoi la grande crise financière mondiale a éclaté, donc, de ce point de vue, peu de nouvelles idées sont nécessaires. Mais si aussi peu d’économistes orthodoxes ont utilisé ces modèles avant la crise financière, c’est notamment en raison d’une certaine aversion idéologique vis-à-vis de la réglementation et peut-être aussi en raison d'une certaine réticence à mordre la main qui les nourrit.

L’économie orthodoxe propose aujourd’hui des modèles très divers. Ceux qui ajoutent de nouveaux modèles à ceux-ci gagnent en prestige universitaire. Mais comment pouvez déterminer quel est le modèle que vous devez utiliser quand il s’agit d’étudier un problème en particulier ? Il faut regarder les données empiriques. Ce n’est pas une tâche triviale en raison de la nature probabiliste et diverse des données empiriques économiques. Dani Rodrik décrit ce processus a un côté davantage artisanal que proprement scientifique.

Donc, dans le cas de la crise financière mondiale, le bon artisan aurait dû constater que les nouvelles méthodes de répartition des risques étaient vulnérables aux événements d’ordre systémique. Le bon artisan aurait vu, s’il avait accès aux données, que la hausse rapide de l’endettement des banques est toujours dangereuse et, plus généralement, que les périodes au cours desquelles on entend dire que "cette fois, les choses sont différentes" ne finissent généralement pas très bien.

Dans ma propre discipline, je pense qu’il y a au moins un domaine qui n’aurait pas dû voir le jour si l’art de la sélection des modèles avait été bien appliqué. Les modèles de cycles d’affaires réels (real business cycles) n’ont jamais réussi à décrire les cycles d’affaires parce que nous savons que les hausses du chômage lors des récessions correspondent à du chômage involontaire. Si vous n’appliquez pas bien cette technique artisanale, alors ce qui peut la remplacer, c’est l’idéologie, la politique ou simplement la pensée de groupe. Ce n’est pas simplement un problème pour quelques économistes pris individuellement, c’est souvent un problème pour la majorité d’entre eux. »

Simon Wren-Lewis, « Economists: too much ideology, too little craft », in Mainly Macro (blog), 9 octobre 2017. Traduit par Martin Anota

lundi 9 octobre 2017

Richard H. Thaler, prix Nobel 2017



« L’économiste américain Richard H. Thaler est un pionnier dans l’économie comportementale, un champ de recherche dans lequel les intuitions tirées de la recherche psychologique sont appliquées à la prise de décision économique. Une perspective comportementale incorpore une analyse plus réaliste de la façon par laquelle les gens pensent et se comportent lorsqu’ils prennent des décisions économiques, ce qui fournit de nouvelles opportunités pour concevoir des mesures et institutions qui accroissent le bénéfice social.

L’économie implique de comprendre le comportement humain dans les situations de prise de décision économique et sur les marchés. Les gens sont des êtres compliqués et nous devons faire des hypothèses simplificatrices si nous désirons construire des modèles utiles. La théorie économique traditionnelle suppose que les gens ont un bon accès à l’information et peuvent la traiter parfaitement. Elle suppose aussi que nous pouvons toujours exécuter nos plans et que nous nous préoccupons de notre seul gain personnel. Ce modèle simplifié du comportement humain a aidé les économistes à formuler des théories qui ont fourni des solutions à des problèmes importants et compliqués en économie. Cependant, les décalages entre la théorie et la réalité sont parfois systématiques et significatifs. Richard Thaler a contribué à étendre et affiner l’analyse économique en considérant trois traits psychologiques qui influencent systématiquement les décisions économiques, en l’occurrence la rationalité limitée, les perceptions relatives à l’équité et le manque de contrôle de soi.

La rationalité limitée


Il n’est pas réaliste de supposer que les gens, avant chaque décision économique, considèrent toutes les alternatives réalisables et toutes les conséquences à long terme de chacune d'entre elles. C’est tout simplement une tâche insurmontable, donc les décisions sont souvent prises en utilisant une focale étroite. Herbert Simon, un autre lauréat du prix Nobel d’économie, a développé le concept de rationalité limitée (bounded rationality), un terme qui fait écho aux limites cognitives des gens et des organisations et aux règles de prise de décision simplifiées que ceux-ci utilisent. On peut trouver un exemple d’une telle limite dans la théorie de la comptabilité mentale (mental accounting), qui décrit comment les gens organisent, formulent et évaluent les décisions financières. Nous tendons à simplifier de telles décisions en créant des comptes distincts dans notre esprit, en prenant des décisions individuelles sur la base de leurs effets sur chacun de ces comptes plutôt que sur la totalité de nos actifs. On peut trouver un exemple dans la façon par laquelle les gens divisent le budget de leur ménage en un compte pour les factures du ménage, un autre pour les vacances, etc., en s'interdisant d’utiliser l’argent d’un compte pour payer quelque chose dans un autre. Ce comportement mène par moments à des coûts supplémentaires, par exemple si l’on n’utilise pas de l’argent d’un compte d’épargne à long terme pour des besoins de court terme, mais que l’on utilise à la place des prêts à la consommation onéreux. En même temps, cela peut nous aider à prévoir nos finances et à protéger notre épargne de long terme.

Un autre élément de comptabilité mentale est que nous utilisons des points de référence pour prendre plus facilement des décisions. Ils diffèrent d’une situation à une autre, c’est-à-dire entre différents comptes mentaux. Un point de référence peut être le prix auquel nous achetons un article ou le prix le plus bas que nous trouvons lorsque nous faisons des recherches sur internet, et nous utilisons ce point de référence pour évaluer si nous avons fait une "bonne affaire". Thaler a fourni de nombreux exemples de la façon par laquelle la comptabilité mentale peut, en s’appuyant sur différents points de référence, mener à des décisions qui s’avèrent étranges lorsqu’on évalue celles-ci d’une perspective économique traditionnelle. Par exemple, un consommateur trouve que la montre qu’il est prêt à acheter coûte 100 euros de moins dans un autre magasin. Il choisit d’aller dans l’autre magasin si la montre coûte 1.000 euros, mais il ne le fait pas si elle coûte 10.000 euros, même si le montant absolu d’épargne est le même dans les deux cas. L’explication est qu’il se focalise sur le pourcentage, plutôt que sur l’épargne relativement au point de référence. Un autre exemple, pris dans l’étude très connue qu’a coréalisé Thaler, est celui d’un chauffeur de taxi qui doit mettre en balance son temps de travail avec son temps libre et sa famille. Le chauffeur résout cela en se fixant des cibles pour son revenu journalier et en mettant un terme à sa journée de travail lorsqu’il a atteint cette cible. Cependant, une telle règle implique que le conducteur finit plus tôt lorsqu’il y a plein de clients et que le revenu horaire est élevé, mais qu’il doit travailler davantage les jours où la demande est faible. Avec une règle différente, il peut gagner plus en travaillant moins et la ville aurait plus de taxis les jours où beaucoup de gens ont besoin d’eux.

Nos expériences passées et nos perceptions de la propriété sont d’autres facteurs qui gouvernent notre prise de décision. Nous voulons normalement plus d’argent lorsque l’on vend quelque chose que nous possédons que nous ne sommes prêts à payer pour acheter exactement le même article, un phénomène que Thaler appelle l’"effet de dotation" (endowment effect). L’un des divers exemples est celui de la fameuse expérience de 1990, conduite par Thaler avec Daniel Kahneman (lauréat en 2002 du prix Nobel) et Jack Knetsch. Dans cette expérience, plusieurs tasses décoratives sont distribuées à des sujets choisis au hasard, qui pouvaient alors choisir s’ils voulaient ou non vendre la tasse à quelqu’un dans un second groupe qui n’avait pas reçu de tasse. Parce que les deux groupes étaient constitués aléatoirement, ils devraient en moyenne donner la même valeur aux tasses et environ la moitié des tasses devraient être vendues. Cependant, il s’avéra que, en moyenne, ceux qui ont reçu les tasses lui donnèrent une valeur plus élevée que dans le groupe de contrôle, celui qui n’en avait pas reçues, et bien moins de la moitié des tasses ont changé de propriétaire.

L’effet de dotation peut avoir des conséquences à long terme, notamment en réduisant les échanges de biens et services et en compliquant la résolution des litiges juridiques. L’explication que propose Thaler pour l’effet de dotation se fonde sur la façon par laquelle les gens tendent à éprouver une plus grande insatisfaction lors d’une perte qu’ils n’éprouvent de satisfaction avec un gain d’un montant aussi élevé, phénomène connu sous le nom d’aversion aux pertes. Se défaire de quelque chose que nous possédons déjà est perçu comme une perte, alors qu’acquérir la même chose est perçu comme un gain.

Plus généralement, ce que nous définissons comme un gain ou une perte dépend du niveau où nous plaçons le point de référence, ce qui est par conséquent important pour notre décision. Par exemple, les ventes au rabais amènent les consommateurs à placer leur prix de référence à un niveau plus élevé qu’ils ne l’auraient sinon fait en temps normal, si bien qu’ils perçoivent l’achat d’un article comme une meilleure affaire qu’ils ne l’auraient fait s’ils avaient acheté cet article au même prix, mais ailleurs. Un autre exemple est celui d’un investisseur sur le marché boursier qui ne considère pas une transaction comme un profit ou une perte tant que les actions ne sont pas vendues. Cela amène généralement les investisseurs à garder leurs actions perdantes pendant longtemps dans l’espoir "que les choses s’améliorent" et à vendre des actions gagnantes trop tôt de façon "à ramener le profit à la maison", alors qu’il est souvent plus rentable de faire l’inverse (pour des raisons fiscales par exemple).

Nos propres expériences influencent aussi les risques que nous sommes enclins à prendre. Une personne qui a récemment gagné de l’argent en Bourse ou dans un casino tend à prendre de plus grands risques qu’une personne qui a récemment perdu de l’argent. Il est moins douloureux de perdre si nous sommes toujours "dans le vert" dans notre compte mental, même si les circonstances sont exactement les mêmes (quelque chose que Thaler appelle l’"effet argent du ménage", house money effect).

Préférences sociales : qu’est-ce qui est juste ?


Lorsqu’ils prennent des décisions, les gens ne prennent pas seulement en compte ce qui leur est bénéfique. Ils ont aussi une certaine idée de ce qui est juste et ils peuvent prendre en compte le bien-être des autres aussi bien positivement (en se montrant coopératifs ou solidaires) que négativement (en se montrant jaloux ou malveillants). Des expériences à grande échelle conduites par Richard thaler et d’autres économistes comportementaux ont montré que les notions autour de la justice jouent un rôle dans la prise de décision. Les gens sont prêts à se priver de bénéfices matériels pour maintenir ce qu’ils estiment être une distribution juste. Ils sont aussi prêts à supporter un coût personnel pour punir des personnes qui ont violé des règles basiques de justice, non seulement lorsqu’ils sont eux-mêmes affectés, mais aussi lorsqu’ils voient quelqu’un d’autre se retrouver dans une situation injuste.

Une objection fréquente est que les résultats des expériences en laboratoire ne peuvent être transférés à la vraie vie, mais il est facile de trouver des exemples où les considérations de justice ont un impact en dehors du laboratoire. Une pluie inattendue peut susciter une forte demande de parapluies, mais si un commerçant accroît alors leurs prix pour faire face à la plus forte demande, plusieurs consommateurs réagissent mal et estiment que le commerçant s’est comporté avec avidité. Les entreprises qui enfreignent les normes de justice peuvent être sanctionnées par des boycotts de la part des consommateurs, ce qui peut les amener à maintenir leurs prix dans les cas où elles les auraient sinon augmentés. De plus, il y a de puissants sentiments à propos de ce qui est juste lorsqu’il s’agit de la rémunération, ce qui affecte la fixation du salaire sur le marché du travail via les comparaisons entre différents groupes de salariés. Il est difficile de faire accepter une baisse du salaire nominal (son niveau courant est le point de référence sous lequel les gens ne veulent pas qu’il chute), alors qu’il est plus facile d’accepter une hausse du salaire nominal qui est inférieure à l’inflation, même s’il conduit à la même chute du salaire réel. (…)

L’économie comportementale en pratique


L’économie comportementale a aussi remis en question le comportement rationnel tel qu’il est considéré dans des domaines tels que la finance. Richard Thaler, avec notamment Robert Shiller (prix Nobel d’économie en 2014), a contribué à la recherche en finance comportementale, un domaine dans lequel les chercheurs se sont penchés sur la volatilité (apparemment injustifiée) des marchés, une volatilité qui semble incompatible avec la théorie des marchés efficients. Thaler a aussi mis à jour ce qui s’apparente à des valeurs de marché négatives pour les actions, ce qui n’est pas rationnel dans la mesure où l’on peut toujours rejeter une action qui n’a pas de valeur. Les expériences avec des sujets qui peuvent choisir entre différents investissements montrent que les gens sont sensibles à l’horizon temporel choisi. Les investisseurs tendent aussi à préférer les titres à faible risque sur des horizons courts, mais lorsqu’on leur présente les résultats potentiels de divers investissements sur des horizons plus longs, ils sont davantage susceptibles de choisir des titres plus risqués, notamment les actions.

On peut considérer que les pratiques communes en marketing cherchent à tirer profit de l’irrationalité du consommateur. Les ventes au rabais ou les offres du type "deux achetés, le troisième offert" donnent aux consommateurs l’impression d’avoir réalisé un gain, ce qui les amène à modifier le point de référence pour évaluer les prix. Les loteries et les paris sont présentés d’une telle façon que l’on surexpose les rares gagnants et en dissimulant la multitude de perdants. De nombreux consommateurs sont séduits par des crédits aux conditions qui leur sont défavorables pour acheter un article qu’ils n’ont pas les moyens d’acheter. Les travaux de Thaler sont fréquemment cités dans la littérature du marketing et ses intuitions et ceux d’autres économistes comportementaux peuvent nous aider à reconnaître les astuces du marketing et à éviter de prendre mauvaises décisions économiques.

Dans plusieurs situations, le soi planificateur nécessite de résister aux tentations. De telles considérations sont derrière les restrictions en matière d’alcool et de drogue dans divers pays, mais dans d’autres contextes on considère que de telles restrictions vont trop loin. Les politiciens et d’autres décideurs peuvent utiliser les études en économie comportementale pour concevoir des alternatives qui s’avèrent bénéfiques à la société. Richard Thaler et Cass Sunstein ont affirmé que, dans divers domaines, les institutions publiques et privées doivent activement chercher à pousser les individus dans la bonne direction (mais en leur laissant toujours la liberté de décider). Cela s’est notamment traduit par l’introduction d’unités incitatives (nudge units) dans divers pays, notamment le Royaume-Uni et les Etats-Unis, des agences qui cherchent à réformer l’administration publique en s’appuyant sur les intuitions de l’économie comportementale. Les améliorations passent souvent par des choses simples, notamment la manière par laquelle l’option par défaut est définie, celle qui se réalise à moins que vous choisissiez activement quelque chose d’autre. Il y a des applications dans des domaines comme l’épargne retraite, le don d’organes et la politique environnementale. Les gens peuvent avoir des difficultés à épargner plus qu’ils ne le font actuellement, parce que cela réduit directement le montant qu’ils peuvent consommer aujourd’hui. Il leur est souvent plus facile de se dire qu’ils épargneront davantage à l’avenir, en particulier s’ils s’attendent à ce que leur salaire augmente. Cette intuition a été utilisée dans le programme "Save More Tomorrow", conçu par Thaler et de façon à accroître l’épargne-retraite. Le programme, dans lequel un individu s’engage à allouer une part de ses hausses futures de salaire pour l’épargne a été utilisé avec succès par diverses entreprises aux Etats-Unis. Dans certains quartiers, ce type de programme a été critiqué pour sa teneur paternaliste, mais il est important de souligner que la participation au programme est entièrement volontaire et que les participants sont libres de le quitter à n’importe quel moment.

Au total, les contributions de Richard Thaler ont jeté un pont entre les analyses économiques et psychologiques de la prise de décision des individus. Ses constats empiriques et ses intuitions théoriques ont contribué au développement du champ nouveau, mais en rapide essor, de l’économie comportementale, qui a eu un profond impact dans divers domaines de la recherche et la politique économiques. »

Académie royale des sciences de Suède, « Easy money or a golden pension? Integrating economics and psychology », octobre 2017. Traduit par Martin Anota

mardi 12 septembre 2017

Les révolutions en politique économique

« La Commission on Economic Justice organisée par le think tank Institute for Public Policy Research (IPPR) vient de publier un long rapport sur l’économie britannique appelé "Time for Change". (…) Sa conclusion est que nous devons connaître une révolution en matière de mise en œuvre de la politique économique, une révolution aussi profonde que celles qui ont été associées au gouvernement Attlee et à Thatcher après la Seconde Guerre mondiale. Le raisonnement derrière l’idée de révolutions en matière de politique économique a été développé par Alfie Stirling et Laurie Laybourne-Langton dans un article publiée The Political Quarterly.

Les auteurs adaptent les idées de La Structure des révolutions scientifiques de Thomas Kuhn à la politique économique. Je ne veux pas m’attarder sur la légitimité ou les détails de cette entreprise. L’idée que certaines périodes impliquent de profonds changements dans la politique économique n’est pas vraiment controversée. De même, l’idée selon laquelle le paradigme défaillant va tout d’abord essayer de s’adapter avant d’être remplacé par l’idée révolutionnaire est facile à accepter. Vous n’avez qu’à regarder l’état des politiques actuelles au Royaume-Uni et aux Etats-Unis pour prendre au sérieux l’idée que ce qu’on appelle le néolibéralisme (l’ensemble des politiques et la vision du monde associés à Thatcher et Reagan) arrive à sa fin.

Il y a plein de choses dans l’article avec lesquelles je suis d’accord, du moins jusqu’aux conclusions. Mais je regrette que l’article se focalise de trop sur la macroéconomie et pense qu’il s’égare ainsi quelque peu. C’est comme si, après avoir emprunté l’idée de Kuhn et l’avoir appliquée à la politique économique, les auteurs se sentaient obligés de revenir à une discipline académique, la théorie macroéconomique, plutôt que de rester avec la politique économique dans son ensemble. Laissez-moi présenter comment je vois la transformation macroéconomique qui a pris place autour de l’époque de Thatcher et de Reagan.

Une énorme erreur que beaucoup de gens commettent est de penser que la théorie macroéconomique keynésienne conventionnelle était incapable d'expliquer la stagflation, mais aussi que les responsables de la politique économique adoptèrent en conséquence le monétarisme ou des idées des nouveaux classiques. La base pour comprendre la stagflation et réduire l'inflation était connue au moins depuis le fameux discours de Friedman en 1968, où celui-ci expliqua son idée de courbe de Phillips augmentée des anticipations. Cette courbe de Phillips n’a pas été utilisée pour guider la politique monétaire ou budgétaire avant la fin des années soixante-dix, car la plupart des décideurs de la politique économique et certains économistes étaient réticents à l'idée d'accroître le chômage en vue de réduire l'inflation.

Au Royaume-Uni, cet usage de la gestion de la demande globale pour contrôler l’inflation (ou sa contrepartie, qui fut l’abandon des tentatives à des contrôles directs comme les politiques de revenu) coïncida avec l’élection de Thatcher, mais aux Etats-Unis, elle fut initiée par Paul Volcker sous la présidence de Jimmy Carter. Aux Etats-Unis et au Royaume-Uni, il a été associé aux tentatives de contrôle des agrégats monétaires, mais cela ne dura que quelques années. Vous pouvez penser que l’abandon des politiques de revenu s’inscrit dans une logique néolibérale, mais je pense pour ma part qu’il s’agit plutôt de la conséquence inévitable de l’inflation à deux chiffres.

Il y a eu une révolution en théorie macroéconomique, mais j'ai souligné ailleurs qu’elle ne colle pas au cadre kuhnien. La contre-révolution menée par les nouveaux classiques n'a pas donné d'analyse alternative de l'inflation : en fait, leurs inquiétudes étaient davantage d’ordre méthodologique. Il est vrai que ceux qui promurent cette contre-révolution étaient partisans du néolibéralisme et que vous pouvez relier le réductionnisme à l'individualisme (et donc le néolibéralisme), mais je pense que l’attrait de cette contre-révolution tient davantage à une collection de bonnes idées auxquelles l'orthodoxie d’alors résista, comme les anticipations rationnelles.

Le ciblage d'inflation par les banques centrales implique une tentative de gestion de l'économie d’une façon assez similaire à celle de l'activisme budgétaire keynésienne auparavant. La banque centrale est une partie de l’État. L'indépendance de la banque centrale au Royaume-Uni date de 1997 et elle était en vigueur aux Etats-Unis bien avant Reagan. La crise financière mondiale a porté un coup fatal à ce que j'appelle le "consensus sur l’assignation" (l’idée que la gestion de la demande doit être du ressort de la politique monétaire et le contrôle de la dette publique du ressort de la politique budgétaire), mais la popularité de cette assignation doit peu au libéralisme. Beaucoup ont beau fréquemment chercher à relier le ciblage d'inflation au néolibéralisme, mais on ne peut établir un tel lien selon moi.

Il est par conséquent problématique de chercher à relier la macroéconomie à l'essor du néolibéralisme et, surtout, cela nous détourne de la réelle révolution en termes de politique économique que représenta le néolibéralisme, en l’occurrence un changement dans l'attitude des responsables politiques vis-à-vis de presque tout genre d’intervention de l’État. (…) Il y a eu un déplacement correspondant du collectif (notamment avec l’attaque des syndicats) à l'individu, notamment avec l'idée que les "créateurs de richesse" (c'est-à-dire ceux qui obtiennent les plus fortes rémunérations) doivent justement être incités à créer de la richesse en réduisant l’imposition "punitive". L'argent public devint l’"argent du contribuable" et ainsi de suite.

Cette révolution néolibérale a été victorieuse, dans le sens où elle s’est maintenue pendant plusieurs décennies. Elle a provoqué, au travers ses excès, de sérieux problèmes et il est temps de la réexaminer. Mais, ironiquement, les tentatives de mise en place d’une politique macroéconomique véritablement néolibérale (un ciblage d’inflation sans intervention, sans gestion de la demande globale) ont échoué à peine quelques années après avoir débuté. »

Simon Wren-Lewis, « Revolutions in economic policy », in Mainly Macro (blog), 12 septembre 2017. Traduit par Martin Anota

dimanche 10 septembre 2017

En économie, l’environnement peut se révéler toxique pour les femmes

« Une nouvelle étude révolutionnaire à propos des conversions en ligne entre économistes décrit et quantifie une culture de travail qui peut se révéler très hostile pour leurs membres féminins. Alice H. Wu, qui va commencer ses études doctorales à Harvard l’année prochaine, a mené cette étude dans le cadre d’une thèse primée à l’Université de Californie, Berkeley. Son étude a été particulièrement discutée parmi d’éminents économistes cet été et suscité de nombreux commentaires. David Card, un éminent économiste à Berkeley qui a été un membre du jury pour cette thèse, m’a indiqué qu’elle avait produit "un rapport très perturbant".

La sous-représentation des femmes dans les départements d’économie des plus prestigieuses universités est déjà bien connue, mais il a été difficile de juger les affirmations à propos de la culture du milieu de travail parce que les conversations objectivables ont rarement lieu en public. Les propos tenus autour de la machine à café sont difficiles à observer, encore plus à mesurer. Mais l’intersection de deux changements techniques a ouvert de nouveaux horizons pour la recherche. Premièrement, plusieurs conversations tenues autour de la machine à café ont émigré en ligne, si bien que celles-ci se traduisent par une archive informatique. En outre, les techniques d’apprentissage automatique ont été adaptées pour explorer les schémas de larges corps de textes et, par conséquent, il est désormais possible de quantifier la teneur de ce genre de commérages.

C’est ce qu’a fait Wu dans son étude "Gender Stereotyping in Academia: Evidence From Economics Job Market Rumors Forum". Elle a exploité plus d’un million de billets d’un forum de discussion en ligne anonyme fréquenté par plusieurs économistes. Le site, connu sous le nom de econjobrumors.com (son nom complet est Economics Job Market Rumors), constituait tout d’abord un lieu où les économistes pouvaient s’échanger des rumeurs à propos des personnes qui étaient embauchées ou virées au sein de la profession. Peu à peu, il est devenu une machine à café virtuelle fréquentée par des universitaires, des étudiants et d’autres personnes encore.

Il constitue maintenant une archive utile, mais imparfaite, pour étudier ce dont les économistes parlent lorsqu’ils parlent entre eux. Parce que tous les billets sont anonymes, il est impossible de savoir si leurs auteurs sont des hommes ou des femmes ou de déterminer à quel point ils sont représentatifs de l’ensemble de la profession. En effet, certains de leurs auteurs peuvent ne même pas être économistes. Mais c’est clairement un forum actif et attentivement suivi, en particulier par les plus jeunes membres de la profession.

Wu configura son ordinateur de façon à pouvoir identifier si le sujet de chaque billet portait sur un homme ou une femme. (…) Elle a ensuite adapté des techniques d’apprentissage automatique pour débusquer les termes tout particulièrement associés billets portant sur les hommes et ceux portant sur les femmes.

Les 30 mots les plus souvent associés aux discussions portant sur les femmes ont de quoi rendre mal à l’aise. Cette liste inclut notamment les termes "chaude", "lesbienne", "bb" (signifiant "bébé" sur internet), "sexisme", "seins", "anal", "épouse", "feminazie", "salope", (…) "vagin", (…) "enceinte", "grossesse", "mignonne", "mariée", (…) "superbe", (…) "béguin", "jolie", "secrétaire", "déchet", "shopping", "rendez-vous", "but non lucratif", "intentions", "sexy", "vielle" et "prostituée".

La liste des mots les plus souvent utilisés dans discussions portant sur les hommes ne présente pas de termes aussi singuliers ou hostiles. Cette liste inclut des mots qui sont pertinents par rapport à l’économie, tels que "conseiller", "autrichien" (en référence à une école de pensée en économie), "mathématicien", "fixation des prix", "manuel" et "Wharton" (l’université de l’école de commerce de Pennsylvanie alma mater du Président Trump). Beaucoup de mots associés aux discussions à propos des hommes ont un ton positif, notamment des termes comme "buts", "le plus grand" et "Nobel". (…)

Dans son étude, Wu dit que l’anonymat de ces billets en ligne "élimine toute pression sociale que les participants pourraient ressentir en formulant leurs propos" et lui a ainsi peut-être permis "de capturer ce que les gens croient, mais ne disent pas ouvertement".

De façon à évaluer plus systématiquement les thèmes sous-jacents de ces discussions, Wu est allée au-delà de la seule analyse de mots spécifiques pour explorer plus largement les sujets sur lesquels porte la discussion. Cette partie de son analyse révèle que les discussions à propos des hommes ont plus de chances d’être confinées aux sujets comme l’économie elle-même et le conseil professionnel (avec notamment des termes comme "carrière", "entretien" ou "affectation"). Les discussions portant sur les femmes sont bien plus susceptibles d’impliquer des sujets relatifs à l’information personnelle (avec des mots comme "famille", "mariée" ou "relation"), les attributs physiques (avec des mots comme "belle", "corps" ou "grosse") ou des termes relatifs au genre (comme "genre", "sexiste" ou "sexuelle").

Dans un email, David Romer, un grand macroéconomiste à Berkeley, a résumé l’article comme dépeignant "un cloaque de misogynie". Certes, le forum en ligne que Wu a étudié n’est sûrement pas représentatif de l’ensemble de la profession des économistes, même si une minorité bruyante peut suffire pour rendre un lieu de travail hostile pour les femmes économistes. Janet Currie, une économiste spécialisée en analyse empirique reconnue de Princeton (où Wu travaille comme assistante de recherche pour celle-ci), m’a dit que les constats ont eu une forte résonance parce qu’ils "quantifient systématiquement quelque chose que la plupart des femmes économistes savaient déjà". L’analyse "en dit long à propos des attitudes qui persistent dans les coins sombres de la profession", ajoute Currie. Les commérages jouent un rôle important dans toutes les professions, notamment l’économie, et ils sont souvent bénins. Mais les mensonges lancés anonymement peuvent se propager comme une traînée de poudre, blessant des carrières. Silvana Tenreyro, professeure à la London School of Economics et ancienne présidente du comité des femmes de l’Association Européenne d’Economie, m’a dit que "chaque année une crise ou deux surviennent" des rumeurs qui ont vu le jour sur le forum, "avec typiquement pour cible une étudiante".

Certains économistes disent qu’ils trouvent que les discussions sur econjobrumors.com apportent une véritable bouffée d’air frais. George Borjas, un professeur d’économie de Harvard, a écrit sur son blog l’été dernier qu’il trouvait le forum "rafraîchissant". Borjas dit : "On voit qu’il y a toujours de l’espoir pour l’humanité lorsqu’on découvre que plusieurs billets écrits par une bande de jeunes spécialistes en sciences sociales très diplômés abandonnent les entraves du politiquement correct et reflètent des préoccupations ordinaires que partagent la plupart des êtres humains normaux : le prestige, le sexe, l’argent, la recherche d’un emploi, le sexe, la faute professionnelle, les commérages, le sexe, etc.". Après avoir reçu une copie de l’étude de Wu, Borjas dit : "il y a pas mal de choses utiles sur ce forum, mais il y a aussi beaucoup de choses offensantes et embarrassantes. Le problème est que je ne suis pas sûr exactement où placer la limite".

Currie a prévenu Wu qu’écrire à ce sujet pourrait faire d’elle l’objet de harcèlements en ligne. Wu n’en fut pas pour autant découragée. S’il y a quelque chose d’optimiste que l’on peut dire à propos du futur de l’économie, Wu peut bien en être une représentation. Il est inhabituel pour une thèse sénior d’avoir ce type d’impact, mais elle n’est pas une jeune économiste ordinaire. A seulement 22 ans, elle défie aussi elle-même le stéréotype selon lequel les femmes seraient de mauvaises mathématiciennes ou codeuses, dans la mesure où son analyse démontre qu’elle maîtrise aussi bien les mathématiques que le code. Card la décrit comme "une étudiante extraordinaire". Elle est également tenace et quand j’ai demandé à Wu si le sexisme qu’elle a dévoilé l’a amenée à reconsidérer l’idée de poursuivre une carrière en économie, elle m’a déclaré que ce n’était pas le cas. "Vous voyez ces horribles choses survenir et vous voulez faire vos preuves", a-t-elle ajouté. Elle m’a dit que sa recherche suggère "que davantage de femmes doivent s’impliquer dans ce champ et ainsi en changer le paysage". »

Justin Wolfers, « Evidence of a toxic environment for women in economics », in New York Times, 18 août 2017. Traduit par Martin Anota

mardi 11 juillet 2017

Ces théories jadis exactes

« J’ai pris une petite pause (…) pour lire David Glasner sur le "mécanisme flux-prix de numéraire" (price-specie-flow mechanism). L’exposition de ce mécanisme que propose David Hume dans son "Of the balance of trade" en 1752 constitua un point tournant dans le développement de l’économie : il s’agit peut-être du premier vrai modèle économique, faisant sens du monde réel (et donnant d’importantes préconisations en matière de politique économique), via une expérience de pensée simplifiée, c’est-à-dire bien un modèle fondamentalement, malgré l’absence de mathématiques explicites. Glasner affirme, cependant, qu’il a cessé d’être un bon modèle au dix-neuvième siècle en raison de l’essor de l’activité bancaire avec réserves fractionnaires et des banques centrales.

Je pense que cette critique va à la fois trop loin, et pas assez. Dans des systèmes où les réserves de banques prirent la forme de monnaie métallique (et les billets étaient adossés sur cette monnaie métallique, comme aux Etats-Unis), l’essentiel du mécanisme flux-prix de numéraire était encore en vigueur pour la majorité du dix-neuvième siècle. D’un autre côté, le lien simple entre les soldes commerciaux et les flux de monnaie métallique s’était enrayé avec la hausse de la mobilité du capital : quand les investisseurs britanniques commencèrent à acheter beaucoup d’obligations du réseau ferroviaire américain, nous n’étions plus dans le monde de Hume.

Mais cela ne signifie pas que Hume avait tort concernant « son » monde. Et la lecture de Glasner m’a fait penser à une catégorie d’idées économiques qui est cruciale pour donner du sens à une partie de l’histoire de la pensée économique, la catégorie des idées "jadis exactes". Il s’agit d’idées qui furent de bonnes descriptions soit du monde dans lequel vécurent les économistes classiques, soit du monde tel qu’il était avant qu’ils écrivirent. La place d’honneur revient sûrement ici à l’économie malthusienne. Vous entendrez toujours des gens dire platement que Malthus avait tort. Mais au cours des 60 siècles, environ, qui se sont succédé depuis que la civilisation a émergé en Mésopotamie, la proposition malthusienne (selon laquelle la pression démographique efface tout gain de productivité, si bien que la plupart des gens vivent au seuil de subsistance) était exacte au cours de 58 d’entre eux. (…) Les deux siècles pour lesquels la proposition ne se vérifia pas furent les deux siècles qui suivirent les écrits de Malthus.

Bien sûr, cela n’a pas été un accident. Malthus n’a pas tué l’économie malthusienne ; mais l’essor de la curiosité intellectuelle, de la réflexion approfondie, de l’attitude scientifique furent à l’origine de l’apparition de personnalités comme Malthus (qui proposa une approche de l’économie que l’on peut qualifier comme moderne), mais aussi de l’accélération significative du progrès technologique qui nous sortit précisément d’une trappe malthusienne longue de 58 siècles.

De même, je ne pense pas que l’on puisse douter qu’un mécanisme semblable au mécanisme flux-prix de numéraire de Hume ait opéré à un moment ou à un autre de l’histoire depuis l’introduction de la monnaie métallique jusqu’à un certain moment à la fin du dix-huitième siècle ou au début du dix-neuvième. Comment l’argent espagnol finit par alimenter une hausse des prix dans le reste de l’Europe ? Comme Hume lui-même le dit, parce que l’argent accrut les prix espagnols, ce qui entraîna des déficits commerciaux, et l’argent s’écoula dans les partenaires à l’échange de l’Espagne. Puis, les gens (en particulier les Ecossais !) développèrent l’activité bancaire moderne et apprirent à placer des capitaux au-delà des frontières. Ces innovations commerciales faisaient partie d’un esprit général de réflexion et d’innovation qui produisirent, parmi d’autres choses, David Hume et Adam Smith.

J’ai d’autres exemples en tête. L’économie auto-stabilisatrice (dans laquelle le chômage entraîne une déflation, qui accroît l’offre de monnaie réelle et donc restaure le plein-emploi) est un autre mécanisme qui fonctionna probablement dans une grande partie de l’histoire, mais commença à disparaître quand les économies agraires laissèrent place aux économies industrialisées dans lesquelles les prix sont moins flexibles. Le rejet par David Ricardo de la possibilité d’une insuffisance de demande se révéla être finalement des plus inexactes (et était déjà sûrement inexacte dans la Grande-Bretagne de 1817), mais elle a pu être exacte à une époque ou à une autre par le passé.

Y a-t-il ici une morale à cette histoire ? Les choses économiques changent. Dans l’ensemble, elles changent plus lentement que la plupart des gens ne le pensent ; comprendre les années trente était toujours immensément utile pour comprendre le monde après 2008. Mais les « lois » économiques (je déteste généralement ce terme) ne sont pas éternelles et les bons économistes peuvent à la fois avoir raison à propos des époques passées et avoir tort pour le monde actuel. (…) »

Paul Krugman, « Formerly true theories », in The Conscience of a Liberal (blog), 10 juillet 2017. Traduit par Martin Anota

mardi 13 juin 2017

Macroéconomie : modèles simples versus modèles sophistiqués

« Noah Smith a bien résumé ses critiques vis-à-vis de la macroéconomie et semble conclure en appelant les chercheurs à rester proches du terrain. C’est définitivement un bon conseil pour les jeunes chercheurs.

Mais que dire à propos des économistes qui essayent de donner des conseils utiles, directement ou indirectement, aux responsables de la politique économique, qui ont besoin de prendre des décisions en se basant sur les estimations éclairées à propos de l’ensemble du système ? Noah Smith leur dit "d’y aller lentement, de laisser les banquiers centraux s’appuyer sur le jugement et les modèles simples entre-temps". Ce serait mieux que ce que font en grande partie les macroéconomistes en pratique, notamment leur tendance à fustiger les banquiers centraux et les autres décideurs de politique économique pour ne pas utiliser des modèles élaborés qui ne fonctionnent pas. Mais les chercheurs n’ont-ils réellement aucun rôle à jouer pour faciliter ce processus ? Et si c’est le cas, qu’est-ce que cela dit à propos de l’utilité de ce que réalise la profession ?

Le fait est que ces modèles simples ont plutôt bien marché depuis 2008. Et les banquiers centraux qui les utilisèrent, par exemple Ben Bernanke, se sont mieux débrouillés que les banquiers centraux comme Jean-Claude Trichet qui basèrent leur jugement sur autre chose. Donc, une partie de la formation des macroéconomistes doit les préparer à savoir appliquer des modèles simples, peut-être même à améliorer ces modèles simples.

En lisant Noah Smith, je me suis rappelé quelques phrases de Robert Solow défendant la théorisation économique sophistiquée : "En économie, j’aime un homme pour sa maîtrise de la théorie sophistiquée avant de le croire avec une théorie simple… Parce que l’économie à haute puissance semble être une excellente école pour utiliser judicieusement l’économie à faible puissance."

Est-ce que quelqu’un serait capable d’affirmer la même chose concernant la macroéconomie moderne ? Sans sourciller ? En pratique, il est souvent apparu que l’expertise dans la macroéconomie à haute puissance (je pense tout particulièrement aux modèles DSGE) réduisait la capacité de ses détenteurs à utiliser la macroéconomie à faible puissance, notamment le modèle IS-LM et ses dérivés.

Je ne veux pas faire ici un argument fonctionnel grossier : les analyses qui font avancer le savoir n’ont pas à fournir immédiatement un dividende sur le plan pratique. Mais les événements depuis 2008 suggèrent bien que le programme de recherche qui a dominé la macroéconomie au cours de la précédente génération a en fait empêché les économistes de fournir un conseil utile à ce moment-là. Maîtriser les choses sophistiquées rend les économistes incapables de faire des choses simples.

Un programme plus modeste consisterait, en partie, à contribuer à réduire ce dommage. Mais il serait aussi réellement utile si les macroéconomistes réapprenaient l’idée que les modèles agrégés simples puissent, en fait, être utiles. »

Paul Krugman, « Macroeconomics: The simple and the fancy », in The Conscience of a Liberal (blog), 12 juin 2017. Traduit par Martin Anota

vendredi 14 avril 2017

Nous avons besoin (au minimum) de cinq classes de modèles en macroéconomie



« L’un des meilleurs conseils que me donna Rudi Dornbusch a été : "Ne parle jamais de méthodologie. Contente-toi de faire". Pourtant, je vais lui désobéir et faire le grand saut.

C’est le projet initié par David Vines à propos des modèles DSGE, de leur comportement dans la crise et de la façon par laquelle ils peuvent être améliorés, qui m’a conduit à écrire ce billet. (…) J’avais tout d’abord écrit une note de politique économique, puis, en réponse aux commentaires que cette note a suscités, j’ai poursuivi avec un premier billet de blog, puis avec un deuxième, en espérant à chaque fois avoir été plus sage que la précédente. Je pensais avoir fait le tour de la question, mais David a récemment organisé une conférence sur le sujet, conférence au cours de laquelle j’ai beaucoup appris et qui m’amène à écrire cet ultime (?) billet sur le sujet.

Je vais développer ici une idée simple : Nous avons besoin de différents types de modèles macroéconomiques. Un type de modèles n’est pas mieux qu’un autre. Ils sont tous nécessaires et ils doivent interagir. De telles remarques seraient triviales et superflues si cette proposition était largement acceptée. Et il n’y aurait pas de guerres de religion. Mais ce n’est pas cas. Et il y a des guerres de religion.

Voici la typologie que je propose ; en l’occurrence, je distingue cinq types de modèles. (Je me limite aux modèles d’équilibre général. L’essentiel de la macroéconomie doit, cependant, chercher à élaborer des pièces individuelles, à construire des modèles d’équilibre partiel et à examiner les preuves empiriques correspondantes, pièces sur lesquelles les modèles d’équilibre général doivent ensuite se baser.) En faisant cela, je dois, avec toutes mes excuses, répéter certaines choses que j’ai pu avoir dites dans mes précédents billets.

Les modèles fondateurs. Le propos de ces modèles est de souligner un point théorique particulier, susceptible d’être pertinent pour presque tout modèle macroéconomique, mais sans prétendre capturer la réalité. Je pense ici au modèle consommation-prêt de Paul Samuelson, au modèle à générations imbriquées de Peter Diamond, au modèle de prime boursière d’Ed Prescott, aux modèles de recherche d’emploi de Diamond, Mortensen et Pissarides et aux modèles de monnaie de Neil Wallace ou Randy Wright. (…)

Les modèles DSGE. Le propos de ces modèles est d’explorer les implications macroéconomiques de certaines distorsions ou d’introduire des distorsions. Pour laisser la possibilité d’une discussion productive, ils doivent être construits autour d’un cœur faisant l’objet d’un consensus, avec chaque modèle explorant ensuite de nouvelles distorsions, que ce soit la rationalité limitée, l’asymétrie d’information, les différentes formes d’hétérogénéité, etc. (A la conférence, Ricardo Reis a une bonne liste d’extensions que l’on voudrait trouver dans un modèle DSGE.)

Ce sont ces modèles que David Vines (et beaucoup d’autres) a critiqués quand il débuta son projet et, dans leur forme actuelle, ils soulèvent deux questions. La première est : quel doit être le modèle fondamental ? Le fondement actuel, essentiellement un modèle de cycles d’affaires réels (real business cycles) avec une seule grande distorsion, les rigidités nominales, semble trop éloigné de la réalité pour être le meilleur point de départ. L’équation d’Euler pour les consommateurs et l’équation de fixation des prix semblent impliquer, en combinaison avec les anticipations rationnelles, des agents économiques trop tournés vers l’avenir. Je pense que le modèle fondamental doit avoir des rigidités nominales, une rationalité limitée, des horizons bornés, des marchés incomplets et un rôle pour la dette. Comme d’autres, j’ai discuté de ces questions ailleurs et je ne vais pas revenir dessus ici. (…) La seconde question est : à quel point ces modèles doivent-ils être proches de la réalité ? Selon moi, ils doivent évidemment chercher à s’en rapprocher, mais pas via des additions et des retouches ad hoc (…). C’est à la prochaine catégorie de modèle qu’incombe la tâche de coller à la réalité.

Les modèles de politique économique. (Simon Wren-Lewis préfère les appeler les modèles économétriques structurels.) Le propos de ces modèles est d’aider à concevoir la politique économique, pour étudier les effets dynamiques des chocs spécifiques, pour évaluer l’impact potentiel de politiques alternatives. Si la Chine ralentit, quel sera l’effet sur l’Amérique latine ? Si l’administration Trump s’embarque pour une expansion budgétaire, quels seront les effets sur les autres pays ?

Pour ces modèles, il est clairement essentiel de coller aux données et de capturer les dynamiques observées. Mais aussi d’avoir assez de structure théorique de façon à ce que le modèle puisse être utilisé pour saisir les effets des chocs et politiques. Ces deux objectifs impliquent que la structure théorique doit nécessairement être plus souple que pour les modèles DSGE : L’agrégation et hétérogénéité mènent à des dynamiques agrégées plus complexes que celles qu’un modèle théorique étroit peut espérer capturer. Les vieux modèles de politique partaient de la théorie et laissaient ensuite les données parler, équation par équation. Certains modèles en vogue partent d’une structure DSGE et laissent ensuite les données déterminer des dynamiques plus riches. Un des principaux modèles utilisés à la Fed, le modèle FRB/US, utilise la théorie pour restreindre les relations à long terme et permettre ensuite des coûts d’ajustement d’ordre supérieur pour coller aux dynamiques des données. Je suis sceptique à l’idée que ce soit la meilleure approche, comme je ne vois pas ce que l’on gagne, théoriquement ou empiriquement, en contraignant les dynamiques de cette façon.

En tout cas, pour cette classe de modèles, les règles du jeu doivent être différentes que pour les modèles DSGE. Est-ce que le modèle colle bien, par exemple, dans le sens où il est cohérent avec les dynamiques d’une caractérisation VAR ? Est-ce qu’il capture bien les effets des politiques passées ? Est-ce qu’il permet de considérer des politiques alternatives ?

Les modèles-jouets. Ici, j’ai à l’esprit des modèles tels que les diverses variations du modèle IS-LM, du modèle Mundell-Fleming, du modèle des cycles d’affaires réels et du modèle des nouveaux keynésiens. Comme la liste l’indique, certains peuvent être seulement vaguement fondés sur la théorie, d’autres plus explicitement. Mais ils ont le même propos. Permettre de donner rapidement un premier aperçu à une certaine question ou présenter une bribe de réponse à partir d’un modèle ou d’une classe de modèles plus compliqué. Pour le chercheur, ces modèles peuvent être élaborés avant de passer à un modèle plus élaboré ou après, une fois que le modèle élaboré a été développé et que ses entrailles ont été examinées. La proximité de ces modèles vis-à-vis de la théorie formelle n’est pas un critère pertinent ici. Entre de bonnes mains, et je pense ici à des maîtres-artisans tels que Robert Mundell ou Rudi Dornbusch, ils peuvent être éclairants. Il y a une raison qui explique pourquoi ils dominent les manuels de macroéconomie. Ils fonctionnent comme des appareils pédagogiques. Ils relèvent autant de l’art que de la science et tous les économistes ne sont pas des artistes talentueux. Mais l’art est utile. (…)

Les modèles de prévision. Le propos de ces modèles est simple : Donner les meilleures prévisions. Et c’est le seul critère sur lequel nous devons les juger. Si la théorie est utile pour améliorer les prévisions, alors elle doit être utilisée. Si elle ne l’est pas, elle doit être ignorée. (…) Les questions sont alors statistiques : comment traiter le sur-paramétrage ? comment traiter l’instabilité des relations sous-jacentes ? etc.

En somme : Nous avons besoin de différents modèles pour différentes tâches. Les tentatives de certains de ces modèles visant à faire plus que ce pour quoi ils ont été conçus semblent avoir été trop ambitieuses. Je ne suis pas sûr que les modèles DSGE soient de bons modèles de politique économique, à moins qu’ils deviennent plus souples à propos des contraintes associées à la théorie. J’aimerais qu’ils soient utilisés pour la prévision, mais je suis encore sceptique à l’idée qu’ils gagnent à ce jeu. Cela étant dit, chaque classe de modèles a beaucoup à apprendre des autres et bénéficierait à ce qu’il y ait plus d’interactions entre eux. Les vieux modèles de politique économique bénéficieraient du travail mené sur l’hétérogénéité, sur les contraintes de liquidité, qui se trouve formalisé dans certains modèles DSGE. Et, pour répéter un point souligné au début, tous les modèles doivent être construits sur de solides fondations d’équilibre partiel et sur les preuves empiriques. »

Olivier Blanchard, « On the need for (at least) five classes of macro models », in PIIE, Realtime Economic Issues Watch (blog), 10 avril 2017. Traduit par Martin Anota

mercredi 8 février 2017

Crises économiques et crise de la science économique

« Est-ce que la profession des économistes est "en crise" ? Plusieurs responsables de politique économique, notamment Andy Haldane, l’économiste en chef de la Banque d’Angleterre, croient qu’elle l’est. En effet, il y a une décennie, les économistes ne voyaient pas de puissante tempête arriver à l’horizon, du moins pas tant qu’elle n’atteignit son paroxysme en se muant en la crise financière mondiale la plus destructrice depuis 80 ans. Plus récemment, ils ont mal jugé de l’impact immédiat du référendum du Brexit sur l’économie britannique.

Bien sûr, les prévisions post-Brexit peuvent ne pas entièrement fausses, mais seulement si nous regardons l’impact du référendum du Brexit à long terme. Certes, certains économistes s’attendaient à ce que l’économie britannique s’effondre durant la panique qui suivit les résultats du référendum, mais l’activité économique s’est révélée plutôt résistante, avec une croissance du PIB atteignant 2,1 % en 2016. Mais maintenant que la Première Ministre Theresa May a montré qu’elle préférait un Brexit "dur", il est peut-être correct d’afficher un sombre pronostic de long terme.

Malheureusement, la responsabilité des économistes pour la crise financière mondiale de 2008 et la subséquente récession s’étend au-delà des erreurs de prévision. Plusieurs d’entre eux virent d’un bon œil les excès qui furent à l’origine de la crise et soutinrent les politiques économiques erronées qui furent par la suite adoptées (notamment en appelant hâtivement à l’austérité budgétaire et en ignorant le creusement des inégalités).

Certains économistes se sont laissé entraîner par l’arrogance intellectuelle : la croyance qu’ils peuvent toujours expliquer la complexité du monde réel. D’autres se sont enchevêtrés dans des questions méthodologiques ("en sacrifiant la vérité à la beauté", comme a pu le noter Paul Krugman) ou ont accordé trop de confiance dans la rationalité humaine et l’efficience des marchés.

Malgré son aspiration à la certitude des sciences naturelles, l’économie est et restera une science sociale. Les économistes étudient systématiquement des objets qui sont encastrés dans des structures sociales et politiques. Leur méthode se fonde sur les observations, desquelles ils tirent des tendances et en déduisent d’autres tendances et comportements ; mais ils ne peuvent jamais atteindre le succès prédictif de, disons, la chimie ou la physique.

Les êtres humains répondent aux nouvelles informations de différentes façons, si bien qu’ils ajustent différemment leur comportement à celles-ci. Donc, l’économie ne peut fournir (ni ne doit prétendre fournir) des intuitions définitives dans les tendances futures. Les économistes ne peuvent avoir un aperçu du futur qu’en se tournant vers le passé, donc leur pouvoir prédictif se limite à déduire des probabilités à partir d’événements passés, non des lois éternelles.

Et parce que l’économie est une science sociale, elle peut facilement être utilisée pour servir les intérêts des élites politiques et des entreprises. Dans les années qui ont précédé la crise financière, la croissance économique mondiale et les profits étaient si élevés que tout le monde (des petits investisseurs financiers aux plus grandes banques) était aveuglés par la perspective de plus gros gains.

Les économistes employés par les banques, les hedge funds et d’autres entreprises devaient donner un « aperçu » de court terme pour leurs employeurs et clients ; et à prêcher leur "croyance" au public général via leurs interviews et leurs apparitions dans les médias. Entretemps, la profession en économie adoptait des outils mathématiques plus complexes et un jargon spécialisé, ce qui contribua à creuser le fossé entre les économistes et les chercheurs des autres sciences sociales.

Avant la crise financière, lorsqu’énormément d’intérêts privés et d’opportunités profitables étaient en jeu, plusieurs économistes défendaient un modèle de croissance qui était davantage basé sur l’« exubérance irrationnelle » que sur des fondamentaux sains. De même, au regard du Brexit, plusieurs économistes ont confondu l’impact à long terme du référendum avec ses effets de court terme, parce qu’ils se sont précipités à faire des prévisions pour rester dans le débat politique.

En raison de ces erreurs, mais aussi d’autres erreurs, les économistes (et l’économie) ont souffert d’une spectaculaire disgrâce. Alors qu’ils ont pu être perçus par le passé comme des sorciers modernes ayant un accès à un savoir exclusif, les économistes sont désormais les plus méprisés de tous les "experts".

Qu’allons-nous faire maintenant ? Même si nous pouvons saluer l’aveu de Haldane, s’excuser pour les erreurs passées ne suffit pas. Les économistes, en particulier ceux qui sont impliqués dans les débats autour de la politique économique, doivent être explicitement tenus responsables de leur comportement professionnel. A cette fin, ils doivent se lier à un code de conduite volontaire.

Avant tout, ce code doit reconnaître que l’économie est trop complexe pour être réduite à des petites phrases et des conclusions précipitées. Les économistes doivent prêter plus d’attention à préciser le contexte dans lequel ils produisent leurs idées et aux possibles implications de ce contexte. Et ils doivent toujours révéler leurs intérêts, pour que l’analyse interne ne soit pas erronée d’un point de vue indépendant.

En outre, les débats économiques seraient plus bénéfiques si on y entendait plus de voix. L’économie est une vaste discipline qui comprend des chercheurs et des praticiens dont le travail mêle perspectives macroéconomiques et microéconomiques, mais aussi approches théoriques et appliquées. Comme toute autre discipline intellectuelle, sa production peut aussi bien être excellente, bonne et médiocre.

Mais l’essentiel de ces études ne parvient pas aux cercles de décision de politique économique, tels que les ministères des Finances, les banques centrales ou les institutions internationales. Aux niveaux hiérarchiques où se prennent les décisions, les débats autour de la politique économique restent dominés par un petit groupe d’hommes blancs qui sont issus des universités et think tanks américains et qui sont dans leur grande majorité des fidèles de l’orthodoxie.

Les conceptions développées par ce groupe sont surreprésentées dans les médias de masse, via les commentaires et interviews. Mais pêcher des idées dans cet unique petit bassin mène non seulement à un débat circulaire et suffisant, mais cela peut aussi encourager les économistes moins connus à restreindre leur champ de recherche.

Le public mérite (et a besoin d’)un marché aux idées dans lequel les conceptions orthodoxes et hétérodoxes font l’objet de la même attention et d’une discussion équilibrée. Bien sûr, cela demandera du courage, de l’imagination et du dynamisme, en particulier de la part des journalistes. Mais c’est précisément une discussion plus juste, davantage pluraliste des idées économiques dont les économistes ont besoin. »

Paola Subacchi, « Economic crises and the crisis of economics », 13 janvier 2017. Traduit par Martin Anota

samedi 17 décembre 2016

La subversion méthodologique de Thomas Schelling



« Thomas Schelling est mort à 95 ans le 13 décembre 2016.

A une époque où la théorie économique devenait en quelque sorte une branche des mathématiques appliquées, il réussit à obtenir de profondes intuitions concernant un large éventail de phénomènes en s’appuyant seulement sur une observation fine des choses, un raisonnement précis et des modèles simples qui pouvaient être facilement décrits, mais qui possédaient des propriétés complexes et surprenantes.

Cela a trouvé un large écho. Mais son travail se caractérisait aussi par le fait qu’il tenait peu rigueur des normes méthodologiques dans sa profession. Cela lui permit de générer un nouveau savoir avec une grande liberté et d’apporter des innovations méthodologiques qui ont pu finir par être plus décisives que ses intuitions par rapport à la vie économique et sociale.

Considérons, par exemple, son fameux modèle du "damier" des voisinages autocréateurs, qui fut tout d’abord introduit dans un mémorandum en 1969, précisé dans un article en 1971, puis dans son livre Micromotives and Macrobehavior publié en 1978. Ce modèle est suffisamment simple pour être décrit littéralement en deux paragraphes, mais il a des propriétés qui sont extrêmement difficiles à déduire analytiquement. Il constitue également l’un des tous premiers modèles par informatique, il met en évidence quelques limites de l’approche de l’équilibre de la théorie économique et il continue d’aiguillonner la recherche empirique sur la ségrégation résidentielle.

Voici le modèle. Il y a un ensemble d’individus partitionnés en deux groupes (…). Chaque individu occupe un carré sur un damier et il a des préférences à propos de la composition de son voisinage. Le voisinage est ici composé (au maximum) de huit carrés adjacents. Chaque personne n’est pas insatisfaite à l’idée que son groupe soit minoritaire dans son quartier tant que le statut de minorité n’est pas trop extrême. Plus précisément, chacun désire qu’au minimum un tiers de ses voisins appartiennent à son propre groupe.

Initialement, supposons qu’il y ait 80 individus, disposés dans un ensemble de cases parfaitement intégré du damier, avec les quatre coins inoccupés. Ensuite, chaque individu au centre a dans son entourage immédiat autant de personnes appartenant à son propre groupe qu’au second groupe, si bien que chacun est satisfait. Ceux qui sont sur les bords sont dans une situation légèrement différente, mais même ici chaque individu a un voisinage dans lequel au moins un tiers des résidents appartiennent à leur propre groupe, si bien que chacun y est également satisfait.

Maintenant supposons que nous retirions au hasard vingt individus et que nous replacions cinq d’entre eux dans des logements inoccupés, également au hasard. Cette perturbation va rendre certains individus insatisfaits. Maintenant, choisissez l’un de ces insatisfaits et placez-le dans un endroit où il sera satisfait. Notez que cela va affecter deux autres types individus : ceux qui étaient précédemment les voisins des individus qui sont partis et ceux qui ont un nouveau voisin. Certains ne vont pas être affectés par le déménagement, d’autres peuvent gagner en satisfaction et d’autres risquent de devenir insatisfaits.

Aussi longtemps qu’il n’y a personne d’insatisfait sur le damier, vous répétez le processus que l’on vient de décrire : prenez un pion au hasard et déplacez-le à une case où il est satisfait. A quoi ressemble le damier lorsque plus personne ne veut se déplacer ?

Schelling a constaté qu’indépendamment de la fréquence avec laquelle ce processus se répéte, le résultat sera une forte ségrégation spatiale. Même si l’intégration parfaire est clairement une issue possible du processus dynamique que nous venons de décrire, elle est impossible à obtenir une fois que le système a été perturbé. Les préférences supposées sont suffisamment tolérantes pour être cohérentes avec l’intégration, mais les choix décentralisés, non coordonnés, que réalisent les individus fragilisent l’intégration et rendent la ségrégation extrêmement stable. Voici comment Schelling résuma son intuition :

"Les gens qui ont à choisir entre des extrêmes polarisés (…) vont souvent renforcer la polarisation à l’issue de leur choix. En agissant ainsi, ils ne démontrent pas qu’ils préfèrent la ségrégation, mais seulement que, si la ségrégation existe et qu’ils ont à choisir entre des associations exclusives, les gens choisissent les environnements qui leur sont les plus semblables."

Nous pouvons changer les paramètres du modèle, notamment la taille de la population, sa densité, les préférences à propos de la composition du voisinage et nous voyons que le résultat de Schelling est robuste. Et pour les raisons discutées dans cet essai, le seul raisonnement en termes d’équilibres ne peut être utilisé pour tomber sur ce résultat.

Nous pouvons également trouver un type de contribution très différent, mais qui a pourtant d’importantes implications méthodologiques, dans le classique La Stratégie du conflit (The Strategy of Conflict) de Schelling paru en 1960. Dedans, il considère la valeur adaptative qu’il y a à se prétendre irrationnel de façon à faires des menaces ou des promesses crédibles.

Comment pouvons-nous nous engager à l’avance à commettre un acte que l’on préférerait en fait ne pas avoir à réaliser, de façon à ce que notre engagement puisse dissuader l’autre participant ? La personne à l’origine de la menace peut bien sûr bluffer, pour faire croire à l’autre que les coûts ou dommages qu’il pourrait subir seraient mineurs ou négatifs. Chose plus intéressante, celui qui est à l’origine de la menace peut prétendre qu’il croit lui-même que ses coûts seront faibles, si bien qu’il serait prêt à mettre sa menace à exécution. Ou peut-être qu’il peut prétendre être tellement motivé par la vengeance qu’il se fiche des dommages qu’il pourrait subit ; mais cette option est surtout disponible pour ceux qui sont vraiment motivés par la vengeance.

De même, dans les situations de négociations, "le négociateur sophistiqué peut avoir des difficultés à se montrer aussi obstiné qu’un homme réellement obstiné". Et face à une menace, il peut être profitable d’être réputé comme faisant preuve d’"une véritable ignorance, obstination ou incrédulité, puisque cela permettra de se montrer plus convaincant face à toute personne susceptible de lancer une menace".

Suite à trois articles classiques dans le même numéro du Journal of Economic Theory paru en 1982, toute une littérature en économie a observé les implications pour le comportement rationnel qu’il y a à interagir avec des personnes qui, avec une faible probabilité, sont susceptibles d’être irrationnelles. Alors que ces travaux se sont surtout focalisés à caractériser les réponses rationnelles à l’irrationalité, Schelling parle aussi des gains et il soulève la possibilité que les écarts par rapport à la rationalité puissent avoir une valeur adaptative.

Les implications méthodologiques de cette idée sont profondes, parce qu'elle remet en question la justification habituelle qu’il y a à supposer que les agents économiques sont en fait pleinement rationnels. Jack Hirshleifer a exploré les implications de cette idée dans un fabuleux article sur la valeur adaptative des émotions et Robert Frank a écrit un livre entier sur le sujet. Mais l’idée est là, cachée sous nos yeux, dans les parenthèses de Schelling.

Enfin, considérons le paradoxe du cambrioleur que Schelling décrit dans La Stratégie du conflit : "Si, en pleine nuit, je descends l’escalier de ma maison avec un revolver après avoir entendu un bruit au rez-de-chaussée et que je me retrouve nez-à-nez avec un cambrioleur qui a également un révolver dans ses mains, cela risque de se finir en un dénouement qu’aucun de nous deux ne désire. Même s’il préfère juste s’en aller tranquillement et que je désire qu’il en fasse ainsi, il y a un risque qu’il puisse penser que je veuille tirer sur celui et qu’il tire le premier. Pire, il y a un risque qu’il puisse penser que je pense qu’il veuille me tirer dessus. Ou il peut penser que je pense qu’il pense que je veuille tirer sur lui. Et ainsi de suite. La 'légitime défense' est ambiguë lorsque l’on cherche juste à éviter de se faire tirer dessus en légitime défense."

Sandeep Baliga et Tomas Tomas Sjöström ont montré précisément comment une telle peur réciproque peut mener à un dénouement fatal et ils ont exploré les implications qu’il y a à permettre aux différentes parties de communiquer entre elles avant d’avoir affaire l’une à l’autre, même si cette communication n’engage à rien. (…) »

Rajiv Sethi, « Thomas Schelling, methodological subversive », 14 décembre 2016. Traduit par Martin Anota

lundi 21 novembre 2016

Macroéconomie et idéologie

« Jo Michell a écrit un long billet dans lequel il amorce un débat avec Ann Pettifor et moi-même sur le rôle de la macroéconomie orthodoxe derrière l’austérité budgétaire. Ann estime que la macroéconomie orthodoxe est en grande partie responsable de l’austérité et Michell se montre largement de son avis. J’ai beaucoup de respect pour Michell lorsqu’il cherche à combler le fossé entre l’économie orthodoxe et les courants hétérodoxes, mais là, je pense qu’il se trompe à propos de l’austérité et qu’il peint une image haussée de l’histoire de la pensée économique.

Commençons avec l’austérité. Je pense qu’il serait d’accord à l’idée que le modèle de cycle d’affaires qui a fait consensus parmi les keynésiens pendant les deux dernières décennies est le modèle des nouveaux keynésiens. Ce modèle est absolument clair en ce qui concerne l’austérité. A la borne inférieure zéro (zero lower bound), vous ne devez pas réduire les dépenses publiques. Il n’y a ni "si", ni "mais".

Donc pour on ne peut affirmer que la macroéconomie orthodoxe plaidait en faveur l’austérité que si l’on affirme que les économistes orthodoxes pensaient que le modèle des nouveaux keynésiens était fondamentalement déficient. Cela n’a absolument pas été le cas. Michael Woodford est l’un des plus grands macroéconomistes de ces deux dernières décennies, si ce n’est le plus grand. Son livre est en quelque sorte la Bible pour tous ceux qui utilisent le modèle des nouveaux keynésiens. En juin 2010, il a publié "Simple Analytics of the Government Expenditure Multiplier", où il montre que la hausse des dépenses publiques peut s’avérer particulièrement efficace à la borne inférieure zéro. L’intérêt de ce papier pour ceux qui travaillent dans ce domaine était de montrer, non pas que cette forme de politique budgétaire aurait une certain efficacité (chose qui était évidente pour tous ceux qui, comme moi, travaillaient sur la politique monétaire et la politique budgétaire en utilisant le modèle des nouveaux keynésiens), mais qu’elle puisse générer de très larges multiplicateurs.

Le consensus universitaire selon lequel l’austérité ne pouvait être que nuisible et la relance budgétaire efficace est une raison majeure expliquant pourquoi les autorités adoptèrent une relance budgétaire au Royaume-Uni et aux Etats-Unis en 2009, et même pourquoi le FMI plaidait lui-même cette année-là en faveur d’une relance budgétaire. Il y avait toutefois certains, en particulier à Chicago, qui s’élevaient contre cette relance, mais, comme DeLong, Krugman et moi-même l’avions remarqué, ils ont simplement prouvé leur ignorance du modèle des nouveaux keynésiens. Krugman, en particulier, est très familier de la macroéconomie à la borne inférieure zéro, notamment en raison de ses travaux sur la décennie perdue du Japon.

Ce ne sont pas d’éventuelles clameurs de la part des macroéconomistes universitaires orthodoxes qui ont mis un terme à ce consensus en 2010, mais deux événements bien précis : la crise de la zone euro et la victoire de la droite au Royaume-Uni et aux Etats-Unis.

Michell prétend que parce que la question de la borne inférieure zéro n’était pas dans les manuels macroéconomiques, elle ne faisait pas partie du consensus. Mais tout le monde sait que les manuels sont en retard de plusieurs décennies et beaucoup basent toujours leur enseignement à partir du modèle IS-LM plutôt qu’à partir du modèle des nouveaux keynésiens. Maintenant il se peut que les responsables politiques de droite aient réellement été induits en erreur par ce qui est enseigné dans ces manuels et que ce ne fut qu’une simple coïncidence que ces responsables politiques aient choisi les réductions des dépenses publiques plutôt que les hausses d’impôts (et plus tard les réductions d’impôts !), mais cela semble peu probable. Vous n’avez pas nécessairement à travailler dans ce champ pour comprendre que le consensus en vigueur avant la crise financière, celui selon laquelle il fallait privilégier les variations de taux d’intérêt pour stabiliser l’activité, dépendait de la capacité à faire varier les taux d’intérêt.

S’écartant de la question de l’austérité, le billet de Michell affirme que la macroéconomie orthodoxe a toujours été fortement influencée par l’idéologie néolibérale. Pour ce faire, il donne un bref compte-rendu de l’histoire de la macroéconomie après la Seconde Guerre mondiale, qui a Friedman, un membre bien connu de la Société du Mont-Pèlerin, comme son meneur, du moins avant que la nouvelle école classique n’arrive. Il y a beaucoup de choses à dire ici, mais je vais me contenter de souligner deux points.

Premièrement, l’idée selon laquelle l’économie keynésienne concerne des épisodes de court terme de demande excessive ou insuffisante plutôt que la stagnation permanente datait d’avant Friedman et remontait aux premières tentatives visant à formaliser l’économie keynésienne. C’est ce qu’on appela le consensus néoclassique. C’est pour cette raison que le keynésien Robert Solow proposa une modélisation de la croissance qui supposait le plein emploi.

Deuxièmement, les débats autour du monétarisme dans les années soixante-dix ne portaient pas sur la validité de ce modèle keynésien, mais sur ses paramètres et l’activisme de la politique économique. Les propres contributions de Friedman à la théorie macroéconomique, telles que l’hypothèse du revenu permanent et la courbe de Phillips augmentée des anticipations, n’orientent pas forcément la théorie dans une direction néolibérale. (…) Et Friedman n’approuvait certainement pas les idées des nouveaux classiques en matière de politique macroéconomique.

Michell se rapproche peut-être de la vérité lorsqu’il affirme que l’esprit néolibéral des années quatre-vingt a peut-être eu quelque chose à voir avec le succès de la nouvelle école classique, mais je ne pense pas que ce soit du tout central. Comme je l’ai affirmé à plusieurs reprises, la révolution menée par les nouveaux classiques a réussi parce que les anticipations rationnelles faisaient sens aux yeux des économises habitués à appliquer la rationalité dans leur microéconomie et, une fois que vous acceptez les anticipations rationnelles, alors vous comprenez qu’il y a de sérieux problèmes avec le consensus keynésien qui dominait alors. Je pense que vous pouvez essayer d’affirmer qu’il y a un lien entre l’attrait des microfondations comme méthodologie et le néolibéralisme, mais je pense que ce serait un peu exagéré.

Cela m’amène à mon ultime remarque. Michell note que j’ai suggéré une influence idéologique derrière le développement de la théorie des cycles d’affaires réels, mais il se demande pourquoi je m’arrête là. Il écrit ensuite : "Il est par conséquent quelque peu étrange que, lorsqu’il discute de la relation entre l’idéologie et l’économie, Wren-Lewis choisisse de tracer une frontière entre ceux qui utilisent un modèle DSGE à prix visqueux des nouveaux keynésiens et ceux qui utilisent une version à prix flexibles des nouveaux classiques. Comme le suggère Wren-Lewis, les croyances de ce dernier seraient idéologiques, alors que les membres du premier groupe s’appuieraient sur une science libérée de l’idéologie. Cela me semble bien arbitraire. La justification de Wren-Lewis est que, malgré les preuves empiriques, le modèle des cycles d’affaires réels dénie la possibilité du chômage involontaire. Mais la version à prix visqueux des nouveaux keynésiens (qui dénie tout rôle aux inégalités, à la finance, à la monnaie, à l’activité bancaire, à la liquidité, aux défauts, au chômage de long terme, à l’usage de la politique budgétaire pour quitter la trappe à liquidité, les effets d’hystérèse du côté de l’offre et plein d’autres choses) serait selon lui acceptable".

Michell passe à côté d’une distinction cruciale. Le propos de la théorie des cycles d’affaires réels était de montrer que les cycles d’affaires réels constituent juste une réponse optimale à des chocs technologiques dans un monde où les marchés s’ajustent continuellement. Cela revenait à dénier un aspect fondamental des cycles d’affaires : le chômage involontaire. Il est absurde d’affirmer que la théorie des nouveaux keynésiens dénie toutes les choses de la liste de Michell. Ce n’est pas parce que l’on fait abstraction de quelque chose que l’on dénie celui-ci. Le modèle de Solow ne dénie pas l’existence de cycles d’affaires, mais il suppose juste (à tort ou à raison) qu’ils ne sont pas essentiels pour saisir les aspects de la croissance économique à long terme. Michell a raison lorsqu’il dit que le modèle de base des nouveaux keynésiens n’inclut pas le chômage involontaire, mais il n’y a rien dans le modèle des nouveaux keynésiens qui dénie cette possibilité. En fait, il est même assez facile d’élaborer un modèle qui le fasse apparaître.

Pourquoi le modèle de base des nouveaux keynésiens n’inclut-il pas le chômage involontaire ? La meilleure chose que l’on puisse lire à ce sujet se trouve dans la Bible de Woodford. L’idée fondamentale est de se focaliser sur un modèle qui permet aux variations de la demande globale d’être la force conductrice derrière les cycles d’affaires. Je pense que c’est vrai : c’est bien la demande globale qui génère ces cycles et le chômage involontaire en est une conséquence. Ou, pour le dire autrement, vous pouvez toujours obtenir des cycles d’affaires, même si le marché du travail est toujours à l’équilibre.

Il est plutôt tiré par les cheveux de suggérer, comme Michell semble le faire, que le développement des modèles des nouveaux keynésiens a quelque chose à voir avec la politique de la troisième voie de Tony Blair et de Bill Clinton. C’était la réponse inévitable à la théorie des cycles d’affaires réels, à son refus d’incorporer la rigidité des prix (alors même que les données empiriques confirment cette dernière) et à son incapacité à faire apparaître un chômage involontaire.

C’est tout. (…) Je ne pense pas non plus (…) que l’influence idéologique soit confinée aux pans de la macroéconomie associés à la nouvelle école classique. Mais, de la même façon qu’il est absurde de dénier une telle influence, il est erroné d’imaginer que la discipline et l’idéologie sont inextricablement liées l’une à l’autre. La généralisation de l’austérité en 2010 en est une preuve. »

Simon Wren-Lewis, « Macroeconomics and Ideology », in Mainly Macro (blog), 16 novembre 2016. Traduit par Martin Anota

jeudi 20 octobre 2016

La recherche en macroéconomie depuis la crise



« Des événements économiques extrêmes ont souvent remis en question les idées que les économistes ont du fonctionnement de l’économie et mis en évidence les limites de leur savoir collectif. Pour donner deux exemples bien connus, la Grande Dépression des années trente et la stagflation des années soixante-dix ont amené les économistes à reconsidérer la façon par laquelle ils pensaient les phénomènes économiques. Plus récemment, la crise financière et la fragile reprise qui l’a suivie ont pu constituer un point tournant similaire. Aujourd’hui, j’aimerais considérer certains sujets sur lesquels les événements de ces dernières années ont révélé les limites de la compréhension que les économistes peuvent avoir de l’économie et préciser quelles sont les questions fondamentales auxquelles la profession doit apporter une réponse. Certaines de ces questions ne sont pas nouvelles, mais avec les récents événements il est encore plus pressant d’y répondre. (…)

L’influence de la demande globale sur l’offre globale


La première question que j’aimerais poser concerne la distinction entre l’offre globale et la demande globale : Y a-t-il des circonstances dans lesquelles les variations de la demande globale sont susceptibles d’avoir un effet significatif et durable sur l’offre globale ?

Avant la Grande Récession, la plupart des économistes auraient probablement répondu à cette question par un "non". Ils auraient largement été d’accord avec l’idée de Robert Solow (1997) selon laquelle la production économique à long terme est principalement tirée par l’offre, c’est-à-dire le montant de production de biens et services que l’économie est capable de produire, étant données ses ressources en travail et capital et les technologies existantes. La demande globale, à l’inverse, était vue comme expliquant les fluctuations de court terme autour d’une tendance de long terme déterminée par l’offre et principalement exogène. Cette conclusion mérite d’être reconsidérée, puisque le niveau de l’activité économique a échoué à retourner à sa tendance d’avant-crise dans la plupart des pays développés. Cette expérience d’après-crise suggère que les fluctuations de la demande globale peuvent avoir un effet significatif et durable sur l’offre globale, c’est-à-dire sur la production potentielle. Ou, comme Larry Summers (2014) a pu le demander en inversant la loi de Say, ne serait-il pas possible qu’une insuffisance de la demande entraîne une insuffisance de l’offre ?

L’idée selon laquelle les chutes durables de la demande globale peuvent affecter négativement l’offre globale (un effet que l’on appelle communément "effet d’hystérèse") n’est pas nouvelle ; par exemple, une telle éventualité était discutée au milieu des années quatre-vingt, au regard de la performance des marchés du travail européens. Olivier Blanchard et Larry Summers (1986) se demandaient notamment à l’époque si le taux de chômage d’équilibre à long terme (ou taux de chômage "naturel") ne s’était pas accru de façon permanente dans les économies européens en raison de la persistance du chômage à un niveau élevé.

Mais l’intérêt pour ce sujet s’est récemment accentué à la lumière du ralentissement persistant de la croissance économique que l’on a vu dans la plupart des pays développés depuis la crise. Diverses études ont récemment avancé des preuves empiriques transnationales suggérant que les récessions sévères et durables ont effectivement présenté certains de ces effets de long terme au cours de long terme, même pour les ralentissements qui semblent essentiellement, voire totalement, été provoqués par un choc de demande. Il y a notamment celle de Greg Howard, Robert Martin et Beth Anne Wilson (2011), celle de Robert Martin, Teyanna Munyan et Beth Anne Wilson (2015) ou encore celle d’Olivier Blanchard, Eugenio Cerutti et Lawrence Summers (2015). Au regard de l’expérience des Etats-Unis, une étude estime que le niveau de production potentielle est désormais inférieure de 7 % au niveau qu’il aurait atteint s’il avait continué de suivre la trajectoire d’avant-crise et elle affirme que l’essentiel de ces dommages du côté de l’offre est attribuable à diverses dynamiques associées à une sévère récession et à une lente reprise. En particulier, l’étude constate que dans le sillage de la crise, les Etats-Unis ont connu une réduction modeste de l’offre de travail en conséquence de la réduction de l’immigration et une chute du taux d’activités au-delà de ce qui peut être expliqué par la conjoncture et les facteurs démographiques, aussi bien qu’un ralentissement marqué du taux de croissance tendanciel de la productivité du travail. Le dernier reflète probablement un rythme inhabituellement lent d’accumulation de capital physique depuis la crise et, plus conjoncturellement, le brutal déclin des dépenses en recherche-développement et une lenteur dans la création de nouvelles entreprises ces dernières années.

Si nous supposons que les effets d’hystérèse sont à l’œuvre après les fortes récessions, la question que l’on est naturellement amené à se poser est s’il est alors possible de renverser ces effets négatifs du côté de l’offre en laissant temporairement place à une "économie à haute pression" (high-pressure economy), avec une demande globale robuste et un marché du travail en tensions. On peut certainement identifier des canaux par lesquels cela pourrait être possible. Un accroissement des ventes d’entreprises élèverait presque certainement la capacité productive de l’économie en encourageant des dépenses supplémentaires en capital, en particulier s’il y a une moindre incertitude vis-à-vis de l’avenir. En outre, un marché du travail en tensions peut inciter de potentiels travailleurs à entrer dans la vie active et encourager les transitions d’un emploi à l’autre qui améliorent l’appariement entre les salariés et les emplois, donc stimulent la productivité. Finalement, une forte demande peut éventuellement générer de significatifs gains de productivité en accroissant les niveaux plus élevés de dépenses en recherche-développement et stimulant la création d’entreprises innovantes.

Les effets d’hystérèse (et la possibilité qu’ils puissent être inversés) peuvent avoir d’importantes implications pour la conduite des politiques monétaires et budgétaire. Par exemple, en raison des effets hystérèse, les responsables politiques doivent agir rapidement et agressivement en réponse à une récession, parce que cela contribuerait à réduire la sévérité et la durée de la récession, ce qui limiterait alors les dommages qui sont alors susceptibles de déprimer l’offre. En outre, si une bonne conjoncture peut contribuer à inverser les dommages du côté de l’offre une fois qu’ils sont apparus, alors les responsables des politiques économiques peuvent chercher à être plus accommodants durant les reprises qu’ils ne l’auraient à le faire si l’offre était indépendante de la demande.

Davantage de recherches sont cependant nécessaires pour mieux comprendre l’influence des fluctuations de la demande globale sur l’offre globale. Du point de vue de la politique économique, nous avons bien sûr à garder en tête l’idée qu’une politique monétaire accommodante, si elle est maintenue trop longtemps, peut avoir des coûts supérieurs aux bénéfices, notamment en accroissant le risque d’instabilité financière ou en remettant en cause la stabilité des prix. Plus généralement, les bénéfices et coûts potentiels de la poursuite d’une telle stratégie restent difficiles à quantifier, et d’autres politiques économiques peuvent être plus adaptées pour répondre aux problèmes du côté de l’offre de l’économie.

L’hétérogénéité


J’aimerais à présent demander si les différences individuelles au sein de larges groupes d’agents économiques peuvent influencer les dynamiques économiques au niveau agrégé et ainsi quels effets une telle hétérogénéité peut avoir sur la demande globale.

La plupart des macroéconomistes travaillent avec des modèles où des groupes d’agents individus, tels que les ménages ou les entreprises, sont traités comme un simple agent "représentatif" dont le comportement est censé représenté celui du groupe dans son ensemble. Par exemple, plutôt que de modéliser explicitement l’action de nombreux ménages différents, un modèle macroéconomique peut en fait supposer que le comportement d’un simple ménage « moyen » peut décrire le comportement agrégé de tous les ménages.

Avant la crise financière, les modèles à agent représentatif étaient le paradigme dominant pour analyser plusieurs questions macroéconomiques. Cependant, une approche désagrégée semble nécessaire pour comprendre certains aspects clés de la Grande Récession. Pour donner un exemple, considérons les effets d’une baisse des prix de l’immobilier sur la consommation. Même si les ménages réduisent typiquement leurs dépenses en réponse à une chute de la valeur de leur patrimoine, la plupart des ménages dont la valeur du patrimoine immobilier était devenue négative en raison de la chute des prix ont pu réduire leurs dépenses encore plus fortement en raison d’un moindre accès à l’emprunt. Une telle dynamique modifie la relation entre le patrimoine immobilier (qui était resté significativement positif au niveau agrégé) et les dépenses de consommation pour l’économie dans son ensemble. Une telle modification d’une relation agrégée serait difficile à prédire ou comprendre sans utiliser des données et modèles désagrégés.

Plus généralement, étudier les effets de l’hétérogénéité des ménages et des entreprises peut nous aider à mieux comprendre la sévérité de la récession et la faiblesse de la subséquente reprise. Au niveau des ménages, les récentes études constatent que l’hétérogénéité peut amplifier les effets des chocs négatifs, un résultat qui s’explique largement par les ménages qui ont une faible valeur nette et qui ont brutalement accru leur épargne lors d’une récession. Au niveau des entreprises, certaines preuves empiriques suggèrent que les contraintes financières ont eu un effet négatif particulièrement large sur l’emploi dans les petites entreprises et les nouvelles entreprises, des facteurs qui peuvent contribuer à expliquer la sévérité de la Grande Récession et la faiblesse de la subséquente reprise. Plus généralement, si les plus grandes entreprises qui cherchent à se développer ont un meilleur accès au crédit que les plus petites entreprises, la croissance globale de l’investissement et de l’emploi peut dépendre en partie de la répartition des ventes entre différents types d’entreprises. Pour modéliser l’une de ces dynamiques, il faut nécessairement utiliser un modèle à agents hétérogènes. (…)

Les relations entre la finance et l’économie réelle


Ma troisième question est (…) : comment le secteur financier interagit-il avec le reste de l’économie ? A la lumière de la bulle immobilière et des événements subséquents, les responsables de la politique économique ont clairement besoin de mieux comprendre quels genres de développements contribuent à une crise financière. Quelle est la relation entre, d’une part, l’accumulation excessive de dette et, d’autre part, la valeur de l’immobilier et d’autres types de collatéraux ? Quels facteurs freinent ou accélèrent le processus de désendettement qui s’ensuit ? Est-ce que la récession qui résulte d’une crise financière dépend des particularités de la crise, notamment des dommages apportés aux bilans des ménages ? Comment la nature et le degré des interconnexions entre entreprises financières affectent la propagation et l’amplification des turbulences que connaissent le système financier et l’ensemble de l’économie ? Enfin et surtout, qu’est-ce que la politique monétaire et la supervision financière peuvent faire pour réduire la fréquence et la sévérité des crises futures ? (…)

La dynamique de l’inflation


Ma quatrième question touche le cœur de la politique monétaire : Qu’est-ce qui détermine l’inflation ?

Selon moi, le cadre standard pour réfléchir aux dynamiques de l’inflation utilisé par les économistes, notamment au sein des banques centrales, avant la crise financière reste conceptuellement utile aujourd’hui. Voici une description simplifiée de ce cadre : l’inflation se caractérise par une tendance sous-jacente qui a été assez constante depuis le milieu des années quatre-vingt-dix ; précédemment, cette tendance semblait baisser au cours du temps, influencée par l’inflation passée et d’autres conditions économiques. La théorie et les données empiriques suggèrent que cette tendance est fortement influencée par les anticipations d’inflation qui, à leur tour, dépendent de la politique monétaire. En particulier, la remarquable stabilité de diverses mesures d’inflation anticipée au cours des dernières années représente a priori les fruits des efforts soutenus de la Fed depuis le début des années quatre-vingt-dix pour ramener, puis stabiliser l’inflation à un faible niveau. L’ancrage des anticipations d’inflation qui a résulté de cette politique n’empêche pas cependant l’inflation de fluctuer d’année en année en réponse à l’influence temporaire des variations des prix de l’énergie et à d’autres perturbations. En outre, l’inflation va avoir tendance à aller au-dessus ou en-dessous de sa tendance sous-jacente selon que l’utilisation des ressources (qui servent d’indicateur des coûts marginaux des entreprises) est durablement forte ou faible.

Même si ce cadre général pour réfléchir au processus d’inflation reste utile, ses aspects quantitatifs ont été remis en question lors de la Grande Récessions et la lente reprise qui la suivit. Par exemple, l’influence des conditions du marché du travail sur l’inflation au cours des dernières années semble être plus faible qu’on ne le pensait communément avant la crise financière. Certes l’inflation a chuté durant la récession, mais le déclin a été assez modeste au regard de la forte hausse du chômage ; de même, les salaires et les prix ont augmenté peu lors de la reprise. On ne sait pas encore si cette réduction de la sensibilité s’explique par la récession ou si elle date au contraire d’avant-crise et n’a été révélée que sous des conditions extrêmes. La cause sous-jacente à ce changement reste inconnue. Est-ce que la moindre sensibilité reflète des changements structurels, tels que la mondialisation ou bien un plus grand rôle pour le capital intangible dans la production qui ont réduit l’importance des fluctuations conjoncturelles de l’activité domestique pour les coûts marginaux et le pouvoir de marché des entreprises ? Ou est-ce que cela reflète la réticence bien connue (ou bien la moindre capacité) des entreprises à réduire les salaires nominaux de leurs salariés (…) ? (…)

Surtout, nous devons en savoir plus à propos de la façon par laquelle les anticipations d’inflation sont formées et comment la politique monétaire les influence. Finalement, l’inflation effective et l’inflation anticipée sont liées à la cible d’inflation de la banque centrale, qu’importe que la cible soit explicite ou non. Mais comment ce processus d’ancrage s’opère-t-il ? Est-ce qu’une banque centrale doit garder l’inflation effective proche de la cible pendant plusieurs années avant que les anticipations d’inflation soient complètement conformes ? Ou bien, est-ce que les autorités peuvent influencer matériellement les anticipations d’inflation directement et rapidement en simplement annonçant leurs intentions de poursuivre un objectif d’inflation particulier à l’avenir ? Ou est-ce que la vérité se tient entre ces deux extrêmes, un changement dans les anticipations nécessitant des communications claires à propos de l’objectif d’inflation des autorités, des actions politiques concrètes pour démontrer leur engagement à atteindre cet objectif et au moins un certain succès à pousser l’inflation effective vers le niveau désiré de façon à démontrer la faisabilité de la stratégie ? Bien que l’expérience historique suggère qu’un changement des anticipations d’inflation du public serait ni rapide, ni facile, il n’est pas clair laquelle de ces possibilités est correcte.

Avec des taux d’intérêt nominaux de court terme à la borne inférieure effective ou proches de celle-ci dans plusieurs pays, la question de savoir comment les anticipations sont formées a pris plus d’importance. Sous de telles circonstances, plusieurs banques centrales ont cherché des moyens supplémentaires pour stimuler leur économie, notamment l’adoption de politiques qui visent directement à influencer les anticipations des futurs taux d’intérêt et de l’inflation. (…) En outre, ces nouvelles stratégies peuvent à nouveau être nécessaires à l’avenir, étant donnée que l’économie mondiale est susceptible de continuer de connaître des taux d’intérêt historiquement faibles, si bien qu’il est peu probable qu’une baisse les taux d’intérêt de court terme soit une réponse adéquate à toute nouvelle récession.

Les liens internationaux


Avant de clore, mentionnons un dernier domaine où davantage d’études sont nécessaires : les effets des changements de politique monétaire aux Etats-Unis sur les conditions économiques et financières en vigueur dans le reste du monde et les canaux à travers lesquels ces effets étrangers peuvent rétroagir pour influencer l’économie américaine. Bien sûr, les effets de débordement de la politique monétaire sur le reste du monde ont fait l’objet d’un réel débat entre économistes depuis la Grande Dépression et de nombreuses analyses formelles datent des années soixante. Mais cette question a reçu un plus grand intérêt avec l’adoption de politiques monétaires non conventionnelles après la Grande Récession et, encore plus récemment, la divergence des politiques monétaires parmi les principales banques centrales des pays développés.

Plus largement, les mesures de politique monétaire dans un pays se répercutent aux autres économies à travers trois principaux canaux : les variations des taux de change ; les fluctuations de la demande domestique, qui altèrent les importations de l’économie ; et les changements dans les conditions financières domestiques (notamment les taux d’intérêt et les prix d’actif) qui affectent les conditions financières à l’étranger via des canaux comme celui du rééquilibrage des portefeuilles. Les études réalisées par les économistes de la Fed suggèrent que les effets de débordement de la politique monétaire américaine sur les autres économies sont positifs : les politiques visant à stimuler l’économie américaine stimulent également l’activité étrangère, dans la mesure où les effets négatifs de la dépréciation du dollar sont compensés par les effets positifs associés à l’accroissement des importations américaines et à l’assouplissement des conditions financières à l’étranger. Cependant, cette question est loin d’être pleinement éclairée, comme bien d’autres questions connexes, notamment les suivantes : Est-ce que les actions de la politique monétaire adoptées par la Fed affectent différemment les pays développés et les pays en développement ? Est-ce que les politiques monétaires non conventionnelles se répercutent différemment sur les autres pays ? Et dans quelle mesure les taux d’intérêt et les conditions financières en vigueur aux Etats-Unis sont influencés par les mesures accommodantes adoptées par les banques centrales étrangères ? (…) »

Janet Yellen, « Macroeconomic research after the crisis », discours prononcé à la 60ème conférence annuelle de la Banque de réserve fédérale de Boston, le 14 octobre 2016. Traduit par Martin Anota

vendredi 14 octobre 2016

Quelques nouvelles réflexions sur les modèles DSGE



« Plusieurs économistes ont récemment écrit à propos des avantages et inconvénients des modèles d’équilibre général stochastiques (dynamic stochastic general equilibrium models, DSGE). Outre moi-même, il y a eu Narayana Kocherlakota, Simon Wren-Lewis, Paul Romer, Steve Keen, Anton Korinek, Paul Krugman, Noah Smith, Roger Farmer et Brad DeLong.

Voici quelques remarques supplémentaires relatives à ce débat :

Je crois qu’il y a un large accord autour des trois propositions suivantes ; je ne vais pas davantage les discuter, mais je vais ensuite poursuivre ma réflexion.

1. La macroéconomie concerne l’équilibre général.

2. Différents types de modèles d’équilibre général sont nécessaires pour différents objectifs. Pour l’exploration et la pédagogie, les critères retenus doivent être ceux de transparence et de simplicité ; pour cela, les modèles DSGE constituent un bon véhicule. Pour la prévision, le critère doit être celui de la précision de la prévision, or les modèles purement statistiques peuvent, pour l’heure, s’avérer meilleurs à la prévision. Pour la prévision conditionnelle, que l’on utilise par exemple pour connaître les répercussions de la modification d’une politique économique, des modèles plus structurels sont nécessaires, mais ils doivent coller aux données et l’on ne doit pas être obnubilé par leurs fondations microéconomiques.

3. La modélisation et l’estimation en équilibre partielle sont essentielles pour comprendre les mécanismes particuliers qui sont pertinents en macroéconomie. Ce n’est seulement que lorsqu’ils sont bien compris qu’il devient essentiel de comprendre leurs effets en équilibre général. Chaque macroéconomiste n’a pas à travailler sur des modèles d’équilibre général (il y a une division du travail).

Voici deux propositions plus controversées :

1. Les modèles DSGE dans la panoplie des modèles d’équilibre général ont pour rôle spécifique de fournir un ensemble de « Meccano » macroéconomiques de base, c’est-à-dire une plateforme formelle, analytique pour la discussion et l’intégration de nouveaux éléments : par exemple, comme base à partir de laquelle nous pouvons explorer le rôle des négociations sur le marché du travail, le rôle de la fixation des prix sur les marchés des biens, le rôle des banques dans l’intermédiation, le rôle des contraintes de liquidité sur la consommation, le rôle des équilibres multiples, etc. Certains semblent penser que c’est un rôle dangereux et contreproductif, une perte de temps, ou tout du moins qu’il y ait un coût d’opportunité élevé. Je ne le crois pas. Je crois que chercher une telle structure est non seulement utile, mais aussi possible.

2. Les modèles DSGE ne peuvent jouer ce rôle que s’ils sont construits sur des microfondations explicites. Ce n’est pas parce que les modèles avec microfondations sont plus vénérables que d’autres, mais parce qu’avec toute autre approche, il est plus difficile d’intégrer de nouveaux éléments et d’avoir un dialogue formel. Pour ceux qui croient qu’il y a peu de distorsions (disons, ceux qui croient l’approche des cycles d’affaires réels), c’est une approche simple et naturelle. Pour ceux d’entre nous qui croient qu’il existe de nombreuses distorsions contribuant à faire émerger les fluctuations macroéconomiques, cela allonge et complique le périple (…). On aimerait qu’il y ait un raccourci et un point de départ différent ; je ne pense pas que ce soit possible.

La marche à suivre


Si nous n’acceptons pas les deux propositions ci-dessus, alors les modèles DSGE ne sont clairement pas la voix à prendre, fin de la discussion. Il y a plein d’autres choses à faire dans la vie. Mais si, cependant, nous les acceptons (même avec une certaine réticence), alors le rejet complet des modèles DSGE n’est pas une option. La discussion doit porter sur la nature des microfondations et les distorsions que les modèles courantes possèdent et sur la façon par laquelle nous pouvons faire mieux.

Est-ce que les modèles DSGE courants représentent un ensemble de Meccano basique, un ensemble que la plupart des macroéconomistes acceptent d’utiliser comme point de départ ? (…) Je crois que la réponse est non. (J’ai présenté mes objections dans le document que j’ai publié il y a quelques mois.) Donc, les priorités pour la recherche sont évidentes à mes yeux :

Premièrement, pouvons-nous élaborer un modèle basique que la plupart de nous serions enclins à prendre comme point de départ, de la même façon que le modèle IS-LM a pu être un point de départ largement accepté il y a longtemps ? Au vu des avancées technologiques et de la facilité avec laquelle on peut utiliser les programmes de simulation, un tel modèle peut et doit probablement être substantiellement plus large que le modèle IS-LM, mais pourtant toujours rester transparent. A mes yeux, cela signifie qu’il faut partir du modèle des nouveaux keynésiens, mais en utilisant des équations relatives à la consommation et à la fixation des prix qui soient plus réalistes et en y intégrant les décisions relatives au capital donc à l’investissement.

Deuxièmement, pouvons-nous ensuite explorer de sérieuses améliorations sur divers plans ? Pouvons-nous avoir un modèle du comportement du consommateur plus réaliste ? Comment pouvons-nous nous écarter des anticipations rationnelles, tout en gardant l’idée que les ménages et les entreprises s’inquiètent pour l’avenir ? Quelle est la meilleure manière d’introduire l’intermédiation financière ? Comment pouvons-nous traiter les problèmes d’agrégation (qui ont été largement passés sous silence) ? Comment voulons-nous procéder pour l’estimation (qui est sérieusement déficiente) ? Et, pour chacune de ces thèmes, si nous n’aimons pas la manière par laquelle on les traite actuellement, quoi proposons-nous comme alternative ? Ce sont des choses dont nous devons discuter, pas de grandes paroles sur l’opportunité ou non d’utiliser les modèles DSGE ou sur l’utilité de la macroéconomie en général. »

Olivier Blanchard, « Further thoughts on DSGE models. What we agree on and what we do not », 3 octobre 2016. Traduit par Martin Anota

mercredi 5 octobre 2016

Wren-Lewis, Blanchard et les limites de la modélisation DSGE

Ne sous-estimez pas le pouvoir des microfondations !


« Brad DeLong s’est demandé pourquoi le modèle des nouveaux keynésiens (qui a initialement été proposé pour simplement montrer comment les prix visqueux dans un cadre de cycles d’affaires réels pouvaient générer des effets keynésiens) a pu réussir à devenir le modèle dominant dans la macroéconomie moderne, malgré ses diverses insuffisances empiriques. (…) DeLong dit que sa question est intimement reliée à la question suivante : "pourquoi les modèles qui ont été microfondés d’une façon que nous savons erronée sont préférés aux modèles qui essayent de respecter les propriétés que nous observons au niveau empirique ?"

J’estime que les deux questions sont en fait la même. Le modèle des nouveaux keynésiens est la manière microfondée de faire de l’économie keynésienne et les modèles microfondés (les modèles DSGE) sont de rigueur dans la macroéconomie universitaire, donc tout universitaire orthodoxe qui désirerait analyser le cycle d’affaires d’une perspective keynésienne va utiliser une variante du modèle des nouveaux keynésiens. Pourquoi les modèles microfondés sont dominants ? De mon point de vue, c’est une question méthodologique, à propos de l’importance relative de la cohérence "interne" (théorique) des modèles versus leur cohérence "externe" (empirique).

Comme la macroéconomie était très différente il y a cinquante ans, c’est une question méthodologique très intéressante de se demander pourquoi les choses ont changé, même si vous pensez que le changement a grandement amélioré la façon de faire de la macroéconomie (comme je le pense). Selon moi, la (contre-)révolution des nouveaux classiques était avant tout une révolution méthodologique. Cependant, il y a deux problèmes avec une telle discussion. Premièrement, les économistes ne sont généralement pas à l’aise lorsqu’il s’agit de parler de méthodologie. Deuxièmement, il va être difficile de faire admettre à un macroéconomiste sous un certain âge que ce soit une question méthodologique ; celui-ci ne verra les microfondations que comme une manière de corriger ce qui s’est révélé être des insuffisances par le passé.

Donc, par exemple, vous entendrez dire que la cohérence interne est clairement un aspect essentiel de tout modèle, même si elle est acquise en sacrifiant la cohérence externe. Vous entendrez comment la critique de Lucas montre que tout modèle qui n’est pas microfondé est inadéquat pour analyser les politiques économiques, plutôt que ce soit simplement un aspect de l’arbitrage complexe entre cohérence interne et cohérence externe. Plusieurs macroéconomistes aujourd’hui ne saisissent pas que l’adoption des microfondations est un choix méthodologique plutôt qu’un simple moyen de corriger les erreurs passées. Je pense que cela a deux implications pour ceux qui veulent débattre de l’hégémonie des microfondations. La première est que le débat doit se porter sur la méthodologie, plutôt que sur les modèles pris individuellement. Les déficiences avec des modèles microfondés particuliers, comme le modèle des nouveaux keynésiens, sont généralement admises et, du point de vue des microfondations, elles fournissent simplement un agenda pour de nouvelles recherches. Deuxièmement, le manque de familiarité avec cette méthodologie signifie que le débat ne peut présumer un savoir qui n’existe pas. (Et affirmer qu’un tel savoir est nécessaire est un point pertinent pour l’enseignement de l’économie, mais c’est inutile si vous essayez de changer le discours actuel.) Cela complique le débat, mais je suis certain qu’il ne l’empêche pas. »

Simon Wren-Lewis, « Do not underestimate the power of microfoundations », in Mainly Macro (blog), 3 avril 2015. Traduit par Martin Anota



Blanchard à propos de la modélisation DSGE


« Olivier Blanchard, l'ancien économiste en chef du FMI, a écrit un bref article où il s'est montré critique vis-à-vis des modèles DSGE. Pour résumer, les blogueurs ont réagi à son article en suggérant qu’il s’est montré trop précautionneux dans ses propos : la modélisation DSGE domine complètement la macroéconomie universitaire et il est impossible que celle-ci considère soudainement ce programme de recherche comme un énorme gâchis. (Je suis d’accord avec Blanchard à l’idée que la modélisation DSGE ne soit pas une perte de temps.) Ce qui doit être débattu, ce n’est pas l’existence des modèles DSGE, mais leur hégémonie.

Blanchard recommande notamment à ce que la modélisation DSGE "devienne moins impérialiste. (…) La profession (j’entends avant tout les éditeurs des grandes revues) doit prendre conscience qu’il est nécessaire d’avoir différents modèles pour assurer différentes tâches". Le morceau le plus important dans cette phrase est celui entre parenthèses. Il fait référence à une distinction entre les modèles pleinement microfondés et les "modèles de politique économique". Ces derniers ont notamment été appelés par le passé "modèles économétriques structurels" ; ce sont les modèles auxquels Lucas et Sargent se sont attaqués.

Ces modèles économétriques structurels ont continué d’être utilisés comme modèles de base dans plusieurs institutions-clés de politique économique (sauf la Banque d’Angleterre) pour une bonne raison, mais la plupart des universitaires ont suivi Lucas et Sargent en considérant que ces modèles comme ne relèvent pas de la "bonne" macroéconomie. Leur raisonnement est simplement erroné, comme je l’ai indiqué ici. Comme Blanchard le note, ce sont les éditeurs des revues les plus en vue qui doivent en prendre conscience et arrêter d’insister pour que chaque modèle macroéconomique soit nécessairement microfondé. Dès lors qu’ils laisseront de la place pour l’éclectisme, alors les universitaires seront capables de choisir quelles méthodes ils préfèrent utiliser.

Dans une autre remarque qu’il destine aux éditeurs de revues, Blanchard touche le cœur du problème avec la macroéconomie d’aujourd’hui. Il écrit que "toute discussion d’un nouveau mécanisme ne doit pas nécessairement se faire dans un cadre d’équilibre générale". L’exemple dont il discute (et que j’ai moi-même utilisé dans le même contexte) est celui de la consommation. Les modélisateurs DSGE se sont bien sûr souvent écartés de l’équation d’Euler, mais je les soupçonne de l’avoir fait (…) plus pour une convenance analytique que pour une question de réalisme.

Ce qui semble souvent manquer dans la macroéconomie aujourd’hui est une connexion entre les personnes travaillant sur l’analyse en équilibre partiel (comme la consommation) et les modélisateurs de l’équilibre général. La préférence des éditeurs des revues les plus prestigieuses pour la seconde suggère que la première est d’une moindre valeur. A mes yeux, cela a déjà eu d’importants coûts. L’échec à prendre au sérieux les preuves empiriques montrant l’importance de la disponibilité du crédit pour la consommation contribue à expliquer pourquoi la macroéconomie n’a pas su adéquatement modéliser la réaction à la crise financière (…). Même si vous n’acceptez pas cela, l’échec de la plupart des modèles DSGE à inclure tout genre de comportement d’épargne de précaution est pernicieux lorsque la modélisation DSGE est en situation de monopole dans la "bonne" modélisation.

Les critiques à l’encontre de l’hégémonie des modèles DSGE que formulent les non-économistes, les macroéconomistes qui n’utilisent pas ces modèles ou encore les responsables de politique économique n’ont jusqu’à présent eu que peu d’impact sur les éditeurs des revues les plus prestigieuses. Peut-être que des critiques émanant d’un des meilleurs macroéconomistes au monde sont susceptibles d’avoir plus de poids. »

Simon Wren-Lewis, « Blanchard on DSGE », in Mainly Macro (blog), 12 août 2016. Traduit par Martin Anota

mercredi 28 septembre 2016

Wren-Lewis, les microfondations et la critique de Romer

Paul Romer sur la macroéconomie


« C’est ironique de voir que le projet des microfondations, qui devait faire de la macroéconomie une autre application de la microéconomie, a laissé la macroéconomie avec très peu d’amis parmi les autres économistes. La dernière diatribe en date vient de Paul Romer. Oui, elle est injuste et, oui, elle est truffée de passages peu convaincants, mais il ne sera pas ignoré par ceux qui sont en-dehors de la macroéconomie orthodoxe. C’est en partie parce qu’il discute de questions sur lesquelles la macroéconomie moderne est extrêmement vulnérable.

La première vulnérabilité est son traitement des données. Ce que dit Paul sur l’identification montre que la macroéconomie a besoin d’utiliser toutes les informations précises dont elle a à disposition pour paramétrer ses modèles. Pourtant, les modèles microfondés, les seuls modèles que l’on considère comme acceptables dans les revues les plus prestigieuses pour l’analyse théorique comme pour l’analyse empirique, sont normalement plutôt sélectifs en ce qui concerne les données sur lesquelles ils se focalisent. Les preuves empiriques tant micro que macro sont soit ignorées parce qu’elles sont considérées comme gênantes, soit inscrites sur une liste de choses à faire pour de futures recherches. C’est une conséquence inévitable lorsque l’on fait de la cohérence interne un critère d’admissibilité pour qualifier un travail de publiable.

La seconde vulnérabilité est un conservatisme qui découle de sa méthodologie. Le critère des microfondations pris dans sa forme stricte rend certains processus impossibles à modéliser : par exemple, modéliser les prix visqueux où les coûts de menus constituent un paramètre clé. Plutôt, la modélisation DSGE utilise des astuces, comme les contrats de Calvo. Mais qui décide si ces astuces représentent des microfondations acceptables ou bien des éléments ad hoc, voire invraisemblables ? La réponse dépend pour beaucoup des conventions en vigueur parmi les macroéconomistes or, comme toutes les conventions, celles-ci évoluent lentement. A nouveau, c’est un problème qui découle de la méthodologie des microfondations.

Les propos que Romer tient à propos des effets réels de la politique monétaire et de l’insistance que certains portent aux chocs de productivité comme moteurs des cycles d’affaires sonnent datés. (…). Pourtant il fallut beaucoup de temps pour que les modèles de cycles d’affaires réels soient remplacés par les modèles des nouveaux keynésiens et vous verrez toujours des modèles de cycles d’affaires réels. Des éléments issus de la contre-révolution néoclassique des années quatre-vingt persistent toujours dans certains lieux. Il y a quelques années j’ai entendu parler à un séminaire d’une analyse où la crise financière était modélisée comme un large choc négatif de productivité.

C’est seulement dans une discipline qui considère qu’avoir de robustes microfondations constitue la seule manière acceptable de modéliser que des praticiens se sentent peu à l’aise à l’idée d’inclure les prix visqueux au motif que leurs microfondations (les astuces mentionnées ci-dessus) soient problématiques. C’est seulement dans cette discipline que des chercheurs respectés affirment qu’en raison de ces piètres microfondations il vaut mieux ignorer quelque chose comme les prix visqueux quand il s’agit de travailler sur les politiques, un argument qui ferait bien rire si on l’entendait dans une autre discipline scientifique. C’est la seule discipline où l’on débat pour déterminer s’il vaut mieux modéliser ce que l’on peut microfonder plutôt que modéliser ce que l’on voit. D’autres économistes comprennent le problème, mais plusieurs macroéconomistes pensent toujours que tout cela est assez normal. »

Simon Wren-Lewis, « Paul Romer on macroeconomics », in Mainly Macro (blog), 20 septembre 2016. Traduit par Martin Anota



Qu’est-ce qui ne va pas avec le modèle des cycles d’affaires réels ?


« Les modèles DSGE, les modèles que les macroéconomistes orthodoxes utilisent pour modéliser les cycles d’affaires, sont fondés sur le modèle des cycles d’affaires réels. Nous savons (presque) tous que le projet des cycles d’affaires réels a échoué. Donc pourrait-on trouver acceptable d’avoir quelque chose qui se fonderait sur un tel modèle ? Comme le dirait Donald Trump, que se passe-t-il ?

Le modèle de cycles d’affaires réels de base contient une fonction de production reliant la production au capital (possédé par les individus) et au travail plus un élément stochastique représentant le progrès technique, une identité reliant l’investissement et le capital, une identité du revenu national posant la production comme la somme de la consommation et de l’investissement, les conditions de productivité marginale (découlant de la maximisation du profit par des entreprises représentatives en environnement parfaitement concurrentiel) donnant le salaire réel et le taux d’intérêt réel et le problème d’optimisation du consommateur représentatif pour la consommation, l’offre de travail et le capital.

Quel est le gros problème avec ce modèle ? (…) Ignorons le capital, parce que dans le modèle canonique des nouveaux keynésiens le capital n’apparaît pas. Si vous dites que c’est le rôle proéminent conféré aux chocs associés au progrès technique, je vous dirais que je suis d’accord pour dire que c’est un gros problème : toutes les équations comportementales doivent contenir des événements stochastiques qui peuvent aussi générer un choc dans cette économie, mais les modèles des nouveaux keynésiens le font à divers degrés. Si vous dites que c’est l’hypothèse d’équilibrage du marché du travail, je vous dirais que c’est aussi un gros problème. Cependant, à mes yeux, rien de tout cela ne constitue le plus grand problème avec le modèle des cycles d’affaires réels. Le plus gros problème, c’est l’hypothèse d’ajustement continu des marchés des biens et services, autrement dit l’hypothèse de prix pleinement flexibles. C’est l’hypothèse qui amène à conclure que la politique monétaire n’a pas d’impact sur les variables réelles. Maintenant, un modélisateur de cycles d’affaires réels pourrait répondre : comment le savez-vous ? Sûrement qu’il fait sens de voir si un modèle qui suppose une flexibilité des prix peut générer quelque chose comme des cycles d’affaires ?

La réponse à cette question est non, il ne le fait pas. Il ne le fait pas parce que nous savons qu’il ne le peut pas pour une simple raison : le chômage lors d’une récession est involontaire et ce modèle ne peut générer de chômage involontaire, mais seulement des variations volontaires de l’offre de travail, en conséquence des variations à court terme du salaire réel. Une fois que vous acceptez le fait que le chômage lors des récessions est involontaire (et les preuves empiriques en faveur d’une telle idée sont très robustes), vous comprenez pourquoi le projet des cycles d’affaires réels ne marche pas.

Donc pourquoi les modèles de cycles d’affaires réels n’ont-ils jamais décollé ? Parce que la révolution des nouveaux classiques a prétendu que toutes les choses que nous connaissions avant elle devaient être écartées au motif qu’elles ne s’appuyaient pas sur la bonne méthodologie. Mais aussi parce que la bonne méthodologie, en l'occurrence la méthodologie des microfondations, permit au chercheur de sélectionner quelles preuves empiriques (micro ou macro) étaient admissibles. Cela, à son tour, explique pourquoi la méthodologie des microfondations s’est retrouvée au centre de toute critique de la macroéconomie moderne. Je laisse sous silence pourquoi les modélisateurs de cycles d’affaires réels ont écarté les preuves empiriques montrant que le chômage est involontaire.

Le modèle des nouveaux keynésiens, bien qu’il n’ait peut-être ajouté qu’une seule équation au modèle des cycles d’affaires réels, a réussi à corriger sa principale faille : son échec à reconnaître le savoir prérévolutionnaire à propos de ce qui provoque les cycles d’affaires et de ce que vous devez faire pour les combattre. Dans ce sens, le fossé qu’il a creusé avec l’héritage qu’il tire de la théorie des cycles d’affaires réels a été profond. Est-ce que l’analyse des nouveaux keynésiens est toujours entravée par sa filiation avec la théorie des cycles d’affaires réels ? La réponse est complexe (voir par exemple ici) et elle tient à la fois du oui et du non. Mais à nouveau, je serais plutôt enclin à affirmer que ce qui entrave davantage les avancées de la macroéconomie moderne est sa dépendance à une méthodologie très particulière.

Un dernier point. Beaucoup de personnes en dehors de la macroéconomie orthodoxe aiment décrire la modélisation DSGE comme une stratégie de recherche dégénérative. Je pense que c’est une affirmation très difficile à étayer et qu’elle n’est pas convaincante aux yeux des économistes orthodoxes. Ce que j’affirme par contre, (…) c’est qu’il n’y a pas de bonne raison justifiant pourquoi la modélisation des microfondations devrait être la seule stratégie de recherche employée par les économistes universitaires. Je mets au défi quiconque de mettre en doute cette idée. »

Simon Wren-Lewis, « What is so bad about the RBC model? », in Mainly Macro (blog), 20 août 2016. Traduit par Martin Anota

- page 1 de 3