Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Olivier Blanchard

Fil des billets

dimanche 15 janvier 2017

Quels modèles utiliser en macroéconomie ?



« (…) Nous avons besoin de différentes classes de modèles, et ce afin de réaliser des tâches différentes.

Je vais me focaliser sur deux classes de modèles.

Les modèles théoriques, visant à clarifier les questions théoriques dans un cadre d’équilibre général. Les modèles de cette classe doivent se construire à partir d’un cadre analytique fondamental et avoir une structure théorique des plus robustes. Ils doivent être utilisés pour réfléchir, par exemple, aux effets d’un relèvement des ratios minima de capitaux que la réglementation impose aux banques, aux effets de la gestion de la dette publique ou encore aux effets d’une forme particulière de politique monétaire non conventionnelle. Ce cadre fondamental doit être celui qui est largement accepté comme point de départ et il doit pouvoir intégrer des distorsions additionnelles. En bref, il doit faciliter le débat autour des théoriciens en macroéconomie.

Les modèles de politique économique, visant à analyser les questions de politique macroéconomique courantes. Les modèles de cette classe doivent coller aux principales caractéristiques des données, notamment les dynamiques, et permettre de réaliser une analyse, notamment contrefactuelle, des politiques économiques. Ils doivent être utilisés pour réfléchir, par exemple, aux effets quantitatifs d’un ralentissement de la croissance chinoise sur l’économie américaine ou aux répercussions d’une relance menée aux Etats-Unis sur les pays émergents.

Ce serait une bonne chose si un unique modèle pouvait avoir une structure théorique robuste, élégante, tout en collant aux données. Mais c’est un rêve vain. Peut-être que l’une des principales leçons du travail empirique (du moins en macroéconomie et d’après mon expérience) est à quel point les preuves empiriques sont chaotiques, à quel point les dynamiques agrégées sont difficiles à rationaliser et à quel point plusieurs relations sont instables au cours du temps. Ce n’est peut-être pas surprenant. Nous savons, par exemple, que les relations agrégées peuvent très peu ressembler aux comportements individuels sous-jacents.

Donc, les modèles qui visent à atteindre ces deux objectifs sont condamnés à échouer, sur les deux dimensions.

Prenons les modèles théoriques. Les concepteurs de modèles DSGE, confrontés à des dynamiques complexes, mais désireux de coller aux données, ont étendu leur structure originelle en ajoutant, par exemple, la persistance externe des habitudes (pas simplement la persistance des vieilles habitudes régulières), les coûts d’un changement de l’investissement (pas seulement les coûts de changement du capital) et l’indexation des prix (que nous ne pouvons observer dans la réalité), etc. Ces changements sont entièrement ad hoc, ils ne collent pas aux données empiriques microéconomiques et ils ont alourdi et fragilisé la structure théorique des modèles.

Prenons aussi les modèles de politique économique. Les concepteurs de ces modèles, désireux de renforcer la structure théorique de leurs modèles, ont, dans certains cas, cherché à dériver les structures observées d’une certaine forme d’optimisation. Par exemple, dans le principal modèle utilisé par la Réserve fédérale, le modèle FRB-US, les équations dynamiques sont contraintes à être des solutions aux problèmes d’optimisation sous des structures de coûts d’ajustement de premier ordre. Cela m’a frappé. Les dynamiques actuelles reflètent probablement plusieurs autres facteurs que les coûts d’ajustement. Et les contraintes qui sont imposées (par exemple, sur la façon par laquelle le passé et le futur anticipé entrent dans les équations) ont peu de justification, théorique ou empirique.

Que doit-on faire ? Je suggère que chacune des deux classes de modèles suive sa propre voie.

Les concepteurs de modèles DSGE doivent accepter le fait que les modèles théoriques ne peuvent, et donc ne doivent pas, coller fidèlement à la réalité. Ces modèles doivent capturer ce que nous croyons être les caractéristiques macroéconomiques essentielles du comportement des firmes et des ménages et ne pas essayer de capturer toutes les dynamiques pertinentes. Ce n’est seulement alors qu’ils peuvent atteindre leur propos, rester suffisamment simples et fournir une plateforme pour la discussion théorique.

Les modélisateurs de politique économique doivent accepter le fait que les équations qui collent vraiment aux données peuvent n’avoir qu’une fragile justification théorique. En cela, les concepteurs des premiers modèles macroéconomiques avaient raison : la théorie du revenu permanent, la théorie du cycle de vie, la théorie du ratio q ont servi de guides pour spécifier le comportement de la consommation et de l’investissement, mais les données ont ensuite déterminé les spécifications finales.

Les deux classes de modèles doivent clairement interagir et bénéficier l’une de l’autre. Pour utiliser une expression suggérée par Ricardo Reis, il doit y avoir une co-intégration scientifique. Mais, selon moi, cela s’est révélé être contreproductif d’atteindre une intégration complète. Aucun modèle ne peut satisfaire pleinement tout le monde. »

Olivier Blanchard, « The need for different classes of macroeconomic models », 12 janvier 2017. Traduit par Martin Anota



« Dès que j’ai commencé à bloguer, j’ai régulièrement écrit des billets sur la méthodologie macroéconomique. J’ai notamment cherché à convaincre les autres macroéconomistes que les modèles économétriques structurels, avec leur mixture ad hoc de théorie et de données, n’étaient pas un vieux dinosaure à ranger aux oubliettes, mais qu’ils offraient une façon parfaitement viable de faire de la macroéconomie et de la politique macroéconomique. Je suis bien placé pour le dire car, au cours de ma carrière, j’ai utilisé aussi bien des modèles économétriques structurels que des modèles DSGE dans les articles que j’ai publiés.

Le troisième billet d’Olivier Blanchard sur les modèles DSGE fait exactement la même chose. Il est quelque peu confus lorsqu’il les appelle "modèles de politique économique" ; lorsqu’il écrit que "les modèles de cette classe doivent coller aux principales caractéristiques des données, notamment les dynamiques, et de permettre une analyse, notamment contrefactuelle, de la politique économique", il ne peut que faire référence aux modèles économétriques structurels. Je préfère les modèles économétriques structurels aux modèles de politique économique parce que les modèles économétriques structurels décrivent ce qu’il y a dans la boîte : ils sont qualifiés de "structuraux" parce qu’ils utilisent beaucoup de théorie, mais on les qualifie également d’"économétriques" parce qu’ils essayent de coller aux données et ils y parviennent. (…)

La façon par laquelle j’estimerais un modèle économétrique structurel aujourd’hui (mais pas nécessairement la seule façon valide) serait de commencer avec un modèle DSGE élaboré. Mais plutôt que d’estimer ce modèle en utilisant des méthodes bayésiennes, je l’utiliserais comme une base théorique, avec laquelle je débuterais le travail économétrique, soit sur une base équation par équation, soit comme un ensemble de sous-systèmes. Là où les structures de retard ou les restrictions inter-équation seraient clairement rejetées par les données, je changerais le modèle pour coller davantage aux données. Si certaines variables, non incluses dans la spécification DSGE, présentaient un fort pouvoir pour expliquer variables déjà incluses et auraient selon moi une relation causale avec celles-ci (c’est-à-dire pourquoi la spécification DSGE était inadéquate), je les inclurais dans le modèle. Cela deviendrait le modèle économétrique structurel.

Si cela vous semble terriblement ad hoc, c’est parce que c’est le cas. Les modèles économétriques structurels sont un mélange éclectique de théorie et de données. Mais ils vont toujours être utiles aux universitaires et aux responsables de la politique économique qui veulent travailler avec un modèle qui est raisonnablement proche des données. Ceux que j’appelle les puristes DSGE doivent admettre que les modèles DSGE ne collent pas aux données en plusieurs domaines, donc qu’ils sont mal spécifiés et que tout conseil de politique économique qu’ils peuvent délivrer est invalide. Le fait qu’ils satisfont la critique de Lucas ne suffit pas pour compenser cette mauvaise spécification.

En établissant la relation entre un modèle DSGE et un modèle économétrique structurel de la façon que je l’ai fait, cela rend manifeste pourquoi les deux types de modèles vont continuer d’être utilisés et comment les modèles économétriques structurels peuvent s’inspirer des modèles DSGE. Les modèles économétriques structurels sont aussi utiles pour le développement des modèles DSGE, dans la mesure où les écarts qu’ils présentent par rapport à ces derniers fournissent une longue liste d’énigmes potentielles sur lesquelles les théoriciens utilisant les modèles DSGE peuvent enquêter. Peut-être qu’un jour les modèles DSGE colleront tellement bien aux données que nous n’aurons plus besoin des modèles économétriques structurels, mais ce n’est pas pour demain.

Est-ce que ce que Blanchard et moi-même appelons va finir par se réaliser ? C’est déjà ce qui se fait dans une large mesure au sein de la Fed : comme Blanchard le dit, ce qui constitue effectivement son modèle est un modèle économétrique structurel. La Banque d’Angleterre utilise un modèle DSGE et le comité de politique monétaire recevrait plus de conseils utiles de son équipe si ce modèle était remplacé par un modèle économétrique structurel. Le vrai problème est avec l’université et surtout (comme Blanchard l’a identifié dans un billet précédent) les éditeurs de revues. Bien sûr, la plupart des universitaires vont continuer d’utiliser des modèles DSGE, ce qui ne me pose pas de problème en soi. Par contre, ceux qui utilisent, non pas un modèle DSGE, mais un modèle économétrique structurel, ne doivent pas être systématiquement écartés des revues les plus prestigieuses. Ils le sont actuellement et je ne suis pas sûr (malgré l’intervention de Blanchard) que cela changera bientôt. »

Simon Wren-Lewis, « Blanchard joins calls for structural econometric models to be brought in from the cold », in Mainly Macro (blog), 15 janvier 2017. Traduit par Martin Anota

vendredi 9 décembre 2016

Etat des lieux des perspectives et politiques macroéconomiques dans les pays développés



« Peut-être que le fait macroéconomique le plus frappant à propos des pays développés aujourd’hui est la faiblesse que présente la demande globale dans un contexte de taux d’intérêt proches de zéro. Dans le sillage de la crise financière mondiale, nous avions de bons candidats pour expliquer pourquoi la demande restait durablement faible : les legs de la crise, du désendettement des banques aux plans d’austérité adoptés par les gouvernements, en passant par l’anxiété persistante des ménages et des entreprises, peuvent tous expliquer pourquoi, malgré les faibles taux d’intérêt, la demande est restée déprimée. Cette explication est de moins en moins convaincante. Les banques se sont très largement désendettées, l’offre de crédit s’est assouplie, la consolidation budgétaire a été mise en suspens et la crise financière a désormais disparu du rétroviseur. Pourquoi alors ? Peut-être que les stigmates du passé se sont effacés, mais que l’avenir apparaît plus sombre. Les prévisions de croissance potentielle ont en effet été régulièrement révisées à la baisse. Et les ménages et les entreprises (anticipant un avenir plus sombre) ont réduit leurs dépenses, ce qui s’est traduit par une croissance de la demande plus faible que ce que nous pouvions observer en temps normal. (…)

Voici l’analyse plus détaillée.

La croissance de la productivité. Le raisonnement ci-dessus suggère que le ralentissement de la croissance de la productivité est la cause première derrière les dynamiques actuelles (en plus d’une tendance démographique négative), pas juste via le côté de l’offre, mais également via la demande globale.

A quel point devons-nous être pessimistes à propos de la future croissance de la productivité ? Que savons-nous vraiment ? Ma lecture des diverses études sur le sujet m’amène à penser qu’une forte incertitude demeure. Voici mes principales idées.

Si nous regardons ces dix dernières années, nous constatons que la croissance de la productivité a vraiment diminué ; ce n’est pas simplement un problème de mesure. Le processus de rattrapage qui avait entraîné une forte croissance de la productivité en Europe au cours des précédentes décennies s’est interrompu, voire même inversé. Mais, même à la frontière technologique (c’est-à-dire aux Etats-Unis), il y a également un ralentissement. L’innovation semble se poursuivre au même rythme, mais la diffusion (c’est-à-dire l’usage d’innovations en vue d’améliorer les processus productifs et d’accroître la productivité), qui était exceptionnellement forte entre le milieu des années quatre-vingt-dix et le milieu des années deux mille, tend à ralentir.

Les meilleures entreprises semblent continuer de jouir d’une forte croissance de la productivité ; les entreprises qui étaient les moins productives au départ semblent s’être éloignées de la frontière.

Qu’est-ce que cela nous indique pour l’avenir ? Malheureusement, pas grand-chose. Nous ne nous attendions pas à ce que la croissance de la productivité s’accélère entre 1995 et 2005 et nous ne nous attendions pas à ce qu’elle ralentisse ensuite. Et ce n’est pas un cas isolé. Les corrélations entre les moyennes de la croissance de la productivité au cours du temps sont faibles : Par exemple, pour les Etats-Unis depuis le milieu des années soixante-dix, la corrélation des paires successives de moyennes de la croissance de la productivité totale des facteurs sur cinq ans est de seulement 0,20. Bref, je pense que la croissance de la productivité va rester faible, mais il y a beaucoup de facteurs à prendre en compte, notamment beaucoup de risques haussiers.

Le taux d’intérêt neutre. La tendance baissière à long terme du taux d’intérêt d’équilibre (le taux d’intérêt sûr qui est compatible avec une production opérant à son potentiel) que l’on a pu observer depuis le milieu des années quatre-vingt est trop importante pour être ignorée et je pense que ce taux d’équilibre va rester faible pendant encore un bon moment. Mais il y a encore beaucoup d’incertitude et plusieurs risques haussiers.

Premièrement, certains facteurs qui ont contribué à le pousser à la baisse ces dernières décennies peuvent désormais agir en sens inverse. L’excès mondial d’épargne a été en grande partie éliminé : l’excédent du compte courant de la Chine a été réduit de moitié et les amples excédents courants des pays producteurs de pétrole ont laissé place à des déficits. Les changements démographiques entraînent une hausse de la part de retraités dans la population, or ceux-ci sont davantage susceptibles de désépargner que d’épargne. Deuxièmement, comme peuvent le suggérer les précédentes crises financières, "l’aversion des marchés face au risque" va lentement s’estomper, ce qui réduira la demande d’actifs sûrs et augmentera par là même le taux d’intérêt sûr (même si la réglementation financière tend au contraire à stimuler la demande). Troisièmement, le diagnostic ci-dessus suggère qu’une faible croissance de la demande peut refléter un ajustement temporaire provoqué par la révision à la baisse des anticipations de croissance potentielle : s’ils s’attendent à une moindre croissance des revenus, les consommateurs peuvent en conclure qu’ils doivent épargner plus pendant un moment ; si elles s’attendent à une plus lente croissance des ventes, les entreprises peuvent annuler certains projets d’investissement. Mais, une fois l’ajustement achevé, la demande globale est susceptible de se renforcer à nouveau, ce qui entraîne une hausse du taux d’intérêt neutre. Rien de tout cela n’est certain, mais personnellement, je pense que le taux d’intérêt neutre sera plus élevé que ce que prévoient implicitement aujourd’hui les marchés.

Qu’est-ce que les écarts de production (output gaps) négatifs, les piètres perspectives de croissance de la productivité, les faibles taux neutres et la grande incertitude autour de la croissance de la productivité et des taux neutres impliquent pour la politique macroéconomique aujourd’hui ?

Commençons avec la politique monétaire. Dans la plupart des pays, sauf peut-être aux Etats-Unis (…), l’écart de production reste négatif, ce qui plaide en faveur d’un assouplissement de la politique monétaire. Mais certains affirment que les achats d’actifs peuvent finir par devenir contreproductifs. Je crois que nous pouvons en effet être proches de ce point.

A l’inverse de la politique monétaire conventionnelle, les mesures non conventionnelles (notamment les achats d’actifs à plus long terme ou plus risqués) conduisent non seulement à une baisse des taux, mais aussi à une hausse des risques, un point souvent souligné (excessivement) par la Banque des Règlements Internationaux. (...)

Un autre motif d’inquiétude est que la politique monétaire non conventionnelle est susceptible de réduire les profits des banques ; c’est particulièrement le cas avec les taux d’intérêt nominaux négatifs, comme les banques peuvent ne pas vouloir faire répercuter les taux négatifs à certains de leurs déposants (même si, jusqu’à présent, les données empiriques sur les profits bancaires ne montrent pas d’effets significatifs). Si c’est effectivement le cas, l’effet direct positif de la baisse des taux sur la demande globale peut être plus que compensé par l’effet négatif que peut avoir le resserrement de l’offre de crédit bancaire sur cette dernière. A partir d’un certain taux d’intérêt, la politique monétaire non conventionnelle va devenir contreproductive, non seulement en accroissant les risques, mais aussi en diminuant la demande globale. Je ne crois pas que nous en soyons là, mais plus nous nous rapprochons de ce point, plus les nouvelles mesures non conventionnelles que les banques centrales adoptent sont susceptibles de devenir contreproductives.

La responsabilité de la gestion macroéconomique incombe alors à la politique budgétaire. Je crois qu’il y a une réelle marge de manœuvre pour assouplir la politique budgétaire afin de réduire les écarts de production et accroître la production potentielle.

Premièrement, on évalue mieux la marge de manœuvre budgétaire en regardant les paiements des intérêts sur la dette plutôt que le niveau de la dette lui-même. Certes, comme nous l’avons dit précédemment, le taux d’intérêt neutre (et donc le taux sur les obligations publiques) est susceptible de s’accroître à l’avenir, en l’occurrence davantage que ne le suggèrent les actuelles courbes de rendements. Mais vu à quel point les courbes de rendements sont aujourd’hui plates, les gouvernements peuvent s’assurer d’avoir de faibles taux d’intérêt à long terme pour plus d’une décennie.

Deuxièmement, la marge de manœuvre budgétaire est un concept mécanique : elle dépend de la façon par laquelle les investisseurs financiers perçoivent le surcroît de dépenses publiques et le creusement des déficits. S’ils les interprètent comme stimulant la croissance, ils ne vont pas réagir de la même façon que s’ils pensent qu’il ne s’agit qu’une simple expansion de la bureaucratie publique. Par exemple, s’ils voient un ratio dette publique sur PIB de, disons, 100 % comme soutenable (niveau auquel il se situe justement aujourd’hui dans la plupart des pays), il est peu probable qu’ils changent d’avis s’ils voient l’Etat s’endetter davantage, par exemple de deux points de PIB supplémentaires, de façon à renforcer les infrastructures publiques. Si en outre l’effort est réalisé sur deux ans, il peut substantiellement stimuler la demande globale à court terme et accroître la production potentielle à plus long terme.

Troisièmement, ce qui est vrai pour l’investissement privé est également vrai pour l’investissement public : à de plus faibles taux d’intérêt, il fait sens d’accroître l’investissement. Dans la mesure où l’austérité budgétaire s’est faite en grande partie aux dépens de l’investissement public, l’argument en faveur d’un surcroît d’investissement public, qui était déjà robuste dans de nombreux pays, notamment les Etats-Unis, apparaît désormais encore plus puissant.

Quatrièmement, dans la mesure où l’écart de production reste négatif et où la politique monétaire est particulièrement contrainte, il y a un puissant argument pour accroître l’investissement aujourd’hui plutôt que plus tard, à un moment où l’écart de production se sera de nouveau refermé et où seront relevés pour compenser la hausse des dépenses publiques.

Enfin, que dire à propos des fameuses "réformes structurelles" ? Accroître la croissance de la productivité résoudrait plusieurs plaies macroéconomiques auxquelles les pays avancés font actuellement face. Cela rendrait le futur plus attrayant, ce qui contribuerait à stimuler la demande globale et la production aujourd’hui ; cela peut aussi contribuer à pousser le taux d’intérêt neutre à la hausse et à donner plus de marge de manœuvre à la politique monétaire. La principale leçon est toutefois que nous nous devons être réalistes quant à ce que ces réformes peuvent accomplir.

Plusieurs réformes inscrites à l’agenda des pays du G20 ou de l’OCDE sont susceptibles d’avoir un effet ponctuel sur le niveau de la productivité et donc ne sont pas susceptibles de compenser la baisse observée de la croissance de la productivité. En outre, plusieurs de ces réformes ont des effets distributionnels, à la fois en termes de revenus et d’emplois : elles peuvent éliminer les rentes (pensez aux chauffeurs de taxi qui achètent leur licence et voient leur valeur s’effondrer) ou accroître temporairement le chômage (pensez aux réformes de la protection de l’emploi). En effet, c’est souvent pour cette raison que ces réformes sont difficiles à faire passer et à obtenir suffisamment de soutien politique. Il est tentant de dire aux gouvernements de les mettre en œuvre malgré tout. Cependant, dans un contexte d’inégalités de revenu croissantes et de chômage élevé, à moins que les travailleurs qui sont négativement affectés dans le processus puissent vraiment obtenir une compensation, l’arbitrage entre l’effet de productivité et les effets de répartition peut ne pas rester pertinent.

Nous devons donc placer la focale sur les réformes qui peuvent accélérer la croissance de la productivité, que cela concerne l’éducation, les droits de propriété ou le rôle de l’Etat. C’est cependant plus facile à dire qu’à faire. Ces réformes sont plus difficiles à définir et à mettre en place et leurs effets sont bien plus incertains et de plus long terme. Bref, le conseil doit être : choisissez soigneusement vos réformes structurelles et ne comptez pas sur un miracle. »

Olivier Blanchard, « The state of advanced economies and related policy debates: A fall 2016 assessment », PIIE, policy brief, n° 16-14, septembre 2016. Traduit par Martin Anota

vendredi 25 novembre 2016

Quelle devrait être l'ampleur des déficits publics aux Etats-Unis ?



« Le gouvernement américain peut emprunter à des taux d’intérêt très proches de zéro. Les bénéfices à long terme de l’investissement public sont certainement supérieurs à zéro. N’est-il pas évident que les arguments en faveur d’un surcroît d’endettement public sont légion ? que nous pouvons et devons générer de plus larges déficits budgétaires ?

En fait, la réponse n'est pas si évidente que cela.

Certes, les coûts d’endettement du gouvernement américain sont très faibles. En effet, lorsque l’inflation est prise en compte, le gouvernement américain peut emprunter à des taux d’intérêt réels négatifs. De tels taux sont substantiellement plus faibles que le taux de croissance (faible, mais positif) du PIB américain. Même les taux d’intérêt de long terme sont faibles, donc en émettant une dette à long terme, le gouvernement peut être sûr de payer de faibles taux d’intérêt pendant un certain temps.

Certes, si les taux d’intérêt restaient à jamais à un plus faible niveau que les taux de croissance du PIB, cela aurait un avantage énorme pour les finances publiques : Le gouvernement peut émettre de la dette, ne jamais la rembourser, et pourtant le ratio dette publique sur PIB déclinerait régulièrement. Aucune taxe ne serait jamais nécessaire pour assurer la soutenabilité de l’endettement public. Même si l’inégalité était inversée à un moment ou à un autre dans le futur (ce qui peut très bien être le cas), les impôts nécessaires pour maintenir le ratio dette publique sur PIB sur une trajectoire soutenable seraient faibles. Plus le temps du renversement est distant, plus faible sera le montant des impôts nécessaires.

Certes, si l’économie opérait loin de son potentiel, les arguments en faveur de larges déficits publics seraient robustes. Sous de telles conditions, les autorités devraient sûrement accroître l’investissement public et le financer par l’emprunt. Et même une hausse des dépenses courantes, disons des transferts budgétaires directs, serait justifiée : cela accroîtrait la demande agrégée et ramènerait l’économie à son potentiel, avec pas ou peu de coût fiscal. Donc, c’est bon ? Nous pouvons trancher ? Non.

L’économie américaine est proche de son potentiel. Les récentes pressions inflationnistes suggèrent que nous sommes proches du plein emploi. Le taux de croissance du PIB américain, qui a tourné autour de 2 %, est proche des estimations courantes de la croissance potentielle. L’inflation est toujours sous sa cible, mais l’on prévoit qu’elle l’atteindra bientôt.

Cela implique que, si les autorités américaines voulaient éviter une économie en surchauffe, un surcroît de dépenses publiques devrait être compensé par une réduction d’une composante des dépenses privées (qui risque d’être obtenue par une hausse des taux d’intérêt par la Réserve fédérale). Dans la mesure où la réduction risque de se faire sur l’investissement privé, le coût d’opportunité de l’investissement public ne serait pas le taux d’intérêt sur les obligations publiques, mais le produit marginal du capital privé qui s’en trouverait évincé. Etant donné l’état déplorable du capital public aux Etats-Unis, les arguments sont toujours ici en faveur d’une hausse des dépenses publiques et donc d’un creusement des déficits publics, mais ils sont moins robustes.

Y a-t-il des arguments en faveur d’un surcroît d’actions ? La réponse est un oui mitigé.

Il y a des arguments en faveur d’une économie américaine temporairement en surchauffe. La raison tient en ce que nous appelons les effets d’"hystérèse" (ou d’"hystérésis"), quelque chose sur laquelle Larry Summers et moi avions travaillé par le passé et sur laquelle nous sommes toujours en train de travailler. En utilisant ce terme, emprunté à la physique, nous avions suggéré qu’une longue période de faible croissance et de chômage élevé pouvait entraîner des dommages permanents, qui peuvent n’être qu’en partie défaits par une période de surchauffe de l’économie. L’exemple le plus évident ici est celui du taux d’activité, qui a chuté depuis le début de la crise bien plus amplement que ne le justifiait des facteurs structurels, notamment les facteurs démographiques. Notamment, certains chômeurs qui ne parvenaient pas à trouver d’emplois se sont découragés et ont fini par arrêter de rechercher un emploi. Une période de très faible chômage peut inciter certains d’entre eux à retourner dans la population active. Donc, un plus large déficit budgétaire et une certaine surchauffe pourraient faire du bien à l’économie à long terme.

Si la surchauffe est en effet justifiée, elle peut en principe être obtenue grâce à la politique monétaire : la Fed peut retarder la hausse des taux d’intérêt et laisser l’économie se retrouver en surchauffe pendant quelques temps. Il y a cependant un argument amenant à justifier que l’on utilise la politique budgétaire plutôt que la politique monétaire. De plus larges déficits publics et une plus forte demande globale permettraient à la Fed d’accroître ses taux d’intérêt plus rapidement. Dans la mesure où des taux d’intérêt durablement faibles génèrent des risques croissants dans certains secteurs de l’économie, une hausse des taux d’intérêt diminuerait ces risques. De plus hauts taux d’intérêt éloigneraient l’économie de la borne inférieure zéro sur les taux d’intérêt, ce qui donnerait à la Réserve fédérale une plus grande marge de manœuvre si elle fait face à une nouvelle récession.

Qu’en conclure ? Il n’y a pas d’arguments plaidant pour un creusement démesuré des déficits publics aux Etats-Unis. Mais les arguments sont bien en faveur d’une expansion budgétaire, via un surcroît d’investissement public proprement ciblé. Nous devons faire deux remarques ici. La maintenance des infrastructures existantes, qui a été vraiment négligée, peut être moins glamour et politiquement moins attrayant que le lancement de nouveaux grands projets, mais c’est bien avec elle que le gouvernement américain est susceptible de tirer le plus grand bénéfice. Les partenariats privés-publics, qui ont été mentionnés par le programme Trump, peuvent ne pas être le bon outil : en ciblant des projets qui rapportent financièrement, ils risquent de privilégier le mauvais genre d’investissement public. La maintenance et les projets publics plus utiles peuvent avoir des rendements sociaux élevés, mais ils sont susceptibles d’avoir de faibles rendements financiers. »

Olivier Blanchard, « What size fiscal deficits for the United States? », 21 novembre 2016. Traduit par Martin Anota



aller plus loin...

« Comment expliquer le comportement de l’inflation et de l’activité suite à la Grande Récession ? »

« La crise a-t-elle réduit la croissance potentielle ? »

« L’austérité laisse des cicatrices permanentes sur l’activité ? »

vendredi 18 novembre 2016

Le programme de Trump va-t-il mener à une expansion de l’économie américaine ?



« Est-ce que le programme économique de Donald Trump va mener à une récession ou à une expansion ? Avant l’élection, beaucoup prédisaient une récession. Mais depuis la semaine dernière, les marchés prédisent clairement une expansion.

Qui a raison ? Il est évidemment difficile de le dire. Les programmes ne sont jamais mis en œuvre tels qu’ils ont été annoncés. Les réalités politiques et la nécessité du soutien par le Congrès imposent des ajustements, aussi bien mineurs que majeurs. On peut penser que les mesures pas trop éloignées des idées de Paul Ryan, de Mitch McConnell et de leurs circonscriptions verront la lumière du jour.

Sous cette hypothèse, la suite des événements dépendra avant tout de l’équilibre entre les mesures macroéconomiques et commerciales.

Sur le front macroéconomique, les signes suggèrent de plus amples déficits budgétaires, en conséquence de l’accroissement des dépenses publiques dans les infrastructures et des réductions d’impôts pour les entreprises et les ménages. (Il faut prendre avec des pincettes les promesses de financer les dépenses d’infrastructures via des fonds privés et de trouver de l’épargne pour compenser les réductions d’impôts.) Les réductions d’impôts sont cohérentes tant avec l’agenda de Trump qu’avec l’agenda des partisans de l’offre. Il y a toutefois des obstacles aux déficits budgétaires : il va notamment falloir convaincre les républicains qui voient la dette publique comme le diable de voter en faveur d'une hausse des dépenses publiques et des allègements fiscaux.

Si les déficits budgétaires se creusent, ils vont se traduire pendant quelques temps par de plus larges dépenses et une plus forte croissance économique. Et avec une économie américaine évoluant déjà à proximité de son potentiel, les déficits budgétaires vont se traduire par une plus forte inflation. Si la relation entre inflation et chômage (la fameuse relation de la courbe de Phillips) que l’on a pu récemment observer tient toujours, l’inflation peut ne pas beaucoup augmenter, mais elle va tout de même s’accroître, ce qui risque d’amener la Réserve fédérale à réagir en accroissant ses taux plus rapidement qu’elle ne l’avait prévu avant la nomination de Trump.

Est-ce que la Fed va en effet vouloir freiner la demande globale et accroître les taux d’intérêt pour prévenir une surchauffe ? Alors que le candidat Trump critiquait Janet Yellen, la présidente de la Fed, pour être trop accommodante, le président Trump pourrait avoir un point de vue bien différent. Plusieurs de ses conseillers sont cependant en faveur d’une politique monétaire restrictive, donc les prochaines nominations, celles de ces prochaines semaines et des années à venir, peuvent pousser la Fed à être plus restrictive. Si c’est le cas, les déficits budgétaire vont avoir moins d’impact sur la production et plus d’effet sur les taux d’intérêt.

Si la croissance économique et les taux d’intérêt sont effectivement plus élevés, le dollar est susceptible de s’apprécier, ce qui conduirait ironiquement à un creusement des déficits commerciaux des Etats-Unis, chose que le candidat Trump disait vouloir combattre. Cela m’amène aux questions du commerce et aux mesures du commerce.

Une partie majeure du programme annoncé durant la compagne mettait l’accent sur la nécessité d’utiliser les tarifs douaniers pour réduire les importations et rétablir des "conditions plus équitables". L’augmentation des tarifs douaniers sur une grande échelle freinerait la croissance et accroîtrait la probabilité d’une récession.

Les arguments sont bien connus, mais il est utile de les rappeler. Les tarifs douaniers, toutes choses égales par ailleurs, peuvent en effet réduire les importations, accroître la demande de biens domestiques et ainsi stimuler la production domestique (même si, comme le remarquait déjà Robert Mundell il y a plus de cinquante ans, le taux de change est susceptibles de tellement s’apprécier que la production domestique s’en trouve finalement déprimée). Mais les choses ne vont pas rester "égales par ailleurs" : les tarifs douaniers imposés par les Etats-Unis vont certainement entraîner une guerre tarifaire et donc un déclin des exportations américaines. Et la baisse des importations et des exportations ne sera pas neutre. Du côté de la demande, une hausse des prix à l’importation va amener la Fed à davantage relever ses taux. Et surtout, du côté de l’offre, les tarifs douaniers vont conduire à l’éclatement des chaînes de valeur mondiale, perturber la production et le commerce, et réduire la productivité. Les effets peuvent être difficiles à quantifier, mais ils se feront bien sentir.

Etant donné cela, et en raison de la pression exercée par les exportateurs, il est raisonnable de s’attendre à ce que l’administration Trump commence lentement, tout d’abord avec des mesures essentiellement symboliques pour montrer un engagement à plus long terme. Mais on ne peut en être sûr et les choses peuvent facilement dégénérer. Si l’on demandait au Mexique de payer pour construire un mur à la frontière, il risquerait de réagir en se lançant dans une guerre tarifaire. Si la Chine était accusée de manipuler sa devise, elle pourrait très bien réagir en imposant des tarifs douaniers sur certains produits américains. Et, pour retourner à la macroéconomie, comme les déficits budgétaires mènent à de plus larges déficits commerciaux, les appels à les réduire via un relèvement des tarifs douaniers (…) vont se multiplier.

Alors, finalement, les Etats-Unis connaîtront-ils une récession ou une expansion ? Cela dépendra de l’équilibre entre les mesures macroéconomiques et commerciales. Je pense (…) que la croissance va être soutenue, du moins pendant quelques temps. Est-ce que cela suffira pour satisfaire ceux qui votèrent Donald Trump par crainte pour leurs revenus et leur avenir ? Je n’en suis pas sûr. La croissance va en effet accroître le niveau de vie de beaucoup, mais plusieurs mesures vont agir dans le sens opposé. Une baisse de l’imposition sur les entreprises, une réduction d’impôts pour les plus riches et la déréglementation financière vont accroître la part du revenu national allant au capital (cela explique probablement en partie ce qui se passe sur les marchés boursiers). Le démantèlement (partiel, selon les dernières déclarations de Trump) de l’Obamacare, s’il survenait, n’aiderait pas les millions de personnes qui en bénéficient aujourd’hui. Les tarifs douaniers sur les biens étrangers peuvent peut-être créer quelques emplois pour les classes moyennes, mais ils vont détruire d’autres emplois et accroître le coût de la vie pour les plus pauvres. Les inégalités peuvent s’accroître, non décliner. (...) »

Olivier Blanchard, « In the light of the elections: Recession, expansion, and inequality », 14 novembre 2016. Traduit par Martin Anota

vendredi 14 octobre 2016

Quelques nouvelles réflexions sur les modèles DSGE



« Plusieurs économistes ont récemment écrit à propos des avantages et inconvénients des modèles d’équilibre général stochastiques (dynamic stochastic general equilibrium models, DSGE). Outre moi-même, il y a eu Narayana Kocherlakota, Simon Wren-Lewis, Paul Romer, Steve Keen, Anton Korinek, Paul Krugman, Noah Smith, Roger Farmer et Brad DeLong.

Voici quelques remarques supplémentaires relatives à ce débat :

Je crois qu’il y a un large accord autour des trois propositions suivantes ; je ne vais pas davantage les discuter, mais je vais ensuite poursuivre ma réflexion.

1. La macroéconomie concerne l’équilibre général.

2. Différents types de modèles d’équilibre général sont nécessaires pour différents objectifs. Pour l’exploration et la pédagogie, les critères retenus doivent être ceux de transparence et de simplicité ; pour cela, les modèles DSGE constituent un bon véhicule. Pour la prévision, le critère doit être celui de la précision de la prévision, or les modèles purement statistiques peuvent, pour l’heure, s’avérer meilleurs à la prévision. Pour la prévision conditionnelle, que l’on utilise par exemple pour connaître les répercussions de la modification d’une politique économique, des modèles plus structurels sont nécessaires, mais ils doivent coller aux données et l’on ne doit pas être obnubilé par leurs fondations microéconomiques.

3. La modélisation et l’estimation en équilibre partielle sont essentielles pour comprendre les mécanismes particuliers qui sont pertinents en macroéconomie. Ce n’est seulement que lorsqu’ils sont bien compris qu’il devient essentiel de comprendre leurs effets en équilibre général. Chaque macroéconomiste n’a pas à travailler sur des modèles d’équilibre général (il y a une division du travail).

Voici deux propositions plus controversées :

1. Les modèles DSGE dans la panoplie des modèles d’équilibre général ont pour rôle spécifique de fournir un ensemble de « Meccano » macroéconomiques de base, c’est-à-dire une plateforme formelle, analytique pour la discussion et l’intégration de nouveaux éléments : par exemple, comme base à partir de laquelle nous pouvons explorer le rôle des négociations sur le marché du travail, le rôle de la fixation des prix sur les marchés des biens, le rôle des banques dans l’intermédiation, le rôle des contraintes de liquidité sur la consommation, le rôle des équilibres multiples, etc. Certains semblent penser que c’est un rôle dangereux et contreproductif, une perte de temps, ou tout du moins qu’il y ait un coût d’opportunité élevé. Je ne le crois pas. Je crois que chercher une telle structure est non seulement utile, mais aussi possible.

2. Les modèles DSGE ne peuvent jouer ce rôle que s’ils sont construits sur des microfondations explicites. Ce n’est pas parce que les modèles avec microfondations sont plus vénérables que d’autres, mais parce qu’avec toute autre approche, il est plus difficile d’intégrer de nouveaux éléments et d’avoir un dialogue formel. Pour ceux qui croient qu’il y a peu de distorsions (disons, ceux qui croient l’approche des cycles d’affaires réels), c’est une approche simple et naturelle. Pour ceux d’entre nous qui croient qu’il existe de nombreuses distorsions contribuant à faire émerger les fluctuations macroéconomiques, cela allonge et complique le périple (…). On aimerait qu’il y ait un raccourci et un point de départ différent ; je ne pense pas que ce soit possible.

La marche à suivre


Si nous n’acceptons pas les deux propositions ci-dessus, alors les modèles DSGE ne sont clairement pas la voix à prendre, fin de la discussion. Il y a plein d’autres choses à faire dans la vie. Mais si, cependant, nous les acceptons (même avec une certaine réticence), alors le rejet complet des modèles DSGE n’est pas une option. La discussion doit porter sur la nature des microfondations et les distorsions que les modèles courantes possèdent et sur la façon par laquelle nous pouvons faire mieux.

Est-ce que les modèles DSGE courants représentent un ensemble de Meccano basique, un ensemble que la plupart des macroéconomistes acceptent d’utiliser comme point de départ ? (…) Je crois que la réponse est non. (J’ai présenté mes objections dans le document que j’ai publié il y a quelques mois.) Donc, les priorités pour la recherche sont évidentes à mes yeux :

Premièrement, pouvons-nous élaborer un modèle basique que la plupart de nous serions enclins à prendre comme point de départ, de la même façon que le modèle IS-LM a pu être un point de départ largement accepté il y a longtemps ? Au vu des avancées technologiques et de la facilité avec laquelle on peut utiliser les programmes de simulation, un tel modèle peut et doit probablement être substantiellement plus large que le modèle IS-LM, mais pourtant toujours rester transparent. A mes yeux, cela signifie qu’il faut partir du modèle des nouveaux keynésiens, mais en utilisant des équations relatives à la consommation et à la fixation des prix qui soient plus réalistes et en y intégrant les décisions relatives au capital donc à l’investissement.

Deuxièmement, pouvons-nous ensuite explorer de sérieuses améliorations sur divers plans ? Pouvons-nous avoir un modèle du comportement du consommateur plus réaliste ? Comment pouvons-nous nous écarter des anticipations rationnelles, tout en gardant l’idée que les ménages et les entreprises s’inquiètent pour l’avenir ? Quelle est la meilleure manière d’introduire l’intermédiation financière ? Comment pouvons-nous traiter les problèmes d’agrégation (qui ont été largement passés sous silence) ? Comment voulons-nous procéder pour l’estimation (qui est sérieusement déficiente) ? Et, pour chacune de ces thèmes, si nous n’aimons pas la manière par laquelle on les traite actuellement, quoi proposons-nous comme alternative ? Ce sont des choses dont nous devons discuter, pas de grandes paroles sur l’opportunité ou non d’utiliser les modèles DSGE ou sur l’utilité de la macroéconomie en général. »

Olivier Blanchard, « Further thoughts on DSGE models. What we agree on and what we do not », 3 octobre 2016. Traduit par Martin Anota

mercredi 5 octobre 2016

Wren-Lewis, Blanchard et les limites de la modélisation DSGE

Ne sous-estimez pas le pouvoir des microfondations !


« Brad DeLong s’est demandé pourquoi le modèle des nouveaux keynésiens (qui a initialement été proposé pour simplement montrer comment les prix visqueux dans un cadre de cycles d’affaires réels pouvaient générer des effets keynésiens) a pu réussir à devenir le modèle dominant dans la macroéconomie moderne, malgré ses diverses insuffisances empiriques. (…) DeLong dit que sa question est intimement reliée à la question suivante : "pourquoi les modèles qui ont été microfondés d’une façon que nous savons erronée sont préférés aux modèles qui essayent de respecter les propriétés que nous observons au niveau empirique ?"

J’estime que les deux questions sont en fait la même. Le modèle des nouveaux keynésiens est la manière microfondée de faire de l’économie keynésienne et les modèles microfondés (les modèles DSGE) sont de rigueur dans la macroéconomie universitaire, donc tout universitaire orthodoxe qui désirerait analyser le cycle d’affaires d’une perspective keynésienne va utiliser une variante du modèle des nouveaux keynésiens. Pourquoi les modèles microfondés sont dominants ? De mon point de vue, c’est une question méthodologique, à propos de l’importance relative de la cohérence "interne" (théorique) des modèles versus leur cohérence "externe" (empirique).

Comme la macroéconomie était très différente il y a cinquante ans, c’est une question méthodologique très intéressante de se demander pourquoi les choses ont changé, même si vous pensez que le changement a grandement amélioré la façon de faire de la macroéconomie (comme je le pense). Selon moi, la (contre-)révolution des nouveaux classiques était avant tout une révolution méthodologique. Cependant, il y a deux problèmes avec une telle discussion. Premièrement, les économistes ne sont généralement pas à l’aise lorsqu’il s’agit de parler de méthodologie. Deuxièmement, il va être difficile de faire admettre à un macroéconomiste sous un certain âge que ce soit une question méthodologique ; celui-ci ne verra les microfondations que comme une manière de corriger ce qui s’est révélé être des insuffisances par le passé.

Donc, par exemple, vous entendrez dire que la cohérence interne est clairement un aspect essentiel de tout modèle, même si elle est acquise en sacrifiant la cohérence externe. Vous entendrez comment la critique de Lucas montre que tout modèle qui n’est pas microfondé est inadéquat pour analyser les politiques économiques, plutôt que ce soit simplement un aspect de l’arbitrage complexe entre cohérence interne et cohérence externe. Plusieurs macroéconomistes aujourd’hui ne saisissent pas que l’adoption des microfondations est un choix méthodologique plutôt qu’un simple moyen de corriger les erreurs passées. Je pense que cela a deux implications pour ceux qui veulent débattre de l’hégémonie des microfondations. La première est que le débat doit se porter sur la méthodologie, plutôt que sur les modèles pris individuellement. Les déficiences avec des modèles microfondés particuliers, comme le modèle des nouveaux keynésiens, sont généralement admises et, du point de vue des microfondations, elles fournissent simplement un agenda pour de nouvelles recherches. Deuxièmement, le manque de familiarité avec cette méthodologie signifie que le débat ne peut présumer un savoir qui n’existe pas. (Et affirmer qu’un tel savoir est nécessaire est un point pertinent pour l’enseignement de l’économie, mais c’est inutile si vous essayez de changer le discours actuel.) Cela complique le débat, mais je suis certain qu’il ne l’empêche pas. »

Simon Wren-Lewis, « Do not underestimate the power of microfoundations », in Mainly Macro (blog), 3 avril 2015. Traduit par Martin Anota



Blanchard à propos de la modélisation DSGE


« Olivier Blanchard, l'ancien économiste en chef du FMI, a écrit un bref article où il s'est montré critique vis-à-vis des modèles DSGE. Pour résumer, les blogueurs ont réagi à son article en suggérant qu’il s’est montré trop précautionneux dans ses propos : la modélisation DSGE domine complètement la macroéconomie universitaire et il est impossible que celle-ci considère soudainement ce programme de recherche comme un énorme gâchis. (Je suis d’accord avec Blanchard à l’idée que la modélisation DSGE ne soit pas une perte de temps.) Ce qui doit être débattu, ce n’est pas l’existence des modèles DSGE, mais leur hégémonie.

Blanchard recommande notamment à ce que la modélisation DSGE "devienne moins impérialiste. (…) La profession (j’entends avant tout les éditeurs des grandes revues) doit prendre conscience qu’il est nécessaire d’avoir différents modèles pour assurer différentes tâches". Le morceau le plus important dans cette phrase est celui entre parenthèses. Il fait référence à une distinction entre les modèles pleinement microfondés et les "modèles de politique économique". Ces derniers ont notamment été appelés par le passé "modèles économétriques structurels" ; ce sont les modèles auxquels Lucas et Sargent se sont attaqués.

Ces modèles économétriques structurels ont continué d’être utilisés comme modèles de base dans plusieurs institutions-clés de politique économique (sauf la Banque d’Angleterre) pour une bonne raison, mais la plupart des universitaires ont suivi Lucas et Sargent en considérant que ces modèles comme ne relèvent pas de la "bonne" macroéconomie. Leur raisonnement est simplement erroné, comme je l’ai indiqué ici. Comme Blanchard le note, ce sont les éditeurs des revues les plus en vue qui doivent en prendre conscience et arrêter d’insister pour que chaque modèle macroéconomique soit nécessairement microfondé. Dès lors qu’ils laisseront de la place pour l’éclectisme, alors les universitaires seront capables de choisir quelles méthodes ils préfèrent utiliser.

Dans une autre remarque qu’il destine aux éditeurs de revues, Blanchard touche le cœur du problème avec la macroéconomie d’aujourd’hui. Il écrit que "toute discussion d’un nouveau mécanisme ne doit pas nécessairement se faire dans un cadre d’équilibre générale". L’exemple dont il discute (et que j’ai moi-même utilisé dans le même contexte) est celui de la consommation. Les modélisateurs DSGE se sont bien sûr souvent écartés de l’équation d’Euler, mais je les soupçonne de l’avoir fait (…) plus pour une convenance analytique que pour une question de réalisme.

Ce qui semble souvent manquer dans la macroéconomie aujourd’hui est une connexion entre les personnes travaillant sur l’analyse en équilibre partiel (comme la consommation) et les modélisateurs de l’équilibre général. La préférence des éditeurs des revues les plus prestigieuses pour la seconde suggère que la première est d’une moindre valeur. A mes yeux, cela a déjà eu d’importants coûts. L’échec à prendre au sérieux les preuves empiriques montrant l’importance de la disponibilité du crédit pour la consommation contribue à expliquer pourquoi la macroéconomie n’a pas su adéquatement modéliser la réaction à la crise financière (…). Même si vous n’acceptez pas cela, l’échec de la plupart des modèles DSGE à inclure tout genre de comportement d’épargne de précaution est pernicieux lorsque la modélisation DSGE est en situation de monopole dans la "bonne" modélisation.

Les critiques à l’encontre de l’hégémonie des modèles DSGE que formulent les non-économistes, les macroéconomistes qui n’utilisent pas ces modèles ou encore les responsables de politique économique n’ont jusqu’à présent eu que peu d’impact sur les éditeurs des revues les plus prestigieuses. Peut-être que des critiques émanant d’un des meilleurs macroéconomistes au monde sont susceptibles d’avoir plus de poids. »

Simon Wren-Lewis, « Blanchard on DSGE », in Mainly Macro (blog), 12 août 2016. Traduit par Martin Anota

vendredi 8 juillet 2016

Trois remarques sur la relation entre croissance de la productivité et taux d’intérêt

« L’opinion communément admise à propos de la courbe de rendements du Trésor américain est en gros la suivante : la croissance de la productivité est susceptible d’être faible, or la croissance de la productivité et les taux d’intérêt varient amplement dans le même sens, donc on pourrait s’attendre à ce que les taux d’intérêt à long terme restent également faibles. Et le fait que l’orientation actuelle de la politique monétaire de la Fed (un maintien des taux proches de zéro) ait généré une croissance de la demande légèrement en excès par rapport à la croissance potentielle suggère que les Etats-Unis ne sont pas loin de ces faibles taux neutres de long terme.

Une telle idée peut être remise en question sur plusieurs fronts.

Prenons l’affirmation relative à la croissance de la productivité. Effectivement, la croissance de la productivité mesurée a ralenti et a priori ce n’est pas en raison d’une erreur de mesure, comme le montre notamment Chad Syverson (2016). La meilleure hypothèse est que la croissance de la productivité va en effet rester plus faible qu’avant la crise, en l’occurrence inférieure de 0,5 à 1 point de pourcentage. Mais l’incertitude associée à cette hypothèse est extrêmement large. D’un point de vue statistique, la corrélation entre les taux de croissance moyens de la productivité sur cinq ans (…) est très faible, égale à 0,1 pour les Etats-Unis depuis 1970. D’un point de vue technologique, la tension entre les mauvais chiffres actuels de la productivité et les débats autour des destructions d’emplois provoquées par les robots est fascinante. Jusqu’à présent, les chiffres de l’emploi et de la productivité montrent clairement que les robots n’ont pas affecté la main-d’œuvre sur une grande échelle, mais aussi que les emplois qu’ils ont détruits ont été compensés par la création d’emplois. Mais lorsqu’on regarde ce qui se passe du côté de la Silicon Valley, on peut s’attendre à ce que les robots et les intelligences artificielles jouent un rôle plus important à l’avenir et, par conséquence, qu’ils soient associés à des gains de productivité plus élevés. Conclusion : Nous pouvons nous attendre à une plus faible croissance de la productivité, mais préparons-nous à être surpris.

Considérons l’opinion relative au lien entre taux de croissance de la productivité et taux d’intérêts. Plusieurs économistes semblent croire qu’il devrait y avoir (et qu’il y a effectivement) une relation étroite entre les deux. En fait, aucune théorie, ni aucune preuve empirique ne soutient cette proposition. La théorie qui suggère une relation étroite entre les deux est un exemple de la façon par laquelle les économistes se retrouvent prisonniers de leurs modèles. Le modèle qui rapporte ce résultat se base sur deux hypothèses : celle selon laquelle les gens vivent éternellement (ou tout du moins agissent comme s’ils vivaient éternellement) et cella selon laquelle les gens sont prêts à déférer leurs dépenses de consommation si le taux d’intérêt est plus élevé. La première hypothèse est bien évidemment fausse. La seconde est peu soutenue par les preuves empiriques. Privée de ces deux hypothèses, la théorie suggère alors une relation complexe entre le taux de croissance et le taux d’intérêt avec, au mieux, une relation lâche entre les deux. Et les preuves empiriques ne suggèrent pas une telle relation. Une étude exhaustive réalisée par James Hamilton et ses coauteurs (2016) des covariations à moyen terme entre les deux taux sur plus d’un siècle et pour plusieurs pays ne permet de mettre en évidence une relation fiable entre les deux. En bref, la croissance de la productivité peut être plus faible à l’avenir, mais cela n’a pas de claires implications pour le taux réel à long terme. En conclusion : Lorsque l’on considère la courbe des rendements, il ne faut pas supposer qu’une plus faible croissance de la productivité soit nécessairement associée à de plus faibles taux.

Finalement, considérons la proposition selon laquelle (…), avec des taux d’intérêt pratiquement à zéro aujourd’hui, la croissance de la demande est seulement légèrement plus élevée que la croissance potentielle. Pourtant, plusieurs freins qui ont contraint la demande, qui ont très certainement contribué à la faible croissance de la demande ces dernières années, ont disparu. La consolidation budgétaire a été suivie par une légère expansion budgétaire. Les banques ne sont plus en train de se désendetter et l’offre de crédit est abondante et peu chère. Donc, si des taux très bas ne sont pas nécessaires pour soutenir la demande aujourd’hui, pourquoi cela devrait-il être différent à l’avenir ?

Le raisonnement a cependant une faille. Les freins qui ont contraint la croissance lors de la crise sont peut-être en grande partie effacés, mais un autre facteur, en l’occurrence l’anticipation d’une dégradation des perspectives économiques futures, est désormais à l’œuvre. Comme nous l’avons affirmé ci-dessus, la meilleure hypothèse, même si elle est loin d’être certaine, est de considérer que la croissance de la productivité va être plus faible dans le futur que par le passé. Le ralentissement de la croissance de la productivité, qui pouvait initialement être expliqué par la crise, semble avoir une composante plus permanente. Les prévisions de croissance de long terme et les analyses que l’on peut lire dans la presse sont pessimistes. Je crois que ces mauvaises nouvelles à propos du futur du côté de l’offre se traduisent aujourd’hui par un ralentissement keynésien ou, tout du moins, par une plus faible reprise. Récemment, j’ai d’ailleurs affirmé que certaines récessions que les Etats-Unis avaient essuyées par le passé ont en effet été provoquées par des anticipations pessimistes vis-à-vis de l’avenir (Blanchard, 2016).

Il est utile d’illustrer ce raisonnement par un petit exemple chiffré. Supposons que vous appreniez que votre revenu au cours des 30 prochaines années s’accroîtra de 4 % et non de 5 % comme vous le supposiez précédemment (parce que le revenu augmente typiquement avec l’âge, le revenu individu s’accroît typiquement plus vite que le revenu agrégé). Cela représente pratiquement une baisse de 20 % de la valeur présente de vos gains futurs et cela pourrait vous amener à réduire votre consommation, disons de 10 %. Si cette prise de conscience vous vient sur une période de 5 ans, vous allez réduire votre consommation de 2 % chaque année relativement à votre revenu. Quelles en sont les implications au niveau agrégé ? Comme les ménages ajustent leurs anticipations de cette manière, la croissance de la consommation sera faible. Le même raisonnement s’applique à l’investissement. Un plus faible taux de croissance anticipé du profit se traduit par un plus faible niveau désiré de capital, ce qui entraîne une période de faible investissement jusqu’à ce que le nouveau niveau de capital désiré soit atteint.

Pour ce qui concerne la courbe de rendements, cela a une claire implication : Comme les anticipations des consommateurs et des entreprises s’ajustent par rapport à une plus faible croissance à long terme, la demande est plus faible qu’elle aurait sinon été. Malgré de faibles taux d’intérêt, la croissance de la demande est faible et le taux d’intérêt nécessaire pour la soutenir est faible. Cependant, comme les anticipations finiront bien par s’ajuster, la demande peut finir par s’accroître et la Fed peut alors estimer qu’il faille relever substantiellement les taux d’intérêt pour éviter la surchauffe. Le taux d’intérêt qui prévaudra finalement peut être substantiellement plus élevé que celui qui est aujourd’hui en vigueur, et la véritable courbe de rendements peut être plus pentue que ne le supposent actuellement les marchés.

Pour résumer : Une faible croissance de la productivité n’est pas nécessairement un signe avant-coureur que les taux d’intérêt resteront faibles à l’avenir, ni même les faibles taux d’intérêt aujourd’hui. »

Olivier Blanchard, « Three remarks on the US Treasury yield curve », 22 juin 2016. Traduit par Martin Anota

vendredi 3 juin 2016

Comment devons-nous enseigner la macroéconomie aux étudiants après la crise ?



« (…) Comme je dois réaliser la septième édition de mon manuel de macroéconomie destiné aux étudiants, je suis confronté à la question suivante : comment devons-nous enseigner la macroéconomie aux étudiants après la crise ? Voici certaines de mes conclusions. (Je me concentre ici sur les court et moyen termes ; j’écrirai un autre billet pour discuter de la manière par laquelle nous devons enseigner la théorie de la croissance.)

La relation investissement-épargne (IS)


La relation IS reste la clé pour comprendre les variations à court terme de la production. A court terme, la demande de biens et services détermine le niveau de la production. Si les agents désirent épargner plus, alors la demande décline, ce qui pousse la production à la baisse. Sauf dans des circonstances exceptionnelles, la même chose reste vraie pour la consolidation budgétaire. J’ai été frappé par le nombre de fois où il a fallu, durant la crise, à expliquer le "paradoxe de l’épargne" et combattre la ligne Hoover-allemande ("réduisez votre déficit budgétaire, mettez de l’ordre dans votre maison, et ne vous inquiétez pas, l’économie sera en bonne santé"). Quelqu’un qui partage ce point de vue doit expliquer comment cela peut être cohérent avec la relation IS.

La demande de biens et services dépend, à son tour, du taux d’intérêt auquel les ménages et les entreprises peuvent emprunter (et non du taux directeur fixé par la banque centrale). John Maynard Keynes a eu raison d’insister sur le rôle des esprits animaux. L’incertitude, le pessimisme, justifié ou non, dépriment la demande globale et peuvent être très largement auto-réalisateurs. Les inquiétudes à propos des perspectives futures influencent les décisions prises aujourd’hui. De telles inquiétudes sont probablement la source de notre faible croissance.

La relation entre la préférence pour la liquidité et l’offre de monnaie


La relation LM, dans sa formulation traditionnelle, est la relique d’une époque où les banques centrales se focalisaient sur l’offre de monnaie plutôt que sur le taux d’intérêt. Dans sa formulation initiale, une hausse de la production entraîne une hausse de la demande de monnaie et une hausse mécanique du taux d’intérêt. La réalité est aujourd’hui différente. Les banques centrales considèrent le taux directeur comme leur principal instrument (…). Donc, l’équation LM doit être remplacée, assez simplement, par le taux directeur décidé par la banque centrale, sachant que ce dernier est susceptible de buter sur sa borne inférieure zéro (zero lower bound). (…). Ce changement a déjà eu lieu dans les modèles des nouveaux keynésiens ; il doit maintenant s’opérer dans les manuels destinés aux étudiants.

Intégrer le système financier dans les modèles macroéconomiques


Si la crise nous a enseigné quelque chose, c’est l’importance du système financier pour la macroéconomie. Traditionnellement, le système financier a été quelque peu ignoré dans les textes macroéconomiques destinés aux étudiants. Le même taux d’intérêt apparaît dans les équations IS et LM ; en d’autres termes, les ménages et les entreprises sont supposés emprunter au taux directeur fixé par la banque centrale. Nous avons appris que ce n’est pas le cas et que les choses peuvent par conséquent aller très mal.

Ce que l’enseignant doit faire, selon moi, est d’introduire deux taux d’intérêt, le taux directeur fixé par la banque centrale dans l’équation LM et le taux d’intérêt auquel les ménages et les entreprises peuvent emprunter, qui entre dans l’équation IS, et ensuite discuter de la manière par laquelle le système financier détermine l’écart entre les deux. Je vois cela comme l’extension nécessaire du traditionnel modèle IS-LM. Un simple modèle de banques montrant le rôle du capital, d’un côté, et le rôle de la liquidité, d’un autre côté, peut être pas mal. Plusieurs des questions qui ont été soulevées durant la crise, par exemple à propos des pertes et des assèchements de liquidité, peuvent être discutées et intégrées dans le modèle IS-LM. Avec cette extension, on peut montrer à la fois les effets des chocs sur le système financier et la manière par laquelle le système financier modifie les effets des autres chocs touchant l’économie.

La demande agrégée et l’offre agrégée


En ce qui concerne l’offre, ce que l’on appelle le modèle demande agrégée-offre agrégée doit être éliminé. Il est bancal et, pour de bonnes raisons, les étudiants ont du mal à la comprendre.

Son principal point est de montrer comment la production retourne naturellement à son potentiel sans changement en termes de politique économique, via un mécanisme qui apparaît peu pertinent en pratique : une baisse de la production entraîne une baisse du niveau des prix, ce qui entraîne, pour un stock donné de monnaie, un accroissement du stock réel de monnaie, ce qui entraîne une baisse du taux d’intérêt, puis une hausse de la demande et donc de la production. C’est un enchaînement d’événements long et complexe avec un réalisme douteux. Ce qui est central à l’ajustement est l’hypothèse d’une constance de l’offre de monnaie nominale, ce qui à nouveau n’est pas la façon par laquelle les banques centrales agissent. Et l’idée selon laquelle les économies retournent naturellement à leur trajectoire normale a été éreinté par les événements de ces sept dernières années.

Ces difficultés sont évitées si on utilise simplement la relation de type courbe de Phillips pour caractériser le côté de l’offre. La production potentielle ou, de manière équivalente, le taux naturel du chômage, est déterminé par l’interaction entre la fixation du salaire et la fixation des prix. Si la production est supérieure à son potentiel ou si le chômage est inférieur à son taux naturel, alors l’économie subit des pressions inflationnistes. La nature des pressions dépend de la formulation des anticipations, une question centrale pour les développements courants. Si les gens s’attendent à ce que l’inflation soit la même que dans un passé proche, les pressions se traduisent par une hausse du taux d’inflation. Si les gens s’attendent à ce que l’inflation soit assez constante, comme il semble être le cas aujourd’hui, alors les pressions se traduisent par une plus forte inflation et non pas par une inflation en accélération. Ce qui se passe pour l’économie, si elle revient sur sa tendance historique, dépend alors de la façon par laquelle la banque centrale ajuste le taux directeur en réponse à ces pressions inflationnistes.

A nouveau, cette manière de discuter du côté de l’offre est déjà standard dans les présentations les plus avancées et dans le modèle des nouveaux keynésiens (bien que la spécification à la Calvo utilisée dans ce modèle, aussi élégante soi-elle, est arbitrairement contraignante et ne rend pas justice aux faits). Il est temps de l’intégrer dans le modèle présenté aux étudiants. »

Olivier Blanchard, « How to teach intermediate macroeconomics after the crisis? », 2 juin 2016. Traduit par Martin Anota

mercredi 20 janvier 2016

Les prix du pétrole, la Chine et les comportements mimétiques sur les marchés boursiers



« Les mouvements boursiers de ces deux dernières semaines sont énigmatiques.

Commençons par l’explication chinoise. Un effondrement de la croissance chinoise serait effectivement un événement susceptible de bousculer l’économie mondiale. Mais il n’y a pas encore de preuves certifiant qu’un tel effondrement soit à l’œuvre. Au mieux, les preuves les plus significatives suggèrent plutôt un léger ralentissement et il est loin d’être certain. Les effets mécaniques d’un léger ralentissement de la croissance chinoise sur l’économie américaine devraient être, de toute évidence et selon tous les modèles dont nous disposons, assez limités. Les canaux du commerce sont limités (les exportations américaines vers la Chine représentent moins de 2 % du PIB), de même pour les liens financiers. Le principal effet d’un ralentissement de la croissance chinoise serait à travers l’affaiblissement des prix des matières premières, qui aiderait davantage l’économie américaine qu’elle ne l’endommagerait.

Considérons désormais l’explication avec les prix du pétrole. C’est encore plus énigmatique. Traditionnellement, on a pris pour acquis qu’une baisse des prix du pétrole était une bonne nouvelle pour les pays importateurs comme les Etats-Unis. Les consommateurs, avec un plus grand pouvoir d’achat, accroîtraient leurs dépenses de consommation et la production s’en trouverait stimulée. Les entreprises utilisant de l’énergie, disposant d’un plus faible coût de production, augmenteraient leurs investissements. Nous avons appris au cours de l’année dernière que, à court terme, l’impact négatif sur l’investissement des entreprises produisant de l’énergie peut appraître rapidement et temporairement affaiblir l’effet, mais cela ne remet sûrement pas en question la conclusion générale. Pourtant, de plus en plus d’articles suggèrent que la faiblesse des prix du pétrole est à l’origine de l’effondrement des cours boursiers. Je pense à deux explications, mais aucune des deux n’est convaincante.

Premièrement, que les très faibles prix entraînent de si sérieux problèmes pour les producteurs de pétrole que cela va finir par affecter les Etats-Unis et dominer la scène. J’ai tout à fait conscience que certains pays et certaines entreprises vont en effet se retrouver en sérieuses difficultés ; en effet, certains sont déjà en difficultés. Les faibles prix du pétrole peuvent également bouleverser la scène géopolitique du Moyen-Orient, ce qui aurait en retour des effets incertains sur les prix du pétrole. Je vois difficilement comment ceux-ci peuvent dominer les effets directs sur le revenu réel des consommateurs américains.

Deuxièmement, que les faibles prix reflètent un ralentissement de la croissance mondiale que l’on ne peut pas mesurer directement, bien plus large que ce qui est apparent dans les données les plus sûres, et que les prix du pétrole, comme le fameux canari dans la mine de charbon, nous disent quelque chose à propos de l’état de l’économie mondiale que d’autres données ne peuvent pas faire. Il n’y a pas de preuves empiriques historiques confirmant que le prix du pétrole joue un tel rôle. Mais supposons (…) qu’en effet la faiblesse des prix du pétrole nous dise que la Chine est réellement en train de ralentir. (Le fait que les prix des matières premières, hors pétrole, pour lesquels la Chine joue un plus grand rôle qu’avec le pétrole, aient bien moins diminué que le prix du pétrole ne soutient pas cette interprétation.) Alors, nous serions de retour dans l’énigme précédente. Il est difficile de voir comment cela peut avoir un tel effet sur l’économie américaine et à son tour sur le marché boursier américain. Une autre variation sur ce thème, qui a été suggérée dans certains articles, est que la faiblesse des prix du pétrole reflète un ralentissement de l’activité américaine bien plus sûrement que ce que les autres données actuelles sont en train de nous dire. Il n’y aucune preuve suggérant que ce soit le cas.

Peut-être que nous ne devons pas croire les commentaires des marchés. Peut-être que ce n’est ni le pétrole, ni la Chine. Peut-être que nous sommes en train de voir une réaction différée au ralentissement de l’économie mondiale, un ralentissement qui est désormais à l’œuvre depuis quelques années. Même s’il n’y a pas eu de nouvelles significatives ces deux dernières semaines, peut-être que les marchés ne réalisent que seulement maintenant que la croissance des pays émergents sera plus faible pendant longtemps et que la croissance des pays avancés ne sera pas fabuleuse. Peut-être…

Je pense que l’explication réside ailleurs. Je crois que dans une large mesure, les comportements moutonniers ont joué un rôle crucial. Si d’autres investisseurs vendent, ça doit être parce qu’ils savent quelque chose que vous ne savez pas. Donc, vous devez vendre, et vous le faites, et les prix boursiers baissent. Pourquoi maintenant ? Peut-être parce que nous sommes entrés dans une période de plus forte incertitude. L’économie mondiale, au début de l’année 2016, est vraiment déconcertante. L’incertitude politique aux Etats-Unis et l’incertitude géopolitique à l’étranger sont toutes les deux élevées. La Fed est entrée dans un nouveau régime. La capacité du gouvernement chinois à contrôler son économie est remise en question. Dans cet environnement, sur les marchés boursiers tout comme dans la compagne des élections présidentielles, il est de plus en plus facile pour les baissiers de remporter la discussion, pour les marchés boursiers de chuter et, sur le front politique, pour les alarmistes de gagner en popularité.

Devons-nous nous inquiéter ? C’est là où l’économie n’est plus vraiment de grande aide pour donner une réponse définitive. (…) S’il apparaît évident dans quelques jours ou dans quelques semaines que les fondamentaux ne sont en fait pas si mauvais, les prix boursiers vont repartir à la hausse, tout comme ils le firent l’été dernier, et on considérera cet épisode comme un simple hoquet. Si, cependant, la chute des marchés boursiers dure plus longtemps ou s’aggrave, ce ralentissement de la croissance peut devenir autoréalisateur. Une faiblesse persistante des cours boursiers peut réduire la consommation, freiner la demande et peut-être même entraîner une récession. La capacité de la Fed, qui sort à peine de la borne inférieure zéro, à contrer un ralentissement de la demande reste limitée. Espérons que le premier scénario soit le bon, mais nous devrions nous inquiéter du second. »

Olivier Blanchard, « The price of oil, China, and stock market herding », 17 janvier 2016. Traduit par Martin Anota

mercredi 7 octobre 2015

Quelles sont les conséquences des récessions ?

« La crise financière mondiale a mis un coup de projecteur sur l’effet d’hystérèse, hypothèse selon laquelle les récessions pourraient avoir des effets permanents et se traduire à terme par une baisse de la production. Le graphique 1 illustre de façon frappante l’évolution de la production aux États-Unis et dans la zone euro depuis 2000 et montre que, depuis la crise financière mondiale, la production paraît suivre une trajectoire plus basse, peut-être même une trajectoire plus basse, en particulier dans la zone euro.

GRAPHIQUE 1 PIB réel des pays avancés (en indices, base 100 au premier trimestre 2000)

Blanchard_Cerutti_Summers__PIB_reel_pays_avances_Etats-Unis_zone_euro.png

Pour comprendre ce que cette évolution a de singulier, Blanchard, Cerutti et Summers (2015) ont étudié 122 récessions survenues dans 23 pays avancés depuis les années 60. Leur analyse de l’évolution relative de la production après chaque récession suit une méthode non paramétrique qui estime et extrapole les tendances précédant les récessions en prenant en considération, entre autres facteurs, le fait qu’une économie peut avoir connu une période d’expansion, et donc se trouver au-dessus de la tendance, avant le début de la récession. Le graphique 2 illustre le cas du Portugal, qui est représentatif d’autres pays. Il apparaît que, depuis 1960, toutes les récessions sauf une sont liées non seulement à une baisse de la production par rapport à la tendance, mais aussi à un recul ultérieur de la croissance tendancielle, qui creuse l’écart entre la production tendancielle réelle et passée.

GRAPHIQUE 2 Portugal : évolution du log du PIB réel et tendances extrapolées

Blanchard_Cerutti_Summers__Portugal_evolution_du_log_du_PIB_reel_et_tendances_extrapolees.png

Plus généralement, l’analyse par ces auteurs de l’écart de production moyen entre la tendance avant les récessions et le log du PIB effectif (sur une période de trois à sept ans suivant les récessions) conclut que deux tiers des récessions sont suivies d’une baisse de la production par rapport à la tendance antérieure, proportion étonnamment élevée. De plus, près de la moitié de ces récessions sont suivies non seulement d’un recul de la production, mais aussi d’une croissance de la production inférieure à la tendance précédant les récessions, ce qui est encore plus surprenant.

Mais une relation de corrélation ne signifie pas nécessairement une relation de causalité. On peut avancer trois explications à ce phénomène :

  • L’effet d’hystérèse : On pense que plusieurs mécanismes peuvent produire des trajectoires de la production plus basses après des récessions. Les crises financières, comme le récent krach mondial, provoquent souvent des transformations institutionnelles, notamment des exigences de fonds propres plus strictes, ou des changements dans les modèles commerciaux des banques, qui peuvent avoir un effet sur la production à long terme. Sur le marché du travail, une récession, ainsi que le chômage élevé qui l’accompagne, peut amener certains travailleurs soit à quitter définitivement leur emploi, soit à devenir inaptes au travail. (Blanchard et Summers, en 1986, établissent aussi un lien entre la hausse du chômage en Europe pendant les années 80 et l’effet d’hystérèse qui prend la forme d’épisodes prolongés de chômage provoquant un changement des institutions du marché du travail.) Pendant une récession, il arrive aussi que les entreprises compriment les dépenses de recherche et développement, et la productivité devient alors inférieure à ce qu’elle aurait été s’il n’y avait pas eu de récession. Il est plus difficile, mais pas impossible, de trouver des mécanismes à travers lesquels une récession se traduit à terme par une croissance inférieure de la production. (Pour distinguer l’effet d’une récession sur le taux de croissance de son effet sur le niveau de production, Ball (2014) appelle le premier "supereffet d’hystérèse".) Une récession peut provoquer des changements de comportement ou amener les institutions à réduire définitivement leurs dépenses de recherche et développement, ou à réduire définitivement les réaffectations. Les changements peuvent aller d’une augmentation des restrictions à la prise de risques par les établissements financiers, imposées par la loi ou volontaires, à des réformes fiscales qui découragent l’activité entrepreneuriale.

  • Les effets dynamiques des chocs du côté de l’offre : Les chocs qui s’exercent du côté de l’offre (les chocs pétroliers et les crises financières, par exemple) peuvent être à l’origine à la fois des récessions et, ultérieurement, du recul de la production. Ainsi, on peut plausiblement avancer que la forte baisse de la production au début de la crise mondiale et la trajectoire de croissance plus basse qui a suivi ont la même cause profonde, à savoir la crise du système financier, qui elle-même se manifeste par un effet intense au début, qui devient plus chronique après.

  • La causalité inverse : Une récession peut être en partie la conséquence de l’anticipation d’un recul de la croissance. Ainsi, une baisse exogène de la croissance tendancielle potentielle peut inciter les ménages à réduire leur consommation et les entreprises à diminuer leurs investissements, et ainsi déclencher une récession.

Pour différencier ces trois explications, Blanchard, Cerutti et Summers (2015) s’intéressent à des décompositions fondées sur la cause première des récessions. Ils se concentrent sur les récessions provoquées par une désinflation intentionnelle — des récessions dues à des chocs du côté de la demande, caractérisées par une forte hausse des taux d’intérêt nominaux, suivie par une désinflation — dans lesquelles la corrélation a plus de chances de s’expliquer par un effet d’hystérèse que dans les deux autres hypothèses. Les auteurs constatent que, même dans le cas de ces récessions, la proportion de récessions suivies d’une baisse de la production par rapport à la tendance antérieure est sensible (17 sur les 28 récessions provoquées par une désinflation intentionnelle). Les conséquences de ces conclusions pour l’action des pouvoirs publics sont importantes, mais éventuellement contradictoires. Lorsque l’on est en présence d’un effet d’hystérèse, en règle générale, les politiques macroéconomiques doivent être plus agressives. L’écart de production par rapport à son niveau optimal est beaucoup plus durable et, par conséquent, plus coûteux qu’on le suppose habituellement. Cela dit, dans la mesure où les deux autres explications sont aussi pertinentes, on risque de surestimer la production potentielle durant et après une récession et, par conséquent, de surestimer l’écart de production. Les politiques macroéconomiques qui reposent sur un écart de production surestimé peuvent alors se révéler trop agressives. Il faut donc que l’arsenal de mesures macroéconomiques soit non seulement adapté à chaque pays, mais aussi propre à chaque récession. »

Olivier Blanchard et Eugenio Cerutti, « Récessions : quelles conséquences ? », in FMI, Perspectives de l'économie mondiale, octobre 2015, pp. 53-54.



aller plus loin...

« Dynamiques de reprises »

« La crise a-t-elle réduit la croissance potentielle ? »

« Quel est l'impact de la Grande Récession sur la production potentielle ? »

« Quel est l’impact des récessions sur la production potentielle ? »