Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Joseph Stiglitz

Fil des billets

mardi 4 septembre 2018

Stagnation séculaire : Mythe et réalité

« J’ai lu l’article intitulé "Le mythe de la stagnation séculaire" où Joseph Stiglitz (qui est généralement excellent) se penche sur la stagnation séculaire. L’article développe l’idée que le concept de stagnation séculaire est une sorte de subterfuge créé pour exonérer ceux qui sont en charge de la politique économique de la responsabilité de la faible reprise que nous avons connue suite à la Grande Récession. Je pense que cette vision est (…) fondamentalement erronée (…).

Lorsque Larry Summers a tout d’abord évoqué l’idée de stagnation séculaire dans un discours au FMI à la fin de l’année 2013, Neil Mehrotra et moi-même avions écrit un petit article quelques mois après qui, d’après ce que je sais, constitue le premier effort visant à théoriser cette idée dans un modèle DSGE moderne. Plus tard, avec l’aide de notre étudiant Jake Robbins, nous sommes allés au-delà de la simple illustration théorique pour explorer une version quantitative de l’hypothèse dans un article qui va être publié dans l’American Economic Journal: Macroeconomics. Entretemps, nous avons écrit plusieurs articles en collaboration avec Larry Summers et d’autres coauteurs qui ont exploré divers aspects de cette idée (par exemple, ici et). Il serait surprenant si j’avais participé à mon insu à une entreprise exonérant les décideurs de politique économique pour la responsabilité de la faiblesse de la reprise !

La plus grosse erreur et peut-être la plus évidente avec le raisonnement de Stiglitz est la suivante : si l’hypothèse de la stagnation séculaire est correcte, cela n’exonère en rien les responsables de la politique économique de la responsabilité de la faible reprise. En fait, elle dit exactement le contraire, si bien que, si elle est correcte, la théorie prédit que les décideurs de la politique économique auraient dû en faire plus en 2008 que les théories existantes ne le suggèrent. Quelle est d’ailleurs l’idée de la stagnation séculaire ? La plupart des gens, notamment moi-même, avions initialement considéré que la crise de 2008, où les Etats-Unis et beaucoup d’autres pays se retrouvaient contraints par la borne inférieure zéro (zero lower bound), était due à certaines forces temporaires, par exemple qu’elle résultait du cycle de désendettement (idée que j’ai développée avec Paul Krugman ici) ou de problèmes du secteur bancaire (une idée que j’ai développé avec Del Negro, Ferrero et Kiyotaki ici). Mais en aucun cas, la plupart des hypothèses étaient des hypothèses dans lesquelles les forces menant à la borne inférieure zéro étaient temporaires, si bien qu’une stratégie pour la politique économique (par exemple si le coût de l’intervention était considéré comme élevé) pouvait consister à tout simplement attendre, comme "bientôt tout irait mieux".

Ce qui a distingué l’hypothèse de Larry par rapport à beaucoup des travaux antérieurs était qu’elle suggérait que les forces qui poussent le taux d’intérêt naturel à la baisse, en amenant les taux à buter sur leur borne inférieure zéro à devenir, puissent ne pas être des forces temporaires, mais plutôt des forces qui ne se seraient pas dissipées par elles-mêmes. La littérature a identifié plusieurs forces susceptibles de le faire, notamment le changement démographique, la chute de la croissance de la productivité, l’excès mondial d’épargne (global savings glut), le creusement des inégalités et ainsi de suite, c’est-à-dire des forces qui peuvent générer un excès d’épargne par rapport à l’investissement et pousser ainsi le taux d’intérêt naturel en territoire négatif de façon permanente (ou du moins très longuement). Ce qui était intéressant lorsqu’on a essayé de modéliser l’hypothèse de stagnation séculaire était qu’on devait non seulement opérer à cœur ouvert du côté de la demande des modèles DSGE traditionnels (pour faire émerger la possibilité de taux d’intérêt constamment négatifs, qui sont dans les modèles standards fixés à l’inverse du paramètre gouvernant les préférences temporelles), mais aussi envisager la possibilité du côté de l’offre qu’il puisse y avoir une récession permanente due à une insuffisance de la demande, par exemple en raison de l’arbitrage permanent entre inflation et production (inconcevable dans la macroéconomie traditionnelle). En tout cas, cette recherche, contrairement à ce que Stiglitz semble penser, est que l’hypothèse de stagnation séculaire offre un robuste argument pour adopter des interventions agressives, notamment en 2008. Loin d’être "juste une excuse pour des politiques erronées" l’hypothèse a donné une bonne raison de croire que davantage de choses auraient pu être faites en 2008.

Il est difficile de finir ce billet sans répondre brièvement à l’affirmation de Stiglitz selon laquelle les événements de l’année dernière "ont démenti cette thèse" de stagnation séculaire. Stiglitz suggère que l’expansion budgétaire menée par Trump est responsable en partie de la reprise actuelle (une suggestion que je supposerais comme exacte afin de simplifier mon raisonnement). Il est étrange de suggérer que cela "dément l’idée" de stagnation séculaire, alors que c’est précisément ce que prédirait la théorie de la stagnation séculaire : Avec de faibles taux d’intérêt, il y a davantage de marge de manœuvre que d’habitude pour adopter un plan de relance budgétaire, c’est-à-dire qu’il est moins probable que la banque centrale réagisse en resserrant sa politique monétaire. Donc ici Stiglitz semble tout mélanger. Au final, je pense que l’implication du diagnostic de 2008 au prisme de la théorie de la stagnation séculaire est en fait tout à fait en résonnance avec de que Stiglitz a dit ici et ailleurs, par exemple que "la chute après la crise financière fut plus sévère et la redistribution massive du revenu et du patrimoine vers les plus riches a affaibli la demande agrégée" et que "la contraction de l’activité était susceptible d’être profonde et longue" et que ce qui était nécessaire était quelque chose de "plus fort et différent de ce qu’Obama a proposé". En effet, l’hypothèse de la stagnation séculaire contribue à structurer un tel raisonnement. »

Gauti Eggertsson, « Secular Stagnation, Myth and Reality », 2 septembre 2018. Traduit par Martin Anota



aller plus loin...

« Larry Summers et la stagnation séculaire »

« Les pays avancés font-ils face à une stagnation séculaire ? »

« Comment modéliser la stagnation séculaire ? »

« La stagnation séculaire en économie ouverte »

« Les importunités économiques pour nos petits-enfants… Genèse de l’hypothèse de la stagnation séculaire »

samedi 30 juillet 2016

Une idée simple, mais révolutionnaire : l'asymétrie d'information



« Avant 1970, les économistes (…) ne pensaient pas vraiment au rôle de l’information. Sur le marché du travail, par exemple, les manuels supposaient en général que les employeurs connaissent la productivité de leurs travailleurs (ou de leurs candidats à l’embauche) et, grâce à la concurrence, leur versent exactement la valeur de ce qu’ils produisent.

Vous pouvez penser que les études remettant en cause cette conclusion seraient immédiatement célébrées comme une importante avancée. A la fin des années soixante, George Akerlof écrit "The Market for Lemons", un article qui apportait une telle remise en cause et qui permit à son auteur de gagner un prix Nobel quelques décennies plus tard. Pourtant, à l’époque, l’article fut rejeté par trois prestigieuses revues. Akerlof était alors professeur assistant à Berkeley, l’Université de Californie ; il venait seulement de finir sa thèse, au MIT, en 1966. Peut-être en conséquence de cela, l’American Economic Review pensait que les intuitions de son article étaient triviales. La Review of Economic Studiers partagea la même opinion. Le Journal of Political Economy nourrissait l’inquiétude inverse : elle ne digérait pas les implications de l’article. Akerlof, qui est désormais un professeur émérite à Berkeley et qui est marié à Janet Yellen, la présidente de la Réserve fédérale, rappelle la plainte de l’éditeur : "Si cela s’avérait correct, l’économie serait différente".

D’une certaine façon, les éditeurs avaient tous raison. L’idée développée par l’article d’Akerlof, qui fut finalement publié dans le Quarterly Journal of Economics en 1970, était à la fois simple et révolutionnaire. Supposez que les acheteurs sur le marché des voitures d’occasions soient prêts à payer 1.000 dollars pour acheter une bonne voiture, une "pépite", et que les vendeurs soient prêts à en vendre une à un prix légèrement inférieur. Les acheteurs ne sont pas prêts à payer plus de 500 dollars pour acheter une voiture de mauvaise qualité (un tacot, un "lemon"), tandis que les vendeurs sont prêts à en vendre une à un prix de nouveau légèrement inférieur. Si les acheteurs peuvent distinguer les bonnes voitures des mauvaises, les échanges seront florissants. En réalité, les acheteurs peuvent avoir du mal à voir la différence : les rayures peuvent être camouflées, les problèmes de moteur peuvent ne pas s’être encore révélés, même le compteur kilométrique peut être trafiqué.

Pour prendre en compte le risque qu’une voiture soit un lemon, les acheteurs réduisent le prix auquel ils sont prêts à acheter une voiture. Ils sont prêts à payer 750 dollars pour une voiture qu’ils jugeraient avoir autant de chances d’être un lemon qu’une pépite. Mais les vendeurs qui vendent une pépite et le savent peuvent refuser de la vendre à ce prix. Par conséquent, les acheteurs font face à une « sélection adverse » (antisélection) : les seuls vendeurs qui seront prêts à accepter 750 dollars seront ceux qui vendent un lemon et le savent.

Les acheteurs les plus clairvoyants vont prévoir ce problème. Puisqu’ils savent qu’ils se retrouveront au final avec un lemon, ils refusent de payer plus de 500 dollars pour acheter une voiture d’occasion. Les vendeurs de lemons finissent par les vendre au même prix qu’ils les auraient vendu s’il n’y avait pas eu d'ambiguïté. Mais les pépites sont retirées du marché et restent au garage. C’est une tragédie : il y a des acheteurs qui seraient heureux d’avoir une pépite et de la payer à son juste prix, si seulement ils pouvaient être certains de la qualité de la voiture. Cette « asymétrie d’information » entre les acheteurs et les vendeurs tue le marché.

Est-il vrai que vous pouvez gagner un prix Nobel juste pour avoir observé que certaines personnes sur les marchés en savent plus que d’autres ? Ce fut la question qu’un journaliste posa à Michael Spence qui, aux côtés d’Arkerlof et de Joseph Stiglitz, reçu le Nobel en 2001 pour leurs travaux sur l’asymétrie d’information. Son incrédulité était compréhensible. L’article sur le marché des voitures d’occasion n’était même pas une description précise de ce dernier : chaque voiture qui est vendue n’est clairement pas de mauvaise qualité. Et les assureurs savent depuis longtemps que leurs clients peuvent être les meilleurs juges des risques auxquels ils font face et que les personnes les plus enclines à s’assurer sont probablement les paris les plus risqués.

Pourtant cette idée était nouvelle pour les économistes mainstream, qui comprirent rapidement qu’elle rendait plusieurs de leurs modèles obsolètes. De nouvelles avancées suivirent bientôt, comme les chercheurs examinèrent comment le problème d’asymétrie d’information pouvait être résolu. La contribution majeure de Spence fut un article de 1973 appelé "Job Market Signalling" qui se focalisait sur le marché du travail. Les employeurs peuvent avoir du mal à voir quels sont les meilleurs candidats à l’embauche. Spence montre que les meilleurs travailleurs peuvent signaler leurs talents aux entreprises en obtenant (…) des diplômes universitaires. Cela ne marche toutefois que si le signal est crédible : si les travailleurs à faible productivité obtiennent facilement un diplôme, alors ils peuvent se prétendre efficaces. (...)

Le signalement n’est pas la seule façon de surmonter le problème des lemons. Dans un article publié en 1976, Stiglitz et Michael Rothschild ont montré comment les assureurs vont chercher à ce que leurs clients révèlent leur niveau de risque. Il s’agit alors d’offrir des contrats qui n’attirent qu’un seul type de client.

Supposez qu’un assureur automobile fait face à deux types de clients : ceux à haut risque et ceux à faible risqué. Il ne peut distinguer entre les deux types de conducteurs. Seuls ces derniers connaissent leur niveau de risque. Rothschild et Stiglitz ont montré que, sur un marché concurrentiel, les assureurs ne peuvent offrir le même contrat de façon profitable aux deux groupes. S’ils le faisaient, les primes des bons conducteurs subventionneraient les versements aux conducteurs imprudents. Un rival peut alors offrir un contrat avec de moindres primes et une moindre couverture, qui attirerait les conducteurs prudents car les conducteurs risqués préfèrent être pleinement assurés. L’assureur, qui se retrouverait alors avec les mauvais risques, réaliserait des pertes. (…)

L’assureur automobile doit offrir deux contrats, afin d’être sûr que chacun attire seulement les clients pour lesquels il est conçu. Le truc, c’est d’offrir le contrat qui assure pleinement à un prix élevé et un second moins cher, mais option peu chère avec une franchise élevée. Les conducteurs risqués vont rechigner à payer une franchise, puisqu’ils savent qu’ils ont de fortes chances de finir par la payer. Ils vont préférer être pleinement assurés. Les conducteurs prudents vont tolérer une franchise élevée et payer un prix plus faible (…).

La sélection adverse a un cousin. Les assureurs ont longtemps su que les gens qui s’achètent une assurance sont davantage susceptibles de prendre des risques. Quelqu’un qui a assuré son logement va vérifier moins souvent son alarme à incendie ; l’assurance maladie encourage la mauvaise alimentation et l’alcoolisme. Les économistes se sont pour la première frotté à ce phénomène d’aléa moral (ou risque moral) en 1963, lorsque Kenneth Arrow publie un article à son propos.

Le risque moral apparaît quand les incitations ne vont pas. La vieille économie, nota Stiglitz dans le discours qu’il prononça lorsqu’il reçut le prix Nobel, accorde beaucoup d’importance aux incitations, mais avait remarquablement peu de choses à dire à leur propos. Dans un monde complètement transparent, vous n’avez pas à vous inquiéter des incitations de votre partenaire à l’échange, car vous pouvez utiliser un contrat pour spécifier précisément le comportement qu’il doit adopter. C’est lorsque l’information est asymétrique et que vous ne pouvez pas observer ce qu’il fait (est-ce que votre fournisseur utilise des composants de mauvaise qualité ? est-ce que votre salarié tire au flanc ?) que vous devez vous inquiéter de l’alignement des intérêts de chacun.

De tels scénarii posent des problèmes "principal-agent". Comment un principal (comme un dirigeant d’entreprise) peut-il obtenir d’un agent (comme un salarié) qu’il se comporte comme il le désire, lorsqu’il ne peut surveiller tous les agents à la fois ? La façon la plus simple d’être certain qu’un salarié travaille dur est de lui donner une partie ou la totalité du profit. (…)

Mais un travail acharné ne garantit pas toujours le succès : un analyste à un cabinet de consultation peut par exemple faire un travail astronomique pour un projet qui ira pourtant au final à un rival. Donc, une autre option est de verser des "salaires d’efficience". Stiglitz et Carl Shapiro, un autre économiste, ont montré que les entreprises peuvent verser une prime salariale pour s’assurer que les salariés accordent plus de valeur à leur emploi. Cela va les motiver à la tâche, parce qu’ils ne pourront pas trouver un aussi bon salaire dans une autre entreprise s’ils se faisaient prendre en train de flâner et se faisaient licencier. Cette intuition contribue à expliquer une énigme fondamentale en économie : lorsque les travailleurs sont au chômage, mais désirent travailler, pourquoi les salaires ne chutent-ils pas jusqu’à ce que quelqu’un désire les embaucher ? Une réponse est qu’un salaire supérieur au salaire qui équilibrerait le marché joue le rôle de carotte, tandis que le chômage qui en résulte joue le rôle de bâton.

(…) Avant qu’Akerlof et les autres pionniers de l’économie informationnelle ne viennent, la discipline supposait que, sur des marchés concurrentiels, les prix reflètent les coûts marginaux : fixez un prix plus élevé et votre clientèle se tournera vers un concurrent. Mais dans un monde où l’information est asymétrique, "le bon comportement vise à obtenir un surplus sur ce que l’on peut obtenir ailleurs", selon Stiglitz. Le salaire que gagne le travailleur doit être plus élevé que ce qu’il peut obtenir avec un autre emploi, pour éviter qu’il ne tire au flanc ; et les entreprises vont avoir des difficultés à perdre des clients lorsque leur produit est de mauvaise qualité s’ils investissent dans la qualité. Sur les marchés avec une information imparfaite, le prix ne peut être égal au coût marginal.

Le concept d’asymétrie d’information, alors, changea vraiment la discipline. Presque un demi-siècle après que l’article sur les voitures d’occasion ait été rejeté trois fois, ses intuitions demeurent d’une pertinence cruciale pour les économises et à la politique économique. (…) »

The Economist, « Information asymmetry. Secrets and agents », 23 juillet 2016. Traduit par Martin Anota

lundi 13 mai 2013

Les enseignements de la crise de l'Atlantique Nord pour la théorie et la politique économiques

stiglitz_1.jpg

« Plus ou moins 100 crises ont eu lieu ces 30 dernières années tandis que les politiques de libéralisation devenaient dominantes : elles nous ont offert une riche expérience et des montagnes de données. Si nous examinons une période de 150 ans, nous avons un ensemble de données encore plus riche. Avec un siècle et demi de données claires et détaillées sur crise après crise, la question brûlante n'est pas de savoir comment cela s'est passé mais bien comment nous avons ignoré cette longue histoire et pensé que nous avions résolu les problèmes liés au cycle conjoncturel. Il était bien orgueilleux de notre part de penser que nous avions fait disparaître les grandes fluctuations économiques.

Le grand message que cette crise a fait passer de force — un message que nous aurions dû connaître depuis longtemps — est que les économies ne sont pas nécessairement efficientes, stables ou auto-correctrices. (…) Les modèles traditionnels ont mis l'accent sur les chocs exogènes, et pourtant il est très clair qu'une très grande partie des perturbations de notre économie sont endogènes. (…) Deuxièmement, les économies ne s'auto-corrigent pas. Il est évident que nous devons encore pleinement prendre en compte cet enseignement crucial que nous aurions dû tirer de cette crise : même à la suite de cette dernière, les modestes tentatives de réparation des économies américaine et européenne ont été un échec. Elles n'ont certainement pas été assez loin. En conséquence, le risque d'une nouvelle crise demeure considérable. En outre, les ripostes à la crise sont loin d'avoir ramené nos économies au plein emploi. (…)

Sur le plan des ressources humaines, du stock de capital et des ressources naturelles, nous nous trouvons aujourd'hui plus ou moins au même niveau qu'avant la crise. Par ailleurs, dans de nombreux pays, le PIB n'a pas retrouvé son niveau d'avant la crise, sans même parler d'un retour aux trajectoires de croissance d'avant la crise. Au fond, la crise n'est pas encore totalement résolue (…). Cela s'explique en partie par la lenteur du désendettement. Mais alors même que l'économie se désendette, il y a tout lieu de penser qu'elle ne retrouvera pas le plein emploi. (…) Cette crise est davantage qu'une crise des bilans. La cause est plus profonde : les États-Unis et l'Europe subissent une transformation structurelle qui est liée au passage d'une économie dominée par l'industrie manufacturière à une économie de services. En outre, l'évolution des avantages comparatifs exige des ajustements considérables dans la structure des pays de l'Atlantique Nord.

De manière générale, les marchés seuls n'entraînent pas des résultats efficients, stables et socialement acceptables. Cela signifie que nous devons réfléchir un peu plus aux types d'architecture économique qui conduiront à la croissance, à la stabilité de l'économie réelle et à une bonne distribution du revenu. (…) Les réformes entreprises jusqu'à présent n'ont constitué que des retouches mineures. (…) Certains des changements apportés à notre structure économique (avant et après la crise) qui étaient censés rendre l'économie plus performante n'ont peut-être pas été efficaces. (…) L'intégration du secteur financier (…) a manifestement rendu l'économie moins résistante à des chocs plus extrêmes. (…) Quels que soient les avantages qui peuvent être tirés de la libéralisation des marchés de capitaux et des marchés financiers (et ils sont discutables), les coûts ont été élevés sur le plan des risques, qui ont augmenté. (…) La crise a souligné l'importance de la réglementation financière pour la stabilité macroéconomique. (…) Avec les fusions qui ont eu lieu à la suite de la crise, le problème des banques trop grandes pour faire faillite est encore pire. (…) Il y a des banques qui sont trop liées pour faire faillite et des banques qui sont trop corrélées pour faire faillite. Nous ne nous sommes guère préoccupés de ces questions. (…) En outre, nous n'avons pas suffisamment agi sur le plan des normes de fonds propres des banques. (…)

Il y a une correspondance entre ces déficiences dans nos réformes et les déficiences des modèles que nous, économistes, utilisons souvent en macroéconomie. (…) L'un des rôles principaux du secteur financier est l'affectation des capitaux et l'offre de crédit, en particulier aux petites et moyennes entreprises, une fonction qu'il n'a pas bien remplie avant la crise et qu'il ne remplit sans doute pas toujours très bien. Cela semble peut-être évident. Mais l'offre de crédit ne s'est retrouvée ni au centre des débats, ni au centre des macromodèles standard. (…) Il y a aussi une compréhension insuffisante des différents types de financement. (…)

L'une des réformes nécessaires, mais qui ne reçoit pas suffisamment d'attention, consiste à mettre en place davantage de stabilisateurs automatiques et moins de déstabilisateurs automatiques, non seulement dans le secteur financier, mais dans l'ensemble de l'économie. Par exemple, le passage de systèmes à prestations définies à des systèmes à cotisations définies a peut-être conduit à une économie moins stable. (…) Des mécanismes de partage du risque (surtout s'ils sont mal conçus) peuvent en fait accroître le risque systémique : il est tout à fait faux de penser, comme c'était le cas avant la crise, que la diversification, en gros, élimine le risque. (…)

En ce qui concerne la politique monétaire, on a tendance à penser que la banque centrale ne devrait se préoccuper que de fixer le taux d'intérêt à court terme. (…) Les économistes monétaires distinguent souvent les instruments macroprudentiels, microprudentiels et conventionnels de politique monétaire. (…) Cette distinction est artificielle. Les autorités doivent utiliser tous les instruments, de manière coordonnée. (…) Les défaillances macroéconomiques exigeront toujours notre intervention. (…) Les marchés ne présentent jamais l'efficience de Pareto si l'information est imparfaite ou asymétrique, ou si les marchés du risque sont imparfaits. Et comme ces conditions sont toujours satisfaites, les marchés ne présentent jamais l'efficience de Pareto. (…)

Il devrait être clair que nous aurions pu faire bien plus pour éviter cette crise et en atténuer les effets. Il doit être clair aussi que nous pouvons faire bien plus pour éviter la prochaine crise. »

Joseph E. Stiglitz, « The lessons of the North Atlantic crisis for economic theory and policy », iMFdirect (blog), 3 mai 2013. Traduction française, « Les enseignements de la crise de l'Atlantique Nord pour la théorie et la politique économiques ».

mardi 30 octobre 2012

Cinq mythes économiques qui détruisent notre société

siglitz.jpg

La campagne de Romney a défendu les inégalités ou les a écartées. Pour ce faire, elle a utilisé une poignée de mythes économiques. Voici quelques-uns des plus importants:

1. L'Amérique est une terre d'opportunités. Alors que des histoires de réussites fulgurantes nourrissent encore notre imagination, le fait est que les chances de réussir dans la vie d'un jeune Américain sont plus dépendantes des revenus et du patrimoine de ses parents que dans aucun des autres pays avancés pour lesquels il existe des données. Il y a même moins de mobilité ascendante (et moins de mobilité descendante depuis le sommet) aux Etats-Unis qu'en Europe, et nous ne parlons pas seulement de la Scandinavie.

2. L’économie du ruissellement (trickle-down economics, alias "la marée montante soulève tous les bateaux") fonctionne. Cette idée suggère qu’enrichir davantage les riches nous rendra tous plus aisés. La récente histoire économique de l’Amérique montre que cette idée est erronée. Les plus hauts revenus ont très bien fait. Mais le revenu médian américain est inférieur à ce qu'il était il y a une décennie et demie. Divers groupes (les hommes et les personnes peu qualifiées) ont obtenu des résultats encore bien pires. Le revenu médian d'un homme travaillant à temps plein, par exemple, est inférieur à ce qu'il était il y a quatre décennies.

3. Les riches sont les véritables "créateurs d'emplois", donc leur donner plus d'argent stimule la création d'emplois. (…) Les riches ne sont pas la source d'innovations transformatrices. Beaucoup, sinon la plupart, des innovations cruciales apparues ces dernières décennies, allant de la médecine à Internet, ont été fondées dans une large mesure sur la recherche-développement financée par l’Etat. Les riches gagnent leur argent là où les rendements sont les plus élevés, et aujourd’hui beaucoup voient ces rendements élevés sur les marchés émergents. (…) Il est difficile de voir comment donner davantage d’argent aux riches (…) conduit à une économie américaine plus robuste.

4. Le coût de la réduction des inégalités est si grand que, si les idéalistes les réduisent effectivement, nous tuerions la poule aux œufs d'or. En fait, le moteur de notre croissance économique est la classe moyenne. Les inégalités affaiblissent la demande globale, parce que ceux qui sont au milieu et en bas de la distribution des revenus dépensent la totalité ou la quasi-totalité de ce qu'ils gagnent, tandis que ceux du haut de la distribution ne le font pas. La concentration de la richesse dans les dernières décennies a entraîné des bulles et de l'instabilité, alors que la Fed a tenté de compenser les effets de la faible demande qui résultait de nos inégalités en réduisant ses taux d’intérêt et en relâchant la régulation. L'ironie est que les réductions d'impôts pour les plus-values et les dividendes qui étaient censées stimuler l'investissement par les présumés créateurs d'emplois ne le firent pas, alors même que les taux d'intérêt étaient historiquement faibles : la création d'emplois du secteur privé sous l’administration Bush a été moribonde. Les grandes institutions économiques telles que le Fonds monétaire international reconnaissent maintenant le lien entre les inégalités et la faiblesse de l'économie. Prétendre le contraire est une idée égoïste qui est promue par les ménages les plus aisés.

5. Les marchés sont autorégulateurs et efficients, et toute interférence de l’Etat avec les marchés est une erreur. La crise de 2008 aurait guéri tout le monde de cette erreur, mais n'importe qui avec un sens de l'histoire se rendrait compte que le capitalisme a été aux prises avec des booms et des crises dès ses origines. La seule période de notre histoire où les marchés financiers n’ont souffert d’aucun excès a été la période qui a suivi la Grande Dépression, au cours de laquelle nous avons mis en place de fortes régulations qui fonctionnèrent efficacement. Il est intéressant de noter que nous avons connu une croissance plus rapide et plus stable dans les décennies après la la Seconde Guerre mondiale que dans la période après 1980, lorsque nous avons commencé à assouplir les règlements. (...)

Comme je l'ai expliqué en détails ailleurs, le coût de ces mythes va bien plus loin que les dommages que subit notre économie, aujourd’hui et à l’avenir. Le tissu de notre société et la démocratie en souffrent.

Joseph Stiglitz, « Some are more unequal than others », 26 octobre 2012.