Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - Joseph Stiglitz

Fil des billets

samedi 12 juin 2021

Les dangers du progrès technique

« Plusieurs techno-optimistes suggèrent que les gains de productivité vont main dans la main avec les hausses de salaires réels. Cette idée que le progrès technique bénéficie à tous fut également incarnée par le dogme du ruissellement qui a caractérisé le néolibéralisme. Cependant, cette idée ne fut soutenue ni par la théorie, ni par les analyses empiriques ; en fait, la théorie économique a toujours indiqué que les avancées en matière de technologies ne bénéficient pas forcément à tous et peuvent créer des gagnants et des perdants. Les données (cf. graphique 1) montrent qu’au cours des dernières décennies, plusieurs pays ont connu des épisodes au cours desquels les salaires ont augmenté moins vite que la productivité. En outre, comme nous l’affirmons ci-dessous, même là où les salaires moyens ont augmenté au rythme de la productivité, les salaires médians ont pu augmenter moins vite et il y a un risque tout gain positif que nous avons connu par le passé ne puisse plus continuer.

GRAPHIQUE 1 Productivité et salaires réels en France (en indices, base 100 en 1990)

Korinek_Stiglitz__croissance_productivite_salaires_reels_France.png

Le graphique 2 montre que les gains de revenu associés au progrès technique ont été très inégalement répartis. Aux Etats-Unis et dans d’autres pays à haut revenu, l’essentiel des fruits de la croissance a été capté par le sommet de la distribution, ce qui s’est traduit par un creusement des inégalités de revenu dans la plupart des pays développés depuis le début des années 1980, inversant la tendance de long terme qui était jusqu’alors à l’œuvre dans la plupart des pays.

GRAPHIQUE 2 Part du revenu national avant impôt allant aux 5 % les plus riches dans les pays développés (en %)

Korinek_Stiglitz__part_revenu_national_5___les_plus_riches_pays_developpes_inegalites_de_revenu.png

Comment pouvons-nous réconcilier cela avec la théorie économique ? Dans le contexte d’une économie concurrentielle, nous pouvons réfléchir au progrès technique comme déplaçant la frontière technologique : nous pouvons obtenir davantage de production à partir d'un montant donné de facteurs de production. Mais cet élargissement des possibilités de production ne nous dit pas comment les gains tirés du progrès technique seront distribués. Dans nos modèles économiques les plus simples, par exemple, si nous supposons une économie concurrentielle avec une fonction de production à la Cobb-Douglas, les parts relatives sont fixes.

Cependant, dans le cas le plus général, le changement technologique peut modifier la répartition du revenu de telle façon que, par exemple, le travail obtient une part plus petite du gâteau. Si sa part diminue assez, les travailleurs peuvent voir leur situation sa dégrader. L’évolution des salaires dépend de ce qui se passe du côté de la demande de travail aux salaires existants. Si l’on utilise la terminologie initialement introduite par Hicks, le changement technique qui entraîne une baisse de la part relative du travail est qualifié de biaisé en faveur du capital (capital-biased) ; s’il entraîne une baisse de la part du travail non qualifié, il est qualifié de biaisé en faveur des compétences (skill-biased) ; s’il se traduit par une réduction des salaires, il est qualifié d’économiseur en travail (labor-saving). Les Etats-Unis, par exemple, ont connu un changement technologique biaisé en défaveur des tâches routinières qui a déplacé les travailleurs aux tâches routinières vers les activités manuelles ou cognitives depuis les années 1980 et qui a contribué au déclin de la classe moyenne (Autor et alii, 2003).

Korinek et Stiglitz (2019) ont montré que les effets distributifs des innovations peuvent être vus comme générant des quasi-rentes ; outre les gains directs obtenus par les innovateurs, les innovations peuvent entraîner des changements dans la demande de facteurs, par exemple en réduisant la demande pour le travail non qualifié et en augmentant la demande de travail qualifié et les travailleurs affectés connaîtront des gains ou des pertes. Les gagnants du progrès technique (par exemple les travailleurs qualifiés dans notre exemple) tirent ces gains sans avoir contribué à l’innovation, si bien qu’ils obtiennent une quasi-rente, tandis que les perdants connaissent des pertes sans qu’ils aient commis une quelconque faute. Cela a une importante implication : les gouvernements peuvent capturer une partie des quasi-rentes en taxant les gagnants et en la redistribuant ; et étant donné la nature des gains, les gouvernements peuvent même être capables de relever les impôts de façon à ce qu’il n’y ait guère d’effets de distorsion, par exemple si les gagnants incluent les propriétaires de facteurs fixes comme la terre. Donc, un progrès technique "administré" peut permettre des améliorations dans le sens de Pareto.

Cependant, il y a une grosse différence entre observer l’impact de l’intelligence artificielle dans un seul pays et d’un point de vue mondial. Alors qu’un pays jouit des bénéfices et le coût est supporté par un autre, une amélioration à la Pareto nécessiterait que les gagnants compensent les perdants via les frontières nationales. Aujourd’hui, de tels transferts transfrontaliers sont limités.

Par conséquent, les fruits du progrès technique vont être inégalement répartis, mais ce qui est troublant, c’est que certains pays peuvent fortement y gagner et d’autres y perdre. Ces différences se reflèteront, respectivement, en améliorations et détériorations des termes de l’échange des pays. Par la suite, nous analyserons diverses formes spécifiques du progrès que la révolution de l’intelligence artificielle et les technologies d’automatisation qui lui sont associées sont susceptibles d’induire, en nous focalisant tout particulièrement sur la façon par laquelle elles peuvent nuire aux pays en développement.

Le progrès technique économiseur de travail


Plusieurs observateurs s’inquiètent à l’idée que l’intelligence artificielle puisse économiser le travail, c’est-à-dire réduire le demande de travail aux prix des facteurs existants. Si c’est le cas, les salaires d’équilibre diminueraient et les travailleurs verraient leur situation se dégrader.

Comme nous l’avons noté, au cours du dernier demi-siècle, les Etats-Unis et plusieurs autres pays semblent avoir connu un progrès technologique biaisé en défaveur des travailleurs avec de faibles niveaux de diplôme réalisant des tâches routinières, en l’occurrence suffisamment biaisé pour qu’il puisse économiser le travail dans ce segment, réduisant les revenus réels de ces travailleurs. Par exemple, Autor et alii (2003) ont observé que, des années 1970 aux années 1990, alors que la numérisation apportait un substitut pour un nombre croissant de tâches routinières, le changement technologique a accru la productivité des travailleurs dans les emplois à tâches non routinières, par exemple des tâches de résolution de problème ou des communications complexes. Ces changements technologiques peuvent avoir expliqué près des deux tiers de la réorientation de la demande relative vers les travailleurs diplômés du supérieur au cours de cette période. De même, plus récemment, Acemoglu et Restrepo (2020) ont observé aux Etats-Unis de significatifs effets négatives de l’introduction de robots industriels sur les salaires et l’emploi, des effets concentrés dans l’industrie et parmi les professions impliquant des tâches manuelles routinières, de cols bleus, d’assemblage, ce qui contribue à expliquer la forte hausse de la dispersion des salaires selon les différentes catégories de travailleurs selon el diplôme au cours des cinq dernières décennies.

Cette polarisation de l’emploi en termes de salaires s’est aussi reflétée dans les dynamiques de la répartition de l'emploi. L’emploi dans les emplois non routiniers a continuer de croître régulièrement aux Etats-Unis, tandis que les emplois routiniers ont stagné et même, depuis environ 1990, décliné, ce qui a contribué, comme nous l’avons noté, à un déclin de la classe moyenne. L’OCDE (2019) note que les emplois moyennement qualifiés peuvent être ceux qui sont les plus exposés à l’automatisation et aux délocalisations, comme ils impliquent beaucoup de tâches routinières qui sont relativement faciles à automatiser.

(…) Acemoglu et Restrepo (2019a) ont formulé un modèle particulier dans lequel le déplacement de travailleurs par les robots va réduire la part du revenu rémunérant le travail et peut se révéler économiseur en travail si les gains de productivité tirés de l’adoption de robots sont modestes. Berg et alii (2018) se focalisent sur les effets différentiels du progrès technique en distinguant les groupes de travailleurs et ils montrent que le progrès technique peut être économiseur en travail non qualifié parce que ce type de main-d’œuvre peut facilement être substitué par des robots ; à l’inverse, le travail très qualifié est susceptible de se révéler complémentaire aux robots et va bénéficier du progrès technique ; par conséquent, les avancés technologiques risquent de se traduire par une hausse des inégalités de revenu. L’automatisation peut aussi creuser les inégalités selon d’autres dimensions, par exemple dans les secteurs où les femmes occupent plus de tâches routinières (Brussevich et alii, 2018).

Même si le progrès technique économise le travail à court terme, il peut aussi déclencher une accumulation additionnelle de capital qui s’avère complémentaire au travail, ce qui bénéficierait au travail à long terme. Par exemple, Stiglitz (2015) et Caselli et Manning (2019) montrent qu’une économie avec seulement du capital et du travail, dans laquelle l’accumulation du capital à long terme est déterminée par un taux d’intérêt exogène, le travail sera toujours gagnant. Cependant, l’impact final sur les inégalités dépendra de l’existence d’autres facteurs rares dans l’économie, par exemple les ressources naturelles ou la terre, qui bénéficieraient du progrès technique et finalement deviendraient plus rares, comme les facteurs "capital" et "travail remplaçant les machines" deviendront plus abondants et moins chers. En effet, Korinek et Stiglitz (2021a) montrent que, si c’est le cas, alors, en l’absence d’intervention du gouvernement, les travailleurs peuvent même y perdre avec le progrès technique à long terme.

A un niveau mondial, des dynamiques similaires peuvent s’observer. Même si le progrès technique économiseur en travail rend le monde dans son ensemble plus riche, il peut nuire aux pays en développement qui ont un avantage comparatif dans le travail peu qualifié. Si la demande mondiale de travail ou, plus spécifiquement, de travail non qualifié diminue, de tels pays connaîtraient une détérioration significative de leurs termes de l’échange et perdraient une part significative de leurs recettes tirées de l’exportation. Le progrès technique économiseur en travail peut non seulement créer des gagnants et des perdants dans les pays en développement qui s’en trouvent affectés, mais il peut dégrader la situation nette de ces pays. Alonso et alii (2020) constatent que les améliorations de la productivité des "robots" peuvent entraîner une divergence, comme les pays développés bénéficient davantage de la numérisation étant donné leur stock de capital initialement plus élevé. (...)

Information, monopoles numériques et firmes superstars


Jusqu’à présent, nous avons considéré les effets du changement technologique dans un environnement concurrentiel. Cependant, l’essor des intelligences artificielles et d’autres technologies d’information peuvent aussi mener à une plus forte concentration du pouvoir de marché. Par conséquent, l’économie peut se retrouver à un équilibre qui s’avère moins concurrentiel et davantage perturbé par le pouvoir de marché, avec de plus grandes rentes pour les firmes dominantes. Les acteurs avec un pouvoir de marché vont utiliser ce pouvoir pour améliorer leur situation. Les distorsions qui en résultent peuvent compenser une partie des bénéfices de l’innovation, exacerbant les effets distributionnels négatifs du changement technique économiseur en travail ou en ressources. Avec toute fonction de bien-être collectif averse aux inégalités, le bien-être collectif peut décroître.

Alors que l’hypothèse de marchés pleinement concurrentiels offre un repère utile, ce modèle est moins approprié lorsque l’on considère une économie dominée par les intelligences artificielles. Il est difficile de concevoir qu’une économie d’intelligences artificielles puisse être concurrentielle ou du moins bien décrite par le modèle d’équilibre concurrentiel standard.

Il y a plusieurs raisons expliquant pourquoi les avancées en matière d’intelligences artificielles peuvent intensifier le pouvoir de marché des entreprises. Tout d’abord, l’intelligence artificielle est un bien informationnel et les biens informationnels sont différents des autres biens en ce qu’ils sont non rivaux : ils peuvent être utilisés à un coût marginal proche de zéro, ce qui implique qu’une seule entreprise peut fournir un très large marché. En outre, la création de codes d’intelligences artificielles ou d’algorithmes d’apprentissage-machine implique typiquement des coûts irrécouvrables et/ou fixes élevés : sur un marché privé, les entreprises doivent gagner des rentes de monopole pour couvrir ces coûts. De plus, même de petits coûts irrécouvrables peuvent rendre le marché non contestable, c’est-à-dire qu’il peut y avoir des rentes et profits durables. En outre, les applications d’intelligences artificielles et les plateformes impliquent typiquement de significatives externalités de réseau. Une partie de celles-ci apparaissent parce que les entreprises accumulent de vastes montants de données qui leur permettent de mieux exploiter leurs algorithmes que leurs rivales. Tous ces effets créent de larges barrières à l’entrée et une tendance vers la création de larges monopoles, parfois qualifiés aussi d’effets "superstars" (Korinek et Ng, 2019 ; Stiglitz et Greenwald, 2014a).

Certains économistes ont identifié un nombre croissant de "firmes superstars" dans l’économie qui sont "super profitables" (Autor et alii, 2020). Cependant, l’essentiel de ces profits s’expliquent moins par l’utilisation d’une technologie "super-productive" que par l’exercice d’un pouvoir de monopole qui est dérivé de la nature de ces technologies d’information. Par exemple, aux Etats-Unis, une large fraction des gains sur le marché boursier au cours de la dernière décennie ont été concentrés sur les géants du numérique, dans une grande mesure en lien avec leur pouvoir de monopole. De plus, les avancées technologiques ont aussi permis aux entreprises du numérique d’extraire davantage de surplus du consommateur via la discrimination par les prix. (…)

Un progrès technique mal orienté


La théorie économique a éclairé pourquoi la nature de l’innovation (par exemple le biais factoriel) peut ne pas maximiser le bien-être. L’essentiel de l’économie considère le biais factoriel du changement technologique comme exogène et les théorèmes de l’économie du bien-être affirment l’efficacité des économies de marché concurrentielles pour un niveau donné de technologie. Cependant, la direction et le rythme du changement technologique sont eux-mêmes le fruit de décisions économiques, comme l’a souligné la littérature sur l’innovation induite (Kennedy, 1964 ; von Weizsäcker, 1966 ; Samuelson, 1965 ; Atkinson et Stiglitz, 1969 ; Acemoglu, 1998, 2002 ; Stiglitz, 2006). Il n’y a pas d’équivalent aux théorèmes du bien-être pour l’innovation : les marchés ne vont pas être efficaces en général par eux-mêmes, que ce soit dans le niveau ou la direction (la nature) de l’activité innovante et le changement technologique. Le marché peut même fournir des incitations pour des innovations qui réduisent l’efficacité en absorbant plus de ressources qu’elles n’en créent pour la société, comme cela peut être le cas, par exemple, avec le trading à haute fréquence. Cela justifie des politiques pour réorienter le progrès technique (…).

Le problème fondamental est que le savoir est un bien public, dans le sens samuelsonien du terme. S’il devait être financé et produit par le secteur privé, il y aurait certaines restrictions inefficaces sur l’usage du savoir et ces restrictions donnent typiquement lieu à un pouvoir de marché. S’il n’y a pas de freins sur l’usage du savoir, alors les investisseurs ne peuvent s’approprier les rendements de leur production de savoir, si bien qu’ils n’ont que peu d’incitations à innover. Quand le savoir est produit comme sous-produit d’un apprentissage ou d’un investissement, l’incapacité à s’approprier la totalité des bénéfices va entraîner une sous-production ou un sous-investissement dans les secteurs de l’économie associés à un important apprentissage et des effets de débordement en matière d’apprentissage. Comme Greenwald et Stiglitz (2006, 2014a) l’ont souligné, cela a d’importantes implications pour la politique de développement, en donnant une justification aux politiques industrielle et commerciale.

Une littérature plus récente a attiré l’attention non seulement sur les biais dans le niveau et le rythme de l’innovation, mais aussi sur sa direction. Dans les économies avec des marchés de gestion du risque incomplets et une information imparfaite et/ou asymétrique (c’est-à-dire dans les économies du monde réel), (…) les prix ne donnent pas nécessairement le signal "correct" aux innovateurs sur la direction de l’innovation. Il y a d’importantes externalités pécuniaires. Par exemple, dans le modèle de salaire d’efficience de Shapiro et Stiglitz (1984), où le chômage agit comme un dispositif disciplinant les travailleurs (…) dans le contexte d’un marché du travail avec une surveillance imparfaite et coûteuse, il peut y avoir trop de progrès technique économiseur de travail, ce qui se traduit par un niveau excessif de chômage (Stiglitz, 2006). (…)

Les marchés ne s’inquiètent pas de la répartition du revenu. Les forces du marché peuvent orienter les décisions économiques vers l’efficience (dans un sens étroit, microéconomique), mais elles ne vont jamais considérer les conséquences distributives. De récentes analyses ont cependant souligné que les performances économiques globales peuvent être affectées par les inégalités (Stiglitz, 2013 ; Ostry et alii, 2019). Evidemment, les entrepreneurs individuels ne vont pas prendre en compte cette externalité macroéconomique et en conséquence le marché va être biaisé en faveur d’un excès d’innovations économiseuses de travail, ce qui confère un rôle aux politiques redistributives. En outre, Korinek et Stiglitz (2020) montrent qu’en présence de contraintes sur la redistribution, la politique publique peut améliorer le bien-être en amenant l’innovation pour prendre en compte ses implications distributives.

Il y a des forces autocorrectives : par exemple, si le travail devient moins cher, les innovateurs auront moins d’incitations à chercher à économiser le travail, ce qui fournit un mécanisme correcteur dans l’économie de marché à une baisse continue de la part du travail, mais ce mécanisme ne fonctionne plus lorsque les salaires sont fixés par des considérations en termes de salaire d’efficience ou atteignent des niveaux de subsistance. (…) »

Anton Korinek, Martin Schindler et Joseph E. Stiglitz (2021), « Technological progress, artificial intelligence, and inclusive growth », FMI, working paper, n° 21/166. Traduit par Martin Anota



aller plus loin...

« Les répercussions du progrès technique sur la répartition des revenus et l’emploi »

« La croissance de la productivité menace-t-elle l’emploi ? »

« Les robots, les intelligences artificielles et le travail »

« Les robots menacent-ils les travailleurs ? »

mardi 4 septembre 2018

Stagnation séculaire : Mythe et réalité

« J’ai lu l’article intitulé "Le mythe de la stagnation séculaire" où Joseph Stiglitz (qui est généralement excellent) se penche sur la stagnation séculaire. L’article développe l’idée que le concept de stagnation séculaire est une sorte de subterfuge créé pour exonérer ceux qui sont en charge de la politique économique de la responsabilité de la faible reprise que nous avons connue suite à la Grande Récession. Je pense que cette vision est (…) fondamentalement erronée (…).

Lorsque Larry Summers a tout d’abord évoqué l’idée de stagnation séculaire dans un discours au FMI à la fin de l’année 2013, Neil Mehrotra et moi-même avions écrit un petit article quelques mois après qui, d’après ce que je sais, constitue le premier effort visant à théoriser cette idée dans un modèle DSGE moderne. Plus tard, avec l’aide de notre étudiant Jake Robbins, nous sommes allés au-delà de la simple illustration théorique pour explorer une version quantitative de l’hypothèse dans un article qui va être publié dans l’American Economic Journal: Macroeconomics. Entretemps, nous avons écrit plusieurs articles en collaboration avec Larry Summers et d’autres coauteurs qui ont exploré divers aspects de cette idée (par exemple, ici et). Il serait surprenant si j’avais participé à mon insu à une entreprise exonérant les décideurs de politique économique pour la responsabilité de la faiblesse de la reprise !

La plus grosse erreur et peut-être la plus évidente avec le raisonnement de Stiglitz est la suivante : si l’hypothèse de la stagnation séculaire est correcte, cela n’exonère en rien les responsables de la politique économique de la responsabilité de la faible reprise. En fait, elle dit exactement le contraire, si bien que, si elle est correcte, la théorie prédit que les décideurs de la politique économique auraient dû en faire plus en 2008 que les théories existantes ne le suggèrent. Quelle est d’ailleurs l’idée de la stagnation séculaire ? La plupart des gens, notamment moi-même, avions initialement considéré que la crise de 2008, où les Etats-Unis et beaucoup d’autres pays se retrouvaient contraints par la borne inférieure zéro (zero lower bound), était due à certaines forces temporaires, par exemple qu’elle résultait du cycle de désendettement (idée que j’ai développée avec Paul Krugman ici) ou de problèmes du secteur bancaire (une idée que j’ai développée avec Del Negro, Ferrero et Kiyotaki ici). Mais en aucun cas, la plupart des hypothèses étaient des hypothèses dans lesquelles les forces menant à la borne inférieure zéro étaient temporaires, si bien qu’une stratégie pour la politique économique (par exemple si le coût de l’intervention était considéré comme élevé) pouvait consister à tout simplement attendre, comme "bientôt tout irait mieux".

Ce qui a distingué l’hypothèse de Larry par rapport à beaucoup des travaux antérieurs était qu’elle suggérait que les forces qui poussent le taux d’intérêt naturel à la baisse, en amenant les taux à buter sur leur borne inférieure zéro à devenir, puissent ne pas être des forces temporaires, mais plutôt des forces qui ne se seraient pas dissipées par elles-mêmes. La littérature a identifié plusieurs forces susceptibles de le faire, notamment le changement démographique, la chute de la croissance de la productivité, l’excès mondial d’épargne (global savings glut), le creusement des inégalités et ainsi de suite, c’est-à-dire des forces qui peuvent générer un excès d’épargne par rapport à l’investissement et pousser ainsi le taux d’intérêt naturel en territoire négatif de façon permanente (ou du moins très longuement). Ce qui était intéressant lorsqu’on a essayé de modéliser l’hypothèse de stagnation séculaire était qu’on devait non seulement opérer à cœur ouvert du côté de la demande des modèles DSGE traditionnels (pour faire émerger la possibilité de taux d’intérêt constamment négatifs, qui sont dans les modèles standards fixés à l’inverse du paramètre gouvernant les préférences temporelles), mais aussi envisager la possibilité du côté de l’offre qu’il puisse y avoir une récession permanente due à une insuffisance de la demande, par exemple en raison de l’arbitrage permanent entre inflation et production (inconcevable dans la macroéconomie traditionnelle). En tout cas, cette recherche, contrairement à ce que Stiglitz semble penser, est que l’hypothèse de stagnation séculaire offre un robuste argument pour adopter des interventions agressives, notamment en 2008. Loin d’être "juste une excuse pour des politiques erronées" l’hypothèse a donné une bonne raison de croire que davantage de choses auraient pu être faites en 2008.

Il est difficile de finir ce billet sans répondre brièvement à l’affirmation de Stiglitz selon laquelle les événements de l’année dernière "ont démenti cette thèse" de stagnation séculaire. Stiglitz suggère que l’expansion budgétaire menée par Trump est responsable en partie de la reprise actuelle (une suggestion que je supposerais comme exacte afin de simplifier mon raisonnement). Il est étrange de suggérer que cela "dément l’idée" de stagnation séculaire, alors que c’est précisément ce que prédirait la théorie de la stagnation séculaire : Avec de faibles taux d’intérêt, il y a davantage de marge de manœuvre que d’habitude pour adopter un plan de relance budgétaire, c’est-à-dire qu’il est moins probable que la banque centrale réagisse en resserrant sa politique monétaire. Donc ici Stiglitz semble tout mélanger. Au final, je pense que l’implication du diagnostic de 2008 au prisme de la théorie de la stagnation séculaire est en fait tout à fait en résonnance avec de que Stiglitz a dit ici et ailleurs, par exemple que "la chute après la crise financière fut plus sévère et la redistribution massive du revenu et du patrimoine vers les plus riches a affaibli la demande agrégée" et que "la contraction de l’activité était susceptible d’être profonde et longue" et que ce qui était nécessaire était quelque chose de "plus fort et différent de ce qu’Obama a proposé". En effet, l’hypothèse de la stagnation séculaire contribue à structurer un tel raisonnement. »

Gauti Eggertsson, « Secular Stagnation, Myth and Reality », 2 septembre 2018. Traduit par Martin Anota



aller plus loin...

« Larry Summers et la stagnation séculaire »

« Les pays avancés font-ils face à une stagnation séculaire ? »

« Comment modéliser la stagnation séculaire ? »

« La stagnation séculaire en économie ouverte »

« Les importunités économiques pour nos petits-enfants… Genèse de l’hypothèse de la stagnation séculaire »

samedi 30 juillet 2016

Une idée simple, mais révolutionnaire : l'asymétrie d'information



« Avant 1970, les économistes (…) ne pensaient pas vraiment au rôle de l’information. Sur le marché du travail, par exemple, les manuels supposaient en général que les employeurs connaissent la productivité de leurs travailleurs (ou de leurs candidats à l’embauche) et, grâce à la concurrence, leur versent exactement la valeur de ce qu’ils produisent.

Vous pouvez penser que les études remettant en cause cette conclusion seraient immédiatement célébrées comme une importante avancée. A la fin des années soixante, George Akerlof écrit "The Market for Lemons", un article qui apportait une telle remise en cause et qui permit à son auteur de gagner un prix Nobel quelques décennies plus tard. Pourtant, à l’époque, l’article fut rejeté par trois prestigieuses revues. Akerlof était alors professeur assistant à Berkeley, l’Université de Californie ; il venait seulement de finir sa thèse, au MIT, en 1966. Peut-être en conséquence de cela, l’American Economic Review pensait que les intuitions de son article étaient triviales. La Review of Economic Studiers partagea la même opinion. Le Journal of Political Economy nourrissait l’inquiétude inverse : elle ne digérait pas les implications de l’article. Akerlof, qui est désormais un professeur émérite à Berkeley et qui est marié à Janet Yellen, la présidente de la Réserve fédérale, rappelle la plainte de l’éditeur : "Si cela s’avérait correct, l’économie serait différente".

D’une certaine façon, les éditeurs avaient tous raison. L’idée développée par l’article d’Akerlof, qui fut finalement publié dans le Quarterly Journal of Economics en 1970, était à la fois simple et révolutionnaire. Supposez que les acheteurs sur le marché des voitures d’occasions soient prêts à payer 1.000 dollars pour acheter une bonne voiture, une "pépite", et que les vendeurs soient prêts à en vendre une à un prix légèrement inférieur. Les acheteurs ne sont pas prêts à payer plus de 500 dollars pour acheter une voiture de mauvaise qualité (un tacot, un "lemon"), tandis que les vendeurs sont prêts à en vendre une à un prix de nouveau légèrement inférieur. Si les acheteurs peuvent distinguer les bonnes voitures des mauvaises, les échanges seront florissants. En réalité, les acheteurs peuvent avoir du mal à voir la différence : les rayures peuvent être camouflées, les problèmes de moteur peuvent ne pas s’être encore révélés, même le compteur kilométrique peut être trafiqué.

Pour prendre en compte le risque qu’une voiture soit un lemon, les acheteurs réduisent le prix auquel ils sont prêts à acheter une voiture. Ils sont prêts à payer 750 dollars pour une voiture qu’ils jugeraient avoir autant de chances d’être un lemon qu’une pépite. Mais les vendeurs qui vendent une pépite et le savent peuvent refuser de la vendre à ce prix. Par conséquent, les acheteurs font face à une « sélection adverse » (antisélection) : les seuls vendeurs qui seront prêts à accepter 750 dollars seront ceux qui vendent un lemon et le savent.

Les acheteurs les plus clairvoyants vont prévoir ce problème. Puisqu’ils savent qu’ils se retrouveront au final avec un lemon, ils refusent de payer plus de 500 dollars pour acheter une voiture d’occasion. Les vendeurs de lemons finissent par les vendre au même prix qu’ils les auraient vendu s’il n’y avait pas eu d'ambiguïté. Mais les pépites sont retirées du marché et restent au garage. C’est une tragédie : il y a des acheteurs qui seraient heureux d’avoir une pépite et de la payer à son juste prix, si seulement ils pouvaient être certains de la qualité de la voiture. Cette « asymétrie d’information » entre les acheteurs et les vendeurs tue le marché.

Est-il vrai que vous pouvez gagner un prix Nobel juste pour avoir observé que certaines personnes sur les marchés en savent plus que d’autres ? Ce fut la question qu’un journaliste posa à Michael Spence qui, aux côtés d’Arkerlof et de Joseph Stiglitz, reçu le Nobel en 2001 pour leurs travaux sur l’asymétrie d’information. Son incrédulité était compréhensible. L’article sur le marché des voitures d’occasion n’était même pas une description précise de ce dernier : chaque voiture qui est vendue n’est clairement pas de mauvaise qualité. Et les assureurs savent depuis longtemps que leurs clients peuvent être les meilleurs juges des risques auxquels ils font face et que les personnes les plus enclines à s’assurer sont probablement les paris les plus risqués.

Pourtant cette idée était nouvelle pour les économistes mainstream, qui comprirent rapidement qu’elle rendait plusieurs de leurs modèles obsolètes. De nouvelles avancées suivirent bientôt, comme les chercheurs examinèrent comment le problème d’asymétrie d’information pouvait être résolu. La contribution majeure de Spence fut un article de 1973 appelé "Job Market Signalling" qui se focalisait sur le marché du travail. Les employeurs peuvent avoir du mal à voir quels sont les meilleurs candidats à l’embauche. Spence montre que les meilleurs travailleurs peuvent signaler leurs talents aux entreprises en obtenant (…) des diplômes universitaires. Cela ne marche toutefois que si le signal est crédible : si les travailleurs à faible productivité obtiennent facilement un diplôme, alors ils peuvent se prétendre efficaces. (...)

Le signalement n’est pas la seule façon de surmonter le problème des lemons. Dans un article publié en 1976, Stiglitz et Michael Rothschild ont montré comment les assureurs vont chercher à ce que leurs clients révèlent leur niveau de risque. Il s’agit alors d’offrir des contrats qui n’attirent qu’un seul type de client.

Supposez qu’un assureur automobile fait face à deux types de clients : ceux à haut risque et ceux à faible risqué. Il ne peut distinguer entre les deux types de conducteurs. Seuls ces derniers connaissent leur niveau de risque. Rothschild et Stiglitz ont montré que, sur un marché concurrentiel, les assureurs ne peuvent offrir le même contrat de façon profitable aux deux groupes. S’ils le faisaient, les primes des bons conducteurs subventionneraient les versements aux conducteurs imprudents. Un rival peut alors offrir un contrat avec de moindres primes et une moindre couverture, qui attirerait les conducteurs prudents car les conducteurs risqués préfèrent être pleinement assurés. L’assureur, qui se retrouverait alors avec les mauvais risques, réaliserait des pertes. (…)

L’assureur automobile doit offrir deux contrats, afin d’être sûr que chacun attire seulement les clients pour lesquels il est conçu. Le truc, c’est d’offrir le contrat qui assure pleinement à un prix élevé et un second moins cher, mais option peu chère avec une franchise élevée. Les conducteurs risqués vont rechigner à payer une franchise, puisqu’ils savent qu’ils ont de fortes chances de finir par la payer. Ils vont préférer être pleinement assurés. Les conducteurs prudents vont tolérer une franchise élevée et payer un prix plus faible (…).

La sélection adverse a un cousin. Les assureurs ont longtemps su que les gens qui s’achètent une assurance sont davantage susceptibles de prendre des risques. Quelqu’un qui a assuré son logement va vérifier moins souvent son alarme à incendie ; l’assurance maladie encourage la mauvaise alimentation et l’alcoolisme. Les économistes se sont pour la première frotté à ce phénomène d’aléa moral (ou risque moral) en 1963, lorsque Kenneth Arrow publie un article à son propos.

Le risque moral apparaît quand les incitations ne vont pas. La vieille économie, nota Stiglitz dans le discours qu’il prononça lorsqu’il reçut le prix Nobel, accorde beaucoup d’importance aux incitations, mais avait remarquablement peu de choses à dire à leur propos. Dans un monde complètement transparent, vous n’avez pas à vous inquiéter des incitations de votre partenaire à l’échange, car vous pouvez utiliser un contrat pour spécifier précisément le comportement qu’il doit adopter. C’est lorsque l’information est asymétrique et que vous ne pouvez pas observer ce qu’il fait (est-ce que votre fournisseur utilise des composants de mauvaise qualité ? est-ce que votre salarié tire au flanc ?) que vous devez vous inquiéter de l’alignement des intérêts de chacun.

De tels scénarii posent des problèmes "principal-agent". Comment un principal (comme un dirigeant d’entreprise) peut-il obtenir d’un agent (comme un salarié) qu’il se comporte comme il le désire, lorsqu’il ne peut surveiller tous les agents à la fois ? La façon la plus simple d’être certain qu’un salarié travaille dur est de lui donner une partie ou la totalité du profit. (…)

Mais un travail acharné ne garantit pas toujours le succès : un analyste à un cabinet de consultation peut par exemple faire un travail astronomique pour un projet qui ira pourtant au final à un rival. Donc, une autre option est de verser des "salaires d’efficience". Stiglitz et Carl Shapiro, un autre économiste, ont montré que les entreprises peuvent verser une prime salariale pour s’assurer que les salariés accordent plus de valeur à leur emploi. Cela va les motiver à la tâche, parce qu’ils ne pourront pas trouver un aussi bon salaire dans une autre entreprise s’ils se faisaient prendre en train de flâner et se faisaient licencier. Cette intuition contribue à expliquer une énigme fondamentale en économie : lorsque les travailleurs sont au chômage, mais désirent travailler, pourquoi les salaires ne chutent-ils pas jusqu’à ce que quelqu’un désire les embaucher ? Une réponse est qu’un salaire supérieur au salaire qui équilibrerait le marché joue le rôle de carotte, tandis que le chômage qui en résulte joue le rôle de bâton.

(…) Avant qu’Akerlof et les autres pionniers de l’économie informationnelle ne viennent, la discipline supposait que, sur des marchés concurrentiels, les prix reflètent les coûts marginaux : fixez un prix plus élevé et votre clientèle se tournera vers un concurrent. Mais dans un monde où l’information est asymétrique, "le bon comportement vise à obtenir un surplus sur ce que l’on peut obtenir ailleurs", selon Stiglitz. Le salaire que gagne le travailleur doit être plus élevé que ce qu’il peut obtenir avec un autre emploi, pour éviter qu’il ne tire au flanc ; et les entreprises vont avoir des difficultés à perdre des clients lorsque leur produit est de mauvaise qualité s’ils investissent dans la qualité. Sur les marchés avec une information imparfaite, le prix ne peut être égal au coût marginal.

Le concept d’asymétrie d’information, alors, changea vraiment la discipline. Presque un demi-siècle après que l’article sur les voitures d’occasion ait été rejeté trois fois, ses intuitions demeurent d’une pertinence cruciale pour les économises et à la politique économique. (…) »

The Economist, « Information asymmetry. Secrets and agents », 23 juillet 2016. Traduit par Martin Anota

lundi 13 mai 2013

Les enseignements de la crise de l'Atlantique Nord pour la théorie et la politique économiques

stiglitz_1.jpg

« Plus ou moins 100 crises ont eu lieu ces 30 dernières années tandis que les politiques de libéralisation devenaient dominantes : elles nous ont offert une riche expérience et des montagnes de données. Si nous examinons une période de 150 ans, nous avons un ensemble de données encore plus riche. Avec un siècle et demi de données claires et détaillées sur crise après crise, la question brûlante n'est pas de savoir comment cela s'est passé mais bien comment nous avons ignoré cette longue histoire et pensé que nous avions résolu les problèmes liés au cycle conjoncturel. Il était bien orgueilleux de notre part de penser que nous avions fait disparaître les grandes fluctuations économiques.

Le grand message que cette crise a fait passer de force — un message que nous aurions dû connaître depuis longtemps — est que les économies ne sont pas nécessairement efficientes, stables ou auto-correctrices. (…) Les modèles traditionnels ont mis l'accent sur les chocs exogènes, et pourtant il est très clair qu'une très grande partie des perturbations de notre économie sont endogènes. (…) Deuxièmement, les économies ne s'auto-corrigent pas. Il est évident que nous devons encore pleinement prendre en compte cet enseignement crucial que nous aurions dû tirer de cette crise : même à la suite de cette dernière, les modestes tentatives de réparation des économies américaine et européenne ont été un échec. Elles n'ont certainement pas été assez loin. En conséquence, le risque d'une nouvelle crise demeure considérable. En outre, les ripostes à la crise sont loin d'avoir ramené nos économies au plein emploi. (…)

Sur le plan des ressources humaines, du stock de capital et des ressources naturelles, nous nous trouvons aujourd'hui plus ou moins au même niveau qu'avant la crise. Par ailleurs, dans de nombreux pays, le PIB n'a pas retrouvé son niveau d'avant la crise, sans même parler d'un retour aux trajectoires de croissance d'avant la crise. Au fond, la crise n'est pas encore totalement résolue (…). Cela s'explique en partie par la lenteur du désendettement. Mais alors même que l'économie se désendette, il y a tout lieu de penser qu'elle ne retrouvera pas le plein emploi. (…) Cette crise est davantage qu'une crise des bilans. La cause est plus profonde : les États-Unis et l'Europe subissent une transformation structurelle qui est liée au passage d'une économie dominée par l'industrie manufacturière à une économie de services. En outre, l'évolution des avantages comparatifs exige des ajustements considérables dans la structure des pays de l'Atlantique Nord.

De manière générale, les marchés seuls n'entraînent pas des résultats efficients, stables et socialement acceptables. Cela signifie que nous devons réfléchir un peu plus aux types d'architecture économique qui conduiront à la croissance, à la stabilité de l'économie réelle et à une bonne distribution du revenu. (…) Les réformes entreprises jusqu'à présent n'ont constitué que des retouches mineures. (…) Certains des changements apportés à notre structure économique (avant et après la crise) qui étaient censés rendre l'économie plus performante n'ont peut-être pas été efficaces. (…) L'intégration du secteur financier (…) a manifestement rendu l'économie moins résistante à des chocs plus extrêmes. (…) Quels que soient les avantages qui peuvent être tirés de la libéralisation des marchés de capitaux et des marchés financiers (et ils sont discutables), les coûts ont été élevés sur le plan des risques, qui ont augmenté. (…) La crise a souligné l'importance de la réglementation financière pour la stabilité macroéconomique. (…) Avec les fusions qui ont eu lieu à la suite de la crise, le problème des banques trop grandes pour faire faillite est encore pire. (…) Il y a des banques qui sont trop liées pour faire faillite et des banques qui sont trop corrélées pour faire faillite. Nous ne nous sommes guère préoccupés de ces questions. (…) En outre, nous n'avons pas suffisamment agi sur le plan des normes de fonds propres des banques. (…)

Il y a une correspondance entre ces déficiences dans nos réformes et les déficiences des modèles que nous, économistes, utilisons souvent en macroéconomie. (…) L'un des rôles principaux du secteur financier est l'affectation des capitaux et l'offre de crédit, en particulier aux petites et moyennes entreprises, une fonction qu'il n'a pas bien remplie avant la crise et qu'il ne remplit sans doute pas toujours très bien. Cela semble peut-être évident. Mais l'offre de crédit ne s'est retrouvée ni au centre des débats, ni au centre des macromodèles standard. (…) Il y a aussi une compréhension insuffisante des différents types de financement. (…)

L'une des réformes nécessaires, mais qui ne reçoit pas suffisamment d'attention, consiste à mettre en place davantage de stabilisateurs automatiques et moins de déstabilisateurs automatiques, non seulement dans le secteur financier, mais dans l'ensemble de l'économie. Par exemple, le passage de systèmes à prestations définies à des systèmes à cotisations définies a peut-être conduit à une économie moins stable. (…) Des mécanismes de partage du risque (surtout s'ils sont mal conçus) peuvent en fait accroître le risque systémique : il est tout à fait faux de penser, comme c'était le cas avant la crise, que la diversification, en gros, élimine le risque. (…)

En ce qui concerne la politique monétaire, on a tendance à penser que la banque centrale ne devrait se préoccuper que de fixer le taux d'intérêt à court terme. (…) Les économistes monétaires distinguent souvent les instruments macroprudentiels, microprudentiels et conventionnels de politique monétaire. (…) Cette distinction est artificielle. Les autorités doivent utiliser tous les instruments, de manière coordonnée. (…) Les défaillances macroéconomiques exigeront toujours notre intervention. (…) Les marchés ne présentent jamais l'efficience de Pareto si l'information est imparfaite ou asymétrique, ou si les marchés du risque sont imparfaits. Et comme ces conditions sont toujours satisfaites, les marchés ne présentent jamais l'efficience de Pareto. (…)

Il devrait être clair que nous aurions pu faire bien plus pour éviter cette crise et en atténuer les effets. Il doit être clair aussi que nous pouvons faire bien plus pour éviter la prochaine crise. »

Joseph E. Stiglitz, « The lessons of the North Atlantic crisis for economic theory and policy », iMFdirect (blog), 3 mai 2013. Traduction française, « Les enseignements de la crise de l'Atlantique Nord pour la théorie et la politique économiques ».

mardi 30 octobre 2012

Cinq mythes économiques qui détruisent notre société

siglitz.jpg

La campagne de Romney a défendu les inégalités ou les a écartées. Pour ce faire, elle a utilisé une poignée de mythes économiques. Voici quelques-uns des plus importants:

1. L'Amérique est une terre d'opportunités. Alors que des histoires de réussites fulgurantes nourrissent encore notre imagination, le fait est que les chances de réussir dans la vie d'un jeune Américain sont plus dépendantes des revenus et du patrimoine de ses parents que dans aucun des autres pays avancés pour lesquels il existe des données. Il y a même moins de mobilité ascendante (et moins de mobilité descendante depuis le sommet) aux Etats-Unis qu'en Europe, et nous ne parlons pas seulement de la Scandinavie.

2. L’économie du ruissellement (trickle-down economics, alias "la marée montante soulève tous les bateaux") fonctionne. Cette idée suggère qu’enrichir davantage les riches nous rendra tous plus aisés. La récente histoire économique de l’Amérique montre que cette idée est erronée. Les plus hauts revenus ont très bien fait. Mais le revenu médian américain est inférieur à ce qu'il était il y a une décennie et demie. Divers groupes (les hommes et les personnes peu qualifiées) ont obtenu des résultats encore bien pires. Le revenu médian d'un homme travaillant à temps plein, par exemple, est inférieur à ce qu'il était il y a quatre décennies.

3. Les riches sont les véritables "créateurs d'emplois", donc leur donner plus d'argent stimule la création d'emplois. (…) Les riches ne sont pas la source d'innovations transformatrices. Beaucoup, sinon la plupart, des innovations cruciales apparues ces dernières décennies, allant de la médecine à Internet, ont été fondées dans une large mesure sur la recherche-développement financée par l’Etat. Les riches gagnent leur argent là où les rendements sont les plus élevés, et aujourd’hui beaucoup voient ces rendements élevés sur les marchés émergents. (…) Il est difficile de voir comment donner davantage d’argent aux riches (…) conduit à une économie américaine plus robuste.

4. Le coût de la réduction des inégalités est si grand que, si les idéalistes les réduisent effectivement, nous tuerions la poule aux œufs d'or. En fait, le moteur de notre croissance économique est la classe moyenne. Les inégalités affaiblissent la demande globale, parce que ceux qui sont au milieu et en bas de la distribution des revenus dépensent la totalité ou la quasi-totalité de ce qu'ils gagnent, tandis que ceux du haut de la distribution ne le font pas. La concentration de la richesse dans les dernières décennies a entraîné des bulles et de l'instabilité, alors que la Fed a tenté de compenser les effets de la faible demande qui résultait de nos inégalités en réduisant ses taux d’intérêt et en relâchant la régulation. L'ironie est que les réductions d'impôts pour les plus-values et les dividendes qui étaient censées stimuler l'investissement par les présumés créateurs d'emplois ne le firent pas, alors même que les taux d'intérêt étaient historiquement faibles : la création d'emplois du secteur privé sous l’administration Bush a été moribonde. Les grandes institutions économiques telles que le Fonds monétaire international reconnaissent maintenant le lien entre les inégalités et la faiblesse de l'économie. Prétendre le contraire est une idée égoïste qui est promue par les ménages les plus aisés.

5. Les marchés sont autorégulateurs et efficients, et toute interférence de l’Etat avec les marchés est une erreur. La crise de 2008 aurait guéri tout le monde de cette erreur, mais n'importe qui avec un sens de l'histoire se rendrait compte que le capitalisme a été aux prises avec des booms et des crises dès ses origines. La seule période de notre histoire où les marchés financiers n’ont souffert d’aucun excès a été la période qui a suivi la Grande Dépression, au cours de laquelle nous avons mis en place de fortes régulations qui fonctionnèrent efficacement. Il est intéressant de noter que nous avons connu une croissance plus rapide et plus stable dans les décennies après la la Seconde Guerre mondiale que dans la période après 1980, lorsque nous avons commencé à assouplir les règlements. (...)

Comme je l'ai expliqué en détails ailleurs, le coût de ces mythes va bien plus loin que les dommages que subit notre économie, aujourd’hui et à l’avenir. Le tissu de notre société et la démocratie en souffrent.

Joseph Stiglitz, « Some are more unequal than others », 26 octobre 2012.