Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - prix Nobel

Fil des billets

jeudi 18 octobre 2018

La croissance et l’environnement au menu du prix Nobel d’économie 2018

« Le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel a été attribué cette année à William Nordhaus et à Paul Romer pour avoir intégré le changement climatique et l’innovation technologique à l’analyse macroéconomie de long terme. Nous passons en revue les réactions de plusieurs économistes à cette annonce.

Sur VoxEU, Kevin Bryan a évoqué comment les lauréats du prix Nobel d’économie de cette année ont élaboré leurs contributions et comment ces dernières sont liées entre elles. Cela faisait plusieurs années que l’on s’attendait à ce que Nordhaus et Romer reçoivent cette récompense, mais c’est le fait qu’ils l’aient reçue en même temps qui a surpris : Nordhaus est surtout connu pour ses travaux en économie environnementale et Romer pour sa théorie de la croissance endogène. Mais après réflexion, les liens entre leurs travaux apparaissent évidents.

Avec Romer, nous avons un modèle d’équilibre général pour réfléchir aux raisons pour lesquelles les gens produisent de nouvelles technologies. La connexion avec Nordhaus se fait avec un problème qui est à la fois provoqué et résolu par la croissance. La croissance en tant qu’objectif de politique économique n’était pas remise en cause dans les années soixante, mais au début des années soixante-dix les inquiétudes environnementales font leur apparition. Les « modèles d’évaluation intégrés » ont de l’épargne endogène à la Solow et précisent l’arbitrage entre croissance économique et changement climatique, mais met aussi en évidence l’importance critique du taux d’escompte social et des micro-estimations du coût d’ajustement au changement climatique. (…)

Martin Sandbu affirme qu’au cours de notre existence, les changements technologique et environnemental ont transformé la façon par laquelle nos économies fonctionnent. La prochaine fois que nous nous émerveillerons à propos de notre application de smartphone favorite ou que nous nous inquiéterons de la plus grande fréquence des intempéries, affirme Sandbu, nous devrons avoir une pensée pour Romer et Nordhaus. Grâce à eux, nous sommes mieux armés pour trouver les bonnes politiques pour traiter avec la question de l’innovation ou du changement climatique. Ils méritent leur prix.

Peter Dorman a voulu parler d’une personne qui n’a pas reçu le prix Nobel et dont l’absence de consécration est lourde de signification. Nordhaus a passé plusieurs années à débattre avec Martin Weitzman, qui rejetait l’approche en termes de coût social du carbone au motif qu’une bonne politique doit se baser sur le principe d’assurance visant à éviter le pire scénario. Son "théorème lugubre" démontre que, sous certaines hypothèses, la probabilité d’événements extrêmes ne baisse pas aussi rapidement que s’élève de catastrophe augmente, si bien que leur coût attend s’accroît sans limite ; et cela s’applique aux scénarii du changement climatique.

Les travaux de Weitzman sont souvent invoqués par ceux qui croient qu’une action plus agressive est nécessaire pour limiter le réchauffement climatique. Par conséquent, quand les économistes spéculaient sur l’identité du prochain lauréat du prix Nobel et considéraient l’hypothèse d’une attribution de la récompense à Nordhaus, ils pensaient que Weitzman serait son colistier. Selon Dormans, le combo Nordhaus-Romer est si artificiel et si peu convaincant qu’il est difficile de penser que le prix qui n’a pas été attribué à Weitzman est aussi important que celui qui a été attribué à Nordhaus et qu’il s’agit clairement d’un message politique sur la bonne façon de gérer le changement climatique et la mauvaise façon de gérer le changement climatique.

Timothy Terrell n’est pas du même avis. Il pense que le comité Nobel a promu la réglementation environnementale avec son dernier choix. Les deux lauréats appellent à un plus grand rôle pour l’Etat : Romer lorsqu’il suggère que le gouvernement doit investir dans la recherche-développement et utiliser la réglementation des brevets pour stimuler la croissance économique ; Nordhaus lorsqu’il indique que le gouvernement doit agir pour empêcher un changement climatique pernicieux. (…)

David Warsh affirme que Nordhaus et Romer ont beau avoir travaillé sur des problèmes apparemment différents et n’ont que rarement été cités ensemble, leurs travaux se combinent pour donner lieu à un argument convaincant. En s’efforçant de modéliser le plus finement possible l’interaction entre la présence de carbone dans l’atmosphère, le changement climatique et la croissance économique, Nordhaus a rendu possible l’estimation des dommages provoqués par la hausse des températures. Une taxe carbone (que Nordhaus et bien d’autres économistes considèrent comme préférable au système de marchés de droits à polluer comme celui de l’Accord de Paris) peut empêcher les dommages les plus sérieux : elle doit tout d’abord être fixée à un faible niveau pour ensuite augmenter et ce tant qu’il le faut pour contenir les dommages. Romer, de son côté, a créé un cadre analytique dans lequel l’anticipation d’une telle taxe conduit à une vague d’innovations qui permettraient de réduire les émissions de carbone. (…)

Noah Smith écrit que, en plus d’honorer deux chercheurs dont les contributions ont profondément influencé leur champ respectif, la récompense fait écho à quelque chose dont le monde commence à manquer, en l’occurrence la croissance économique. Dans la mesure où la croissance ralentit et où la productivité stagne dans le monde riche, les intuitions de Romer sont plus importantes que jamais. »

Silvia Merler, « The 2018 Nobel prize: Growth and the environment », in Bruegel (blog), 15 octobre 2018. Traduit par Martin Anota



aller plus loin... lire le résumé des travaux de Nordhaus et Romer par l'Académie des sciences de Suède et la synthèse d'Alexandre Delaigue

lundi 8 octobre 2018

Innovation, croissance et changement climatique. Petit résumé des travaux de Nordhaus et Romer

« Le prix en sciences économiques de cette année récompense la conception de méthodes qui contribuent à répondre à certains enjeux les plus fondamentaux et pressants de notre époque : la croissance soutenable à long terme de l’économie mondiale et du bien-être de la population mondiale.

L’étude de la façon par laquelle l’humanité gère des ressources limitées est au cœur de la science économique et, depuis sa constitution comme science, l’économie a reconnu que les plus importantes contraintes sur les ressources concernent la Nature et le savoir. La Nature dicte les conditions dans lesquelles nous vivons et le savoir définit notre capacité à gérer ces conditions. Cependant, malgré leur rôle central, les économistes n’ont généralement pas étudié comment la Nature et le savoir sont affectés par les marchés et les comportements économiques. Les lauréats de cette année, Paul M. Romer et William D. Nordhaus, ont élargi le champ de l’analyse économique en concevant des outils qui nous permettent d’examiner comment l’économie de marché influence à long terme la Nature et le savoir.

Le savoir. Pendant plus d’un siècle, l’économie mondiale a crû à un rythme remarquable et assez régulier. Quand quelques pourcents de croissance économique par an s’accumulent sur plusieurs décennies, voire plusieurs siècles, cela bouleverse vraiment la vie des gens. Cependant, la croissance a progressé bien plus lentement durant l’essentiel de l’histoire humaine. Elle varie aussi d’un pays à l’autre. Donc, qu’est-ce qui explique pourquoi la croissance survient à un tel moment et à tel endroit ? La réponse qu’avancent habituellement les économistes est le progrès technique, à travers lequel des volumes croissants de savoirs sont incarnés dans les technologies créées par des inventeurs, des ingénieurs et des scientifiques. Au début des années quatre-vingt, quand il était un étudiant en doctorat à l’Université de Chicago, Paul Romer a commencé à développer la théorie de la croissance endogène, où les avancées technologiques ne proviennent pas simplement de sources externes – exogènes -, comme le supposaient jusqu’alors les modèles économiques. En fait, elles sont créées par des activités marchandes. Les constats de Romer nous permettent de mieux comprendre quelles sont les conditions de marché qui favorisent la création de nouvelles idées pour des technologies rentables. Ses travaux nous aident à concevoir des institutions et des politiques qui peuvent améliorer la prospérité humaine en instaurant les bonnes conditions pour le développement technologique.

La Nature. William Nordhaus a commencé ses travaux dans les années soixante-dix, après que les scientifiques aient commencé à se préoccuper à l’idée que la combustion des énergies fossiles puisse entraîner un réchauffement climatique et des effets pernicieux d’un tel changement climatique. Nordhaus s’est donné la tâche immense d’examiner les liens de causalité bidirectionnels entre l’activité humaine et le climat, en combinant théories fondamentales et résultats empiriques tirés de la physique, de la chimie et de l’économie. Il n’a donc pas simplement considéré la Nature comme une contrainte sur l’activité humaine, mais il a également pris en compte le fait que la première soit en retour grandement influencée par cette dernière. Nordhaus est la première personne à concevoir des modèles simples, mais dynamiques et quantitatifs, du système économique-climatique mondial, désormais appelés "modèles intégrés d’évaluation" (integrated assessment models, IAM). Ses outils nous permettent de simuler comment l’économie et le climat évolueront dans le futur selon des hypothèses alternatives à propos des fonctionnements de la Nature et de l’économie de marché, notamment à propos des politiques mises en œuvre. Ses modèles apportent des réponses à des questions à propos de la désirabilité de différents scénarii mondiaux et différentes interventions politiques.

Les imperfections dans le marché mondial. Les deux lauréats ont mis en lumière les effets de débordement (spillover effects) dans la société, c’est-à-dire les conséquences sur autrui qui ne sont pas prises en compte par les individus, notamment les innovateurs et les pollueurs. Toute idée de nouvelle technologie, qu’importe là où elle apparaît, peut être utilisée pour la production de nouveaux biens et de nouvelles idées ailleurs, aujourd’hui ou dans le futur. De même, l’émission d’une unité supplémentaire de carbone se diffuse rapidement dans l’atmosphère et contribue au changement climatique, affectant toute l’humanité aujourd’hui et dans le futur. Les économistes parlent d’"externalités" pour qualifier ces effets de débordement. Les externalités étudiées par Romer et Nordhaus ont une portée mondiale et des conséquences à long terme. Comme les marchés non régulés vont générer des conséquences inefficaces en présence de telles externalités, le travail de Romer et de Nordhaus fournit des arguments convaincants pour l’intervention publique.

L’innovation technologique


Motivation. Les différences de long terme dans les taux de croissance ont d’énormes conséquences. Si deux économies commencent avec le même PIB par tête, mais que l’une d’entre elles croît à un rythme annuel supérieur de 4 points de pourcentage à la seconde, alors elle sera presque cinq fois plus riche que la seconde au bout de 40 ans. Un modeste écart de croissance de 2 points de pourcentage permet à la première économie d’être deux fois plus riche que la seconde au bout de 40 ans.

A la fin des années quatre-vingt, Romer a constaté que les taux de croissance du revenu dans les données observées variaient grandement d’une économie à l’autre. Le graphique 1, basé sur l’un des articles de Romer, représente le revenu par tête en 1960 et la croissance moyenne pour les 25 années suivantes pour plus de 100 pays ; un graphique avec des données actualisées lui ressemblerait fortement. Chaque carré représente un pays. Comme le graphique le montre, les écarts de taux de croissance typiques entre des pays s’élevaient à plusieurs points de pourcentage et il y a un grand écart (autour de 10 points de pourcentage) entre les pays ayant la plus forte croissance et les pays ayant la plus faible croissance. De plus, le graphique ne montre pas de relation systématique entre le revenu initial et la croissance : certains pays pauvres croissent rapidement, tandis que d’autres décroissent. Romer en conclut qu’il était crucial de comprendre les causes de tels écarts persistants et significatifs entre les taux de croissance et il commença à rechercher une explication.

GRAPHIQUE Revenu par tête (relativement à celui des Etats-Unis) et croissance annuelle subséquente du revenu par tête

Paul_Romer__revenu_par_tete_1960_croissance_1960_1985.png
source : Romer (1987)

Des zones d’ombre empiriques et théoriques. Comme Romer l’a noté, la théorie de la croissance qui dominait à l’époque (le modèle de croissance de Solow, qui fut couronnée par le prix Nobel de sciences économiques en 1987) pouvait expliquer plusieurs aspects de la croissance économique, mais pas des écarts amples et durables dans les taux de croissance entre les pays. Le modèle de Solow prédit que les pays les plus pauvres devraient croître plus rapidement les pays riches et rattraper ces derniers assez rapidement, ce qui n’est pas ce que suggère le graphique 1. Dans ce modèle, une économie peut croître en accumulant du capital physique, par exemple des machines ou des infrastructures, mais la croissance tirée par le capital peut s’essouffler à long terme ; pour toute technologie donnée, tout supplément de capital accroît de moins en moins la production. Pour qu’il y ait une croissance durable à long terme (et des écarts de croissance) dans le modèle, l’hypothèse était que les travailleurs deviennent de plus en plus productifs grâce aux avancées technologiques, bien qu’à des rythmes différents d’un pays à l’autre. Par conséquent, le modèle de Solow n’explique pas ces tendances, parce que les changements technologiques n’y arrivent que de façon exogène, depuis une "boîte noire".

L’une des percées majeures de Romer est d’avoir ouvert cette boîte noire et d’avoir montré comment les idées pour les nouveaux biens et services (produits par de nouvelles technologies) peuvent être créées dans l’économie de marché. Il a aussi montré comment un tel changement technologique endogène peut influencer la croissance économique et quelles politiques sont nécessaires pour que ce processus fonctionne bien. Les contributions de Romer ont eu un énorme impact dans le champ de la science économique. Ses explications théoriques ont posé les fondations pour la recherche sur la croissance endogène et les débats suscités par ses comparaisons internationales de croissance ont ouvert la voie à de nouvelles et prometteuses recherches empiriques.

Qu’y a-t-il de spécial à propos de la croissance tirée par les idées ? Pour répondre à cette question, nous devons comprendre comment les idées diffèrent des biens comme le capital physique ou du capital humain. Romer nous apprend à considérer les biens en utilisant deux dimensions (…). Dans la première dimension, le capital physique et le capital humain sont des biens rivaux. Si une machine ou un ingénieur formé sont utilisés dans une usine, cette machine ou cet ingénieur ne peuvent être utilisés simultanément dans une autre usine. Par contre, les idées sont des biens non rivaux : une personne ou une entreprise utilisant une idée n’empêchent pas les autres de l’utiliser également.

Dans la seconde dimension, ces biens peuvent être excluables (ou exclusifs) si les institutions ou régulations permettent d’empêcher quelqu’un de les utiliser. Pour certaines idées, telles que les résultats tirés de la recherche fondamentale, c’est difficile, voire impossible : pensez à des outils mathématiques comme le théorème de Pythagore. Pour d’autres idées, cependant, les utilisateurs peuvent être exclus via des mesures techniques (telles que le cryptage) ou la réglementation des brevets. L’un des articles de Romer a montré comment la rivalité et l’excluabilité des idées déterminaient la croissance économique.

Romer croyait qu’un modèle de marché pour la création d’idées devait prendre en compte le fait que la production de nouveaux biens (qui se base sur les idées) puisse avoir des coûts déclinant rapidement : la première ébauche a un énorme coût fixe, mais la réplication a de faibles coûts marginaux. Une telle structure des coûts implique que les entreprises doivent avoir une marge, c’est-à-dire fixer le prix au-dessus du coût marginal, de façon à ce qu’elles puissent récupérer le coût fixe initial. Les entreprises doivent donc avoir un certain pouvoir de monopole, ce qui n’est possible que pour des idées suffisamment excluables. Romer a aussi montré que la croissance tirée par l’accumulation d’idées, à la différence de la croissance tirée par l’accumulation de capital physique, ne présente pas forcément de rendements décroissants. En d’autres termes, la croissance tirée par les idées peut rester soutenue à long terme.

Les imperfections de marché et la politique économique. En principe, le nouveau savoir créé par une recherche-développement fructueuse peut profiter aux entrepreneurs et aux innovateurs partout dans le monde, maintenant et dans le futur. Cependant, les marchés ne récompensent en général pas totalement les créateurs de nouveaux savoirs pour tous les bénéfices de leurs innovations, ce qui signifie que (aussi longtemps que le nouveau savoir est socialement bénéfique), il y aura trop peu de recherche-développement. De plus, comme les incitations de marché pour la recherche-développement prennent la forme de profits de monopole, il n’y aura typiquement pas de provision adéquate de nouvelles idées une fois qu’elles auront été inventées. La recherche subséquente a montré comment les résultats de marché peuvent aussi entraîner trop de recherche-développement : soit lorsque les nouvelles idées conduisent à l’éviction de trop nombreuses entreprises existantes lors du processus de destruction créatrice, soit lorsque les nouvelles idées augmentent les technologies socialement néfastes, par exemple en permettant une extraction ou un usage excessifs de carburants fossiles, ce qui nuit au climat.

Pour résumer, Romer a montré que des marchés non régulés vont générer un changement technologique, mais qu’ils tendent à ne pas fournir assez de recherche-développement, donc pas assez de nouveaux biens. Pour répondre à cette insuffisance, il faut des interventions publiques bien conçues, comme les subventions à la recherche-développement et la réglementation des brevets. Son analyse dit que de telles politiques sont vitales pour la croissance à long terme, pas simplement dans un pays, mais au niveau mondial. Elle fournit aussi un guide pour la conception des politiques : le système de brevets doit parvenir à établir un bon équilibre entre les incitations à créer de nouvelles idées (en accordant à leurs concepteurs certains droits au monopole) et la capacité des autres à les utiliser (en limitant ces droits au monopole dans le temps et dans l’espace).

Le changement climatique


L’activité humaine a contribué à une hausse rapide des températures mondiales moyennes au cours du dernier siècle. Même s’il y a une certaine ’incertitude autour de l’ampleur à laquelle cela va affecter le climat dans le futur, le consensus en sciences naturelles est que ce sera "selon toute probabilité un impact significatif".

Motivation. Dans les années soixante-dix, quand il était un jeune étudiant à l’Université de Yale, William Nordhaus a étudié en profondeur les données naissantes sur le réchauffement climatique et ses causes probables et il en conclut qu’il devait faire quelque chose. Sa crainte l’a amené à développer de nouveaux outils pour nous aider à comprendre comment l’économie peut générer un changement climatique, ainsi que les conséquences sociétales du changement climatique. Il voulait développer un cadre qui permette d’analyser le changement climatique en termes de coûts et bénéfices.

Un défi de taille. Comme Romer, Nordhaus étendit le modèle de croissance de Solow avec un important ensemble d’effets de débordement en incluant le réchauffement climatique provoqué par les émissions de carbone. Dans ce cas, les externalités en question étaient essentiellement négatives. Surtout, les mécanismes et causes du changement climatique anthropique impliquent des processus étudiés dans les sciences naturelles. Une analyse globale du changement climatique requiert donc une approche vraiment intégrée, dans laquelle la société et la Nature interagissent.

Prenant conscience de la nécessité d’une telle approche, Nordhaus est à l’origine du développement des modèles intégrés d’évaluation (integrated assessment models). (…)

Des recommandations en matière de politique. Selon les travaux de Nordhaus, le remède le plus efficace pour les problèmes provoqués par les émissions de gaz à effet de serre serait un dispositif mondial de taxes carbone qui soient imposées uniformément dans tous les pays. Cette recommandation s’appuie sur un résultat formulé dans les années soixante par un économiste britannique, Arthur Cecil Pigou, à savoir que chaque émetteur paye le coût social du dommage provoqué par ses émissions via un prix approprié. Un système mondial de droits d’émission peut parvenir au même résultat, à condition que les quotas soient fixés à un niveau suffisamment faible pour entraîner un prix du carbone suffisamment élevé.

Cependant, les modèles IAM ne fournissent pas seulement des résultats qualitatifs. Ils nous permettent de calculer des trajectoires quantitatives pour la meilleure taxe carbone et montrent comment ces trajectoires dépendent crucialement d’hypothèses à propos des paramètres : par exemple, la sensibilité de la température mondiale à la concentration de carbone dans l’atmosphère, la durée pendant laquelle celui-ci reste dans l’atmosphère et l’ampleur des dommages provoqués par le changement climatique. Une récente étude de Nordhaus offre une bonne illustration de la façon par laquelle les modèles IAM peuvent être utilisés pour analyser la politique. Il simule quatre politiques dans la dernière version de son modèle DICE en utilisant les meilleures estimations pour les paramètres du changement climatique :

GRAPHIQUE Emissions de CO2 (en gigatonnes par an) selon différents scénarii

William_Nordhaus__differents_scenarios_emissions_CO2_taxe_carbone_Stern.png

Dans le scénario n° 1, il n’y a pas de mesures de politique climatique de plus que celles déjà en place en 2015. Dans le scénario n° 2, les taxes carbone maximisent le bien-être mondial, selon des hypothèses économiques conventionnelles à propos de l’importance du bien-être des générations futures. Dans le scénario n° 3, les taxes carbone maximisent le bien-être mondial en donnant un plus grand poids au bien-être des générations futures que dans le scénario n° 2, comme le suggère The Economics of Climate Change: The Stern Review de 2007. Dans le scénario n° 4, les taxes carbone sont suffisamment élevées pour maintenir le réchauffement climatique en-deçà des 2,5°C tout en réduisant le coût en bien-être mondial.

Le graphique montre l’évolution des émissions de CO2 au cours du temps dans chacun de ces quatre scénarii. Les différentes trajectoires pour les taxes carbone signifient que les émissions (et donc l’ampleur du changement climatique) sont très différentes d’un scénario à l’autre. Dans le scénario n° 2, les taxes débutent à environ 30 dollars la tonne de CO2 et augmentent au cours du temps à peu près au même rythme que le PIB mondial. Dans les scénarii n° 3 et 4, qui simulent des réductions d’émissions plus fortes, les taxes sont six à huit fois plus importantes.

De grandes incertitudes. Dans les sciences naturelles et dans les sciences sociales, il y a des incertitudes à propos de plusieurs aspects du changement climatique. Par exemple, nous ne savons pas exactement à quel point le climat est sensible aux émissions de gaz à effet de serre ou quel est la probabilité que l’on atteigne un point tournant mondial au-delà duquel le climat échappe à tout contrôle. De même, nous ne savons pas tout à propos des dommages économiques et humains provoqués par le changement climatique et du coût de la décarbonisation.

Naturellement, les IAM développés par Nordhaus ne peuvent éliminer cette incertitude. Cependant, ses modèles peuvent analyser comment le prix approprié du carbone est affecté par différentes possibilités, par exemple une plus forte sensibilité du climat ou une plus forte probabilité d’un point tournant mondial dangereux à 2° C de réchauffement. (...) »

Académie royale des sciences de Suède, « Integrating nature and knowledge into economics », 8 octobre 2018. Traduit par Martin Anota

lundi 9 octobre 2017

Richard H. Thaler, prix Nobel 2017



« L’économiste américain Richard H. Thaler est un pionnier dans l’économie comportementale, un champ de recherche dans lequel les intuitions tirées de la recherche psychologique sont appliquées à la prise de décision économique. Une perspective comportementale incorpore une analyse plus réaliste de la façon par laquelle les gens pensent et se comportent lorsqu’ils prennent des décisions économiques, ce qui fournit de nouvelles opportunités pour concevoir des mesures et institutions qui accroissent le bénéfice social.

L’économie implique de comprendre le comportement humain dans les situations de prise de décision économique et sur les marchés. Les gens sont des êtres compliqués et nous devons faire des hypothèses simplificatrices si nous désirons construire des modèles utiles. La théorie économique traditionnelle suppose que les gens ont un bon accès à l’information et peuvent la traiter parfaitement. Elle suppose aussi que nous pouvons toujours exécuter nos plans et que nous nous préoccupons de notre seul gain personnel. Ce modèle simplifié du comportement humain a aidé les économistes à formuler des théories qui ont fourni des solutions à des problèmes importants et compliqués en économie. Cependant, les décalages entre la théorie et la réalité sont parfois systématiques et significatifs. Richard Thaler a contribué à étendre et affiner l’analyse économique en considérant trois traits psychologiques qui influencent systématiquement les décisions économiques, en l’occurrence la rationalité limitée, les perceptions relatives à l’équité et le manque de contrôle de soi.

La rationalité limitée


Il n’est pas réaliste de supposer que les gens, avant chaque décision économique, considèrent toutes les alternatives réalisables et toutes les conséquences à long terme de chacune d'entre elles. C’est tout simplement une tâche insurmontable, donc les décisions sont souvent prises en utilisant une focale étroite. Herbert Simon, un autre lauréat du prix Nobel d’économie, a développé le concept de rationalité limitée (bounded rationality), un terme qui fait écho aux limites cognitives des gens et des organisations et aux règles de prise de décision simplifiées que ceux-ci utilisent. On peut trouver un exemple d’une telle limite dans la théorie de la comptabilité mentale (mental accounting), qui décrit comment les gens organisent, formulent et évaluent les décisions financières. Nous tendons à simplifier de telles décisions en créant des comptes distincts dans notre esprit, en prenant des décisions individuelles sur la base de leurs effets sur chacun de ces comptes plutôt que sur la totalité de nos actifs. On peut trouver un exemple dans la façon par laquelle les gens divisent le budget de leur ménage en un compte pour les factures du ménage, un autre pour les vacances, etc., en s'interdisant d’utiliser l’argent d’un compte pour payer quelque chose dans un autre. Ce comportement mène par moments à des coûts supplémentaires, par exemple si l’on n’utilise pas de l’argent d’un compte d’épargne à long terme pour des besoins de court terme, mais que l’on utilise à la place des prêts à la consommation onéreux. En même temps, cela peut nous aider à prévoir nos finances et à protéger notre épargne de long terme.

Un autre élément de comptabilité mentale est que nous utilisons des points de référence pour prendre plus facilement des décisions. Ils diffèrent d’une situation à une autre, c’est-à-dire entre différents comptes mentaux. Un point de référence peut être le prix auquel nous achetons un article ou le prix le plus bas que nous trouvons lorsque nous faisons des recherches sur internet, et nous utilisons ce point de référence pour évaluer si nous avons fait une "bonne affaire". Thaler a fourni de nombreux exemples de la façon par laquelle la comptabilité mentale peut, en s’appuyant sur différents points de référence, mener à des décisions qui s’avèrent étranges lorsqu’on évalue celles-ci d’une perspective économique traditionnelle. Par exemple, un consommateur trouve que la montre qu’il est prêt à acheter coûte 100 euros de moins dans un autre magasin. Il choisit d’aller dans l’autre magasin si la montre coûte 1.000 euros, mais il ne le fait pas si elle coûte 10.000 euros, même si le montant absolu d’épargne est le même dans les deux cas. L’explication est qu’il se focalise sur le pourcentage, plutôt que sur l’épargne relativement au point de référence. Un autre exemple, pris dans l’étude très connue qu’a coréalisé Thaler, est celui d’un chauffeur de taxi qui doit mettre en balance son temps de travail avec son temps libre et sa famille. Le chauffeur résout cela en se fixant des cibles pour son revenu journalier et en mettant un terme à sa journée de travail lorsqu’il a atteint cette cible. Cependant, une telle règle implique que le conducteur finit plus tôt lorsqu’il y a plein de clients et que le revenu horaire est élevé, mais qu’il doit travailler davantage les jours où la demande est faible. Avec une règle différente, il peut gagner plus en travaillant moins et la ville aurait plus de taxis les jours où beaucoup de gens ont besoin d’eux.

Nos expériences passées et nos perceptions de la propriété sont d’autres facteurs qui gouvernent notre prise de décision. Nous voulons normalement plus d’argent lorsque l’on vend quelque chose que nous possédons que nous ne sommes prêts à payer pour acheter exactement le même article, un phénomène que Thaler appelle l’"effet de dotation" (endowment effect). L’un des divers exemples est celui de la fameuse expérience de 1990, conduite par Thaler avec Daniel Kahneman (lauréat en 2002 du prix Nobel) et Jack Knetsch. Dans cette expérience, plusieurs tasses décoratives sont distribuées à des sujets choisis au hasard, qui pouvaient alors choisir s’ils voulaient ou non vendre la tasse à quelqu’un dans un second groupe qui n’avait pas reçu de tasse. Parce que les deux groupes étaient constitués aléatoirement, ils devraient en moyenne donner la même valeur aux tasses et environ la moitié des tasses devraient être vendues. Cependant, il s’avéra que, en moyenne, ceux qui ont reçu les tasses lui donnèrent une valeur plus élevée que dans le groupe de contrôle, celui qui n’en avait pas reçues, et bien moins de la moitié des tasses ont changé de propriétaire.

L’effet de dotation peut avoir des conséquences à long terme, notamment en réduisant les échanges de biens et services et en compliquant la résolution des litiges juridiques. L’explication que propose Thaler pour l’effet de dotation se fonde sur la façon par laquelle les gens tendent à éprouver une plus grande insatisfaction lors d’une perte qu’ils n’éprouvent de satisfaction avec un gain d’un montant aussi élevé, phénomène connu sous le nom d’aversion aux pertes. Se défaire de quelque chose que nous possédons déjà est perçu comme une perte, alors qu’acquérir la même chose est perçu comme un gain.

Plus généralement, ce que nous définissons comme un gain ou une perte dépend du niveau où nous plaçons le point de référence, ce qui est par conséquent important pour notre décision. Par exemple, les ventes au rabais amènent les consommateurs à placer leur prix de référence à un niveau plus élevé qu’ils ne l’auraient sinon fait en temps normal, si bien qu’ils perçoivent l’achat d’un article comme une meilleure affaire qu’ils ne l’auraient fait s’ils avaient acheté cet article au même prix, mais ailleurs. Un autre exemple est celui d’un investisseur sur le marché boursier qui ne considère pas une transaction comme un profit ou une perte tant que les actions ne sont pas vendues. Cela amène généralement les investisseurs à garder leurs actions perdantes pendant longtemps dans l’espoir "que les choses s’améliorent" et à vendre des actions gagnantes trop tôt de façon "à ramener le profit à la maison", alors qu’il est souvent plus rentable de faire l’inverse (pour des raisons fiscales par exemple).

Nos propres expériences influencent aussi les risques que nous sommes enclins à prendre. Une personne qui a récemment gagné de l’argent en Bourse ou dans un casino tend à prendre de plus grands risques qu’une personne qui a récemment perdu de l’argent. Il est moins douloureux de perdre si nous sommes toujours "dans le vert" dans notre compte mental, même si les circonstances sont exactement les mêmes (quelque chose que Thaler appelle l’"effet argent du ménage", house money effect).

Préférences sociales : qu’est-ce qui est juste ?


Lorsqu’ils prennent des décisions, les gens ne prennent pas seulement en compte ce qui leur est bénéfique. Ils ont aussi une certaine idée de ce qui est juste et ils peuvent prendre en compte le bien-être des autres aussi bien positivement (en se montrant coopératifs ou solidaires) que négativement (en se montrant jaloux ou malveillants). Des expériences à grande échelle conduites par Richard thaler et d’autres économistes comportementaux ont montré que les notions autour de la justice jouent un rôle dans la prise de décision. Les gens sont prêts à se priver de bénéfices matériels pour maintenir ce qu’ils estiment être une distribution juste. Ils sont aussi prêts à supporter un coût personnel pour punir des personnes qui ont violé des règles basiques de justice, non seulement lorsqu’ils sont eux-mêmes affectés, mais aussi lorsqu’ils voient quelqu’un d’autre se retrouver dans une situation injuste.

Une objection fréquente est que les résultats des expériences en laboratoire ne peuvent être transférés à la vraie vie, mais il est facile de trouver des exemples où les considérations de justice ont un impact en dehors du laboratoire. Une pluie inattendue peut susciter une forte demande de parapluies, mais si un commerçant accroît alors leurs prix pour faire face à la plus forte demande, plusieurs consommateurs réagissent mal et estiment que le commerçant s’est comporté avec avidité. Les entreprises qui enfreignent les normes de justice peuvent être sanctionnées par des boycotts de la part des consommateurs, ce qui peut les amener à maintenir leurs prix dans les cas où elles les auraient sinon augmentés. De plus, il y a de puissants sentiments à propos de ce qui est juste lorsqu’il s’agit de la rémunération, ce qui affecte la fixation du salaire sur le marché du travail via les comparaisons entre différents groupes de salariés. Il est difficile de faire accepter une baisse du salaire nominal (son niveau courant est le point de référence sous lequel les gens ne veulent pas qu’il chute), alors qu’il est plus facile d’accepter une hausse du salaire nominal qui est inférieure à l’inflation, même s’il conduit à la même chute du salaire réel. (…)

L’économie comportementale en pratique


L’économie comportementale a aussi remis en question le comportement rationnel tel qu’il est considéré dans des domaines tels que la finance. Richard Thaler, avec notamment Robert Shiller (prix Nobel d’économie en 2014), a contribué à la recherche en finance comportementale, un domaine dans lequel les chercheurs se sont penchés sur la volatilité (apparemment injustifiée) des marchés, une volatilité qui semble incompatible avec la théorie des marchés efficients. Thaler a aussi mis à jour ce qui s’apparente à des valeurs de marché négatives pour les actions, ce qui n’est pas rationnel dans la mesure où l’on peut toujours rejeter une action qui n’a pas de valeur. Les expériences avec des sujets qui peuvent choisir entre différents investissements montrent que les gens sont sensibles à l’horizon temporel choisi. Les investisseurs tendent aussi à préférer les titres à faible risque sur des horizons courts, mais lorsqu’on leur présente les résultats potentiels de divers investissements sur des horizons plus longs, ils sont davantage susceptibles de choisir des titres plus risqués, notamment les actions.

On peut considérer que les pratiques communes en marketing cherchent à tirer profit de l’irrationalité du consommateur. Les ventes au rabais ou les offres du type "deux achetés, le troisième offert" donnent aux consommateurs l’impression d’avoir réalisé un gain, ce qui les amène à modifier le point de référence pour évaluer les prix. Les loteries et les paris sont présentés d’une telle façon que l’on surexpose les rares gagnants et en dissimulant la multitude de perdants. De nombreux consommateurs sont séduits par des crédits aux conditions qui leur sont défavorables pour acheter un article qu’ils n’ont pas les moyens d’acheter. Les travaux de Thaler sont fréquemment cités dans la littérature du marketing et ses intuitions et ceux d’autres économistes comportementaux peuvent nous aider à reconnaître les astuces du marketing et à éviter de prendre mauvaises décisions économiques.

Dans plusieurs situations, le soi planificateur nécessite de résister aux tentations. De telles considérations sont derrière les restrictions en matière d’alcool et de drogue dans divers pays, mais dans d’autres contextes on considère que de telles restrictions vont trop loin. Les politiciens et d’autres décideurs peuvent utiliser les études en économie comportementale pour concevoir des alternatives qui s’avèrent bénéfiques à la société. Richard Thaler et Cass Sunstein ont affirmé que, dans divers domaines, les institutions publiques et privées doivent activement chercher à pousser les individus dans la bonne direction (mais en leur laissant toujours la liberté de décider). Cela s’est notamment traduit par l’introduction d’unités incitatives (nudge units) dans divers pays, notamment le Royaume-Uni et les Etats-Unis, des agences qui cherchent à réformer l’administration publique en s’appuyant sur les intuitions de l’économie comportementale. Les améliorations passent souvent par des choses simples, notamment la manière par laquelle l’option par défaut est définie, celle qui se réalise à moins que vous choisissiez activement quelque chose d’autre. Il y a des applications dans des domaines comme l’épargne retraite, le don d’organes et la politique environnementale. Les gens peuvent avoir des difficultés à épargner plus qu’ils ne le font actuellement, parce que cela réduit directement le montant qu’ils peuvent consommer aujourd’hui. Il leur est souvent plus facile de se dire qu’ils épargneront davantage à l’avenir, en particulier s’ils s’attendent à ce que leur salaire augmente. Cette intuition a été utilisée dans le programme "Save More Tomorrow", conçu par Thaler et de façon à accroître l’épargne-retraite. Le programme, dans lequel un individu s’engage à allouer une part de ses hausses futures de salaire pour l’épargne a été utilisé avec succès par diverses entreprises aux Etats-Unis. Dans certains quartiers, ce type de programme a été critiqué pour sa teneur paternaliste, mais il est important de souligner que la participation au programme est entièrement volontaire et que les participants sont libres de le quitter à n’importe quel moment.

Au total, les contributions de Richard Thaler ont jeté un pont entre les analyses économiques et psychologiques de la prise de décision des individus. Ses constats empiriques et ses intuitions théoriques ont contribué au développement du champ nouveau, mais en rapide essor, de l’économie comportementale, qui a eu un profond impact dans divers domaines de la recherche et la politique économiques. »

Académie royale des sciences de Suède, « Easy money or a golden pension? Integrating economics and psychology », octobre 2017. Traduit par Martin Anota

lundi 7 novembre 2016

Allons-nous assister à un retour de la démocratie sociale ?



« Dans leur livre The Nobel Factor: The Prize in Economics, Social Democracy, and the Market Turn, Avner Offer et Gabriel Söderberg se sont penchés sur l’étrange mise à mort de la social-démocratie entre les mains du libéralisme de marché. Cette mort fut accélérée par le rôle que le prix Nobel a joué en économie en donnant à cette dernière l’allure d’une science et qui fut alors utilisé par les économistes néolibéraux pour imposer leurs conceptions en matière de politiques économiques.

Offer et Söderberg définissent la démocratie sociale comme une continuation des idées des Lumières : depuis l’égalité devant Dieu à l’égalité devant la loi, à l’égalité entre les hommes et les femmes et les races, à l’égalité des droits entre les citoyens. Puisque chaque citoyen connaît des périodes de dépendance (en tant qu’enfant, en tant que mère, en tant que chômeur ou encore en tant que personne âgée) lorsqu’il ne peut plus gagner un revenu de son travail, il dépend alors de revenus de transfert de la population en âge de travailler. Ce schéma de cycle de vie est partagé par tous et donc la société, sous la forme d’assurance sociale, édifie un système qui opère la redistribution de ceux qui gagnent un revenu vers les dépendants.

Comment le libéralisme de marché résout le problème du cycle de vie ? En partant de l’idée que chacun est un agent libre avec ses dotations en capital et en travail. Lorsqu’un individu ne peut travailler, il utilise les recettes de son capital (en supposant bien sûr qu’il en ait initialement hérité ou qu’il ait suffisamment épargné pour se constituer un patrimoine). Ce n’est pas une « société » dans le vrai sens du terme, mais un groupe d’« agents » qui gèrent leur propre revenu au cours de leur cycle de vie. Puisque les rendements sont pour les propriétaires du travail et du capital et qu’il n’y a pas de redistribution, c’est une société « paisible » où chacun gagne ce qu’il a placé et où les inégalités de revenu ne sont jamais un problème, précisément parce que le revenu est exactement proportionnel aux contributions de chacun.

Il s’agit en effet de deux conceptions différentes du monde. Comme Offer et Söderberg l’écrivent, les idées de la social-démocratie sont une réussite au niveau empirique, mais elles ne furent pas très explorées sur le plan théorique par les économistes. La vue néolibérale a les caractéristiques exactement inverses : empiriquement, elle n’a pas été un réel succès (regardez les projets de retraite privée au Chili), mais les économistes ont considérément travaillé sur elle sur le plan théorique.

La vue néolibérale est devenue dominante au début des années quatre-vingt, lorsque le modèle social-démocrate a été accusé d’être à l’origine du ralentissement de la croissance. Le prix Nobel a accéléré cette accélération parce qu’il tendait à récompenser les travaux néolibéraux en sciences économiques. Les origines du prix Nobel sont assez révélatrices (…). Il y a certains détails qui sont restés sous silence. Le prix a littéralement été acheté par la Riksbank, la banque centrale de Suède, qui avait la belle idée qu’un prix Nobel en économie pouvait aider cette dernière à affirmer son indépendance vis-à-vis du gouvernement en l’élevant au statut de "science". Le gouvernement suédois a laissé la Riskbank faire pression sur le Comité Nobel pour l’introduction du seul prix Nobel que n’avait pas envisagé Alfred Nobel, essentiellement pour une question de vanité. La Riksbank réussit à faire plier le comité, entre autres en imposant certaines contraintes sur les instruments financiers sur lesquels le Comité Nobel pouvaient investir et en finançant elle-même le prix. Ce fut un bel exemple d’entrepreneuriat : acheter un prix pour soi-même. (On peut se demander, si par exemple, Apple pourrait ne pas suivre la Riksbank et acheter un prix pour récompenser le développement technologique le plus prometteur.)

Il y a, selon Offer et Söderberg, une autre raison qui explique pourquoi la social-démocratie fut abandonnée, même par les partis qui ont vu le jour par le biais même de la social-démocratie, comme le parti travailliste en Grande-Bretagne, le parti socialiste en France et le SDP allemand. La direction de ces partis est passée des mains des activistes sociaux et travailleurs aux mains de meneurs qui mettaient l’accent sur la méritocratie et aux yeux desquels la redistribution récompensait des "pauvres peu méritants". C’est le contexte de « la fin de l’Etat-providence tel que nous le connaissons » de Bill Clinton. Ce déplacement fut aussi alimenté par l’intérêt même des nouveaux meneurs qui au cours du processus (comme nous le montrent les Clinton et les Blair) s’enrichirent immensément. On peut même dire que les partis ont dans une certaine mesure été pris en otage par leurs meneurs les plus intéressés.

Offer et Söderberg ont laissé la porte ouverte à un possible retour de la démocratie sociale et ils voient les signes précurseurs d’un tel changement dans le rôle croissant que joue la gauche des partis sociaux-démocrates comme dans le cas de Bernie Sander, Corbyn, Syriza et Podemos.

Le récit d’Offer-Söderberg est très convaincant, mais je trouve que les auteurs ont peu souligné quelles ont été les conditions "objectives" qui ont joué contre la social-démocratie. Ce n’est pas un point mineur. Si les conditions objectives ont en effet changé, comme je le crois, alors l’attrait dont la social-démocratie peut à l’avenir faire l’objet risque d’être plus limité. En d’autres termes, nous ne sommes pas susceptibles de connaître le même statu quo qu’auparavant, et ce même si l’échec du néolibéralisme est manifeste aux yeux de la majorité (mais pas aux yeux de certains économistes dont l’intérêt passe par la négation de l’évidence).

Il y a eu selon moi quatre changements qui vont contre le modèle idéal-typique de la social-démocratie. (…) Le premier est le multiculturalisme. La social-démocratie a été créée pour les sociétés ethniquement et culturellement homogènes. Les sociétés d’Europe de l’Ouest sont aujourd’hui bien plus diverses qu’elles ne l’étaient il y a soixante ans. C’est la question sur laquelle Assar Lindbeck (qui, par ailleurs, est la personne la plus influente dans la création du prix Nobel et ses premières attributions) a travaillé très tôt. Si les normes culturelles diffèrent et s’il y a un "manque d’affinité" entre les groupes (pour utiliser l’expression de Peter Lindert), alors la volonté de financer des transferts pour autrui s’évanouit.

Le deuxième défi est la fin du fordisme. Avec un travail plus hétérogène, en termes de tâches et de qualifications, des établissements de plus petite taille et géographiquement plus dispersés, des travailleurs indépendants plutôt que salariés, la base naturelle de la social-démocratie (le travail homogène procédant à un assemble dans un seul lieu) disparaît.

Le troisième défi est démographique. La social-démocratie s’est révélée être une réussite à travers l’usage du système par répartition dans les pays où la population augmentait et où la population en âge de travail était importante. Beaucoup travaillaient et transféraient des revenus aux retraités dans l’attente d’avoir le droit au même traitement lorsqu’ils vieilliraient à leur tour. Mais quand la population est sur le déclin et que la part des retraités dans la population augmente de plus en plus par rapport à la part de la population en âge de travailler, alors l’intégrité du système par répartition est remise en cause. Il n’est pas impossible que l’âge de départ à la retraite soit repoussé et que les pensions de retraite soient réduites, mais il est politiquement très difficile de le faire.

Le quatrième défi est la mondialisation. La social-démocratie opéré dans des économies plutôt fermées où la migration (et donc le défi du multiculturalisme) était peut importante et où le capital était généralement captif dans l’économie domestique. Rien de cela n’est encore vrai. Le capital est bien plus mobile, si bien qu’il est fortement taxé pour fournir des fonds pour les transferts sociaux, il risque de sortir de l’économie domestique. Les Etats-providence développés qui permettaient à ce que personne ne soit abandonné peuvent fournir les incitations en particulier pour les migrants faiblement qualifiés. Donc la "meilleure" social-démocratie peut perversement attirer des migrants offrant un travail d’une moins bonne qualité que les systèmes les plus austères et "égoïstes".

Ces éléments (…) m’amènent à penser qu’il est peu probable que l’on connaisse un retour à l’Age d’Or de la social-démocratie. D’un autre côté, beaucoup prennent conscience de l’inadéquation du modèle néolibéral qui engendra une grande crise (qui ne s’est finalement pas transformée en une autre Grande Dépression précisément parce que les règles clés du néolibéralisme furent abandonnées pour sauver le système). Comme plusieurs fois au cours de l’histoire, nous sommes à présent à un moment où aucune des deux doctrines établies ne semble fournir de réponses raisonnables aux questions d’aujourd’hui. Cela laisse le champ le champ ouvert à de nouvelles pensées et expérimentations. »

Branko Milanovic, « Will social democracy return? A review of Offer and Söderberg », in globalinequality (blog), 31 octobre 2016. Traduit par Martin Anota

lundi 10 octobre 2016

Oliver Hart, Bengt Holmström et la théorie des contrats



« Les contrats sont essentiels au fonctionnement des sociétés modernes. Les analyses d’Oliver Hart et de Bengt Holmström ont éclairé la façon par laquelle les contrats nous aident à gérer les conflits d’intérêt.

Les contrats nous aident à coopérer les uns avec les autres et à avoir confiance en autrui lorsque nous pouvons, en leur absence, être désobligeants et défiants les uns vis-à-vis des autres. En tant que salariés, nous avons des contrats de travail. En tant qu’emprunteurs, nous avons des contrats de crédit. En tant que propriétaires d’actifs de valeur exposés aux accidents, nous avons des contrats d’assurance. Certains contrats tiennent sur moins d’une page, tandis que d’autres peuvent tenir sur des centaines de pages.

Si nous rédigeons des contrats, c’est avant tout en vu de réguler des actions futures. Par exemple, les contrats de travail peuvent stipuler les rémunérations pour les bonnes performances et les conditions pour les licenciements, mais il est important de noter que les contrats ont souvent d’autres objectifs en plus, comme le partage du risque parmi les parties du contrat.

La théorie des contrats nous fournit un instrument général pour comprendre la conception des contrats. L’un des objectifs de la théorie est d’expliquer pourquoi les contrats ont des formes et conceptions diverses. Un autre objectif est de nous aider à rédiger de meilleurs contrats et ainsi de façonner de meilleures institutions dans la société. Les fournisseurs de services publics, tels que les écoles, les hôpitaux ou les prisons, doivent-ils appartenir au secteur public ou bien au secteur privé ? Les enseignants, les professionnels de la santé et les gardes de prison doivent-ils être payés avec un salaire fixe ou bien leur rémunération doit-elle dépendre de leur performance ? Dans quelles proportions la rémunération des dirigeants doit-elle dépendre des bonus et des stock-options ?

La théorie des contrats ne fournit pas nécessairement de réponses définitives ou uniques à ces questions, dans la mesure où le meilleur contrat va typiquement dépendre des spécificités de la situation et du contexte. Cependant, la puissance de la théorie est qu’elle nous permet de réfléchir clairement à ces questions. Les contributions des lauréats de cette année, Oliver Hart et Bengt Holmström, sont des plus précieuses pour nous aider à comprendre les contrats et les institutions dans le monde réel, aussi bien que les potentiels écueils lorsqu’il s’agit de concevoir de nouveaux contrats.

La tension entre l’assurance et les incitations


Si vous avez une assurance automobile, il est peu probable que soyez pleinement remboursé lorsque vous avez un accident. Pour quel raison y a-t-il des franchises et des tickets modérateurs ? Si les accidents surviennent par pure malchance, il serait sûrement mieux d’avoir des contrats d’assurance qui mettent parfaitement en commun les risques et vous soulagent de toutes les pertes associées à un accident en particulier. Mais une assurance tous risques est susceptible de générer un aléa moral (ou risque moral) : si nous sommes complètement assurés, nous pourrions être incités à être moins prudents.

La tension entre l’assurance et les incitations s’explique par une combinaison de deux facteurs. Le premier est un conflit d’intérêts : tout le monde n’est pas ange. Si nous étions tous égaux (que nous portions ou non les pleines conséquences de notre comportement), une assurance tous risques ne poserait pas problème. Le second facteur est la mesure : toutes nos actions ne peuvent pas être parfaitement observées. Si un assureur pouvait voir chaque action de ses assurés, un contrat d’assurance pourrait couvrir la totalité des pertes provoquées par les vrais accidents, mais pas ceux provoqués par un comportement imprudent.

Le même genre de tension peut être présent dans plusieurs autres cadres contractuels, comme les relations de travail. Dans la plupart des cas, un employeur est mieux placé pour supporter le risque qu’un salarié. Si le salarié agissait toujours dans l’intérêt des deux parties, aucune incitation pour le contraire serait nécessaire : il n’y aurait pas de tension entre l’assurance et les incitations et il serait optimal d’offrir au salarié l’assurance d’un salaire fixe. Mais si les intérêts des salariés entrent en conflit avec ceux de l’employeur et qu’il est difficile d’observer directement leur comportement, il peut être utile d’avoir un contrat de travail renforçant le lien entre la rémunération et la performance.

La rémunération de la performance


Même si le problème des incitations pour les salariés est connu depuis longtemps, le niveau d’analyse s’est fortement relevé à la fin des années soixante-dix, lorsque les chercheurs sont arrivés à des réponses plus exactes à la question de savoir comment rédiger un contrat incitatif optimal. Les premières intuitions majeures étaient dérivées dans le contexte des contrats de travail impliquant des agents (salariés) averses au risque dont les actions pouvaient ne pas être directement observées par le principal (l’employeur). En fait, le principal peut seulement observer imparfaitement une mesure de la performance d’un agent.

Un résultat central, publié par Bengt Holmström et Steven Shavell séparément et indépendamment l’un de l’autre en 1979, est qu’un contrat optimal doit lier la rémunération à toutes les éventualités qui sont susceptibles de fournir de l’information à propos des actions qui sont entreprises. Ce principe (…) ne dit pas seulement que les rémunérations doivent dépendre des événements qui peuvent être affectés par les agents. Par exemple, supposons que l’agent soit un dirigeant dont les actions influencent le cours boursier de son entreprise, mais pas le cours boursier des autres entreprises. Est-ce que cela signifie que la rémunération du dirigeant doit dépendre seulement du cours boursier de son entreprise ? La réponse est non. Puisque les cours boursiers reflètent d’autres facteurs dans l’économie (sur lesquels le dirigeant n’a pas prises), lier simplement la rémunération au cours boursiers de l’entreprise va rémunérer le dirigeant en cas de chance et le punir en cas de malchance. Il vaut mieux lier la rémunération du dirigeant au cours boursiers de son entreprise relativement aux cours boursiers des autres entreprises similaires (telles que les autres entreprises du même secteur).

Un résultat connexe est que la rémunération du dirigeant doit être d’autant moins basée sur sa performance qu’il est difficile d’observer son effort (par exemple en raison des divers facteurs brouillant la relation entre son effort et la performance de l’entreprise). Dans les secteurs faisant face à un risque élevé, la rémunération doit donc relativement plus s'appuyer sur un salaire fixe, tandis que dans les environnements plus stables elle doit davantage s'appuyer sur une mesure de performance.

Ce travail préliminaire, en particulier l’article publié par Holmström en 1979, donna des réponses précises à des questions basiques à propos de la rémunération de la performance. Cependant, il apparut rapidement évident que des aspects importants de la réalité manquaient dans le modèle. Ce travail préliminaire entraîna par conséquent de nombreuses autres analyses, menées aussi bien par Holmström que par d’autres chercheurs.

De fortes incitations ou des incitations équilibrées ?


Dans un article publié en 1982, Holmström a analysé une situation dynamique dans laquelle le salaire courant d’un salarié ne dépend pas explicitement de sa performance. En fait, le salarié est incité à travailler dur parce qu’il s’inquiète de sa carrière et de son futur salaire. Sur un marché du travail concurrentiel, une entreprise doit récompenser la performance courante avec des gains plus élevés à l’avenir, sinon le salarié va simplement changer d’employeur. Bien que cela puisse constituer un système efficace pour récompenser et motiver les travailleurs, il peut y avoir un revers : les inquiétudes relatives à la carrière peuvent être si fortes pour les gens qui débutent leur vie active que ces derniers risquent de travailler de trop, tandis que les personnes âgées sans cette incitation vont tirer au flanc. Le modèle développé par Holmström a aussi été appliqué à d’autres contextes, tel que celui de la relation entre les politiciens et leurs électeurs.

Dans son article originel de 1979, Holmström suppose que l’agent ne réalise qu'une seule tâche. En 1991, Holmström et Paul Milgrom étendirent l’analyse à un scénario plus réaliste où l’emploi d’un salarié inclut plusieurs tâches différentes et où il peut être difficile pour l’employeur de surveiller et de récompenser certaines de ces tâches. Pour dissuader le salarié de se concentrer sur les tâches pour lesquelles la performance est la plus facile à mesurer, il est peut-être préférable d’offrir de faibles incitations globales. Par exemple, si les salaires des enseignants dépendent des résultats des étudiants (qui sont faciles à mesurer), alors les enseignants peuvent passer moins de temps à enseigner des compétences tout aussi importantes (mais plus difficiles à mesurer) telles que la créativité et l’autonomie de la réflexion. Un salaire fixe, indépendant de toute mesure de performance, mènerait à une allocation plus équilibrée de l’effort entre les tâches. Les résultats de ce modèle multitâches changèrent la façon par laquelle les économistes réfléchissent aux dispositifs optimaux d’indemnisation et à la conception optimale des tâches.

Le travail d’équipe modifie aussi le cadre originel de rémunération pour la performance. Si la performance reflète les efforts joints d’un groupe d’individus, certains membres du groupe peuvent avoir tendance à se comporter en passagers clandestins, à en faire moins en comptant sur leurs collègues pour assurer l’effort. Holmström s’est attaqué à cette question dans un article de 1982, où il montre que lorsque le revenu entier de l’entreprise est réparti entre les membres de l’équipe (comme dans une société coopérative, où l’entreprise est possédée par les salariés), l’effort va généralement être trop faible. Un propriétaire extérieur à l’entreprise peut stimuler les incitations individuelles parce que la rémunération sera plus flexible : la rémunération totale des membres de l’équipe ne doit plus nécessairement s’ajouter au revenu total qu’ils génèrent. Cet exemple fait écho à un autre problème que la théorie des contrats peut éclairer, à savoir celui de la propriété et du contrôle.

Les contrats incomplets


Une mesure imparfaite de la performance n’est pas le seul obstacle à la rédaction de contrats efficients. Les parties sont fréquemment incapables de détailler par avance des termes de contrat. Le problème devient alors comment rédiger le meilleur contrat élémentaire. C’est le domaine des contrats incomplets.

Il y a eu un bouleversement majeur au milieu des années quatre-vingt avec le travail d’Oliver Hart et de ses collaborateurs. La principale idée est qu’un contrat qui ne peut explicitement spécifier ce que les parties doivent faire selon telle ou telle éventualité future doit spécifier qui a le droit de décider ce qu’il y a à faire lorsque les parties ne peuvent se mettre d’accord entre elles. La partie qui dispose de ce droit de décision va avoir un plus grand pouvoir de négociation et elle sera capable d’obtenir un meilleur arrangement une fois que la production se sera matérialisée. A son tour, cela va davantage inciter la partie avec le plus de droits à la décision à prendre certaines décisions, telles que les décisions d’investissement, tout en réduisant les incitations pour la partie avec le moins de droits à la décision. Dans de complexes situations de contractualisation, l’allocation des droits à la décision devient par conséquent une alternative à la rémunération pour la performance.

Les droits de propriété


Dans diverses études, Hart (avec différents coauteurs, tels que Sanford Grossman et John Moore) a analysé comment allouer la propriété des actifs physiques, par exemple en se demandant si ces derniers doivent être possédés par une unique entreprise ou séparément par différentes entreprises. Supposons une nouvelle invention qui requiert l’usage d’une machine particulière et d’un canal de distribution. Qui doit posséder la machine et qui doit posséder le canal de distribution ? l’inventeur, l’opérateur de machine ou le distributeur ? Si l’innovation est l’activité pour laquelle il est le plus difficile de concevoir un contrat, ce qui semble réaliste, il se peut que ce soit l’innovateur qui ait à posséder tous les actifs dans une entreprise, même s’il peut manquer d’expertise en matière de production et de distribution. Comme l’innovateur est la partie qui doit faire de plus grands investissements qui font le plus difficilement l’objet de contrats, il est par là même aussi la partie qui a le plus besoin de la future monnaie d’échange que les droits de propriété apportent aux actifs.

Les contrats financiers


Une application importante de la théorie des contrats incomplets a été les contrats financiers. Supposons, dans l’exemple du dirigeant, que la véritable performance soit difficile à utiliser dans un contrat parce que le dirigeant est capable de détourner les profits de l’entreprise. La meilleure solution peut alors être que le dirigeant devienne entrepreneur et possède lui-même l’entreprise : un entrepreneur peut librement décider de la façon par laquelle gérer l’entreprise et d’arbitrer convenablement entre les actions qui accroissent les profits et les actions qui accroissent ses bénéfices privés.

La limite à cette solution est que le dirigeant ne peut pas toujours se permettre d’acheter l’entreprise, si bien que des investisseurs extérieurs ont à financer l’acquisition. Mais (…) comment les investisseurs financiers peuvent-ils être sûrs de retrouver leur argent ? Une solution consiste à leur promettre une rémunération future fixe (indépendante du profit) avec collatéral : si le paiement n’est pas fait, la propriété est transférée aux investisseurs, qui peuvent liquider les actifs de l’entreprise. C’est actuellement la façon par laquelle la plupart des prêts bancaires fonctionnent et la théorie explique pourquoi. Plus généralement, la théorie des contrats incomplets suggère que les entreprises qui doivent avoir le droit de prendre la plupart des décisions dans leur entreprise aussi longtemps que la performance est bonne, mais que les investisseurs doivent avoir plus de droits à la décision lorsque la performance se détériore. Cet aspect est typique des contrats financiers dans le monde réel, tels que les contrats sophistiqués que signent les entrepreneurs et les fonds de capital-risque.

La privatisation


Une autre application de la théorie des contrats incomplets de Hart concerne la division entre les secteurs privé et public. Est-ce que les fournisseurs de services publics, tels que les écoles, les hôpitaux et les prisons, doivent appartenir au secteur public ou bien au secteur privé ? Selon la théorie, cela dépend de la nature des investissements qui ne peuvent faire l’objet de contrats. Supposons que le dirigeant d’un établissement de service social puisse faire deux types d’investissement : certains qui améliorent la qualité du service, d’autres qui réduisent les coûts aux dépens de la qualité. En outre, supposons que de tels investissements soient difficiles à spécifier dans un contrat. Si le gouvernement possède l’établissement et emploie un dirigeant pour la gérer, le dirigeant va avoir peu d’incitations à fournir l’un ou l’autre de ces d’investissements, puisque le gouvernement ne peut promettre de façon crédible de récompenser ces efforts. Si un contractant privé fournit le service, les incitations pour investir à la fois dans la qualité et la réduction des coûts sont plus fortes. Dans un article publié en 1997, Hart, Andrei Shleifer et Robert Vishny ont montré que les incitations à réduire les coûts sont typiquement trop fortes. La désirabilité de la privatisation dépend donc de l’arbitrage entre la réduction des coûts et la qualité. Dans leur article, Hart et ses coauteurs s’inquiétaient tout particulièrement des prisons privées. Les autorités fédérales aux Etats-Unis mettent en fait fin aux prisons privées notamment au motif que les conditions dans celles-ci sont pires que dans les prisons directement gérées par l’Etat (selon un rapport que le Département de Justice américaine a récemment publié).

La compréhension du monde réel


La théorie des contrats a grandement influencé plusieurs champs, allant de la gouvernance d’entreprises au droit constitutionnel. Grâce aux travaux d’Oliver Hart et Bengt Holmström, nous disposons maintenant des outils non seulement pour les termes financiers des contrats, mais aussi pour l’allocation contractuelle entre les parties des droits de contrôle, des droits de propriété et des droits à la décision. Les travaux des lauréats ont contribué à nous donner de nouveaux moyens pour réfléchir à la façon par laquelle les contrats doivent être conçus, à la fois sur les marchés privés et dans le domaine de la politique publique. »

L'Académie royale des sciences de Suède, « The prize in economic sciences 2016. Popular science background », 10 octobre 2016. Traduit par Martin Anota

lundi 12 octobre 2015

Angus Deaton, la consommation individuelle et la consommation agrégée



« La consommation de biens et services contribue fortement au bien-être de la population. Le lauréat, Angus Deaton, a approfondi notre compréhension de divers aspects de la consommation. Ses travaux s’intéressent à des questions très importantes pour le bien-être humain, en particulier dans les pays pauvres. Les travaux de Deaton ont grandement influencé à la fois la mise en œuvre des politiques et la communauté scientifique. En précisant les liens entre les décisions de consommation individuelles et leurs conséquences pour l’ensemble de l’économie, son œuvre a contribué à transformer tant la microéconomie que la macroéconomie et l’économie du développement modernes.

Deaton reçoit aujourd’hui le prix en sciences économiques pour trois réussites connexes : le système pour estimer la demande pour différents biens qu’il a développé avec John Muellbauer autour de 1990 ; les études du lien entre consommation et revenu qu’il conduisit autour de 1990 ; et les travaux qu'il a réalisés au cours des dernières décennies sur la mesure des niveaux de vie et de la pauvreté dans les pays en développement à l’aide d’enquêtes réalisées auprès des ménages.

Systèmes de demande et microéconomie


Un système de demande est un ensemble d’équations qui montre le niveau de demande de consommation pour différents biens et services : une équation peut décrire la demande de vêtements, une autre la demande d’aliments, etc. Chacune de ces équations montre comment la demande pour tel bien en particulier varie avec les prix de tous les biens, les revenus du consommateur et les facteurs démographiques. Un tel système est utile pour prendre des décisions dans l’orientation de la politique économique. Par exemple, si le gouvernement veut accroître la TVA sur les produits alimentaires ou réduire l’impôt sur le revenu d’un groupe spécifique, il est vital de voir comment une telle réforme va affecter la consommation de divers biens et quels groupes vont y gagner ou y perdre.

Quand un chercheur confronte un système de demande avec les données, le système doit respecter plusieurs conditions de façon à être fiable et utile. Bien sûr, ce système doit bien s’adapter avec les dynamiques observées dans les données. De façon à calculer des effets significatifs sur le bien-être, il doit aussi être compatible avec la théorie de consommateurs rationnels. Durant les années soixante et soixante-dix, plusieurs économistes ont testé les systèmes de demande existants et ils ont constaté qu’ils ne prévoyaient pas précisément comment la demande varie avec les prix et revenus, mais aussi qu’ils n’étaient pas cohérents avec l’hypothèse de consommateurs rationnels. Cela peut notamment s’expliquer par le fait que les consommateurs ne sont en réalité pas rationnels. Cependant, Deaton démontra que les systèmes existants étaient plus restreints qu’on ne le pensait précédemment ; ils encastrèrent le comportement du consommateur dans un enchevêtrement d’hypothèses qui était trop restrictif pour refléter de façon réaliste les véritables choix du consommateur.

Le défi consistait à élaborer un système qui était suffisamment général pour fournir une image fiable des dynamiques de demande dans la société, mais aussi suffisamment simple pour être estimé statistiquement et pour pouvoir être utilisé. La solution fut le Système de Demande Presque Idéal de 1980. Leurs premières estimations basées sur ce système ne fournirent pas de réponses claires pour toutes les questions entourant la consommation, mais la flexibilité du système et ses possibilités d’extensions et d’améliorations ont puissamment stimulé la recherche sur le comportement du consommateur.

Après 35 ans, le système de demande développé par Deaton et Muellbauer et les améliorations qu’il a connu par la suite, grâce aux travaux de d’autres chercheurs, demeurent les outils standards pour étudier les répercussions de la politique économique, pour construire des indices de prix et pour comparer les niveaux de vie entre les pays ou entre différentes dates. En d’autres termes, ce système eut un immense impact dans le monde universitaire, mais il s’est aussi révélé être grandement influent sur l’évaluation des politiques.

Consommation, revenu et macroéconomie


Le Système de Demande Presque Idéal décrit comment les ménages répartissent leur consommation entre divers biens sur une période de temps spécifique, en fonction de l’ensemble de leurs dépenses au cours de cette période. Cependant leurs dépenses totales ne sont pas données, dans la mesure où elles sont déterminées par les ménages eux-mêmes lorsqu’ils planifient leur consommation d’une année sur l’autre. Donc quelle part de leurs revenus les gens consomment-ils en diverses périodes de temps ? C’est une question importante en macroéconomie : le revers de la consommation totale est l’épargne totale et l’évolution de l’épargne au cours du temps dans un pays est importante pour l'accumulation du capital et les cycles d’affaires.

Les années cinquante virent le développement de deux théories bien connues qui expliquent comment la consommation et donc l’épargne dépendent de l’évolution du revenu : l’hypothèse du revenu permanent de Milton Friedman et le modèle du cycle de vie de Franco Modigliani. La principale implication de ces théories est que les individus veulent lisser leur consommation au cours du temps. Ils épargnent lorsqu’ils s’attendent à un plus faible revenu futur et ils empruntent lorsqu’ils s’attendent à un revenu plus important à l’avenir. Ces deux théories, dans la formulation qu’elles reçurent dans les années soixante-dix, eurent à jouer un rôle majeur dans la recherche macroéconomique. Dans plusieurs articles publiés autour de 1990, Deaton et ses coauteurs testèrent plusieurs implications importantes déduites de l’hypothèse du revenu permanent. Ces tests vinrent à changer la vision que nous avions des liens entre théorie et données.

A ce moment-là, presque toute la recherche macroéconomique était basée sur la notion de "consommateur représentatif", dont la consommation varie avec le revenu agrégé ou moyen d’une société. Avec cette hypothèse simplifiée, Deaton fut capable de démontrer que l’hypothèse du revenu permanent prédit que la consommation va varier plus que le revenu. C’est le cas parce qu’une hausse non anticipée du revenu pour l’ensemble de l’économie tend à être suivie par des hausses additionnelles de revenu dans les années suivantes. Un consommateur représentatif rationnel doit par conséquent consommer une part de ces hausses anticipées de revenu avant qu’elles surviennent, ce qui signifie que la consommation courante doit augmenter plus que le revenu courant. Parce que cela contredit ce que montrent les données agrégées, où la consommation varie moins que le revenu, le constat de Deaton met en doute l’ensemble de la théorie. Cette apparente contradiction entre théorie et données a reçu par la suite le nom de "paradoxe de Deaton" (Deaton Paradox).

Deaton a montré que la clé pour résoudre ce paradoxe (et plus généralement pour mieux comprendre les données macroéconomiques) est d’étudier le revenu et la consommation des individus, dont les revenus fluctuent d’une manière entièrement différente que le revenu moyen. Puisque les revenus de certaines personnes diminuent alors que les revenus des autres augmentent, l’essentiel des variations individuelles du revenu disparaissent lorsque nous déterminons le revenu du consommateur représentatif. En mettant en évidence comment les niveaux de consommation individuels varient avec les niveaux de revenu individuels avant que la consommation soit agrégée, les prédictions de la théorie se rapprochent des dynamiques que nous observons dans les données agrégées, en particulier si nous prenons en compte le fait que les individus font face à des contraintes lorsqu’ils financent leur consommation via l’emprunt.

Deaton a aussi montré que lorsque nous étudions les données individuelles, la théorie standard offre des prédictions supplémentaires, que d’autres n’ont pas vu. Par exemple, la distribution de la consommation entre tous les individus dans une génération se disperse au fur et à mesure que les individus vieillissent, une prédiction qui s’est révélée être effectivement vraie par la suite. L’ampleur de cette dispersion peut être utilisée pour évaluer à quelle ampleur les individus peuvent s’assurer eux-mêmes contre les chocs touchant leurs propres revenus.

Les intuitions fournies par les travaux de Deaton sur la consommation et le revenu ont eu une influence durable sur la recherche macroéconomique moderne. Les chercheurs qui l’ont précédé en macroéconomie, en particulier les chercheurs qui ont suivi Keynes, se basaient sur des données agrégées. Même si leur objectif est de comprendre les relations à un niveau macroéconomique, les chercheurs commencent aujourd’hui leur analyse au niveau microéconomique et ajoutent ensuite les comportements individuels pour en tirer des chiffres pour l’ensemble de l’économie.

Données sur les ménages et économie du développement


Dans les dernières décennies, Angus Deaton a réalisé des études approfondies sur la consommation et la pauvreté dans les pays en développement, en utilisant ses intuitions dans les systèmes de demande et la consommation individuelle au cours du temps. Il a mis en lumière l’importance qu’il y a à accumuler des ensembles de données complets avec la consommation des ménages de différents biens, comme les données sur la consommation dans les pays en développement sont souvent bien plus fiables et utiles que les données sur le revenu. Deaton a aussi montré comment de telles données peuvent être utilisées pour mesurer et comprendre la pauvreté et ses déterminants.

Un problème qui survient lorsque l’on étudie la consommation et ses déterminants est de déterminer quel type de données de consommation à collecter. Les données de panel (les données pour un échantillon inchangé de ménages, année après année) peuvent en principe être préférables pour étudier les dynamiques de la consommation, mais de telles données ont aussi des problèmes spécifiques, telles que le retrait systémique du panel. Deaton a montré que la collection répétée de données transversales (où ce sont les cohortes plutôt que des ménages individuels qui sont suivis au cours du temps) n’est pas seulement plus simple et moins coûteuse, mais dans plusieurs cas préférable.

Un autre problème est comment mesurer l’ampleur de la pauvreté à partir des données de consommation ou de dépenses lorsque les ménages dans différents lieux font face à différents prix locaux ou lorsqu’ils consomment différents types de biens, alors même que ni les prix, ni la qualité des biens ne sont directement observables. Dans des travaux qui ont eu un grand impact sur la mesure de la pauvreté dans les pays en développement, Deaton a montré comment exploiter la variation des valeurs unitaires (les dépenses divisées par la quantité) pour construire des prix de marchés locaux lorsqu’ils ne sont pas disponibles.

Un autre problème encore est que la pauvreté est naturellement définie au niveau individuel, alors que les données sur la consommation sont normalement collectées au niveau des ménages. L’approche la plus commune consiste à mesurer le bien-être individuel par les données des ménages totales par tête, ce qui suppose qu’un enfant consomme autant qu’un adulte.

Deaton a aussi réalisé plusieurs contributions importantes pour déterminer la meilleure manière de comparer le bien-être au cours du temps et entre les pays. Il a souligné les dangers de telles comparaisons en analysant pourquoi les mesures des niveaux de pauvreté pointent dans une direction lorsqu’on utilise des données à partir des comptes nationaux et dans une autre direction lorsqu’on utilise des données tirées des enquêtes auprès des ménages. Il a aussi clarifié pourquoi les récentes révisions de la ligne de pauvreté qui définit à partir de quand une famille est considérée comme pauvre ont accru le nombre de pauvres dans le monde de près d’un milliard de personnes.

Durant les années quatre-vingt, les études dans le domaine du développement économique étaient principalement théoriques et les rares études empiriques se basaient sur les données agrégées relatives aux comptes nationaux. Les choses ont bien changé depuis. L’économie du développement est un champ de recherche empirique florissant qui se base sur l’analyse avancée des données détaillées relatives aux ménages individuels. Les études de Deaton ont joué un rôle important dans cette transformation. Deux exemples (basés sur l’analyse solide de la consommation des ménages) illustrent son influence.

Pendant longtemps, les économistes ont travaillé avec l’idée qu’un pays pouvait se retrouver enfermé dans une trappe à pauvreté. Les faibles revenus peuvent se traduire par une mauvaise alimentation qui empêche les gens de travailler à leur pleine capacité, donc leurs revenus restent faibles et leur alimentation reste mauvaise. La question des trappes à pauvreté est importante pour concevoir une aide internationale pour les pays les plus pauvres. Si l’aide consiste à encourager la croissance économique, mais que la hausse des revenus n’entraîne toujours pas une amélioration significative de l’alimentation, il peut alors être justifié de réorienter l’assistance vers une aide alimentaire directe. Les études de Deaton sur la relation entre le revenu et l’alimentation ont apporté un éclairage important sur cette question : la hausse du revenu tend à améliorer la ration alimentaire. D’un autre côté, les preuves empiriques ne soutiennent pas l’hypothèse selon laquelle la malnutrition explique la pauvreté. En d’autres mots, la malnutrition est davantage la conséquence d’un faible revenu, plutôt que l’inverse.

Un autre exemple est les travaux de Deaton sur la discrimination sexuelle au sein de la famille. Bien qu’il y ait plusieurs preuves empiriques suggérant que les fils sont favorisés par rapport aux filles dans plusieurs pays en développement (le phénomène des « femmes manquantes » étant peut-être l’exemple le plus frappant) les mécanismes à travers lesquels apparaît la discrimination ne sont pas clairs. Un mécanisme peut être que les filles se voient systématiquement donner moins de ressources que les fils, mais tester cela est difficile. Même s’il était possible d’avoir des chercheurs vivant avec plusieurs familles différentes pour chaque heure du jour pour observer leurs choix de consommation, les ménages peuvent changer le comportement lorsqu’ils sont observés. Pour surmonter ce problème de mesure, Deaton proposa une manière ingénieuse d’utiliser les données sur la consommation pour estimer indirectement si les filles reçoivent moins de choses que les fils.

En particulier, Deaton a cherché si la consommation de biens d’adultes (comme les vêtements, le tabac ou l’alcool) diminue lorsque la famille a des enfants et si cette réduction est plus grande lorsque l’enfant est un garçon plutôt qu’une fille. En utilisant les enquêtes réalisées auprès des ménages dans plusieurs pays en développement, Deaton n’a pas réussi à trouver des différences systématiques sous des circonstances normales. Des travaux empiriques ultérieurs ont cependant montré une claire discrimination lorsque les ménages font face à des circonstances adverses. (...) »

Académie Royale des Sciences de Suède, « Consumption, great and small. Popular science background », octobre 2015. Traduit par Martin Anota



aller plus loin... lire « A propos des nouvelles estimations de PPA »

lundi 13 octobre 2014

Pouvoir de marché et réglementation : les apports de Jean Tirole

jean_tirole__equations.jpg

« Jean Tirole est l’un des économistes les plus influents de notre temps. Il fit d’importantes contributions dans plusieurs domaines de recherche, mais il a surtout clarifié comment nous pouvons comprendre et réglementer les secteurs qui sont dominés par une poignée d'entreprises. Tirole se voit décerner cette année le prix pour son analyse du pouvoir de marché et de la réglementation.

La réglementation est complexe

Il est toujours pertinent de se demander quelles activités doivent être réalisées par l'Etat et quelles activités doivent être laissées au secteur privé. Plusieurs gouvernements ont ouvert des monopoles publics aux actionnaires privés, aussi bien dans les secteurs des réseaux ferroviaires, de distribution d’eau, de la poste, des télécommunications, que de l’éducation ou des soins de santé. Les expériences tirées de ces privatisations ont été contrastées et il a été bien souvent plus difficile que prévu d’inciter les entreprises privées à adopter le comportement attendu.

Il y a deux grandes difficultés. Premièrement, plusieurs marchés sont dominés par un nombre réduit d’entreprises qui influencent alors les prix, le volume et la qualité du produit. La théorie économique traditionnelle n’est pas adaptée à cette situation, qualifiée d’"oligopole". Elle est davantage adaptée à une situation de monopole ou à une situation connue sous le nom de "concurrence pure et parfaite". La seconde difficulté est que les autorités régulatrices manquent d’informations à propos des coûts des entreprises et à propos de la qualité des biens et services qu’elles offrent. Ce manque d’information donne souvent un avantage naturel aux entreprises réglementées.
Jean_Tirole__Nobel_2014__Pouvoir_de_marche_et_reglementation.png

Avant Tirole

Dans les années quatre-vingt, avant que Tirole ne publie son premier travail, la recherche dans la réglementation était bien maigre et les rares travaux sur ce thème portaient essentiellement sur la manière par laquelle les gouvernements doivent intervenir et contrôler la fixation des prix dans deux situations extrêmes : le monopole et la concurrence pure et parfaite. A cette époque, les chercheurs et les responsables politiques cherchaient des principes généraux qui pourraient s'appliquer à chaque secteur. Ils conseillaient une règle simple pour les politiques de réglementation, par exemple en imposant des prix plafonds pour les monopoleurs et en interdisant la coopération entre concurrents sur un même marché, tout en permettant une coopération entre les entreprises qui sont situées à différentes étapes de la chaîne de valeur. Les études de Tirole ont montré que de telles règles fonctionnent sous certaines conditions, mais qu’elles font plus de mal que de bien sous d’autres conditions. Les plafonnements de prix peuvent inciter les entreprises dominantes à réduire leurs coûts (une chose bénéfique pour la société), mais aussi leur permettre de réaliser des profits excessifs (ce qui est une mauvaise chose pour la société). La coopération sur la fixation des prix dans un marché est en général nocive, mais la coopération en ce qui concerne les regroupements de brevets (patent pools) peut bénéficier à chaque partie prenante. La fusion d’une entreprise et de son fournisseur peut mener à une innovation plus rapide, mais elle peut aussi nuire à la concurrence.

Afin d'arriver à ces résultats, une nouvelle théorie était nécessaire pour les marchés en situation d’oligopole, parce même une large privatisation peut ne pas créer suffisamment de marge pour que plusieurs entreprises soient présentes sur le marché. Il était aussi nécessaire de construire une nouvelle théorie de la réglementation pour les situations d’information asymétrique, parce que les régulateurs ont souvent peu d’informations concernant les conditions sous lesquelles évoluent les entreprises.

De nouveaux outils théoriques

Pour élaborer ses recherches, Tirole s'est appuyé sur de nouvelles méthodes scientifiques, notamment la théorie des jeux et la théorie des contrats. On espérait vraiment que ces méthodes aident à améliorer la politique sur le plan pratique. La théorie des jeux devait aider à étudier plus systématiquement la manière par laquelle chaque entreprise réagit à différents conditions et au comportement des autres entreprises. La prochaine étape aurait été de proposer une réglementation appropriée qui se serait fondée sur la nouvelle théorie des contrats incitatifs entre des parties ne disposant pas des mêmes informations. Cependant, même si beaucoup se posaient les bonnes questions, il était bien difficile d'y répondre. Jean Tirole commença ses recherches sur la réglementation et l’oligopole au début des années quatre-vingt. Il avait déjà été diplômé en ingénierie à l’Ecole Polytechnique et à l’Ecole Nationale des Ponts et Chaussées à Paris, ainsi qu’en mathématiques à l’Université Paris-Dauphine. En 1981, il finit son doctorat d’économie au Massachusetts Institute of Technology (MIT) à Cambridge, aux Etats-Unis. Les nouveaux outils de la théorie économique (...) donnèrent à Tirole une base solide sur laquelle il pouvait renouveler et approfondir l’analyse de la réglementation et du pouvoir de marché.

Les problèmes d’information du régulateur

En 1986, Tirole et son collègue Jean-Jacques Laffont firent une importante contribution à la théorie de la réglementation. Ils démontrèrent comment un ensemble précis de contrats de production permettait de contourner le problème d’information asymétrique sur un marché où le réglementateur ne sait pas précisément quels sont les coûts et les choix de techniques de production qui s’imposent au monopoleur. Le problème central est de fournir une compensation qui soit suffisamment importante pour que la production soit rentable, sans utiliser les recettes fiscales pour des profits inutilement élevés. Laffont et Tirole démontrèrent comment le réglementateur pouvait résoudre ce dilemme. Les autorités pouvaient palier leur manque d’informations relatives aux conditions auxquelles l’entreprise est soumise en lui imposant de choisir un contrat à partir d’un ensemble précis de contrats. Qu’importe le type de producteur, ce dernier va choisir le genre de contrat qui lui bénéficie le plus. Un producteur dont les coûts sont élevés et difficilement compressibles va choisir un contrat avec un dédommagement élevé pour ses coûts et il aura donc peu intérêt à les réduire. Un producteur pour qui il est plus facile de réduire les coûts va choisir un contrat avec une compensation relativement faible pour ses coûts, mais avec un prix plus élevé pour les services qu’il fournit et il sera donc fortement incité à réduire ses coûts. Un unique contrat qui chercherait un compromis entre ces deux aspects se traduirait par des profits inutilement élevés s’il est facile pour l’entreprise de réduire ses coûts. Durant les années quatre-vingt et quatre-vingt-dix, Laffont et Tirole appliquèrent leur théorie à tout un éventail de problèmes. Ils résumèrent leurs résultats dans un livre sur les marchés publics et la réglementation, publié en 1993, un livre qui a grandement influencé la pratique de la réglementation. Les résultats théoriques sur l’efficacité des différents types de réglementation ont été plutôt bien vérifiés dans les études empiriques des différents secteurs pris isolément.

La dynamique de la réglementation

Dans plusieurs cas, des questions se posent à propos du calendrier de la réglementation : pour quelle période le premier ensemble de règles doit-il être conçu et comment doit-il être revu et renouvelé ? Laffont et Tirole se sont penchés sur ces questions dans deux articles importants publiés en 1988 et en 1990, où ils se basaient sur les travaux réalisés précédemment par Freixas, Laffont et Tirole en 1985. Supposons que le réglementateur et le producteur ne peuvent signer un contrat de long terme, mais seulement une série de contrats de court terme. Cela signifie que les actions courantes du producteur peuvent affecter sa future réglementation. Si un producteur à faible coût travaille dur et réalise de larges profits durant la première période du contrat, le réglementateur peut resserrer les exigences dans le prochain contrat de façon à réduire le profit potentiel. Le risque est alors que le producteur anticipe cela et travaille moins, ce qui pénalise l'activité. Si les autorités ne peuvent fixer des contrats de long terme, il est impossible d’obtenir du producteur qu’il choisisse l’effort approprié à un coût raisonnable, si bien qu’il ne révélera pas ses coûts. En fait, les autorités doivent utiliser de plus faibles incitations et apprendre graduellement ces conditions, ce qui va se faire rapidement si l’activité est complexe et peu rentable, mais lentement si elle est simple et lucrative.

L’indépendance du réglementateur

Dans la plupart des pays, le cadre de la réglementation est tout d’abord décidé à un niveau supérieur (par exemple par le gouvernement) et une administration publique a alors pour tâche de préciser les termes de la réglementation. En 1986, Tirole a analysé le système de récompense optimal dans une relation hiérarchique similaire, en étudiant un cas plus général avec un principal (le propriétaire), un superviseur (le contremaître) et un agent (le travailleur). Le problème est que l’administration publique et l’entreprise ont plus d’information à propos de l’activité que le gouvernement. Avec un cadre laxiste, il y a un risque que tous deux se mettent d’accord pour dissimuler l’information au gouvernement, et ce au profit de l’entreprise : l’autorité administrative se fait l’avocate de l’entreprise. En 1991, Laffont et Tirole ont examiné comment la réglementation doit être conçue pour minimiser ce risque. Le principal résultat de leur analyse est que le gouvernement doit établir un cadre qui considère explicitement le risque que le régulateur dissimule l’information et soit de mèche avec l’entreprise réglementée. Même avec un cadre bien conçu, un régulateur va quelques fois se faire l’avocat de l’entreprise, mais cependant il ne va pas se permettre d’être corrompu ou de taire activement l’information.

La concurrence et les investissements stratégiques

Les monopoles ne sont pas les seuls à requérir une réglementation ; il y a aussi les marchés d’oligopole. Notamment avec ses coauteurs, Tirole a fourni plusieurs contributions importantes aux théories du droit de la concurrence, notamment les analyses des effets des brevets, des avancées technologiques et des investissements stratégiques sur la concurrence. Les brevets peuvent donner aux entreprises un avantage stratégique. En 1983, Tirole, en collaboration avec Drew Fudenberg, Richard Gilbert et Joseph Stiglitz (un lauréat du prix en 2011), a analysé les conditions d’une course au brevet entre les entreprises. Ils prédirent des courses intenses dans les situations où plusieurs entreprises sont à peu près au même niveau, mais de plus faibles niveaux d’investissement dans la recherche-développement lorsqu’une entreprise est fortement en avance sur les autres. Dans un article de 1984, Fudenberg et Tirole utilisèrent la théorie des jeux pour analyser comment une entreprise peut influencer stratégiquement ses concurrents. Un investissement stratégique a des effets de long terme sur la profitabilité de l’entreprise. Une question importante est si les investissements rendent l’entreprise plus (ou moins) agressive dans la concurrence à venir. Un exemple est un investissement qui réduit le coût marginal d’une entreprise. La question suivante est comment les entreprises en concurrence peuvent réagir face à une telle concurrence. Sur certains marchés, les investissements agressifs vont être payants, comme les concurrents vont perdre des parts de marché. Sur d’autres marchés, de tels marchés ne se révèlent pas profitables, puisque les concurrents vont à leur tour adopter un comportement agressif. Il est donc nécessaire de comprendre de façon plus détaillée les conditions particulières d’un secteur spécifique pour déterminer quel type de stratégie est le plus profitable pour les entreprises de ce secteur. Certaines intuitions sont importantes pour les praticiens et les autorités de la concurrence. Les praticiens peuvent commettre des erreurs s’ils essayent d’appliquer aveuglément les enseignements tirés d’un marché à un autre et les autorités peuvent commettre des erreurs si elles régulent les entreprises sans prendre en compte les conditions de marché spécifiques au secteur.

La concurrence sur des marchés spécifiques

Il n’y a pas de solutions simples et standards pour la réglementation et la politique de la concurrence, puisque celles qui se révèlent les plus appropriées vont être différentes d’un marché à l’autre. Par conséquent, Jean Tirole a aussi étudié les conditions de marchés spécifiques et a contribué à de nouvelles perspectives théoriques. Traditionnellement, vendre à pertes était interdit par la loi de la concurrence, parce que fixer des prix à un niveau inférieur aux coûts de production est une manière de se débarrasser des concurrents. Cependant, ce n’est pas nécessairement vrai sur tous les marchés. Considérons le marché du journal, par exemple, où distribuer des journaux gratuitement peut être une manière d’attirer des lecteurs et donc de nouveaux publicitaires pour couvrir les pertes associées à la production et à la distribution. Dans ce cas, on peut contester l’idée que la vente à pertes doit être bannie. Avec Jean-Charles Rochet, Tirole nous a permis de mieux comprendre ces marchés de plateforme où il y a un fort lien entre les différentes parties prenantes de la plateforme technique, telles que les lecteurs et les publicitaires dans le cas des journaux.

La concurrence et les restrictions verticales

Que se passe-t-il lorsque quelqu’un jouit d’un monopole dans un domaine qui constitue un maillon important dans une chaîne de production ? Ce problème classique est illustré par un phénomène moderne : le logiciel ou système d’exploitation d’une entreprise devenant dominant dans son domaine. Formellement, on croyait que de telles entreprises peuvent bien réaliser des profits de monopole dans leur propre domaine, mais que la concurrence les empêche de bénéficier de leur position dans le maillon suivant de la chaîne de production.

Dans deux études (l’une réalisée avec Patrick Rey en 1986 et l’autre réalisée avec Oliver Hart en 1990), Tirole a démontré que cette idée n’était pas justifiée. Maîtriser un maillon de la chaîne offre à un monopoleur la possibilité de réaliser des profits sur le marché du maillon suivant. En réalité, c’est souvent en perturbant la concurrence sur un marché voisin qu’un monopoleur est capable de faire du profit. Un exemple est le producteur d’une innovation brevetée qui réduit les coûts. Si les entreprises qui sont de potentiels acheteurs de cette innovation opèrent sur un marché où la concurrence est forte, le producteur va trouver difficile de gagner beaucoup d’argent s’il vend son innovation à toutes les entreprises en même temps ; la concurrence génère de faibles profits, même après la réduction des coûts, donc le producteur doit maintenir un faible prix. Cependant, si l’innovation est vendue à une seule entreprise, cette entreprise fait un profit élevé parce qu’elle devient plus compétitive que ses concurrentes. Le producteur peut alors fixer ses prix à un niveau considérablement plus élevé.

Cependant il est loin d’être clair que le producteur peut s’engager à vendre à une seule entreprise. Une fois la vente réalisée, le producteur est incité à vendre à d’autres entreprises, mais si le premier client prend conscience de ce risque, il va préférer payer un prix plus faible. Le producteur doit donc par conséquent promettre de ne pas réaliser d’autres ventes. Pour que cette promesse apparaisse crédible, il est nécessaire soit de signer une forme de contrat exclusif, soit de faire fusionner les deux entreprises. Les règles de la concurrence doivent donc mettre en regard ces deux considérations : d’un côté, les contrats verticaux peuvent limiter la concurrence mais, d’un autre côté, ils encouragent l’innovation. Ce type de raisonnement a fourni une fondation nouvelle et robuste pour la législation et l’usage légal en ce qui concerne les contrats verticaux et les fusions.

Donc, c’est encore un autre exemple du même résultat général : les politiques de concurrence les plus désirables diffèrent d’un marché à l’autre. »

L’Académie Royale des sciences de Suède, « Market power and regulation », traduit par Martin Anota

dimanche 11 mai 2014

Les travaux de Gary Becker (1930-2014)

Nobel Laureate and University of Chicago Professor of Economics and Sociology, Garyy Becker, AM’53, PhD’55, passed away on Saturday.  He was 83 years old.

« L'Académie royale des sciences de Suède a décidé de décerner le Prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel de 1992 au professeur Gary S. Becker, de l’Université de Chicago aux Etats-Unis pour avoir étendu le domaine de l'analyse microéconomique à un large éventail de comportements humains et d'interactions, y compris le comportement non marchand.

La contribution de Gary Becker à la recherche a principalement consisté à étendre le domaine de la théorie économique aux aspects du comportement humain qui n’avaient déjà été analysés (au mieux) que par d'autres disciplines des sciences sociales comme la sociologie, la démographie et la criminologie. Ce faisant, il a incité les économistes à s'attaquer à de nouveaux problèmes.

Le programme de recherche de Gary Becker est fondé sur l'idée que le comportement d'un individu respecte les mêmes principes fondamentaux dans un certain nombre de domaines différents. Le même modèle explicatif devrait donc, selon Becker, être applicable pour analyser des aspects très divers du comportement humain. Le modèle explicatif avec lequel Becker a choisi de travailler est basé sur ce qu'il appelle une approche économique, qu’il a appliquée dans divers domaines. Cette approche se caractérise par le fait que les agents individuels (qu'il s'agisse aussi bien de ménages, d'entreprises ou de d'autres organisations) sont supposés se comporter rationnellement, c'est-à-dire, à dessein, et que leur comportement peut être décrit comme s'ils maximisaient une fonction d’objectif spécifique, tel que l'utilité ou la richesse. Gary Becker a appliqué le principe de comportement rationnel, optimisateur dans des zones où les chercheurs supposaient jusqu’alors que le comportement était compulsif et souvent carrément irrationnel. Becker a emprunté un aphorisme de Bernard Shaw pour décrire sa philosophie méthodologique : "L'économie est l'art de tirer le plus de la vie".

Les applications du modèle de base de Becker à différents types de comportement humain peuvent être regroupées en quatre domaines de recherche : (i) les investissements dans le capital humain ; (ii) le comportement de la famille (ou du ménage), y compris la répartition du travail et la répartition du temps dans la famille ; (iii) le crime et le châtiment ; et (iv) la discrimination sur les marchés du travail et des biens.

Le capital humain

La contribution la plus remarquable de Gary Becker est peut-être celle dans le domaine du capital humain, c'est-à-dire les compétences humaines et les conséquences des investissements dans les compétences humaines. La théorie du capital humain est née avant les travaux de Becker dans ce domaine. Son principal apport est d'avoir formulé et formalisé les fondements microéconomiques de cette théorie. Ce faisant, il a développé l'approche du capital humain dans une théorie générale pour déterminer la distribution des revenus du travail. Les prédictions de la théorie au regard de la structure des salaires ont été formulées dans des fonctions de rémunérations du capital humain, qui spécifient la relation entre le revenu et le capital humain. Ces contributions ont d'abord été présentées dans quelques articles au début des années soixante et elles ont été davantage développées, à la fois aux niveaux théorique et empirique, dans son livre Human Capital en 1964.

La théorie du capital humain a créé un cadre d'analyse uniforme et d'application générale pour étudier non seulement le rendement de l'éducation et de la formation sur le tas, mais aussi les écarts salariaux et les évolutions de salaires au cours du temps. D'autres applications importantes, poursuivies par divers économistes, incluent une décomposition des facteurs sous-jacents à la croissance économique, la migration, ainsi que les investissements et les revenus dans le secteur de la santé. L'approche du capital humain permet aussi d'expliquer la structure des échanges entre les pays ; en fait, les différences dans l'offre de capital humain entre les pays contribuent à expliquer les différences dans l'offre de capital réel observées d’un pays à l’autre.

Les applications pratiques de la théorie du capital humain ont été considérablement facilitées par la plus grande disponibilité de données microéconomiques, par exemple les données de panel, concernant les salaires et les différentes caractéristiques du travail. Ce développement a également été stimulé par les études théoriques et empiriques de Becker. Il ne serait pas exagéré de dire que l'approche du capital humain est l'une des théories les plus appliquées empiriquement en économie aujourd'hui.

Le ménage et la famille

Gary Becker a réalisé une extension encore plus radicale de l'applicabilité de la théorie économique dans son analyse des relations entre les individus en dehors du système marchand. L'exemple le plus connu est son analyse des fonctions de la famille. Ces études sont résumées dans son livre A Treatise on the Family, écrit en 1981.

Une idée fondamentale dans l'analyse de Becker est qu'un ménage peut être considéré comme une "petite usine" qui produit ce qu'il appelle des produits de base, comme les repas, une résidence, des spectacles , etc., en utilisant le temps et l’intrant des produits sur le marché ordinaire, "semi-produits", que les ménages achètent sur le marché. Dans ce type d'analyse, les prix des produits de base ont deux composantes. La première est composée des coûts directs de l'achat de biens intermédiaires sur le marché. La seconde est la dépense en temps pour la production et la consommation du bien (…), cette dépense est équivalente à un salaire multiplié par le temps passé par unité de bien produit dans le ménage. Cela implique que l'augmentation du salaire d'un membre du ménage change non seulement les incitations à travailler sur le marché, mais modifie aussi la production et la consommation de biens produits par le ménage (c’est-à-dire de produits de base) en les rendant moins chronophages. Au lieu d'une analyse en termes de la dichotomie traditionnelle entre travail et loisirs, le modèle de Becker propose une théorie générale de la répartition du temps du ménage, comme illustrée dans l'essai "A Theory of the Allocation of Time" en 1965. Cette approche s'est révélée être une base très utile pour l'examen de nombreuses questions associées au comportement des ménages.

Becker est allé encore plus loin. Il a formulé une théorie générale du comportement de la famille, y compris non seulement pour la répartition du travail et pour la répartition du temps dans la famille, mais également pour les décisions concernant le mariage, le divorce et les enfants. Lorsque les salaires réels augmentent, ainsi que les possibilités de substitution du capital au travail dans les travaux ménagers, le travail est libéré dans le ménage, de sorte qu'il devient de moins en moins rentable de laisser un membre du ménage se spécialiser en totalité dans la production ménagère (par exemple, la garde d'enfants). En conséquence, certaines des fonctions sociales et économiques précédemment réalisées par la famille sont transférées à d'autres institutions telles que les entreprises, les écoles et d'autres organismes publics. Becker a affirmé que ces processus expliquent non seulement l'augmentation de la participation des femmes mariées au travail non domestique, mais aussi l’essor du divorce ; voir l’article qu’il a coécrit en 1986 avec N. Tomes "Human Capital and the Rise and Fall of Families".

Parallèlement à l'analyse de la répartition du travail et la répartition du temps dans le ménage, la contribution la plus influente de Becker dans le cadre du ménage et de la famille est probablement ses études sur la fertilité, notamment son essai intitulé "An Economic Analysis of Fertility" en 1960. Les parents sont supposés avoir des préférences concernant le nombre de leurs enfants et le niveau d'éducation de ces derniers, le niveau d'éducation étant affecté par la quantité de temps et d'autres ressources que les parents consacrent à leurs enfants. Les investissements dans le capital humain des enfants peuvent être déterminés par une fonction de revenus et de prix. Lorsque les salaires augmentent, les parents augmentent leurs investissements dans le capital humain et réduisent le nombre d'enfants. Becker utilise cette théorie pour expliquer, par exemple, le déclin historique de la fécondité dans les pays industrialisés, ainsi que les variations de fécondité entre les différents pays et entre les zones urbaines et rurales. En particulier, la politique familiale en Suède, à laquelle Becker se réfère souvent, suggère le bien-fondé de l'approche économique dans l'analyse de ces questions.

Crime et châtiment

Le troisième domaine où Gary Becker a appliqué la théorie du comportement rationnel et du capital humain est le "crime et châtiment". Un criminel, à l'exception d'un nombre limité de psychopathes, est supposé réagir à différents stimuli de manière prévisible ("rationnelle"), à la fois en ce qui concerne les rendements et les coûts, comme dans la forme du châtiment attendu. Au lieu de considérer l'activité criminelle comme un comportement irrationnel associé au statut spécifique psychologique et social d'un délinquant, la criminalité est analysée comme un comportement rationnel en situation d'incertitude. Ces idées sont exposées, par exemple, dans l'essai de Becker "Crime and Punishment: An Economic Approach" publié en 1968 et dans les Essays in the Economics of Crime and Punishment publiés en 1974.

Les études empiriques liées à cette approche indiquent que le type de crime commis par un certain groupe d'individus peut s'expliquer dans une large mesure par le capital humain (et donc, l'éducation) d'un individu. Ces études empiriques ont également montré que la probabilité de se faire prendre a un effet plus dissuasif sur la criminalité que la durée de la peine.

La discrimination économique

Un autre exemple d'application non conventionnelle de la théorie de comportement rationnel, optimisateur de Becker est son analyse de la discrimination sur la base de la race, le sexe, etc. Ce fut la première contribution de la recherche significative de Becker, publiée dans son livre intitulé The Economics of Discrimination en 1957. La discrimination est définie comme une situation où un agent économique est prêt à engager des frais afin de s'abstenir d'une opération économique ou de conclure un contrat économique avec quelqu'un qui se caractérise par des traits autres que les siens propres en termes de race ou de sexe. Becker démontre que ce type de comportement, en termes purement analytiques, agit comme un "coin fiscal" entre les taux de rendements sociaux et privés. L'explication est que l'agent discriminant se comporte comme si le prix du bien ou du service acheté auprès de l'agent discriminé était plus élevé que le prix effectivement payé et le prix de vente offert à l’agent discriminé était inférieur au prix effectivement obtenu. La discrimination tend donc à être économiquement préjudiciable non seulement à ceux qui sont victimes de discrimination, mais aussi à ceux qui pratiquent la discrimination.

L'influence de Becker

L'analyse de Gary Becker a souvent été controversée et donc, au départ, accueillie avec scepticisme et même avec méfiance. Malgré cela, il ne s’est pas découragé, mais a persévéré dans ses recherches, pour voir ses idées et ses méthodes de plus en plus acceptées par les économistes.

Becker a également eu une influence non négligeable dans d'autres sciences sociales. Divers aspects de la démographie constituent un exemple, en particulier en ce qui concerne la fécondité, les efforts menés par les parents dans l'éducation et le développement de leurs enfants, aussi bien que l’héritage. D'autres exemples sont la recherche sur la discrimination sur le marché du travail, le crime et le châtiment. Mais Becker a également eu un impact indirect sur les approches scientifiques en sciences sociales autres que l'économie ; plus fréquemment que par le passé, les sociologues et les politologues travaillent avec des modèles basés sur les théories de "choix rationnel". »

Académie royale des sciences de Suède, communiqué de presse, 13 octobre 1992. Traduit par Martin Anota

dimanche 20 octobre 2013

Fama, Hansen et Shiller, prix Nobel 2013

Fama__Hansen__Shiller.jpg

« Le prix de la Banque royale de Suède en sciences économiques en mémoire d'Alfred Nobel, que nous appelons plus communément le "prix Nobel d'économie", a été décerné en 2013 à Eugene Fama, Lars Peter Hansen et Robert Shiller. Chacun d'eux a fait un travail académique de haut niveau. Mais au moins, pour moi, il est difficile de décrire le prix de cette année d'une façon synthétique en dégageant un thème unifié.

Le comité du prix Nobel a dit que le prix leur a été décerné "pour leur analyse empirique des prix d’actifs", mais il précise également (…) que "nous ne comprenons pas encore complètement comment les prix des actifs sont déterminés". Fama est souvent perçu comme un partisan de l'école des "marchés efficients" en finance qui affirme que les prix d’actifs et les variations des prix d’actifs peuvent être expliqués par des facteurs économiques structurels. De son côté, Shiller a publié un livre en 2000 dans lequel il parle d’"exubérance irrationnelle" et il apparaît comme quelqu'un qui croit que les phénomènes sur les marchés financiers relèvent de facteurs irrationnels ou "comportementaux". Enfin, Hansen a développé un outil statistique très puissant appelé la "méthode des moments généralisée" qui est devenu un standard dans l'analyse des données relatives aux marchés d’actifs. Alors oui, les trois gagnants ont réalisé "une analyse empirique des prix d’actifs", mais ils semblent aller et venir dans des directions bien différentes. (...)

Plutôt que de tenter un récit cohérent des travaux derrière ce prix Nobel, je vais juste donner une idée des travaux que Fama, Hansen et Shiller ont réalisés dans l'analyse empirique des prix d’actifs : leurs principales conclusions, les innovations qu’ils ont introduites en termes de méthodologie, les nouvelles données qu’ils ont constituées et les implications pratiques de leurs travaux. Je m'appuie sur les matériaux bien utiles que le comité Nobel a publiés sur son site Internet (…).

SCHEMA 1

Fama__Hansen__Shiller__prix_Nobel__2013__Martin_Anota__3.png

Les trouvailles

L’un des thèmes est que les mouvements des prix sur les marchés d’actifs, comme les cours des actions, ne sont pas prévisibles à court terme, mais sont un peu prévisibles à long terme. Cela peut sembler contradictoire mais, en fait, les deux points sont étroitement liés. Par exemple, les fortes fluctuations à court terme (cf. la ligne continue sur le schéma 2) peuvent conduire les actifs à être par moments nettement surévalués ou sous-évalués par rapport aux références à long terme (cf. la ligne discontinue). À court terme, ce niveau élevé de volatilité n'est pas prévisible, mais lorsque les prix des actifs sont éloignés de cette référence, ils ont alors tendance à se corriger. Fama a réalisé un nombre considérable de travaux empiriques à partir des années soixante qui ont conclu que les prix d’actifs ne sont pas prévisibles à court terme. Dans les travaux qu’il a réalisés à partir des années quatre-vingt, Shiller a souligné que les mouvements à court terme des prix des actifs ont souvent été si grands que certains rebonds à un certain moment dans le long terme deviennent prévisibles. Bien sûr, le moment exact où ce rebond de long terme aura lieu n'est pas clair. On retrouve un adage des investisseurs souvent attribué à Keynes : "Souvenez-nous que le marché peut rester irrationnel plus longtemps que vous ne pouvez rester solvable".

SCHEMA 2 Exemple de cours boursier et de sa tendance à long terme

Fama__Hansen__Shiller__prix_Nobel__2013__Martin_Anota__2.png

Les méthodes

Fama est un pionnier dans ce qu'on appelle la méthode d’"étude d’événements" : en gros, il s’agit de regarder le prix d'un actif avant et après que se produise un certain événement, comme pare exemple une prise de contrôle, le versement des dividendes ou la publication d'informations qui affecteront les profits (cf. schéma 3). Les études d'événements aident à montrer si un événement est prévu (est-ce que le prix varie avant l'événement ?), quelle est la valeur économique de l'événement (indiquée par le changement de prix) et si l’événement a eu un effet permanent ou temporaire (est-ce que le prix bondit lors de l'événement pour ensuite revenir au niveau précédent ?). Les études d'événements sont désormais parties intégrantes de la boîte à outils des économistes empiriques.

SCHEMA 3 Exemple de réaction d'un cours boursier à l'annonce des résultats de l'entreprise

Fama__Hansen__Shiller__prix_Nobel__2013__Martin_Anota__4.png

Hanson a fait l’usage d'une méthode statistique appelée la méthode des moments généralisée. Je ne vais pas chercher à l'expliquer ici, en partie parce que je suis sûr d’échouer à le faire, mais en voici un aperçu. Un "moment" fait référence aux moyens de caractériser un ensemble de données. Par exemple, si vous essayez de décrire un ensemble de données, une première étape pourrait consister à prendre la moyenne, soit d'additionner les données et d’en diviser la somme par la quantité de données. Une deuxième étape pourrait être de voir comment les données sont étalées, chose que les statisticiens mesurent avec la "variance". Une troisième étape pourrait être de voir si la distribution des données est symétrique autour de la moyenne ou tend plutôt à se concentrer d’un côté, c’est-à-dire s’il y a "asymétrie" (skewness). Une autre étape pourrait être d’examiner si la distribution des données a beaucoup de valeurs extrêmes éloignées de la moyenne, ce qui correspond à l’"aplatissement" (kurtosis) pour les statisticiens. Chacune de ces étapes et d'autres encore plus complexes est appelée "moment" statistique. Dans ce cadre, vous pouvez formuler une théorie de ce qui pousse les prix des marchés d’actifs à changer ou varier, puis en utilisant tous les moments statistiques, vous pouvez comparer la structure actuelle des prix du marché d’actifs avec ce que prédit la théorie. Ainsi, cette approche fournit un puissant outil statistique pour regarder les explications théoriques des prix d’actifs et les comparer aux données.

Les données

Fama a été l'un des premiers à utiliser les données CRSP, (…) qui ont commencé à être accumulée au début des années soixante par le Center for Research in Security Prices de l'Université de Chicago et qui renseignent sur un très large éventail de prix et de rendements des titres. Dans les années quatre-vingt, Shiller a construit avec Karl Case le premier indice de haute qualité des prix des logements. L'indice a été non seulement utile pour observer le marché du logement, mais il a été utilisé dans les contrats financiers (…) à des fins de couverture contre les chutes des prix de l'immobilier.

Les implications

Les mouvements des prix d’actifs affectent énormément les ménages, les entreprises, le secteur financier et la macroéconomie dans son ensemble. Les trouvailles empiriques qui ont été réalisées dans ce domaine se traduisent donc souvent par de nouvelles pratiques dans le monde réel. Par exemple, le constat selon lequel les cours boursiers ne sont pas vraiment prévisibles à court terme a contribué en partie à l'énorme croissance des fonds indiciels au cours des dernières décennies. Le constat selon lequel les gens ne sont pas tout à fait rationnels dans leur façon de penser les prix des actifs et qu’ils ne sont souvent pas bien diversifiés contre les risques tels que le chômage ou la baisse des prix immobiliers a conduit à l'invention d'un large éventail d'instruments financiers, ainsi qu’à des politiques publiques visant à encourager l'épargne. La crise financière américaine et la Grande Récession au cours des dernières années ont conduit à de nombreuses propositions politiques, qui sont toutes au moins implicitement basées sur une théorie de la fixation des prix d’actifs. »

Timothy Taylor, « The 2013 Nobel prize to Fama, Hanson, and Shiller », in Conversable Economist (blog), 15 octobre 2013. Traduit par M.A.


aller plus loin... lire « L’hypothèse des marchés inefficients »

jeudi 18 octobre 2012

Les lauréats du prix Nobel d'économie en 2012

Nobel.jpg

En attendant l'édition actualisée de l'ouvrage de Jean-Edouard Colliard et Emmeline Travers, je propose ici une traduction d’un billet de Timothy Taylor (« The 2012 Nobel Prize to Shapley and Roth ») où ce dernier revient sur les travaux des deux derniers « nobélisés » en économie. Je le remercie à nouveau de m’accorder l’opportunité de le traduire.

L’annonce officielle se lit ainsi : « Le prix de la Banque de Suède en sciences économique à la mémoire d’Alfred Nobel de l’année 2012 fut conjointement attribué à Alvin E. Roth et Lloyd Shapley pour la théorie des allocations stables et la pratique de la conception du marché (market design) ». Donc, le prix cherche à souligner l’interaction entre la théorie économique mathématisée et les applications concrètes. Chaque année lorsque le prix Nobel est attribué, le Comité du Prix met à disposition une documentation utile pour expliquer leur choix : son article pour l’« information du public » est disponible ici et son article revenant sur « le contenu scientifique » est disponible. Je vais par la suite me baser sur les deux.

Dans cette dualité entre théorie et application, Lloyd Shapley est présenté comme le théoricien. En effet, dans une entrevue avec l’Associated Press ce lundi, il dit : « Je me considère moi-même comme un mathématicien et la récompense est destinée à l’économie. Je n’ai jamais, jamais de ma vie, pris un cours en économie ». Mais bien sûr, les économistes voient leur champ comme suffisamment vaste pour y inclure au moins quelques mathématiciens – et en particulier ceux qui étudient la théorie des jeux, comme le Prix Nobel attribué en 1998 à John Nash et à d’autres.

shapley.jpg

Shapley et son co-auteur David Gale publièrent un célèbre article en 1962 dans la revue American Mathematical Monthly appelé « College Admissions and the Stability of Marriage » (vol. 69, n° 1, pp. 9-15). (…) Ils y prennent comme exemple l’admission au collège (…). Il y a un certain nombre de collèges et un certain nombre de candidats. Les collèges ont des préférences pour les étudiants qu’ils voudraient admettre, tandis que les candidats ont des préférences pour les collèges où ils aimeraient aller. Comment peuvent-ils être appariés d’une manière qui « satisfasse » les deux côtés ? Avant d’aller plus loin, notons que ce problème d’une multiplicité d’agents des deux côtés (et la difficulté à les apparier de manière à « satisfaire » toutes les parties) est une caractéristique des marchés matrimoniaux (bien que dans ce cas, chacun ne cherche qu’un seul partenaire), mais également du marché du travail avec les employeurs et leurs (potentiels) salariés.

(…) Il est évidemment impossible de “satisfaire” toutes les parties dans le sens où chacun obtiendrait son premier choix. Le collège ne peut être certain que tous ses candidats préférés désirent venir dans son établissement ; tous les candidats ne vont probablement pas obtenir leur premier choix. Donc, Gale et Shapley cherchèrent plutôt à trouver une solution qui soit « stable ». Cela signifie dans l’exemple des admissions au collège que, une fois que chacun est apparié, il n’y a pas de combinaison étudiant-collège pour laquelle l’étudiant voudrait plutôt aller dans un autre collège ET où le collège préfèrerait aussi avoir cet élève à la place de l’un des candidats qu’il a déjà sélectionnés. En d’autres termes, ni les étudiants, ni les collèges ne vont chercher à contourner un mécanisme stable. Gale et Shapley proposèrent une procédure d’« acceptation différée » (deferred acceptance) pour obtenir un résultat stable à leur problème d’appariement. Voici comment le comité Nobel décrit le processus :

« Les agents d’un côté du marché, disons les services médicaux, font des offres aux agents de l’autre côté du marché, les étudiants en médecine. Chaque étudiant passe en revue les propositions qu’il reçoit, garde celle qu’il préfère (en supposant qu’elle soit acceptable) et rejette les autres. Un aspect crucial de cet algorithme est que les offres désirables ne sont pas immédiatement acceptées, mais simplement mises de côté : il s’agit de l’acceptation différée. Tout service de soin dont l’offre est rejetée peut faire une nouvelle offre à un autre étudiant. La procédure continue jusqu’au moment où il n’y a plus de service médical qui veuille faire une nouvelle offre ; c’est à cet instant-là que les étudiants acceptent définitivement les propositions qu’ils avaient mis de côté.

Au cours de ce processus, chaque service hospitalier commence en faisant sa première offre au candidat au sommet de son classement, c’est-à-dire à l’étudiant de médecine qu’il aimerait le plus avoir comme interne. Si l’offre est rejetée, il fait ensuite une offre au candidat qu’il classe comme numéro deux, etc. Donc, au fur et à mesure de l’opération de l’algorithme, les attentes du service médial sont révisées à la baisse comme celui-ci fait des offres à des candidats toujours plus bas dans ses préférences. (Bien sûr, aucune offre n’ait faite aux candidats inacceptables.) Inversement, puisque les étudiants gardent toujours l’offre la plus désirable qu’ils ont reçue et que les offres ne peuvent être retirées, la satisfaction de chaque étudiant est une fonction croissante et monotone durant l’opération de l’algorithme. Quand les attentes revues à la baisse des services de santé sont devenus cohérentes avec les plus grandes aspirations des étudiants, l’algorithme s’arrête. »

Voici comment la procédure marcherait sur le marché matrimonial:

« L’algorithme de Gale-Shapley peut être exécuté de deux manières différentes : soit les hommes font des propositions aux femmes, soit ce sont les femmes qui font des propositions aux hommes. Dans ce dernier cas, le processus commence avec chaque femme demandant en mariage l’homme qu’elle désire le plus. Chaque homme regarde alors les différentes propositions qu’il a reçues, retient ce qu’il considère comme la plus intéressante d'entre elles (mais il ne l’accepte pas encore) et rejette les autres. Les femmes qui furent rejetées au premier tour font alors une proposition à leur deuxième meilleur choix, tandis que les hommes gardent encore leur meilleure offre et rejettent les autres. Cela continue jusqu’à ce que plus aucune femme ne veuille faire de nouvelles propositions. Comme chaque homme accepte alors la proposition qu’il a gardée, le processus s’arrête. »

Gale et Shapley prouvent que cette procédure aboutit à une solution « stable ». Encore une fois, ceci ne signifie pas que chacun obtient son premier choix ! Cela signifie que lorsque ce résultat est atteint, il n’y a pas de combinaison d’école médicale et de candidat (ou bien d’homme et de femme dans l’exemple du mariage) où l’un et l’autre préfèreraient un autre appariement. Mais Gale et Shapley sont allés plus loin. Il s’avère qu’il y a souvent plusieurs combinaisons stables et, lorsque l’on compare ces solutions stables, l’identité de celui qui effectue le choix importe. Si les femmes font des propositions aux hommes, elles vont voir la solution finale comme la meilleure de toutes les possibilités d’appariement, tandis que les hommes verront celle-ci comme la pire ; si les hommes font au contraire des propositions aux femmes, ils vont voir cette solution comme la meilleure de toutes les possibilités d’appariement stables, tandis que les femmes la verront au contraire comme la pire. Comme le comité Nobel l’écrit, « des institutions stables peuvent être conçues pour favoriser systématiquement un côté du marché ».

Il existe plusieurs autres améliorations et dénouements possibles. Que faire s’il y des paiements monétaires en jeu ? Que faire si les participants au marché s’échangent des objets invisibles ? Ces questions et de nombreuses autres ont occupé toute une génération de théoriciens des jeux. (…) Bien que j’aie présenté la procédure d’acceptation différée comme un processus séquentiel où les parties font une offre à la fois, un processus équivalent peut être géré par une chambre de compensation si les parties révèlent suffisamment d’informations.

((/public/.roth_3_m.jpg

Et c’est là qu’Alvin Roth entre en scène, en rapportant des implications pratiques détaillées pour l’analyse. Il fit remarquer dans un article de 1984 que le National Resident Matching Program destiné à apparier les internats et les étudiants de l’école de médecine fut effectivement un proche cousin de la procédure Gale-Shapley. L’analyse théorique de Roth mit en évidence que la forme de l’appariement qu’ils utilisèrent permit aux écoles médicales, plutôt qu’aux étudiants, d’être les « proposants », et donc générèrent des résultats que les écoles de médecine virent comme la meilleure des options stables, alors que les étudiants les virent comme la pire des options stables. Il modifia le cadre d’appariement de manière à laisser les étudiants être les proposants, mais aussi pour prendre en compte le fait que des couples mariés ou engagés ont voulu dans de nombreux cas aller à la même école ou dans le même lieu géographique.

Roth trouva ensuite d’autres applications pour ce qu’il appela l’approche de la « conception du marché” (market design approach). (C’est ironique, mais vrai, que l’approche de la conception du marché peut éventuellement inclure les prix, mais ne nécessite finalement pas les prix pour fonctionner.) Les problèmes clés dans ces scénarios d’appariement impliquent souvent une contrainte temporelle. Il y a souvent une pression sur différentes parties (que ce soit dans le cas du mariage ou des admissions au collège) à s’engager plus tôt, ce qui peut mener à des situations où la solution sera défaite comme les gens cherchent un moyen de sortir de leurs engagements prématurés. De l’autre côté, si le processus s’accomplit trop tardivement, la « congestion » peut survenir quand une offre est rejetée et il est alors trop tard pour formuler d’autres offres.

Roth trouva des applications de l’approche de l’appariement de Shapley dans une large variété de cadres universitaires d’appariement, à la fois aux Etats-Unis et dans d’autres pays. Il appliqua aussi un processus similaire aux étudiants choisissant entre différentes écoles publiques à New York et à Boston. Plus récemment, il a cherché à appliquer ces intuitions au problème de l’appariement entre les donneurs de reins et ceux nécessitant une transplantation de rein. (Pour être juste, il faut souligner que Roth a écrit de nombreux articles théoriques également solides, mais le comité Nobel a surtout mis en avant ses préoccupations d’ordre pratique et je suis ici leur exemple). Comme on peut s’y attendre, ces situations du monde réel soulèvent divers problèmes pratiques. Vaut-il mieux déjouer le système en ne révélant pas son premier choix, que l'on risque de ne probablement pas obtenir, et de prétendre être très enthousiaste pour son cinquième choix, que l'on aura plus de chances d’obtenir ? De telles questions sont quelquefois possibles dans une situation concrète, mais il s’avère plus difficile d’agir ainsi qu’on ne peut le penser. Habituellement, il vaut mieux simplement révéler ses véritables préférences et voir comment le mécanisme fonctionne. (...)

lire le billet original de Timothy Taylor