Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Tag - prix Nobel

Fil des billets

lundi 10 octobre 2022

Prix Nobel 2022 : Bernanke, Diamond et Dybvig ont montré le rôle central des banques dans les crises financières

Ben_Bernanke_Douglas_Diamond_Philip_Dybvig__prix_Nobel_d__economie_2022.png

« La Grande Dépression des années 1930 a paralysé les économies à travers le monde pendant plusieurs années et elle a eu de désastreuses conséquences sociétales. Cependant, nous avons réussi à mieux gérer les crises financières ultérieures grâce aux travaux des lauréats de cette année, Ben Bernanke, Douglas Diamond et Philip Dybvig. Ils ont démontré qu’il est important de prévenir les effondrements généralisés des banques...

Nous sommes tous liés d'une façon ou d'une autre aux banques. Nos revenus sont versés sur un compte bancaire et nous utilisons les moyens de paiement des banques, que ce soit les applications mobiles ou des cartes bancaires, quand nous faisons des achats dans un supermarché ou payons une note de restaurant. A certains moments de notre vie, beaucoup d’entre nous ont besoin d’emprunter auprès des banques, par exemple pour acheter une maison ou un appartement. C’est également le cas pour les entreprises : elles ont besoin de pouvoir faire régler leurs transactions et de financer leurs investissements. Dans la plupart des cas, ces services sont aussi fournis par une banque.

Nous considérons comme garanti que ces services fonctionnent comme ils le doivent, sauf par moments en raison de brefs problèmes techniques. Parfois, cependant, l’ensemble ou une partie du système bancaire dysfonctionne et une crise financière survient. Des banques s’effondrent, il devient plus cher voire impossible d’emprunter, les prix plongent sur les marchés de l’immobilier ou d’autres actifs. Si cette progression n’est pas stoppée, l’économie entière peut entrer dans une spirale baissière avec la hausse du chômage et la multiplication des faillites de banques. Certains des plus grands effondrements économiques au cours de l’Histoire ont été des crises financières.

D’importantes questions à propos des banques

Si les difficultés des banques peuvent provoquer autant de dommages, pouvons-nous nous passer des banques ? Les banques ont-elles nécessairement à être aussi instables et, dans ce cas, pourquoi ? Comment la société peut-elle améliorer la stabilité du système bancaire ? Pourquoi les conséquences d’une crise bancaire durent-elles aussi longtemps ? Et, si les banques font faillite, pourquoi de nouvelles banques ne peuvent-elles pas immédiatement être mises en place de façon à ce que l’économie puisse rapidement être remise sur pieds ? Au début des années 1980, les lauréats de cette année, Ben Bernanke, Douglas Diamond et Philip Dybvig ont posé dans trois articles les fondements scientifiques pour la recherche moderne portant sur ces questions.

Diamond et Dybvig ont développé des modèles théoriques qui expliquent pourquoi les banques existent, comment leur rôle dans la société les rend vulnérables aux rumeurs à propos de leur éventuel effondrement et comment la société peut réduire cette vulnérabilité. Ces intuitions fondent la régulation bancaire moderne.

A travers l’analyse statistique et des recherches à partir de sources historiques, Bernanke a démontré que l’effondrement des banques a joué un rôle décisif dans la dépression mondiale des années 1930, la pire crise dans l’histoire moderne. L’effondrement du système bancaire explique pourquoi la contraction de l’activité a été aussi profonde et aussi durable qu'elle l'a été.

Les travaux de Bernanke montrent que les crises bancaires peuvent avoir des conséquences catastrophiques. Cette intuition illustre l’importance du bon fonctionnement de la régulation bancaire et fonde les décisions de politique économique prises durant la crise financière de 2008-2009. Lors de celle-ci, Bernanke était à la tête de la banque centrale américaine, la Réserve fédérale, et il a pu ainsi mettre à profit ce qu’il a appris de ses travaux pour décider au mieux de la politique économique. Plus tard, quand la pandémie a éclaté en 2020, des mesures significatives ont été prises pour éviter une crise financière mondiale. Les idées des lauréats ont joué un rôle important pour assurer que ces dernières crises ne se développent pas en nouvelles dépressions avec des conséquences dévastatrices pour la société.

Des crises bancaires à l'origine de la Grande Dépression

Le principal travail pour lequel Bernanke est aujourd’hui reconnu est un article publié en 1983, dans lequel il a analysé la Grande Dépression des années 1930. Entre janvier 1930 et mars 1933, la production industrielle américaine chuta de 46 % et le chômage grimpa à 25 %. La crise se répandit comme un incendie, entraînant une forte contraction économique dans l’essentiel du monde. En Grande-Bretagne, le chômage a atteint 25 % et en Australie 29 %. En Allemagne, la production industrielle a presque été divisée par deux et plus d’un tiers de la population active s’est retrouvée sans emploi. Au Chili, le revenu national chuta de 33 % entre 1929 et 1932. Partout, des banques s’effondrèrent, des gens furent poussés à quitter leur logement et la pauvreté se généralisa également dans les pays riches. A travers le monde, les économies ne commencèrent à connaître une reprise que vers le milieu de la décennie.

Avant que Bernanke ne publie son article, la croyance conventionnelle parmi les experts était que la dépression aurait pu être empêchée si la banque centrale américaine avait imprimé plus de billets. Bernanke partagea aussi l’opinion qu’un manque de monnaie avait probablement contribué à la contraction de l’activité, mais il ne croyait pas que ce mécanisme explique pourquoi la crise fut si profonde et si longue. Bernanke montra que sa principale cause était le déclin de la capacité du système bancaire à canaliser l’épargne vers les investissements productifs. En utilisant une combinaison de sources historiques et de méthodes statistiques, son analyse montra quels facteurs étaient importants derrière la chute du produit intérieur brut (PIB). Il conclut que les facteurs qui étaient directement liés à l’effondrement des banques contribuaient à la part du lion de la contraction de l’activité.

La dépression débuta avec une récession tout à fait normale en 1929, mais en 1930 celle-ci se transforma en une crise bancaire. Le nombre de banques chuta au cours des trois années suivantes, souvent en raison de ruées bancaires. Celles-ci surviennent quand les gens qui avaient déposé de l’argent dans leur banque s’inquiètent à propos de la survie de celle-ci et se ruent aux guichets pour retirer leur épargne. Si trop de personnes se comportent ainsi simultanément, les réserves de la banque ne pourront couvrir tous les retraits et elle sera forcée de réaliser une vente d’actifs en catastrophe, avec potentiellement d’importantes pertes. Finalement, cela peut conduire la banque à la faillite.

La crainte que les ruées bancaires se multiplient entraîna une chute des dépôts dans les autres banques et beaucoup de banques devinrent frileuses à l'idée d'accorder de nouveaux prêts. Les dépôts furent placés dans des actifs qui pouvaient être rapidement vendus si les déposants désiraient soudainement retirer leur argent. Ces problèmes avec l’obtention de nouveaux prêts bancaires compliquèrent le financement des investissements pour les entreprises et détériora la situation financière des fermiers et des ménages. Il en résulta la pire récession mondiale dans l’Histoire moderne.

Avant l’étude de Bernanke, l'idée généralement admise était que la crise bancaire était une conséquence du déclin de l’économie plutôt qu’une cause de celui-ci. Bernanke montra que les effondrements bancaires jouèrent un rôle décisif dans la transformation de la récession en une dépression profonde et prolongée. Une fois que la banque fait faillite, la relation que celle-ci entretient avec son emprunteur est rompue ; cette relation contient un savoir qui s’avère nécessaire à la banque pour qu’elle gère efficacement ses prêts. La banque connaît ses emprunteurs, elle a une information détaillée à propos de la façon par laquelle ils utilisent leur argent ou des exigences nécessaires pour que le prêt soit remboursé. Construire un tel stock d’informations prend un long moment et il ne peut pas être facilement transféré à d’autres prêteurs quand une banque fait faillite. Réparer un système bancaire dysfonctionnel peut en conséquence prendre plusieurs années, une période au cours de laquelle l’économie fonctionne mal. Bernanke a démontré que l’économie n’a pas commencé à rebondir tant que l’Etat n’avait pas adopté de puissantes mesures pour empêcher que de nouvelles paniques bancaires surviennent.

Pourquoi les banques sont-elles nécessaires ?

Pour comprendre pourquoi une crise bancaire peut avoir de telles conséquences désastreuses, nous devons savoir ce que les banques font vraiment : elles reçoivent de la monnaie de personnes faisant des dépôts et elles la canalisent à leurs emprunteurs. Cette intermédiation est loin d’être un simple transfert mécanique, parce qu’il y a des conflits fondamentaux entre les besoins des épargnants et ceux des emprunteurs. Quelqu’un qui reçoit un prêt pour financer l’achat d’un logement ou d’un investissement de long terme doit être assuré que le prêteur ne va pas soudainement lui demander de rendre son argent. D’un autre côté, un épargnant désire avoir la possibilité d'utiliser une partie de son épargne dans les plus brefs délais.

La société doit résoudre ces conflits. Si les entreprises ou les ménages peuvent être forcés à rembourser leurs prêts n’importe quand, les investissements de long terme deviennent impossibles. Cela aurait des conséquences dévastatrices. L’économie ne peut fonctionner sans un système financier qui crée assez de moyens de paiement facilement accessibles et sécurisés. (...)

Le modèle de Diamond et Dybvig

Douglas Diamond et Philip Dybvig ont montré que le problème que nous venons de décrire peut être résolu par des institutions qui sont construites exactement comme les banques. Dans un article de 1983, ils développent un modèle théorique qui explique comment les banques créent de la liquidité pour les épargnants tout en permettant aux emprunteurs d’accéder à des financements de long terme. Malgré le fait que ce modèle soit relativement simple, il capture le mécanisme central de l’activité bancaire : pourquoi il fonctionne, mais aussi pourquoi le système est de façon inhérente vulnérable et nécessite d’être réglementé.

Le modèle dans cet article se fonde sur l’idée que les ménages épargnent une certaine partie de leur revenu tout en ayant le besoin d’avoir la possibilité de retirer leur monnaie quand ils le veulent. Personne ne sait en avance si et quand le besoin de monnaie surviendra, mais il ne surviendra pas au même instant pour l’ensemble des ménages. En parallèle, il y a des projets d’investissement qui nécessitent un financement. Ces projets sont profitables à long terme, mais s’ils sont terminés hâtivement, les rendements vont être très faibles.

Dans une économie sans banques, les ménages doivent faire des investissements directs dans ces projets. Les ménages qui ont besoin de monnaie rapidement vont être forcés de mettre un terme rapidement à ces projets et ils vont en conséquence avoir de très faibles rendements, avec seulement un faible montant de monnaie disponible pour leur consommation. D’un autre côté, les ménages qui n’ont pas besoin d’achever les projets aussi tôt vont jouir de bons rendements et ainsi pouvoir consommer beaucoup. Dans une telle situation, les ménages vont demander une solution qui leur permette d’accéder instantanément à leur monnaie sans que cela ne réduise significativement leurs rendements. Si une telle solution peut être mise en place, ils seront enclins à accepter des rendements à long terme légèrement plus faibles.

Dans leur article, Diamond et Dybvig expliquent comment les banques apparaissent naturellement comme intermédiaires et fournissent cette solution. La banque offre des comptes où les ménages peuvent déposer leur monnaie. Elle prête ensuite la monnaie à des projets de long terme. Les déposants peuvent retirer leur monnaie quand ils le veulent, sans perdre autant que s’ils avaient fait un investissement direct et mis un terme précocement au projet. Ces hauts rendements sont financés par des ménages qui épargnent pour un horizon plus éloigné, perdant un certain rendement à long terme relativement à ce qu’ils auraient gagné s’ils avaient fait un investissement direct dans le projet.

Les banques créent de la monnaie

Diamond et Dybvig montrent que ce processus est celui par lequel les banques créent de la liquidité. La monnaie sur les comptes des déposants est un passif pour la banque, tandis que les actifs de la banque comprennent des prêts à des projets de long terme. Les actifs de la banque ont une longue maturité, parce qu’elle promet aux emprunteurs qu’ils n’auront pas à rembourser rapidement leurs prêts. D’un autre côté, les passifs de la banque ont une courte maturité : les déposants peuvent accéder à leur monnaie quand ils le veulent. La banque est un intermédiaire qui transforme des actifs avec une longue maturité en des comptes bancaires avec une courte maturité. C’est ce que l’on appelle la transformation de maturité.

Les épargnants peuvent utiliser leurs comptes de dépôt pour des paiements directs. La banque a donc créé de la monnaie à partir, non pas de rien, mais des projets de long terme auxquels elle a prêté de la monnaie. Les banques sont parfois critiquées pour leur création de monnaie, mais c’est précisément pour cela qu’elles existent.

Vulnérables aux rumeurs

Il est facile de voir que la transformation de maturité est utile pour la société, mais les lauréats démontrent aussi que le modèle d’affaires des banques est vulnérable. Une rumeur peut se répandre en suggérant que davantage d’épargnants désirent retirer leur monnaie, mais que la banque ne peut satisfaire toute la demande. Qu’elle soit fondée ou non, cette rumeur peut inciter les déposants à se ruer à leur banque pour retirer leur monnaie dans la crainte que celle-ci ne fasse faillite. Une ruée bancaire s’ensuit. Pour payer tous ses déposants, la banque est forcée de faire rembourser en avance ses prêts en cours, ce qui amène les projets d’investissement à long terme à être terminés précocement et entraîne des ventes d’actifs en catastrophe. Les pertes qui en résultent peuvent amener la banque à faire faillite. Le mécanisme que Bernanke a montré comme étant l’amorce de la dépression des années 1930 est donc une conséquence directe de la vulnérabilité inhérente des banques.

Diamond et Dybvig présentent aussi une solution au problème de la vulnérabilité des banques, sous la forme d’une assurance-dépôt par le gouvernement. Quand les déposants savent que l’Etat a garanti leur monnaie, ils n’ont plus besoin de se ruer à la banque dès qu’une rumeur de détresse bancaire se propage. Cela stoppe une ruée bancaire avant même qu’elle ne débute. L’existence d’une assurance-dépôt fait qu’elle n’a en théorie jamais à être utilisée. Cela explique pourquoi la plupart des pays ont maintenant adopté un tel dispositif. (…)

Au fondement de la réglementation bancaire moderne

Les travaux pour lesquels Bernanke, Dybvig et Diamond ont été récompensés ont été cruciaux pour la recherche ultérieur qui a amélioré notre compréhension des banques, de la réglementation bancaire, des crises bancaires et de la façon par laquelle ces dernières doivent être gérée. Les intuitions théoriques de Diamond et Dybvig à propos de l’importance des banques et de leur inhérente vulnérabilité fournissent les fondations pour la réglementation bancaire moderne, qui vise à créer un système financier stable. Avec les analyses des crises financières réalisées par Bernanke, nous comprenons mieux pourquoi la réglementation échoue parfois, l’énorme ampleur des conséquences et ce que les pays peuvent faire pour stopper une crise bancaire lorsqu’elle éclate, comme au début de la récente pandémie.

De nouveaux intermédiaires financiers qui, comme les banques, gagnent de la monnaie de la transformation de maturité ont émergé en-dehors du secteur bancaire réglementé au début des années 2000. Des ruées touchant ce système bancaire parallèle (shadow banks) ont joué un rôle clé dans la crise financière de 2008-2009. Les théories de Diamond et Dybvig fonctionnent également bien pour analyser de tels événements même si, en pratique, la réglementation ne peut pas toujours suivre la nature changeante du système financier.

La recherche ne peut pas fournir des réponses définitives sur la façon de réglementer le système financier. L’assurance-dépôt ne fonctionne pas toujours comme on s’y attend : elle peut inciter les banques à s’engager dans une spéculation risquée dont les contribuables ont à payer la facture quand elle tourne mal. La nécessité de sauver le système bancaire durant les crises peut aussi entraîner des profits inacceptables pour les propriétaires et salariés des banques. D’autres types de règles à propos du capital bancaire et des règles qui limitent le montant d’emprunt dans l’économie peuvent donc s’avérer nécessaires. Les avantages et inconvénients de telles règles doivent être analysés et la façon par laquelle elles fonctionnent peut changer au cours du temps.

Comment réglementer les marchés financiers pour qu’ils assurent correctement leur fonction (canaliser l’épargne vers les investissements productifs sans provoquer régulièrement des crises) est une question à laquelle planchent encore les chercheurs et les politiciens. Les travaux qui ont été récompensés cette année et ceux qui se sont appuyés sur eux ont permis à ce que la société soit mieux équipée pour répondre à ce défi. Ils réduisent le risque que les crises financières se développent en longues dépressions avec de sévères répercussions sur la société, ce qui est d’un grand bénéfique pour nous tous. »

L'Académie royale des sciences de Suède, « The laureates explained the central role of banks in financial crises. Popular science background », 10 octobre 2022. Traduit par Martin Anota



aller plus loin...

« Les contributions de Bernanke à la science économique »

« Les répercussions réelles des ruées bancaires »

« Les modèles ne saisissent toujours pas ce qu’est une banque »

lundi 12 octobre 2020

Paul Milgrom et Robert Wilson, des Nobel en quête de l’enchère parfaite

Paul_Milgrom_Robert_Wilson_prix_Nobel_2020.png

« Chaque jour, les enchères allouent des valeurs astronomiques entre acheteurs et vendeurs. Les lauréats de cette année, Paul Milgrom et Robert Wilson, ont amélioré la théorie des enchères et inventé de nouveaux formats d’enchères, au bénéfice des vendeurs, des acheteurs et des contribuables à travers le monde.

Les enchères ont une longue histoire. Dans la Rome antique, les prêteurs utilisaient les enchères pour vendre les actifs qu’ils avaient confisqués des emprunteurs qui s’étaient révélés incapables de rembourser leur dette. La plus vieille maison d’enchères au monde, la Stockholms Auktionsverk, a été fondée en 1674, également avec l’objectif de vendre des actifs confisqués.

Aujourd’hui, quand nous entendons le mot "enchère", nous pensons peut-être à des enchères agricoles traditionnelles ou à des ventes d’œuvres d’art, mais il peut aussi s’agir de vendre quelque chose sur internet ou d'acheter un logement via un agent immobilier. Les résultats des enchères sont aussi très importants pour nous, en tant que contribuables et de citoyens. (…) Les prix de l’électricité, qui sont quotidiennement déterminés par les enchères régionales d’électricité, influencent le coût du chauffage de nos logements. La couverture de notre téléphone portable dépend des fréquences radio que les opérateurs téléphoniques ont acquises via des enchères de fréquences. Tous les pays contractent désormais des prêts en vendant des obligations publiques aux enchères. L’objectif de la mise aux enchères des quotas d’émissions par l’Union européenne est d’atténuer le réchauffement climatique.

Donc, les enchères nous affectent tous à différents niveaux. En outre, elles sont devenues de plus en plus fréquentes et de plus en plus compliquées. C’est là où les lauréats de cette année ont produit des contributions majeures. Ils n’ont pas simplement clarifié comment les enchères fonctionnent et pourquoi les enchérisseurs se comportent de telle ou telle façon, mais ils ont aussi utilisé leurs découvertes théoriques pour inventer des formats d’enchères entièrement nouveaux pour la vente de biens et services. Ces nouvelles enchères se sont largement diffusées à travers le monde.

La théorie des enchères


Pour comprendre les contributions des lauréats, nous devons en savoir un peu à propos de la théorie des enchères. Le résultat d'une enchère (…) dépend de trois facteurs. Le premier est les règles de l'enchère, ou format. Les offres sont-elles ouvertes ou fermées ? Combien d'offres les enchérisseurs peuvent-ils faire ? Quel prix paie le gagnant ? leur offre ou la deuxième offre la plus élevée ? Le deuxième facteur tient à l'objet mis aux enchères. A-t-il une valeur différente pour chaque enchérisseur ou valorisent-ils l'objet de la même façon ? Le troisième facteur concerne l'incertitude. Quelle information les différents enchérisseurs ont-ils à propos de la valeur de l'objet ?

En utilisant la théorie des enchères, il est possible d’expliquer comment ces trois facteurs gouvernent le comportement stratégique des enchérisseurs et donc le résultat de l’enchère. La théorie peut aussi montrent comment concevoir une enchère pour créer le plus de valeur possible. Les deux tâches sont particulièrement difficiles quand de multiples objets liés sont mis aux enchères en même temps. Les lauréats du prix en sciences économiques cette année ont rendu la théorie des enchères plus applicables en pratique via la création de formats d’enchères nouveaux, sur mesure.

Différents types d’enchères


Les maisons d’enchères autour du monde vendent habituellement des objets individuels en utilisant les enchères anglaises. Ici, le commissaire-priseur commence avec un prix bas et propose ensuite des prix de plus en plus élevés. Les participants peuvent voir toutes les offres et choisir s’ils veulent placer une offre plus élevée. Quel qu’il soit, celui qui propose l’offre la plus élevée gagne l’enchère et paye le prix de son offre. Mais d’autres enchères ont des règles complètement différentes ; une enchère hollandaise commence avec un prix élevé, qui est ensuite peu à peu réduit jusqu’à ce que l’objet soit vendu.

Les enchères anglaises et hollandaises ont des offres ouvertes, donc tous les participants voient les offres. Dans d’autres types d’enchères, cependant, les offres sont fermées. Dans les marchés publics, par exemple, les enchérisseurs proposent souvent des offres scellées et l'autorité publique choisit le fournisseur qui s’engage à assurer le service au prix le plus faible, tout en respectant les exigences de qualité spécifiques. Dans certaines enchères, le prix final est l’offre la plus élevée (enchères au premier prix), mais dans d’autres formats le gagnant paye la deuxième offre la plus élevée (enchères au deuxième prix).

Quel format d’enchères est le meilleur ? Cela ne dépend pas seulement de son résultat, mais aussi de ce que nous entendons par "meilleur". Les vendeurs privés espèrent surtout obtenir le prix le plus élevé. Les vendeurs publics ont des objectifs plus larges, de façon à ce que les biens soient vendus par l’enchérisseur qui délivre le plus important bénéfice à long terme pour la société dans son ensemble. La quête de la meilleure enchère est un problème épineux qui travaille depuis longtemps les économistes.

La difficulté avec l’analyse des enchères est que la meilleure stratégie d’un enchérisseur dépend de ses croyances quant aux offres des autres participants. Est-ce que certains enchérisseurs croient que l’objet vaut davantage que ne le pensent d’autres ? Est-ce que ces différences de valorisation reflètent le fait que certains enchérisseurs ont une meilleure information à propos des caractéristiques et de la valeur des biens ? Les enchérisseurs peuvent-ils coopérer et manipuler l’enchère afin de maintenir le prix final à un faible niveau ?

Les valeurs privées


Le lauréat en sciences économiques de 1996, William Vickrey, a fondé la théorie des enchères au début des années 1960. Il a analysé un cas spécial, dans lequel les enchérisseurs ont seulement des valeurs privées pour le bien ou service mis aux enchères. Cela signifie que les valeurs des enchérisseurs sont entièrement indépendantes l’une de l’autre. Par exemple, cela peut être une enchère de bienfaisance pour un dîner avec une célébrité (disons un lauréat du Nobel). Le montant que vous seriez prêt à payer est subjectif : votre propre valorisation n’est pas affectée par la valorisation du dîner qu’en ont les autres enchérisseurs. Donc comment devriez-vous enchérir dans un tel type d’enchère ? Vous ne devez pas enchérir plus que la valeur que le dîner a à vos yeux. Mais devez-vous enchérir moins, pour peut-être obtenir le dîner à un prix inférieur ? Vickrey a montré que les meilleurs formats d’enchères connus (comme les enchères anglaises et hollandaises) donnent le même revenu attendu pour le vendeur, à condition que tous les enchérisseurs soient rationnels et neutres au risque.

Les valeurs communes


Les valeurs entièrement privées constituent un cas extrême. La plupart des objets d’enchères (comme les titres, les droits de propriété et d’extraction) ont une considérable valeur commune, ce qui signifie qu’une partie de la valeur est égale à tous les enchérisseurs potentiels. En pratique, les enchérisseurs ont aussi différents montants d’information privée à propos des propriétés de l’objet.

Prenons un exemple concret. Imaginons que vous soyez un diamantaire et que vous, tout comme les autres diamantaires, considériez une offre sur un diamant brut, donc que vous pourriez produire des diamants taillés et les vendre. Votre consentement à payer dépend seulement de la valeur de revente des diamants taillés qui, elle-même, dépend de leur nombre et de leur qualité. Les différents diamantaires ont différentes opinions à propos de cette valeur commune, en fonction de leur expertise, de leur expérience et du temps qu’ils ont eu pour examiner le diamant. Vous pourriez mieux estimer la valeur si vous aviez accès aux estimations des autres diamantaires, mais chaque diamantaire préfère garder ses informations secrètes.

Les enchérisseurs dans les enchères avec valeurs communes courent le risque que les autres enchérisseurs aient de meilleures informations à propos de la vraie valeur. Cela mène au phénomène bien connu des offres basses en enchères réelles, connu sous le nom de malédiction du vainqueur. Imaginons que vous gagniez l’enchère du diamant brut. Cela signifie que les autres enchérisseurs valorisent moins le diamant que vous ne le valorisez, si bien que vous avez très certainement réalisé une perte lors de la transaction.

Paul_Milgrom_Robert_Wilson_encheres_malediction_du_vainqueur_Nobel.png

Robert Wilson a été le premier à créer un cadre pour analyser les enchères avec valeurs communes et à décrire comment les enchérisseurs se comportent en de telles circonstances. Dans trois articles classiques publiés lors des années 1960 et 1970, il décrit la stratégie d’enchère optimale pour une enchère au premier prix quand la vraie valeur est incertaine. Les participants vont proposer des offres plus faibles que leur meilleure estimation de la valeur, pour éviter de faire une mauvaise affaire et donc être touché par la malédiction du vainqueur. Son analyse montre aussi qu’avec une plus grande incertitude, les enchérisseurs vont être plus prudents et le prix final sera plus faible. Finalement, Wilson montre que les problèmes provoqués par la malédiction du vainqueur sont même accrus quand certains enchérisseurs ont de meilleures informations que d’autres. Ceux qui ont un désavantage informationnel vont alors proposer des offres encore plus basses ou complètement s’abstenir de participer à l’enchère.

Les valeurs à la fois privées et communes


Dans la plupart des enchères, les enchérisseurs ont des valeurs à la fois privées et communes. Supposons que vous pensez enchérir dans une enchère pour un appartement ou une maison ; votre consentement à payer dépend alors de votre valeur privée (combien vous appréciez son état, son plan de sol et sa localisation) et de votre estimation de la valeur commune (combien vous pensez récupérer en vendant le logement dans le futur). Un fournisseur d’énergie qui enchérit sur le droit d’extraire du gaz naturel s’inquiète à propos de la taille du réservoir de gaz (une valeur commune) et du coût d’extraction du gaz (une valeur privée, comme le coût dépend de la technologie disponible à la société). Une banque qui enchérit pour des obligations publiques considère le futur taux d’intérêt de marché (une valeur commune) et le nombre de ses clients qui veulent acheter des obligations (une valeur privée). Analyser les offres dans des enchères avec des valeurs privées et communes se révèle être un problème encore plus épineux que les cas spéciaux analysés par Vickrey et Wilson. La personne qui a finalement résolu ce problème a été Paul Milgrom, dans une poignée d’articles publiés autour de 1980.

L’analyse de Milgrom (en partie avec Robert Weber) inclut de nouvelles intuitions importantes à propos des enchères. L’une de ces inquiétudes est de savoir dans quelle mesure différents formats d’enchères permettent de traiter le problème de la malédiction du vainqueur. Dans une enchère anglaise, le commissaire-priseur commence avec un faible prix et le relève. Les enchérisseurs qui observent le prix auquel d’autres enchérisseurs quittent l’enchère obtiennent ainsi des informations à propos de leurs valorisations ; comme les enchérisseurs restants ont alors plus d’informations qu’au départ de l’enchère, ils sont moins enclins à enchérir sous leur valeur estimée. D’un autre côté, une enchère hollandaise, où le commissaire-priseur commence avec un prix élevé et le réduit jusqu’à ce que quelqu’un désire acheter l’objet, ne génère pas de nouvelles informations. Le problème avec la malédiction du vainqueur est donc plus grand dans les enchères hollandaises que dans les enchères anglaises, ce qui se traduit par de plus faibles prix finaux.

Ce résultat particulier reflète un principe général : un format d’enchère fournit plus de recettes si le lien entre les offres et l’information privée des enchérisseurs est renforcé. Par conséquent, le vendeur a un intérêt à fournir aux participants autant d’informations que possible à propos de la valeur de l’objet avant que les enchères commencent. Par exemple, le vendeur d’un logement peut anticiper un prix final plus élevé si les enchérisseurs ont accès à une estimation d’expert (indépendant) avant le début de l’enchère.

Les meilleures enchères en pratique


Milgrom et Wilson se sont non seulement dévoués à la théorie fondamentale des enchères. Ils ont aussi inventé de nouveaux meilleurs formats pour les situations complexes dans lesquelles les formations d’enchères existantes ne peuvent être utilisées. Leur contribution la plus connue est l’enchère qu’ils conçurent la première fois que les autorités américaines vendirent les fréquences radio aux opérateurs télécom.

Les fréquences radio qui permettent la communication sans fil (les appels mobiles, les paiements sur internet ou les vidéoconférences) sont des ressources limitées de grande valeur pour les consommateurs, les entreprises et la société. Ces fréquences sont possédées par le gouvernement, mais les acteurs privés peuvent souvent les utiliser plus efficacement. Les autorités ont donc souvent cherché à allouer l’accès de ces bandes de fréquences à ces acteurs. Ce fut initialement fait via un processus connu sous le nom de concours de beauté, dans lequel les sociétés ont à fournir des arguments justifiant pourquoi elles doivent recevoir une licence. Ce processus a amené les sociétés de télécommunications et de médias à dépenser de larges montants d’argent en lobbying. Les recettes générées par le processus furent cependant limitées.

Dans les années 1990, lorsque le marché de la téléphonie mobile se développait, les autorités responsables aux Etats-Unis, la Federal Communications Commission (FCC), prirent conscience que les concours de beauté n’étaient pas tenables. Le nombre de compagnies de mobiles s’est rapidement accru et la FCC s’est retrouvée submergée de demandes d’accès aux fréquences radio. Après avoir subi des pressions de la FCC, le Congrès américain permit l’usage de loteries pour allouer les bandes de fréquences. Le concours de beauté était donc remplacé par une allocation entièrement aléatoire de licences, qui ne générèrent pourtant qu’un revenu limité pour le gouvernement.

Cependant, les opérateurs mobiles n’étaient pas heureux. Les loteries étaient menées à un niveau local, donc les opérateurs mobiles nationaux n’obtenaient généralement que des réseaux discontinus avec différentes bandes de fréquences dans différentes régions. Les opérateurs essayèrent alors d’acheter et de vendre des fréquences entre eux, menant à l’émergence d’un large marché de l'occasion pour les licences. Entretemps, la dette nationale croissante des Etats-Unis rendit cela de plus en plus politiquement difficile de continuer de distribuer des licences presque gratuitement. La valeur de marché des licences s’élevait à plusieurs milliards de dollars, de l’argent qui finissait dans les mains de spéculateurs de fréquences à la place de bons du Trésor américain (une perte de recettes qui serait en définitive supportée par les contribuables). Finalement, en 1993, il fut décidé que les bandes de fréquences seraient distribuées en utilisant les enchères.

De nouveaux formats d’enchères


Maintenant, un nouveau problème se pose : comment concevoir une enchère qui atteigne l’allocation efficient des bandes de fréquences ratio, tout en bénéficiant un maximum aux contribuables ? Ce problème se révèle être très difficile à résoudre, puisqu’une bande de fréquence a à la fois des composantes de valeur privée et de valeur commune. En outre, la valeur d’une bande de fréquence spécifique dans une région spécifique dépend des autres bandes de fréquences détenues par un opérateur spécifique.

Considérons un opérateur qui cherche à construire un réseau mobile national. Disons qu’un régulateur suédois mette aux enchères des bandes de fréquence une par une, en commençant par la Laponie au nord pour ensuite s’enfoncer peu à peu vers le sud jusqu’à la province de la Scanie. A présent, la valeur de la licence de Laponie dépend de la possibilité pour l’opérateur de réussir à acheter des licences lors des enchères suivantes jusqu’à la Scanie et du prix de ces achats. L’opérateur ne connait pas le résultat des enchères futures, donc il est presque impossible de savoir combien il devra payer pour acquérir la licence. En outre, des spéculateurs peuvent essayer d’acheter la bande de fréquence exacte dont l’opérateur a besoin à la Scanie, afin de la lui vendre à un prix élevé sur le marché de l’occasion.

Cet exemple suédois illustre un problème général. Pour le contourner, la première enchère étasunienne devait allouer toutes les zones géographiques du sceptre radio en même temps. Elle devait aussi gérer de nombreux enchérisseurs. Pour surmonter ces problèmes, Milgrom et Wilson (en partie avec Preston McAfee), inventèrent un format d’enchères entièrement nouveau, l’enchère à plusieurs tours simultanés (simultaneous multiple round auction, SMRA). Cette enchère offre tous les objets (les bandes de fréquences radio dans différentes zones géographiques) simultanément. En commençant avec les prix les plus faibles et en laissant la possibilité d’offres répétées, l’enchère réduit les problèmes provoqués par l’incertitude et la malédiction du vainqueur. Quand la FCC utilisa pour la première fois une SMRA, en juillet 1994, elle vendit 10 licences dans 47 tours d’enchères pour un total de 617 millions de dollars, des objets que le gouvernement américain avait précédemment alloués quasiment gratuitement. La première enchère du spectre utilisant une SMRA a généralement été considérée comme un grand succès. Plusieurs pays (notamment la Finlande, l’Inde, le Canada, la Norvège, la Pologne, l’Espagne, le Royaume-Uni, la Suède et l’Allemagne) ont adopté le même format pour leurs enchères du spectre. Les enchères de la FCC, utilisant ce format, ont rapporté plus de 120 milliards de dollars entre 1994 et 2014 et, globalement, ce mécanisme a généré plus de 200 milliards de dollars des ventes du spectre. Le format SMRA a aussi été utilisé dans d’autres contextes, notamment pour les ventes d’électricité et de gaz naturel.

Les théoriciens des enchères (souvent en travaillant avec des informaticiens, des mathématiciens et des spécialistes du comportement) ont raffiné les nouveaux formats d’enchères. Ils les ont aussi adaptés pour réduire les opportunités de manipulation et de coopération entre enchérisseurs. Milgrom est l’un des architectes d’une enchère modifiée (la combinatorial clock auction) dans laquelle les opérateurs peuvent enchérir sur des « paquets » de fréquences, plutôt que sur des licences individuelles. Ce type d’enchères requiert une forte puissance de calcul, comme le nombre de paquets possibles augmente très rapidement avec le nombre de fréquences en vente. Milgrom est aussi un développeur de premier plan pour un nouveau format avec deux tours (l’incentive auction). Au premier tour, vous achetez les fréquences radio des détenteurs actuels de fréquences. Au second tour, vous vendez ces fréquences à d’autres acteurs qui peuvent les gérer plus efficacement. (…) »

Académie royale des sciences de Suède, « The quest for the perfect auction », Popular science background, 12 octobre 2020. Traduit par Martin Anota

lundi 14 octobre 2019

Prix Nobel 2019 : Banerjee, Duflo et Kremer cherchent à réduire la pauvreté dans le monde

Abhijit_Banerjee_Esther_Duflo_Michael_Kremer_Nobel.png

« Quelle est la meilleure façon de concevoir des mesures qui réduisent la pauvreté dans le monde ? En utilisant une recherche innovante basée sur des expériences de terrain (field experiments), Abhijit Banerjee, Esther Duflo et Michael Kremer ont jeté les bases pour répondre à cette question qui est si vitale pour l’humanité.

Au cours des deux dernières décennies, les niveaux de vie des populations se sont significativement améliorés presque partout dans le monde. Le bien-être économique (mesuré avec le PIB par tête) a doublé dans les pays les plus pauvres entre 1995 et 2018. La mortalité infantile a diminué de moitié par rapport à 1995 et la proportion d’enfants scolarisés est passée de 56 % à 80 %.

Malgré ces progrès, de gigantesques défis demeurent. Plus de 700 millions de personnes vivent toujours avec des revenus extrêmement faibles. Chaque année, cinq millions d’enfants meurent avant leur cinquième anniversaire, souvent en raison de maladies qui auraient pu être évitées ou soignées avec des traitements simples et relativement peu chers. La moitié des enfants dans le monde quittent toujours l’école sans maitriser la lecture et des notions en mathématique.

Une nouvelle approche pour réduire la pauvreté dans le monde


De façon à combattre la pauvreté dans le monde, nous devons identifier les formes d’action les plus efficaces. Abhijit Banerjee, Esther Duflo et Michael Kremer ont montré comment l’on pouvait s’attaquer au problème de la pauvreté dans le monde en le morcelant en plusieurs questions plus petites, mais plus précises, au niveau des groupes ou des individus. Ils ont ensuite répondu à chacune de ces questions en utilisant une expérience de terrain spécialement conçue. Au cours des vingt dernières années, cette approche a complètement refaçonné la recherche dans le domaine de l’économie du développement. Cette nouvelle recherche fournit désormais un flux régulier de résultats concrets, contribuant à réduire les problèmes de pauvreté dans le monde.

Cela fait longtemps que l’on a conscience des différences dans la productivité moyenne entre les pays riches et les pays pauvres. Cependant, comme Banerjee et Duflo l’ont noté, la productivité diffère fortement, pas seulement entre les pays riches et les pays pauvres, mais aussi au sein même des pays pauvres. Certains individus ou certaines entreprises utilisent la dernière technologie disponible, tandis que d’autres (qui produisent des biens ou services similaires) utilisent des moyens de production obsolètes. La faible productivité moyenne est donc largement due à certains individus ou certaines entreprises à la traîne. Est-ce que cela reflète un problème d’accès au crédit, à des politiques mal conçues ou au fait que les gens trouvent cela difficile de prendre des décisions d’investissement parfaitement rationnelles ? Cette approche de recherche conçue par les lauréats de cette année traite de ces questions.

Les premières expériences de terrain dans les écoles


Les premières études des lauréats ont examiné les problèmes relatifs à l’éducation. Quelles interventions accroissent les résultats éducationnels au coût le plus faible ? Dans les pays à faible revenu, les manuels sont rares et les enfants vont souvent à l’école en ayant faim. Est-ce que les résultats des élèves s’amélioreraient s’ils avaient accès à davantage de manuels ? Ou serait-il plus efficace de leur donner des repas gratuits à l’école ? Au milieu des années quatre-vingt-dix, Michael Kremer et ses collègues décidèrent de déplacer une partie de leur recherche de leurs universités au nord-est des Etats-Unis vers les campagnes à l’ouest du Kenya de façon à répondre à ce type de questions. Ils réalisent plusieurs expériences de terrain en partenariat avec une organisation local non gouvernementale (ONG).

Nobel_resume_2019.png

Pourquoi est-ce que ces chercheurs choisirent d’utiliser les expériences de terrain ? Eh bien, si vous voulez examiner l’effet de l’introduction de manuels supplémentaires sur les résultats scolaires des élèves, par exemple, comparer simplement les écoles avec différents accès aux manuels ne constitue pas une approche viable. Les écoles peuvent différer les unes des autres de plusieurs façons : les familles les plus riches achètent habituellement plus de livres pour leurs enfants, les notes sont généralement meilleures dans les écoles où moins d’enfants sont très pauvres, et ainsi de suite. Une façon de contourner ces difficultés est de s’assurer que les écoles qui font l’objet d’une comparaison aient les mêmes caractéristiques en moyenne. On peut y parvenir en laissant le hasard décider quelles écoles sont à placer dans tel ou tel groupe de comparaison, une vieille intuition qui sous-tend la longue tradition d’expérimentations dans les sciences naturelles et en médecine. Contrairement aux essais cliniques traditionnels, Banerjee, Duflo et Kremer ont utilisé les expériences de terrain dans lesquelles ils étudient comment les individus se comportent dans leurs environnements quotidiens.

Kremer et ses collègues sélectionnèrent de nombreuses écoles qui avaient besoin d’un soutien et les répartirent aléatoirement en différents groupes. Les écoles reçurent toutes des ressources supplémentaires, mais sous des formes différentes et en différents instants selon le groupe. Dans une étude, un groupe reçut plus de manuels, tandis qu’une autre étude examina les repas gratuits à l’école. Parce que le hasard avait déterminé quelles écoles recevraient telles ou telles ressources, il n’y avait pas de différences moyennes entre les différents groupes au début de l’expérience. Les chercheurs purent donc lier de façon crédible les différences dans les résultats en matière d’apprentissage aux différences dans l’attribution des soutiens. Les expériences montrèrent que ni un supplément de manuels, ni les repas gratuits à l’école ne firent une différence dans les résultats scolaires. Si les manuels présentaient un quelconque effet positif, cela ne s’appliquait qu’aux meilleures élèves.

Les dernières expériences de terrain ont montré que le principal problème dans beaucoup de pays à faible revenu n’est pas le manque de ressources. Le plus gros problème est que l’enseignement n’est pas suffisamment adapté aux besoins des élèves. Dans la première de ces expérimentations, Banerjee, Duflo et leurs coauteurs étudièrent les programmes de tutorat pour les élèves dans deux villes indiennes. Des écoles à Bombay et Vadodara reçurent un plus grand accès aux nouveaux auxiliaires pédagogiques qui soutinrent les enfants avec des besoins spécifiques. Ces écoles furent ingénieusement et aléatoirement placées dans différents groupes, permettant aux chercheurs de mesurer de façon crédible les effets des auxiliaires pédagogiques. L’expérience montra clairement que cibler les élèves les plus en difficulté était une mesure efficace à court terme comme à moyen terme.

Ces premières études au Kenya et en Inde furent suivies par plusieurs autres expériences de terrain dans d’autres pays, se focalisant sur d’importants domaines tels que la santé, l’accès au crédit et l’adoption de nouvelles technologies. Les trois lauréats furent en première ligne de cette recherche. Grâce à leurs travaux, les expériences de terrain sont devenues la méthode standard des économistes du développement lorsqu’il s’agit d’étudier les effets de mesures pour atténuer la pauvreté.

Des expériences de terrain liées à la théorie


Des expériences bien conçues sont particulièrement fiables ; elles ont une validité interne. Cette méthode a été fréquemment utilisée dans les essais cliniques traditionnels pour de nouveaux médicaments qui ont recruté spécialement des participants. La question a souvent été si un traitement particulier avait ou non un effet statistiquement significatif.

Les expériences conçues par Banerjee, Duflo et Kremer ont deux aspects distincts. Premièrement, les participants prenaient leurs décisions dans leur environnement quotidien, que ce soit dans le groupe d’intervention ou dans le groupe de contrôle. Cela signifie que les résultats de l’examen d’une nouvelle mesure de politique publique, par exemple, pouvaient souvent être appliqués sur place.

Deuxièmement, les lauréats s’appuyèrent sur l’intuition fondamentale que l’essentiel de ce qu’ils voulaient améliorer (par exemple les résultats scolaires) reflètent diverses décisions individuelles (par exemple de la part des élèves, de leurs parents ou des professeurs). Des améliorations soutenables requièrent donc une compréhension des raisons pour lesquelles les gens prennent les décisions qu’ils prennent, les forces motrices derrière leurs décisions. Non seulement Banerjee, Duflo et Kremer testèrent si une intervention donnée fonctionnait (ou non), mais ils cherchèrent aussi à savoir pourquoi.

Pour étudier les incitations, les restrictions et l’information qui motiva les décisions des participants, les lauréats utilisèrent la théorie des contrats et l’économie comportement qui furent respectivement récompensées par le prix de sciences économiques en 2016 et 2017.

La généralisation des résultats


Une question clé est si les résultats expérimentaux ont une validité externe ; en d’autres mots, si les résultats s’appliquent à d’autres contextes. Est-il possible de généraliser les résultats des expérimentations dans les écoles kényanes aux écoles indiennes ? Est-ce que cela fait une différence si c’est une ONG spécialisée plutôt qu’une administration publique qui procède à une intervention particulière visant à améliorer la santé ? Que se passe-t-il si une intervention expérimentale est menée sur une plus grande échelle, à partir d’un petit groupe d’individus pour inclure davantage de personnes ? Est-ce que l’intervention affecte aussi les individus en-dehors du groupe d’intervention, parce qu’ils sont évincés de l’accès aux ressources rares ou font face à des prix plus élevés ?

Banerjee, Duflo et Kremer ont aussi été en première ligne de la recherche sur la question de validité externe et développé de nouvelles méthodes qui considèrent les effets d’éviction et d’autres effets de débordement. Relier étroitement les expériences à la théorie économique accroît aussi les opportunités pour que les résultats soient généralisés, comme les schémas fondamentaux du comportement ont souvent une incidence dans des contextes élargis.

Les résultats concrets


Ci-dessous nous présentons quelques exemples de conclusions spécifiques tirées du type de recherche initié par Banerjee, Duflo et Kremer, en plaçant l’emphase sur leurs propres études.

L’éducation : Nous avons maintenant une bonne perspective sur les principaux problèmes dans les écoles de plusieurs pays pauvres. Les programmes et l’enseignement ne correspondent pas aux besoins des élèves. Il y a un fort niveau d’absentéisme parmi les enseignants et les institutions éducatives sont généralement défaillantes.

L’étude que nous avons mentionnée réalisée par Banerjee, Duflo et leurs coauteurs a montré que le soutien ciblé pour les élèves faibles avait de forts effets positifs, même à moyen terme. Cette étude était le départ d’un processus interactif, dans lequel les résultats de nouvelles études allèrent main dans la main avec des programmes menés sur des échelles de plus en plus grandes pour aider les élèves. Ces programmes ont concerné plus de 100.000 écoles indiennes.

D’autres expériences de terrain étudièrent le manque d’incitations claires et d’accountability pour les enseignants, qui se traduisait par un fort absentéisme. Une façon de stimuler la motivation des enseignants était de les employer sur des contrats de court terme qui pouvaient être prolongés s’ils obtenaient de bons résultats. Duflo, Kremer et leurs coauteurs comparèrent les effets de l’emploi des enseignants employés sur de tels contrats en réduisant le nombre d’élèves pour les enseignants employés de façon permanente. Ils constatèrent que les élèves qui avaient des enseignants employés sur des contrats courts avaient des résultats significativement meilleurs, mais que la réduction du nombre d’élèves par enseignant employé sur des contrats permanents n’avait pas d’effets significatifs.

Globalement, cette nouvelle recherche basée sur les expériences autour de l’éducation dans les pays à faible revenu montre que les ressources additionnelles sont, en général, de valeur limitée. Cependant, les réformes éducationnelles qui adaptent l’enseignement aux besoins des élèves sont de grande valeur. Améliorer la gouvernance des écoles et demander plus de responsabilité de la part des enseignants qui ne font pas leur boulot sont aussi des mesures efficaces en termes de coûts.

La santé : Un problème important est si la médecine et les soins de santé doivent être payants et, si c’est le cas, quel doit être leur prix. Une expérience de terrain réalisée par Kremer et ses coauteurs ont cherché comment la demande de comprimés de déparasitage était affectée par le prix. Ils constatèrent que 75 % des parents donnèrent à leurs enfants ces comprimés quand leur distribution était gratuite, contre 18 % quand ils coûtaient moins d’un dollar américain, ce qui était déjà fortement subventionné. En conséquence, plusieurs expériences similaires ont constaté la même chose : les pauvres sont extrêmement sensibles au prix en ce qui concerne les investissements dans la santé préventive.

Banerjee_Duflo__experience_vaccin_lentilles_cliniques_mobiles__1.png

Une faible qualité de service est une autre explication pourquoi les familles pauvres investissent si peu dans les mesures préventives. Un exemple est que le personnel dans les centres de santé qui sont responsables de la vaccination est souvent absent au travail. Banerjee, Duflo et leurs coauteurs cherchèrent à savoir si les cliniques de vaccination mobiles (où l’équipe soignante était toujours sur place) pouvaient régler le problème. Les taux de vaccination triplèrent dans les villages qui furent sélectionnés aléatoirement pour avoir accès à ces cliniques, à 18 % contre 6 %. Cette part augmenta davantage, à 39 %, lorsque les familles recevaient un sac de lentilles en bonus quand ils vaccinèrent leurs enfants. Parce que la clinique mobile avait un niveau élevé de coûts fixes, le coût total par vaccination diminua de moitié, malgré les dépenses additionnelles en lentilles.

Banerjee_Duflo__experience_vaccin_lentilles_cliniques_mobiles__2.png

La rationalité limitée : Dans l’étude sur la vaccination, les incitations et une plus grande disponibilité des soins ne résolvent pas complètement le problème, dans la mesure où 61 % des enfants restaient partiellement immunisés. Le faible taux de vaccination dans plusieurs pays pauvres a probablement d’autres causes, dont notamment le fait que les gens ne soient pas toujours complètement rationnels. Cette explication peut aussi éclairer d’autres observations qui, du moins initialement, apparaissent difficiles à comprendre.

L’une de ces observations est que beaucoup de gens sont réticents à adopter la technologie moderne. Dans une expérimentation de terrain intelligemment conçue, Duflo, Kremer et leurs coauteurs cherchèrent à comprendre pourquoi les petits exploitants (en particulier en Afrique subsaharienne) n’adoptaient pas des innovations relativement simples, telles que les engrais artificiels, alors même qu’ils en tireraient de grands bénéfices. Une explication est le biais vis-à-vis du présent : le présent prend une grande place dans la conscience des gens, si bien qu’ils tendent à reporter leurs décisions d’investissement. Le lendemain, ils font de nouveau face à la même décision et choisissent à nouveau de reporter l’investissement. La conséquence peut être un cercle vicieux où les individus n’investissent pas dans l’avenir, même si c’est dans leur intérêt à long terme de le faire.

La rationalité limitée a d’importantes implications pour la conception de la politique publique. Si les individus présentent un biais vis-à-vis du présent, alors les subventions temporaires sont plus efficaces que les subventions permanentes : une offre qui s’applique seulement ici et aujourd’hui réduit les incitations à retarder l’investissement. C’est exactement ce que Duflo, Kremer et leurs coauteurs ont découvert dans leur expérimentation : les subventions temporaires avaient un effet considérablement plus fort sur l’usage de l’engrais que les subventions permanentes.

Le microcrédit : Les économistes du développement ont aussi utilisé les expériences de terrain pour évaluer les programmes qui ont déjà été mis en œuvre à grande échelle. Un exemple est l’introduction massive de microprêts dans divers pays, chose qui avait été accueillie avec optimisme. Banerjee, Duflo et leurs coauteurs ont réalisé une étude initiale sur un programme de microcrédit qui se focalisa sur des ménages pauvres dans la métropole indienne d’Hyderabad. Leurs expériences de terrain montrèrent des effets positifs assez faibles sur les investisseurs des petites entreprises existantes, mais ils ne trouvèrent pas d’effets sur la consommation ou d’autres indicateurs de développement, que ce soit 18 ou 36 mois après. Des expériences similaires menées dans des pays comme la Bosnie-Herzégovine, l’Ethiopie, le Maroc, le Mexique et la Mongolie ont abouti à des résultats similaires.

L’influence sur la politique publique


Les travaux de Banerjee, Duflo et Kremer ont eu des effets clairs sur la politique publique, que ce soit directement ou indirectement. Naturellement, il est impossible de mesurer précisément dans quel mesure leurs recherches ont contribué façonner les politiques menées dans divers pays. Cependant, il est parfois possible de tirer une ligne droite de la recherche vers la politique.

Certaines des études que nous avons mentionnées ont en effet eu un impact direct sur la politique publique. Les études sur le tutorat ont fourni des arguments pour des programmes de soutien à grande échelle qui concernent désormais plus de cinq millions d’enfants en Inde. Les études sur le déparasitage ont non seulement montré que le déparasitage rapportait des bénéfices de santé manifestes pour les écoliers, mais aussi que leurs parents étaient très sensibles au prix. En accord avec ces résultats, l’OMS recommande que les soins médicaux soient fournis gratuitement à plus de 800 millions d’écoliers vivant dans les zones où plus de 20 % d’entre eux ont un type spécifique d’infection parasitaire.

Il y a aussi des estimations grossières du nombre de personnes qui ont été affectées par ces résultats d’études. L’une de ces estimations provient d’un réseau de recherche mondial que Banerjee et Duflo ont contribué à créer (J-PAL) ; les programmes qui ont été menés sur une plus grande échelle après évaluation par les chercheurs du réseau ont concerné plus de 400 millions de personnes. Cependant, cela sous-estime clairement l’impact total de la recherche parce que beaucoup d’économistes du développement ne sont pas affiliés à J-PAL. Les travaux pour combattre la pauvreté impliquent aussi de ne pas investir l’argent dans des mesures inefficaces. Les gouvernements et les associations ont libéré d’amples ressources pour des mesures plus efficaces en fermant plusieurs programmes qui furent évalués en utilisant des méthodes fiables et qui se révélèrent être inefficaces.

Les recherches de Banerjee, Duflo et Kremer ont aussi eu une influence indirecte, en changeant le fonctionnement des organisations publiques et privées. De façon à prendre de meilleures décisions, accroître le nombre d’organisations qui combattent la pauvreté mondiale a systématiquement commencé par une évaluation des nouvelles mesures, souvent en utilisant les expériences de terrain.

Les lauréats de cette année ont joué un rôle décisif pour refaçonner la recherche dans l’économie du développement. Au cours des vingt dernières années, le sujet est devenu une zone florissante, essentiellement expérimentale, de l’économie orthodoxe. Cette nouvelle recherche fondée sur l’expérimentation a déjà contribué à réduire la pauvreté dans le monde et a un grand potentiel pour améliorer davantage la vie des personnes les plus pauvres sur la planète. »

L'Académie royale des sciences de Suède, « Research to help the world’s poor. Popular science background », 14 octobre 2019. Traduit par Martin Anota

jeudi 18 octobre 2018

La croissance et l’environnement au menu du prix Nobel d’économie 2018

« Le prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel a été attribué cette année à William Nordhaus et à Paul Romer pour avoir intégré le changement climatique et l’innovation technologique à l’analyse macroéconomie de long terme. Nous passons en revue les réactions de plusieurs économistes à cette annonce.

Sur VoxEU, Kevin Bryan a évoqué comment les lauréats du prix Nobel d’économie de cette année ont élaboré leurs contributions et comment ces dernières sont liées entre elles. Cela faisait plusieurs années que l’on s’attendait à ce que Nordhaus et Romer reçoivent cette récompense, mais c’est le fait qu’ils l’aient reçue en même temps qui a surpris : Nordhaus est surtout connu pour ses travaux en économie environnementale et Romer pour sa théorie de la croissance endogène. Mais après réflexion, les liens entre leurs travaux apparaissent évidents.

Avec Romer, nous avons un modèle d’équilibre général pour réfléchir aux raisons pour lesquelles les gens produisent de nouvelles technologies. La connexion avec Nordhaus se fait avec un problème qui est à la fois provoqué et résolu par la croissance. La croissance en tant qu’objectif de politique économique n’était pas remise en cause dans les années soixante, mais au début des années soixante-dix les inquiétudes environnementales font leur apparition. Les « modèles d’évaluation intégrés » ont de l’épargne endogène à la Solow et précisent l’arbitrage entre croissance économique et changement climatique, mais met aussi en évidence l’importance critique du taux d’escompte social et des micro-estimations du coût d’ajustement au changement climatique. (…)

Martin Sandbu affirme qu’au cours de notre existence, les changements technologique et environnemental ont transformé la façon par laquelle nos économies fonctionnent. La prochaine fois que nous nous émerveillerons à propos de notre application de smartphone favorite ou que nous nous inquiéterons de la plus grande fréquence des intempéries, affirme Sandbu, nous devrons avoir une pensée pour Romer et Nordhaus. Grâce à eux, nous sommes mieux armés pour trouver les bonnes politiques pour traiter avec la question de l’innovation ou du changement climatique. Ils méritent leur prix.

Peter Dorman a voulu parler d’une personne qui n’a pas reçu le prix Nobel et dont l’absence de consécration est lourde de signification. Nordhaus a passé plusieurs années à débattre avec Martin Weitzman, qui rejetait l’approche en termes de coût social du carbone au motif qu’une bonne politique doit se baser sur le principe d’assurance visant à éviter le pire scénario. Son "théorème lugubre" démontre que, sous certaines hypothèses, la probabilité d’événements extrêmes ne baisse pas aussi rapidement que s’élève de catastrophe augmente, si bien que leur coût attend s’accroît sans limite ; et cela s’applique aux scénarii du changement climatique.

Les travaux de Weitzman sont souvent invoqués par ceux qui croient qu’une action plus agressive est nécessaire pour limiter le réchauffement climatique. Par conséquent, quand les économistes spéculaient sur l’identité du prochain lauréat du prix Nobel et considéraient l’hypothèse d’une attribution de la récompense à Nordhaus, ils pensaient que Weitzman serait son colistier. Selon Dormans, le combo Nordhaus-Romer est si artificiel et si peu convaincant qu’il est difficile de penser que le prix qui n’a pas été attribué à Weitzman est aussi important que celui qui a été attribué à Nordhaus et qu’il s’agit clairement d’un message politique sur la bonne façon de gérer le changement climatique et la mauvaise façon de gérer le changement climatique.

Timothy Terrell n’est pas du même avis. Il pense que le comité Nobel a promu la réglementation environnementale avec son dernier choix. Les deux lauréats appellent à un plus grand rôle pour l’Etat : Romer lorsqu’il suggère que le gouvernement doit investir dans la recherche-développement et utiliser la réglementation des brevets pour stimuler la croissance économique ; Nordhaus lorsqu’il indique que le gouvernement doit agir pour empêcher un changement climatique pernicieux. (…)

David Warsh affirme que Nordhaus et Romer ont beau avoir travaillé sur des problèmes apparemment différents et n’ont que rarement été cités ensemble, leurs travaux se combinent pour donner lieu à un argument convaincant. En s’efforçant de modéliser le plus finement possible l’interaction entre la présence de carbone dans l’atmosphère, le changement climatique et la croissance économique, Nordhaus a rendu possible l’estimation des dommages provoqués par la hausse des températures. Une taxe carbone (que Nordhaus et bien d’autres économistes considèrent comme préférable au système de marchés de droits à polluer comme celui de l’Accord de Paris) peut empêcher les dommages les plus sérieux : elle doit tout d’abord être fixée à un faible niveau pour ensuite augmenter et ce tant qu’il le faut pour contenir les dommages. Romer, de son côté, a créé un cadre analytique dans lequel l’anticipation d’une telle taxe conduit à une vague d’innovations qui permettraient de réduire les émissions de carbone. (…)

Noah Smith écrit que, en plus d’honorer deux chercheurs dont les contributions ont profondément influencé leur champ respectif, la récompense fait écho à quelque chose dont le monde commence à manquer, en l’occurrence la croissance économique. Dans la mesure où la croissance ralentit et où la productivité stagne dans le monde riche, les intuitions de Romer sont plus importantes que jamais. »

Silvia Merler, « The 2018 Nobel prize: Growth and the environment », in Bruegel (blog), 15 octobre 2018. Traduit par Martin Anota



aller plus loin... lire le résumé des travaux de Nordhaus et Romer par l'Académie des sciences de Suède et la synthèse d'Alexandre Delaigue

lundi 8 octobre 2018

Innovation, croissance et changement climatique. Petit résumé des travaux de Nordhaus et Romer

« Le prix en sciences économiques de cette année récompense la conception de méthodes qui contribuent à répondre à certains enjeux les plus fondamentaux et pressants de notre époque : la croissance soutenable à long terme de l’économie mondiale et du bien-être de la population mondiale.

L’étude de la façon par laquelle l’humanité gère des ressources limitées est au cœur de la science économique et, depuis sa constitution comme science, l’économie a reconnu que les plus importantes contraintes sur les ressources concernent la Nature et le savoir. La Nature dicte les conditions dans lesquelles nous vivons et le savoir définit notre capacité à gérer ces conditions. Cependant, malgré leur rôle central, les économistes n’ont généralement pas étudié comment la Nature et le savoir sont affectés par les marchés et les comportements économiques. Les lauréats de cette année, Paul M. Romer et William D. Nordhaus, ont élargi le champ de l’analyse économique en concevant des outils qui nous permettent d’examiner comment l’économie de marché influence à long terme la Nature et le savoir.

Le savoir. Pendant plus d’un siècle, l’économie mondiale a crû à un rythme remarquable et assez régulier. Quand quelques pourcents de croissance économique par an s’accumulent sur plusieurs décennies, voire plusieurs siècles, cela bouleverse vraiment la vie des gens. Cependant, la croissance a progressé bien plus lentement durant l’essentiel de l’histoire humaine. Elle varie aussi d’un pays à l’autre. Donc, qu’est-ce qui explique pourquoi la croissance survient à un tel moment et à tel endroit ? La réponse qu’avancent habituellement les économistes est le progrès technique, à travers lequel des volumes croissants de savoirs sont incarnés dans les technologies créées par des inventeurs, des ingénieurs et des scientifiques. Au début des années quatre-vingt, quand il était un étudiant en doctorat à l’Université de Chicago, Paul Romer a commencé à développer la théorie de la croissance endogène, où les avancées technologiques ne proviennent pas simplement de sources externes – exogènes -, comme le supposaient jusqu’alors les modèles économiques. En fait, elles sont créées par des activités marchandes. Les constats de Romer nous permettent de mieux comprendre quelles sont les conditions de marché qui favorisent la création de nouvelles idées pour des technologies rentables. Ses travaux nous aident à concevoir des institutions et des politiques qui peuvent améliorer la prospérité humaine en instaurant les bonnes conditions pour le développement technologique.

La Nature. William Nordhaus a commencé ses travaux dans les années soixante-dix, après que les scientifiques aient commencé à se préoccuper à l’idée que la combustion des énergies fossiles puisse entraîner un réchauffement climatique et des effets pernicieux d’un tel changement climatique. Nordhaus s’est donné la tâche immense d’examiner les liens de causalité bidirectionnels entre l’activité humaine et le climat, en combinant théories fondamentales et résultats empiriques tirés de la physique, de la chimie et de l’économie. Il n’a donc pas simplement considéré la Nature comme une contrainte sur l’activité humaine, mais il a également pris en compte le fait que la première soit en retour grandement influencée par cette dernière. Nordhaus est la première personne à concevoir des modèles simples, mais dynamiques et quantitatifs, du système économique-climatique mondial, désormais appelés "modèles intégrés d’évaluation" (integrated assessment models, IAM). Ses outils nous permettent de simuler comment l’économie et le climat évolueront dans le futur selon des hypothèses alternatives à propos des fonctionnements de la Nature et de l’économie de marché, notamment à propos des politiques mises en œuvre. Ses modèles apportent des réponses à des questions à propos de la désirabilité de différents scénarii mondiaux et différentes interventions politiques.

Les imperfections dans le marché mondial. Les deux lauréats ont mis en lumière les effets de débordement (spillover effects) dans la société, c’est-à-dire les conséquences sur autrui qui ne sont pas prises en compte par les individus, notamment les innovateurs et les pollueurs. Toute idée de nouvelle technologie, qu’importe là où elle apparaît, peut être utilisée pour la production de nouveaux biens et de nouvelles idées ailleurs, aujourd’hui ou dans le futur. De même, l’émission d’une unité supplémentaire de carbone se diffuse rapidement dans l’atmosphère et contribue au changement climatique, affectant toute l’humanité aujourd’hui et dans le futur. Les économistes parlent d’"externalités" pour qualifier ces effets de débordement. Les externalités étudiées par Romer et Nordhaus ont une portée mondiale et des conséquences à long terme. Comme les marchés non régulés vont générer des conséquences inefficaces en présence de telles externalités, le travail de Romer et de Nordhaus fournit des arguments convaincants pour l’intervention publique.

L’innovation technologique


Motivation. Les différences de long terme dans les taux de croissance ont d’énormes conséquences. Si deux économies commencent avec le même PIB par tête, mais que l’une d’entre elles croît à un rythme annuel supérieur de 4 points de pourcentage à la seconde, alors elle sera presque cinq fois plus riche que la seconde au bout de 40 ans. Un modeste écart de croissance de 2 points de pourcentage permet à la première économie d’être deux fois plus riche que la seconde au bout de 40 ans.

A la fin des années quatre-vingt, Romer a constaté que les taux de croissance du revenu dans les données observées variaient grandement d’une économie à l’autre. Le graphique 1, basé sur l’un des articles de Romer, représente le revenu par tête en 1960 et la croissance moyenne pour les 25 années suivantes pour plus de 100 pays ; un graphique avec des données actualisées lui ressemblerait fortement. Chaque carré représente un pays. Comme le graphique le montre, les écarts de taux de croissance typiques entre des pays s’élevaient à plusieurs points de pourcentage et il y a un grand écart (autour de 10 points de pourcentage) entre les pays ayant la plus forte croissance et les pays ayant la plus faible croissance. De plus, le graphique ne montre pas de relation systématique entre le revenu initial et la croissance : certains pays pauvres croissent rapidement, tandis que d’autres décroissent. Romer en conclut qu’il était crucial de comprendre les causes de tels écarts persistants et significatifs entre les taux de croissance et il commença à rechercher une explication.

GRAPHIQUE Revenu par tête (relativement à celui des Etats-Unis) et croissance annuelle subséquente du revenu par tête

Paul_Romer__revenu_par_tete_1960_croissance_1960_1985.png
source : Romer (1987)

Des zones d’ombre empiriques et théoriques. Comme Romer l’a noté, la théorie de la croissance qui dominait à l’époque (le modèle de croissance de Solow, qui fut couronnée par le prix Nobel de sciences économiques en 1987) pouvait expliquer plusieurs aspects de la croissance économique, mais pas des écarts amples et durables dans les taux de croissance entre les pays. Le modèle de Solow prédit que les pays les plus pauvres devraient croître plus rapidement les pays riches et rattraper ces derniers assez rapidement, ce qui n’est pas ce que suggère le graphique 1. Dans ce modèle, une économie peut croître en accumulant du capital physique, par exemple des machines ou des infrastructures, mais la croissance tirée par le capital peut s’essouffler à long terme ; pour toute technologie donnée, tout supplément de capital accroît de moins en moins la production. Pour qu’il y ait une croissance durable à long terme (et des écarts de croissance) dans le modèle, l’hypothèse était que les travailleurs deviennent de plus en plus productifs grâce aux avancées technologiques, bien qu’à des rythmes différents d’un pays à l’autre. Par conséquent, le modèle de Solow n’explique pas ces tendances, parce que les changements technologiques n’y arrivent que de façon exogène, depuis une "boîte noire".

L’une des percées majeures de Romer est d’avoir ouvert cette boîte noire et d’avoir montré comment les idées pour les nouveaux biens et services (produits par de nouvelles technologies) peuvent être créées dans l’économie de marché. Il a aussi montré comment un tel changement technologique endogène peut influencer la croissance économique et quelles politiques sont nécessaires pour que ce processus fonctionne bien. Les contributions de Romer ont eu un énorme impact dans le champ de la science économique. Ses explications théoriques ont posé les fondations pour la recherche sur la croissance endogène et les débats suscités par ses comparaisons internationales de croissance ont ouvert la voie à de nouvelles et prometteuses recherches empiriques.

Qu’y a-t-il de spécial à propos de la croissance tirée par les idées ? Pour répondre à cette question, nous devons comprendre comment les idées diffèrent des biens comme le capital physique ou du capital humain. Romer nous apprend à considérer les biens en utilisant deux dimensions (…). Dans la première dimension, le capital physique et le capital humain sont des biens rivaux. Si une machine ou un ingénieur formé sont utilisés dans une usine, cette machine ou cet ingénieur ne peuvent être utilisés simultanément dans une autre usine. Par contre, les idées sont des biens non rivaux : une personne ou une entreprise utilisant une idée n’empêchent pas les autres de l’utiliser également.

Dans la seconde dimension, ces biens peuvent être excluables (ou exclusifs) si les institutions ou régulations permettent d’empêcher quelqu’un de les utiliser. Pour certaines idées, telles que les résultats tirés de la recherche fondamentale, c’est difficile, voire impossible : pensez à des outils mathématiques comme le théorème de Pythagore. Pour d’autres idées, cependant, les utilisateurs peuvent être exclus via des mesures techniques (telles que le cryptage) ou la réglementation des brevets. L’un des articles de Romer a montré comment la rivalité et l’excluabilité des idées déterminaient la croissance économique.

Romer croyait qu’un modèle de marché pour la création d’idées devait prendre en compte le fait que la production de nouveaux biens (qui se base sur les idées) puisse avoir des coûts déclinant rapidement : la première ébauche a un énorme coût fixe, mais la réplication a de faibles coûts marginaux. Une telle structure des coûts implique que les entreprises doivent avoir une marge, c’est-à-dire fixer le prix au-dessus du coût marginal, de façon à ce qu’elles puissent récupérer le coût fixe initial. Les entreprises doivent donc avoir un certain pouvoir de monopole, ce qui n’est possible que pour des idées suffisamment excluables. Romer a aussi montré que la croissance tirée par l’accumulation d’idées, à la différence de la croissance tirée par l’accumulation de capital physique, ne présente pas forcément de rendements décroissants. En d’autres termes, la croissance tirée par les idées peut rester soutenue à long terme.

Les imperfections de marché et la politique économique. En principe, le nouveau savoir créé par une recherche-développement fructueuse peut profiter aux entrepreneurs et aux innovateurs partout dans le monde, maintenant et dans le futur. Cependant, les marchés ne récompensent en général pas totalement les créateurs de nouveaux savoirs pour tous les bénéfices de leurs innovations, ce qui signifie que (aussi longtemps que le nouveau savoir est socialement bénéfique), il y aura trop peu de recherche-développement. De plus, comme les incitations de marché pour la recherche-développement prennent la forme de profits de monopole, il n’y aura typiquement pas de provision adéquate de nouvelles idées une fois qu’elles auront été inventées. La recherche subséquente a montré comment les résultats de marché peuvent aussi entraîner trop de recherche-développement : soit lorsque les nouvelles idées conduisent à l’éviction de trop nombreuses entreprises existantes lors du processus de destruction créatrice, soit lorsque les nouvelles idées augmentent les technologies socialement néfastes, par exemple en permettant une extraction ou un usage excessifs de carburants fossiles, ce qui nuit au climat.

Pour résumer, Romer a montré que des marchés non régulés vont générer un changement technologique, mais qu’ils tendent à ne pas fournir assez de recherche-développement, donc pas assez de nouveaux biens. Pour répondre à cette insuffisance, il faut des interventions publiques bien conçues, comme les subventions à la recherche-développement et la réglementation des brevets. Son analyse dit que de telles politiques sont vitales pour la croissance à long terme, pas simplement dans un pays, mais au niveau mondial. Elle fournit aussi un guide pour la conception des politiques : le système de brevets doit parvenir à établir un bon équilibre entre les incitations à créer de nouvelles idées (en accordant à leurs concepteurs certains droits au monopole) et la capacité des autres à les utiliser (en limitant ces droits au monopole dans le temps et dans l’espace).

Le changement climatique


L’activité humaine a contribué à une hausse rapide des températures mondiales moyennes au cours du dernier siècle. Même s’il y a une certaine ’incertitude autour de l’ampleur à laquelle cela va affecter le climat dans le futur, le consensus en sciences naturelles est que ce sera "selon toute probabilité un impact significatif".

Motivation. Dans les années soixante-dix, quand il était un jeune étudiant à l’Université de Yale, William Nordhaus a étudié en profondeur les données naissantes sur le réchauffement climatique et ses causes probables et il en conclut qu’il devait faire quelque chose. Sa crainte l’a amené à développer de nouveaux outils pour nous aider à comprendre comment l’économie peut générer un changement climatique, ainsi que les conséquences sociétales du changement climatique. Il voulait développer un cadre qui permette d’analyser le changement climatique en termes de coûts et bénéfices.

Un défi de taille. Comme Romer, Nordhaus étendit le modèle de croissance de Solow avec un important ensemble d’effets de débordement en incluant le réchauffement climatique provoqué par les émissions de carbone. Dans ce cas, les externalités en question étaient essentiellement négatives. Surtout, les mécanismes et causes du changement climatique anthropique impliquent des processus étudiés dans les sciences naturelles. Une analyse globale du changement climatique requiert donc une approche vraiment intégrée, dans laquelle la société et la Nature interagissent.

Prenant conscience de la nécessité d’une telle approche, Nordhaus est à l’origine du développement des modèles intégrés d’évaluation (integrated assessment models). (…)

Des recommandations en matière de politique. Selon les travaux de Nordhaus, le remède le plus efficace pour les problèmes provoqués par les émissions de gaz à effet de serre serait un dispositif mondial de taxes carbone qui soient imposées uniformément dans tous les pays. Cette recommandation s’appuie sur un résultat formulé dans les années soixante par un économiste britannique, Arthur Cecil Pigou, à savoir que chaque émetteur paye le coût social du dommage provoqué par ses émissions via un prix approprié. Un système mondial de droits d’émission peut parvenir au même résultat, à condition que les quotas soient fixés à un niveau suffisamment faible pour entraîner un prix du carbone suffisamment élevé.

Cependant, les modèles IAM ne fournissent pas seulement des résultats qualitatifs. Ils nous permettent de calculer des trajectoires quantitatives pour la meilleure taxe carbone et montrent comment ces trajectoires dépendent crucialement d’hypothèses à propos des paramètres : par exemple, la sensibilité de la température mondiale à la concentration de carbone dans l’atmosphère, la durée pendant laquelle celui-ci reste dans l’atmosphère et l’ampleur des dommages provoqués par le changement climatique. Une récente étude de Nordhaus offre une bonne illustration de la façon par laquelle les modèles IAM peuvent être utilisés pour analyser la politique. Il simule quatre politiques dans la dernière version de son modèle DICE en utilisant les meilleures estimations pour les paramètres du changement climatique :

GRAPHIQUE Emissions de CO2 (en gigatonnes par an) selon différents scénarii

William_Nordhaus__differents_scenarios_emissions_CO2_taxe_carbone_Stern.png

Dans le scénario n° 1, il n’y a pas de mesures de politique climatique de plus que celles déjà en place en 2015. Dans le scénario n° 2, les taxes carbone maximisent le bien-être mondial, selon des hypothèses économiques conventionnelles à propos de l’importance du bien-être des générations futures. Dans le scénario n° 3, les taxes carbone maximisent le bien-être mondial en donnant un plus grand poids au bien-être des générations futures que dans le scénario n° 2, comme le suggère The Economics of Climate Change: The Stern Review de 2007. Dans le scénario n° 4, les taxes carbone sont suffisamment élevées pour maintenir le réchauffement climatique en-deçà des 2,5°C tout en réduisant le coût en bien-être mondial.

Le graphique montre l’évolution des émissions de CO2 au cours du temps dans chacun de ces quatre scénarii. Les différentes trajectoires pour les taxes carbone signifient que les émissions (et donc l’ampleur du changement climatique) sont très différentes d’un scénario à l’autre. Dans le scénario n° 2, les taxes débutent à environ 30 dollars la tonne de CO2 et augmentent au cours du temps à peu près au même rythme que le PIB mondial. Dans les scénarii n° 3 et 4, qui simulent des réductions d’émissions plus fortes, les taxes sont six à huit fois plus importantes.

De grandes incertitudes. Dans les sciences naturelles et dans les sciences sociales, il y a des incertitudes à propos de plusieurs aspects du changement climatique. Par exemple, nous ne savons pas exactement à quel point le climat est sensible aux émissions de gaz à effet de serre ou quel est la probabilité que l’on atteigne un point tournant mondial au-delà duquel le climat échappe à tout contrôle. De même, nous ne savons pas tout à propos des dommages économiques et humains provoqués par le changement climatique et du coût de la décarbonisation.

Naturellement, les IAM développés par Nordhaus ne peuvent éliminer cette incertitude. Cependant, ses modèles peuvent analyser comment le prix approprié du carbone est affecté par différentes possibilités, par exemple une plus forte sensibilité du climat ou une plus forte probabilité d’un point tournant mondial dangereux à 2° C de réchauffement. (...) »

Académie royale des sciences de Suède, « Integrating nature and knowledge into economics », 8 octobre 2018. Traduit par Martin Anota

- page 1 de 3