Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Marchés et concurrence

Fil des billets

samedi 30 novembre 2019

Le fléau des grosses entreprises



« Les titans des nouvelles technologies comme Amazon, Google, Facebook et Apple dominent leurs marchés respectifs et sont de plus en plus puissants. Maintenant, un chœur de critiques appelle à les démanteler. Nous avions connu un tel contexte par le passé. Il y a plus d’un siècle, c’était la Standard Oil qui fut accusée de pratiques anticoncurrentielles. Ensuite, il y a eu le secteur du conditionnement de viande, celui de la production de métal et celui des télécommunications. Chaque phase présenta des questions uniques à propos de la façon d’agir face aux sociétés puissantes. Naomi Lamoreaux pense qu’il est utile de revisiter cette histoire.

AEA : Quelles leçons l’histoire des entreprises comme la Standard Oil pourraient nous être utiles aujourd’hui ?

Naomi Lamoreaux : Il s’agissait d’entreprises très très grandes et elles suscitaient des craintes qui ressemblent à celles que suscitent les grandes entreprises aujourd’hui : des craintes à propos de possibles manipulations déloyales des opportunités économiques, des craintes à propos de leur influence politique, la crainte qu’une grande taille et un ample patrimoine puissent nuire à l’économie, à la société, à la politique de façons complexes et opaques.

AEA : Comment pouvez-vous brièvement décrire ce que la Standard Oil était et sa domination des marchés de l’énergie ?

Lamoreaux : La Standard Oil était un raffineur de pétrole brut. Initialement, son principal produit était le kérosène, qui était utilisé à des fins d’éclairage. Plus tard, elle devint un producteur de gazolène, mais son monopole était initialement un monopole dans l’éclairage, le kérosène. Initialement, elle ne représentait qu’environ 4 % des capacités de raffinage du pays. Cette part était de 4 % en 1870 ; elle s’élevait à 90 % une décennie après. Ainsi, cela effraya la population et fit sonner le signal d’alarme.

AEA : Comment est-elle devenue si grosse aussi rapidement ?

Lamoreaux : Fondamentalement, elle a été capable de s’approprier des avantages déloyaux sur ses rivales au moyen de rabais dans le transport ferroviaire. Une bonne partie du prix du pétrole tenait aux coûts de transport du pétrole et la Standard a été capable d’obtenir de moindres coûts de transport que ses rivales grâce au transport ferroviaire et d’utiliser ensuite cet avantage pour forcer ses rivales à quitter le marché ou à se vendre à elle.

AEA : Quand est-ce que les régulateurs commencèrent à s’attaquer à la Standard Oil ?

Lamoreaux : Les premiers régulateurs qui agirent opéraient au niveau des Etats fédérés. Les Etats répondirent à l’émergence de la Standard Oil et à d’autres imitateurs de la Standard Oil avec une législation que nous qualifierons aujourd’hui de législation antitrust à la fin des années 1880.

Le Congrès fit face à des pressions pour engager des actions, donc il adopta une loi en 1980 appelée le Sherman Antitrust Act, qui est la première loi antitrust au niveau fédéral qui transforma en crime toute tentative de monopoliser le commerce ou de s’engager dans la restriction des activités commerciales. Le problème avec cette loi était qu’elle était bien plus difficile de l’appliquer aux sociétés à charte d’Etat fédéré. Des sociétés comme la Standard Oil souscrivirent à la charte d’Etats bienveillants comme le New Jersey. La Standard pouvait être un monopole, mais elle opérait sous une charte du New Jersey et, selon la loi du New Jersey, c’était une entreprise légale. Cela posa des problèmes pour les régulateurs fédéraux. Il fallut attendre 1911 pour que les régulateurs trouvent comment agir avec une société comme la Standard. La Cour Suprême prit alors deux décisions, la première concernant la Standard Oil Company et la seconde concernant l’American Tobacco Company, celles de démanteler ces sociétés au motif qu’elles s’étaient engagées dans des activités anticoncurrentielles.

AEA : Il y a une ligne ténue entre les pratiques des entreprises qui s’avèrent anticoncurrentielles et dangereuses et celles qui améliorent l’efficience. Pouvez-vous décrire l’évolution dans notre façon de voir ce qui est dangereux et ce qui ne l’est pas ?

Lamoreaux : Il y avait d’un côté l’idée que ces grandes firmes qui émergeaient dans plusieurs secteurs de l’économie (…) avaient fait des choses bénéfiques, comme réduire le coût des biens pour les consommateurs, améliorer l’efficience et fournir de nouveaux biens aux consommateurs. Elles étaient grandes et connaissaient le succès et parce qu’elles connaissaient le succès elles disposaient d’un pouvoir de marché. Les gens voulaient trouver des façons de distinguer entre, d’un côté, ces firmes et, de l’autre, les firmes qui grossissaient en restreignant la concurrence en disposant d’avantages déloyaux. Le problème est qu’il est difficile de ranger clairement les entreprises dans l’une ou l’autre de ces catégories. Les entreprises les plus efficientes, les plus innovantes, peuvent faire des choses qui visaient à bloquer la concurrence future. Elles peuvent s’engager dans des pratiques que nous considérons comme déloyales et anticoncurrentielles.

Ensuite, au cours du vingtième siècle, les responsables de la politique publique cherchèrent tout d’abord à identifier ces types de comportements et à simplement stopper les mauvais comportements. Mais à la fin des années 1930, elles commencèrent à se dire qu’elles ne pouvaient vraiment pas faire cela. La grosse taille était mauvaise en soi et les régulateurs poursuivirent alors simplement des politiques qui visaient à réduire la part de marché des grosses firmes, que celles-ci se comportent mal ou non. Et cette vision de ce que doit faire la politique antitrust a vraiment émergé à la fin des années 1930 et elle a demeura jusqu’au début des années 1970. Ensuite, nous avons basculé à l’opposé et considéré que la grosse taille n’était pas un problème aussi longtemps que les entreprises offrent des gains aux consommateurs et qu’il n’y avait pas à s’inquiéter du tout de cela. Et maintenant les gens commencent à reconsidérer de nouveau les choses.

AEA : Vous faites référence ici à la tension entre l’Ecole de Chicago et ceux que l’on qualifie de "néo- brandeisiens" (New Brandeisians). Pouvez-vous expliquer en quoi tiennent les différences entre leurs raisonnements ?

Lamoreaux : La position de l’Ecole de Chicago était que la taille ne doit pas être un problème si la taille était le produit d’une plus grande efficience. Mon vieux collègue Harold Demsetz affirmait que les grandes entreprises avaient souvent un pouvoir de marché parce qu’elles avaient vraiment réussi et que vous ne voulez pas punir cela. Donc, fondamentalement, la taille n’était pas du tout considérée comme un problème et, aussi longtemps que les entreprises ne faisaient pas de choses qui nuisaient aux consommateurs, ne restreignaient pas la production, ne s’entendaient pas pour maintenir des prix élevés, il n’y avait pas de problème avec la taille.

Les "néo-brandeisiens" voient les choses très différemment. Ils se qualifient de néo-brandeisiens parce que leur vision du monde est très similaire à celle de Louis Brandeis. Pour ce dernier, les grandes entreprises étaient sources de menaces sur plusieurs plans. Si elles peuvent apporter des bénéfices aux consommateurs à court terme, elles peuvent étouffer l’innovation à long terme. Elles peuvent protéger leur position en recourant au lobbying pour empêcher le Congrès ou d’autres autorités de prendre des décisions susceptibles de réduire leur puissance. Et, bien sûr, les gens s’inquiètent à propos de plein d’autres choses relatives à la grande taille qui ne sont pas liées à la politique antitrust, mais sont des inquiétudes sociales comme le contrôle de l’information.

AEA : Quelle est la leçon la plus importante que, selon vous, l’Histoire a à offrir pour aujourd’hui ?

Lamoreaux : Je dirai deux choses. La première est que les inquiétudes à propos de la grande taille des entreprises ont toujours été multidimensionnelles et ne peuvent être réduites la simple question quant à savoir si les consommateurs en sont affectés dans une statique comparative. Le second point est qu’essayer de savoir si une grande entreprise fait du mal ou non, se comporte mal ou non, est en fait une tâche très épineuse. Parce que cette tâche est si difficile, nous avons (…) baissé les bras et dit que nous ne fixerions pas de limite.

C’est une illusion de penser qu’il n’y a qu’un seul principe qui nous permettrait d’échapper à ce genre de questions de jugement. Et les questions de jugement vont toujours être imparfaites. C’est intrinsèque aux systèmes politiques. C’est intrinsèque au système de régulation. Cela implique toujours un jugement. Et nous allons toujours nous tromper dans un sens ou un autre. Mais c’est là où nous devons travailler : chercher la bonne solution. Nous n’aurons jamais la bonne solution, mais nous devons essayer de l’avoir. »

American Economic Association, « The curse of bigness », 30 août 2019. Traduit par Martin Anota



aller plus loin...

« Le FMI s’inquiète du pouvoir de marché des firmes superstars »

« Quelles sont les répercussions macroéconomiques du plus grand pouvoir de marché des entreprises ? »

« Faut-il s’inquiéter de la concentration des marchés aux Etats-Unis ? »

mercredi 1 mai 2019

Démanteler les grandes firmes du numérique pour réduire leur pouvoir de marché ?

« La sénatrice Elizabeth Warren a proposé de démanteler les grosses entreprises du secteur des nouvelles technologies. Un rapport du gouvernement britannique a présenté une autre approche pour réguler l’économie digitale. Et une étude du FMI a rappelé que la concentration du pouvoir de marché va au-delà du numérique. Ce billet passe en revue le débat…

Le 8 mars, la sénatrice américaine Elizabeth Warren a publié un essai où elle développe sa proposition de démanteler les grosses compagnies de nouvelles technologies du pays, à savoir en particulier Amazon, Google et Facebook. Ces entreprises, affirme Warren, ont acquis un pouvoir excessif : "Près de la moitié de l’ensemble du commerce numérique passe par Amazon", tandis que "plus de 70 % de l’ensemble du trafic sur Internet passe par des sites possédés ou exploités par Google ou Facebook".

Surtout, ces firmes ont utilisé ce pouvoir pour étouffer leurs rivales et limiter l’innovation. Warren accuse "un relâchement de l’application de la loi antitrust" d’avoir entraîné "une réduction dramatique de la concurrence et de l’innovation" dans ce secteur, en notant que "le nombre de nouvelles entreprises de nouvelles technologies a baissé, qu’il y a moins de jeunes firmes à forte croissance typiques de l’industrie des nouvelles technologies et que les premiers tours de financement pour les startups de nouvelles technologies ont décliné de 22 % depuis 2012".

Cette réduction de la concurrence et de l’innovation, poursuit-elle, passe par deux canaux : l’acquisition par les grosses entreprises de potentiels rivaux ; et leur engagement dans un marché qu’elles possèdent. Donc, la proposition de démanteler les grosses firmes de nouvelles technologies repose en fait sur deux propositions distinctes de séparation. Premièrement, pour répondre au conflit d’intérêt, les entreprises qui "offrent au public sur un marché en ligne un échange ou une plateforme pour se connecter à des tiers" et génèrent des recettes annuelles globales supérieures à 25 milliards de dollars auraient à choisir entre posséder la plateforme ou y participer. Deuxièmement, pour rétablir un paysage concurrentiel, Warren nommerait des régulateurs ayant pour tâche de renverser les fusions anticoncurrentielles en utilisant les lois antitrust existantes. Elle fait explicitement mention aux fusions suivantes : Amazon avec Whole Foods et Zappos ; Facebook avec Whatsapp et Instagram ; Google avec Waze, Nest et DoubleClick.

"L'Amérique a une longue tradition de démantèlement des entreprises lorsqu’elles sont devenues trop grosses et dominantes", dit Warren. Elle rappelle que lorsque, dans les années quatre-vingt-dix, Microsoft "essayait de convertir sa position dominante dans les systèmes d’explorateurs en position dominante dans le nouveau domaine de la recherche internet", le gouvernement lança une procédure d’infraction à la réglementation antitrust contre cette firme qui "contribua à tracer la voie pour que des entreprises d’internet comme Google et Facebook puissent émerger".

Warren n’est pas la seule à évoquer des exemples de l’histoire antitrust américaine pour étayer son argumentation. Tyler Cowen, cependant, trouve plus de similarités avec la procédure d’infraction à la réglementation antitrust lancée contre IBM en 1969 et adopte le point de vue opposé. Le gouvernement américain essaya de démanteler cette entreprise lorsqu’elle "contrôlait près de 70 %" du marché des ordinateurs pour entreprises. "L’affaire dura 13 ans, coûtant des millions de dollars à IBM et au gouvernement, sans oublier qu’elle détourna l’attention des innovateurs d’IBM", écrit Cowen. Il ajoute que "la procédure d’infraction à la réglementation antitrust lancée contre IBM rendit cette dernière moins à même de percevoir la réorientation du marché vers les PC" et contribua à l’effondrement de la part de marché d’IBM et lui occasionna des pertes records.

Du point de vue de Cowen, les entreprises majeures de nouvelles technologies ont été des innovateurs très efficaces et le démantèlement pourrait de la même façon les distraire et les affaiblir, c’est-à-dire nuire en définitive à l’innovation. En fait, Cowen loue les grosses entreprises de nouvelles technologies pour ce que d’autres les accusent : plutôt que d’utiliser les acquisitions pour éliminer de potentiels concurrents qui pourraient les menacer, elles ont permis à leurs acquisitions de se développer en mettant à leur disposition leurs vastes ressources. Il cite comme exemple l’acquisition de YouTube et Android par Alphabet et l’investissement subséquent de cette dernière dans les premières et l’amélioration du contenu et des services de celles-ci.

Cowen remet également en cause l’idée que les grosses entreprises de nouvelles technologies soient en situation de monopole. Dans l’espace des réseaux sociaux, Facebook est toujours en concurrence avec de nombreux rivaux, numériques ou non, et il ajoute qu’"il est facile d’imaginer que Facebook devienne un acteur moins important à mesure que le temps passe". Dans la publicité, Google et Facebook peuvent être meneurs, mais ils sont toujours en concurrence l’un contre l’autre, aussi bien qu’avec d’autres acteurs plus traditionnels (par exemple la télévision). Cowen affirme aussi qu’en ce qui concerne la publicité, Google "est fondamentalement une institution réduisant les prix pour les petites entreprises et les entreprises de niche qui peuvent maintenant avoir plus de portée qu’elles n’auraient pu en avoir auparavant", ce qui contribue à la concurrence dans d’autres secteurs. Par conséquent, bien que Cowen ne "suggère pas que tout soit positif dans le monde en ligne et que certaines critiques soient valides sur certains points", "une réponse antitrust vigoureuse serait précipitée et nuisible".

A l’inverse, Kenneth Rogoff rejoint Warren en remarquant que "le débat sur la manière de réglementer le secteur nous rappelle étrangement le débat sur la réglementation financière au début des années deux mille". Comme dans le cas de la finance à l’époque, les partisans d’une régulation souple du secteur des nouvelles technologies évoquent la complexité de ce dernier comme motif pour ne pas resserrer sa régulation, les sociétés puissantes peuvent accorder de très hauts salaires qui leur permettent de détourner les talents des institutions de régulation et le rôle des régulateurs américains est "énorme" pour le reste du monde. Donc, bien que les "idées pour réguler les grosses entreprises de nouvelles technologies soient juste au stade de l’ébauche et qu’une analyse plus sérieuse soit bien sûr nécessaire", Rogoff est "tout à fait d'accord pour dire qu'il faut agir, en particulier en ce qui concerne la capacité des géants du Web à racheter leurs potentiels concurrents et à utiliser leur position dominante sur les plateformes pour investir d’autres branches d’activité".

Publié seulement cinq jours après l’essai de Warren, le "Rapport du panel d’experts de la concurrence digitale" (Report of the Digital Competition Expert Panel) avance d’autres propositions. La revue The Economist résume ce rapport qui a été préparé par le gouvernement britannique par une équipe menée par Jason Furman, l’ancien économiste en chef du Président Obama. Les auteurs du rapport affirment que la concentration est intrinsèque à l’économie numérique en raison des effets de réseau et qu’une position dominante soutenue peut entraîner des prix plus élevés, une moindre diversité de produits et moins d’innovations.

Cependant, ils rejettent l’idée de démanteler les entreprises du numérique ou de les réguler en limitant leurs profits ou en resserrant la supervision comme dans le cas des infrastructures d’eau ou d’électricité. Le rapport suggère plutôt que l’action publique se focalise sur la stimulation de la concurrence et du choix offert aux usagers. Cela peut passer par l’introduction d’un code de bonne conduite sur le comportement concurrentiel sur les grosses plateformes, faisant écho à un autre élément de la proposition de Warren. Ce code de bonne conduite "empêcherait par exemple un marché en ligne comme Amazon de favoriser ses propres produits vis-à-vis de ceux d’un rival dans un résultat de recherche soumis à un consommateur". Une autre mesure est la "mobilité des données", qui réduirait les coûts de changement de fournisseur pour les usagers. Avec la mobilité des données, "les consommateurs individuels pourraient déplacer leurs historiques de recherche et d’achats d’une plateforme à l’autre. Les utilisateurs de médias sociaux pourraient poster leurs messages à leurs amis, qu’importe le site qu’utilisent ces derniers. Et un amas anonymé de données aggloméré par une firme pourrait être rendu disponible aux nouveaux entrants tout en respectant la vie privée des individus".

L’article décrit le rapport comme "équilibré" et "de première qualité", mais nourrit aussi un certain scepticisme. Il se demande comment la "mobilité des données" va fonctionner en pratique. Il questionne aussi l’impact que le rapport peut avoir. (…) "Même si la Grande-Bretagne adoptait ses recommandations, les titans des nouvelles technologies sont mondiaux en termes d’échelle, mais américains en termes de nationalité. Au final, les Etats-Unis et l’Union européenne (que la Grande-Bretagne est susceptible de bientôt quitter) sont les puissances qui vont décider de leur destinée".

(…) La régulation des grosses entreprises de nouvelles technologies va au-delà de la question de la concurrence et de l’innovation et touche à la politique, aussi bien domestique qu’internationale. A travers sa proposition, Warren cherche notamment à "restaurer l’équilibre des pouvoirs dans notre démocratie" en s’assurant à ce que les données des utilisateurs restent dans le domaine privé et en réduisant le levier dont disposent les sociétés pour obtenir des administrations locales de "massives baisses d’impôts en échange de leur activité".

Pour le secteur des nouvelles technologies, Kenneth Rogoff pense que "pour surmonter ce problème, il faudra répondre aux questions fondamentales sur le rôle de l'État, sur les données personnelles et sur la façon dont les compagnies américaines peuvent soutenir la concurrence face à la Chine, dont le gouvernement utilise des entreprises technologiques nationales pour recueillir des données sur ses citoyens à un rythme exponentiel". Plus généralement, Joseph Stiglitz remarque que "dans la mesure où le pouvoir de marché des firmes mastodontes s’est accru, il en va de même de leur capacité à influencer une politique américaine si soumise au pouvoir de l’argent". Puisque "le défi, comme toujours, est politique", Stiglitz émet des doutes à l’idée que "le système politique américaine soit en mesure d’adopter la bonne réforme" et croit que "il est clair que l’Europe devra prendre l’initiative".

Cependant, la hausse de la concentration est un problème qui s’étend au-delà de l’économie numérique selon Federico Díez et Romain Duval au FMI. En regardant le ratio prix sur coût (le taux de marge) pour près d’un million d’entreprises de 27 pays développés et émergents, ils concluent que celui-ci s’est accru en moyenne de 6 % de 2000 à 2015. Cette hausse est plus prononcée dans les pays développés et en-dehors du secteur manufacturier, notamment l’économie numérique. Surtout, l’essentiel de la hausse des taux de marge provient des entreprises qui présentaient initialement les taux de marge les plus élevés. Ces 10 % des entreprises sont plus rentables, plus productives et utilisent plus d’actifs intangibles que les autres. Díez et Duval affirment que la hausse du pouvoir de marché des firmes les plus productives et innovantes s’explique par leur capacité supérieure à exploiter des actifs intangibles comme des droits de propriété, les effets de réseau et les économies d’échelle, créant une dynamique où "le gagnant rafle l’essentiel".

Les auteurs écrivent que cette hausse du pouvoir de marché a eu des effets significatifs en réduisant notamment l’investissement et la part du travail dans le revenu. "Si les marges étaient restées au niveau qu’elles atteignaient en 2000, le stock de biens de capital serait aujourd’hui en moyenne 3 % plus élevé et le PIB environ 1 % plus élevé". De plus, "la hausse du pouvoir de marché observé depuis 2000 explique aussi au moins 10 % de la baisse (0,2 de 2 points de pourcentage) de la part du revenu national versée aux travailleurs dans les pays développés".

(…) Díez et ses coauteurs identifient les plus faibles incitations à l’innovation et la possible tentative d’entreprises en position dominante sur leur marché pour ériger des barrières à l’entrée justifient que les responsables de la politique économique soient vigilants à l’avenir. Ils proposent une boîte à outils de politique économique diversifiée : un retrait des barrières à l’entrée, un retrait des barrières au commerce et à l’investissement direct à l’étranger dans les services, un resserrement de la loi et des politiques de la concurrence, une réforme de la fiscalité des entreprises et des droits de propriété intellectuelle qui "encouragent des innovations majeures plutôt que des innovations incrémentales". »

Konstantinos Efstathiou, « Breaking up big companies and market power concentration », in Bruegel (blog), 29 mars 2019. Traduit par Martin Anota



aller plus loin...

« Quelles sont les répercussions macroéconomiques du plus grand pouvoir de marché des entreprises ? »

« Les marchés européens sont plus concurrentiels que les marchés américains »

« Firmes stars, étoiles montantes ? »

vendredi 10 août 2018

Les marchés sont-ils trop concentrés ?

« Lors de son apogée à la fin du dix-neuvième siècle et au début du vingtième siècle, la Standard Oil Company contrôlait environ 95 % des activités de raffinage du pétrole aux Etats-Unis. La domination des marchés par de grandes entreprises comme la Standard Oil a été emblématique de ce que l’on appelle l’Age doré et elle déclencha un mouvement antitrust. En conséquence, en 1911, la Cour suprême des Etats-Unis a obligé la Standard Oil à se scinder en plus de 30 entreprises.

Aujourd’hui, plusieurs secteurs de l’économie présentent des niveaux similaires de concentration. Google représente plus de 90 % de l’ensemble du trafic de recherches en ligne. Ensemble, Google et Apple produisent les systèmes d’exploitation qui fonctionnent sur presque 99 % des smartphones. Juste quatre entreprises (Verizon, AT&T, Sprint et T-Mobile) fournissent 94 % des services sans fil aux Etats-Unis. Et les cinq plus grosses banques aux Etats-Unis contrôlent près de la moitié de tous les actifs bancaires dans le pays.

Face à l’accroissement de la concentration dans ces secteurs tout comme dans d’autres (cf. graphique), les commentateurs et politiciens des deux côtés du spectre politique ont sonné l’alarme. William Galston et Clara Hendrickson de la Brookings Institution ont écrit qu’(…) "en 1954, les 60 plus grandes entreprises représentaient moins de 20 % du PIB. Aujourd’hui, les 20 plus grosses entreprises représentent plus de 20 % du PIB". Et dans un article publié dans l’American Economic Review, David Autor, David Dorn, Lawrence Katz, Christina Patterson et John Van Reenen (…) ont constaté que la concentration s’est accrue entre 1982 et 2012 dans six secteurs représentant les quatre cinquièmes de l’emploi du secteur privé.

GRAPHIQUE Indice de concentration Herfindahl-Hirschman

Tim_Sablik__Indice_de_concentration_Herfindahl-Hirschman.png

Si l’accroissement de la concentration des marchés signifie qu’il y a moins de concurrence, cela peut avoir diverses répercussions économiques, allant de prix plus élevés à une moindre productivité. Alors même que la Fed et d’autres responsables politiques débattent des causes d’énigmes macroéconomiques comme le récent ralentissement de la productivité ou la faible croissance des salaires, certains économistes ont affirmé que la hausse des niveaux de concentration contribue à expliquer ces mystères.

Efficience versus pouvoir de marché


Pour l’essentiel de la première moitié du vingtième siècle, il a généralement été supposé que la concentration permettait aux entreprises d’exercer un pouvoir de marché. Dans les années cinquante, Joe Bain, de l’Université de Berkeley, a développé des modèles qui reliaient directement la concentration d’un secteur avec son degré de concurrence. Selon Bain, à mesure que les marchés deviennent plus concentrés, les entreprises survivantes entrent naturellement en collusion pour se protéger des concurrents et accroître leurs prix. A cette époque, les cours de justice et les administrateurs partageaient ce point de vue, interdisant les fusions-acquisitions lorsqu’elles étaient susceptibles d’accroître la part de marché d’une entreprise au-delà d’un certain seuil.

Dans les années soixante-dix, les économistes et les juristes de l’Université de Chicago commencèrent à remettre en cause l’idée que la concentration soit forcément nocive. Ils ont noté que la concentration peut s’accroître simplement du fait que les entreprises efficaces réalisent de meilleures performances que leurs rivales et accroissent ainsi naturellement leur part de marché. Dans un livre particulièrement influent publié en 1978, The Antitrust Paradox, Robert Bork affirma que les fusions ont souvent été bénéfiques dans la mesure où elles auraient entraîné une baisse des prix et une plus forte productivité (…).

Plusieurs études ont récemment cherché à déterminer si l’actuelle tendance haussière de la concentration s’explique par la domination d’entreprises plus efficaces ou est le signe d’un plus grand pouvoir de marché. L’article réalisé par Autor, Dorn, Katz, Patterson et Van Reenen tend à soutenir la vision de Chicago, en constatant que les secteurs qui sont devenus plus concentrés depuis les années quatre-vingt ont aussi été les plus productifs. Ils affirment que l’économie est de plus en plus concentrée entre les mains de "firmes superstars", qui sont plus efficaces que leurs rivales.

Le secteur de la haute technologie est tout particulièrement susceptible d’être concentré en raison d’une plus grande efficience. Les plateformes pour la recherche ou les médias sociaux, par exemple, deviennent plus utiles pour leurs utilisateurs à mesure que ces derniers sont plus nombreux. Un réseau social, comme un réseau téléphonique, qui n’a que deux utilisateurs est moins utile qu’un autre ayant des millions d’utilisateurs. Ces effets de réseau et ces économies d’échelle incitent naturellement les entreprises à cultiver les plus grosses plateformes (…). Certains économistes s’inquiètent que ces aspects puissent limiter la capacité des nouvelles entreprises à concurrencer les entreprises en place (…).

Bien sûr, il y a des exceptions. Diverses entreprises en ligne qui ont un jour paru indétrônables ont depuis laissé leur position dominante aux concurrents. America Online, eBay et MySpace ont laissé leur place à Google, Amazon, Facebook et Twitter. "Il est facile de dire qu’en raison de l’existence d’économies d’échelle dans ces secteurs il peut ne jamais y avoir de concurrence en leur sein", dit Richard Schmalensee, un économiste du MIT, qui a beaucoup écrit à propos de l’organisation industrielle des plateformes. "Mais il y a des économies d’échelle dans beaucoup de secteurs. Elles limitent l’ampleur de la concurrence, mais elles ne la font pas disparaître."

D’un autre côté, certains chercheurs ont affirmé que les choses pourraient être différentes cette fois-ci. Les taux d’entrée pour les nouvelles entreprises ont chuté ces dernières années, ce qui signale peut-être que les challengers ont plus de difficultés à pénétrer ces marchés. (…) Cela peut résulter du comportement anticoncurrentiel de la part des entreprises en place. L’année dernière, les autorités de la concurrence de l’UE ont donné une amende d’un montant record de 2,42 milliards d’euros à Google pour avoir manipulé son moteur de recherche pour favoriser ses propres services par rapport à ceux de ses concurrents.

GRAPHIQUE Taux d’entrées et de sorties pour les entreprises

Tim_Sablik__Taux_d_entrees_et_de_sorties_pour_les_entreprises_Etats-Unis.png

"Vous ne voulez pas empêcher les entreprises de tirer avantage des économistes d’échelle", dit Schmalensee. "D’un autre côté, vous ne voulez pas que ces économies alimentent des positions de monopole qui soient défendues par des moyens déloyaux."

La technologie et les brevets sur cette technologie peuvent aussi constituer une autre manière par laquelle les entreprises en place créent des barrières pour les possibles rivaux. Dans un document de travail de 2017, ont constaté que depuis 2000, les entreprises sur les marchés concentrés ont eu plus de brevets que les entreprises sur les marchés moins concentrés. Ces brevets détenus par des entreprises sur les marchés concentrés tendaient aussi à être les plus valables, représentant un réel obstacle pour les potentielles entreprises cherchant à pénétrer ces marchés.

Effets sur les prix et salaires


Les prix peuvent être un autre signal du degré de concurrence qui s’exerce sur les marchés concentrés. Les entreprises qui sont capables de se protéger des concurrentes ont plus de latitude pour fixer des prix à un niveau supérieur à celui de leurs coûts marginaux sans craindre d’être dépassées par des entreprises proposant des prix plus faibles. Sur un marché parfaitement concurrentiel, de telles marges pousseraient les nouvelles entreprises à entrer sur le marché et à proposer des prix plus faibles, ce qui ramènerait finalement les marges vers zéro.

Malheureusement, il est en fait difficile de mesurer les marges. Cela nécessite de connaître les coûts des entreprises, une information qui n’est pas pleinement disponible pour les chercheurs. Ces derniers doivent déduire quels sont les coûts marginaux en étudiant les données relatives aux coûts totaux. De plus, de façon à analyser les marges dans tout un secteur, les économistes peuvent supposer que toutes les entreprises de ce secteur font face à la même structure de coûts marginaux. Selon le degré de réalisme de cette hypothèse, les résultats sont plus ou moins biaisés.

En raison de ces problèmes, il n’est pas surprenant de voir que les économistes n’aboutissent pas aux mêmes conclusions lorsqu’ils se penchent sur les marges. Dans un document de travail de 2018, Jan De Loecker (…) et Jan Eeckhout (…) ont constaté que les marges ont fortement augmenté ces dernières décennies : elles sont supérieures de 67 % au coût aujourd’hui, contre 18 % en 1980.

D’un autre côté, des marges plus élevées peuvent aussi découler d’un changement des coûts. Dans un récent document de travail, James Traina de l’Université de Chicago a constaté que la croissance des marges mise en évidence par De Loecker et Eeckhout disparaît une fois que l’on prend en compte la hausse des coûts de commercialisation comme part des coûts opérationnels totaux des entreprises au cours de la même période. Donc, il n’est pas certain que l’accroissement de la concentration des marchés aujourd’hui permette aux entreprises d’exercer un pouvoir de marché et de bénéficier de marges plus élevées.

Les entreprises dans les secteurs concentrés peuvent aussi exercer un pouvoir de marché sur les intrants de leur production, notamment le travail. Sur les marchés très concentrés, les entreprises peuvent former une collusion pour réduire la concentration pour les travailleurs et donc payer moins de salaires. En 2010, le Département de la Justice avait enquêté sur de possibles accords entre Apple, Google, Intel, Intuit, Pixar et Adobe à travers lesquels ces entreprises se seraient entendues pour ne pas se débaucher mutuellement des salariés, ce qui réduisait la concurrence des travailleurs du secteur de la haute technologie. (…)

Même sans collusion, les entreprises avec un plus fort pouvoir de marché sont à même de payer de plus faibles salaires. Dans document de travail du NBER, Efraim Benmelech (…), Nittai Bergman (…) et Hyunseob Kim (…) ont constaté que la plus forte concentration sectorielle est associée à de moindres salaires au niveau local et que ce lien s’est renforcé depuis 1981.

Des gains d’efficacité peuvent aussi expliquer ces tendances. Autor et ses co-auteurs affirment que les firmes "superstars" dans les secteurs concentrés utilisent moins de travailleurs grâce à leur plus forte productivité. Cela réduirait la part de la production économique qui rémunère les travailleurs, ce qui ralentirait la croissance globale des salaires. (…)

Un déclin du dynamisme


Des prix plus élevés et de moindres salaires sont juste deux coûts potentiels d’une plus forte concentration. Les responsables politiques à la Fed s’intéressent aussi au potentiel de croissance à long terme de l’économie et certains économistes ont affirmé que l’accentuation de la concentration peut avoir un effet négatif sur l’innovation et le dynamisme économique.

L’économiste de l’Université de Harvard Joseph Schumpeter est célèbre pour avoir développé l’idée de "destruction créatrice" pour décrire le processus par lequel la concurrence exercée par les nouvelles entreprises qui entrent sur le marché en innovant alimente la croissance de la productivité. En théorie, de nouvelles entreprises petites et innovantes vont être plus efficaces et remplacer les entreprises en place stagnantes ou moins efficaces, permettant une réallocation des travailleurs vers des usages plus productifs. La recherche suggère que ce processus a ralenti au cours des dernières décennies. Les jeunes entreprises, qui ont par le passé été à l’origine d’une part significative des créations d’emplois, emploient une part de moins en moins importante de la main-d’œuvre.

D’un autre côté, certains économistes ont rejeté l’idée que la destruction créatrice alimente la croissance économique. Dans un article de 2018, Chang-Tai Hsieh (…) et Peter Klenow (…) ont constaté que les innovations et les gains en termes de productivité proviennent essentiellement des entreprises en place qui améliorent leurs procédés de production et leurs produits plutôt que des nouvelles entreprises. De ce point de vue, une hausse de la concentration et une baisse de la part des startups parmi les entreprises ne doivent pas inquiéter, aussi longtemps que les entreprises en place sont incitées à continuer d’innover. L’effet de la concurrence sur les incitations à investir et à innover reste cependant une question ouverte.

"L’un des possibles problèmes avec l’innovation est que vous payez le coût aujourd’hui, mais si vous ne pouvez protéger votre innovation, alors vous n’en tirerez pas de bénéfices dans le futur", dit Thomas Philippon de l’Université de New York. Cela peut être particulièrement vrai dans les secteurs où les coûts initiaux en recherche-développement sont élevés, mais où les coûts de réplication sont faibles, comme dans le secteur pharmaceutique. Des gouvernements comme celui des Etats-Unis accordent des brevets (des monopoles temporaires) pour inciter les entreprises de tels secteurs à innover. Mais il est aussi possible que les entreprises avec un fort pouvoir de marché choisissent de moins innover, préférant se contenter de leurs rentes en maintenant des prix élevés sur leurs produits existants.

Les deux théories ne sont pas mutuellement exclusives. Les économistes ont suggéré que la relation entre la concurrence et l’innovation suit une relation en forme de U inversé. A de faibles niveaux de concurrence, un surcroît de concurrence incite les entreprises à innover. Mais si les niveaux de concurrence sont déjà élevés, les entreprises qui innoveraient seraient davantage susceptibles d’être imitées par leurs rivales, ce qui réduit les incitations à innover. La question est : de quel côté de la courbe les secteurs concentrés se situent-ils aujourd’hui ? "Pour la plupart des secteurs aux Etats-Unis, il semble que nous soyons du côté de la courbe où un surcroît de concurrence se traduit par un surcroît, et non une baisse, de l’innovation", estime Philippon.

Les niveaux d’investissement des entreprises ont été faibles depuis le début des années deux mille relativement à leur profitabilité, selon une récente étude réalisée par Philippon et Germán Gutiérrez, son collègue de l’Université de New York. Après avoir pris en compte les conditions de marché, telles que les cicatrices laissées par la Grande Récession, ils ont constaté que les entreprises dans les secteurs les plus concentrés investissaient moins que celles dans les marchés les plus concurrentiels. Ils affirment que cela s’explique par le manque de concurrence. "Quand les meneurs d’un secteur sont concurrencés, ils investissent plus, à la fois dans les actifs physiques et les actifs intangibles comme la propriété intellectuelle", déclare Philippon. "Je suis sûr que vous pouvez trouver des exemples où la concurrence a découragé l’innovation, mais je pense que nous sommes aujourd’hui loin d’une telle situation".

Pas de solutions faciles


Plusieurs signes suggèrent un accroissement de la concentration sectorielle ces dernières années. Il est moins clair de savoir ce que cela signifie pour l’économie. Certaines preuves empiriques suggèrent que des niveaux de concentration croissants contribuent à affaiblir la concurrence, ce qui est susceptible d’avoir des effets pernicieux sur le bien-être des consommateurs et la productivité. D’autres travaux suggèrent que l’efficience découle de la consolidation des entreprises, qui serait bénéfique pour les consommateurs. Pour compliquer davantage les choses, les deux forces peuvent s’exercer au même instant selon le secteur, si bien qu’il est difficile de discerner les effets sur l’économie au niveau agrégé. (…) »

Tim Sablik, « Are markets too concentrated? », in Federal Reserve Bank of Richmond, Econ Focus, premier trimestre 2018. Traduit par Martin Anota

mercredi 2 novembre 2016

Rien n’est gratuit



« Il y a un intéressant entretien avec Martin Shkreli dans le Financial Times. Shkreli, qui est devenu célèbre lorsque, après en avoir acheté le brevet d’un médicament utilisé pour traiter le Sida, il en a multiplié le prix par soixante assume clairement le fait de jouer le rôle de mauvais garçon. Il ne regrette absolument pas sa décision et croit que ce qu’il a fait est tout à faire correct, dans la mesure où cette décision a permis de maximiser la valeur pour les actionnaires (shareholders). S’il le pouvait, il le referait à nouveau.

Et il y a une logique de fer dans le raisonnement de Shkreli. Comme je l’ai déjà affirmé par le passé, dans une économie capitaliste, il ne fait pas sens de croire ou d’affirmer que les entreprises doivent poursuivre des objectifs autres que la maximisation du profit. Si la société désire y apporter quelques ajustements, comme elle doit effectivement le faire dans certains cas, alors il en incombe au gouvernement soit d’imposer des changements dans le fonctionnement même du marché (par exemple, en instaurant des limites au prix), soit de créer un meilleure d’assurance, soit de simplement subventionner les utilisateurs du médicament. Mais ce n’est pas le rôle de Shkreli d’incorporer les préoccupations sociales dans sa politique de fixation des prix. Il se comporterait de la même façon même s’il vendait un autre produit : qu’il s’agisse d’un médicament sauvant des vies ou d’une paire de chaussures, les règles sont les mêmes.

En fait, le seul péché dont Shkreli semble être coupable est celui d’avoir été brutalement franc et de ne pas s’être montré hypocrite. Plusieurs entreprises (en particulier les grosses entreprises pharmaceutiques) font exactement la même chose que lui, mais elles le font plus discrètement ; elles ne peuvent pas accroître le prix des médicaments de 5.000 %, afin de ne pas attirer une attention bien malvenue, mais elles peuvent accroître le prix de 2.000 % et passer inaperçues, en dessous de l’écran radar des politiciens et des faiseurs d’opinion. Elles sont peut-être plus malines et prudentes que Shkreli, mais pas très différentes de ce dernier. Elles se disent volontiers au service de toutes les "parties prenantes" (stake-holders), mais elles savent, aussi bien que Shkreli que si elle ne se focalisent pas par-dessus tout sur les profits, elles risquent de faire faillite et de disparaître.

Si vous avez une économie capitaliste, vous ne pouvez pas l’avoir de deux façons : en demandant une efficience sans compromis, en préconisant une forte concurrence et ensuite, soudainement, dans certains cas, en demandant aux capitalistes et aux entrepreneurs de suivre une logique totalement différente. Si vous voulez des résultats différents, alors le gouvernement ne peut rester les bras croisés, mais il doit intervenir et avoir un rôle actif.

Cela me rappelle une histoire que j’ai entendue il y a quelques années. Un joueur de basketball américain (dont je ne me souviens malheureusement plus le nom) refusa d’avoir à être exemplaire du fait qu’il soit un modèle pour les jeunes. Il répondit au journaliste qui le critiquait pour ne pas être exemplaire pour les jeunes en soulignant un fait évident : son rôle est de mettre des paniers, pas d’élever les enfants des autres. Et c’est clairement le point clé : si vous voulez que les enfants soient bien élevés et que les parents s’impliquent davantage, il faut mettre en place des congés payés pour les parents, permettre à ces derniers d’aller plus tard au travail (après qu’ils aient déposé leurs enfants à la crèche) ou encore de donner des aides financières aux enfants, et non garder le système intact et prétendre que c’est le rôle des joueurs de basketball de s’assurer que les enfants soient bien éduqués.

En d’autres mots, les gens suivent une certaine logique de comportement (qui reflète les mœurs sociales dominantes et le cadre institutionnel en place) et si l’on veut changer la logique dans certains domaines, on a besoin d’un gouvernement activiste. Rien n’est gratuit. »

Branko Milanovic, « Nothing comes for free », in globalinequality (blog), 30 octobre 2016. Traduit par Martin Anota

lundi 10 octobre 2016

Oliver Hart, Bengt Holmström et la théorie des contrats



« Les contrats sont essentiels au fonctionnement des sociétés modernes. Les analyses d’Oliver Hart et de Bengt Holmström ont éclairé la façon par laquelle les contrats nous aident à gérer les conflits d’intérêt.

Les contrats nous aident à coopérer les uns avec les autres et à avoir confiance en autrui lorsque nous pouvons, en leur absence, être désobligeants et défiants les uns vis-à-vis des autres. En tant que salariés, nous avons des contrats de travail. En tant qu’emprunteurs, nous avons des contrats de crédit. En tant que propriétaires d’actifs de valeur exposés aux accidents, nous avons des contrats d’assurance. Certains contrats tiennent sur moins d’une page, tandis que d’autres peuvent tenir sur des centaines de pages.

Si nous rédigeons des contrats, c’est avant tout en vu de réguler des actions futures. Par exemple, les contrats de travail peuvent stipuler les rémunérations pour les bonnes performances et les conditions pour les licenciements, mais il est important de noter que les contrats ont souvent d’autres objectifs en plus, comme le partage du risque parmi les parties du contrat.

La théorie des contrats nous fournit un instrument général pour comprendre la conception des contrats. L’un des objectifs de la théorie est d’expliquer pourquoi les contrats ont des formes et conceptions diverses. Un autre objectif est de nous aider à rédiger de meilleurs contrats et ainsi de façonner de meilleures institutions dans la société. Les fournisseurs de services publics, tels que les écoles, les hôpitaux ou les prisons, doivent-ils appartenir au secteur public ou bien au secteur privé ? Les enseignants, les professionnels de la santé et les gardes de prison doivent-ils être payés avec un salaire fixe ou bien leur rémunération doit-elle dépendre de leur performance ? Dans quelles proportions la rémunération des dirigeants doit-elle dépendre des bonus et des stock-options ?

La théorie des contrats ne fournit pas nécessairement de réponses définitives ou uniques à ces questions, dans la mesure où le meilleur contrat va typiquement dépendre des spécificités de la situation et du contexte. Cependant, la puissance de la théorie est qu’elle nous permet de réfléchir clairement à ces questions. Les contributions des lauréats de cette année, Oliver Hart et Bengt Holmström, sont des plus précieuses pour nous aider à comprendre les contrats et les institutions dans le monde réel, aussi bien que les potentiels écueils lorsqu’il s’agit de concevoir de nouveaux contrats.

La tension entre l’assurance et les incitations


Si vous avez une assurance automobile, il est peu probable que soyez pleinement remboursé lorsque vous avez un accident. Pour quel raison y a-t-il des franchises et des tickets modérateurs ? Si les accidents surviennent par pure malchance, il serait sûrement mieux d’avoir des contrats d’assurance qui mettent parfaitement en commun les risques et vous soulagent de toutes les pertes associées à un accident en particulier. Mais une assurance tous risques est susceptible de générer un aléa moral (ou risque moral) : si nous sommes complètement assurés, nous pourrions être incités à être moins prudents.

La tension entre l’assurance et les incitations s’explique par une combinaison de deux facteurs. Le premier est un conflit d’intérêts : tout le monde n’est pas ange. Si nous étions tous égaux (que nous portions ou non les pleines conséquences de notre comportement), une assurance tous risques ne poserait pas problème. Le second facteur est la mesure : toutes nos actions ne peuvent pas être parfaitement observées. Si un assureur pouvait voir chaque action de ses assurés, un contrat d’assurance pourrait couvrir la totalité des pertes provoquées par les vrais accidents, mais pas ceux provoqués par un comportement imprudent.

Le même genre de tension peut être présent dans plusieurs autres cadres contractuels, comme les relations de travail. Dans la plupart des cas, un employeur est mieux placé pour supporter le risque qu’un salarié. Si le salarié agissait toujours dans l’intérêt des deux parties, aucune incitation pour le contraire serait nécessaire : il n’y aurait pas de tension entre l’assurance et les incitations et il serait optimal d’offrir au salarié l’assurance d’un salaire fixe. Mais si les intérêts des salariés entrent en conflit avec ceux de l’employeur et qu’il est difficile d’observer directement leur comportement, il peut être utile d’avoir un contrat de travail renforçant le lien entre la rémunération et la performance.

La rémunération de la performance


Même si le problème des incitations pour les salariés est connu depuis longtemps, le niveau d’analyse s’est fortement relevé à la fin des années soixante-dix, lorsque les chercheurs sont arrivés à des réponses plus exactes à la question de savoir comment rédiger un contrat incitatif optimal. Les premières intuitions majeures étaient dérivées dans le contexte des contrats de travail impliquant des agents (salariés) averses au risque dont les actions pouvaient ne pas être directement observées par le principal (l’employeur). En fait, le principal peut seulement observer imparfaitement une mesure de la performance d’un agent.

Un résultat central, publié par Bengt Holmström et Steven Shavell séparément et indépendamment l’un de l’autre en 1979, est qu’un contrat optimal doit lier la rémunération à toutes les éventualités qui sont susceptibles de fournir de l’information à propos des actions qui sont entreprises. Ce principe (…) ne dit pas seulement que les rémunérations doivent dépendre des événements qui peuvent être affectés par les agents. Par exemple, supposons que l’agent soit un dirigeant dont les actions influencent le cours boursier de son entreprise, mais pas le cours boursier des autres entreprises. Est-ce que cela signifie que la rémunération du dirigeant doit dépendre seulement du cours boursier de son entreprise ? La réponse est non. Puisque les cours boursiers reflètent d’autres facteurs dans l’économie (sur lesquels le dirigeant n’a pas prises), lier simplement la rémunération au cours boursiers de l’entreprise va rémunérer le dirigeant en cas de chance et le punir en cas de malchance. Il vaut mieux lier la rémunération du dirigeant au cours boursiers de son entreprise relativement aux cours boursiers des autres entreprises similaires (telles que les autres entreprises du même secteur).

Un résultat connexe est que la rémunération du dirigeant doit être d’autant moins basée sur sa performance qu’il est difficile d’observer son effort (par exemple en raison des divers facteurs brouillant la relation entre son effort et la performance de l’entreprise). Dans les secteurs faisant face à un risque élevé, la rémunération doit donc relativement plus s'appuyer sur un salaire fixe, tandis que dans les environnements plus stables elle doit davantage s'appuyer sur une mesure de performance.

Ce travail préliminaire, en particulier l’article publié par Holmström en 1979, donna des réponses précises à des questions basiques à propos de la rémunération de la performance. Cependant, il apparut rapidement évident que des aspects importants de la réalité manquaient dans le modèle. Ce travail préliminaire entraîna par conséquent de nombreuses autres analyses, menées aussi bien par Holmström que par d’autres chercheurs.

De fortes incitations ou des incitations équilibrées ?


Dans un article publié en 1982, Holmström a analysé une situation dynamique dans laquelle le salaire courant d’un salarié ne dépend pas explicitement de sa performance. En fait, le salarié est incité à travailler dur parce qu’il s’inquiète de sa carrière et de son futur salaire. Sur un marché du travail concurrentiel, une entreprise doit récompenser la performance courante avec des gains plus élevés à l’avenir, sinon le salarié va simplement changer d’employeur. Bien que cela puisse constituer un système efficace pour récompenser et motiver les travailleurs, il peut y avoir un revers : les inquiétudes relatives à la carrière peuvent être si fortes pour les gens qui débutent leur vie active que ces derniers risquent de travailler de trop, tandis que les personnes âgées sans cette incitation vont tirer au flanc. Le modèle développé par Holmström a aussi été appliqué à d’autres contextes, tel que celui de la relation entre les politiciens et leurs électeurs.

Dans son article originel de 1979, Holmström suppose que l’agent ne réalise qu'une seule tâche. En 1991, Holmström et Paul Milgrom étendirent l’analyse à un scénario plus réaliste où l’emploi d’un salarié inclut plusieurs tâches différentes et où il peut être difficile pour l’employeur de surveiller et de récompenser certaines de ces tâches. Pour dissuader le salarié de se concentrer sur les tâches pour lesquelles la performance est la plus facile à mesurer, il est peut-être préférable d’offrir de faibles incitations globales. Par exemple, si les salaires des enseignants dépendent des résultats des étudiants (qui sont faciles à mesurer), alors les enseignants peuvent passer moins de temps à enseigner des compétences tout aussi importantes (mais plus difficiles à mesurer) telles que la créativité et l’autonomie de la réflexion. Un salaire fixe, indépendant de toute mesure de performance, mènerait à une allocation plus équilibrée de l’effort entre les tâches. Les résultats de ce modèle multitâches changèrent la façon par laquelle les économistes réfléchissent aux dispositifs optimaux d’indemnisation et à la conception optimale des tâches.

Le travail d’équipe modifie aussi le cadre originel de rémunération pour la performance. Si la performance reflète les efforts joints d’un groupe d’individus, certains membres du groupe peuvent avoir tendance à se comporter en passagers clandestins, à en faire moins en comptant sur leurs collègues pour assurer l’effort. Holmström s’est attaqué à cette question dans un article de 1982, où il montre que lorsque le revenu entier de l’entreprise est réparti entre les membres de l’équipe (comme dans une société coopérative, où l’entreprise est possédée par les salariés), l’effort va généralement être trop faible. Un propriétaire extérieur à l’entreprise peut stimuler les incitations individuelles parce que la rémunération sera plus flexible : la rémunération totale des membres de l’équipe ne doit plus nécessairement s’ajouter au revenu total qu’ils génèrent. Cet exemple fait écho à un autre problème que la théorie des contrats peut éclairer, à savoir celui de la propriété et du contrôle.

Les contrats incomplets


Une mesure imparfaite de la performance n’est pas le seul obstacle à la rédaction de contrats efficients. Les parties sont fréquemment incapables de détailler par avance des termes de contrat. Le problème devient alors comment rédiger le meilleur contrat élémentaire. C’est le domaine des contrats incomplets.

Il y a eu un bouleversement majeur au milieu des années quatre-vingt avec le travail d’Oliver Hart et de ses collaborateurs. La principale idée est qu’un contrat qui ne peut explicitement spécifier ce que les parties doivent faire selon telle ou telle éventualité future doit spécifier qui a le droit de décider ce qu’il y a à faire lorsque les parties ne peuvent se mettre d’accord entre elles. La partie qui dispose de ce droit de décision va avoir un plus grand pouvoir de négociation et elle sera capable d’obtenir un meilleur arrangement une fois que la production se sera matérialisée. A son tour, cela va davantage inciter la partie avec le plus de droits à la décision à prendre certaines décisions, telles que les décisions d’investissement, tout en réduisant les incitations pour la partie avec le moins de droits à la décision. Dans de complexes situations de contractualisation, l’allocation des droits à la décision devient par conséquent une alternative à la rémunération pour la performance.

Les droits de propriété


Dans diverses études, Hart (avec différents coauteurs, tels que Sanford Grossman et John Moore) a analysé comment allouer la propriété des actifs physiques, par exemple en se demandant si ces derniers doivent être possédés par une unique entreprise ou séparément par différentes entreprises. Supposons une nouvelle invention qui requiert l’usage d’une machine particulière et d’un canal de distribution. Qui doit posséder la machine et qui doit posséder le canal de distribution ? l’inventeur, l’opérateur de machine ou le distributeur ? Si l’innovation est l’activité pour laquelle il est le plus difficile de concevoir un contrat, ce qui semble réaliste, il se peut que ce soit l’innovateur qui ait à posséder tous les actifs dans une entreprise, même s’il peut manquer d’expertise en matière de production et de distribution. Comme l’innovateur est la partie qui doit faire de plus grands investissements qui font le plus difficilement l’objet de contrats, il est par là même aussi la partie qui a le plus besoin de la future monnaie d’échange que les droits de propriété apportent aux actifs.

Les contrats financiers


Une application importante de la théorie des contrats incomplets a été les contrats financiers. Supposons, dans l’exemple du dirigeant, que la véritable performance soit difficile à utiliser dans un contrat parce que le dirigeant est capable de détourner les profits de l’entreprise. La meilleure solution peut alors être que le dirigeant devienne entrepreneur et possède lui-même l’entreprise : un entrepreneur peut librement décider de la façon par laquelle gérer l’entreprise et d’arbitrer convenablement entre les actions qui accroissent les profits et les actions qui accroissent ses bénéfices privés.

La limite à cette solution est que le dirigeant ne peut pas toujours se permettre d’acheter l’entreprise, si bien que des investisseurs extérieurs ont à financer l’acquisition. Mais (…) comment les investisseurs financiers peuvent-ils être sûrs de retrouver leur argent ? Une solution consiste à leur promettre une rémunération future fixe (indépendante du profit) avec collatéral : si le paiement n’est pas fait, la propriété est transférée aux investisseurs, qui peuvent liquider les actifs de l’entreprise. C’est actuellement la façon par laquelle la plupart des prêts bancaires fonctionnent et la théorie explique pourquoi. Plus généralement, la théorie des contrats incomplets suggère que les entreprises qui doivent avoir le droit de prendre la plupart des décisions dans leur entreprise aussi longtemps que la performance est bonne, mais que les investisseurs doivent avoir plus de droits à la décision lorsque la performance se détériore. Cet aspect est typique des contrats financiers dans le monde réel, tels que les contrats sophistiqués que signent les entrepreneurs et les fonds de capital-risque.

La privatisation


Une autre application de la théorie des contrats incomplets de Hart concerne la division entre les secteurs privé et public. Est-ce que les fournisseurs de services publics, tels que les écoles, les hôpitaux et les prisons, doivent appartenir au secteur public ou bien au secteur privé ? Selon la théorie, cela dépend de la nature des investissements qui ne peuvent faire l’objet de contrats. Supposons que le dirigeant d’un établissement de service social puisse faire deux types d’investissement : certains qui améliorent la qualité du service, d’autres qui réduisent les coûts aux dépens de la qualité. En outre, supposons que de tels investissements soient difficiles à spécifier dans un contrat. Si le gouvernement possède l’établissement et emploie un dirigeant pour la gérer, le dirigeant va avoir peu d’incitations à fournir l’un ou l’autre de ces d’investissements, puisque le gouvernement ne peut promettre de façon crédible de récompenser ces efforts. Si un contractant privé fournit le service, les incitations pour investir à la fois dans la qualité et la réduction des coûts sont plus fortes. Dans un article publié en 1997, Hart, Andrei Shleifer et Robert Vishny ont montré que les incitations à réduire les coûts sont typiquement trop fortes. La désirabilité de la privatisation dépend donc de l’arbitrage entre la réduction des coûts et la qualité. Dans leur article, Hart et ses coauteurs s’inquiétaient tout particulièrement des prisons privées. Les autorités fédérales aux Etats-Unis mettent en fait fin aux prisons privées notamment au motif que les conditions dans celles-ci sont pires que dans les prisons directement gérées par l’Etat (selon un rapport que le Département de Justice américaine a récemment publié).

La compréhension du monde réel


La théorie des contrats a grandement influencé plusieurs champs, allant de la gouvernance d’entreprises au droit constitutionnel. Grâce aux travaux d’Oliver Hart et Bengt Holmström, nous disposons maintenant des outils non seulement pour les termes financiers des contrats, mais aussi pour l’allocation contractuelle entre les parties des droits de contrôle, des droits de propriété et des droits à la décision. Les travaux des lauréats ont contribué à nous donner de nouveaux moyens pour réfléchir à la façon par laquelle les contrats doivent être conçus, à la fois sur les marchés privés et dans le domaine de la politique publique. »

L'Académie royale des sciences de Suède, « The prize in economic sciences 2016. Popular science background », 10 octobre 2016. Traduit par Martin Anota

samedi 30 juillet 2016

Une idée simple, mais révolutionnaire : l'asymétrie d'information



« Avant 1970, les économistes (…) ne pensaient pas vraiment au rôle de l’information. Sur le marché du travail, par exemple, les manuels supposaient en général que les employeurs connaissent la productivité de leurs travailleurs (ou de leurs candidats à l’embauche) et, grâce à la concurrence, leur versent exactement la valeur de ce qu’ils produisent.

Vous pouvez penser que les études remettant en cause cette conclusion seraient immédiatement célébrées comme une importante avancée. A la fin des années soixante, George Akerlof écrit "The Market for Lemons", un article qui apportait une telle remise en cause et qui permit à son auteur de gagner un prix Nobel quelques décennies plus tard. Pourtant, à l’époque, l’article fut rejeté par trois prestigieuses revues. Akerlof était alors professeur assistant à Berkeley, l’Université de Californie ; il venait seulement de finir sa thèse, au MIT, en 1966. Peut-être en conséquence de cela, l’American Economic Review pensait que les intuitions de son article étaient triviales. La Review of Economic Studiers partagea la même opinion. Le Journal of Political Economy nourrissait l’inquiétude inverse : elle ne digérait pas les implications de l’article. Akerlof, qui est désormais un professeur émérite à Berkeley et qui est marié à Janet Yellen, la présidente de la Réserve fédérale, rappelle la plainte de l’éditeur : "Si cela s’avérait correct, l’économie serait différente".

D’une certaine façon, les éditeurs avaient tous raison. L’idée développée par l’article d’Akerlof, qui fut finalement publié dans le Quarterly Journal of Economics en 1970, était à la fois simple et révolutionnaire. Supposez que les acheteurs sur le marché des voitures d’occasions soient prêts à payer 1.000 dollars pour acheter une bonne voiture, une "pépite", et que les vendeurs soient prêts à en vendre une à un prix légèrement inférieur. Les acheteurs ne sont pas prêts à payer plus de 500 dollars pour acheter une voiture de mauvaise qualité (un tacot, un "lemon"), tandis que les vendeurs sont prêts à en vendre une à un prix de nouveau légèrement inférieur. Si les acheteurs peuvent distinguer les bonnes voitures des mauvaises, les échanges seront florissants. En réalité, les acheteurs peuvent avoir du mal à voir la différence : les rayures peuvent être camouflées, les problèmes de moteur peuvent ne pas s’être encore révélés, même le compteur kilométrique peut être trafiqué.

Pour prendre en compte le risque qu’une voiture soit un lemon, les acheteurs réduisent le prix auquel ils sont prêts à acheter une voiture. Ils sont prêts à payer 750 dollars pour une voiture qu’ils jugeraient avoir autant de chances d’être un lemon qu’une pépite. Mais les vendeurs qui vendent une pépite et le savent peuvent refuser de la vendre à ce prix. Par conséquent, les acheteurs font face à une « sélection adverse » (antisélection) : les seuls vendeurs qui seront prêts à accepter 750 dollars seront ceux qui vendent un lemon et le savent.

Les acheteurs les plus clairvoyants vont prévoir ce problème. Puisqu’ils savent qu’ils se retrouveront au final avec un lemon, ils refusent de payer plus de 500 dollars pour acheter une voiture d’occasion. Les vendeurs de lemons finissent par les vendre au même prix qu’ils les auraient vendu s’il n’y avait pas eu d'ambiguïté. Mais les pépites sont retirées du marché et restent au garage. C’est une tragédie : il y a des acheteurs qui seraient heureux d’avoir une pépite et de la payer à son juste prix, si seulement ils pouvaient être certains de la qualité de la voiture. Cette « asymétrie d’information » entre les acheteurs et les vendeurs tue le marché.

Est-il vrai que vous pouvez gagner un prix Nobel juste pour avoir observé que certaines personnes sur les marchés en savent plus que d’autres ? Ce fut la question qu’un journaliste posa à Michael Spence qui, aux côtés d’Arkerlof et de Joseph Stiglitz, reçu le Nobel en 2001 pour leurs travaux sur l’asymétrie d’information. Son incrédulité était compréhensible. L’article sur le marché des voitures d’occasion n’était même pas une description précise de ce dernier : chaque voiture qui est vendue n’est clairement pas de mauvaise qualité. Et les assureurs savent depuis longtemps que leurs clients peuvent être les meilleurs juges des risques auxquels ils font face et que les personnes les plus enclines à s’assurer sont probablement les paris les plus risqués.

Pourtant cette idée était nouvelle pour les économistes mainstream, qui comprirent rapidement qu’elle rendait plusieurs de leurs modèles obsolètes. De nouvelles avancées suivirent bientôt, comme les chercheurs examinèrent comment le problème d’asymétrie d’information pouvait être résolu. La contribution majeure de Spence fut un article de 1973 appelé "Job Market Signalling" qui se focalisait sur le marché du travail. Les employeurs peuvent avoir du mal à voir quels sont les meilleurs candidats à l’embauche. Spence montre que les meilleurs travailleurs peuvent signaler leurs talents aux entreprises en obtenant (…) des diplômes universitaires. Cela ne marche toutefois que si le signal est crédible : si les travailleurs à faible productivité obtiennent facilement un diplôme, alors ils peuvent se prétendre efficaces. (...)

Le signalement n’est pas la seule façon de surmonter le problème des lemons. Dans un article publié en 1976, Stiglitz et Michael Rothschild ont montré comment les assureurs vont chercher à ce que leurs clients révèlent leur niveau de risque. Il s’agit alors d’offrir des contrats qui n’attirent qu’un seul type de client.

Supposez qu’un assureur automobile fait face à deux types de clients : ceux à haut risque et ceux à faible risqué. Il ne peut distinguer entre les deux types de conducteurs. Seuls ces derniers connaissent leur niveau de risque. Rothschild et Stiglitz ont montré que, sur un marché concurrentiel, les assureurs ne peuvent offrir le même contrat de façon profitable aux deux groupes. S’ils le faisaient, les primes des bons conducteurs subventionneraient les versements aux conducteurs imprudents. Un rival peut alors offrir un contrat avec de moindres primes et une moindre couverture, qui attirerait les conducteurs prudents car les conducteurs risqués préfèrent être pleinement assurés. L’assureur, qui se retrouverait alors avec les mauvais risques, réaliserait des pertes. (…)

L’assureur automobile doit offrir deux contrats, afin d’être sûr que chacun attire seulement les clients pour lesquels il est conçu. Le truc, c’est d’offrir le contrat qui assure pleinement à un prix élevé et un second moins cher, mais option peu chère avec une franchise élevée. Les conducteurs risqués vont rechigner à payer une franchise, puisqu’ils savent qu’ils ont de fortes chances de finir par la payer. Ils vont préférer être pleinement assurés. Les conducteurs prudents vont tolérer une franchise élevée et payer un prix plus faible (…).

La sélection adverse a un cousin. Les assureurs ont longtemps su que les gens qui s’achètent une assurance sont davantage susceptibles de prendre des risques. Quelqu’un qui a assuré son logement va vérifier moins souvent son alarme à incendie ; l’assurance maladie encourage la mauvaise alimentation et l’alcoolisme. Les économistes se sont pour la première frotté à ce phénomène d’aléa moral (ou risque moral) en 1963, lorsque Kenneth Arrow publie un article à son propos.

Le risque moral apparaît quand les incitations ne vont pas. La vieille économie, nota Stiglitz dans le discours qu’il prononça lorsqu’il reçut le prix Nobel, accorde beaucoup d’importance aux incitations, mais avait remarquablement peu de choses à dire à leur propos. Dans un monde complètement transparent, vous n’avez pas à vous inquiéter des incitations de votre partenaire à l’échange, car vous pouvez utiliser un contrat pour spécifier précisément le comportement qu’il doit adopter. C’est lorsque l’information est asymétrique et que vous ne pouvez pas observer ce qu’il fait (est-ce que votre fournisseur utilise des composants de mauvaise qualité ? est-ce que votre salarié tire au flanc ?) que vous devez vous inquiéter de l’alignement des intérêts de chacun.

De tels scénarii posent des problèmes "principal-agent". Comment un principal (comme un dirigeant d’entreprise) peut-il obtenir d’un agent (comme un salarié) qu’il se comporte comme il le désire, lorsqu’il ne peut surveiller tous les agents à la fois ? La façon la plus simple d’être certain qu’un salarié travaille dur est de lui donner une partie ou la totalité du profit. (…)

Mais un travail acharné ne garantit pas toujours le succès : un analyste à un cabinet de consultation peut par exemple faire un travail astronomique pour un projet qui ira pourtant au final à un rival. Donc, une autre option est de verser des "salaires d’efficience". Stiglitz et Carl Shapiro, un autre économiste, ont montré que les entreprises peuvent verser une prime salariale pour s’assurer que les salariés accordent plus de valeur à leur emploi. Cela va les motiver à la tâche, parce qu’ils ne pourront pas trouver un aussi bon salaire dans une autre entreprise s’ils se faisaient prendre en train de flâner et se faisaient licencier. Cette intuition contribue à expliquer une énigme fondamentale en économie : lorsque les travailleurs sont au chômage, mais désirent travailler, pourquoi les salaires ne chutent-ils pas jusqu’à ce que quelqu’un désire les embaucher ? Une réponse est qu’un salaire supérieur au salaire qui équilibrerait le marché joue le rôle de carotte, tandis que le chômage qui en résulte joue le rôle de bâton.

(…) Avant qu’Akerlof et les autres pionniers de l’économie informationnelle ne viennent, la discipline supposait que, sur des marchés concurrentiels, les prix reflètent les coûts marginaux : fixez un prix plus élevé et votre clientèle se tournera vers un concurrent. Mais dans un monde où l’information est asymétrique, "le bon comportement vise à obtenir un surplus sur ce que l’on peut obtenir ailleurs", selon Stiglitz. Le salaire que gagne le travailleur doit être plus élevé que ce qu’il peut obtenir avec un autre emploi, pour éviter qu’il ne tire au flanc ; et les entreprises vont avoir des difficultés à perdre des clients lorsque leur produit est de mauvaise qualité s’ils investissent dans la qualité. Sur les marchés avec une information imparfaite, le prix ne peut être égal au coût marginal.

Le concept d’asymétrie d’information, alors, changea vraiment la discipline. Presque un demi-siècle après que l’article sur les voitures d’occasion ait été rejeté trois fois, ses intuitions demeurent d’une pertinence cruciale pour les économises et à la politique économique. (…) »

The Economist, « Information asymmetry. Secrets and agents », 23 juillet 2016. Traduit par Martin Anota

vendredi 12 décembre 2014

Adieu, fracturation hydraulique !

The_Economist__repartition_offre_de_petrole__prix_du_baril_petrole_Brent__Martin_Anota_.png

source : The Economist (2014)

jeudi 27 novembre 2014

L'OPEP garde une influence sur le marché du pétrole

The_Economist__cours_petrole_brut_Brent__production_Arabie_Saoudite_OPEP__Martin_Anota_.png

source : The Economist (2014)

lundi 13 octobre 2014

Pouvoir de marché et réglementation : les apports de Jean Tirole

jean_tirole__equations.jpg

« Jean Tirole est l’un des économistes les plus influents de notre temps. Il fit d’importantes contributions dans plusieurs domaines de recherche, mais il a surtout clarifié comment nous pouvons comprendre et réglementer les secteurs qui sont dominés par une poignée d'entreprises. Tirole se voit décerner cette année le prix pour son analyse du pouvoir de marché et de la réglementation.

La réglementation est complexe

Il est toujours pertinent de se demander quelles activités doivent être réalisées par l'Etat et quelles activités doivent être laissées au secteur privé. Plusieurs gouvernements ont ouvert des monopoles publics aux actionnaires privés, aussi bien dans les secteurs des réseaux ferroviaires, de distribution d’eau, de la poste, des télécommunications, que de l’éducation ou des soins de santé. Les expériences tirées de ces privatisations ont été contrastées et il a été bien souvent plus difficile que prévu d’inciter les entreprises privées à adopter le comportement attendu.

Il y a deux grandes difficultés. Premièrement, plusieurs marchés sont dominés par un nombre réduit d’entreprises qui influencent alors les prix, le volume et la qualité du produit. La théorie économique traditionnelle n’est pas adaptée à cette situation, qualifiée d’"oligopole". Elle est davantage adaptée à une situation de monopole ou à une situation connue sous le nom de "concurrence pure et parfaite". La seconde difficulté est que les autorités régulatrices manquent d’informations à propos des coûts des entreprises et à propos de la qualité des biens et services qu’elles offrent. Ce manque d’information donne souvent un avantage naturel aux entreprises réglementées.
Jean_Tirole__Nobel_2014__Pouvoir_de_marche_et_reglementation.png

Avant Tirole

Dans les années quatre-vingt, avant que Tirole ne publie son premier travail, la recherche dans la réglementation était bien maigre et les rares travaux sur ce thème portaient essentiellement sur la manière par laquelle les gouvernements doivent intervenir et contrôler la fixation des prix dans deux situations extrêmes : le monopole et la concurrence pure et parfaite. A cette époque, les chercheurs et les responsables politiques cherchaient des principes généraux qui pourraient s'appliquer à chaque secteur. Ils conseillaient une règle simple pour les politiques de réglementation, par exemple en imposant des prix plafonds pour les monopoleurs et en interdisant la coopération entre concurrents sur un même marché, tout en permettant une coopération entre les entreprises qui sont situées à différentes étapes de la chaîne de valeur. Les études de Tirole ont montré que de telles règles fonctionnent sous certaines conditions, mais qu’elles font plus de mal que de bien sous d’autres conditions. Les plafonnements de prix peuvent inciter les entreprises dominantes à réduire leurs coûts (une chose bénéfique pour la société), mais aussi leur permettre de réaliser des profits excessifs (ce qui est une mauvaise chose pour la société). La coopération sur la fixation des prix dans un marché est en général nocive, mais la coopération en ce qui concerne les regroupements de brevets (patent pools) peut bénéficier à chaque partie prenante. La fusion d’une entreprise et de son fournisseur peut mener à une innovation plus rapide, mais elle peut aussi nuire à la concurrence.

Afin d'arriver à ces résultats, une nouvelle théorie était nécessaire pour les marchés en situation d’oligopole, parce même une large privatisation peut ne pas créer suffisamment de marge pour que plusieurs entreprises soient présentes sur le marché. Il était aussi nécessaire de construire une nouvelle théorie de la réglementation pour les situations d’information asymétrique, parce que les régulateurs ont souvent peu d’informations concernant les conditions sous lesquelles évoluent les entreprises.

De nouveaux outils théoriques

Pour élaborer ses recherches, Tirole s'est appuyé sur de nouvelles méthodes scientifiques, notamment la théorie des jeux et la théorie des contrats. On espérait vraiment que ces méthodes aident à améliorer la politique sur le plan pratique. La théorie des jeux devait aider à étudier plus systématiquement la manière par laquelle chaque entreprise réagit à différents conditions et au comportement des autres entreprises. La prochaine étape aurait été de proposer une réglementation appropriée qui se serait fondée sur la nouvelle théorie des contrats incitatifs entre des parties ne disposant pas des mêmes informations. Cependant, même si beaucoup se posaient les bonnes questions, il était bien difficile d'y répondre. Jean Tirole commença ses recherches sur la réglementation et l’oligopole au début des années quatre-vingt. Il avait déjà été diplômé en ingénierie à l’Ecole Polytechnique et à l’Ecole Nationale des Ponts et Chaussées à Paris, ainsi qu’en mathématiques à l’Université Paris-Dauphine. En 1981, il finit son doctorat d’économie au Massachusetts Institute of Technology (MIT) à Cambridge, aux Etats-Unis. Les nouveaux outils de la théorie économique (...) donnèrent à Tirole une base solide sur laquelle il pouvait renouveler et approfondir l’analyse de la réglementation et du pouvoir de marché.

Les problèmes d’information du régulateur

En 1986, Tirole et son collègue Jean-Jacques Laffont firent une importante contribution à la théorie de la réglementation. Ils démontrèrent comment un ensemble précis de contrats de production permettait de contourner le problème d’information asymétrique sur un marché où le réglementateur ne sait pas précisément quels sont les coûts et les choix de techniques de production qui s’imposent au monopoleur. Le problème central est de fournir une compensation qui soit suffisamment importante pour que la production soit rentable, sans utiliser les recettes fiscales pour des profits inutilement élevés. Laffont et Tirole démontrèrent comment le réglementateur pouvait résoudre ce dilemme. Les autorités pouvaient palier leur manque d’informations relatives aux conditions auxquelles l’entreprise est soumise en lui imposant de choisir un contrat à partir d’un ensemble précis de contrats. Qu’importe le type de producteur, ce dernier va choisir le genre de contrat qui lui bénéficie le plus. Un producteur dont les coûts sont élevés et difficilement compressibles va choisir un contrat avec un dédommagement élevé pour ses coûts et il aura donc peu intérêt à les réduire. Un producteur pour qui il est plus facile de réduire les coûts va choisir un contrat avec une compensation relativement faible pour ses coûts, mais avec un prix plus élevé pour les services qu’il fournit et il sera donc fortement incité à réduire ses coûts. Un unique contrat qui chercherait un compromis entre ces deux aspects se traduirait par des profits inutilement élevés s’il est facile pour l’entreprise de réduire ses coûts. Durant les années quatre-vingt et quatre-vingt-dix, Laffont et Tirole appliquèrent leur théorie à tout un éventail de problèmes. Ils résumèrent leurs résultats dans un livre sur les marchés publics et la réglementation, publié en 1993, un livre qui a grandement influencé la pratique de la réglementation. Les résultats théoriques sur l’efficacité des différents types de réglementation ont été plutôt bien vérifiés dans les études empiriques des différents secteurs pris isolément.

La dynamique de la réglementation

Dans plusieurs cas, des questions se posent à propos du calendrier de la réglementation : pour quelle période le premier ensemble de règles doit-il être conçu et comment doit-il être revu et renouvelé ? Laffont et Tirole se sont penchés sur ces questions dans deux articles importants publiés en 1988 et en 1990, où ils se basaient sur les travaux réalisés précédemment par Freixas, Laffont et Tirole en 1985. Supposons que le réglementateur et le producteur ne peuvent signer un contrat de long terme, mais seulement une série de contrats de court terme. Cela signifie que les actions courantes du producteur peuvent affecter sa future réglementation. Si un producteur à faible coût travaille dur et réalise de larges profits durant la première période du contrat, le réglementateur peut resserrer les exigences dans le prochain contrat de façon à réduire le profit potentiel. Le risque est alors que le producteur anticipe cela et travaille moins, ce qui pénalise l'activité. Si les autorités ne peuvent fixer des contrats de long terme, il est impossible d’obtenir du producteur qu’il choisisse l’effort approprié à un coût raisonnable, si bien qu’il ne révélera pas ses coûts. En fait, les autorités doivent utiliser de plus faibles incitations et apprendre graduellement ces conditions, ce qui va se faire rapidement si l’activité est complexe et peu rentable, mais lentement si elle est simple et lucrative.

L’indépendance du réglementateur

Dans la plupart des pays, le cadre de la réglementation est tout d’abord décidé à un niveau supérieur (par exemple par le gouvernement) et une administration publique a alors pour tâche de préciser les termes de la réglementation. En 1986, Tirole a analysé le système de récompense optimal dans une relation hiérarchique similaire, en étudiant un cas plus général avec un principal (le propriétaire), un superviseur (le contremaître) et un agent (le travailleur). Le problème est que l’administration publique et l’entreprise ont plus d’information à propos de l’activité que le gouvernement. Avec un cadre laxiste, il y a un risque que tous deux se mettent d’accord pour dissimuler l’information au gouvernement, et ce au profit de l’entreprise : l’autorité administrative se fait l’avocate de l’entreprise. En 1991, Laffont et Tirole ont examiné comment la réglementation doit être conçue pour minimiser ce risque. Le principal résultat de leur analyse est que le gouvernement doit établir un cadre qui considère explicitement le risque que le régulateur dissimule l’information et soit de mèche avec l’entreprise réglementée. Même avec un cadre bien conçu, un régulateur va quelques fois se faire l’avocat de l’entreprise, mais cependant il ne va pas se permettre d’être corrompu ou de taire activement l’information.

La concurrence et les investissements stratégiques

Les monopoles ne sont pas les seuls à requérir une réglementation ; il y a aussi les marchés d’oligopole. Notamment avec ses coauteurs, Tirole a fourni plusieurs contributions importantes aux théories du droit de la concurrence, notamment les analyses des effets des brevets, des avancées technologiques et des investissements stratégiques sur la concurrence. Les brevets peuvent donner aux entreprises un avantage stratégique. En 1983, Tirole, en collaboration avec Drew Fudenberg, Richard Gilbert et Joseph Stiglitz (un lauréat du prix en 2011), a analysé les conditions d’une course au brevet entre les entreprises. Ils prédirent des courses intenses dans les situations où plusieurs entreprises sont à peu près au même niveau, mais de plus faibles niveaux d’investissement dans la recherche-développement lorsqu’une entreprise est fortement en avance sur les autres. Dans un article de 1984, Fudenberg et Tirole utilisèrent la théorie des jeux pour analyser comment une entreprise peut influencer stratégiquement ses concurrents. Un investissement stratégique a des effets de long terme sur la profitabilité de l’entreprise. Une question importante est si les investissements rendent l’entreprise plus (ou moins) agressive dans la concurrence à venir. Un exemple est un investissement qui réduit le coût marginal d’une entreprise. La question suivante est comment les entreprises en concurrence peuvent réagir face à une telle concurrence. Sur certains marchés, les investissements agressifs vont être payants, comme les concurrents vont perdre des parts de marché. Sur d’autres marchés, de tels marchés ne se révèlent pas profitables, puisque les concurrents vont à leur tour adopter un comportement agressif. Il est donc nécessaire de comprendre de façon plus détaillée les conditions particulières d’un secteur spécifique pour déterminer quel type de stratégie est le plus profitable pour les entreprises de ce secteur. Certaines intuitions sont importantes pour les praticiens et les autorités de la concurrence. Les praticiens peuvent commettre des erreurs s’ils essayent d’appliquer aveuglément les enseignements tirés d’un marché à un autre et les autorités peuvent commettre des erreurs si elles régulent les entreprises sans prendre en compte les conditions de marché spécifiques au secteur.

La concurrence sur des marchés spécifiques

Il n’y a pas de solutions simples et standards pour la réglementation et la politique de la concurrence, puisque celles qui se révèlent les plus appropriées vont être différentes d’un marché à l’autre. Par conséquent, Jean Tirole a aussi étudié les conditions de marchés spécifiques et a contribué à de nouvelles perspectives théoriques. Traditionnellement, vendre à pertes était interdit par la loi de la concurrence, parce que fixer des prix à un niveau inférieur aux coûts de production est une manière de se débarrasser des concurrents. Cependant, ce n’est pas nécessairement vrai sur tous les marchés. Considérons le marché du journal, par exemple, où distribuer des journaux gratuitement peut être une manière d’attirer des lecteurs et donc de nouveaux publicitaires pour couvrir les pertes associées à la production et à la distribution. Dans ce cas, on peut contester l’idée que la vente à pertes doit être bannie. Avec Jean-Charles Rochet, Tirole nous a permis de mieux comprendre ces marchés de plateforme où il y a un fort lien entre les différentes parties prenantes de la plateforme technique, telles que les lecteurs et les publicitaires dans le cas des journaux.

La concurrence et les restrictions verticales

Que se passe-t-il lorsque quelqu’un jouit d’un monopole dans un domaine qui constitue un maillon important dans une chaîne de production ? Ce problème classique est illustré par un phénomène moderne : le logiciel ou système d’exploitation d’une entreprise devenant dominant dans son domaine. Formellement, on croyait que de telles entreprises peuvent bien réaliser des profits de monopole dans leur propre domaine, mais que la concurrence les empêche de bénéficier de leur position dans le maillon suivant de la chaîne de production.

Dans deux études (l’une réalisée avec Patrick Rey en 1986 et l’autre réalisée avec Oliver Hart en 1990), Tirole a démontré que cette idée n’était pas justifiée. Maîtriser un maillon de la chaîne offre à un monopoleur la possibilité de réaliser des profits sur le marché du maillon suivant. En réalité, c’est souvent en perturbant la concurrence sur un marché voisin qu’un monopoleur est capable de faire du profit. Un exemple est le producteur d’une innovation brevetée qui réduit les coûts. Si les entreprises qui sont de potentiels acheteurs de cette innovation opèrent sur un marché où la concurrence est forte, le producteur va trouver difficile de gagner beaucoup d’argent s’il vend son innovation à toutes les entreprises en même temps ; la concurrence génère de faibles profits, même après la réduction des coûts, donc le producteur doit maintenir un faible prix. Cependant, si l’innovation est vendue à une seule entreprise, cette entreprise fait un profit élevé parce qu’elle devient plus compétitive que ses concurrentes. Le producteur peut alors fixer ses prix à un niveau considérablement plus élevé.

Cependant il est loin d’être clair que le producteur peut s’engager à vendre à une seule entreprise. Une fois la vente réalisée, le producteur est incité à vendre à d’autres entreprises, mais si le premier client prend conscience de ce risque, il va préférer payer un prix plus faible. Le producteur doit donc par conséquent promettre de ne pas réaliser d’autres ventes. Pour que cette promesse apparaisse crédible, il est nécessaire soit de signer une forme de contrat exclusif, soit de faire fusionner les deux entreprises. Les règles de la concurrence doivent donc mettre en regard ces deux considérations : d’un côté, les contrats verticaux peuvent limiter la concurrence mais, d’un autre côté, ils encouragent l’innovation. Ce type de raisonnement a fourni une fondation nouvelle et robuste pour la législation et l’usage légal en ce qui concerne les contrats verticaux et les fusions.

Donc, c’est encore un autre exemple du même résultat général : les politiques de concurrence les plus désirables diffèrent d’un marché à l’autre. »

L’Académie Royale des sciences de Suède, « Market power and regulation », traduit par Martin Anota

vendredi 31 janvier 2014

Marché mondial du luxe

GRAPHIQUE Marché de biens de luxe (en milliards de dollars)

marche_mondial_des_biens_de_luxe__The_Economist.png

source : The Economist (2014)

samedi 10 août 2013

La guerre des navigateurs

GRAPHIQUE 1 Evolution des parts de marché mondiales des navigateurs web (en %)

chrome_geo.png


GRAPHIQUE 2 Navigateur web le plus populaire en 2013, par pays

chrome_histo.png

source : The Economist (2013), d'après les données de StarCounter