Annotations

Aller au contenu | Aller au menu | Aller à la recherche

Marchés et concurrence

Fil des billets

lundi 12 octobre 2020

Paul Milgrom et Robert Wilson, des Nobel en quête de l’enchère parfaite

Paul_Milgrom_Robert_Wilson_prix_Nobel_2020.png

« Chaque jour, les enchères allouent des valeurs astronomiques entre acheteurs et vendeurs. Les lauréats de cette année, Paul Milgrom et Robert Wilson, ont amélioré la théorie des enchères et inventé de nouveaux formats d’enchères, au bénéfice des vendeurs, des acheteurs et des contribuables à travers le monde.

Les enchères ont une longue histoire. Dans la Rome antique, les prêteurs utilisaient les enchères pour vendre les actifs qu’ils avaient confisqués des emprunteurs qui s’étaient révélés incapables de rembourser leur dette. La plus vieille maison d’enchères au monde, la Stockholms Auktionsverk, a été fondée en 1674, également avec l’objectif de vendre des actifs confisqués.

Aujourd’hui, quand nous entendons le mot "enchère", nous pensons peut-être à des enchères agricoles traditionnelles ou à des ventes d’œuvres d’art, mais il peut aussi s’agir de vendre quelque chose sur internet ou d'acheter un logement via un agent immobilier. Les résultats des enchères sont aussi très importants pour nous, en tant que contribuables et de citoyens. (…) Les prix de l’électricité, qui sont quotidiennement déterminés par les enchères régionales d’électricité, influencent le coût du chauffage de nos logements. La couverture de notre téléphone portable dépend des fréquences radio que les opérateurs téléphoniques ont acquises via des enchères de fréquences. Tous les pays contractent désormais des prêts en vendant des obligations publiques aux enchères. L’objectif de la mise aux enchères des quotas d’émissions par l’Union européenne est d’atténuer le réchauffement climatique.

Donc, les enchères nous affectent tous à différents niveaux. En outre, elles sont devenues de plus en plus fréquentes et de plus en plus compliquées. C’est là où les lauréats de cette année ont produit des contributions majeures. Ils n’ont pas simplement clarifié comment les enchères fonctionnent et pourquoi les enchérisseurs se comportent de telle ou telle façon, mais ils ont aussi utilisé leurs découvertes théoriques pour inventer des formats d’enchères entièrement nouveaux pour la vente de biens et services. Ces nouvelles enchères se sont largement diffusées à travers le monde.

La théorie des enchères


Pour comprendre les contributions des lauréats, nous devons en savoir un peu à propos de la théorie des enchères. Le résultat d'une enchère (…) dépend de trois facteurs. Le premier est les règles de l'enchère, ou format. Les offres sont-elles ouvertes ou fermées ? Combien d'offres les enchérisseurs peuvent-ils faire ? Quel prix paie le gagnant ? leur offre ou la deuxième offre la plus élevée ? Le deuxième facteur tient à l'objet mis aux enchères. A-t-il une valeur différente pour chaque enchérisseur ou valorisent-ils l'objet de la même façon ? Le troisième facteur concerne l'incertitude. Quelle information les différents enchérisseurs ont-ils à propos de la valeur de l'objet ?

En utilisant la théorie des enchères, il est possible d’expliquer comment ces trois facteurs gouvernent le comportement stratégique des enchérisseurs et donc le résultat de l’enchère. La théorie peut aussi montrent comment concevoir une enchère pour créer le plus de valeur possible. Les deux tâches sont particulièrement difficiles quand de multiples objets liés sont mis aux enchères en même temps. Les lauréats du prix en sciences économiques cette année ont rendu la théorie des enchères plus applicables en pratique via la création de formats d’enchères nouveaux, sur mesure.

Différents types d’enchères


Les maisons d’enchères autour du monde vendent habituellement des objets individuels en utilisant les enchères anglaises. Ici, le commissaire-priseur commence avec un prix bas et propose ensuite des prix de plus en plus élevés. Les participants peuvent voir toutes les offres et choisir s’ils veulent placer une offre plus élevée. Quel qu’il soit, celui qui propose l’offre la plus élevée gagne l’enchère et paye le prix de son offre. Mais d’autres enchères ont des règles complètement différentes ; une enchère hollandaise commence avec un prix élevé, qui est ensuite peu à peu réduit jusqu’à ce que l’objet soit vendu.

Les enchères anglaises et hollandaises ont des offres ouvertes, donc tous les participants voient les offres. Dans d’autres types d’enchères, cependant, les offres sont fermées. Dans les marchés publics, par exemple, les enchérisseurs proposent souvent des offres scellées et l'autorité publique choisit le fournisseur qui s’engage à assurer le service au prix le plus faible, tout en respectant les exigences de qualité spécifiques. Dans certaines enchères, le prix final est l’offre la plus élevée (enchères au premier prix), mais dans d’autres formats le gagnant paye la deuxième offre la plus élevée (enchères au deuxième prix).

Quel format d’enchères est le meilleur ? Cela ne dépend pas seulement de son résultat, mais aussi de ce que nous entendons par "meilleur". Les vendeurs privés espèrent surtout obtenir le prix le plus élevé. Les vendeurs publics ont des objectifs plus larges, de façon à ce que les biens soient vendus par l’enchérisseur qui délivre le plus important bénéfice à long terme pour la société dans son ensemble. La quête de la meilleure enchère est un problème épineux qui travaille depuis longtemps les économistes.

La difficulté avec l’analyse des enchères est que la meilleure stratégie d’un enchérisseur dépend de ses croyances quant aux offres des autres participants. Est-ce que certains enchérisseurs croient que l’objet vaut davantage que ne le pensent d’autres ? Est-ce que ces différences de valorisation reflètent le fait que certains enchérisseurs ont une meilleure information à propos des caractéristiques et de la valeur des biens ? Les enchérisseurs peuvent-ils coopérer et manipuler l’enchère afin de maintenir le prix final à un faible niveau ?

Les valeurs privées


Le lauréat en sciences économiques de 1996, William Vickrey, a fondé la théorie des enchères au début des années 1960. Il a analysé un cas spécial, dans lequel les enchérisseurs ont seulement des valeurs privées pour le bien ou service mis aux enchères. Cela signifie que les valeurs des enchérisseurs sont entièrement indépendantes l’une de l’autre. Par exemple, cela peut être une enchère de bienfaisance pour un dîner avec une célébrité (disons un lauréat du Nobel). Le montant que vous seriez prêt à payer est subjectif : votre propre valorisation n’est pas affectée par la valorisation du dîner qu’en ont les autres enchérisseurs. Donc comment devriez-vous enchérir dans un tel type d’enchère ? Vous ne devez pas enchérir plus que la valeur que le dîner a à vos yeux. Mais devez-vous enchérir moins, pour peut-être obtenir le dîner à un prix inférieur ? Vickrey a montré que les meilleurs formats d’enchères connus (comme les enchères anglaises et hollandaises) donnent le même revenu attendu pour le vendeur, à condition que tous les enchérisseurs soient rationnels et neutres au risque.

Les valeurs communes


Les valeurs entièrement privées constituent un cas extrême. La plupart des objets d’enchères (comme les titres, les droits de propriété et d’extraction) ont une considérable valeur commune, ce qui signifie qu’une partie de la valeur est égale à tous les enchérisseurs potentiels. En pratique, les enchérisseurs ont aussi différents montants d’information privée à propos des propriétés de l’objet.

Prenons un exemple concret. Imaginons que vous soyez un diamantaire et que vous, tout comme les autres diamantaires, considériez une offre sur un diamant brut, donc que vous pourriez produire des diamants taillés et les vendre. Votre consentement à payer dépend seulement de la valeur de revente des diamants taillés qui, elle-même, dépend de leur nombre et de leur qualité. Les différents diamantaires ont différentes opinions à propos de cette valeur commune, en fonction de leur expertise, de leur expérience et du temps qu’ils ont eu pour examiner le diamant. Vous pourriez mieux estimer la valeur si vous aviez accès aux estimations des autres diamantaires, mais chaque diamantaire préfère garder ses informations secrètes.

Les enchérisseurs dans les enchères avec valeurs communes courent le risque que les autres enchérisseurs aient de meilleures informations à propos de la vraie valeur. Cela mène au phénomène bien connu des offres basses en enchères réelles, connu sous le nom de malédiction du vainqueur. Imaginons que vous gagniez l’enchère du diamant brut. Cela signifie que les autres enchérisseurs valorisent moins le diamant que vous ne le valorisez, si bien que vous avez très certainement réalisé une perte lors de la transaction.

Paul_Milgrom_Robert_Wilson_encheres_malediction_du_vainqueur_Nobel.png

Robert Wilson a été le premier à créer un cadre pour analyser les enchères avec valeurs communes et à décrire comment les enchérisseurs se comportent en de telles circonstances. Dans trois articles classiques publiés lors des années 1960 et 1970, il décrit la stratégie d’enchère optimale pour une enchère au premier prix quand la vraie valeur est incertaine. Les participants vont proposer des offres plus faibles que leur meilleure estimation de la valeur, pour éviter de faire une mauvaise affaire et donc être touché par la malédiction du vainqueur. Son analyse montre aussi qu’avec une plus grande incertitude, les enchérisseurs vont être plus prudents et le prix final sera plus faible. Finalement, Wilson montre que les problèmes provoqués par la malédiction du vainqueur sont même accrus quand certains enchérisseurs ont de meilleures informations que d’autres. Ceux qui ont un désavantage informationnel vont alors proposer des offres encore plus basses ou complètement s’abstenir de participer à l’enchère.

Les valeurs à la fois privées et communes


Dans la plupart des enchères, les enchérisseurs ont des valeurs à la fois privées et communes. Supposons que vous pensez enchérir dans une enchère pour un appartement ou une maison ; votre consentement à payer dépend alors de votre valeur privée (combien vous appréciez son état, son plan de sol et sa localisation) et de votre estimation de la valeur commune (combien vous pensez récupérer en vendant le logement dans le futur). Un fournisseur d’énergie qui enchérit sur le droit d’extraire du gaz naturel s’inquiète à propos de la taille du réservoir de gaz (une valeur commune) et du coût d’extraction du gaz (une valeur privée, comme le coût dépend de la technologie disponible à la société). Une banque qui enchérit pour des obligations publiques considère le futur taux d’intérêt de marché (une valeur commune) et le nombre de ses clients qui veulent acheter des obligations (une valeur privée). Analyser les offres dans des enchères avec des valeurs privées et communes se révèle être un problème encore plus épineux que les cas spéciaux analysés par Vickrey et Wilson. La personne qui a finalement résolu ce problème a été Paul Milgrom, dans une poignée d’articles publiés autour de 1980.

L’analyse de Milgrom (en partie avec Robert Weber) inclut de nouvelles intuitions importantes à propos des enchères. L’une de ces inquiétudes est de savoir dans quelle mesure différents formats d’enchères permettent de traiter le problème de la malédiction du vainqueur. Dans une enchère anglaise, le commissaire-priseur commence avec un faible prix et le relève. Les enchérisseurs qui observent le prix auquel d’autres enchérisseurs quittent l’enchère obtiennent ainsi des informations à propos de leurs valorisations ; comme les enchérisseurs restants ont alors plus d’informations qu’au départ de l’enchère, ils sont moins enclins à enchérir sous leur valeur estimée. D’un autre côté, une enchère hollandaise, où le commissaire-priseur commence avec un prix élevé et le réduit jusqu’à ce que quelqu’un désire acheter l’objet, ne génère pas de nouvelles informations. Le problème avec la malédiction du vainqueur est donc plus grand dans les enchères hollandaises que dans les enchères anglaises, ce qui se traduit par de plus faibles prix finaux.

Ce résultat particulier reflète un principe général : un format d’enchère fournit plus de recettes si le lien entre les offres et l’information privée des enchérisseurs est renforcé. Par conséquent, le vendeur a un intérêt à fournir aux participants autant d’informations que possible à propos de la valeur de l’objet avant que les enchères commencent. Par exemple, le vendeur d’un logement peut anticiper un prix final plus élevé si les enchérisseurs ont accès à une estimation d’expert (indépendant) avant le début de l’enchère.

Les meilleures enchères en pratique


Milgrom et Wilson se sont non seulement dévoués à la théorie fondamentale des enchères. Ils ont aussi inventé de nouveaux meilleurs formats pour les situations complexes dans lesquelles les formations d’enchères existantes ne peuvent être utilisées. Leur contribution la plus connue est l’enchère qu’ils conçurent la première fois que les autorités américaines vendirent les fréquences radio aux opérateurs télécom.

Les fréquences radio qui permettent la communication sans fil (les appels mobiles, les paiements sur internet ou les vidéoconférences) sont des ressources limitées de grande valeur pour les consommateurs, les entreprises et la société. Ces fréquences sont possédées par le gouvernement, mais les acteurs privés peuvent souvent les utiliser plus efficacement. Les autorités ont donc souvent cherché à allouer l’accès de ces bandes de fréquences à ces acteurs. Ce fut initialement fait via un processus connu sous le nom de concours de beauté, dans lequel les sociétés ont à fournir des arguments justifiant pourquoi elles doivent recevoir une licence. Ce processus a amené les sociétés de télécommunications et de médias à dépenser de larges montants d’argent en lobbying. Les recettes générées par le processus furent cependant limitées.

Dans les années 1990, lorsque le marché de la téléphonie mobile se développait, les autorités responsables aux Etats-Unis, la Federal Communications Commission (FCC), prirent conscience que les concours de beauté n’étaient pas tenables. Le nombre de compagnies de mobiles s’est rapidement accru et la FCC s’est retrouvée submergée de demandes d’accès aux fréquences radio. Après avoir subi des pressions de la FCC, le Congrès américain permit l’usage de loteries pour allouer les bandes de fréquences. Le concours de beauté était donc remplacé par une allocation entièrement aléatoire de licences, qui ne générèrent pourtant qu’un revenu limité pour le gouvernement.

Cependant, les opérateurs mobiles n’étaient pas heureux. Les loteries étaient menées à un niveau local, donc les opérateurs mobiles nationaux n’obtenaient généralement que des réseaux discontinus avec différentes bandes de fréquences dans différentes régions. Les opérateurs essayèrent alors d’acheter et de vendre des fréquences entre eux, menant à l’émergence d’un large marché de l'occasion pour les licences. Entretemps, la dette nationale croissante des Etats-Unis rendit cela de plus en plus politiquement difficile de continuer de distribuer des licences presque gratuitement. La valeur de marché des licences s’élevait à plusieurs milliards de dollars, de l’argent qui finissait dans les mains de spéculateurs de fréquences à la place de bons du Trésor américain (une perte de recettes qui serait en définitive supportée par les contribuables). Finalement, en 1993, il fut décidé que les bandes de fréquences seraient distribuées en utilisant les enchères.

De nouveaux formats d’enchères


Maintenant, un nouveau problème se pose : comment concevoir une enchère qui atteigne l’allocation efficient des bandes de fréquences ratio, tout en bénéficiant un maximum aux contribuables ? Ce problème se révèle être très difficile à résoudre, puisqu’une bande de fréquence a à la fois des composantes de valeur privée et de valeur commune. En outre, la valeur d’une bande de fréquence spécifique dans une région spécifique dépend des autres bandes de fréquences détenues par un opérateur spécifique.

Considérons un opérateur qui cherche à construire un réseau mobile national. Disons qu’un régulateur suédois mette aux enchères des bandes de fréquence une par une, en commençant par la Laponie au nord pour ensuite s’enfoncer peu à peu vers le sud jusqu’à la province de la Scanie. A présent, la valeur de la licence de Laponie dépend de la possibilité pour l’opérateur de réussir à acheter des licences lors des enchères suivantes jusqu’à la Scanie et du prix de ces achats. L’opérateur ne connait pas le résultat des enchères futures, donc il est presque impossible de savoir combien il devra payer pour acquérir la licence. En outre, des spéculateurs peuvent essayer d’acheter la bande de fréquence exacte dont l’opérateur a besoin à la Scanie, afin de la lui vendre à un prix élevé sur le marché de l’occasion.

Cet exemple suédois illustre un problème général. Pour le contourner, la première enchère étasunienne devait allouer toutes les zones géographiques du sceptre radio en même temps. Elle devait aussi gérer de nombreux enchérisseurs. Pour surmonter ces problèmes, Milgrom et Wilson (en partie avec Preston McAfee), inventèrent un format d’enchères entièrement nouveau, l’enchère à plusieurs tours simultanés (simultaneous multiple round auction, SMRA). Cette enchère offre tous les objets (les bandes de fréquences radio dans différentes zones géographiques) simultanément. En commençant avec les prix les plus faibles et en laissant la possibilité d’offres répétées, l’enchère réduit les problèmes provoqués par l’incertitude et la malédiction du vainqueur. Quand la FCC utilisa pour la première fois une SMRA, en juillet 1994, elle vendit 10 licences dans 47 tours d’enchères pour un total de 617 millions de dollars, des objets que le gouvernement américain avait précédemment alloués quasiment gratuitement. La première enchère du spectre utilisant une SMRA a généralement été considérée comme un grand succès. Plusieurs pays (notamment la Finlande, l’Inde, le Canada, la Norvège, la Pologne, l’Espagne, le Royaume-Uni, la Suède et l’Allemagne) ont adopté le même format pour leurs enchères du spectre. Les enchères de la FCC, utilisant ce format, ont rapporté plus de 120 milliards de dollars entre 1994 et 2014 et, globalement, ce mécanisme a généré plus de 200 milliards de dollars des ventes du spectre. Le format SMRA a aussi été utilisé dans d’autres contextes, notamment pour les ventes d’électricité et de gaz naturel.

Les théoriciens des enchères (souvent en travaillant avec des informaticiens, des mathématiciens et des spécialistes du comportement) ont raffiné les nouveaux formats d’enchères. Ils les ont aussi adaptés pour réduire les opportunités de manipulation et de coopération entre enchérisseurs. Milgrom est l’un des architectes d’une enchère modifiée (la combinatorial clock auction) dans laquelle les opérateurs peuvent enchérir sur des « paquets » de fréquences, plutôt que sur des licences individuelles. Ce type d’enchères requiert une forte puissance de calcul, comme le nombre de paquets possibles augmente très rapidement avec le nombre de fréquences en vente. Milgrom est aussi un développeur de premier plan pour un nouveau format avec deux tours (l’incentive auction). Au premier tour, vous achetez les fréquences radio des détenteurs actuels de fréquences. Au second tour, vous vendez ces fréquences à d’autres acteurs qui peuvent les gérer plus efficacement. (…) »

Académie royale des sciences de Suède, « The quest for the perfect auction », Popular science background, 12 octobre 2020. Traduit par Martin Anota

lundi 13 janvier 2020

Economie et politique de la concentration des marchés

« La concentration des entreprises et les marges de profits se sont accrues dans la plupart des secteurs aux Etats-Unis au cours des vingt dernières années. Le graphique 1 illustre ces tendances ainsi que les déclins de la part du travail et de l’investissement privé. Le ratio profit des entreprises après impôts sur valeur ajoutée a augmenté, passant en moyenne de 7 % au cours de la période allant de 1970 à 2002 à une moyenne de 10 % dans la période consécutive à 2002. Les entreprises avaient auparavant tendance à réinvestir environ 30 cents de chaque dollar de profit ; désormais, elles investissent seulement 20 cents pour chaque dollar de profit.

La bonne concentration versus la mauvaise concentration


Une question cruciale pour la recherche est si ces tendances reflètent un pouvoir de marché et la recherche de rentes ou bien des facteurs plus bénins, tels qu’un changement vers les actifs immatériels avec des effets de rendements d’échelle. La principale difficulté est que la relation entre la concentration et la concurrence est ambiguë.

GRAPHIQUE 1a Ratio de concentration des marchés

Gutierrez_Philippon__Ratio_de_concentration_des_marches.png

La concentration et la concurrence sont positivement reliées l’une à l’autre quand les chocs touchant la concurrence ex post jouent un rôle dominant dans les données. Par exemple, une baisse des coûts de recherche complique la survie des producteurs inefficaces, les force à fusionner ou à sortir du marché et entraîne en définitive une plus forte concentration. Un creusement des écarts de productivité entre les entreprises, souvent en raison des actifs immatériels, peut jouer un rôle similaire. Si ces explications sont les bonnes, les entreprises restantes sur le marché doivent être les plus productives et la concentration doit aller main dans la main avec une forte croissance de la productivité et l’investissement immatériel.

GRAPHIQUE 1b Profits des entreprises après impôts (en % de la valeur ajoutée)

Gutierrez_Philippon__Profits_des_entreprises_apres_impots.png

La concentration et la concurrence sont négativement liées l’une à l’autre quand les chocs touchant les coûts d’entrée jouent un rôle dominant dans les données. Cela peut résulter des changements dans l’application de la législation antitrust, des barrières à l’entrée ou de la menace de comportements prédateurs de la part des entreprises en place. Si ces explications-là sont les bonnes, la concentration doit être négativement reliée à la productivité et à l’investissement.

GRAPHIQUE 1c Rémunérations des salariés (en % de la valeur ajoutée brute)

Gutierrez_Philippon__Remunerations_des_salaries.png

Certains secteurs collent à l’hypothèse de la concentration efficace, tandis que d’autres collent à celle de la recherche de rentes. Ali Hortaçsu et Chad Syverson affirment que l’essor des hypermarchés et du e-commerce reflète les gains d’efficacité dans le secteur de la grande distribution. Le secteur du commerce de gros semble aussi coller à ce schéma. Le secteur des télécommunications, d’un autre côté, colle au schéma de la quête de rentes. Il est devenu de plus en plus concentré et Germán Gutiérrez et moi avons montré que les consommateurs américains payent aujourd’hui deux fois plus pour les services de téléphonie mobile et de haut débit que les citoyens de quasiment tous les autres pays développés. Certains secteurs de haute technologie combinent les aspects des deux types de concentration. L’une des raisons, comme Nicolas Crouzet et Janice Eberly l’affirment, est que le capital immatériel génère simultanément de forts rendements et des rentes élevées.

GRAPHIQUE 1d Investissement net (en % de l'excédent net d'exploitation)

Gutierrez_Philippon__Investissement_net.png

Au cours des vingt dernières années, la concentration négative est cependant devenue relativement plus importante aux Etats-Unis. Les récentes hausses de la concentration ont été associées à une faible croissance de la productivité et à une baisse des taux d’investissement. Les entreprises dans les secteurs où la concentration augmente s’engagent dans des fusions et acquisitions plus profitables et dépensent davantage dans le lobbying. Les profits excessifs ne sont plus annulés par la libre entrée et la rotation des meneurs de chaque secteur a diminué.

L’économie politique de la concentration


Si la "mauvaise" concentration a fini par prévaloir, nous devons comprendre pourquoi. Quelles sont les barrières à l’entrée ? Quel est le rôle respectif de la politique et de la technologie ? Il est difficile d’obtenir une réponse convaincante en regardant seulement les Etats-Unis, mais la comparaison avec d’autres régions (l’Europe en particulier) est assez éclairante. Jusqu’aux années quatre-vingt-dix, les marchés américains étaient plus concurrentiels que les marchés européens. Aujourd’hui, cependant, beaucoup de marchés européens ont de moindres profits excessifs et de moindres barrières réglementaires à l’entrée. Deux secteurs américains illustrent très bien l’évolution de la concentration et des marges au cours du temps : les télécoms et le transport aérien.

Il y a vingt ans, l’accès à internet était moins cher aux Etats-Unis qu’en Europe. En 2018, le coût mensuel moyen d’un haut débit fixe est deux fois plus important aux Etats-Unis qu’en France ou en Allemagne. Le transport aérien est un autre secteur où les Etats-Unis ont reculé. La hausse de la concentration et des profits suit une vague de fusions controversées, notamment la fusion entre Delta et Northwest en 2008, celle entre United et Continental en 2010, celle entre Southwest et AirTran en 2011 ou encore celle entre American et US Airways en 2014. En Europe, au cours de la même période, la croissance des compagnies low cost a accentué la concurrence et poussé les prix à la baisse.

Les secteurs européens ne sont pas devenus moins chers et plus concurrentiels par hasard. Dans tous les cas que j’ai étudiés, il y a eu une action significative de la part des autorités, par exemple le retrait d’une barrière à l’entrée ou une action antitrust. Le secteur des télécoms français, par exemple, était en oligopole avec trois opérateurs historiques qui recouraient à un lobbying intense pour empêcher l’entrée d’un nouveau concurrent. L’oligopole fut remis en cause en 2011 lorsqu’un quatrième opérateur obtint une licence et les prix chutèrent de moitié dans les deux années suivantes.

Ces résultats sont surprenants. L’Europe, avec sa tradition de protection de champions nationaux, n’est pas le lieu où nous nous serions attendus à voir la concurrence s’intensifier. Les Etats-Unis, avec sa tradition de marchés libres, n’est pas le lieu où nous nous serions attendus à voir la concurrence refluer. Comment pouvons-nous alors expliquer ces évolutions ?

L’explication théorique pour l’Europe est en fait relativement simple. Quand les institutions du Marché unique de l’UE ont été conçues au début des années quatre-vingt-dix, les Etats-membres craignaient que chacun essaierait d’imposer son agenda domestique aux régulateurs communs. Gutiérrez et moi montrons que l’équilibre de Nash du jeu de la conception de la réglementation se déroule différemment au niveau de l’UE qu’au niveau national. Au niveau national, les politiciens jouissent de la possibilité d’influencer les régulateurs. Au niveau de l’UE, cependant, ils s’inquiètent de l’influence des autres Etats-membres. Par conséquent, les Etats-membres se sont accordés pour donner aux institutions européennes davantage d’indépendance qu’ils n’en donnent aux institutions nationales. C’est pourquoi l’Europe a fini avec la banque centrale et l’agence antitrust les plus indépendantes au monde. Au cours des vingt années suivantes, la logique du marché unique a peu à peu poussé l’Europe vers des marchés plus libres et plus concurrentiels.

Comprendre comment les marchés américains sont devenus moins concurrentiels est plus compliqué. Il y a plein d’explications possibles. Une partie de l’accroissement de la concentration s’explique par l’accroissement des rendements des actifs immatériels, comme Crouzet et Eberly l’expliquent. Le test crucial tient à la relation entre croissance de la productivité et concentration. Matias Covarrubias, Gutiérrez et moi constatons une corrélation positive entre changements de la concentration et croissance de la productivité dans les années quatre-vingt-dix. Cela suggère que la concentration était soit bénigne, soit le prix à payer pour atteindre une plus forte efficacité. Cependant, la corrélation est devenue négative dans les années deux mille, suggérant une plus forte prévalence de recherche de rentes. Malheureusement, c’est là où le manque de données (…) crée des défis empiriques. Il y a aussi des questions économétriques épineuses quand nous utilisons des données granulaires pour tester cette relation. Il faut reconnaître que nous n’avons pas de certitude ici.

Deux tendances qui sont spécifiques aux Etats-Unis dans les années deux mille nous aident à faire la lumière sur cette question. L’une est ce que Gutiérrez et moi avons qualifié d’échec de libre entrée. Quand les profits augmentent dans un secteur, de nouvelles entreprises doivent entrer dans ce dernier. Quand les profits diminuent, les firmes en place devraient sortir du marché ou se lancer dans des opérations de consolidation. La théorie économique prédit un surcroît d’entrées dans les secteurs où les valeurs boursières sont fortes relativement aux valeurs comptables, un indicateur connu sous le nom de ratio q de Tobin. Intuitivement, le q de Tobin mesure les profits attendus (tels qu’ils sont valorisés par le marché) par unité de coûts d’entrée (les valeurs comptables). Nous étudions si le nombre d’entreprises augmente dans les secteurs où le q de Tobin est élevé et diminue dans les secteurs où il est faible.

Le graphique 2 montre que la libre entrée était bien portante des années soixante aux années quatre-vingt-dix. L’élasticité positive implique, lorsque le q de Tobin médian d’un secteur augmentait, plus les entreprises entraient dans ce secteur. En l’occurrence, une hausse du q de Tobin d’une unité dans un secteur, par exemple de 1 à 2, coïncida avec une hausse du nombre d’entreprises dans ce secteur d’environ 10 % au cours des deux années suivantes. Ce qui est cohérent avec la libre entrée, les entreprises avaient tendance à entrer dans les secteurs à q élevé et à sortir des secteurs avec un faible q.

GRAPHIQUE 2 Élasticité des entrées nettes vis-à-vis du q de Tobin

Gutierrez_Philippon__elasticite_entrees_nettes_visa-vis_q_de_Tobin.png

Mais ce n’est plus le cas. L’élasticité a été quasiment nulle depuis 2000. Cela remet en cause le mécanisme de rééquilibrage fondamental qui était au cœur du raisonnement que développait l’école de Chicago pour conclure qu’il ne fallait pas s’inquiéter à propos de la domination de marché par une poignée de grandes entreprises. Si la libre entrée échoue, le raisonnement du laissez-faire s'écroule.

L’autre tendance frappante aux Etats-Unis durant les années deux mille est l’essor du lobbying de la part des entreprises et des contributions au financement des campagnes. Le lobbying et la réglementation peuvent expliquer l’échec de la libre entrée si les entreprises en place les utilisent pour altérer les règles du jeu. Les entreprises en place peuvent, par exemple, influencer l’application de la législation antitrust et de la législation relative aux fusions-acquisitions aussi bien que des réglementations allant des brevets et de la protection copyright à la réglementation financière, en passant par les accords de non-concurrence, la certification professionnelle et les échappatoires fiscales. Ce qui est cohérent avec ces idées, nous constatons que l’élasticité de l’entrée des entreprises au q de Tobin a davantage diminué dans les secteurs qui ont connu les plus forts accroissements de lobbying et de réglementations.

L’échec de la libre entrée a des implications négatives pour la productivité, l’égalité et le bien-être en général. Si le capital reste piégé dans les secteurs déclinants et n'est pas alloué vers les secteurs prometteurs, l’économie en souffre : la croissance de la productivité est faible, les salaires stagnent et les niveaux de vie peinent à s’améliorer. »

Thomas Philippon, « The economics and politics of market concentration », in NBER Reporter, n° 2019:4. Traduit par Martin Anota



aller plus loin...

« Les marchés européens sont plus concurrentiels que les marchés américains »

« Firmes stars, étoiles montantes ? »

« Faut-il s’inquiéter de la concentration des marchés aux Etats-Unis ? »

« Pourquoi les barrières à l’entrée se sont-elles renforcées aux Etats-Unis ? »

mardi 17 décembre 2019

« Le manque de concurrence a fait perdre 1.250 milliards de dollars aux travailleurs américains »



« (…) ProMarket : Votre livre The Great Reversal est une étude minutieuse de la concentration des secteurs et des implications d’un pouvoir de marché des entreprises incontrôlé, mais il débute avec une question simple : "Pourquoi les forfaits de portables sont-ils bien plus chers aux Etats-Unis qu’en Europe ?"

Philippon : Ce fut l’une des questions fondamentales auxquelles je voulais répondre. Il y a beaucoup de biens et services qui étaient habituellement bien moins chers aux Etats-Unis qu’en Europe. Ils sont tous maintenant bien plus chers aux Etats-Unis. Je voulais comprendre ce qui s’est passé. Il y a une très bonne étude à ce sujet réalisée par Luigi Zingales et Mara Faccio. Ils ont utilisé données différentes de celles que je regardais initialement, mais ils sont arrivés à la même conclusion, à savoir que les prix sont 2,5 fois plus élevés aux Etats-Unis qu’en Europe. C’est fou. Ce n’est pas une différence de 10 % ; c’est une différence de 150 %. Ce n’est pas quelque chose que vous pouvez expliquer en disant que les Etats-Unis sont un peu plus riches et donc que certains biens et services sont plus chers ici.

Initialement, je ne pensais pas qu’il s’agissait d’un schéma large, systémique. Je pensais juste avoir trouvé quelques exemples. Mais ce que j’ai découvert à travers mes travaux avec Germán Gutiérrez, c’est qu’il y en a beaucoup. Il ne s’agit pas seulement des forfaits de portables. Les billets d’avions étaient aussi auparavant bien moins chers et ils sont aujourd’hui bien plus chers aux Etats-Unis qu’en Europe. Il s’agit aussi des télécommunications, un domaine où les Etats-Unis sont particulièrement mauvais : le coût du haut débit est de 68 dollars par mois en moyenne aux Etats-Unis. En France, il est de 31 dollars. En Allemagne et au Japon, il est de 35 dollars ; en Corée du Sud, il est de 32 dollars. Je trouve cela choquant. Je me souviens très bien lorsque j’étais venu aux Etats-Unis en 1999 et qu’il y était bien moins cher de s’y connecter à Internet qu’en Europe.

ProMarket : Qu’est-ce qui explique ce changement ?

Philippon : J’ai une immense dette envers la Brookings et Janice Eberly, qui m’avait demandé d’écrire un article sur les raisons pour lesquelles l’investissement des entreprises aux Etats-Unis a été très faible. C’est une énigme, car les taux de profit aux Etats-Unis sont extrêmement élevés, si bien que les entreprises gagnent beaucoup d’argent. Les taux d’actualisation sont très faibles, donc elles peuvent emprunter à de faibles coûts. Les cours boursiers reflètent cela en atteignant des niveaux très élevés. Ces facteurs tendent habituellement à prédire un investissement élevé, mais nous n’avons pas connu d’investissement élevé.

Il y a deux explications pour ce qui se passe. La première est qu’il y a davantage d’investissement dans les actifs immatériels, or un tel investissement est difficile à mesurer correctement, et cela explique effectivement une partie de la différence. Mais en fait c’est surtout parce que, ce que nous voyons dans les données, c’est que les profits élevés reflètent essentiellement des rentes de monopole. Une fois que vous comprenez cela, alors l’énigme disparaît. Par définition, un monopoleur réalise un taux de profit élevé, mais il ne désire pas accroître ses capacités de production. Cela peut facilement expliquer les fortes valorisations boursières, les flux de trésorerie élevés et le faible investissement. Alors ce qu’il faut alors se demander, c’est pourquoi il y a plus de pouvoir de monopole aujourd’hui qu’il y a vingt ans.

ProMarket : Les Etats-Unis, écrivez-vous, étaient d'habitude présentés comme un modèle pour les marchés concurrentiels, tandis que l’Europe était perçue comme désespérément monopolistique. Quand est-ce que cette relation a commencé à s’inverser ?

Philippon : Les Etats-Unis avaient des marchés hautement concurrentiels à la fin des années quatre-vingt-dix, mais ils allèrent dans la mauvaise direction, tandis que l’Europe partit d’un faible niveau de concurrence, mais alla dans la bonne direction. Quelque part à la fin des années deux mille, leurs niveaux de concurrence convergèrent. Aujourd’hui, beaucoup de marchés sont en fait plus chers et moins concurrentiels aux Etats-Unis qu’en Europe. D’où le "grand renversement" (great reversal).

L’ironie est que toutes les bonnes idées qui contribuèrent à libéraliser les marchés européens sont venues des Etats-Unis. La raison pour laquelle les billets d’avion sont moins chers en Europe est parce qu’il y a des compagnies low-cost en concurrence avec les vieilles grandes compagnies. Ces compagnies low-cost se sont en partie inspirées de ce que le Southwest faisait aux Etats-Unis. Les réglementations européennes en vigueur sur les marchés des biens se sont toutes inspirées des Etats-Unis à la fin des années quatre-vingt-dix. C’est pourquoi nous avons de moindres barrières à l’entrée et pourquoi le nombre de jours qu’il faut pour ouvrir une entreprise en Europe est passé de 30 à 5. Il y a vingt ans, les Etats-Unis étaient bien en avance sur l’Europe à ce niveau. C’est ainsi que nous avons rendu les marchés européens plus concurrentiels : essentiellement en nous inspirant de ce qui marchait aux Etats-Unis et en le reproduisant. L’idée que les marchés libres sont bons, que vous devez avoir de la concurrence, ce ne sont pas des idées propres à l’Europe. Elles viennent des Etats-Unis. (...)

ProMarket : Vous identifiez la période où cours de laquelle l’Europe et les Etats-Unis se sont "inversés" au début des années deux mille. D’autres estiment que la concurrence américaine a commencé à baisser à partir des années quatre-vingt.

Philippon : Je ne suis pas d’accord avec ceux qui affirment que les Etats-Unis ont commencé à perdre en concurrence dans les années quatre-vingt ou même quatre-vingt-dix. Je pense qu’ils se trompent, parce qu’ils oublient que la concentration n’est pas toujours une mauvaise chose. Vous pouvez avoir une bonne concentration et une mauvaise concentration. Nous trouvons de bons exemples de bonne concentration, où vous avez des marchés plus concurrentiels et des firmes meneuses plus efficaces qui accroissent leurs parts de marché. Si vous avez plus de concurrence, alors les producteurs les plus faibles sont évincés du marché et vous vous retrouvez avec un marché à la fois plus concurrentiel et plus concentré. C’est ce qui s’est passé dans une large mesure aux Etats-Unis dans les années quatre-vingt et quatre-vingt-dix. C’était un bon type de concentration.

ProMarket : Ce genre de raisonnement qui permit ce que vous appelez la bonne concentration n’est-il pas similaire au raisonnement qui permit à la mauvaise concentration de prendre le dessus ? N’est-ce pas la "bonne concentration" qui est à l’origine du relâchement du droit antitrust qui conduisit à la "mauvaise" concentration ?

Philippon : Oui. Je me réfère aux marchés effectifs, pas à l’idéologie sous-jacente. Pour le marché concret, je pense que le problème aux Etats-Unis commence à la fin des années quatre-vingt-dix ou au début des années deux mille. Avant, nous avions essentiellement une bonne concentration et aussi une régulation antitrust puissante. Le procès contre AT&T s’est déroulé dans les années quatre-vingt, sous Reagan, et il constitue le plus grand procès antitrust de l’histoire. A la fin des années quatre-vingt-dix, vous avez eu le procès Microsoft. Il n’est pas exact que la mise en application du droit antitrust était très lâche. (…)

Si vous regardez le cœur du raisonnement de l’école de Chicago, vous trouvez l’idée que les hauts profits attirent toujours une nouvelle concurrence. En conséquence, vous n’avez jamais à vous inquiéter du pouvoir de monopole. (…) Vous n’avez pas à vous inquiéter d’un éventuel excès de pouvoir de marché de la part des entreprises si celui-ci mène à des profits excessifs, parce que de nouveaux rivaux vont alors entrer sur le marché. Ces entrées vont maintenir le système à l’équilibre. C’est cela l’idée clé. Le problème est que les membres de l’école de Chicago ont misé sur cette idée sans prendre le temps de se demander si elle était vraiment exacte. Ce que les données montrent, c’est qu’elle était peut-être exacte dans les années soixante-dix et quatre-vingt, quand ils faisaient ce raisonnement, mais qu’elle ne l’est plus aujourd’hui. Depuis 2000, la corrélation entre l’entrée et le profit au niveau sectoriel a cessée de devenir positive pour devenir essentiellement nulle pendant les 15 dernières années. Dans un monde où les entrées n’équilibrent pas les profits excessifs, alors la vision de l’école de Chicago selon laquelle vous n’avez pas à vous inquiéter du pouvoir de marché des entreprises devient inexacte.

L’idée selon laquelle la libre entrée va toujours équilibrer le système était très naïve, je pense. D’un autre côté, l’une des raisons pour lesquelles nous n’avons pas de libre entrée dans plusieurs marchés américains aujourd’hui tient aux réglementations gouvernementales. L’école de Chicago a toujours fait part de ses craintes à l’idée que les politiciens et les régulateurs soient capturés par les lobbyistes. C’est sur ce point que l’école de Chicago a raison selon moi. (...)

ProMarket : Vous avez calculé que le manque de concurrence a appauvri les travailleurs américains de 1.250 milliards de dollars de revenu. Comment êtes-vous parvenu à ce chiffre ?

Philippon : Supposez que vous reveniez au niveau de concurrence que vous aviez aux Etats-Unis en 2000. En cherchant quel impact cela aurait directement sur les prix aujourd’hui, mon estimation est que cela aurait économisé environ 300 dollars par mois pour le ménage américain médian. Etant donné que beaucoup de ménages déclarent ne pas être capables de faire face à une facture inattendue de 500 dollars, c’est énorme. En termes d’économie directe par an pour l’ensemble des ménages américains, c’est quelque chose comme 500 à 600 milliards de dollars d’économie directe chaque année, juste en raison de prix plus faibles. Une fois que vous prenez en compte qu’un surcroît de concurrence et de moindres prix mènent à un surcroît d’activité, d’emploi et d’investissement, alors cela se traduit par une perte du PIB privé équivalente à 1.000 milliards de dollars. Bien sûr, ce ne serait pas neutre. Des prix plus faibles signifient que les profits seraient plus faibles, d’environ 250 milliards de dollars et que le revenu du travail croîtrait de 1.250 milliards de dollars. C’est beaucoup d’argent. (...)

ProMarket : vous consacrez une grande partie du livre à l’utilisation du lobbying par les entreprises en vue d’obtenir des régulations qui protègent leurs rentes de monopole. Quelles tendances que vous décrivez (le faible investissement, les prix élevés, la concentration croissante) résultent du lobbying des firmes contre la concurrence ?

Philippon : Je pense que cela en explique une grande partie, mais il est très difficile d’avoir une estimation précise dans la mesure où les données sur le lobbying ne sont pas très bonnes. Ce qui me frappe est que même avec les données dont nous disposons, les effets du lobbying sont toujours très manifestes au niveau étatique, au niveau fédéral, au niveau sectoriel : lorsque vous voyez une forte poussée du lobbying, les entreprises réussissent à obtenir les régulations qu’elles veulent ou à éviter des poursuites antitrust. Plus nous peaufinons les données, plus c’est cohérent avec cette idée. Mais, bien sûr, les entreprises en place peuvent aussi utiliser des stratégies qui limitent la concurrence sans recourir au lobbying : elles peuvent adopter des stratégies prédatrices ou menacer d’utiliser des stratégies prédatrices, elles peuvent acheter des concurrents naissants, etc. (...)

ProMarket : Vous semblez soutenir la déréglementation. Vous écrivez que la déréglementation stimule la créativité et l’innovation et accroît la demande de travailleurs qualifiés. Beaucoup affirmeraient que la déréglementation a aussi contribué à l’essor de la concentration et du pouvoir de marché.

Philippon : Cela dépend de ce que vous avez en tête quand vous parlez de réglementation et de déréglementation. Vous devez toujours considérer les choses en termes de bonnes et de mauvaises régulations. "Nous devons davantage réglementer", cela n’existe pas. Nous devons bien réglementer. Comme principe, toute nouvelle réglementation considérée aux Etats-Unis devrait être jugée en partie selon la question fondamentale suivante : "va-t-elle créer des barrières à l’entrée ?" Quand vous arrivez au point où le marché est aussi dominé par les grosses firmes, cela devrait être une priorité. Cela signifie qu’à certains moments vous allez vouloir tuer certaines réglementations et qu’à d’autres moments vous voudrez avoir une certaine réglementation à cause de cela. Je vais vous donner un exemple. Imaginons que vous forciez les banquez à avoir une interface que les gens pourraient utiliser pour partager leurs données bancaires. C’est une réglementation qui accroîtrait l’entrée parce que vous permettrez aux entreprises de fintech de concurrencer les banques pour fournir des conseils aux consommateurs. (...) »

Thomas Philippon, « The lack of competition has deprived American workers of $1.25 trillion of income », entretien in ProMarket, 9 décembre 2019. Traduit par Martin Anota



aller plus loin...

« Les marchés européens sont plus concurrentiels que les marchés américains »

« Firmes stars, étoiles montantes ? »

« Faut-il s’inquiéter de la concentration des marchés aux Etats-Unis ? »

« Pourquoi les barrières à l’entrée se sont-elles renforcées aux Etats-Unis ? »

samedi 30 novembre 2019

Le fléau des grosses entreprises



« Les titans des nouvelles technologies comme Amazon, Google, Facebook et Apple dominent leurs marchés respectifs et sont de plus en plus puissants. Maintenant, un chœur de critiques appelle à les démanteler. Nous avions connu un tel contexte par le passé. Il y a plus d’un siècle, c’était la Standard Oil qui fut accusée de pratiques anticoncurrentielles. Ensuite, il y a eu le secteur du conditionnement de viande, celui de la production de métal et celui des télécommunications. Chaque phase présenta des questions uniques à propos de la façon d’agir face aux sociétés puissantes. Naomi Lamoreaux pense qu’il est utile de revisiter cette histoire.

AEA : Quelles leçons l’histoire des entreprises comme la Standard Oil pourraient nous être utiles aujourd’hui ?

Naomi Lamoreaux : Il s’agissait d’entreprises très très grandes et elles suscitaient des craintes qui ressemblent à celles que suscitent les grandes entreprises aujourd’hui : des craintes à propos de possibles manipulations déloyales des opportunités économiques, des craintes à propos de leur influence politique, la crainte qu’une grande taille et un ample patrimoine puissent nuire à l’économie, à la société, à la politique de façons complexes et opaques.

AEA : Comment pouvez-vous brièvement décrire ce que la Standard Oil était et sa domination des marchés de l’énergie ?

Lamoreaux : La Standard Oil était un raffineur de pétrole brut. Initialement, son principal produit était le kérosène, qui était utilisé à des fins d’éclairage. Plus tard, elle devint un producteur de gazolène, mais son monopole était initialement un monopole dans l’éclairage, le kérosène. Initialement, elle ne représentait qu’environ 4 % des capacités de raffinage du pays. Cette part était de 4 % en 1870 ; elle s’élevait à 90 % une décennie après. Ainsi, cela effraya la population et fit sonner le signal d’alarme.

AEA : Comment est-elle devenue si grosse aussi rapidement ?

Lamoreaux : Fondamentalement, elle a été capable de s’approprier des avantages déloyaux sur ses rivales au moyen de rabais dans le transport ferroviaire. Une bonne partie du prix du pétrole tenait aux coûts de transport du pétrole et la Standard a été capable d’obtenir de moindres coûts de transport que ses rivales grâce au transport ferroviaire et d’utiliser ensuite cet avantage pour forcer ses rivales à quitter le marché ou à se vendre à elle.

AEA : Quand est-ce que les régulateurs commencèrent à s’attaquer à la Standard Oil ?

Lamoreaux : Les premiers régulateurs qui agirent opéraient au niveau des Etats fédérés. Les Etats répondirent à l’émergence de la Standard Oil et à d’autres imitateurs de la Standard Oil avec une législation que nous qualifierons aujourd’hui de législation antitrust à la fin des années 1880.

Le Congrès fit face à des pressions pour engager des actions, donc il adopta une loi en 1980 appelée le Sherman Antitrust Act, qui est la première loi antitrust au niveau fédéral qui transforma en crime toute tentative de monopoliser le commerce ou de s’engager dans la restriction des activités commerciales. Le problème avec cette loi était qu’elle était bien plus difficile de l’appliquer aux sociétés à charte d’Etat fédéré. Des sociétés comme la Standard Oil souscrivirent à la charte d’Etats bienveillants comme le New Jersey. La Standard pouvait être un monopole, mais elle opérait sous une charte du New Jersey et, selon la loi du New Jersey, c’était une entreprise légale. Cela posa des problèmes pour les régulateurs fédéraux. Il fallut attendre 1911 pour que les régulateurs trouvent comment agir avec une société comme la Standard. La Cour Suprême prit alors deux décisions, la première concernant la Standard Oil Company et la seconde concernant l’American Tobacco Company, celles de démanteler ces sociétés au motif qu’elles s’étaient engagées dans des activités anticoncurrentielles.

AEA : Il y a une ligne ténue entre les pratiques des entreprises qui s’avèrent anticoncurrentielles et dangereuses et celles qui améliorent l’efficience. Pouvez-vous décrire l’évolution dans notre façon de voir ce qui est dangereux et ce qui ne l’est pas ?

Lamoreaux : Il y avait d’un côté l’idée que ces grandes firmes qui émergeaient dans plusieurs secteurs de l’économie (…) avaient fait des choses bénéfiques, comme réduire le coût des biens pour les consommateurs, améliorer l’efficience et fournir de nouveaux biens aux consommateurs. Elles étaient grandes et connaissaient le succès et parce qu’elles connaissaient le succès elles disposaient d’un pouvoir de marché. Les gens voulaient trouver des façons de distinguer entre, d’un côté, ces firmes et, de l’autre, les firmes qui grossissaient en restreignant la concurrence en disposant d’avantages déloyaux. Le problème est qu’il est difficile de ranger clairement les entreprises dans l’une ou l’autre de ces catégories. Les entreprises les plus efficientes, les plus innovantes, peuvent faire des choses qui visaient à bloquer la concurrence future. Elles peuvent s’engager dans des pratiques que nous considérons comme déloyales et anticoncurrentielles.

Ensuite, au cours du vingtième siècle, les responsables de la politique publique cherchèrent tout d’abord à identifier ces types de comportements et à simplement stopper les mauvais comportements. Mais à la fin des années 1930, elles commencèrent à se dire qu’elles ne pouvaient vraiment pas faire cela. La grosse taille était mauvaise en soi et les régulateurs poursuivirent alors simplement des politiques qui visaient à réduire la part de marché des grosses firmes, que celles-ci se comportent mal ou non. Et cette vision de ce que doit faire la politique antitrust a vraiment émergé à la fin des années 1930 et elle a demeura jusqu’au début des années 1970. Ensuite, nous avons basculé à l’opposé et considéré que la grosse taille n’était pas un problème aussi longtemps que les entreprises offrent des gains aux consommateurs et qu’il n’y avait pas à s’inquiéter du tout de cela. Et maintenant les gens commencent à reconsidérer de nouveau les choses.

AEA : Vous faites référence ici à la tension entre l’Ecole de Chicago et ceux que l’on qualifie de "néo- brandeisiens" (New Brandeisians). Pouvez-vous expliquer en quoi tiennent les différences entre leurs raisonnements ?

Lamoreaux : La position de l’Ecole de Chicago était que la taille ne doit pas être un problème si la taille était le produit d’une plus grande efficience. Mon vieux collègue Harold Demsetz affirmait que les grandes entreprises avaient souvent un pouvoir de marché parce qu’elles avaient vraiment réussi et que vous ne voulez pas punir cela. Donc, fondamentalement, la taille n’était pas du tout considérée comme un problème et, aussi longtemps que les entreprises ne faisaient pas de choses qui nuisaient aux consommateurs, ne restreignaient pas la production, ne s’entendaient pas pour maintenir des prix élevés, il n’y avait pas de problème avec la taille.

Les "néo-brandeisiens" voient les choses très différemment. Ils se qualifient de néo-brandeisiens parce que leur vision du monde est très similaire à celle de Louis Brandeis. Pour ce dernier, les grandes entreprises étaient sources de menaces sur plusieurs plans. Si elles peuvent apporter des bénéfices aux consommateurs à court terme, elles peuvent étouffer l’innovation à long terme. Elles peuvent protéger leur position en recourant au lobbying pour empêcher le Congrès ou d’autres autorités de prendre des décisions susceptibles de réduire leur puissance. Et, bien sûr, les gens s’inquiètent à propos de plein d’autres choses relatives à la grande taille qui ne sont pas liées à la politique antitrust, mais sont des inquiétudes sociales comme le contrôle de l’information.

AEA : Quelle est la leçon la plus importante que, selon vous, l’Histoire a à offrir pour aujourd’hui ?

Lamoreaux : Je dirai deux choses. La première est que les inquiétudes à propos de la grande taille des entreprises ont toujours été multidimensionnelles et ne peuvent être réduites la simple question quant à savoir si les consommateurs en sont affectés dans une statique comparative. Le second point est qu’essayer de savoir si une grande entreprise fait du mal ou non, se comporte mal ou non, est en fait une tâche très épineuse. Parce que cette tâche est si difficile, nous avons (…) baissé les bras et dit que nous ne fixerions pas de limite.

C’est une illusion de penser qu’il n’y a qu’un seul principe qui nous permettrait d’échapper à ce genre de questions de jugement. Et les questions de jugement vont toujours être imparfaites. C’est intrinsèque aux systèmes politiques. C’est intrinsèque au système de régulation. Cela implique toujours un jugement. Et nous allons toujours nous tromper dans un sens ou un autre. Mais c’est là où nous devons travailler : chercher la bonne solution. Nous n’aurons jamais la bonne solution, mais nous devons essayer de l’avoir. »

American Economic Association, « The curse of bigness », 30 août 2019. Traduit par Martin Anota



aller plus loin...

« Le FMI s’inquiète du pouvoir de marché des firmes superstars »

« Quelles sont les répercussions macroéconomiques du plus grand pouvoir de marché des entreprises ? »

« Faut-il s’inquiéter de la concentration des marchés aux Etats-Unis ? »

mercredi 1 mai 2019

Démanteler les grandes firmes du numérique pour réduire leur pouvoir de marché ?

« La sénatrice Elizabeth Warren a proposé de démanteler les grosses entreprises du secteur des nouvelles technologies. Un rapport du gouvernement britannique a présenté une autre approche pour réguler l’économie digitale. Et une étude du FMI a rappelé que la concentration du pouvoir de marché va au-delà du numérique. Ce billet passe en revue le débat…

Le 8 mars, la sénatrice américaine Elizabeth Warren a publié un essai où elle développe sa proposition de démanteler les grosses compagnies de nouvelles technologies du pays, à savoir en particulier Amazon, Google et Facebook. Ces entreprises, affirme Warren, ont acquis un pouvoir excessif : "Près de la moitié de l’ensemble du commerce numérique passe par Amazon", tandis que "plus de 70 % de l’ensemble du trafic sur Internet passe par des sites possédés ou exploités par Google ou Facebook".

Surtout, ces firmes ont utilisé ce pouvoir pour étouffer leurs rivales et limiter l’innovation. Warren accuse "un relâchement de l’application de la loi antitrust" d’avoir entraîné "une réduction dramatique de la concurrence et de l’innovation" dans ce secteur, en notant que "le nombre de nouvelles entreprises de nouvelles technologies a baissé, qu’il y a moins de jeunes firmes à forte croissance typiques de l’industrie des nouvelles technologies et que les premiers tours de financement pour les startups de nouvelles technologies ont décliné de 22 % depuis 2012".

Cette réduction de la concurrence et de l’innovation, poursuit-elle, passe par deux canaux : l’acquisition par les grosses entreprises de potentiels rivaux ; et leur engagement dans un marché qu’elles possèdent. Donc, la proposition de démanteler les grosses firmes de nouvelles technologies repose en fait sur deux propositions distinctes de séparation. Premièrement, pour répondre au conflit d’intérêt, les entreprises qui "offrent au public sur un marché en ligne un échange ou une plateforme pour se connecter à des tiers" et génèrent des recettes annuelles globales supérieures à 25 milliards de dollars auraient à choisir entre posséder la plateforme ou y participer. Deuxièmement, pour rétablir un paysage concurrentiel, Warren nommerait des régulateurs ayant pour tâche de renverser les fusions anticoncurrentielles en utilisant les lois antitrust existantes. Elle fait explicitement mention aux fusions suivantes : Amazon avec Whole Foods et Zappos ; Facebook avec Whatsapp et Instagram ; Google avec Waze, Nest et DoubleClick.

"L'Amérique a une longue tradition de démantèlement des entreprises lorsqu’elles sont devenues trop grosses et dominantes", dit Warren. Elle rappelle que lorsque, dans les années quatre-vingt-dix, Microsoft "essayait de convertir sa position dominante dans les systèmes d’explorateurs en position dominante dans le nouveau domaine de la recherche internet", le gouvernement lança une procédure d’infraction à la réglementation antitrust contre cette firme qui "contribua à tracer la voie pour que des entreprises d’internet comme Google et Facebook puissent émerger".

Warren n’est pas la seule à évoquer des exemples de l’histoire antitrust américaine pour étayer son argumentation. Tyler Cowen, cependant, trouve plus de similarités avec la procédure d’infraction à la réglementation antitrust lancée contre IBM en 1969 et adopte le point de vue opposé. Le gouvernement américain essaya de démanteler cette entreprise lorsqu’elle "contrôlait près de 70 %" du marché des ordinateurs pour entreprises. "L’affaire dura 13 ans, coûtant des millions de dollars à IBM et au gouvernement, sans oublier qu’elle détourna l’attention des innovateurs d’IBM", écrit Cowen. Il ajoute que "la procédure d’infraction à la réglementation antitrust lancée contre IBM rendit cette dernière moins à même de percevoir la réorientation du marché vers les PC" et contribua à l’effondrement de la part de marché d’IBM et lui occasionna des pertes records.

Du point de vue de Cowen, les entreprises majeures de nouvelles technologies ont été des innovateurs très efficaces et le démantèlement pourrait de la même façon les distraire et les affaiblir, c’est-à-dire nuire en définitive à l’innovation. En fait, Cowen loue les grosses entreprises de nouvelles technologies pour ce que d’autres les accusent : plutôt que d’utiliser les acquisitions pour éliminer de potentiels concurrents qui pourraient les menacer, elles ont permis à leurs acquisitions de se développer en mettant à leur disposition leurs vastes ressources. Il cite comme exemple l’acquisition de YouTube et Android par Alphabet et l’investissement subséquent de cette dernière dans les premières et l’amélioration du contenu et des services de celles-ci.

Cowen remet également en cause l’idée que les grosses entreprises de nouvelles technologies soient en situation de monopole. Dans l’espace des réseaux sociaux, Facebook est toujours en concurrence avec de nombreux rivaux, numériques ou non, et il ajoute qu’"il est facile d’imaginer que Facebook devienne un acteur moins important à mesure que le temps passe". Dans la publicité, Google et Facebook peuvent être meneurs, mais ils sont toujours en concurrence l’un contre l’autre, aussi bien qu’avec d’autres acteurs plus traditionnels (par exemple la télévision). Cowen affirme aussi qu’en ce qui concerne la publicité, Google "est fondamentalement une institution réduisant les prix pour les petites entreprises et les entreprises de niche qui peuvent maintenant avoir plus de portée qu’elles n’auraient pu en avoir auparavant", ce qui contribue à la concurrence dans d’autres secteurs. Par conséquent, bien que Cowen ne "suggère pas que tout soit positif dans le monde en ligne et que certaines critiques soient valides sur certains points", "une réponse antitrust vigoureuse serait précipitée et nuisible".

A l’inverse, Kenneth Rogoff rejoint Warren en remarquant que "le débat sur la manière de réglementer le secteur nous rappelle étrangement le débat sur la réglementation financière au début des années deux mille". Comme dans le cas de la finance à l’époque, les partisans d’une régulation souple du secteur des nouvelles technologies évoquent la complexité de ce dernier comme motif pour ne pas resserrer sa régulation, les sociétés puissantes peuvent accorder de très hauts salaires qui leur permettent de détourner les talents des institutions de régulation et le rôle des régulateurs américains est "énorme" pour le reste du monde. Donc, bien que les "idées pour réguler les grosses entreprises de nouvelles technologies soient juste au stade de l’ébauche et qu’une analyse plus sérieuse soit bien sûr nécessaire", Rogoff est "tout à fait d'accord pour dire qu'il faut agir, en particulier en ce qui concerne la capacité des géants du Web à racheter leurs potentiels concurrents et à utiliser leur position dominante sur les plateformes pour investir d’autres branches d’activité".

Publié seulement cinq jours après l’essai de Warren, le "Rapport du panel d’experts de la concurrence digitale" (Report of the Digital Competition Expert Panel) avance d’autres propositions. La revue The Economist résume ce rapport qui a été préparé par le gouvernement britannique par une équipe menée par Jason Furman, l’ancien économiste en chef du Président Obama. Les auteurs du rapport affirment que la concentration est intrinsèque à l’économie numérique en raison des effets de réseau et qu’une position dominante soutenue peut entraîner des prix plus élevés, une moindre diversité de produits et moins d’innovations.

Cependant, ils rejettent l’idée de démanteler les entreprises du numérique ou de les réguler en limitant leurs profits ou en resserrant la supervision comme dans le cas des infrastructures d’eau ou d’électricité. Le rapport suggère plutôt que l’action publique se focalise sur la stimulation de la concurrence et du choix offert aux usagers. Cela peut passer par l’introduction d’un code de bonne conduite sur le comportement concurrentiel sur les grosses plateformes, faisant écho à un autre élément de la proposition de Warren. Ce code de bonne conduite "empêcherait par exemple un marché en ligne comme Amazon de favoriser ses propres produits vis-à-vis de ceux d’un rival dans un résultat de recherche soumis à un consommateur". Une autre mesure est la "mobilité des données", qui réduirait les coûts de changement de fournisseur pour les usagers. Avec la mobilité des données, "les consommateurs individuels pourraient déplacer leurs historiques de recherche et d’achats d’une plateforme à l’autre. Les utilisateurs de médias sociaux pourraient poster leurs messages à leurs amis, qu’importe le site qu’utilisent ces derniers. Et un amas anonymé de données aggloméré par une firme pourrait être rendu disponible aux nouveaux entrants tout en respectant la vie privée des individus".

L’article décrit le rapport comme "équilibré" et "de première qualité", mais nourrit aussi un certain scepticisme. Il se demande comment la "mobilité des données" va fonctionner en pratique. Il questionne aussi l’impact que le rapport peut avoir. (…) "Même si la Grande-Bretagne adoptait ses recommandations, les titans des nouvelles technologies sont mondiaux en termes d’échelle, mais américains en termes de nationalité. Au final, les Etats-Unis et l’Union européenne (que la Grande-Bretagne est susceptible de bientôt quitter) sont les puissances qui vont décider de leur destinée".

(…) La régulation des grosses entreprises de nouvelles technologies va au-delà de la question de la concurrence et de l’innovation et touche à la politique, aussi bien domestique qu’internationale. A travers sa proposition, Warren cherche notamment à "restaurer l’équilibre des pouvoirs dans notre démocratie" en s’assurant à ce que les données des utilisateurs restent dans le domaine privé et en réduisant le levier dont disposent les sociétés pour obtenir des administrations locales de "massives baisses d’impôts en échange de leur activité".

Pour le secteur des nouvelles technologies, Kenneth Rogoff pense que "pour surmonter ce problème, il faudra répondre aux questions fondamentales sur le rôle de l'État, sur les données personnelles et sur la façon dont les compagnies américaines peuvent soutenir la concurrence face à la Chine, dont le gouvernement utilise des entreprises technologiques nationales pour recueillir des données sur ses citoyens à un rythme exponentiel". Plus généralement, Joseph Stiglitz remarque que "dans la mesure où le pouvoir de marché des firmes mastodontes s’est accru, il en va de même de leur capacité à influencer une politique américaine si soumise au pouvoir de l’argent". Puisque "le défi, comme toujours, est politique", Stiglitz émet des doutes à l’idée que "le système politique américaine soit en mesure d’adopter la bonne réforme" et croit que "il est clair que l’Europe devra prendre l’initiative".

Cependant, la hausse de la concentration est un problème qui s’étend au-delà de l’économie numérique selon Federico Díez et Romain Duval au FMI. En regardant le ratio prix sur coût (le taux de marge) pour près d’un million d’entreprises de 27 pays développés et émergents, ils concluent que celui-ci s’est accru en moyenne de 6 % de 2000 à 2015. Cette hausse est plus prononcée dans les pays développés et en-dehors du secteur manufacturier, notamment l’économie numérique. Surtout, l’essentiel de la hausse des taux de marge provient des entreprises qui présentaient initialement les taux de marge les plus élevés. Ces 10 % des entreprises sont plus rentables, plus productives et utilisent plus d’actifs intangibles que les autres. Díez et Duval affirment que la hausse du pouvoir de marché des firmes les plus productives et innovantes s’explique par leur capacité supérieure à exploiter des actifs intangibles comme des droits de propriété, les effets de réseau et les économies d’échelle, créant une dynamique où "le gagnant rafle l’essentiel".

Les auteurs écrivent que cette hausse du pouvoir de marché a eu des effets significatifs en réduisant notamment l’investissement et la part du travail dans le revenu. "Si les marges étaient restées au niveau qu’elles atteignaient en 2000, le stock de biens de capital serait aujourd’hui en moyenne 3 % plus élevé et le PIB environ 1 % plus élevé". De plus, "la hausse du pouvoir de marché observé depuis 2000 explique aussi au moins 10 % de la baisse (0,2 de 2 points de pourcentage) de la part du revenu national versée aux travailleurs dans les pays développés".

(…) Díez et ses coauteurs identifient les plus faibles incitations à l’innovation et la possible tentative d’entreprises en position dominante sur leur marché pour ériger des barrières à l’entrée justifient que les responsables de la politique économique soient vigilants à l’avenir. Ils proposent une boîte à outils de politique économique diversifiée : un retrait des barrières à l’entrée, un retrait des barrières au commerce et à l’investissement direct à l’étranger dans les services, un resserrement de la loi et des politiques de la concurrence, une réforme de la fiscalité des entreprises et des droits de propriété intellectuelle qui "encouragent des innovations majeures plutôt que des innovations incrémentales". »

Konstantinos Efstathiou, « Breaking up big companies and market power concentration », in Bruegel (blog), 29 mars 2019. Traduit par Martin Anota



aller plus loin...

« Quelles sont les répercussions macroéconomiques du plus grand pouvoir de marché des entreprises ? »

« Les marchés européens sont plus concurrentiels que les marchés américains »

« Firmes stars, étoiles montantes ? »

- page 1 de 3