« (…) Dans une récente analyse (Acemoglu, 2021), j’affirme que les technologies d’intelligences artificielles actuelles (en particulier celles basées sur le paradigme actuellement dominant de la reconnaissance des schémas statistiques et la big data) sont davantage susceptibles d’avoir des répercussions sociales négatives que de générer les gains promis.

Ces nuisances peuvent apparaître sur les marchés des produits et dans la publicité, en termes d’inégalités, de modération salariale et de destructions d’emplois sur le marché du travail et à travers les effets sociétaux plus généraux de l’intelligence artificielle dans le cadre de la communication sociale, des discours politiques et de la démocratie.

Intelligences artificielles, contrôle de l’information et marchés des produits

Dans tous ces cas, le principal problème n’est pas les technologies d’intelligence artificielle en tant que telles, mais la façon par laquelle les firmes dominantes, qui exercent une influence déterminante sur la direction des avancées technologiques en matière d’intelligence artificielle, utilisent les données.

Prenons l’exemple de l’apprentissage machine et de la big data dans la publicité et le design des produits. Bien qu’en principe ces méthodes pourraient bénéficier aux consommateurs (par exemple en améliorant la qualité des produits et en permettant de personnaliser le contenu), elles peuvent en définitive détériorer le bien-être des consommateurs. Pour commencer, les entreprises qui acquièrent davantage d’informations à propos de leurs clients peuvent utiliser ce savoir pour opérer une discrimination tarifaire, ce qui leur permet de capturer davantage du surplus des consommateurs. Sur un marché en oligopole, l’exploitation des données relatives aux consommateurs peut entraîner un relâchement de la concurrence par les prix. Intuitivement, cela peut survenir quand la discrimination tarifaire opérée par une entreprise qui a un avantage informationnel rend sa clientèle de cœur moins attrayante pour d’autres entreprises, les encourageant à accroître leurs prix. Cette pression à la hausse sur les prix peut, bien sûr, détériorer davantage le bien-être des consommateurs.

D’autres usages de ces nouvelles techniques peuvent être encore plus nocifs aux consommateurs. Tout d’abord, les plateformes numériques peuvent finir par contrôler un montant excessif d’informations à propos de leurs usagers, parce que lorsqu’elles achètent ou acquièrent les données de certains utilisateurs, celles-ci leur fournissent des informations à propos des autres usagers. Ce type d’"externalité de données" (data externality) est davantage susceptible de survenir quand les utilisateurs révèlent directement de l’information à propos de leurs amis et de leurs contacts ou lorsqu’ils partagent des informations corrélées avec l’information d’autres personnes qui sont dans le même groupe démographique. Les externalités de données peuvent contribuer à ce que trop de données se retrouvent concentrées dans les mains des entreprises, ce qui n’est pas sans effets pervers pour la vie privée et le surplus des consommateurs (Acemoglu et alii, 2021).

Pire, les entreprises peuvent utiliser leurs informations à propos des préférences des consommateurs pour manipuler leur comportement. La manipulation des comportements n’est pas commune dans les modèles dans lesquels les consommateurs sont pleinement rationnels. Cependant, elle est assez probable quand les consommateurs n’ont pas tout à fait conscience de cette collection de données et des méthodes utilisées pour suivre et prédire leur comportement. L’idée derrière une telle manipulation a été saisie par les analystes juridiques dans le domaine de l’antitrust, notamment Hanson et Kysar (1999) qui observèrent qu’"une fois que l’on accepte que les individus se comportent systématiquement de façon non rationnelle, il s’ensuit d’un point de vue économique que d’autres vont exploiter ces tendances pour en tirer un profit". En effet, la publicité a toujours impliqué une certaine dose de manipulation. Cependant, les outils que constituent les intelligences artificielles peuvent avoir amplifié les possibilités d’une telle manipulation. Il y a déjà plusieurs exemples de manipulations s’appuyant sur les intelligences articles. Il y a notamment la chaîne de magasins Target qui a réussi à prédire correctement si les femmes sont enceintes et à leur envoyer des publicités cachées pour des produits pour bébés ou diverses entreprises repérant les "moments de grande vulnérabilité" et faisant la publicité de produits qui tendent à être achetés de façon impulsive au cours de tels instants. Il y a aussi des plateformes comme YouTube et Facebook qui utilisent leurs algorithmes pour identifier et favoriser des vidéos ou fils de nouvelles plus addictifs pou des groupes spécifiques d’utilisateurs.

Intelligences artificielles et inégalités sur le marché du travail

Les effets des technologies basées sur l’intelligence artificielle dans le cadre du marché du travail peuvent être encore plus pernicieux. Les inégalités sur le marché du travail se sont creusées aux Etats-Unis et dans plusieurs autres pays développés et de nombreux éléments empiriques suggèrent que c’est en partie la conséquence de l’adoption et du déploiement rapides des technologies d’automatisation qui ont retiré les travailleurs peu ou moyennement qualifiés des tâches qu’ils avaient l’habitude de réaliser (Acemoglu et Restrepo, 2021). Une telle automatisation et ses conséquences adverses sur les inégalités datent d’avant l’intelligence artificielle. Néanmoins, Acemoglu et alii (2021a) trouvent que l’accélération des intelligences artificielles aux Etats-Unis depuis 2016 a ciblé l’automatisation et a eu des effets similaires à ceux d’autres technologies d’automatisation. L’intelligence artificielle et l’usage massif des données sont susceptibles de multiplier les possibilités d’automatisation et donc d’exacerber les tendances en termes d’inégalités que les Etats-Unis et d’autres pays développés ont connues au cours des dernières décennies.

En principe, l’automatisation peut améliorer l’efficacité. Il y a cependant des raisons qui nous amènent à penser qu’elle s’opérera de façon inefficace. Des imperfections sur le marché du travail accroissent le coût du travail au-delà de son coût d’opportunité social. Dans ce scénario, les entreprises vont automatiser de façon à confisquer des rentes des travailleurs, même lorsque l’automatisation réduit le surplus collectif.

D’autres usages de l’intelligence artificielle peuvent avoir des conséquences encore plus nocives. Ceux-ci incluent l’utilisation de l’intelligence artificielle et des données relatives au lieu de travail en vue d’intensifier la surveillance des travailleurs. A nouveau, quand il y a des rentes pour les travailleurs (par exemple en raison de considérations en termes de salaire d’efficience), une plus grande surveillance permet aux firmes de confisquer ces rentes. Mais avec le même raisonnement, une telle réallocation des rentes est socialement inefficace et excessive ; à la marge, c’est une activité coûteuse qui ne contribue pas au surplus collectif, mais transfère une partie de celui-ci d’un ensemble d’agents vers un autre ensemble d’agents.

Intelligence artificielle, discours social et démocratie

L’automatisation basée sur l’intelligence artificielle a d’autres effets négatifs. Bien qu’il soit improbable qu’elle se traduise bientôt par un chômage de masse (et les effets négatifs sur l’emploi des autres technologies d’automatisation ont jusqu’à présent été modestes), le déplacement des travailleurs peut avoir plusieurs répercussions socialement disruptives. Les citoyens avec le lien à l’emploi le plus fragile peuvent moins participer aux activités civiques et à la vie politique. Surtout, l’automatisation réoriente le pouvoir du travail au capital et cela peut avoir de larges implications pour le fonctionnement des institutions démocratiques. Pour le dire autrement, dans la mesure où la politique démocratique dépend de la présence de contre-pouvoirs vis-à-vis du capital et du travail, l’automatisation peut nuire à la démocratie en rendant le travail dispensable dans le processus productif.

Les effets de l’intelligence artificielle sur la démocratie ne se résument pas à son impact sur l’automatisation. L’un des domaines qui a été le plus radicalement transformé par l’intelligence artificielle jusqu’à présent est la communication et la consommation d’informations, en particulier via les services offerts par diverses plateformes de médias sociaux. L’usage d’intelligences artificielles et la récupération des données sur les utilisateurs ont déjà changé le discours social et les analyses empiriques suggèrent qu’ils ont déjà contribué à la polarisation et à réduire la compréhension des faits et priorités qui sont cruciales pour le fonctionnement de la démocratie. Comme Cass Sunstein l’anticipait il y a vingt ans, « la fragmentation et l’extrémisme (…) sont les conséquences prévisibles de toute situation dans laquelle des personnes pensant la même chose ne se parlent qu’entre elles ». Il souligna que « sans des expériences partagées, une société hétérogène va avoir plus de difficultés à répondre aux problèmes sociaux ». En effet, les médias sociaux utilisant les intelligences artificielles semblent avoir contribué à ce type de fragmentation et à l’extrémisme d’un côté et à la diffusion de la désinformation de l’autre.

Un problème d'orientation du progrès technique

Mes propos, jusqu’à présent, pourraient laisser penser que les intelligences artificielles ne peuvent qu’avoir de désastreuses conséquences sociales et que je suis contre cette technologie. C’est faux. L’intelligence artificielle est une plateforme technologique prometteuse. Le problème tient à la direction actuelle du développement et de l’usage de cette technologie : donner du pouvoir aux entreprises (et parfois aux gouvernements) aux dépens des travailleurs et des consommateurs. C’est la conséquence des pratiques commerciales et des priorités des entreprises contrôlant les intelligences artificielles et des incitations que cela génère pour les chercheurs dans le domaine des intelligences artificielles.

Prenons l’exemple des médias sociaux. Une raison expliquant les problèmes que j’ai soulignés est que les plateformes essayent d’optimiser l’engagement en s’assurant à ce que les usagers soient "accros". Cet objectif est enraciné dans leur modèle d’affaires, qui est centré sur la monétisation de données (…) avec la publicité. Ce problème est aggravé par le manque de réglementation.

C’est également le cas en ce qui concerne les effets négatifs de l’automatisation. Les intelligences artificielles peuvent être utilisées pour accroître la productivité des travailleurs et pour créer de nouvelles tâches pour les travailleurs (Acemoglu et Restrepo, 2018). Le fait qu’elles soient avant tout utilisées pour automatiser les tâches de production résulte d’un choix. Ce choix quant à la direction de la technologie est aiguillonné par les priorités et les modèles d’affaires des entreprises meneuses centrés sur l’automatisation algorithmique.

Le point plus général est que la trajectoire actuelle de l’intelligence artificielle accroît le pouvoir des entreprises au détriment des travailleurs et des citoyens et fournit aussi souvent des outils de contrôle additionnels aux gouvernements à des fins de surveillance, voire même parfois de répression (comme avec les nouvelles méthodes de censure et les logiciels de reconnaissance faciale).

Conclusion : la nécessité d’une réglementation

Ce raisonnement nous amène à une conclusion simple : les problèmes actuels entourant l’intelligence artificielle sont des problèmes d’intelligence artificielle non réglementée, qui ignore ses conséquences sociétales et distributives. En fait, il serait naïf de s’attendre à ce que des marchés non réglementés fassent les bons arbitrages entre maux sociétés et profits tirés de la monopolisation des données. (…) »

Daron Acemoğlu, « Dangers of unregulated artificial intelligence », in voxEU.org, 23 novembre 2021. Traduit par Martin Anota



aller plus loin...

« Les répercussions du progrès technique sur la répartition des revenus et l’emploi »

« Les robots, les intelligences artificielles et le travail »

« Dans quelle mesure l’automatisation a-t-elle contribué à la hausse des inégalités salariales aux Etats-Unis ? »