« Un jour, un pianiste fût arrêté par la police secrète et accusé d’espionnage. Il portait des morceaux de papier couverts d’un code mystérieux. Malgré le fait qu’il persistait à déclarer qu’il s’agissait seulement des partitions pour la sonate du "Clair de lune" de Beethoven, le pauvre homme fut envoyé en cellule. Deux heures après, un sinistre individu vint l’interroger. "Il vaudrait mieux pour vous de tout nous dire, camarade", annonça-t-il avec un sourire en coin. "Nous avons attrapé votre ami Beethoven. Il est déjà en train de parler."

Cette histoire permet d’introduire le plus fameux problème en théorie des jeux : le dilemme du prisonnier. L’interrogateur explique que si un homme parle, mais pas l’autre, le premier sera libéré et le second sera envoyé pendant 25 ans au goulag. Si les deux hommes persistent à ne rien dire, ils vont chacun passer cinq ans en prison. Si tous les deux parlent, ils y passeront chacun 20 ans. Le dilemme est assez clair : chacun a individuellement intérêt à parler, qu’importe ce que fait l’autre ; pourtant, ils gagneraient collectivement à rester tous les deux silencieux.

Le dilemme a aujourd’hui soixante-dix ans. Il a été développé sous une forme mathématique simple en 1950 par les mathématiciens Merrill Flood et Melvin Dresher et sous une forme littérale par Albert Tucker. (…) Dresher, Flood et Tucker travaillaient au think-tank RAND. Le dilemme du prisonnier distillait la tension entre l’égoïsme et la coopération de façon éloquente, ce qui lui permettait d’illustrer le risque de destruction nucléaire et beaucoup d’autres choses. Le dilemme suscita une nouvelle vague d’intérêt en 1981, après la publication de The Evolution of Cooperation par le politologue Robert Axelrod et le biologiste William Hamilton. Leur article est non seulement le plus cité en science politique, mais il est en outre autant cité que les trois travaux les plus cités après réunis.

J’espère que les lecteurs m’excuseront de m’attaquer de la sorte à une idée si vénérée, parce qu’elle reste pertinente, instructive et largement incomprise. Une première idée très répandue, mais pourtant fausse, est l’idée que le problème est un problème de communication : si seulement le pianiste et Beethoven pouvaient se réunir et s’accorder sur une stratégie, ils se mettraient d’accord pour rester solidaires entre eux. Ce n’est pas le cas. La communication ne résout rien. Il est manifestement tentant de former une équipe ; donc la tentation de trahir aussi. Ceux qui croient que parler aiderait devraient regarder Golden Balls, un jeu télévisé basé sur un dilemme du prisonnier modifié. Ce qui rend le spectacle amusant à regarder est la vacuité des promesses que les participants se font les uns aux autres.

Plus problématique est la croyance erronée que le dilemme du prisonnier signifie que nous sommes condamnés à l’autodestruction du fait de notre égoïsme. La philosophie morale a désespérément cherché à le réfuter, à montrer qu’il est quelque peu rationnel de collaborer dans un dilemme du prisonnier joué une seule fois. Ce n’est pas le cas. Heureusement, la plupart des interactions humaines ne s’apparentent pas à un dilemme du prisonnier joué une seule fois.

L’article de 1981 (et le livre qui en fut tiré) peut avoir poussé la pendule trop loin dans le sens de l’optimisme. Le professeur Axelrod a lancé des tournois dans lequel des programmes d’ordinateur s’affrontaient les uns les autres, jouant le dilemme du prisonnier des centaines de fois. La répétition du jeu permet la coopération en raison de la menace de la sanction, quelque chose que les théoriciens des jeux savaient depuis les années cinquante. Quand Axelrod intégra cette idée dans un programme simple appelé "Tit for Tat", ce dernier triompha régulièrement contre les autres programmes.

Tit for Tat répondait à la coopération par la coopération et à la traitrise par la traitrise. Qu’importe ce que vous lui faites, il vous le fait également. Axelrod soulignait que le programme avait beau être "rude", il était "sympa", il essayait tout d’abord la coopération. Et il dressa de plus larges parallèles, en affirmant que le succès de la stratégie explique pourquoi les soldats dans les tranchées au cours de la Première Guerre mondiale étaient capables de se mettre d’accord sur des cessez-le-feu informels. Son message positif était que, dans les pires circonstances possibles, les gens sympas finissent premiers, pourvu qu’ils aient de l’acier en eux.

Mais cela va trop loin. Cette inclinaison à "vivre et laisser vivre" dans les tranchées s’explique peut-être plus simplement par le fait que ce n’est pas la même chose de tirer sur l’ennemi que de dénoncer Beethoven. C’est dangereux. On n’a pas besoin de la théorie des jeux pour expliquer pourquoi les soldats préfèrent faire profil bas. Axelrod a aussi donné trop d’importance à la "gentillesse" de Tit for Tat. D’autres stratégies prospèrent dans les tournois du dilemme du prisonnier, en fonction des détails des règles. Il y a parmi elles la stratégie "Pavlov", une stratégie qui essaye d’exploiter les "pigeons" et change de tactique quand elle rencontre une réponse punitive. Elle peut certes amener à la coopération, mais elle n’est pas "sympa".

Le dilemme du prisonnier existe. L’exemple le plus pressant aujourd’hui est celui du changement climatique. Chaque nation et chaque individu y gagneraient si les autres polluaient moins, mais chacun d’entre nous préférerait ne pas réduire sa propre pollution. Il serait stupide d’espérer que Tit for Tat permettrait de sauver la mise. Et nous n’avons pas à le faire. Nous avons des outils à notre disposition : au niveau domestique, les taxes et la réglementation ; au niveau international, les traités et les alliances. De tels outils modifient les incitations. Nous pouvons et devons les utiliser davantage. Le pianiste et son complice présumé étaient piégés. Nous ne le sommes pas. Contrairement à eux, nous pouvons changer le jeu. »

Tim Harford, « The prisoner’s dilemma at 70 – at what we get wrong about it », janvier 2020. Traduit par Martin Anota