La raison démocratique : les mécanismes de l’intelligence collective en politique

Print Friendly, PDF & Email

Pour Hélène Landemore, la démocratie, parce qu’elle valorise la diversité cognitive, est épistémiquement supérieure à toute forme d’oligarchie, fusse-t-elle composée d’experts. Son analyse, publiée initialement dans le dossier “Sagesse collective”, Raison publique, n°12, 2010, a été traduite par Solange Chavel.

Les justifications traditionnelles de la démocratie mettent l’accent sur des arguments non instrumentaux, ceux qui se fondent par exemple sur les idées de liberté, d’égalité, de justice et d’équité. La démocratie est censée exprimer par ses procédures des valeurs qui importent aux démocrates. Une autre manière de défendre la démocratie est instrumentale et met l’accent sur le type de résultat que l’on peut espérer obtenir grâce aux procédures de décision démocratique. Dans cet article, je fais l’hypothèse que la valeur de la démocratie comme procédure de décision collective tient au moins en partie à sa capacité à canaliser l’intelligence collective des citoyens, ce que j’appelle plus largement la « raison démocratique », et à produire en conséquence de bons résultats. Pour ce faire, je prends au sérieux en tant qu’argument pour la démocratie l’ancienne idée d’Aristote selon laquelle « plusieurs têtes valent mieux qu’une » et j’explore les raisons théoriques qui appuient l’hypothèse de la supériorité épistémique de la règle du grand nombre non seulement sur la dictature, mais sur toute variante connue de la règle du petit nombre. L’audace de l’hypothèse présentée ici tient en partie au fait que j’interprète à la fois la dictature et l’oligarchie sous leur meilleur jour, partant de l’hypothèse que le dictateur et les oligarques ainsi idéalisés poursuivent le bien du plus grand nombre plutôt que leur intérêt personnel.

Si la comparaison entre démocratie et dictature peut être relativement intuitive (dans la mesure où plusieurs têtes valent mieux qu’une), la deuxième thèse est plus discutable. L’intelligence collective s’applique au plus grand nombre, mais elle vaut également pour les petits groupes. Comment un groupe d’oligarques pourrait-il ne pas être plus efficace que le reste du peuple, pour peu que les gouvernants soient soigneusement sélectionnés ? C’est là l’idée qui sous-tend l’idéal aristocrate : la règle des meilleurs et des plus brillants vaut nécessairement mieux que la règle des citoyens moyens. Je soutiens dans ce texte que ce n’est pas nécessairement le cas, en raison de l’importance de la diversité cognitive (la capacité à voir le monde depuis différents points de vue) pour l’émergence du phénomène de l’intelligence collective. M’appuyant sur les découvertes théoriques de Scott Page concernant l’importance relative de la diversité cognitive et de la compétence individuelle pour la résolution de problèmes et pour les prédictions à l’échelle du groupe, je soutiens que, puisqu’une oligarchie de dirigeants, aussi intelligents soient-ils, offre généralement moins de diversité cognitive qu’une démocratie directe ou représentative, le petit nombre ne peut en général pas rivaliser avec la compétence épistémique d’un grand nombre d’individus moyennement intelligents, mais aux modes de pensée variés. L’originalité et la puissance de cet argument tiennent au fait que, même si l’on suppose qu’il est possible d’identifier les individus les plus intelligents d’une population donnée et de s’assurer de leur vertu, la démocratie reste en général supérieure à l’oligarchie d’un point de vue épistémique1Je souligne l’originalité de la thèse parce que dans l’approche d’un autre démocrate épistémique comme David Estlund, par exemple, la comparaison épistémique entre la règle du plus grand nombre et la règle du petit nombre est exclue par l’exigence d’« acceptabilité générale », selon laquelle toute revendication d’autorité doit être acceptable par toutes les personnes « raisonnables » (au sens rawlsien) (cf. Estlund, Democratic Authority: A Philosophical Framework, Princeton, Princeton University Press, 2007, Chapter 3). D’après Estlund, même si une oligarchie d’experts est plus fiable d’un point de vue épistémique que la démocratie, elle ne pourrait jamais passer le test de l’« acceptabilité générale ». Je pense pour ma part que l’incapacité d’une technocratie à être acceptée de tous les individus raisonnables n’est pas une nécessité logique (à moins de définir le raisonnable de manière à exclure cette possibilité) et propose la thèse plus ambitieuse que si nous autorisons une telle comparaison, la démocratie apparaît en fait généralement supérieure à l’oligarchie d’un point de vue épistémique..

Pour défendre l’idée que la démocratie est épistémiquement supérieure à toute variante d’oligarchie, je considère deux mécanismes de prise de décision : la délibération la plus inclusive possible et la règle de la majorité avec suffrage universel. Dans la mesure où la diversité cognitive est, jusqu’à un certain point, fonction du nombre de participants, la délibération au sein d’un groupe nombreux est, d’un point de vue épistémique, supérieure à la délibération au sein d’un petit groupe. Je soutiens également que, en se fondant sur cette même hypothèse de diversité cognitive liée au nombre de participants, l’agrégation des jugements du plus grand nombre est épistémiquement aussi bonne que l’agrégation des jugements du petit nombre, même si l’on émet des hypothèses irréalistes sur l’intelligence de ce petit nombre. Prises ensemble, les propriétés épistémiques de ces procédures démocratiques donnent à la démocratie un avantage épistémique sur n’importe quelle variante d’oligarchie.

Ce texte présuppose consciemment des conditions de délibération et de vote idéales. Ainsi, je ne m’attarde pas sur les problèmes épistémiques (très étudiés par ailleurs) que peut poser le cadre délibératif : polarisation, profils cachés, influences informationnelles, pressions sociales, ou cascades informationnelles2Pour une synthèse de ces problèmes et des références à une littérature représentative, voir Cass R. Sunstein, Infotopia: How Many Minds Produce Knowledge, London & Oxford, Oxford University Press, 2006, chapitre 3 et pour une évaluation plus nuancée de ces questions voir Gerry Mackie, « Astroturfing Infotopia », Theoria, 2009, vol. 56, n° 119, p. 30-56.. De même, je ne traite pas des problèmes théoriques soulevés par la théorie du choix social à propos de l’agrégation de jugements portant sur trois options ou plus (le théorème d’impossibilité d’Arrow). Ces problèmes se posent quel que soit le nombre des gouvernants et, au moins dans le cadre d’une comparaison entre le petit nombre et le grand nombre, ils ne sont pas proprement discriminants. Mon excuse, plus généralement, est qu’avant d’être en mesure de qualifier la portée d’une thèse, encore faut-il la formuler clairement. Pour des raisons d’espace, je me concentre donc sur l’aspect positif de l’argument, ne considérant une objection potentielle que dans la dernière (mais longue) section.

Je souligne enfin que les propriétés épistémiques sont seulement probables, et je ne prétends nulle part que la règle du grand nombre (non plus que celle du petit nombre) soit infaillible3Il est évidemment important de savoir quelles sont les réponses institutionnelles adéquates aux échecs et aux risques épistémiques propres à toute procédure de décision collective, mais je ne peux aborder cette question ici. Je ne m’occupe pas non plus du problème des majorités potentiellement « tyranniques ». Argument populaire depuis que Tocqueville l’a souligné, le problème des gouvernants tyranniques s’applique aux minorités aussi bien qu’aux majorités. Il pose le problème, orthogonal à la question épistémique ici abordée, des limites adéquates de toute forme de gouvernement..

Cet article comporte cinq sections. La première section développe le concept de « raison démocratique » comme intelligence (et même à l’occasion sagesse) collective distribuée du peuple. La deuxième section aborde la délibération comme premier mécanisme de la raison démocratique, ainsi que les raisons théoriques qui peuvent être invoquées pour rendre compte de ses propriétés épistémiques. La troisième section traite brièvement du problème de la délibération à grande échelle et de la relation entre représentation et performance épistémique démocratique. La quatrième section traite de la règle majoritaire et considère successivement trois approches théoriques rendant compte de ses propriétés épistémiques : le théorème du jury de Condorcet, le « miracle de l’agrégation », et un modèle fondé sur la diversité cognitive4Scott Page, The Difference. How the Power of Diversity Creates Better Groups. Firms, Schools, and Societies, Princeton, Princeton University Press, 2006.. La cinquième section consiste en une longue réponse à l’objection de Caplan selon laquelle les électeurs sont « rationnellement irrationnels », ce qui devrait interdire l’émergence, dans l’agrégation de jugements par la règle majoritaire, de ce que j’appelle « raison démocratique »5Bryan Caplan, The Myth of the Rational Voter. Why Democracies Choose Bad Policies, Princeton & Oxford, Princeton University Press, 2007.. La conclusion récapitule les avantages épistémiques de la règle du grand nombre sur toute version de la règle du petit nombre.

Raison démocratique et compétence épistémique

Je définis la raison démocratique comme une certaine forme d’intelligence collective distribuée propre à la politique démocratique. Dans ce qui suit, j’utiliserai parfois les termes d’intelligence collective et de sagesse collective de façon interchangeable, même si le concept de sagesse est plus riche que le concept d’intelligence, puisqu’il inclut des notions d’expérience, de savoir passé à l’épreuve du temps, et plus généralement d’intelligence diachronique qui sont certainement partie intégrante du concept de raison démocratique mais que je n’aborderai pas ici. Le seul aspect diachronique de l’intelligence que j’aborde est celui qu’introduit l’institution de la représentation, qui crée une médiation temporelle entre l’apport des citoyens et sa traduction en mesures politiques effectives.

Le concept de raison démocratique se veut aussi un contrepoint au concept rawlsien, à mes yeux moins inclusif, de « raison publique ». Chez Rawls, la « raison publique » sert de critère de justification libérale mais elle n’a pas grand-chose à voir avec la raison du grand public. C’est la raison d’un public idéalisé, qui s’exprime au mieux par la voix des candidats aux fonctions publiques, des représentants, des Juges Suprêmes et autres membres de l’élite politique6John Rawls, Libéralisme politique (1993), trad. Catherine Audard, Paris, PUF, 2001.. Le concept de raison démocratique, au contraire, entend être le plus inclusif possible, sans déterminer a priori qui l’exprime au mieux.

Dans la mesure où je fonde en partie le concept de raison démocratique sur plusieurs idées issues de la psychologie et des sciences cognitives, il me faut dire quelques mots à leur sujet. D’après les sciences cognitives, l’intelligence est une capacité générale à comprendre notre environnement et à y déterminer l’action à suivre, par opposition à un simple savoir livresque et aux talents requis pour répondre à des tests7Linda S. Gottfredson, « Why g Matters: the Complexity of Everyday Life », Intelligence, 1997, vol. 21, n° 1, p. 13.. Elle ne se réduit pas au QI ou à tout autre trait unidimensionnel. L’intelligence collective est tout simplement cette notion complexe d’intelligence, appliquée aux groupes plutôt qu’aux individus.

La seconde idée que j’emprunte aux sciences cognitives est que, même si l’intelligence collective peut en théorie être une fonction directe de l’intelligence individuelle (la somme des parties), on gagne à la concevoir comme une propriété « émergente » (plus que la somme des parties). Des exemples d’intelligence émergente se trouvent chez les groupes d’animaux sociaux, comme les fourmis ou les abeilles, qui font montre, à l’échelle du groupe, d’une forme d’intelligence qu’on ne trouve pas à l’échelle de chaque animal séparé. Appliquée aux êtres humains, l’idée d’intelligence collective n’implique pas nécessairement que l’intelligence n’existe pas à l’échelle individuelle, mais que le produit émergent est de nature ou de qualité différente8Je précise que cette idée d’intelligence collective ne m’oblige pas à adopter une forme d’holisme méthodologique ou philosophique.. Comme nous le verrons, un ingrédient essentiel de l’intelligence collective est la diversité cognitive du groupe, propriété qui, par définition, ne peut se trouver chez les individus9Même si bien sûr un équivalent de la diversité cognitive au sein d’un groupe peut exister au sein des individus lorsqu’ils font un effort conscient pour voir le monde depuis des points de vue différents, mais il s’agit là d’une autre question..

La troisième leçon que je tire des sciences cognitives est que la cognition et l’intelligence peuvent être « distribuées »10 Jean Lave, Cognition in Practice: Mind, Mathematics, and Culture in Everyday Life, New York, Cambridge University Press, 1988. à la fois dans l’espace et dans le temps. Pour ce qui est de l’espace, l’intelligence peut être distribuée entre les individus et ce qu’on appelle des « artefacts cognitifs », c’est-àdire des outils qui nous aident à accomplir des tâches compliquées et/ ou à prendre des décisions plus intelligentes11D’après la définition exacte, les artefacts cognitifs sont « ces outils artificiels qui préservent, affichent ou utilisent des informations pour remplir une fonction représentationnelle et qui affectent les performances cognitives humaines » (D.A. Norman, « Cognitive Artifacts », dans J.-M. Carroll (dir.), Designing Interaction: Psychology at the Human-Computer Interface, New York, Cambridge University Press, 1991, p. 17-38, p. 17). Par exemple : le langage, des systèmes d’inscription pour représenter le langage, les cartes, les listes et les calculatrices. Le grand avantage d’un artefact cognitif est que tout ce que l’individu a besoin de savoir pour résoudre un problème est la manière dont s’utilise l’artefact cognitif, qui contient en lui-même la connaissance requise pour résoudre le problème en question. Ainsi, pour effectuer une multiplication complexe, tout ce que j’ai besoin de savoir est la façon de disposer les nombres spatialement sur une feuille de papier, et la manière d’opérer un calcul simple selon une séquence donnée (D.E. Rumelhart, P. Smolensky, J.-L. McClelland & G.E. Hinton, « Schemata and Sequential Thought Processes in PDP Models », dans J.-L. McClelland, D.E. Rumelhart & the PDP Research Group (dir.), Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Cambridge, MIT Press, 1986, p. 5-57 ; et J.V. Wertsch, Mind as Action, New York, Oxford University Press, 1998). Je peux également utiliser cet artefact cognitif supérieur qu’est une calculatrice.. Une étude bien connue de l’anthropologue cognitif Edwin Hutchins12Edwin Hutchins, Cognition in the Wild, Cambridge, MIT Press, 1995. montre par exemple comment le calcul impliqué dans le pilotage d’un navire militaire ne se déroule pas dans la tête d’un individu particulier, pas même dans celle du capitaine, mais dans la coordination des esprits des différents individus équipés d’instruments de navigation, points de repères, cartes, circuits téléphoniques, et rôles organisationnels13Cet exemple n’illustre pas l’organisation démocratique, mais simplement une intelligence collective distribuée (et une intelligence collective distribuée n’est pas nécessairement démocratique).. L’unité cognitive pertinente dans ce cas n’est pas l’individu particulier, mais le système « équipage + artefacts cognitifs pertinents » pris comme un tout14Certains artefacts cognitifs permettent également de diviser les processus cognitifs en tâches successives, et distribuent de la sorte l’effort cognitif non seulement dans l’espace, mais également dans le temps. Par exemple, une liste de choses à faire divise le processus cognitif de mémorisation en au moins trois étapes chronologiques : la construction de la liste, l’acte mental qui consiste à se souvenir de consulter la liste, et enfin la lecture et l’interprétation des éléments de la liste. Cf. Norman, « Cognitive Artifacts », art. cit., p. 21..

En appliquant à la prise de décision collective les deux notions d’intelligence collective distribuée et d’artefact cognitif, je propose d’appeler « raison démocratique » le type d’intelligence collective distribuée propre à la prise de décision démocratique. Comme je l’ai dit auparavant, je me concentrerai dans cet article sur les propriétés épistémiques synchroniques du groupe et laisserai de côté la dimension temporelle de la raison démocratique qui en fait une variété de « sagesse collective »15 Je pense cela dit qu’au cours du temps les démocraties ont plus de chances d’accumuler de la sagesse collective que les oligarchies ou les dictatures, même si je ne défendrai pas cette idée ici.. Je propose également d’interpréter les procédures de décision telles que la délibération collective et la règle de la majorité comme des artefacts cognitifs qui aident les individus à accomplir un calcul social qui dépasse leurs capacités individuelles.

Le gain conceptuel de cette approche est de nous permettre d’expliquer comment le citoyen individuel se décharge partiellement du fardeau cognitif que représente le calcul du bien général en laissant les autres, et l’environnement, en accomplir certaines parties. Contre les théoriciens politiques qui s’inquiètent de ce que les citoyens n’aient pas la capacité d’auto-gouvernement (auquel cas, à mon avis, le « droit » des peuples à l’auto-gouvernement repose sur des fondements bien fragiles), le concept de raison démocratique permet de répondre que ce qui importe n’est pas simplement ce que les individus peuvent faire individuellement, mais ce qu’ils peuvent faire à l’aide d’artefacts cognitifs politiques tels que, par exemple, la délibération inclusive et la règle de la majorité. En d’autres termes, les procédures de décision démocratiques sont une manière d’organiser socialement la prise de décisions collective qui est économe en termes de compétence épistémique individuelle. Cet argument diffère de l’idée traditionnelle selon laquelle la démocratie est économe du point de vue de la vertu requise des gouvernants16Dans la perspective utilitariste par exemple, il est plausible de supposer que les intérêts du plus grand nombre recoupent naturellement davantage l’intérêt collectif que les intérêts du petit nombre..

J’emploierai par la suite l’expression « mécanisme épistémique » ou « mécanisme » tout court, de préférence à celle d’« artefact cognitif », mais par mécanisme j’entends essentiellement la même chose qu’un artefact cognitif, c’est-à-dire un outil (une institution, pratique, etc.), qui nous facilite un calcul ou une tâche. La délibération et la règle de la majorité se complètent l’une l’autre pour produire la raison démocratique. Bien sûr, dans la mesure où la délibération et la règle de la majorité sont des mécanismes épistémiques dont peuvent aussi disposer les oligarques (et même, sous une forme dégénérée, un dictateur), je vais devoir expliquer pourquoi la combinaison de délibération démocratique et de règle de la majorité avec suffrage universel vaut mieux que la délibération et la règle de la majorité utilisées par une oligarchie.

Tournons-nous maintenant vers la notion de « compétence épistémique » qui est étroitement liée à celle de raison démocratique. La compétence épistémique est la compétence que l’on possède lorsque l’on sait quelque chose ou que l’on dispose d’un certain type de connaissance. Elle doit être distinguée d’un autre type de compétence, qu’on peut appeler « compétence morale » ou « vertu ». La vertu fait qu’un gouvernant s’emploie à promouvoir le bien commun plutôt que son intérêt privé ou celui d’un sous-groupe des citoyens. Idéalement, nous souhaitons que les gouvernants soient à la fois intelligents et vertueux. On peut être intelligent et moralement mauvais, voir le bien commun et refuser de le poursuivre. Pour simplifier, je vais faire comme si tous les gouvernants (qu’il s’agisse d’un seul homme, d’un petit nombre, ou du plus grand nombre) voulaient la même chose, à savoir le bien commun. Une telle simplification place bien sûr d’emblée la dictature et l’oligarchie dans une position plus favorable pour la comparaison entreprise.

La compétence épistémique est aussi distincte de la simple possession d’information. L’information est le matériau brut dont les citoyens sont censés avoir besoin pour pouvoir porter des jugements éclairés sur les questions politiques. La relation entre information et jugement éclairé est trop souvent réduite à une simple équation par les chercheurs en sciences politiques, comme si le niveau d’information était seul nécessaire pour prédire la compétence épistémique. Il est ainsi généralement supposé que si les citoyens ignorent certains faits (le nom de leur sénateur, la localisation du Zimbabwé, la signification des termes « État providence » ou « libéralisme »), ils sont épistémiquement incompétents. Je pense que cette inférence est infondée, mais pour des raisons distinctes de celles fournies par la littérature sur « l’électeur raisonnant » selon laquelle les électeurs sont censés utiliser des heuristiques et des raccourcis cognitifs pour voter, à partir d’informations limitées, de la même façon que s’ils avaient disposé d’informations plus complètes17Samuel Popkin, The Reasoning Voter: Communication and Persuasion in Presidential Campaigns, Chicago, The University of Chicago Press, 1994. Cette approche semblait initialement prometteuse mais n’a jamais fourni de preuve empirique ni de l’usage réel d’heuristiques et de raccourcis cognitifs par les électeurs ni du fait que les électeurs votent à peu près de la même façon avec beaucoup ou peu d’information. De fait, cette dernière hypothèse semble largement falsifiée par les études sur les préférences éclairées qui font état de différences substantielles dans les préférences politiques entre le public réel et le même public doué virtuellement (statistiquement) d’une connaissance politique maximale (Scott L. Althaus, Collective Preferences in Democratic Politics: Opinion Surveys and the Will of the People, New York, Cambridge University Press, 2003). En conséquence, l’identification entre compétence épistémique et niveau d’information reste l’hypothèse de fond la plus répandue de nombreuses approches de la compétence politique..

Je vais pour l’instant neutraliser le facteur information et supposer que le même niveau d’information est à la disposition de chaque type de gouvernement (d’un seul, du petit nombre ou du grand nombre), que ce soit par des sondages, des marchés d’information, ou des conseillers. On peut objecter que ce faisant, je fais pencher la balance en faveur de la démocratie. Je ne pense pas que ce soit le cas, mais je remets à la cinquième section la réponse détaillée à cette objection. À mon avis, ce qui importe pour la compétence épistémique collective n’est pas tant le niveau d’information individuel que le niveau d’information collectif ainsi que l’existence d’institutions qui fonctionnent comme des artefacts cognitifs pour collecter et traiter cette information pour le groupe. Je soupçonne que la démocratie ne réduit pas le niveau collectif d’information (au contraire) et je doute que les citoyens en démocratie tombent individuellement sous le niveau qui leur permet de voter de manière compétente, au moins sur la plupart des questions importantes.

Je distingue pour finir entre la compétence épistémique collective et la compétence épistémique individuelle. Comme je l’ai dit plus haut, la compétence épistémique collective peut être davantage que la somme des compétences épistémiques individuelles, et être en fait une propriété émergente de la juste combinaison entre compétences épistémiques individuelles et d’autres éléments. Neutralisant pour l’instant le problème des niveaux de vertu et d’information disponibles au niveau du groupe, je suggère que la compétence épistémique collective est essentiellement fonction de deux choses : la compétence épistémique individuelle et la diversité cognitive du groupe. Plus clairement :

  • Compétence épistémique collective = f (compétence épistémique individuelle, diversité cognitive du groupe)18 Je suppose que la fonction f reflète le juste degré d’interaction entre les individus. Puisque je suppose que l’oligarchie et la dictature sont aussi bonnes qu’on puisse l’imaginer, je peux me permettre de supposer que le type d’interactions entre les citoyens démocratiques est tel qu’il permette à la compétence épistémique individuelle et à la diversité cognitive du groupe de compter..

Une fois que nous aurons répondu à la question de savoir quelle procédure de décision produit, en théorie, la plus grande compétence épistémique collective (étant donné un même niveau d’information et de vertu des gouvernants), il sera plus facile de réintroduire ultérieurement les variables « information » et « vertu », pour voir si elles modifient nos conclusions.

Délibération: la force du meilleur argument

Le premier mécanisme dont on peut avancer qu’il fait de la démocratie une règle de décision épistémiquement fiable est la délibération inclusive (c’est-à-dire la délibération qui inclut, directement ou indirectement, tous les membres du groupe). La délibération se définit de manière classique comme échange d’arguments pour ou contre quelque chose19Aristote, Rhétorique, I, 2, trad. Pierre Chiron, Paris, GF-Flammarion, 2007.. Les démocrates délibératifs contemporains ont ajouté à cette définition le but d’un accord ou consensus rationnel sur la meilleure réponse ou le meilleur argument. La délibération s’oppose également au vote ou au marchandage et n’est pas censée comprendre des menaces, promesses, raisonnements sophistiques, ou toute forme d’action « stratégique » plutôt que « communicative »20Je résume ici une immense littérature sur le sujet, en m’appuyant sur une synthèse récente de José Luis Martí, « The Epistemic Conception of Deliberative Democracy Defended », dans Samantha Besson & José Luis Martí, Democracy and its Discontents. National and Post-national Challenges, Burlington, Ashgate, 2006, p. 27-56. Savoir si l’intérêt égoïste peut jouer un rôle dans la délibération est une question discutée parmi les démocrates délibératifs (pour une défense, voir Jane Mansbridge et al., « The Place of Self-Interest and the Role of Power in Deliberative Democracy », Journal of Political Philosophy, 2010).. Le meilleur argument est censé triompher grâce à ce qu’Habermas appelle de manière fameuse sa « force sans force »21 L’expression originale est « der zwanglose Zwang des besseren Arguments » (Theorie des Kommunikativen Handelns, Frankfurt, Suhrkamp, 1981, vol. 1, p. 47)., ce qu’on peut plausiblement interpréter comme l’évidente supériorité épistémique de tout argument vrai, capable, en principe au moins, de s’imposer à la raison sans violence. Notons au passage que cela ne fait pas de l’unanimité l’achèvement nécessaire de la délibération mais simplement son idéal régulateur.

Sont généralement attribuées à la délibération trois propriétés dont on peut avancer qu’elles déterminent la performance épistémique. La délibération est censée :

1) élargir l’ensemble des idées et informations ;

2) dégager les bons arguments des mauvais ;

3) conduire à un consensus sur la solution la « meilleure » ou la plus « raisonnable ».

Pour illustrer ces effets prétendus de la délibération, je vais considérer un exemple stylisé que j’emprunte au film Douze hommes en colère. Dans le film (de Sidney Lumet, fondé sur la pièce de théâtre de Reginald Rose), un courageux juré en désaccord avec les autres (le juré 8, incarné par Henri Fonda), réussit à convaincre ses onze pairs de reconsidérer la sentence de culpabilité qu’ils sont sur le point de prononcer au sujet d’un jeune homme accusé de meurtre. En demandant aux autres jurés de « justifier leur opinion », le juré 8 entraîne le groupe dans un long voyage délibératif, qui finit par un acquittement unanime. Douze hommes en colère illustre à mon avis le phénomène d’intelligence collective produite par la délibération. Le juré 8, livré à lui-même, aurait été incapable de démontrer que la sentence était au-dessus de tout soupçon. C’est seulement en articulant les contributions des différents membres, éventuellement malgré leurs passions et préjugés, que le groupe finit par atteindre la vérité.

Les contributions varient et se complètent l’une l’autre : le juré 5, jeune homme issu d’un quartier pauvre et violent, remarque que le suspect ne peut avoir poignardé la victime avec un couteau à cran d’arrêt. La perspective du juré 5 est non seulement unique (aucun autre juré n’étant familier de la manière dont s’utilise un couteau à cran d’arrêt), elle est cruciale pour le progrès du raisonnement collectif, car elle jette un premier doute sur la fiabilité d’un témoignage visuel sur lequel s’appuie l’accusation. Le juré 9, un homme âgé, remet en question la plausibilité du temps pris par un autre témoin (âgé lui aussi et invalide de surcroît) à boîter de son lit à la porte, où il aurait supposément surpris le meurtrier alors que celui-ci quittait le bâtiment. Un autre juré s’interroge sur la signification des marques rouges sur les ailes du nez du témoin principal, une femme qui prétend avoir assisté au crime depuis son lit par la fenêtre de son appartement situé de l’autre côté de la rue. Un juré, lui-même porteur de lunettes, devine alors que cette femme porte sûrement des lunettes, qu’elle a enlevées par coquetterie au moment d’aller témoigner. Il devient apparent que cette femme est probablement myope et que son témoignage n’est pas fiable. Le processus de délibération dans ce scénario est une bonne idéalisation des délibérations réelles, dans lesquelles les participants apportent une perspective, un argument, une idée, une information, et le groupe atteint une conclusion qu’aucun individu n’aurait pu atteindre seul.

Il faut souligner que dans ce scénario la délibération entre plusieurs personnes présente les trois propriétés de la bonne délibération. La délibération élargit les informations et les idées disponibles pour tous les jurés, puisqu’elle fait émerger une connaissance sur la manière appropriée de se servir d’un couteau à cran d’arrêt, et révèle une contradiction entre cet usage et la manière dont le témoin oculaire décrit le meurtre. La délibération met également en lumière un fait que plusieurs membres du groupe avaient remarqué (les marques rouges sur les ailes du nez de la femme qui prétend avoir assisté au meurtre depuis sa chambre) mais qu’ils ne savaient pas comment interpréter ou utiliser. Ici, l’interprétation correcte est que le témoin porte des lunettes, est sans doute myope, et qu’en conclusion son témoignage n’est pas fiable.

La délibération permet également au groupe de distinguer les bons arguments des mauvais. Une fois atteinte la conclusion que le témoin oculaire est myope, sachant que la femme en question prétend avoir assisté au meurtre depuis son lit, quelle est l’hypothèse la plus probable : que cette femme portait ses lunettes, ou qu’elle ne les portait pas ? Même le juré le plus têtu doit se rendre à la « force sans force » de l’argument selon lequel elle ne portait pas ses lunettes.

Enfin, la délibération dans cet exemple produit un consensus sur la « meilleure » réponse, à savoir la décision de considérer le jeune suspect comme « non coupable », en vertu des doutes soulevés pendant la délibération.

Considérons à présent cet exemple à l’aide du théorème « la diversité prime sur la compétence » de Scott Page. D’après celui-ci, ce qui importe avant tout pour l’intelligence collective pour résoudre des problèmes du type de celui que je viens de décrire, c’est la diversité cognitive22Page, The Difference, op. cit., p. 163. C’est le théorème « La diversité prime sur la compétence ».. La diversité cognitive désigne la variété dans la manière dont différentes personnes vont aborder un problème ou une question. Elle désigne plus spécifiquement une diversité de points de vue (la manière de se représenter situations et problèmes), une diversité d’interprétations (la manière de catégoriser ou ordonner les points de vue), une diversité d’heuristiques (la manière de trouver des solutions aux problèmes), et une diversité de modèles prédictifs (la manière d’inférer causes et effets)23Ibid., p. 7.. Dans mon exemple, la diversité cognitive vient du fait que les jurés ont des origines sociales et des expériences de vie différentes. Même leur âge peut jouer un rôle dans la manière dont ils interprètent une situation. Il faut noter cependant que la diversité cognitive n’est pas une diversité de valeurs ou de buts, qui compromettrait l’effort collectif de résolution de problèmes. Ainsi, bien que les jurés aient des points de vue et des arguments parfois opposés, ils cherchent tous la même chose (même si cela leur demande parfois un effort) : la vérité, ou du moins ce qui s’en rapproche le plus. Selon Page, l’existence de diversité cognitive ainsi définie au sein d’un groupe garantit que, sous quatre conditions spécifiques, « un groupe, constitué au hasard, de personnes employées à résoudre un problème commun obtient de meilleurs résultats qu’une sélection des individus les plus doués »24Ibid., p. 163. Les quatre conditions sont raisonnables. La première exige que le problème soit suffisamment difficile, puisque nous n’avons pas besoin d’un groupe pour résoudre des problèmes simples. La deuxième condition exige que tous ceux qui résolvent les problèmes soient relativement intelligents. Autrement dit, les membres du groupe doivent avoir des optimum locaux qui ne sont pas trop bas, faute de quoi le groupe resterait bloqué loin de l’optimum global. La troisième condition suppose simplement une diversité d’optimum locaux, si bien que l’intersection des optimum locaux ne contienne que l’optimum global. Enfin, la quatrième condition exige que la population initiale d’où sont extraites les personnes qui résolvent les problèmes soit nombreuse, et que le groupe choisi le soit également. Cette supposition garantit que le groupe choisi au hasard est varié, et en particulier plus divers cognitivement qu’une sélection des meilleurs (ce qui ne serait pas nécessairement le cas pour une population trop peu nombreuse par rapport au groupe choisi, ou pour un groupe trop petit de manière absolue). Il faut noter que la première partie de cette quatrième condition ressemble à l’exigence formulée par Madison dans le dixième des Federalist Papers que le groupe de candidats pour une position de députés soit suffisamment nombreux. Pour plus de détails, voir The Difference, op. cit., p. 159-162..

L’idée générale illustrée par l’exemple des « douze hommes en colère » et formalisée par le théorème de Page est qu’il vaut souvent mieux avoir un groupe de personnes cognitivement diverses qu’un groupe de personnes très intelligentes qui pensent de la même manière. En effet, alors que des personnes très intelligentes qui pensent de la même manière vont avoir tendance à s’arrêter rapidement sur la solution qui leur paraît la meilleure sans chercher plus loin, les membres d’un groupe cognitivement plus divers ont la possibilité de se guider les uns les autres dans l’exploration d’autres possibilités : ils ne s’arrêtent pas à la solution commune retenue par ceux qui pensent pareillement et se donnent ainsi une chance de trouver la meilleure solution entre toutes (l’optimum global). On peut imaginer que, dans le scénario de Douze hommes en colère, si le jury n’avait été composé que de clones du juré 8, a priori la personne la plus intelligente du groupe, ils auraient pu en rester au doute initial, mais n’auraient pas atteint la solide conviction d’innocence à laquelle parvient finalement le groupe.

Cependant, délibérer n’est pas en soi une activité démocratique. En effet, une délibération peut théoriquement avoir lieu avec une seule personne, dans son for intérieur (pour prendre le cas extrême), ou entre quelques oligarques. L’exemple que j’ai donné implique douze personnes. Que gagne-t-on en impliquant de plus grands nombres ? Et n’y a-t-il pas un seuil au-delà duquel le nombre nuit à la qualité des résultats délibératifs ?

Dans la mesure où l’accroissement du nombre de participants d’un groupe garantit une plus grande diversité cognitive, plus de participants signifie plus d’intelligence collective25Il faut remarquer que, dans la mesure où (à supposer que ce soit le cas) la diversité cognitive est liée à d’autres formes de diversité, comme le genre ou l’appartenance ethnique, l’argument suggère que la discrimination positive n’est pas seulement une bonne chose du point de vue de la justice, mais également pour des raisons épistémiques. Je n’entre pas ici dans ce débat complexe mais c’est à l’évidence une des conséquences potentielles d’un argument qui invoque les propriétés épistémiques de la diversité cognitive (pour une défense de la diversité cognitive comme la « seule » raison de soutenir la discrimination positive, voir les conclusions du sociologue Daniel Sabbagh, L’Égalité par le droit. Les paradoxes de la discrimination positive aux États-Unis, Paris, Economica, 2003).. Je suppose donc que l’on peut généraliser jusqu’à un certain point le théorème de Scott Page « La diversité prime sur la compétence » en un théorème « Le nombre prime sur la compétence », selon lequel ce qui importe le plus pour l’intelligence collective et la résolution de problèmes n’est pas tant la compétence individuelle que le nombre de personnes dans le groupe. Ainsi, si douze jurés valent mieux qu’un, alors ce sera aussi le cas pour quarante et un ou cent vingt-trois jurés. Bien sûr, l’hypothèse selon laquelle la diversité cognitive est corrélée avec le nombre ne se vérifiera pas toujours, mais elle semble plus intuitive que la supposition inverse26Un facteur de complexité est sans doute le mécanisme d’élection/sélection. En sélectionnant par exemple cent députés, un système de représentation proportionnelle peut produire une plus grande diversité cognitive qu’un scrutin majoritaire uninominal. Cela invite à procéder à une comparaison épistémique entre différents modes de sélection démocratique possibles, dont certains peuvent produire une plus grande diversité cognitive avec moins de membres. Je dois cette remarque à Jon Elster.. Par ailleurs, cette hypothèse n’est sans doute vraie qu’en deçà d’un certain seuil au-delà duquel la présence d’une personne supplémentaire n’ajoute plus aucune diversité cognitive.

Un problème évident et qui devrait modérer notre enthousiasme pour le nombre est le manque de faisabilité. Impliquer directement tous les individus concernés dans le processus délibératif n’est pas toujours possible. En effet, au-delà d’un certain seuil, la délibération devient chaotique, auquel cas la supériorité épistémique va par défaut à la délibération qui implique un plus petit nombre de personnes, de préférence plus intelligentes ou mieux éduquées. C’est là qu’intervient l’institution de la représentation politique, qui permet l’engagement indirect ou médiatisé du plus grand nombre dans la décision prise par quelques-uns. La section suivante propose une interprétation de la représentation comme la solution institutionnelle au problème consistant à combiner la faisabilité de la délibération sur une petite échelle et la diversité cognitive d’une grande assemblée.

La représentation comme projection de la diversité cognitive sur une échelle réduite

Pour pouvoir défendre la conception hétérodoxe selon laquelle les représentants reproduisent à petite échelle la diversité cognitive du groupe dans son ensemble, deux points doivent être établis. Le premier est la nature démocratique plutôt qu’élitiste de la représentation. En d’autres termes, il faut rendre compte de la distinction conceptuelle entre une assemblée de représentants et une assemblée d’oligarques. Deuxièmement, il convient de montrer en quoi la délibération entre des représentants est, au moins en théorie, épistémiquement supérieure à la délibération entre des oligarques.

Une assemblée de représentants se distingue d’un groupe d’oligarques par deux principes institutionnels : l’existence d’élections régulières et le principe de responsabilité27Bernard Manin, Les Principes du gouvernement représentatif, Paris, Flammarion, 1995.. Les représentants se distinguent des oligarques dans la mesure où ils sont élus à la position de décideurs ou de législateurs, plutôt que d’y avoir accès par la naissance (comme les aristocrates) ou par nomination (comme dans le cas des magistrats non élus et de certains experts).

En ce qui concerne ce premier critère, on peut objecter que les élections conservent un aspect oligarchique, voire aristocratique, dans la mesure où elles impliquent un principe de sélection sur des critères qui donnent souvent plus de chances aux membres les plus éduqués et/ou aux plus riches de la société, qui tendent ensuite à rester au pouvoir et à se reproduire comme classe. Par conséquent, la compétence individuelle des membres de ces groupes peut être élevée, mais la diversité cognitive en leur sein ne le sera sans doute pas. Certains auteurs ont suggéré qu’une loterie serait une alternative à l’élection28Jon Elster, Solomonic Judgments: Studies in the Limits of Rationality, Cambridge & New York, Cambridge University Press, 1989, p. 78-103. en principe plus démocratique et représentative29Voir Neil Duxbury, Random Justice: On Lotteries and Legal Decision-Making, Oxford, Oxford University Press, 1999 ; Barbara Goodwin, Justice By Lottery, Chicago, University of Chicago Press, 1992 ; Richard G. Mulgan, « Lot as a Democratic Device of Selection », Review of Politics, 1984, vol. 46, p. 539-560 ; Yves Sintomer, Le Pouvoir au peuple : jurys citoyens, tirage au sort et démocratie participative, Paris, La Découverte, 2007 ; Peter Stone, « Why Lotteries Are Just? », The Journal of Political Philosophy, 2007, vol. 15, n° 3, p. 276-295. On peut soutenir que les loteries sont plus justes, mais aussi que, même si elles ne permettent assurément pas d’élever le niveau de compétence individuelle (par définition, la compétence individuelle espérée chez les personnes choisies serait moyenne), elles préservent en revanche la diversité cognitive du groupe30D’un autre côté, il existe des problèmes d’incitation, de motivation et de responsabilité (puisque l’espoir des personnes sélectionnées de l’être de nouveau est indépendant de leur exercice du pouvoir), qui rendent cette idée difficile à mettre en œuvre. L’élection pourrait bien être la seconde meilleure solution pour reproduire la diversité cognitive. Le fait que les élections soient périodiques (tous les quatre ou cinq ans) permet également un renouvellement minimal des dirigeants au cours du temps (même s’il est moindre que par un système de loterie), qui est crucial pour empêcher les représentants de se transformer en un groupe d’oligarques qui pensent de la même manière. Je fais ici l’hypothèse plausible que tout groupe d’individus initialement divers devient moins divers au cours du temps, à moins de recevoir l’apport périodique de nouveaux membres.. Mais quel que soit le mode de sélection, le principe est que, à la différence des oligarques, les représentants ne sont pas censés être une élite immuable de décideurs comme le sont les oligarques.

Les représentants diffèrent également d’une classe d’oligarques dans la mesure où ils sont responsables devant le peuple, non seulement à la fin de leur mandat, mais, pour ainsi dire, tout au long, de manière informelle (dans la mesure où ils opèrent sous l’œil des électeurs qui peuvent leur écrire, les appeler, et les critiquer autrement qu’en ne les réélisant pas)31Je ne veux pas dire par là que les représentants peuvent être rappelés n’importe quand, mais simplement souligner la pression internalisée, dans le comportement des représentants, à agir comme s’ils étaient constamment sous le regard du public et responsables devant lui en permanence.. Cette thèse est à la fois normative et empirique. Elle est normative, parce que dans une interprétation démocratique et non burkéenne de leur rôle32Voir Nadia Urbinati, Representative Democracy: Principles and Genealogy, Chicago, University of Chicago Press, 2006., les représentants sont supposés tenir compte des intérêts et jugements de leurs électeurs, plutôt que d’agir et de décider en fonction de leurs seuls jugements. Sans se faire l’avocat du mandat impératif, on peut donc considérer que le jugement des représentants est régulièrement comparé à l’opinion de leur électorat et doit en tenir compte33Nadia Urbinati le formule dans des termes abstraits mais éloquents lorsqu’elle dit que, d’après sa conception normative, et contre les définitions élitistes qui opposent représentation et participation (voire représentation et démocratie), « la démocratie représentative […] est intrinsèquement, et nécessairement, entremêlée avec la participation et l’expression informelle de la “volonté populaire” » (ibid., p. 10)..

Cette thèse de la responsabilité des représentants est aussi une réalité empirique, puisque la réélection des représentants dépend de la satisfaction des électeurs, de sorte que ces représentants sont incités à demeurer constamment en contact avec l’opinion publique. Cela ne veut pas dire cependant que les représentants sont entièrement soumis à leurs électeurs. Ils peuvent se servir de leur jugement pour trouver les meilleurs moyens d’atteindre les résultats sur lesquels ils seront jugés ; ils disposent d’un espace de jeu puisque s’ils ne se montrent pas à la hauteur de leurs promesses électorales, la faute peut en incomber à des facteurs qui dépassent leur compétence. Pour autant, les représentants sont généralement fort attentifs aux sondages et aux différents signes (grèves, manifestations) qui traduisent l’opinion publique.

Que se passe-t-il à présent, d’un point de vue épistémique, si l’on compare un groupe de représentants avec un même effectif d’oligarques ? On peut comparer une assemblée élue composée par exemple de cinq cents députés, à une oligarchie de cinq cents individus (une situation proche de la réalité de la république de Venise au XVe siècle, gouvernée par quelques centaines d’aristocrates). Historiquement, il est douteux que les oligarchies aient été constituées des meilleurs et des plus brillants mais faisons l’hypothèse que les cinq cents oligarques de mon exemple sont très intelligents et que leur groupe est de surcroît cognitivement divers. Il pourrait sembler qu’une oligarchie de ces cinq cents individus délibérant entre eux a plus de chances de prendre des décisions intelligentes qu’une assemblée composée de citoyens moyens (dans la mesure où cette oligarchie idéale maximise compétence individuelle et diversité cognitive). Le problème est que de telles conditions initiales (forte compétence individuelle et diversité cognitive) ne pourraient pas être maintenues sur le long terme, pour au moins deux raisons. La première est que faute d’élections régulières, le groupe d’oligarques est bloqué à un niveau donné et une qualité donnée de diversité cognitive. Deuxièmement, en l’absence de responsabilité démocratique, le groupe d’oligarques n’a aucune incitation à continuer de refléter la diversité cognitive du groupe dans son ensemble telle qu’elle évolue au cours du temps. De fait, aussi collectivement intelligent soit-il au départ, le groupe d’oligarques a peu de chances de maintenir ce niveau d’intelligence collective au cours du temps. Même si le niveau de compétence individuelle moyen reste le même, l’ingrédient plus essentiel de la diversité cognitive s’amenuise.

Dans le cas de la démocratie représentative, par contraste, la diversité cognitive de l’assemblée est préservée sur le long terme grâce à la tenue périodique d’élections qui renouvellent les membres de l’assemblée et permettent une certaine adaptation à des circonstances changeantes. De plus, un Parlement élu et responsable devant l’ensemble du peuple (donc au moins minimalement informé par une opinion publique) est plus susceptible de préserver une diversité cognitive qu’un corps d’oligarques qui ne peut compter que sur la discipline de ses membres pour éviter l’écueil de la « pensée de groupe », des préjugés intéressés, et de l’isolement par rapport au peuple. Ainsi, même s’il est concevable que la délibération au sein d’une oligarchie ait temporairement les mêmes propriétés épistémiques que la délibération au sein d’une assemblée représentative, et peut-être même des propriétés supérieures, je pense que cela semble implausible sur le long terme34Un exemple contemporain d’oligarchie dont le succès épistémique est comparable à celui de régimes démocratiques, au moins sur le plan des politiques économiques et éducatives, serait le régime communiste en Chine. Parce que l’étiquette « communiste » cache en réalité désormais des positions idéologiques qui vont de l’extrême droite et à l’extrême gauche (la seule idéologie commune étant le nationalisme), on peut soutenir que les politiques appliquées en Chine sont comparables à celles qui seraient produites par le règne (démocratique) de l’électeur médian. Je dois cette suggestion provocatrice à Pasquale Pasquino..

Selon l’interprétation de la représentation proposée ici, l’argument épistémique en faveur de la délibération inclusive s’applique aussi bien dans le cadre de la démocratie représentative que dans celui de la démocratie directe, pour autant que la représentation reproduise efficacement la diversité cognitive du groupe au sein de l’assemblée des représentants. La thèse reste inchangée : la délibération qui implique le grand nombre, sous une forme directe (lorsqu’elle est faisable) ou indirecte (par le biais de la représentation) est supérieure à la délibération du petit nombre, parce que dans la mesure où la diversité cognitive est corrélée au nombre (et en supposant que les citoyens sont généralement au moins modérément intelligents), plus le groupe délibératif est nombreux, plus il est susceptible de produire des décisions intelligentes.

La règle de la majorité avec suffrage universel

La délibération est loin d’être un mécanisme de décision parfait ou complet, en partie parce qu’elle demande du temps et aboutit rarement à l’unanimité. Dans la plupart des cas, elle doit être complétée, voire remplacée, par une autre procédure de décision : la règle de la majorité. La règle de la majorité est moins gourmande en temps, mais contrairement à la délibération, elle ne permet pas en soi de trouver la solution à un problème donné. Elle permet seulement de choisir entre des options prédéterminées, idéalement définies au cours d’un épisode délibératif. Cette section défend l’idée que loin de n’être qu’un moyen équitable de régler les désaccords sur le choix d’une option, la règle de la majorité est également une manière d’améliorer les chances qu’a le groupe de choisir la bonne option (« bonne » signifiant simplement ici la meilleure parmi les options disponibles). La règle de la majorité agrège les jugements individuels sur la meilleure route à suivre ou le meilleur candidat à désigner. En d’autres termes, la règle de la majorité n’est pas seulement une manière équitable de trancher une question lorsque le temps manque pour délibérer, mais c’est une manière de transformer des prédictions individuelles imparfaites en prédictions collectives plus exactes. Là encore, puisque la règle de la majorité est également à la disposition du dictateur solitaire (qui est la majorité à lui tout seul) et du groupe d’oligarques, il convient d’examiner plus en détail si la règle de la majorité assortie de suffrage universel est préférable à la règle de la majorité exercée par une minorité.

Il existe au moins trois arguments théoriques distincts quoique reliés rendant compte des propriétés épistémiques de la règle de la majorité : le théorème du jury de Condorcet, le « miracle de l’agrégation » et la loi « La foule vaut mieux que l’individu moyen »35Certains considèrent le théorème du jury de Condorcet comme une simple variante du miracle de l’agrégation. Ce peut en effet être le cas (dans ce cas le théorème de Condorcet correspond probablement à ce que j’appelle la version « démocratique » du miracle de l’agrégation) mais dans la mesure où les études spécialisées les traitent encore séparément, j’étudie chaque description de manière autonome. de Scott Page. Je présente rapidement les deux premiers avant de me concentrer sur le troisième, plus convaincant selon moi.

Le théorème du jury de Condorcet

Le théorème du jury de Condorcet (TJC) démontre que, pour un grand nombre d’individus qui votent sur une question binaire, les résultats majoritaires sont quasiment sûrs de correspondre à la « vérité » si trois conditions sont respectées : (1) les électeurs ont plus d’une chance sur deux de choisir la réponse vraie (hypothèse de l’électeur éclairé) ; (2) ils votent indépendamment les uns des autres (hypothèse d’indépendance) ; et (3) ils votent sincèrement ou véridiquement (hypothèse du vote sincère). Pour illustrer rapidement la puissance des grands nombres mise au service de la règle majoritaire, considérons dix électeurs, donc chacun a une probabilité de 0,51 de répondre correctement à une question binaire. Une majorité de six personnes aura 52 % de chances d’avoir raison. Élargissons à présent le groupe à mille personnes : une majorité de 501 personnes a alors 73 % de chances d’avoir raison. Plus le groupe est nombreux, plus les chances que la majorité ait raison se rapprochent de 100 %. C’est une simple implication de ce qui est aussi désigné comme le théorème central limite.

Le TJC, qui a été formulé pour la première fois par le marquis de Condorcet en 1785 et redécouvert par Duncan Black dans les années 1950, a engendré de nombreuses analyses formelles ces dernières décennies. Mais ces analyses échouent le plus souvent à tirer des implications normatives substantielles, en partie parce que le TJC est considéré comme ne s’appliquant pas au monde réel. Ces hypothèses sont analysées comme de pures curiosités techniques et mathématiques sans application concrète36Voir par exemple Krishna Ladha, « The Condorcet Jury Theorem, Free Speech, and Correlated Votes », American Journal of Political Science, 1992, vol. 36, n° 3, p. 617-634. Duncan Black a donné le ton de la réception du théorème à cet égard. En dépit d’une sincère admiration pour la découverte de Condorcet et sa valeur pour la théorie de la décision de groupe en particulier, Black est sceptique quant à l’application plus large du théorème (Duncan Black, Theory of Elections and Committees, Cambridge, Cambridge University Press, 1958, p. 185). Il s’inquiète particulièrement de l’idée d’une « probabilité de rectitude de l’opinion d’un électeur », expression qu’il tient pour « dépourvue de signification précise » (ibid., p. 163).. Parallèlement, des théoriciens plus portés vers la philosophie demeurent ambigus quant à l’utilité du théorème de Condorcet pour la théorie de la démocratie. Même David Estlund, avocat incontestable d’une théorie de la démocratie (au moins partiellement) épistémique, et qui évoque à plusieurs reprises le TJC à l’appui de la supériorité des décisions majoritaires sur d’autres règles de décision, finit par prendre ses distances avec le théorème qu’il juge « loin d’être tout à fait fiable »37David Estlund, « Beyond Fairness and Deliberation: The Epistemic Dimension of Democratic Authority », dans James Bohman & William Rehg (dir.), Deliberative Democracy, Cambridge, MIT Press, 1997, p. 189. et, plus récemment, tout à fait « dépourvu de pertinence »38David Estlund, Democratic Authority. A Philosophical Framework, Princeton, Princeton University Press, 2007, chapitre 12..

J’ai soutenu ailleurs la pertinence du théorème en défendant la plausibilité empirique de ses hypothèses principales39Hélène Landemore, « Democratic Reason: Politics, Collective Intelligence, and the Rule of the Many » (Doctoral Dissertation, Harvard, 2007).. En fin de compte, je conclus que l’hypothèse d’indépendance est une simplification mathématique d’une logique plus compliquée. Parce que le théorème ne nous dit rien sur cette logique plus complexe, nous avons cependant besoin d’une théorie plus fine rendant compte de ce qui se passe vraiment dans l’agrégation des jugements.

Le « miracle de l’agrégation »

Le « miracle de l’agrégation »40Philip E. Converse, « Popular Representation and the Distribution of Information », dans J.A. Ferejohn & J.H. Kuklinski (dir.), Information and Democratic Processes, Chicago, University of Chicago Press, 1990. est une autre explication de l’intelligence collective, distincte du théorème du jury, même si elle met également en œuvre la loi des grands nombres. Contrairement au TJC, le miracle de l’agrégation ne s’applique pas spécifiquement à la règle majoritaire mais explique pourquoi les réponses moyennes d’un grand nombre de personnes à des questions ayant une solution vérifiable tendent à être remarquablement correctes.

La version la plus courante du « miracle de l’agrégation » l’explique comme le phénomène statistique par lequel quelques personnes informées dans un groupe suffisent à guider le groupe vers la réponse juste, aussi longtemps que la moyenne des réponses des personnes non informées est zéro41Cette version « élitiste » remonte sans doute à Bernard R. Berelson, Paul F. Lazarsfeld & Willima N. McPhee, Voting: A Study of Opinion Formation in a Presidential Campaign, Chicago, University of Chicago Press, 1954.. L’intelligence collective consiste ici à extraire l’information détenue par une élite informée de la masse de « bruit » que représentent les opinions des autres. Tant qu’une minorité substantielle connaît la réponse correcte et que toutes les autres personnes font des erreurs qui s’annulent les unes les autres, la réponse correcte pourra faire surface.

Appliquée à la fameuse expérience de Galton42Pour résumer en quelques mots cette anecdote désormais bien connue, le statisticien du XIXe siècle assistait à une foire paysanne, dont l’une des attractions était un jeu de devinette. Le but était de deviner le poids d’un bœuf une fois tué et préparé. Galton recueillit les réponses des quelque huit cents participants et calcula la moyenne qui se trouva être la réponse juste à cinq cents grammes près. Certaines versions de l’histoire disent que Galton a calculé la médiane (ce qui garantit contre le problème de résultats extrêmes). Nous supposons dans ce qui suit que la distinction médiane/moyenne n’importe pas dans le cas qui nous intéresse. portant sur un concours de devinette dans une foire paysanne, une telle explication suppose donc qu’un certain nombre de personnes connaissaient le poids exact du bœuf et que tous les autres ont fait des erreurs qui se sont réciproquement compensées.

Une version plus démocratique du « miracle de l’agrégation » présente les choses d’une manière légèrement différente. Cette fois-ci, chaque individu a une opinion qui est grossièrement juste et la distribution des erreurs autour de chaque jugement « brumeux » des individus est telle que les erreurs individuelles se compensent dans l’ensemble et que le jugement collectif est raisonnablement précis. L’exemple du concours de devinette de poids montre que la plupart des gens n’étaient pas loin du poids réel, même si personne ne le connaissait exactement. Page et Shapiro appliquent ce modèle à la description de la rationalité de l’opinion publique43D’après eux, les gens ont des opinions sensées mais entourées de bruit, et l’agrégation de ces individus produit une agrégation de ces opinions réelles. Par exemple, certains citoyens sous-estiment et d’autres surestiment les bénéfices de l’immigration. « Même si les réponses individuelles aux sondages d’opinion sont en partie données au hasard, pleines d’erreurs de mesure, et instables, lorsqu’elles sont agrégées dans une réponse collective (par exemple le pourcentage de gens qui se disent en faveur d’une politique donnée) la réponse collective peut être tout à fait sensée et stable » (Benjamin Page & Y. Shapiro, The Rational Public. Fifty Years of Trends in Americans’ Policy Preferences, Chicago, University of Chicago Press, 1992). Ce que Page et Shapiro impliquent sans s’étendre sur la question, c’est que le public est épistémologiquement plus fiable, pris comme un tout, que chacun des individus qui le composent, ce qui explique pourquoi les hommes politiques ont raison de promouvoir des politiques d’immigration fondées sur le jugement du public (raisonnement que Page et Bouton étendent également à la politique extérieure, voir Benjamin Page & Marshall M. Bouton, The Foreign Policy Discontent. What Americans Want from Our Leaders but Don’t Get, Chicago & London, University of Chicago Press, 2006)..

Une troisième version du miracle de l’agrégation consiste à considérer que la bonne réponse est dispersée en petits morceaux entre les individus. Aussi longtemps que les gens expriment un jugement qui contient un élément pertinent d’information combiné avec une opinion formée au hasard sur la partie qu’ils ignorent, la même logique de compensation des erreurs émises au hasard produit la « bonne » prédiction au niveau du tout. Cette explication ne s’applique vraisemblablement pas au concours de devinette de poids, mais si c’était le cas cela supposerait que certaines personnes connaissaient le poids d’une queue de bœuf, d’autres le poids des oreilles, etc., et qu’elles devinaient au hasard pour le reste. En moyenne, tous les éléments d’information vont se combiner pour produire la bonne réponse.

Le « miracle de l’agrégation », dans ses versions élitiste, démocratique ou distribuée, est une manière élégante de rendre compte des propriétés épistémiques de l’agrégation des jugements, y compris de l’agrégation opérée par la règle de la majorité. En effet, Galton lui-même, qui n’avait pas une très haute opinion de la démocratie, a été incité par son propre résultat à comparer la situation du jeu de devinette avec le vote démocratique pour conclure que : « Le résultat semble honorer la fiabilité du jugement démocratique davantage qu’on n’aurait pu l’espérer »44Francis Galton, « Vox Populi », Nature, 1907, vol.75, p. 450-451.. Pour certains, le « miracle de l’agrégation » est une explication de l’intelligence collective et du succès de la démocratie meilleure que l’explication plus traditionnelle en termes de délibération et de poursuite d’un consensus rationnel45Cass Sunstein y voit par exemple un « défi hayékien à Habermas » (Infotopia, op. cit.). En fait, il n’est pas évident que le miracle de l’agrégation revienne au mécanisme de la main invisible qui rend compte de l’émergence des prix des biens ou de l’information sur les marchés, et que la délibération démocratique soit rendue superflue par l’agrégation d’information par règle de la majorité, les sondages ou les marchés.. Comparé au théorème du jury de Condorcet, le miracle de l’agrégation présente l’avantage de ne pas exiger beaucoup de l’électeur moyen. Dans sa version élitiste tout particulièrement, le seuil cognitif de l’électeur moyen peut notamment être bien plus faible qu’un lancer à pile ou face.

« Le miracle de l’agrégation » peut rencontrer deux objections principales46Une objection pratique consiste également à souligner que la règle de la majorité implique d’ordinaire un choix entre des options discrètes, mais permet rarement le type d’élection « quantitative » et continue qu’on observe dans le jeu de devinette du poids du bœuf ou dans les marchés d’information. Ce n’est pas une objection très puissante puisque la logique du miracle de l’agrégation fonctionne théoriquement même avec les choix réduits offerts dans les élections. Premièrement, on peut nier la plausibilité empirique de l’hypothèse d’une distribution des erreurs « au hasard » ou symétrique autour de la bonne réponse. Caplan souligne qu’il est bien plus probable que les gens soient cognitivement biaisés dans la même direction, si bien que, loin de corriger les erreurs individuelles, l’agrégation des jugements va au contraire les amplifier au niveau collectif47Caplan, The Myth of the Rational Voter, op. cit.. Je traite cette objection dans la dernière section de cet article. L’autre objection vient de Scott Page, pour qui une explication qui présuppose une infinité de signaux indépendants n’est pas plausible.

Diversité cognitive

Scott Page propose une explication différente de la raison pour laquelle des groupes nombreux peuvent porter de bons jugements et faire, en particulier, des prédictions fiables. Il écarte en réalité aussi bien le théorème du jury de Condorcet que le miracle de l’agrégation parce que, d’après lui, ces explications reposent sur une hypothèse d’indépendance statistique du jugement des électeurs qui n’est pas plausible empiriquement.

Page appuie son explication sur deux théorèmes : le théorème de prédiction de la diversité, et la loi « La foule vaut mieux que l’individu moyen ». Sans entrer dans les détails de la démonstration, on peut prendre ces résultats comme point de départ pour une réflexion sur les propriétés épistémiques de l’agrégation de jugement par la règle de majorité. Le premier théorème établit que l’erreur collective d’un groupe équivaut à l’erreur individuelle moyenne moins la diversité prédictive collective48Ibid., p. 208.. Autrement dit, lorsqu’il s’agit de faire des prédications (sur le poids d’un bœuf, le meilleur candidat aux fonctions présidentielles, etc.), la différence cognitive entre les électeurs est tout aussi importante que la compétence individuelle. Accroître la diversité prédictive d’une unité réduit l’erreur collective autant qu’un accroissement équivalent de la compétence individuelle moyenne49Pour que cela ait du sens, il faut supposer une même métrique pour l’erreur et la compétence..

Rappelons que dans le cas de la délibération appliquée à la résolution de problèmes, nous avons vu que la diversité cognitive pouvait même primer sur la compétence individuelle. Ici, le théorème démontre qu’il y a une équivalence stricte entre ces deux éléments de l’intelligence collective. C’est le cas, parce que, à la différence de ce qui advient dans la délibération, la meilleure information, idée ou argument n’évacue pas le pire. L’agrégation de jugement agrège tout, mauvaises données y compris, ce qui réduit à l’occasion l’intelligence du groupe.

Le deuxième théorème établit que la justesse de la prédiction du groupe est systématiquement meilleure que la justesse moyenne de ses membres. En d’autres termes, le groupe fait nécessairement de meilleures prédictions que son membre moyen. En outre, le gain en précision prédictive du groupe par rapport à son membre moyen augmente avec la diversité cognitive du groupe50Ibid., p. 197.. Cette « loi » découle directement du théorème de diversité prédictive. La conséquence pour la démocratie, me semble-t-il, est la suivante : pour les décisions qui impliquent des prédictions, il vaut mieux procéder par la règle de la majorité, plutôt que de laisser le membre moyen décider pour nous. La règle de la majorité est supérieure à la règle d’un seul (lorsque cet individu est pris au hasard).

Il faut cependant souligner que, parce la diversité ne prime pas sur la compétence pour ce qui est des prédictions, nous pourrions nous trouver tout aussi bien si un groupe plus restreint de personnes plus intelligentes prenaient les décisions. La règle de la majorité utilisée par le très grand nombre n’est pas supérieure à la règle de la majorité utilisée par le petit nombre.

Comme je l’ai souligné auparavant, la clé du phénomène d’intelligence collective dans l’agrégation de jugement est l’existence de corrélations négatives entre les modèles prédictifs des individus. Concrètement, des corrélations négatives existent entre les modèles prédictifs de deux individus dès qu’un individu, par exemple un Démocrate, a plus de chances de faire une prédiction correcte quand un autre individu, par exemple un Républicain, a plus de chances de faire une prédiction fausse (lorsqu’il s’agit par exemple de prédire quel candidat fera le meilleur président). Les prédictions de ces individus sont négativement corrélées au sens où si leurs jugements étaient réellement statistiquement indépendants, le Républicain devrait avoir la même probabilité d’avoir raison que le Démocrate ait tort ou qu’il ait raison. On peut sans doute attribuer l’origine de ces corrélations négatives au fait que des individus différents à maints égards (en termes de matériel génétique, d’éducation, ou simplement d’expérience de vie) sont voués à penser différemment51Voir l’article de Lu Hong et Scott Page (« Information Aggregation », 2009, p. 18) pour une démonstration du fait que l’usage d’interprétations indépendantes implique des prédictions corrélées négativement. Plus précisément, le cœur de l’article montre que « voir le monde indépendamment, regarder différentes propriétés, non seulement n’implique pas mais exclut à la fois l’indépendance conditionnelle des signaux et des signaux corrects indépendamment ». Sauf dans le scénario très peu probable où tous les individus raisonnables et informés ignorent chacun une information différente, leurs prédictions ne seront pas indépendantes, mais corrélées négativement (voir Lu Hong & Scott Page, « Generated and Interpreted Signals », Journal of Economic Theory, à paraître)..

Il semblerait donc que plus on agrège de jugements dans le jugement collectif, plus on introduit de diversité cognitive, de corrélations négatives, et plus le groupe est intelligent. En fait, il y a une limite théorique à l’augmentation de l’intelligence collective par l’introduction de toujours plus de points de vue. Dans l’agrégation de jugements, la diversité cognitive n’est pas une fonction linéaire du nombre de jugements agrégés et il y a un retour sur apport qui, au-delà d’un certain seuil, va s’amenuisant. La raison en est, pour faire court, que pour une perspective considérée (par exemple la question de la compétence d’un candidat pour la fonction présidentielle), les individus vont seulement utiliser un nombre limité de variables associées à cette perspective pour passer un jugement ou faire une prédiction. Par exemple, pour prédire quel est le candidat le plus compétent, certaines personnes vont se fonder sur la variable du charisme personnel du candidat. D’autres vont utiliser son affiliation idéologique. D’autres encore ses accomplissements politiques passés. À mesure que l’on inclut un nombre de plus en plus grand de prédictions/jugements, le nombre de variables utilisées peut parfaitement rester assez limité en proportion. Afin d’éviter des corrélations positives à mesure que le nombre de jugements pris en compte augmente, il faut que les individus utilisent des interprétations combinant plusieurs variables (combinant charisme et accomplissements politiques passés par exemple) ou bien fondent leurs interprétations sur des perspectives différentes (cherchant à prédire non pas la compétence pour la position proprement dite, mais par exemple la capacité à gagner les élections). Ce problème de seuil suggère a priori la supériorité épistémique de la démocratie représentative sur la démocratie directe dans les sociétés de masse. Cette question mériterait d’être explorée plus avant. Qu’il suffise de dire ici que dans la mesure où la solution institutionnelle de la représentation permet de ne se poser la question du nombre que sur une échelle modeste, le problème soulevé par l’agrégation d’un très grand nombre de jugements (comme dans les référendums) ne se pose pas nécessairement. À l’échelle d’une assemblée de représentants, on peut supposer qu’en agrégeant davantage de jugements, on augmente la diversité cognitive, et donc l’intelligence de la décision collective.

L’avantage comparatif d’une assemblée de représentants est qu’une telle assemblée contient forcément plus de diversité cognitive, du moins sur le long terme, qu’une assemblée d’oligarques. En tant que telle, une assemblée de représentants renouvelée par des élections régulières garantit, toutes choses égales par ailleurs, la production d’une certaine quantité d’intelligence collective au niveau de l’agrégation de leurs jugements, intelligence qui est beaucoup plus difficile à garantir dans le contexte d’une oligarchie, à moins de pouvoir s’assurer que les oligarques sont et resteront les meilleurs et les plus brillants sur toute question politique imaginable.

Quelles sont les conséquences de ces considérations pour l’idée de raison démocratique ? J’ai soutenu que la règle de la majorité, et de fait tout mécanisme démocratique qui agrège les jugements individuels en jugements collectifs, a des propriétés épistémiques. Puisque la prédiction du groupe l’emporte sur celle du citoyen moyen de ce groupe, nous avons un argument pour expliquer pourquoi la règle du grand nombre l’emporte sur la règle d’un seul (lorsque cet individu est choisi au hasard). Toutefois, cela ne fournit pas un argument maximal pour la règle de la majorité, puisque la règle de la majorité au sein du plus grand nombre ne l’emporte pas systématiquement sur la règle de la majorité employée au sein d’un petit groupe de personnes très intelligentes. C’est en réalité la supériorité de la délibération démocratique sur la délibération oligarchique qui nous permet au final de défendre une thèse plus ambitieuse. Avant de nouer toutes ces conclusions, je voudrais répondre à une objection majeure à l’idée que le groupe est capable de l’emporter dans l’intelligence de ses conclusions sur n’importe lequel de ses membres, à l’inclusion de ses élites cognitives.

Le problème de l’« irrationalité rationnelle » des électeurs et les biais cognitifs systématiques

D’après Caplan, le problème essentiel posé par les conclusions optimistes sur l’intelligence collective (dont les miennes) est qu’elles supposent que les erreurs des individus sont distribuées de manière symétrique autour de la bonne réponse, si bien qu’elles se compensent au niveau général (« le miracle de l’agrégation ») ou bien que les erreurs sont négativement corrélées (dans le modèle de Page), alors qu’elles pourraient être positivement corrélées et donc s’accentuer au niveau collectif. Caplan affirme que, au moins sur les questions économiques, les électeurs sont systématiquement biaisés dans une même direction. Comment cet argument affecte-t-il l’hypothèse défendue ici que la démocratie est la meilleure méthode de décision collective ? Selon moi, l’argument de Caplan ne réfute pas cette thèse, même s’il invite certainement à une certaine prudence dans la définition du domaine d’application de la « raison démocratique ».

En s’appuyant sur des évidences empiriques empruntées à la littérature des « préférences éclairées »52Althaus, Collective Preferences in Democratic Politics, op. cit., la Survey of Americans and Economists on the Economy (SAEE)53L’enquête est fondée sur les entretiens avec 1510 membres choisis au hasard du public américain et 250 docteurs en économie, et a pour but de tester des différences de croyances systématiques entre experts et profanes (52) en posant demandant sur différents facteurs sont « une raison majeure », « une raison mineure » ou « pas une raison du tout » au fait que « l’économie ne donne pas de meilleurs résultats »., et les résultats de sa propre comparaison entre les préférences du public et celles d’un « public éclairé » virtuellement doté d’un doctorat en économie, Caplan diagnostique quatre préjugés majeurs du citoyen moyen sur les questions économiques : un biais anti-marché, un biais protectionniste, un biais pessimiste et un biais pro-emploi. Supposant que les économistes ont raison de croire que, toutes choses égales par ailleurs, le mécanisme du marché est une bonne chose, que le marché libre crée plus d’emplois qu’il n’en détruit, que la croissance est plus vraisemblable que la stagnation, et que la croissance du PNB importe plus que la préservation de l’emploi, les gens ont alors tort de soutenir les vues contraires et d’exiger les mesures politiques correspondantes. Le problème n’est pas résolu (ou seulement de manière insuffisante) par le fait que les politiques sont menées par des représentants a priori légèrement plus compétents. Dans la mesure où les représentants sont tenus pour responsables devant les citoyens, ils n’ont qu’un espace de jeu limité pour améliorer le cours des choses. Caplan conclut que, pour les questions économiques au moins, nous nous trouverions mieux si l’apport démocratique était moindre. Il suggère lui-même de déléguer plus largement la prise de décision aux économistes et, lorsque c’est possible, aux marchés eux-mêmes.

Les résultats qu’analyse Caplan semblent convaincants sous plusieurs aspects, par exemple sur le fait que, à la différence des personnes qui maîtrisent l’économie, les citoyens ordinaires tendent à sous-estimer les bénéfices du marché libre, et à exiger des politiques plus protectionnistes que ce qui est optimal d’un point de vue économique. Dans ce qui suit, je présente cependant une série d’objections aux implications anti-démocratiques du livre de Caplan. Ce détour nous permettra d’aborder la question plus large de la relation entre information et compétence épistémique politique.

La première critique que l’on peut adresser à l’argumentation de Caplan concerne les prémisses élitistes du livre, qui sont visibles dans la méthode utilisée pour mesurer l’incompétence des citoyens. Un deuxième problème surgit avec la description que Caplan donne de la motivation de l’électeur. La théorie de Caplan suppose chez les électeurs une forme d’intérêt égoïste incompatible avec le cadre épistémique de cet article. C’est là une divergence théorique profonde qui conduit à des prédictions radicalement différentes sur la qualité épistémique du résultat démocratique54Voir aussi Jon Elster & Hélène Landemore, « Ideology and Dystopia », Critical Review, 20(3), 2008, p. 273-289, pour une critique plus complète du livre de Caplan.. Troisièmement, même à supposer que l’électeur moyen soit incompétent sur les questions économiques, je soutiens que les conséquences pour la démocratie sont loin d’être aussi désastreuses que Caplan voudrait le suggérer. On peut enfin critiquer les alternatives proposées. Il n’est pas clair que l’oligarchie d’experts dont Caplan semble parfois se faire l’avocat ferait nécessairement beaucoup mieux qu’une démocratie. Quant au mécanisme du marché, il ne s’agit pas à mes yeux d’une alternative politique à quelque forme de gouvernement que ce soit, mais simplement d’un instrument de distribution dans les mains d’un seul, du petit nombre ou du grand nombre. Cette proposition de recourir au marché laisse donc intacte la question de savoir qui doit gouverner.

Intéressons-nous tout d’abord à la question méthodologique. Le livre utilise au moins quatre critères différents servant à évaluer les préjugés des citoyens : des faits objectifs avec une réponse vérifiable, les « préférences éclairées » simulées d’un public doté d’un QI politique élevé, les préférences simulées d’un « public éclairé » doté des connaissances d’un individu ayant un doctorat en économie, et enfin les préférences des économistes eux-mêmes. Le problème selon moi est que les faits objectifs ne fournissent pas de critère incontestable (la relation entre la possession de connaissance factuelle et la compétence épistémique est trop fragile), que prendre la connaissance des économistes comme point de repère consiste à préjuger la question de l’autorité politique, et que les deux autres critères – « préférences éclairées » ou « public éclairé » – ne sont en réalité que des variations sur l’un ou l’autre des critères précédents.

Le premier critère servant à mesurer les préjugés des électeurs est la connaissance de faits objectifs. Comme l’observe Caplan, « la manière la plus simple d’évaluer les biais d’un électeur est de poser des questions qui admettent des réponses objectives et quantitatives, comme de savoir quelle est la part du budget fédéral consacré à la défense nationale ou à la sécurité sociale »55Caplan, The Myth of the Rational Voter, op. cit., p. 25.. Caplan ne s’attarde pas sur ce premier critère, reconnaissant que « le principal inconvénient de ces études [qui mesurent la maîtrise de connaissances factuelles] est que de nombreuses questions intéressantes ne peuvent recevoir que des réponses partiellement ambiguës »56Ibid.. On pourrait en vérité soutenir qu’aucune question politique intéressante ne peut admettre de réponse dépourvue d’un certain degré d’ambiguïté, ce qui soulève la question générale de la pertinence d’un grand nombre d’études sur l’opinion publique qui mesurent la capacité à répondre à des questions politiques scolaires. Puisque le critère des faits objectifs chassé par la porte réapparaît par la fenêtre avec la notion d’individus « dotés d’un haut QI politique », attardons-nous sur les raisons de son inadéquation.

En premier lieu, l’information n’est pas la compétence : le lien causal entre la possession d’un certain type d’informations mesurables par enquête et la capacité à faire des choix politiques n’est pas facile à établir (quelqu’« intuitif » que l’argument soit parfois supposé). De fait, la plupart des études existantes57Michael Delli Carpini & and Scott Keeter, What Americans Know about Politics and Why It Matters, New Haven, Yale University Press, 1996. échouent à démontrer l’existence d’un lien causal entre l’incapacité à répondre à certains types de tests politiques et l’incompétence politique supposée, c’est-à-dire l’incapacité à faire les bons choix ou à entretenir les « bonnes » préférences en matière de mesures politiques. Ceci est dû en partie au fait que les questionnaires politiques portant sur des questions factuelles sont eux-mêmes empreints d’élitisme : ils mesurent un type de connaissance pertinent pour les analystes et journalistes politiques, mais pas nécessairement celui qui conduit à des choix politiques intelligents58Arthur Lupia, « How elitism undermines the study of voter competence », Critical Review, 2006, vol. 18, n° 1-3, p. 217-232.. La difficulté qu’il y a à établir un lien causal entre un faible niveau d’information et la compétence politique vient aussi du fait qu’il est difficile de trouver un bon critère empirique pour la compétence politique qui soit distinct d’un bon critère du niveau d’information. Le fait que les personnes éduquées réussissent les tests politiques n’implique pas (1) que leurs mesures politiques préférées sont les meilleures (à moins de préjuger la question en prenant ces mesures pour critère), (2) que les mesures préférées par les « ignorants » ou les individus dotés d’un faible QI politique (tel que défini par ces tests) sont erronées59Après tout, même les scénaristes de la série télévisée À la Maison Blanche savent que vous pouvez être un directeur de communication compétent à la Maison Blanche tout en étant incapable d’aligner trois faits corrects sur l’histoire de la Maison Blanche (voir épisode 1).. Le type de connaissance factuelle mesuré par les enquêtes d’opinion est une mesure de compétence politique tout aussi grossière, et il n’y a pas de raison que la charge de la preuve doive reposer sur ceux qui nient le lien entre le QI politique tel qu’il est mesuré par les enquêtes empiriques existantes et la compétence politique effective.

Tournons-nous à présent vers le deuxième critère : les « préférences éclairées » d’un public éduqué hypothétique, c’est-à-dire d’un groupe démographiquement représentatif, à ceci prêt qu’il est aussi instruit que possible en matière politique. La méthode employée par Althaus consiste à appliquer à un groupe d’individus une enquête sur leurs préférences politiques combinée avec un test de leurs connaissances politiques, en estimant les mesures politiques préférées des individus comme une fonction de leur connaissance politique objective de questions factuelles (par exemple : « combien de Sénateurs compte chaque état ? ») et de leurs particularités démographiques (revenu, race, genre) et, enfin, en produisant une simulation de ce à quoi les préférences politiques ressembleraient si tous les membres de tous les groupes démographiques avaient le niveau maximum de connaissance politique factuelle. En d’autres termes, le but est de comparer les préférences politiques des citoyens ordinaires avec celles de leurs alter ego « mieux éduqués », en contrôlant les critères de race, genre, revenu, etc.

Le résultat essentiel de cette approche est de montrer que les gens ne votent sans doute pas de la même façon quand ils sont mal informés et quand ils sont bien informés, puisqu’ils n’ont pas les mêmes préférences dans l’un et l’autre cas. Ils tendent à être plus libéraux socialement et conservateurs économiquement dans le second cas60Althaus, Collective Preferences, op. cit., p. 143. Scott Althaus utilise l’écart entre les préférences du public et celles de leurs alter ego « éclairés » pour critiquer la représentativité des enquêtes d’opinion et leur utilité pour estimer la voix du public. Caplan va plus loin, en s’appuyant sur ces résultats pour suggérer que la démocratie elle-même, qui suit plus ou moins les préférences politiques non éclairées du plus grand nombre, est défectueuse.

Il faut cependant remarquer que la définition des « préférences éclairées » dépend d’une conception de l’éducation comme capacité à réussir des tests de QI politique (« un test de connaissance politique objective »). Le critère des « préférences éclairées » n’est donc pas très différent de la connaissance des faits objectifs (puisqu’il lui est très fortement corrélé). Mais nous venons de voir que la connaissance de faits objectifs pourrait bien être à la fois une mesure élitiste de la connaissance politique et potentiellement sans grande pertinence pour la capacité de voter de manière politiquement compétente. Cette approche revient donc à prendre pour critère des jugements « éclairés » des préférences corrélées à une forme élitiste et peut-être sans pertinence de connaissance, et à soutenir ensuite que l’écart entre les préférences réelles du public et ces « préférences éclairées » est significatif, et constitue un problème pour la démocratie. Mais ces conclusions ne font que refléter une croyance présente dans l’hypothèse, à savoir que les gens ordinaires ont tort et que les élites ont raison. Comment ne pas considérer que cela revient à préjuger la question de l’autorité épistémique ?

Le troisième critère est celui des préférences économiques d’un public simulé, qui serait à la fois représentatif démographiquement et doté des connaissances d’un docteur en économie. La différence essentielle entre l’approche de Caplan et l’approche précédente est que « les théoriciens politiques mesurent d’ordinaire la connaissance directement, alors que [son] approche l’évalue en utilisant les critères universitaires »61 Caplan, The Myth, op. cit., p. 55.. Donc, tandis que l’approche d’Althaus revient plus ou moins à utiliser le critère des faits objectifs (à travers la notion de QI politique) pour évaluer les préférences du public, l’approche de Caplan prend directement comme critère ultime la connaissance des experts. Autre différence : la compétence que Caplan essaie d’évaluer est légèrement plus étroite que celle que mesurent les théoriciens politiques, puisque Caplan ne s’intéresse qu’aux questions politiques qui ont une dimension économique explicite, pour lesquelles une connaissance économique telle que la garantit un doctorat peut sembler directement pertinente (en tout cas plus que « la connaissance politique objective » pour la compétence politique).

Considérons donc pourquoi le quatrième critère – la connaissance des experts – est problématique. Premièrement, Caplan écrit constamment comme s’il n’y avait pas de différence entre les questions de la science économique et les questions d’économie, qui sont des questions politiques dotées d’une dimension économique. Le fait que les docteurs en économie soient les mieux placés pour répondre à des questions sur la science économique ne fait pas d’eux les plus compétents pour répondre à des questions politiques ayant une dimension économique (même si leur point de vue a sans doute une grande valeur). En fait, si vous niez que les croyances politiques des économistes sont des vérités absolues, l’écart entre ces croyances et celles du public n’est pas nécessairement concluant.

Même s’il a commencé par reconnaître que les questions politiques ne peuvent pas recevoir de réponse dépourvue d’ambiguïté, Caplan fait comme si les croyances des économistes étaient sur le même plan que les vérités mathématiques. Par exemple, Caplan soutient que « aussi élitiste que cela paraisse, [inférer l’existence de biais systématiques dans le public à partir de l’existence de différences systématiques entre économistes et non-économistes] est la pratique standard dans les études générales sur les biais »62Ibid., p. 52.. Caplan fait ensuite appel à l’autorité de Kahneman et Tversky (rien de moins) qui décrivent leur propre méthode de la manière suivante : « On démontre la présence d’une erreur de jugement en comparant les réponses des gens soit avec un fait établi… soit avec une règle acceptée d’arithmétique, de logique, de statistique »63Ibid., Caplan commente ensuite « “établi” ou “accepté” par qui ? Par les experts bien sûr » (p. 52). Il faut toutefois remarquer qu’à la différence des vérités mathématiques, qui peuvent également être acceptées par tout un chacun, et pas juste les experts, les vérités économiques ne sont jamais aussi universellement acceptées.. Caplan trace donc un parallèle clair entre les croyances consensuelles des économistes d’un côté, et les faits objectifs ou les règles d’arithmétique, de logique ou de statistique de l’autre. Mais ce parallèle est tout à fait trompeur. Dans la mesure où les croyances économiques portent sur des faits (la proportion de l’aide extérieure dans le budget fédéral) ou sur des théorèmes mathématiques, elles ne sont pas nécessairement pertinentes, ou pas directement, pour les décisions politiques. Dans la mesure où ces croyances sont plus « politiques » – même les moins controversées comme « le libre-échange est une bonne chose » ou « les gens n’économisent pas assez » – elles sont bien plus dépendantes d’un changement du consensus culturel et éventuellement idéologique entre les experts que Caplan ne veut bien l’accorder. En jouant de cette ambiguïté entre questions économiques purement scolaires et questions politiques douées d’une dimension économique, et en identifiant de manière trompeuse les croyances des économistes à un moment donné avec des vérités factuelles ou des principes mathématiques, Caplan préjuge la question de l’autorité. D’après lui, pour tout ce qui est de près ou de loin économique, les économistes savent mieux. Mais si vous refusez cette prémisse, aucune des conclusions de Caplan ne s’ensuit.

Aussi bien l’approche par les « préférences éclairées » que l’approche du « public éclairé » de Caplan préjugent la question de la compétence politique, en l’assignant soit aux personnes dotées d’un fort QI politique soit aux économistes. Caplan défend cette démarche en affirmant que « la charge de la preuve doit reposer sur ceux qui doutent de l’affirmation de sens commun selon laquelle nous devons nous fier aux experts »64Ibid., p. 82. Mais on peut répondre que la démocratie est précisément fondée sur le rejet de cette hypothèse « de sens commun ». Pour les démocrates, depuis au moins le sophiste Protagoras, la politique est ce domaine où personne ne peut être considéré a priori comme plus fiable que les autres. C’est pourquoi, comme Socrate le remarquait, l’assemblée athénienne se comporte très différemment si le problème est de construire un bâtiment ou un bateau, ou de délibérer sur le bien de la cité. Dans le premier cas, l’assemblée en appelle aux architectes ou armateurs, et si quelqu’un qui n’est pas un technicien compétent donne son opinion, la foule le hue et le réduit au silence. Mais, continue Socrate : « Lorsque la question est une affaire d’état, alors chacun est libre de parler – charpentier, serrurier, cordonnier, marin, passager ; riche ou pauvre, humble ou grand – qui le souhaite peut se lever, et personne ne lui reproche, comme dans le cas précédent, de n’être pas instruit, de ne pas avoir de maître, et pourtant de donner son avis »65Platon, Protagoras, 319d..

Pour les démocrates athéniens, le véritable test de compétence et d’expertise en politique est la capacité à convaincre l’assemblée. C’est pourquoi, même si en dernière analyse seuls les meilleurs arguments et informations sont censés triompher, chacun a le droit de prendre la parole.

Je viens de reprocher à Caplan de préjuger la question de l’autorité épistémique en politique, en tranchant en faveur de ceux qui pensent comme des économistes. Mais est-ce que les démocrates ne préjugent pas également la question, en niant d’emblée le rôle des experts ? Les deux positions ne sont pas tout à fait symétriques. Dans le cas de Caplan, la question de savoir qui sait le mieux est fixée et déterminée a priori, tout comme la question de la « bonne » réponse. Les économistes savent mieux et tout écart par rapport à leur position doit être considéré comme un biais. D’après le point de vue démocrate, il y a un véritable agnosticisme sur la question de savoir qui sait le mieux et ce qu’est la bonne réponse, au moins au départ. Celui qui sait le mieux ne peut être identifié qu’en soupesant les mérites des différents arguments qui s’affrontent dans un débat d’idées. Bien sûr, tout comme les revendications des économistes, les mérites des revendications concurrentes ne sont fermement établis que de manière rétrospective, en jugeant la réussite générale du pays en fonction de la mise en place de telle ou telle mesure politique, ou même en comparant les résultats réels aux résultats attendus pour une politique donnée. Mais au moment de la prise de décision, lorsqu’un tel recul n’est pas possible, le critère des bonnes réponses politiques est, pour Caplan, ce que dit l’économiste, alors que pour le démocrate le critère ne peut être que « la force sans force du meilleur argument » (ce qui ne veut pas dire que le meilleur argument triomphe toujours).

Bien sûr, lorsqu’on observe l’écart réel entre ce que le public pense et ce que pensent les économistes, on ne peut s’empêcher de tomber d’accord avec Caplan sur le fait qu’il y a des cas où les experts ont probablement raison et le public probablement tort. Par exemple, les gens ont tendance à penser que « les impôts sont trop élevés » ou que « les dépenses d’aide extérieure sont trop élevées »66Caplan, The Myth of the Rational Voter, op. cit., p. 57 alors que les économistes et le « public éclairé » sont d’un avis sensiblement différent. Lorsque de semblables biais existent, il peut sembler qu’une oligarchie d’experts éviterait ces erreurs et primerait sur la démocratie. Il existe pourtant à mon avis plusieurs raisons qui font que l’incompétence dans un domaine particulier n’affecte pas l’argument général en faveur de la démocratie proposé dans cet article.

Premièrement, incompétence dans un domaine précis ne signifie pas incompétence générale. Elle ne signifie pas, en particulier, la métaincompétence consistant à être incapable de prendre conscience de son incompétence particulière. Même si nous reconnaissons que les citoyens répondent mal aux questions politiques de nature économique, cela ne signifie pas qu’ils ne sont pas suffisamment raisonnables, c’est-à-dire qu’ils n’ont pas la compétence minimale, pour reconnaître ce fait et accepter des arrangements institutionnels qui permettent d’y répondre, comme la délégation de certaines décisions à des experts reconnus.

Deuxièmement, la délégation de certains choix aux experts n’implique pas l’échec de la démocratie. Les démocraties peuvent décider de déléguer certaines décisions à quelques individus non élus sans se transformer ipso facto en oligarchies. Même si le conseil vient d’un économiste et que le pouvoir de décision revient aux économistes, le fait que le consentement du peuple soit nécessaire (directement ou par l’intermédiaire de représentants) qualifie toujours les décisions de ces experts de « démocratiques » à un niveau fondamental. Inversement, le pouvoir de décision d’experts autorisés démocratiquement sur certaines questions économiques n’est pas un pouvoir oligarchique mais est mieux décrit comme le pouvoir d’un rouage technocratique efficace dans un gouvernement démocratique plus large et plus complexe67En fait, cette délégation volontaire des questions économiques techniques aux experts est peut-être ce à quoi se résume la revendication de Caplan.. Si tel est le cas, la comparaison pertinente pour mon propos dans cet article n’est pas entre la démocratie et cette branche technocratique du gouvernement, mais entre la démocratie et l’oligarchie, quand toutes deux disposent d’une technocratie compétente de cette sorte. John Stuart Mill pensait que la seule vertu de la monarchie était sa bureaucratie, alors que la vertu d’une démocratie est sa bureaucratie plus l’intelligence qui la supervise (Considérations sur le gouvernement représentatif, chapitres 5 et 6). De même, je soutiens que, lorsqu’à la fois la démocratie et l’oligarchie sont équipées d’un système compétent d’experts, la démocratie sera dans l’ensemble supérieure à l’oligarchie.

Troisièmement, même si Caplan a raison sur l’incompétence des électeurs dans certains domaines, en particulier sur les questions économiques, on peut envisager qu’une telle incompétence se résorbe au fil du temps par l’éducation et les débats publics. Caplan semble mettre sur le même plan les préférences idéologiques observées avec les (mauvais) biais cognitifs et les heuristiques profondément enracinées. De la même manière que les gens souffrent de l’erreur consistant à négliger le taux de base68La négligence du taux de base consiste à négliger la probabilité antérieure d’une hypothèse H lorsqu’on essaie d’estimer la probabilité conditionnelle de cette hypothèse, étant donnée une preuve P. ou sont soumis à des effets de cadre69Ils donnent différentes réponses à la même question si les choses sont présentées différemment., Caplan suggère qu’ils sont systématiquement opposés au marché et en faveur de la sécurité de l’emploi. Mais un biais anti-marché ou pro-emploi est d’une autre nature qu’une incapacité à calculer les probabilités correctement ou à voir un verre aussi bien à moitié plein qu’à moitié vide. De tels biais économiques sont moins dus aux limites des capacités cognitives humaines qu’à des facteurs culturels70Après tout, même si les êtres humains tendent systématiquement à négliger le taux de base, les Américains sont généralement moins préoccupés par la sécurité de l’emploi que les Européens. Le président Clinton, pendant sa campagne présidentielle, a ainsi pu prévenir le public américain qu’« ils devront changer de travail sept ou huit fois au cours de leur vie », discours tout à fait impensable dans un contexte français.. De même, les préjugés racistes et sexistes ont considérablement diminué dans la plupart des démocraties occidentales en l’espace de quelques générations71Les Etats-Unis ont désormais un Président noir. Ces faits suggèrent que certains biais peuvent être au moins partiellement corrigés. Peut-être les biais économiques sont-ils d’une nature plus persistante, mais Caplan ne démontre pas ce point. L’éducation et plus de démocratie, aussi usé ce propos puisse-t-il sembler, pourraient bien être les réponses à (certains des) échecs de la démocratie.

La dernière objection que l’on peut soulever contre une conséquence apparente de l’accusation portée par Caplan contre la démocratie (selon laquelle nous nous trouverions mieux si les experts dirigeaient72Caplan refuserait d’admettre que telle est la solution qu’il préconise. Pourtant tout, depuis la couverture du livre – des rangées de mouton parfaitement identiques, métaphore platonicienne, s’il en est – jusqu’à de nombreuses affirmations, invite à une lecture anti-démocratique. De la même manière que Caplan reproche à Tetlock de n’avoir pas affirmé assez clairement que son livre n’établit pas la supériorité du profane sur l’expert, il aurait pu lui-même faire plus d’efforts pour dissuader le lecteur de penser qu’il plaide en dernière instance pour le règne des experts (Bryan Caplan, « Have the Experts Been Weighed, Measured, and Found Wanting? », Critical Review, 2007, vol. 19, n° 1, p. 81-91).) est qu’un groupe d’experts n’est pas infaillible. Philip Tetlock a montré dans son étude du « jugement politique » que lorsqu’il s’agit d’évaluer un problème et de faire des prédictions politiques, les « experts » politiques ne font pas beaucoup mieux que les profanes et, pour ce qui est des prédictions, sont généralement battus par de simples régressions statistiques. Tetlock conclut que l’identité des experts importe peu (économistes, théoriciens politiques, philosophes…), non plus que leurs opinions (idéologiques, c’est-à-dire s’ils penchent pour le marché ou pour le socialisme). Ce qui importe est la manière dont les experts politiques pensent, c’est-à-dire s’ils pensent comme des « renards », des penseurs éclectiques capables d’utiliser différents cadres et théories, ou comme des « hérissons », des penseurs dogmatiques qui appliquent une théorie du monde unique73Tetlock emprunte la métaphore du renard et du hérisson à Isaiah Berlin.. Les observations de Tetlock le conduisent à conclure que les renards font presque toujours de meilleures prédictions que les hérissons. Tetlock montre également que les renards et les hérissons font généralement moins bien que les régressions statistiques. Si les experts politiques – érudits, directeurs de campagnes politiques, diplomates, etc. – ont tendance à surestimer leur savoir, leurs talents analytiques et leur capacité à prédire ce qui va se passer, il est probable que les économistes – qui correspondent le plus souvent au modèle du « hérisson » ou du penseur dogmatique décrit par Tetlock – souffrent des mêmes défauts cognitifs74Les résultats de Tetlock impliquent-ils que les conseils des experts n’apportent aucune plus-value par rapport au jugement des profanes bien informés ? Tetlock conclut : « En cet âge d’hyperspécialisation académique, il n’y a pas de raison de penser que les contributeurs des meilleurs journaux (éminents théoriciens politiques, spécialistes pointus, économistes, etc.) fassent mieux que les journalistes ou que les lecteurs attentifs du New York Times pour “lire” les situations émergentes ». Philip Tetlock, Expert Political Judgment: How Good is it? How Can We Know? Princeton, Princeton University Press, 2005, p. 223..

En réponse, Caplan soutient qu’il ne faut pas se méprendre sur la signification des résultats de Tetlock. D’après lui, tout ce que montre Tetlock est que les experts répondent mal aux questions difficiles, mais pas aux questions faciles, ce qui n’implique pas que les profanes pourraient mieux faire sur l’un ou l’autre type de questions75Bryan Caplan, « Have the Experts been Weighed, Measured, and Found Wanting? », Critical Review, 2007, vol. 19, n° 1, p. 81-91.. Soit, mais cela ne nous donne toujours pas d’argument décisif pour nous fier en dernier recours aux experts plus qu’aux profanes (ou à leurs représentants) lorsqu’il s’agit de prendre des décisions politiques, y compris ces décisions qui présentent un aspect économique. En réalité, l’argument tiré de la diversité cognitive présenté plus haut implique que le manque de diversité cognitive parmi les experts peut annuler l’avantage que représente leur expertise individuelle, tandis qu’au contraire, la diversité cognitive de larges groupes de profanes peut dans une certaine mesure compenser leur manque d’expertise individuelle. En termes de justesse prédictive seule, dans leur usage de la règle majoritaire (j’exclus ici la délibération, puisque Caplan n’en parle pas), de larges groupes de profanes ou de petits groupes d’experts pourraient bien faire match nul.

J’ai défendu l’hypothèse selon laquelle la délibération et la règle de la majorité ont des propriétés épistémiques propres, qui sont maximales quand leur utilisation est la plus inclusive possible, à cause du facteur crucial que représente la diversité cognitive. Combinant ces propriétés épistémiques, je conclus que la démocratie est théoriquement supérieure à toute variante d’oligarchie, y compris lorsque nous faisons des suppositions irréalistes sur l’intelligence du petit groupe de dirigeants. En effet, même à supposer que l’on puisse identifier les meilleurs et les plus brillants, ils ne seraient pas en nombre suffisant et ne pourraient donc pas être suffisamment divers d’un point de vue cognitif pour l’emporter sur un grand nombre d’individus moyennement intelligents (dans une démocratie directe) ou bien ils ne seraient pas suffisamment divers d’un point de vue cognitif sur le long terme pour l’emporter sur le même nombre de représentants (dans une démocratie représentative). L’avantage de la démocratie, c’est qu’il s’agit d’un mode de décision économe en intelligence individuelle et naturellement riche en ce facteur crucial qu’est la diversité cognitive.

Il faut maintenant se rappeler que nous avons neutralisé l’influence de deux facteurs, à savoir la vertu et le niveau d’information, en faisant pencher la balance contre la démocratie dans le premier cas et, apparemment, en sa faveur dans le deuxième. Si les facteurs de vertu et d’information restent constants, la règle du plus grand nombre vaut mieux que le règne du petit nombre. Considérons à présent ce qui arrive si nous réintroduisons (théoriquement) ces deux variables.

Si nous réintroduisons la dimension de vertu, toutes choses étant égales par ailleurs, il devrait être évident que la dictature et l’oligarchie en souffrent davantage que la démocratie. Une dictature ou une oligarchie devrait être composée de saints pour que les gouvernants n’abusent pas d’un pouvoir sans contrôle de faire ce qui sert leurs intérêts. Au contraire, c’est un argument établi de longue date que le règne du plus grand nombre, structurellement conçu pour gouverner en faveur du plus grand nombre, est plus économique en termes de vertu. Dans la mesure où la compétence épistémique collective est également fonction de la vertu des décideurs, la démocratie est a fortiori supérieure au règne du petit nombre si nous réintroduisons ce facteur.

Qu’en est-il si nous réintroduisons le facteur information ? D’un côté, on peut soutenir que les citoyens démocratiques ont moins d’incitations à s’informer que les oligarques puisque leur vote influence moins le résultat, et puisqu’ils n’ont à subir qu’un coût extrêmement faible pour leurs décisions. Mais cela ne s’applique pas nécessairement aux incitations des représentants, qui sont jugés sur leur capacité à obtenir de bons résultats et ont besoin de s’informer et, inversement, d’informer leurs électeurs. De plus, la question reste ouverte de savoir si de faibles niveaux d’information se traduisent directement en termes de faible compétence épistémique, en particulier si la compétence épistémique pertinente consiste seulement à identifier les représentants compétents ou à répondre à des questions générales pendant des référendums. Les mécanismes démocratiques de délibération et de vote sont peut-être la raison même pour laquelle les citoyens n’ont pas besoin d’être plus informés, si ces mécanismes sont à même, comme je le soutiens, de transformer un donné de départ relativement faible en un résultat bien meilleur.

D’un autre côté, nous avons vu que la propriété la plus notable de la délibération au sein d’un groupe d’individus qui pensent diversement est de faire émerger les informations et arguments pertinents de manière plus efficace que la délibération se déroulant dans un petit groupe de gens qui partagent les mêmes opinions. Si le vote se déroule après des débats publics suffisants, on peut soutenir que la démocratie est au moins aussi bien lotie que l’oligarchie pour ce qui est de l’information disponible au niveau du groupe. Je parle ici des informations qui sont directement pertinentes pour la question en jeu, puisque c’est la délibération qui les fait apparaître en contexte, à la différence des informations que mesurent les enquêtes empiriques. La question reste ouverte de savoir si la quantité d’information collectivement disponible grâce à la délibération démocratique fait plus que compenser les désincitations des électeurs à s’informer. Il n’est pas clair non plus dans quelle mesure ce problème d’information importe vraiment. Tout compte fait, je ne pense pas que l’introduction de la variable d’information fasse du tort à la démocratie ou donne un avantage à l’oligarchie.

L’argument avancé dans cet article est un argument autonome en faveur de la démocratie, indépendant des arguments relatifs aux théories du consentement, de l’égalité ou de la justice. Il ne s’agit pas ici de défendre la supériorité d’une justification épistémique de la démocratie par rapport aux autres types de justification. Contentons-nous de suggérer que quelles que soient, ou quelles qu’aient été, les raisons initiales de préférer la démocratie à la dictature ou à l’oligarchie, le phénomène d’intelligence collective, que j’appelle raison démocratique, peut aider à expliquer pourquoi nous continuons à y tenir. Josiah Ober soutient sur la base de preuves historiques que la supériorité d’Athènes sur ses rivales tenait aux propriétés épistémiques de ses institutions démocratiques, en particulier l’instance délibérative du Conseil des cinq cents et la pratique non-délibérative de l’ostracisme76Josiah Ober, Democracy and Knowledge, Princeton & Oxford, University of Princeton Press, 2009.. Cette contribution apporte selon moi un appui empirique à la thèse présentée ici.

J’ajoute un dernier mot sur les conditions de l’émergence de la démocratie. J’ai souligné à la suite de Page l’importance de la diversité cognitive pour l’émergence de l’intelligence collective. Sans elle, les mécanismes délibératifs et la règle de la majorité risquent de produire de la déraison démocratique. J’ai supposé tout au long de cet article qu’un plus grand nombre d’individus conduit à une diversité accrue. Mais pour que cette corrélation entre nombre et diversité cognitive demeure plausible, on doit considérer une société d’un type particulier, qu’on peut qualifier de « libérale » au sens large. Cette société doit être caractérisée, entre autres, par l’existence d’un « marché des idées », qui permette que le conflit constant des points de vue et des arguments renouvelle les perspectives, les interprétations, les heuristiques et les modèles prédictifs formant la boîte à outil de la raison démocratique. L’émergence de la raison démocratique dépend donc de l’existence d’un contexte social et culturel qui cultive et protège, entre autres, les différences cognitives.

Dans la mesure où l’argument épistémique en faveur de la démocratie est solide, il établit que la démocratie et le libéralisme vont de pair. Autrement dit, la démocratie sera plus facilement intelligente si elle est également libérale. Les démocraties illibérales ou autoritaires qui encouragent le conformisme et qui étouffent le désaccord risquent de transformer aussi bien la délibération que la règle de la majorité en des mécanismes dangereux de déraison collective, et se priver notamment de la possibilité de parvenir à des solutions efficaces aux problèmes collectifs, à une agrégation d’information exacte, à des prédictions fiables. D’autres facteurs importants sont sans doute l’indépendance des médias, ainsi qu’un système éducatif qui cultive les différences cognitives et la capacité de les exprimer.

Traduit de l’anglais par Solange Chavel

Hélène Landemore est diplômée en sciences politiques de l’université de Harvard. Sa thèse (PhD 2008) porte sur la notion d’intelligence collective appliquée à la justification de la démocratie. Elle s’intéresse également à l’épistémologie politique, aux penseurs des Lumières et à la philosophie appliquée aux sciences sociales. Elle est Full Professor en Sciences politiques à Yale University.

Notes

Notes
1 Je souligne l’originalité de la thèse parce que dans l’approche d’un autre démocrate épistémique comme David Estlund, par exemple, la comparaison épistémique entre la règle du plus grand nombre et la règle du petit nombre est exclue par l’exigence d’« acceptabilité générale », selon laquelle toute revendication d’autorité doit être acceptable par toutes les personnes « raisonnables » (au sens rawlsien) (cf. Estlund, Democratic Authority: A Philosophical Framework, Princeton, Princeton University Press, 2007, Chapter 3). D’après Estlund, même si une oligarchie d’experts est plus fiable d’un point de vue épistémique que la démocratie, elle ne pourrait jamais passer le test de l’« acceptabilité générale ». Je pense pour ma part que l’incapacité d’une technocratie à être acceptée de tous les individus raisonnables n’est pas une nécessité logique (à moins de définir le raisonnable de manière à exclure cette possibilité) et propose la thèse plus ambitieuse que si nous autorisons une telle comparaison, la démocratie apparaît en fait généralement supérieure à l’oligarchie d’un point de vue épistémique.
2 Pour une synthèse de ces problèmes et des références à une littérature représentative, voir Cass R. Sunstein, Infotopia: How Many Minds Produce Knowledge, London & Oxford, Oxford University Press, 2006, chapitre 3 et pour une évaluation plus nuancée de ces questions voir Gerry Mackie, « Astroturfing Infotopia », Theoria, 2009, vol. 56, n° 119, p. 30-56.
3 Il est évidemment important de savoir quelles sont les réponses institutionnelles adéquates aux échecs et aux risques épistémiques propres à toute procédure de décision collective, mais je ne peux aborder cette question ici. Je ne m’occupe pas non plus du problème des majorités potentiellement « tyranniques ». Argument populaire depuis que Tocqueville l’a souligné, le problème des gouvernants tyranniques s’applique aux minorités aussi bien qu’aux majorités. Il pose le problème, orthogonal à la question épistémique ici abordée, des limites adéquates de toute forme de gouvernement.
4 Scott Page, The Difference. How the Power of Diversity Creates Better Groups. Firms, Schools, and Societies, Princeton, Princeton University Press, 2006.
5 Bryan Caplan, The Myth of the Rational Voter. Why Democracies Choose Bad Policies, Princeton & Oxford, Princeton University Press, 2007.
6 John Rawls, Libéralisme politique (1993), trad. Catherine Audard, Paris, PUF, 2001.
7 Linda S. Gottfredson, « Why g Matters: the Complexity of Everyday Life », Intelligence, 1997, vol. 21, n° 1, p. 13.
8 Je précise que cette idée d’intelligence collective ne m’oblige pas à adopter une forme d’holisme méthodologique ou philosophique.
9 Même si bien sûr un équivalent de la diversité cognitive au sein d’un groupe peut exister au sein des individus lorsqu’ils font un effort conscient pour voir le monde depuis des points de vue différents, mais il s’agit là d’une autre question.
10 Jean Lave, Cognition in Practice: Mind, Mathematics, and Culture in Everyday Life, New York, Cambridge University Press, 1988.
11 D’après la définition exacte, les artefacts cognitifs sont « ces outils artificiels qui préservent, affichent ou utilisent des informations pour remplir une fonction représentationnelle et qui affectent les performances cognitives humaines » (D.A. Norman, « Cognitive Artifacts », dans J.-M. Carroll (dir.), Designing Interaction: Psychology at the Human-Computer Interface, New York, Cambridge University Press, 1991, p. 17-38, p. 17). Par exemple : le langage, des systèmes d’inscription pour représenter le langage, les cartes, les listes et les calculatrices. Le grand avantage d’un artefact cognitif est que tout ce que l’individu a besoin de savoir pour résoudre un problème est la manière dont s’utilise l’artefact cognitif, qui contient en lui-même la connaissance requise pour résoudre le problème en question. Ainsi, pour effectuer une multiplication complexe, tout ce que j’ai besoin de savoir est la façon de disposer les nombres spatialement sur une feuille de papier, et la manière d’opérer un calcul simple selon une séquence donnée (D.E. Rumelhart, P. Smolensky, J.-L. McClelland & G.E. Hinton, « Schemata and Sequential Thought Processes in PDP Models », dans J.-L. McClelland, D.E. Rumelhart & the PDP Research Group (dir.), Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Cambridge, MIT Press, 1986, p. 5-57 ; et J.V. Wertsch, Mind as Action, New York, Oxford University Press, 1998). Je peux également utiliser cet artefact cognitif supérieur qu’est une calculatrice.
12 Edwin Hutchins, Cognition in the Wild, Cambridge, MIT Press, 1995.
13 Cet exemple n’illustre pas l’organisation démocratique, mais simplement une intelligence collective distribuée (et une intelligence collective distribuée n’est pas nécessairement démocratique).
14 Certains artefacts cognitifs permettent également de diviser les processus cognitifs en tâches successives, et distribuent de la sorte l’effort cognitif non seulement dans l’espace, mais également dans le temps. Par exemple, une liste de choses à faire divise le processus cognitif de mémorisation en au moins trois étapes chronologiques : la construction de la liste, l’acte mental qui consiste à se souvenir de consulter la liste, et enfin la lecture et l’interprétation des éléments de la liste. Cf. Norman, « Cognitive Artifacts », art. cit., p. 21.
15 Je pense cela dit qu’au cours du temps les démocraties ont plus de chances d’accumuler de la sagesse collective que les oligarchies ou les dictatures, même si je ne défendrai pas cette idée ici.
16 Dans la perspective utilitariste par exemple, il est plausible de supposer que les intérêts du plus grand nombre recoupent naturellement davantage l’intérêt collectif que les intérêts du petit nombre.
17 Samuel Popkin, The Reasoning Voter: Communication and Persuasion in Presidential Campaigns, Chicago, The University of Chicago Press, 1994. Cette approche semblait initialement prometteuse mais n’a jamais fourni de preuve empirique ni de l’usage réel d’heuristiques et de raccourcis cognitifs par les électeurs ni du fait que les électeurs votent à peu près de la même façon avec beaucoup ou peu d’information. De fait, cette dernière hypothèse semble largement falsifiée par les études sur les préférences éclairées qui font état de différences substantielles dans les préférences politiques entre le public réel et le même public doué virtuellement (statistiquement) d’une connaissance politique maximale (Scott L. Althaus, Collective Preferences in Democratic Politics: Opinion Surveys and the Will of the People, New York, Cambridge University Press, 2003). En conséquence, l’identification entre compétence épistémique et niveau d’information reste l’hypothèse de fond la plus répandue de nombreuses approches de la compétence politique.
18 Je suppose que la fonction f reflète le juste degré d’interaction entre les individus. Puisque je suppose que l’oligarchie et la dictature sont aussi bonnes qu’on puisse l’imaginer, je peux me permettre de supposer que le type d’interactions entre les citoyens démocratiques est tel qu’il permette à la compétence épistémique individuelle et à la diversité cognitive du groupe de compter.
19 Aristote, Rhétorique, I, 2, trad. Pierre Chiron, Paris, GF-Flammarion, 2007.
20 Je résume ici une immense littérature sur le sujet, en m’appuyant sur une synthèse récente de José Luis Martí, « The Epistemic Conception of Deliberative Democracy Defended », dans Samantha Besson & José Luis Martí, Democracy and its Discontents. National and Post-national Challenges, Burlington, Ashgate, 2006, p. 27-56. Savoir si l’intérêt égoïste peut jouer un rôle dans la délibération est une question discutée parmi les démocrates délibératifs (pour une défense, voir Jane Mansbridge et al., « The Place of Self-Interest and the Role of Power in Deliberative Democracy », Journal of Political Philosophy, 2010).
21 L’expression originale est « der zwanglose Zwang des besseren Arguments » (Theorie des Kommunikativen Handelns, Frankfurt, Suhrkamp, 1981, vol. 1, p. 47).
22 Page, The Difference, op. cit., p. 163. C’est le théorème « La diversité prime sur la compétence ».
23 Ibid., p. 7.
24 Ibid., p. 163. Les quatre conditions sont raisonnables. La première exige que le problème soit suffisamment difficile, puisque nous n’avons pas besoin d’un groupe pour résoudre des problèmes simples. La deuxième condition exige que tous ceux qui résolvent les problèmes soient relativement intelligents. Autrement dit, les membres du groupe doivent avoir des optimum locaux qui ne sont pas trop bas, faute de quoi le groupe resterait bloqué loin de l’optimum global. La troisième condition suppose simplement une diversité d’optimum locaux, si bien que l’intersection des optimum locaux ne contienne que l’optimum global. Enfin, la quatrième condition exige que la population initiale d’où sont extraites les personnes qui résolvent les problèmes soit nombreuse, et que le groupe choisi le soit également. Cette supposition garantit que le groupe choisi au hasard est varié, et en particulier plus divers cognitivement qu’une sélection des meilleurs (ce qui ne serait pas nécessairement le cas pour une population trop peu nombreuse par rapport au groupe choisi, ou pour un groupe trop petit de manière absolue). Il faut noter que la première partie de cette quatrième condition ressemble à l’exigence formulée par Madison dans le dixième des Federalist Papers que le groupe de candidats pour une position de députés soit suffisamment nombreux. Pour plus de détails, voir The Difference, op. cit., p. 159-162.
25 Il faut remarquer que, dans la mesure où (à supposer que ce soit le cas) la diversité cognitive est liée à d’autres formes de diversité, comme le genre ou l’appartenance ethnique, l’argument suggère que la discrimination positive n’est pas seulement une bonne chose du point de vue de la justice, mais également pour des raisons épistémiques. Je n’entre pas ici dans ce débat complexe mais c’est à l’évidence une des conséquences potentielles d’un argument qui invoque les propriétés épistémiques de la diversité cognitive (pour une défense de la diversité cognitive comme la « seule » raison de soutenir la discrimination positive, voir les conclusions du sociologue Daniel Sabbagh, L’Égalité par le droit. Les paradoxes de la discrimination positive aux États-Unis, Paris, Economica, 2003).
26 Un facteur de complexité est sans doute le mécanisme d’élection/sélection. En sélectionnant par exemple cent députés, un système de représentation proportionnelle peut produire une plus grande diversité cognitive qu’un scrutin majoritaire uninominal. Cela invite à procéder à une comparaison épistémique entre différents modes de sélection démocratique possibles, dont certains peuvent produire une plus grande diversité cognitive avec moins de membres. Je dois cette remarque à Jon Elster.
27 Bernard Manin, Les Principes du gouvernement représentatif, Paris, Flammarion, 1995.
28 Jon Elster, Solomonic Judgments: Studies in the Limits of Rationality, Cambridge & New York, Cambridge University Press, 1989, p. 78-103.
29 Voir Neil Duxbury, Random Justice: On Lotteries and Legal Decision-Making, Oxford, Oxford University Press, 1999 ; Barbara Goodwin, Justice By Lottery, Chicago, University of Chicago Press, 1992 ; Richard G. Mulgan, « Lot as a Democratic Device of Selection », Review of Politics, 1984, vol. 46, p. 539-560 ; Yves Sintomer, Le Pouvoir au peuple : jurys citoyens, tirage au sort et démocratie participative, Paris, La Découverte, 2007 ; Peter Stone, « Why Lotteries Are Just? », The Journal of Political Philosophy, 2007, vol. 15, n° 3, p. 276-295
30 D’un autre côté, il existe des problèmes d’incitation, de motivation et de responsabilité (puisque l’espoir des personnes sélectionnées de l’être de nouveau est indépendant de leur exercice du pouvoir), qui rendent cette idée difficile à mettre en œuvre. L’élection pourrait bien être la seconde meilleure solution pour reproduire la diversité cognitive. Le fait que les élections soient périodiques (tous les quatre ou cinq ans) permet également un renouvellement minimal des dirigeants au cours du temps (même s’il est moindre que par un système de loterie), qui est crucial pour empêcher les représentants de se transformer en un groupe d’oligarques qui pensent de la même manière. Je fais ici l’hypothèse plausible que tout groupe d’individus initialement divers devient moins divers au cours du temps, à moins de recevoir l’apport périodique de nouveaux membres.
31 Je ne veux pas dire par là que les représentants peuvent être rappelés n’importe quand, mais simplement souligner la pression internalisée, dans le comportement des représentants, à agir comme s’ils étaient constamment sous le regard du public et responsables devant lui en permanence.
32 Voir Nadia Urbinati, Representative Democracy: Principles and Genealogy, Chicago, University of Chicago Press, 2006.
33 Nadia Urbinati le formule dans des termes abstraits mais éloquents lorsqu’elle dit que, d’après sa conception normative, et contre les définitions élitistes qui opposent représentation et participation (voire représentation et démocratie), « la démocratie représentative […] est intrinsèquement, et nécessairement, entremêlée avec la participation et l’expression informelle de la “volonté populaire” » (ibid., p. 10).
34 Un exemple contemporain d’oligarchie dont le succès épistémique est comparable à celui de régimes démocratiques, au moins sur le plan des politiques économiques et éducatives, serait le régime communiste en Chine. Parce que l’étiquette « communiste » cache en réalité désormais des positions idéologiques qui vont de l’extrême droite et à l’extrême gauche (la seule idéologie commune étant le nationalisme), on peut soutenir que les politiques appliquées en Chine sont comparables à celles qui seraient produites par le règne (démocratique) de l’électeur médian. Je dois cette suggestion provocatrice à Pasquale Pasquino.
35 Certains considèrent le théorème du jury de Condorcet comme une simple variante du miracle de l’agrégation. Ce peut en effet être le cas (dans ce cas le théorème de Condorcet correspond probablement à ce que j’appelle la version « démocratique » du miracle de l’agrégation) mais dans la mesure où les études spécialisées les traitent encore séparément, j’étudie chaque description de manière autonome.
36 Voir par exemple Krishna Ladha, « The Condorcet Jury Theorem, Free Speech, and Correlated Votes », American Journal of Political Science, 1992, vol. 36, n° 3, p. 617-634. Duncan Black a donné le ton de la réception du théorème à cet égard. En dépit d’une sincère admiration pour la découverte de Condorcet et sa valeur pour la théorie de la décision de groupe en particulier, Black est sceptique quant à l’application plus large du théorème (Duncan Black, Theory of Elections and Committees, Cambridge, Cambridge University Press, 1958, p. 185). Il s’inquiète particulièrement de l’idée d’une « probabilité de rectitude de l’opinion d’un électeur », expression qu’il tient pour « dépourvue de signification précise » (ibid., p. 163).
37 David Estlund, « Beyond Fairness and Deliberation: The Epistemic Dimension of Democratic Authority », dans James Bohman & William Rehg (dir.), Deliberative Democracy, Cambridge, MIT Press, 1997, p. 189.
38 David Estlund, Democratic Authority. A Philosophical Framework, Princeton, Princeton University Press, 2007, chapitre 12.
39 Hélène Landemore, « Democratic Reason: Politics, Collective Intelligence, and the Rule of the Many » (Doctoral Dissertation, Harvard, 2007).
40 Philip E. Converse, « Popular Representation and the Distribution of Information », dans J.A. Ferejohn & J.H. Kuklinski (dir.), Information and Democratic Processes, Chicago, University of Chicago Press, 1990.
41 Cette version « élitiste » remonte sans doute à Bernard R. Berelson, Paul F. Lazarsfeld & Willima N. McPhee, Voting: A Study of Opinion Formation in a Presidential Campaign, Chicago, University of Chicago Press, 1954.
42 Pour résumer en quelques mots cette anecdote désormais bien connue, le statisticien du XIXe siècle assistait à une foire paysanne, dont l’une des attractions était un jeu de devinette. Le but était de deviner le poids d’un bœuf une fois tué et préparé. Galton recueillit les réponses des quelque huit cents participants et calcula la moyenne qui se trouva être la réponse juste à cinq cents grammes près. Certaines versions de l’histoire disent que Galton a calculé la médiane (ce qui garantit contre le problème de résultats extrêmes). Nous supposons dans ce qui suit que la distinction médiane/moyenne n’importe pas dans le cas qui nous intéresse.
43 D’après eux, les gens ont des opinions sensées mais entourées de bruit, et l’agrégation de ces individus produit une agrégation de ces opinions réelles. Par exemple, certains citoyens sous-estiment et d’autres surestiment les bénéfices de l’immigration. « Même si les réponses individuelles aux sondages d’opinion sont en partie données au hasard, pleines d’erreurs de mesure, et instables, lorsqu’elles sont agrégées dans une réponse collective (par exemple le pourcentage de gens qui se disent en faveur d’une politique donnée) la réponse collective peut être tout à fait sensée et stable » (Benjamin Page & Y. Shapiro, The Rational Public. Fifty Years of Trends in Americans’ Policy Preferences, Chicago, University of Chicago Press, 1992). Ce que Page et Shapiro impliquent sans s’étendre sur la question, c’est que le public est épistémologiquement plus fiable, pris comme un tout, que chacun des individus qui le composent, ce qui explique pourquoi les hommes politiques ont raison de promouvoir des politiques d’immigration fondées sur le jugement du public (raisonnement que Page et Bouton étendent également à la politique extérieure, voir Benjamin Page & Marshall M. Bouton, The Foreign Policy Discontent. What Americans Want from Our Leaders but Don’t Get, Chicago & London, University of Chicago Press, 2006).
44 Francis Galton, « Vox Populi », Nature, 1907, vol.75, p. 450-451.
45 Cass Sunstein y voit par exemple un « défi hayékien à Habermas » (Infotopia, op. cit.). En fait, il n’est pas évident que le miracle de l’agrégation revienne au mécanisme de la main invisible qui rend compte de l’émergence des prix des biens ou de l’information sur les marchés, et que la délibération démocratique soit rendue superflue par l’agrégation d’information par règle de la majorité, les sondages ou les marchés.
46 Une objection pratique consiste également à souligner que la règle de la majorité implique d’ordinaire un choix entre des options discrètes, mais permet rarement le type d’élection « quantitative » et continue qu’on observe dans le jeu de devinette du poids du bœuf ou dans les marchés d’information. Ce n’est pas une objection très puissante puisque la logique du miracle de l’agrégation fonctionne théoriquement même avec les choix réduits offerts dans les élections
47 Caplan, The Myth of the Rational Voter, op. cit.
48 Ibid., p. 208.
49 Pour que cela ait du sens, il faut supposer une même métrique pour l’erreur et la compétence.
50 Ibid., p. 197.
51 Voir l’article de Lu Hong et Scott Page (« Information Aggregation », 2009, p. 18) pour une démonstration du fait que l’usage d’interprétations indépendantes implique des prédictions corrélées négativement. Plus précisément, le cœur de l’article montre que « voir le monde indépendamment, regarder différentes propriétés, non seulement n’implique pas mais exclut à la fois l’indépendance conditionnelle des signaux et des signaux corrects indépendamment ». Sauf dans le scénario très peu probable où tous les individus raisonnables et informés ignorent chacun une information différente, leurs prédictions ne seront pas indépendantes, mais corrélées négativement (voir Lu Hong & Scott Page, « Generated and Interpreted Signals », Journal of Economic Theory, à paraître).
52 Althaus, Collective Preferences in Democratic Politics, op. cit.
53 L’enquête est fondée sur les entretiens avec 1510 membres choisis au hasard du public américain et 250 docteurs en économie, et a pour but de tester des différences de croyances systématiques entre experts et profanes (52) en posant demandant sur différents facteurs sont « une raison majeure », « une raison mineure » ou « pas une raison du tout » au fait que « l’économie ne donne pas de meilleurs résultats ».
54 Voir aussi Jon Elster & Hélène Landemore, « Ideology and Dystopia », Critical Review, 20(3), 2008, p. 273-289, pour une critique plus complète du livre de Caplan.
55 Caplan, The Myth of the Rational Voter, op. cit., p. 25.
56 Ibid.
57 Michael Delli Carpini & and Scott Keeter, What Americans Know about Politics and Why It Matters, New Haven, Yale University Press, 1996.
58 Arthur Lupia, « How elitism undermines the study of voter competence », Critical Review, 2006, vol. 18, n° 1-3, p. 217-232.
59 Après tout, même les scénaristes de la série télévisée À la Maison Blanche savent que vous pouvez être un directeur de communication compétent à la Maison Blanche tout en étant incapable d’aligner trois faits corrects sur l’histoire de la Maison Blanche (voir épisode 1).
60 Althaus, Collective Preferences, op. cit., p. 143
61 Caplan, The Myth, op. cit., p. 55.
62 Ibid., p. 52.
63 Ibid., Caplan commente ensuite « “établi” ou “accepté” par qui ? Par les experts bien sûr » (p. 52). Il faut toutefois remarquer qu’à la différence des vérités mathématiques, qui peuvent également être acceptées par tout un chacun, et pas juste les experts, les vérités économiques ne sont jamais aussi universellement acceptées.
64 Ibid., p. 82
65 Platon, Protagoras, 319d.
66 Caplan, The Myth of the Rational Voter, op. cit., p. 57
67 En fait, cette délégation volontaire des questions économiques techniques aux experts est peut-être ce à quoi se résume la revendication de Caplan.
68 La négligence du taux de base consiste à négliger la probabilité antérieure d’une hypothèse H lorsqu’on essaie d’estimer la probabilité conditionnelle de cette hypothèse, étant donnée une preuve P.
69 Ils donnent différentes réponses à la même question si les choses sont présentées différemment.
70 Après tout, même si les êtres humains tendent systématiquement à négliger le taux de base, les Américains sont généralement moins préoccupés par la sécurité de l’emploi que les Européens. Le président Clinton, pendant sa campagne présidentielle, a ainsi pu prévenir le public américain qu’« ils devront changer de travail sept ou huit fois au cours de leur vie », discours tout à fait impensable dans un contexte français.
71 Les Etats-Unis ont désormais un Président noir
72 Caplan refuserait d’admettre que telle est la solution qu’il préconise. Pourtant tout, depuis la couverture du livre – des rangées de mouton parfaitement identiques, métaphore platonicienne, s’il en est – jusqu’à de nombreuses affirmations, invite à une lecture anti-démocratique. De la même manière que Caplan reproche à Tetlock de n’avoir pas affirmé assez clairement que son livre n’établit pas la supériorité du profane sur l’expert, il aurait pu lui-même faire plus d’efforts pour dissuader le lecteur de penser qu’il plaide en dernière instance pour le règne des experts (Bryan Caplan, « Have the Experts Been Weighed, Measured, and Found Wanting? », Critical Review, 2007, vol. 19, n° 1, p. 81-91).
73 Tetlock emprunte la métaphore du renard et du hérisson à Isaiah Berlin.
74 Les résultats de Tetlock impliquent-ils que les conseils des experts n’apportent aucune plus-value par rapport au jugement des profanes bien informés ? Tetlock conclut : « En cet âge d’hyperspécialisation académique, il n’y a pas de raison de penser que les contributeurs des meilleurs journaux (éminents théoriciens politiques, spécialistes pointus, économistes, etc.) fassent mieux que les journalistes ou que les lecteurs attentifs du New York Times pour “lire” les situations émergentes ». Philip Tetlock, Expert Political Judgment: How Good is it? How Can We Know? Princeton, Princeton University Press, 2005, p. 223.
75 Bryan Caplan, « Have the Experts been Weighed, Measured, and Found Wanting? », Critical Review, 2007, vol. 19, n° 1, p. 81-91.
76 Josiah Ober, Democracy and Knowledge, Princeton & Oxford, University of Princeton Press, 2009.