Les technologies de reconnaissance faciale font l’objet de multiples critiques, dont celle de se nourrir et de renforcer des formes systémiques de racisme. Vincent Aubert se penche sur la question du racisme et s’attache à en clarifier les termes et les enjeux dans ce cas précis.
Qu’est-ce que la reconnaissance faciale ?
La reconnaissance faciale est une « technique informatique et probabiliste qui permet de reconnaître automatiquement une personne sur la base de son visage, pour l’authentifier ou l’identifier »1.
L’authentification (ou vérification, comparaison « un à un ») consiste à vérifier qu’une personne est bien celle qu’elle prétend être, en comparant le gabarit extrait d’une image de son visage à un gabarit préenregistré. Beaucoup de gens utilisent aujourd’hui cette fonction de la reconnaissance faciale afin de déverrouiller leur téléphone portable et elle peut également permettre de sécuriser des transactions ainsi que l’accès à un service ou à un bâtiment. L’État français s’en sert dans le cadre du dispositif de « passage rapide aux frontières extérieures » (PARAFE), afin d’automatiser et d’accélérer le contrôle de voyageurs qui entrent ou sortent de l’espace Schengen. S’il est éligible et en fait le choix, un voyageur peut passer par un sas dédié où il est photographié et le gabarit extrait de la photo comparé à celui qui est contenu dans son passeport biométrique. Une fois le sas franchi, toutes les données personnelles sont supprimées.
L’identification (ou comparaison « un à plusieurs ») consiste à déterminer l’identité d’une personne, le gabarit extrait d’une image de son visage étant cette fois comparé aux gabarits du visage de différents candidats, contenus dans une base de données. C’est la fonction de la reconnaissance faciale qui focalise les critiques, bien qu’elle puisse être utile aux services de sécurité et de renseignement, afin de suivre ou de reconstituer le parcours de quelqu’un, d’identifier victimes, suspects et autres personnes d’intérêt dans les enquêtes, mais aussi afin de retrouver des personnes disparues ou recherchées et d’identifier des menaces. En France et sous certaines conditions fixées par la loi, les forces de sécurité intérieure ainsi que des « agents individuellement désignés et spécialement habilités des services spécialisés de renseignement des ministères de l’intérieur, de la défense, des finances et des comptes publics »2 sont autorisés à utiliser la reconnaissance faciale à des fins d’identification sur le fichier du « Traitement d’antécédents judiciaires » (Taj) qui, en 2018, comptait « entre 7 et 8 millions de photos de face »3. En 2021, la reconnaissance faciale s’appuyant sur le fichier du Traitement d’antécédents judiciaires a été utilisée « 498 871 fois par la police nationale et environ 117 000 fois par la gendarmerie nationale »4.
La reconnaissance faciale appartient à la catégorie plus générale de l’analyse faciale qui comprend également des dispositifs visant à remplir d’autres fonctions que l’authentification et l’identification et, par exemple, des fonctions dites de « catégorisation » et d’ « évaluation »/d’ « estimation ». Ainsi, des dispositifs qui reposent sur d’autres types d’algorithmes et qui cherchent à déterminer l’âge, le sexe, le niveau de fatigue ou les émotions d’une personne à partir d’une image de son visage…Ou bien sa prétendue « race » et tous ces dispositifs sortent du champ de la reconnaissance faciale5. Comme on le verra, une partie des accusations de racisme visant la reconnaissance faciale porte en réalité sur de tels dispositifs, et plus particulièrement sur des dispositifs visant non pas à authentifier ou à identifier une personne mais à déterminer son sexe ou sa prétendue « race ».
La reconnaissance faciale et ses critiques
Au regard des applications données dans la section précédente, l’utilité potentielle de la reconnaissance faciale est difficilement contestable et ce, d’autant plus qu’on accorde une valeur morale (intrinsèque ou instrumentale) à la sécurité, à minima des personnes.
Cette technologie ainsi que ses usages actuels et anticipés font toutefois l’objet de nombreuses réserves et critiques, émanant tant de la société civile et du monde académique que des responsables politiques, au point que le débat oscille souvent entre forte régulation et prohibition pure et simple.
Pour commencer, et même si elle n’a cessé de s’améliorer, la reconnaissance faciale commet encore des erreurs, notamment lorsque les images sur lesquelles elle se base sont de mauvaise qualité6. Elle ne marche ensuite pas toute seule et doit compter pour cela sur des humains faillibles auxquels il revient par exemple d’adapter, au regard du cas d’usage, le seuil à partir duquel l’algorithme considère qu’il y a correspondance entre deux gabarits. Idem lorsqu’elle est utilisée à des fins d’identification et qu’il faut trancher entre les différents gabarits qui dépassent ce seuil. Sans aller plus loin, cela pose déjà la question de l’efficacité de la reconnaissance faciale, dans telles circonstances précises, au regard de son coût total de fonctionnement et des alternatives disponibles7.
A cela s’ajoute son impact négatif, actuel ou anticipé, sur de nombreuses valeurs chères à beaucoup de gens : transparence si ce n’est respect du consentement, droit au respect de la vie privée si ce n’est à l’anonymat, protection des données à caractère personnel, effet dissuasif sur l’exercice par les sans-papiers de leurs droits et par les citoyens de leurs libertés personnelles et politiques8, etc.
A côté de ces critiques qui ne font pas intervenir de phénomènes raciaux, la reconnaissance faciale et ses usages font également face à des accusations de racisme et nous les présentons pour le moment sans faire intervenir cette notion. Pour ce faire, nous introduisons seulement la notion de « groupe racialisé » que nous prenons dans son sens qui possède le champ d’application le plus vaste de groupe que certains considèrent, fût-ce à tort, comme constituant une race dans un sens biologique9. Sans prendre position sur la définition de la notion de « race » et sans valider aucunement l’existence de races biologiques au sein de l’humanité, on peut dire que des groupes racialisés existent dans nos sociétés et nous nous y référons dans la suite lorsque nous parlons des « blancs », des « noirs », etc.10 Les phénomènes « raciaux » seront quant à eux pensés comme des phénomènes dont la définition fait intervenir la notion de groupe racialisé.
Première accusation, les algorithmes de reconnaissance faciale seraient biaisés et discriminatoires à l’encontre de non-blancs, notamment les noirs11. Plus précisément, ils commettraient en moyenne davantage d’erreurs lorsqu’ils seraient utilisés sur les membres de ces groupes racialisés et ce, tant du point de vue des « erreurs de type I » ou « faux positifs » – vous êtes identifié/reconnu alors que vous ne devriez pas l’être – que des « erreurs de type II » ou « faux négatifs » – vous n’êtes pas identifié/reconnu alors que vous devriez l’être. Avec toutes les nuisances qu’on imagine, allant de l’impossibilité de déverrouiller son téléphone portable ou d’accéder à un bâtiment à une erreur judiciaire en passant par le fait qu’un policier effectuant un contrôle pourrait penser à tort avoir affaire à quelqu’un de dangereux12.
Ensuite, l’usage actuel de la reconnaissance faciale faciliterait et amplifierait le profilage racial exercé par la police à l’encontre des non-blancs, lors des contrôles et des enquêtes13. Au-delà, cette technologie permettrait au gouvernement d’intensifier son ciblage (« targeting ») des militants14 et, plus généralement, des membres de ou des groupes racialisés non-blancs : en termes de surveillance, de harcèlement et d’autres nuisances15. Si une version plus modérée de la critique se contente ici de mettre l’accent sur le risque que la reconnaissance faciale soit utilisée pour tout ou partie de ces fins16, la version la plus forte soutient quant à elle que la reconnaissance faciale serait un des moyens par lesquels le suprémacisme blanc d’antan serait parvenu, malgré les apparences, à se perpétuer17.
Enfin, la reconnaissance faciale contribuerait déjà à de nombreuses inégalités raciales18 en défaveur des ou de non-blancs et l’extension de ses usages actuels, fussent-ils non-biaisés, ne conduirait qu’à exacerber ces inégalités : en ce qui concerne les contrôles, les suspicions et les violences de la part de la police, les erreurs judiciaires et plus généralement les condamnations et cela rejaillirait sur d’autres inégalités raciales, en termes d’emploi, de revenu, d’estime de soi, de bien-être, etc.19 Cet impact disparate (« disparate impact ») d’ordre racial de la reconnaissance faciale se produirait notamment car la police emploierait davantage cette technique sur ceux pour lesquels elle fonctionnerait en moyenne le moins bien et qui seraient de surcroît surreprésentés dans les bases de données sur lesquelles elle s’appuierait20. A cela s’ajouterait l’impact ne serait-ce que dissuasif de la reconnaissance faciale sur ceux qui se battraient contre ces inégalités raciales21.
Dans la suite, notre objectif sera de clarifier une partie des enjeux empiriques, conceptuels et moraux des accusations de racisme qui pèsent sur la reconnaissance faciale et ses usages. Peut-on faire sens de ces accusations en tant qu’accusations de racisme ? Y a-t-il effectivement racisme dans tel cas ? Et qu’est-ce que cela implique sur le plan moral ?
Une typologie de définitions du racisme
Quand on aborde ces questions, la première chose à comprendre est qu’il n’existe aujourd’hui pas de définition du racisme qui fasse consensus. De nombreuses définitions coexistent dans le débat public ainsi que dans le débat académique et ces définitions ne diffèrent pas sur des détails, au point qu’on peut considérer qu’elles ne constituent pas différentes tentatives de conceptualiser le même phénomène. C’est à l’origine de quantité de malentendus, de sophismes et d’erreurs de raisonnement qui sont d’autant plus regrettables que ces définitions mettent l’accent sur des phénomènes qui, tous, ont leur pertinence pour décrire factuellement et évaluer moralement nos sociétés.
Dans ces circonstances, comment poursuivre ? Pour aller à l’essentiel, il nous a semblé qu’on pouvait faire sens des accusations de racisme portées à l’encontre de la reconnaissance faciale et de ses usages au moyen d’une typologie de définitions bien ancrées dans le débat académique ainsi que le débat public.
Parfois qualifiée d’« individualiste » ou de « basée sur l’agent », une première famille de définitions du racisme soutient que le racisme se manifeste fondamentalement au niveau des individus. Plusieurs sous-familles peuvent ensuite être distinguées et la première peut être qualifiée de « mentale » en ce qu’elle soutient que le racisme renvoie fondamentalement à certains états mentaux.
Pour les définitions dites « cognitives » (ou « doxastiques »), le racisme renvoie ainsi fondamentalement à certains états mentaux d’ordre cognitif, comme certaines croyances identifiées par leur contenu propositionnel22. Par exemple, la croyance non seulement que des races biologiques existeraient mais également que certaines seraient inférieures à d’autres. Ces prétendues races biologiques seraient inférieures du point de vue du comportement, des facultés ou du tempérament inné et/ou elles auraient un statut moral inférieur aux autres23.
En revanche, pour les définitions dites « attitudinales » (ou « volitionnelles », « affectives »), le racisme renvoie fondamentalement à des états mentaux non-cognitifs, comme le spectre allant de l’indifférence raciale à la haine raciale, en passant par l’hostilité/l’antipathie raciale24.
Les définitions mentales ne permettent pas seulement de qualifier respectivement des croyances et des attitudes de « racistes ». On se permet également de qualifier d’autres choses de « racistes », par exemple des actions, des lois, des politiques, etc., en toute rigueur dans un sens dit « dérivé », lorsque ces actions (politiques, etc.) sont motivées, respectivement, par les croyances ou les attitudes précédentes.
A côté des définitions mentales, d’autres définitions individualistes peuvent être qualifiées de « comportementales » en ce qu’elles soutiennent que le racisme se manifeste fondamentalement au niveau d’actions individuelles, en général au sein de l’ensemble des actes de discrimination raciale directe et négative25. L’équivalence pure et simple entre racisme et discrimination raciale directe et négative se rencontre dans le débat public mais, dans le débat académique contemporain, les définitions de ce type sont plus restrictives et limitent en général le racisme à la discrimination raciale qui est motivée par les croyances ou les attitudes évoquées dans les définitions précédentes26. En partie pour cela et aussi pour la raison qu’il pourrait y avoir racisme sans passage à l’acte, les définitions comportementales nous semblent aujourd’hui en perte de vitesse académique par rapport aux définitions cognitives et attitudinales.
Dans la suite, nous parlerons de « racisme individualiste » (resp. « mental », « cognitif », etc.) pour désigner le racisme compris au moyen d’une définition individualiste (resp. mentale, cognitive, etc.). Une caractéristique du racisme individualiste est qu’il peut être conscient comme inconscient. Une autre est que la question de savoir si quelque chose est raciste est indépendante de la question de savoir si cette chose crée, maintient ou renforce des inégalités raciales. D’autres définitions du racisme, auxquelles nous nous intéressons à présent, rejettent cette dernière idée.
Contrairement aux définitions individualistes, une pluralité de définitions du racisme qu’on rencontre dans le débat public et académique se rejoignent sur l’idée que des phénomènes sociaux peuvent être qualifiés de « racistes » en raison du fait qu’ils créent, maintiennent ou renforcent certaines inégalités raciales.
Nous parlerons dans la suite de « racisme systémique »27 pour désigner ce sens du racisme et, si certaines définitions lui font une place à côté d’un sens individualiste, d’autres soutiennent qu’il s’agit du seul sens du racisme28.
Ces définitions se séparent ensuite sur les inégalités raciales à prendre en compte. Lorsqu’elles interviennent dans le débat public anglo-saxon, nous y reviendrons plus loin dans le cas de la reconnaissance faciale, on a souvent l’impression que toutes les inégalités raciales sont pertinentes29, au moins quand elles sont en défaveur des ou de non-blancs par rapport aux blancs. On soutient qu’un phénomène social crée, maintient ou renforce une inégalité raciale de ce type et on conclut directement au racisme. Ceci étant dit, des prémisses de l’argumentation sont peut-être implicites et les définitions qu’on rencontre dans le débat académique, notamment sur la définition du racisme, tendent en tout cas à être plus restrictives. Certaines définitions ne retiennent que les inégalités raciales qui portent sur un ou plusieurs avantages particuliers (ex : les « chances de vie »30 ) ou bien les inégalités raciales qui ont certaines causes (ex : le racisme individualiste) tandis que d’autres caractérisent les inégalités raciales pertinentes au moyen d’un concept moral comme celui d’injustice (inégalité raciale d’exposition à l’injustice, inégalités raciales injustes, inégalités raciales portant sur des injustices, etc.). Quoi qu’il en soit, un phénomène social sera qualifié de « raciste » s’il a certaines conséquences, plus précisément s’il crée, maintient ou renforce les inégalités raciales retenues.
D’autres définitions du racisme existent dans le débat public et académique mais nous n’en aurons pas besoin afin de faire sens des accusations de racisme qui sont formulées à l’encontre de la reconnaissance faciale et de ses usages31.
Racisme individualiste et différentiel racial de taux d’erreur
L’accusation de racisme la plus relayée dans le débat public, notamment en France, porte sur le taux d’erreur plus important des algorithmes de reconnaissance faciale pour les, ou au moins des, groupes racialisés non-blancs.
La première chose à dire est alors que ces accusations se basent souvent sur une étude ayant mis en évidence ce problème pour des algorithmes, non pas de reconnaissance faciale, mais de classification et qui visaient plus précisément à déterminer le sexe des personnes à partir de leur visage32.
Ceci étant dit, d’autres études, comme celle publiée en 2019 par le National Institute of Standards and Technology33, ont montré que la plupart sinon tous les algorithmes de reconnaissance faciale qu’elles ont testés possédaient bien des taux d’erreur (parfois nettement) plus importants pour des non-blancs et ce, que ces algorithmes soient utilisés pour faire de l’authentification ou de l’identification34. Ce résultat gagne toutefois à être mis en perspective, car les taux d’erreur pour ces non-blancs des meilleurs algorithmes étaient également beaucoup plus faibles, parfois de plusieurs ordres de grandeur, que le taux d’erreur de 35 % (pour les femmes noires) popularisé par l’étude sur les algorithmes visant à déterminer le sexe35.
Un enjeu est à l’évidence de savoir ce qu’il en est à l’heure actuelle, attendu que la reconnaissance faciale évolue vite et que l’accusation de racisme discutée a fait scandale des deux côtés de l’Atlantique mais nous n’y sommes pas parvenu. L’étude réalisée par le NIST semble encore faire référence dans le débat public et l’idée que les meilleurs algorithmes de reconnaissance faciale fonctionneraient à présent aussi bien pour tous les groupes racialisés ne s’y est au minimum pas imposée. Nous considèrerons donc que le problème n’est pas entièrement réglé et qu’il y a un enjeu pratique à se demander ce que l’accusation vaut en tant qu’accusation de racisme.
Soit donc un algorithme qui affiche un taux de faux positifs et/ou de faux négatifs plus important pour tout ou partie des groupes racialisés non-blancs et considérons pour commencer les définitions individualistes du racisme.
Première chose à dire, ce que l’on sait de l’algorithme ne permet pas de conclure au racisme individualiste. En effet, qu’on retienne une définition comportementale ou mentale, il faudrait pour cela pouvoir attester que certains états mentaux, fussent-ils inconscients, ont motivé la conception, l’adoption ou l’utilisation de l’algorithme.
Une enquête complémentaire est donc requise et elle pourrait tout à fait révéler, par exemple, que l’algorithme aurait été conçu dans le cadre d’une entreprise de discrimination raciale directe et négative ou bien que l’hostilité raciale aurait motivé son utilisateur à le choisir par rapport à d’autres. Les états mentaux pertinents étant attestés, il y aurait alors bien racisme selon telle définition individualiste.
Ceci étant dit, les états mentaux requis par les définitions individualistes pourraient très bien être absents et il n’y aurait alors pas racisme individualiste. Nous ne savons pas ce qu’il en est dans le cas des algorithmes visés par les accusations auxquelles nous nous intéressons et nous ajoutons qu’elles ne donnent en général pas d’éléments factuels que nous pourrions simplement relayer. Comment expliquer cette carence ?
Si une explication est qu’il est difficile de recueillir ces éléments, une autre est que les accusations n’en auraient pas besoin et ce, car elles ne seraient en fait pas des accusations de racisme individualiste. Il s’agirait en réalité d’accusations de racisme systémique, dans le sens le plus simple donné dans la section précédente et qui considère que tout ce qui crée une inégalité raciale (au détriment de non-blancs) est raciste. Cette explication a pour elle que le différentiel racial de taux d’erreur (au détriment de non-blancs) est une inégalité raciale et que les accusations ne semblent pas avoir besoin d’autres éléments factuels afin de conclure au racisme.
Si cette explication est la bonne, nous la reprenons dans la section VII consacrée aux accusations de racisme systémique. Pour le moment, nous soulignons plutôt qu’il nous semble plausible que des gens aient manqué que cette accusation de racisme portée à l’encontre de la reconnaissance faciale n’était peut-être pas à comprendre dans un sens individualiste et ce, pour trois raisons.
Premièrement, l’accusation ne donne en général pas la définition du racisme sur laquelle elle s’appuie et ce, à l’image de beaucoup d’accusations mais également de dénégations de racisme qu’on rencontre dans le débat public et académique.
Deuxièmement, et même si leur définition est vague, incohérente et quelque peu idiosyncrasique, beaucoup de gens comprennent encore le racisme au moyen d’une définition individualiste et une bonne part d’entre eux ne nous semble pas avoir intégré que lorsqu’ils entendent parler de racisme, ce peut être pour signifier que quelque chose crée, maintient ou renforce certaines inégalités raciales.
Troisième et dernière raison, les accusations de racisme auxquelles nous nous intéressons, ainsi que d’autres qui n’invoquent pas le racisme, soutiennent que les algorithmes qui affichent des taux d’erreur plus importants pour des non-blancs sont discriminatoires et biaisés, voire ajoutent la vérité générale que les êtres humains peuvent transmettre leurs biais aux algorithmes ou y mettre de la discrimination36. Cela, sans indiquer que, dans ce contexte, la notion de discrimination ne serait pas à comprendre dans son sens le plus courant de discrimination directe mais de discrimination indirecte et que le terme de biais, parfois agrémenté du qualificatif de « racial » ou de « raciste », renverrait au différentiel de taux d’erreur et non aux états mentaux cognitifs et non-cognitifs des définitions individualistes. Il nous semble plausible que cela renforce certains dans l’idée qu’on leur présente une accusation de racisme individualiste et nous ajoutons que cela interroge plus fondamentalement sur la nature de cette accusation.
En effet, si l’accusation parle de racisme sans aller sur le terrain des faits pertinents pour les définitions individualistes, ce n’est pas forcément car il s’agit d’une accusation de racisme systémique. Il pourrait s’agir d’une accusation de racisme individualiste qui confondrait différents concepts de discrimination et/ou de biais. Cette explication semble plausible pour une partie des accusations auxquelles nous nous intéressons, notamment celles qui émanent de France et ce, car leur sociologie mais surtout leur mode de présentation (références, manières de formuler les choses, etc.) ne cadre pas bien avec celles d’accusations de racisme dans le sens du racisme systémique.
Quoi qu’il en soit, si le racisme est à comprendre dans un sens individualiste, alors il n’y a pas nécessairement racisme dans le cas des algorithmes de reconnaissance faciale qui affichent des taux d’erreur supérieurs pour des non-blancs. Tout dépend de ce qui a motivé, fût-ce indirectement et inconsciemment, leur conception, leur adoption ou leur utilisation et il en est de même en ce qui concerne d’éventuels algorithmes dénués de différentiel racial de taux d’erreur. Bien évidemment, nous y reviendrons plus loin, le fait qu’un éventuel algorithme ne soit pas raciste ne délivre pas un blanc-seing moral à ses utilisations concevables.
Profilage racial et racisme individualiste
Considérons à présent l’accusation de racisme qui fait intervenir le profilage racial pouvant être réalisé par la police et, pour fixer les idées, disons qu’un policier fait du profilage racial quand il tient compte, entre autres facteurs, de la prétendue race des gens lorsqu’il décide qui contrôler, fouiller, interroger ou suspecter.
En premier lieu, l’accusation de racisme ne porte pas sur les algorithmes de reconnaissance faciale mais sur le profilage racial qu’ils pourraient permettre de réaliser.
Ensuite, il nous semble que l’accusation confond les algorithmes de reconnaissance faciale avec les algorithmes de classification raciale qui, seuls, déterminent la prétendue race de personnes à partir de leur visage. Ce sont ces algorithmes de classification raciale, et non les algorithmes de reconnaissance faciale, qui pourraient par exemple informer un policier au volant d’une voiture qu’un autre conducteur est de telle prétendue race, ouvrant la voie au profilage racial.
Ceci étant dit, la reconnaissance faciale peut quand même aider à faire du profilage racial, si les personnes qui figurent dans les bases de données au sein desquelles l’algorithme cherche sont fichées selon leur prétendue race, dans ces mêmes bases de données ou dans d’autres. Dans l’exemple précédent, l’algorithme identifierait que le conducteur est untel et il ne resterait plus au policier qu’à consulter sa fiche, afin d’obtenir sa prétendue race. Un autre dispositif pourrait sinon consulter la fiche à sa place et lui communiquer automatiquement l’information dont il a besoin. Il vaut donc la peine de poursuivre et de s’intéresser au racisme du profilage racial.
Pourquoi le profilage racial est-il si souvent considéré comme étant raciste ? Une raison est que des gens identifient le racisme à la discrimination raciale directe et négative, ce que le profilage racial est par définition37. Si on fait ce choix définitionnel, le profilage racial est bien raciste mais, attention, il faut bien comprendre que le verdict de racisme ne donne pas une raison de condamner le profilage racial qui soit distincte de celle fournie par le fait qu’il constitue de la discrimination raciale directe et négative. Cela, alors que cette raison a aujourd’hui beaucoup perdu de sa superbe, comme l’illustre le fait que bien des gens sont aujourd’hui prêts à défendre ou, au moins, à regarder de plus près quelles sont les conséquences et la motivation de mesures ou de programmes de discrimination positive qui constituent pourtant en même temps de la discrimination directe et négative. Nous pensons qu’ils ont raison38 mais il faut alors être prêt à traiter le profilage racial de la même manière et à ne pas le condamner indépendamment d’un examen de sa motivation et de ses conséquences.
Il faut également accepter l’idée que les mesures et programmes de discrimination raciale positive sont racistes (et, si on accepte l’analogie, que d’autres mesures et programmes sont sexistes, etc.) et ce, même dans le cas où ils se justifient. Une manière d’éviter cette conclusion consiste à adopter une définition comportementale plus académique pour le racisme et à exiger la présence des croyances ou des attitudes qui apparaissent dans les définitions mentales. Par exemple, l’hostilité raciale et une alternative plus radicale consiste ici à adopter une définition mentale du racisme. Si on fait l’un de ces choix39, les programmes de discrimination raciale positive, du moins, ceux qui nous semblent mériter ce nom40, sont bien exempts de racisme et ce, en raison de leur motivation, mais il en est de même pour des instances concevables de profilage racial (ou de règles qui l’autoriseraient). Tout dépend ici de la définition précise adoptée parmi celles que nous venons d’évoquer mais le profilage racial ne serait par exemple raciste qu’à condition d’être motivé, fût-ce indirectement et inconsciemment, par la croyance dans l’infériorité de tel groupe racialisé ou par une attitude allant de l’indifférence à la haine envers celui-ci.
Un cas intéressant est alors celui du profilage racial qui serait exempt de racisme attitudinal et qui découlerait d’un désir de lutter efficacement contre la criminalité, couplé avec la croyance qu’à certains endroits au moins, la fréquence avec laquelle une caractéristique non-raciale X recherchée par la police se rencontrerait chez les membres de tel groupe racialisé serait supérieure à ce qu’elle est dans la population générale. Ce profilage racial serait-il raciste dans le sens cognitif ?
Il le serait si la croyance était elle-même le résultat d’une croyance raciste dans le sens cognitif mais qu’en serait-il si ce n’était pas le cas ? La question est de savoir si une croyance en une différence statistique entre des groupes racialisés concernant X est elle-même raciste dans le sens cognitif.
Ici, il nous semble qu’on peut déjà exclure du champ du racisme les cas dans lesquels X ne concerne pas les facultés, le tempérament et autres états mentaux ou le comportement des membres du groupe racialisé. Par exemple, le cas dans lequel un policier est à la recherche d’une personne qui possède un certain instrument de musique. Idem s’il est à la recherche de quelqu’un de riche ou qui possède de la drogue ou bien une arme : en elle-même, la croyance qu’il y a plus de riches chez les membres de tel groupe racialisé ne nous semble pas raciste dans le sens cognitif. Par contre, cette croyance pourrait à l’évidence résulter d’une croyance raciste dans le sens cognitif, par exemple la croyance que les membres de ce groupe sont tous obnubilés par l’argent.
Qu’en est-il ensuite des cas dans lesquels X concerne justement les facultés (le tempérament, etc.) ou le comportement ? En elle-même, la croyance qu’il y a davantage de coupables de tel crime au sein de tel groupe racialisé est-elle par exemple du racisme cognitif ?
On peut vouloir répondre par l’affirmative et parler de « racisme statistique » mais il faut alors être prêt à reconnaître que la croyance pourrait être vraie. Si on accepte l’analogie, il faudrait également reconnaître que la police fait aujourd’hui preuve de beaucoup d’âgisme et de sexisme statistiques, attendu que de telles croyances statistiques l’amènent à profiler fortement les jeunes par opposition aux personnes âgées, ainsi que les hommes par opposition aux femmes. Pire, la police ne pourrait jamais profiler ces catégories de personnes en s’appuyant sur des statistiques sur la criminalité sans se rendre coupable du « -isme » associé à ces catégories.
Ce résultat ne nous semble pas très heureux et nous pensons qu’il vaut mieux exclure une partie de ces croyances statistiques du champ des « -ismes » cognitifs. Il nous semble aussi qu’on fait mieux sens du racisme historique en considérant que le raciste cognitif ne croit pas seulement que telle caractéristique se rencontre un peu plus souvent chez les membres de tel groupe racialisé mais, plutôt, qu’elle s’y rencontre beaucoup plus souvent et qu’on la rencontre chez quasiment tous les membres du groupe voire même qu’il en sera toujours ainsi. Cela laisse sans doute une zone grise et une autre question, à laquelle nous serions toutefois enclin à répondre par la négative41, est de savoir s’il ne faudrait pas exiger des croyances cognitivement racistes qu’elles supposent une origine biologique à la différence statistique.
Quoi qu’il en soit, une vaste gamme de cas réalistes de profilage racial que la reconnaissance faciale pourrait faciliter nous semble devoir sortir du champ du racisme cognitif et, plus généralement, si on rejette l’assimilation du racisme à la discrimination raciale directe et négative, du champ du racisme individualiste. Cela, même si la croyance en une différence statistique qui les motiverait serait fausse.
Bien sûr, cela n’implique pas que ces cas de profilage racial seraient justifiés moralement et ce, même si cette croyance s’avérait vraie et qu’ils permettaient de lutter plus efficacement contre la criminalité. Au-delà de la discrimination raciale directe et négative qu’ils impliqueraient, leurs éventuelles autres conséquences pourraient très bien faire pencher la balance en leur défaveur, notamment s’ils visaient des non-blancs : éventuel renforcement du racisme individualiste à leur encontre, exacerbation de leur ressentiment et de leur manque de confiance à l’égard de la police et de l’État, augmentation du risque que les contrôles policiers dégénèrent en violence voire en bavure, aggravation de certaines inégalités raciales. Sans parler du rôle causal joué par le racisme individualiste passé dans l’existence des différences statistiques conférant au profilage racial une certaine utilité afin de lutter contre la criminalité.
Nous ne savons pas si une certaine dose de profilage racial envers des non-blancs, que la reconnaissance faciale pourrait faciliter, se justifie aujourd’hui en France42. Par contre, celui-ci est bien présent et peut-être dans des proportions injustes. On ne peut malheureusement guère en débattre avec une police et un gouvernement qui ne peuvent pas se permettre de reconnaître publiquement son existence. L’idée que le profilage racial constitue nécessairement du racisme (individualiste) les en empêche alors que, dans le même temps, elle n’empêche pas le profilage racial d’être pratiqué clandestinement.
Ciblage et dystopie raciale
Si la reconnaissance faciale peut aider la police à faire du profilage racial dans le cadre de ses fonctions légitimes, elle pourrait également lui servir à nuire à des groupes racialisés non-blancs. Le gouvernement pourrait plus généralement l’utiliser dans ce but et certaines accusations de racisme qu’on rencontre dans le débat sur la reconnaissance faciale estiment que c’est déjà le cas voire suggèrent une continuité avec le suprémacisme blanc d’antan. Ici, trois questions gagnent à être distinguées.
Premièrement, l’accusation a-t-elle raison de condamner cet usage de la reconnaissance faciale et de parler de racisme ?
A l’évidence, cet usage de la reconnaissance faciale est extrêmement injuste et la plupart des définitions individualistes permettent de le qualifier de raciste et ce, inconditionnellement, en raison de la discrimination raciale directe et négative et/ou des états mentaux non-cognitifs à l’œuvre. Certaines définitions individualistes, au premier chef les définitions cognitives, exigent quant à elles que certaines croyances soient au moins partiellement à la manœuvre et un usage de la reconnaissance faciale motivé par l’hostilité envers des non-blancs mais qui ne serait rationalisé en aucune manière ne pourrait par exemple pas être qualifié de raciste. Tout dépend ensuite du contenu précis des croyances exigées par ces définitions. Faut-il par exemple qu’elles dépassent un certain niveau de sophistication ? Ou bien, en supposant qu’une croyance en une différence entre les prétendues races (qui concernerait autre chose que l’apparence physique ou l’ascendance géographique) soit exigée, cette croyance doit-elle postuler que la différence est d’origine biologique ? Dans la perspective de faire sens du racisme historique, tant passé qu’actuel, il nous semble qu’on gagnerait dans les deux cas à répondre par la négative43 et cela réduit fortement les chances d’être confronté à des cas où on ne pourrait pas conclure au racisme, dans le sens discuté.
Sans même avoir besoin de convoquer le sens systémique du racisme, ce développement appelle immédiatement une deuxième question, qui est de savoir dans quelle mesure cet usage injuste et raciste de la reconnaissance faciale est à l’œuvre dans nos sociétés, aux États-Unis d’où les accusations émanent en majorité, mais également en France. Où placer le curseur entre quelques « pommes pourries » sévissant ici et là et un véritable racisme d’État ?
Nous ne possédons pas l’expertise permettant de répondre à cette question et, dans le contexte de cet article, il nous semble plus intéressant de mettre l’accent sur une troisième question, qui est de savoir quels sont les éléments factuels fournis par les accusations considérées.
Essentiellement, que la reconnaissance faciale se tromperait, serait utilisée et nuirait de manière disproportionnée aux ou à des non-blancs et cela interroge forcément sur la nature de ces accusations car un tel état de choses peut très bien se produire sans que ces groupes soient (fortement) ciblés par une police ou un gouvernement leur voulant du mal. N’aurait-on pas à nouveau affaire à des accusations, non pas de racisme individualiste, mais de racisme systémique ?
D’un côté, la police et/ou le gouvernement sont bien accusés de cibler (« target ») certains groupes racialisés non-blancs, en général les noirs, mais en même temps, on a à certains endroits l’impression que cette notion ne doit pas être comprise dans son sens courant mais, plutôt, en termes, uniquement, d’impact44. Ce sens nous semble également à l’œuvre chez d’autres critiques de la reconnaissance faciale et, selon les cas, il faudrait comprendre que la police ou le gouvernement affecte ou affecte négativement et/ou de manière disproportionnée ces groupes racialisés45.
L’ambiguïté est la même lorsque les accusations rapprochent ou comparent l’action de la police ou du gouvernement à des cas de ciblage (dans le sens courant), comme celui des Ouïghours en Chine, ou bien aux « lantern laws » en vigueur à New York au 18ème siècle et qui obligeaient les esclaves non-blancs à se munir d’une lanterne allumée s’ils sortaient la nuit sans être accompagnés d’un blanc46. Contrairement aux apparences, le point commun sur lequel on cherche à attirer notre attention n’est peut-être pas une certaine intention mais, plutôt, des conséquences racialement inégalitaires.
S’agit-il au final d’accusations de racisme individualiste confuses ou bien d’accusations de racisme systémique trompeuses ? Difficile à dire mais cette ambiguïté nous semble en revanche caractéristique d’une partie de l’anti-racisme contemporain le plus critique vis-à-vis des sociétés occidentales. Contrairement à ce que de nombreuses formules laissent penser, l’idée ne serait pas tant que, dans leur sens traditionnel si ce n’est courant, le racisme, le suprémacisme blanc ou l’oppression raciale d’antan seraient toujours là mais, plutôt, que l’existence d’inégalités raciales ne date pas d’hier.
Quoi qu’il en soit, nous avons indiqué ce qu’il y avait de lieu de penser de ces accusations de racisme, en tant qu’accusations de racisme individualiste. Et nous nous intéressons à présent à ce que ces accusations, ainsi que d’autres qui sont apparues depuis le début de cet article, valent en tant qu’accusations de racisme systémique.
Inégalités raciales et racisme systémique
Dans la section IV, nous avons indiqué qu’une manière de comprendre les accusations de racisme portant sur le différentiel racial de taux d’erreur (au détriment de non-blancs) des algorithmes de reconnaissance faciale consistait à y voir des accusations de racisme systémique, dans le sens le plus simple de cette notion, qui considère que ce qui crée, maintient ou renforce une inégalité raciale (au détriment de non-blancs) est raciste. Nous ne revenons pas sur ce que vaut cette lecture et nous soulignons à présent qu’il y a effectivement racisme dans ce sens, puisque le différentiel racial de taux d’erreur (au détriment de non-blancs) est une inégalité raciale pertinente.
Il en est de même en ce qui concerne les accusations de racisme étudiées dans la section précédente et qui faisaient intervenir la notion de ciblage. Quand bien même il ne faudrait pas les comprendre au moyen de ce sens du racisme systémique, il n’en demeure pas moins que celui-ci permet effectivement de qualifier de « raciste » une reconnaissance faciale qui serait utilisée et qui nuirait de manière disproportionnée aux ou à des non-blancs, deux autres inégalités raciales pertinentes.
Et bien sûr, ce sens permet aussi de parler de racisme s’il s’avère que le fonctionnement biaisé des algorithmes de reconnaissance faciale ou bien que leur utilisation disproportionnée sur des non-blancs crée, maintient ou renforce d’autres inégalités raciales (en leur défaveur). Comme annoncé dans la section II, une partie des accusations de racisme portées à l’encontre de la reconnaissance faciale, notamment aux États-Unis, est clairement de cette trempe et ajoute comme autre mécanisme inégalitaire la surreprésentation des ou de non-blancs dans les bases de données utilisées par la police ainsi que l’impact dissuasif de la reconnaissance faciale sur ceux qui luttent contre les inégalités raciales en leur défaveur.
Nous ajoutons que ces accusations nous semblent bien étayées factuellement dans le cas des États-Unis et que nous serions surpris si elles n’étaient pas largement transposables au cas de la France. Il vaut donc la peine de s’y intéresser de plus près et, notamment, de se pencher sur leurs implications morales réelles et supposées.
Pour les accusateurs, l’affaire semble entendue et l’usage de la reconnaissance faciale incriminé à rejeter. Cela sans plus d’explication ni même de reconnaissance de la possibilité d’un débat raisonnable. Pourquoi en est-il ainsi ? Une réponse est que les accusateurs pensent que le racisme de l’usage de la reconnaissance faciale suffit à condamner cet usage voire que cela devrait être évident pour les gens raisonnables.
Le problème est alors que, dans le contexte, le racisme de l’usage de la reconnaissance faciale ne signifie pas autre chose que le fait (avéré) qu’il crée, maintient ou renforce certaines inégalités raciales (au détriment de non-blancs). Autrement dit, le fait que l’usage de la reconnaissance faciale soit raciste ne fournit pas une raison de condamner cet usage qui soit différente de la raison fournie par l’impact sur certaines inégalités raciales (au détriment de non-blancs).
Ici, une réponse est que les accusateurs en sont bien conscients, tout en étant d’avis que cette raison suffit à condamner l’usage de la reconnaissance faciale. Notre réponse est que ça n’apparaît pas dans les accusations et, au-delà, que nous ne sommes pas convaincu que les accusateurs soient de cet avis, ni même qu’ils aient beaucoup réfléchi à la question de la force morale de la raison fournie par l’impact sur certaines inégalités raciales (au détriment de non-blancs). Il se pourrait plutôt qu’ils aient fait le raisonnement problématique suivant :
Ce qui est raciste est immoral.
Or une définition établie du racisme permet de qualifier X de « raciste ».
Donc X est immoral.
Mais la première prémisse est-elle vraie avec la définition « établie » ?47 Avant de nous intéresser à cette question, nous soulignons que beaucoup de gens nous semblent aujourd’hui penser de cette manière et que tous ne pensent pas le racisme au moyen d’une définition faisant une place au racisme systémique, loin de là. Certains pensent le racisme avec une définition individualiste. Reste que ce raisonnement nous semble à l’œuvre dans quantité d’accusations de racisme systémique (ou « structurel », « institutionnel »), visant ou non la reconnaissance faciale, et qu’on rencontre aujourd’hui dans le débat public ou académique, notamment anglo-saxon. Ou bien, comme nous le détaillons à présent, il pourrait s’agir d’un raisonnement assez proche, dans lequel la notion de « racisme » cède la place à celle de « racisme systémique » ou « d’oppression raciale » et l’immoralité est éventuellement revue à la baisse.
Première possibilité, comme nous l’avons dit dans la section III, les définitions académiques du racisme systémique (ou structurel, institutionnel) sont en général plus restrictives que la définition que nous considérons actuellement et les conditions qu’elles ajoutent ne sont le plus souvent pas neutres sur le plan moral. L’inégalité raciale pertinente est par exemple uniquement celle en termes de « chances de vie », une métrique moralement fondamentale pour beaucoup de gens ou bien les inégalités raciales pertinentes sont des inégalités raciales issues du racisme individualiste passé, des inégalités raciales injustes, etc. jusqu’à l’idée d’exiger de ce qui est qualifié de racisme systémique qu’il soit globalement immoral48. En conséquence, lorsque quelque chose est bien du racisme systémique dans l’un de ces sens, le débat sur sa moralité ne part pas du même endroit voire n’a plus lieu d’être. Les accusations problématiques auxquelles nous nous intéressons pourraient confondre une ou plusieurs de ces définitions avec la définition plus pauvre sur le plan moral qu’elles utilisent pour établir que quelque chose est du racisme systémique.
Deuxième possibilité, les notions d’ « oppression raciale », de « domination raciale » et, dans une moindre mesure, de suprémacisme blanc (« white supremacy ») sont aujourd’hui souvent utilisées dans le même sens que celle de racisme systémique (ou structurel, institutionnel) ou, plutôt, avec les confusions que cela engendre, dans les mêmes sens, avec par exemple, dans le cas de l’oppression raciale, des définitions qui en font nécessairement une injustice et d’autres non. Sans parler de sens individualistes de ces notions où l’oppression raciale exige par exemple une intention raciste dans le sens mental en plus de (formes particulièrement graves de) l’injustice. A nouveau, la définition utilisée pour établir l’oppression raciale ne serait pas la même que celle utilisée pour la condamner.
Maintenant, nous ne soutenons pas que les faits présentés par ces accusations, éventuellement combinés avec des principes moraux raisonnables, ne permettent pas de parler de racisme systémique ou d’oppression raciale dans les sens plus riches apparus dans les deux paragraphes précédents. Et bien sûr, il est important de savoir ce qu’il en est, puisque ces sens sont moralement plus riches49. Ceci étant dit, si le but est de parvenir à poser un verdict moral, on peut aussi se passer de ces notions et se demander de manière générale ce qu’il y a lieu de penser moralement de quelque chose, par exemple une politique de déploiement de la reconnaissance faciale, qui crée, maintient ou renforce une ou plusieurs inégalités raciales (au détriment de non-blancs). Plusieurs questions gagnent alors à être distinguées.
En premier lieu, le fait que la politique (disons) accroît telle inégalité raciale fournit-il une raison de condamner la politique ?
Ici, il faut déjà bien distinguer les inégalités injustes et les injustices qui concernent les individus et celles qui concernent les groupes.
Même si ce n’est pas forcément ce qu’il se passe, une politique qui accroît l’inégalité raciale en termes de cette injustice que sont par exemple les bavures policières peut très bien accroître le nombre total de bavures policières et, si tel est le cas, cela fournit une raison de condamner la politique. Il s’agit toutefois d’une autre raison que celle éventuellement fournie par le fait que la politique accroît l’inégalité raciale en termes de bavures policières. Idem dans le cas d’une politique qui accroît l’inégalité raciale en termes de revenu et qui accroît aussi l’inégalité de revenu, ou qui diminue le degré de réalisation de tel principe de justice distributive, entre les individus.
Cette distinction étant faite, l’inégalité raciale renforcée par la politique de déploiement de la reconnaissance faciale est-elle injuste ?
Peut-on déjà conclure à l’injustice pour la seule raison que la distribution de tel avantage, non pas entre les individus, mais entre des groupes (ici racialisés) s’écarte d’un certain standard, par exemple l’égalité50 ? Ici, la gageure nous semble être d’argumenter contre la vaste tradition qui considère que ce sont uniquement les inégalités entre individus qui peuvent être injustes en elles-mêmes.
Autre possibilité, l’inégalité raciale est-elle injuste en raison de sa cause ? On pourrait par exemple penser qu’il en serait ainsi si elle était le résultat du racisme individualiste passé et, éventuellement, si elle portait sur une injustice (ex : être victime d’erreur judiciaire).
Enfin, l’inégalité raciale est-elle injuste en raison de ses conséquences ? On pourrait par exemple penser qu’il en serait ainsi si elle entretenait des états mentaux racistes dans le sens mental et qui amèneraient à des passages à l’acte injustes.
Sans prétendre à l’exhaustivité, les raisons potentielles de conclure à l’injustice ne manquent pas mais, tout de même, qu’en est-il dans tel cas précis ? Reconnaissance faciale ou non, lorsque le concept de racisme systémique (ou structurel, institutionnel) est aujourd’hui utilisé pour condamner quelque chose, cette question passe très souvent à la trappe.
Supposons à présent que l’on conclut à l’injustice de l’inégalité raciale. Ce n’est pas rien et, toutes choses égales par ailleurs, cela appelle une action des institutions ainsi que des individus à son sujet. Mais faut-il pour autant abroger la politique de déploiement de la reconnaissance faciale qui, par hypothèse, accroît cette inégalité raciale injuste ? C’est la politique, et non l’inégalité raciale injuste, qu’on cherche à évaluer moralement et il faut donc la considérer dans sa globalité.
Et bien sûr, il se pourrait ici qu’on découvre d’autres choses qui comptent en sa défaveur. Par exemple, la politique pourrait être raciste dans un sens individualiste : elle constituerait de la discrimination raciale directe et négative et/ou elle serait motivée par la croyance dans l’infériorité des membres de tel groupe racialisé ou par des attitudes comme l’hostilité raciale.
Ou bien, il se pourrait qu’elle ait d’autres conséquences négatives que l’accroissement de l’inégalité raciale injuste. Nous en avons parlé précédemment, elle pourrait par exemple accroître une inégalité injuste ou bien une injustice qui concerne non pas des groupes mais les individus. Plus généralement, il faudrait ici passer la politique au crible des nombreuses critiques non-raciales adressées à la reconnaissance faciale que nous avons présentées dans la section II et il n’est pas sûr qu’elle y résiste.
Ceci étant dit, il se pourrait aussi que la politique ait des conséquences positives et ce, notamment dans le cas où elle serait exempte de racisme individualiste. Quid de son impact sur les objectifs pour lesquels elle aurait été choisie et, plus généralement, de son impact sur les valeurs qui nous sont chères ? Qu’est-ce qu’on perdrait si on renonçait à la politique : en termes de lutte contre la criminalité, de sécurité, de bien-être social, etc. ? Si la politique de déploiement de la reconnaissance faciale était le fait d’une institution publique comme la police, il nous semble qu’il faudrait ici surtout se demander si son abrogation entraînerait davantage d’injustice que son maintien.
Nous ne savons pas ce qu’il en est dans le cas des usages de la reconnaissance faciale visés par les accusations de racisme systémique auxquelles nous nous sommes intéressé mais, par contre, ces accusations éludent en général la question des éventuelles conséquences positives de ces usages, sur les blancs comme les non-blancs. Il nous semble que c’est une limite de beaucoup d’accusations de racisme systémique qu’on rencontre aujourd’hui dans le débat public voire académique et nous craignons que ce soit largement dû aux confusions conceptuelles (sur le racisme, l’oppression, les inégalités de groupe, etc.) évoquées dans cet article. Le bilan éthique complet doit pourtant être fait et la gageure est aujourd’hui d’y parvenir collectivement sans que l’invocation du terme « racisme » ne fausse le débat.
==================
NOTES
- Cf. CNIL, « Reconnaissance faciale : pour un débat à la hauteur des enjeux », 2019, p. 3, https://www.cnil.fr/sites/cnil/files/atoms/files/reconnaissance_faciale.pdf (dernière consultation le 4 mars 2024). [↩]
- Cf. Sénat, M.-P. Daubresse, A.de Belenet et J. Durain, « Rapport d’information fait au nom de la commission des lois constitutionnelles, de législation, du suffrage universel, du Règlement et d’administration générale sur la reconnaissance faciale et ses risques au regard de la protection des libertés individuelles », 2022, p. 38, https://www.senat.fr/rap/r21-627/r21-6271.pdf[↩]
- Cf. Assemblée nationale, D. Paris et P. Morel-A-L’Huissier, « Rapport d’information déposé en application de l’article 145 du Règlement par la Commission des Lois constitutionnelles, de la Législation et de l’Administration générale de la République en conclusion des travaux d’une mission d’information sur les fichiers mis à la disposition des forces de sécurité », 2018, p.64, https://www.assemblee-nationale.fr/dyn/15/rapports/cion_lois/l15b1335_rapport-information.pdf[↩]
- Cf. Sénat, op. cit., p. 38. Les 498 871 utilisations par la police nationale représentent 3,2 % du total des consultations du Taj. La DGSI est également habilitée par la loi à utiliser la reconnaissance faciale, à des fins d’identification mais aussi d’authentification. Y a-t-il actuellement d’autres usages de la reconnaissance faciale par les pouvoirs publics ? Suite aux accusations du site d’investigation Disclose, une enquête administrative du ministère de l’Intérieur ainsi qu’une procédure de contrôle de la CNIL sont en cours afin de déterminer si les forces de l’ordre utilisent illégalement un outil de reconnaissance faciale fourni par la société Briefcam. Cf. France Info, « Gérald Darmanin annonce lancer une enquête administrative sur l’utilisation de la reconnaissance faciale dans la police », 2023, https://www.francetvinfo.fr/faits-divers/police/video-gerald-darmanin-annonce-lancer-une-enquete-administrative-sur-l-utilisation-de-la-reconnaissance-faciale-dans-la-police_6196116.html (dernière consultation le 4 mars 2024) et Disclose, « La police nationale utilise illégalement un logiciel israélien de reconnaissance faciale », 2023, https://disclose.ngo/fr/article/la-police-nationale-utilise-illegalement-un-logiciel-israelien-de-reconnaissance-faciale [↩]
- Cf. Sénat, op. cit., p. 26-27 et NIST, P.J. Grother, M. L. Ngan et K. K. Hanaoka, « Face Recognition Vendor Test Part 3 : Demographic Effects », 2019, p. 4, https://nvlpubs.nist.gov/nistpubs/ir/2019/nist.ir.8280.pdf[↩]
- Cf. https://www.nist.gov/programs-projects/face-technology-evaluations-frtefate pour les dernières évaluations des algorithmes d’authentification et d’identification par le National Institute of Standards and Technology, l’institut faisant référence en la matière. [↩]
- Cf. CNIL, op. cit., p. 8. [↩]
- Cf. Défenseur des droits, Technologies biométriques : l’impératif respect des droits fondamentaux, 2021, p.14, https://www.defenseurdesdroits.fr/sites/default/files/2023-07/ddd_rapport_technologies-biometriques_2021.pdf (dernière consultation le 7 mars 2024). [↩]
- Par « race dans un sens biologique », nous entendons un vaste groupe d’êtres humains qui se distinguerait à minima des autres groupes du point de vue de l’apparence physique, éventuellement héréditaire et/ou de l’ascendance géographique de ses membres. Nous parlons de groupe « racialisé » et non « racisé » afin d’éviter des malentendus que nous détaillons dans The Conversation, V. Aubert, « Qu’est-ce qu’une personne « racisée » ? Trois définitions pour éclairer le débat », 2023, https://theconversation.com/quest-ce-quune-personne-racisee-trois-definitions-pour-eclairer-le-debat-189996 (dernière consultation le 7 mars 2024). [↩]
- Indépendamment de sa volonté, l’auteur de cet article fait partie des « blancs » dans le sens d’un groupe que certains voient comme une prétendue « race biologique blanche » tandis que d’autres personnes font de la même manière partie des « noirs », des « asiatiques », des « juifs », des « arabes », etc.[↩]
- Cf. IntoTheMinds, P. N. Schwab, « Les algorithmes de reconnaissance faciale sont biaisés et racistes », 2018, https://www.intotheminds.fr/blog/algorithmes-de-reconnaissance-faciale-biaises-racistes/ (dernière consultation le 29 février 2024) et Défenseur des droits, op. cit., p.10. [↩]
- Cf. ACLU, J. Snow, « Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots », 2018, https://www.aclu.org/news/privacy-technology/amazons-face-recognition-falsely-matched-28. [↩]
- Cf. Scientific American, N.N. Johnson, T.L Johnson, « Police Facial Recognition Technology Can’t Tell Black People Apart », 2023, https://www.scientificamerican.com/article/police-facial-recognition-technology-cant-tell-black-people-apart/ [↩]
- Cf. Amnesty International, « A New-York, la police vous trace via la reconnaissance faciale », 2022, https://www.amnesty.fr/liberte-d-expression/actualites/new-york-la-police-trace-via-la-reconnaissance-faciale-ban-the-scan [↩]
- Cf. Medium, J. Buolamwini, « We Must Fight Face Surveillance to Protect Black Lives », 2020, https://onezero.medium.com/we-must-fight-face-surveillance-to-protect-black-lives-5ffcd0b4c28a (dernière consultation le 29 février 2024) ; Liberties, N. Aszodi, A. Norga, « La reconnaissance faciale : avantages et inconvénients », 2021, https://www.liberties.eu/fr/stories/pros-and-cons-of-facial-recognition/43708 (dernière consultation le 29 février 2024) et Amnesty International, « Reconnaissance faciale : quelles menaces pour nos droits ? », 2022, https://www.amnesty.fr/liberte-d-expression/actualites/reconnaissance-faciale-quelles-menaces-pour-nos-droits [↩]
- Cf. Algorithmic Justice League, E. Learned-Miller, V. Ordóñez, J. Morgenstern et J. Buolamwini, Facial Recognition Technologies in the Wild : A Call for a Federal Office, 2020, p8, https://www.ajl.org/federal-office-call (dernière consultation le 29 février 2024) ; Liberties, « Reconnaissance faciale : les 7 plus grandes menaces pour la vie privée », 2022, https://www.liberties.eu/fr/stories/facial-recognition-privacy-concerns/44518 (dernière consultation le 29 février 2024) et MIT Technology Review, K.Hao, « The two-year fight to stop Amazon from selling face recognition to the police », 2020, https://www.technologyreview.com/2020/06/12/1003482/amazon-stopped-selling-police-face-recognition-fight/.[↩]
- Cf. ACLU, K. Crockford, « How is Face Recognition Surveillance Technology Racist? », 2020, https://www.aclu.org/news/privacy-technology/how-is-face-recognition-surveillance-technology-racist.[↩]
- Par inégalité raciale, nous entendons une inégalité entre des groupes racialisés, qui porte sur une grandeur moyenne (ex : le revenu moyen des différents groupes racialisés ne serait pas le même) ou bien sur la fréquence de telle caractéristique au sein du groupe (ex : le % de membres du groupe qui sont victimes de bavures policières ne serait pas le même dans les différents groupes racialisés). [↩]
- Liberties, 2021, op. cit. mentionne également l’accès inégal aux services et aux infrastructures. [↩]
- Cf. ACLU, 2020, op. cit. et Georgetown Law Center on Privacy & Technology, C. Garvie, A. M. Bedoya, J. Frankle, « The Perpetual Line-Up : Unregulated Police Face Recognition in America », 2016, p. 56-57, https://www.perpetuallineup.org/sites/default/files/2016-12/The%20Perpetual%20Line-Up%20-%20Center%20on%20Privacy%20and%20Technology%20at%20Georgetown%20Law%20-%20121616.pdf [↩]
- Cf. Science in the News, A. Najibi, « Racial Discrimination in Face Recognition Technology », 2020, https://sitn.hms.harvard.edu/flash/2020/racial-discrimination-in-face-recognition-technology/ [↩]
- Cf. K. A. Appiah, « Racisms », dans D. Goldberg (dir.), Anatomy of Racism, Minneapolis, University of Minnesota Press, 1990, p. 3-17 et C. Hoyt, « The Pedagogy of the Meaning of Racism: Reconciling a Discordant Discourse », Social Work, 2012, vol. 57, n° 3, p. 225-234. [↩]
- Au sujet de la notion d’infériorité, cf. V. Aubert, Dis, c’est quoi le racisme ?, Waterloo, Renaissance du Livre, coll. « Dis, c’est quoi ? », 2022, p. 23-29.[↩]
- Une attitude est ici raciale lorsqu’elle est dirigée envers certaines personnes en raison de leur assignation à une prétendue race biologique. Pour des exemples de définition attitudinale du racisme, cf. J. L. A. Garcia, « Current Conceptions of Racism: A Critical Examination of Some Recent Social Philosophy », Journal of Social Philosophy, 1997, vol. 28, n° 2, p. 5-42 et J. Arthur, Race, Equality, and the Burdens of History, Cambridge, Cambridge University Press, 2007. [↩]
- La discrimination raciale directe et négative est à comprendre ici dans un sens « non moralisé » impliquant qu’un acte peut être discriminatoire sans être immoral. On la pratique à votre encontre si et seulement si on vous désavantage par rapport à d’autres ou si on vous traite moins bien que d’autres sur la base de votre assignation à une prétendue race biologique. Au sujet de la distinction entre discrimination raciale directe et indirecte, cf. D.C. Matthew, « Racial Injustice, Racial Discrimination, and Racism: How Are They Related? », Social Theory and Practice, 2017, vol. 43, n° 4, p. 885-914 ainsi que A. Altman, « Discrimination », in E. N. Zalta (dir.), The Stanford Encyclopedia of Philosophy, 2020, https://plato.stanford.edu/archives/ sum2020/entries/discrimination/ et K. Lippert-Rasmussen, Born Free and Equal? A Philosophical Inquiry into the Nature of Discrimination, Oxford, Oxford University Press, 2014.[↩]
- Comme on le verra dans la section V, un enjeu est ici l’exclusion de certaines instances de discrimination raciale directe et négative du champ du racisme. Pour des exemples de ces définitions comportementales « restrictives », cf. J.A. Corlett, Race, Racism, and Reparations, Ithaca (NY), Cornell University Press, 2003 et M. Dummett, « The Nature of Racism », dans M. P. Levine et T. Pataki (dir.), Racism in Mind, Ithaca (NY), Cornell University Press, 2004, p. 27-34. Pour une alternative limitant le racisme à la discrimination raciale directe immorale cf. P. Singer, « Is Racial Discrimination Arbitrary? », Philosophia, 1978, vol. 8, n° 2-3, p. 185-203. [↩]
- Le racisme que nous qualifions de « systémique » est parfois qualifié de « structurel » ou « d’institutionnel ». Attention, on rencontre d’autres acceptions pour la notion de racisme systémique/structurel/institutionnel, en l’occurrence des acceptions qui en font un type particulier de racisme individualiste et que nous détaillons dans V. Aubert, « Une typologie pour éclairer le débat sur le racisme systémique », Silomag, 2023, n°17.[↩]
- Cf. V. Aubert, « Le racisme anti-blancs : un oxymore ? », Mouvements, 2022, HS n°2, p. 179-188 pour de nombreuses références. Dans cet article, nous qualifions les secondes définitions de « systémiques » en ce qu’elles soutiennent que le racisme renvoie fondamentalement à un système social aboutissant à ce qu’un groupe racialisé soit « dominant » ou « privilégié », dans le sens de mieux loti, en moyenne, que les autres et, de manière dérivée, aux phénomènes sociaux qui ont pour conséquence de créer, de maintenir ou de renforcer les inégalités raciales pertinentes. Les premières définitions y sont quant à elles qualifiées de « duales ». [↩]
- Cf. par exemple Washington Post, R. Balko, “There’s overwhelming evidence that the criminal justice system is racist. Here’s the proof”, 2020, https://www.washingtonpost.com/graphics/2020/opinions/systemic-racism-police-evidence-criminal-justice system/ (dernière consultaton le 23 mars 2024) sur lequel s’appuie ACLU, 2020, op. cit. : “systemic racism means (…) that we have systems and institutions that produce racially disparate outcomes, regardless of the intentions of the people who work within them”. Cette approche semble être défendue par I.X. Kendi, How to Be an Antiracist, New York, One World, 2019. [↩]
- Cf. E. Bonilla-Silva, « Rethinking Racism: Toward A Structural Interpretation », American Sociological Review, 1997, vol. 62, n° 3, p. 470. [↩]
- Nous pensons par exemple à des définitions faisant du racisme une idéologie (ou un dogme, une doctrine, etc.) caractérisée par son contenu (plutôt que par sa fonction) comme celle de R. Miles, Racism, London, Routledge, 2003 ainsi qu’aux définitions qu’on peut qualifier de « non-localisées » et qui sont défendues par L. Blum, « I’m Not a Racist, But… »: The Moral Quandary of Race, Ithaca (NY), Cornell University Press, 2002 et J. Glasgow, « Racism as Disrespect », Ethics, 2009, vol. 120, n° 1, p. 64-93. Cf. V. Aubert, op. cit., 2022 pour la logique de toutes ces définitions. [↩]
- Cf. IntoTheMinds, op. cit. ainsi que RTBF, M. Virlée, « L’intelligence artificielle serait-elle raciste ? », 2021, https://www.rtbf.be/article/lintelligence-artificielle-serait-elle-raciste-10722011 (dernière consultation le 8 mars 2024) pour deux exemples et NIST, op. cit., p. 4 et 14 pour un constat plus général. L’étude en question est J. Buolamwini et T. Gebru, « Gender Shades : Intersectional Accuracy Disparities in Commercial Gender Classification », Proceedings of Machine Learning Research, 2018, Vol. 81. Elle est également souvent citée par des accusations qui se limitent à parler de biais ou de discrimination. Cf. par exemple Défenseur des droits, Algorithmes : prévenir l’automatisation des discriminations, 2020, p. 6, https://juridique.defenseurdesdroits.fr/doc_num.php?explnum_id=19795 (dernière consultation le 24 mars 2024). [↩]
- Cf. NIST, op. cit. Pour un résumé des conclusions de l’étude, cf. NIST, « NIST Study Evaluates Effects of Race, Age, Sex on Face Recognition Software », 2019, https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software (dernière consultation le 8 mars 2024). Cf. Le Quotidien du Médecin, J.-P. Blum, « Reconnaissance faciale, raciste ? », 2020, https://www.lequotidiendumedecin.fr/sante-societe/e-sante/reconnaissance-faciale-raciste (dernière consultation le 8 mars 2024) et Intelligence artificielle et transhumanisme, « Les systèmes de reconnaissance faciale sont racistes », 2019, https://iatranshumanisme.com/2019/12/28/les-systemes-de-reconnaissance-faciale-sont-racistes/ (dernière consultation le 8 mars 2024) pour deux accusations de racisme qui citent cette étude. [↩]
- Pour les différentes causes avancées à l’époque, par exemple le manque de représentativité des données utilisées pour entraîner les algorithmes de reconnaissance faciale, cf. Wired, T. Simonite, « The Best Algorithms Struggle to Recognize Black Faces Equally », 2019, https://www.wired.com/story/best-algorithms-struggle-recognize-black-faces-equally/ (dernière consultation le 8 mars 2024). [↩]
- Pour un texte de 2023 qui se réfère encore aux 35%, cf. University of Calgary, N. Hassanin, « Law professor explores racial bias implications in facial recognition technology », 2023, https://ucalgary.ca/news/law-professor-explores-racial-bias-implications-facial-recognition-technology (dernière consultation le 9 mars 2024). Pour la mise en perspective, cf. l’étude du NIST ainsi que ITIF, M. McLaughlin et D. Castro, « The Critics Were Wrong: NIST Data Shows the Best Facial Recognition Algorithms Are Neither Racist Nor Sexist », 2020, https://www2.itif.org/2020-best-facial-recognition.pdf (dernière consultation le 9 mars 2024) et SIA, J. Parker, « What NIST Data Shows About Facial Recognition and Demographics », 2020, https://www.securityindustry.org/wp-content/uploads/2020/02/SIA-NIST-data-and-facial-recognition.pdf (dernière consultation le 9 mars 2024). [↩]
- Cf. RTBF, op. cit. et Usbek&Rica, M. Simon, « Aux États-Unis, une sixième personne noire arrêtée à tort à cause de biais racistes d’une IA de reconnaissance faciale », 2023, https://usbeketrica.com/fr/observations/aux-etats-unis-une-sixieme-personne-noire-arretee-a-tord-a-cause-de-biais-racistes-d-une-ia-de-reconnaissance-faciale (dernière consultation le 24 mars 2024). Pour un texte où les biais dénoncés par Joy Buolamwini sont compris comme des « préjugés » cf. CNRS Le Journal, G. Fléchet, « Algorithmes : l’injustice artificielle ? », 2022, https://lejournal.cnrs.fr/articles/algorithmes-linjustice-artificielle (dernière consultation le 24 mars 2024). [↩]
- Cf. D. C. Matthew, op. cit., p. 909. Il nous semble également que des gens ont du mal à imaginer un profilage racial qui ne serait pas raciste dans le sens cognitif. La question de fond est traitée plus loin dans cette section. [↩]
- Cf. A. Altman, op. cit., § 4.1 au sujet de la difficulté de caractériser la propriété de la discrimination directe et négative qui la rendrait toujours prima facie immorale. Sur les raisons de considérer que la discrimination positive peut dans certaines circonstances se justifier malgré l’éventuelle immoralité prima facie de la discrimination négative qu’elle implique, cf. R. Fullinwider, « Affirmative Action », in E. N. Zalta (dir.), The Stanford Encyclopedia of Philosophy, 2018, https://plato.stanford.edu/entries/affirmative-action/. [↩]
- Une autre raison de privilégier ces définitions est qu’elles permettent de mieux faire sens du racisme de la discrimination que les non-blancs ont vécu dans l’histoire car il y avait assurément plus que de la discrimination raciale directe et négative. Idem pour ce qui est de faire sens du sexisme de la discrimination vécue par les femmes dans l’histoire.[↩]
- Cf. V. Aubert, Dis, c’est quoi le racisme ?, op. cit., p. 51-56. [↩]
- Comme nous le disons dans la section suivante, on fait ainsi mieux sens du racisme historique, passé et actuel. Si on répond au contraire par l’affirmative, il n’y a pas racisme cognitif dans le cas d’une personne qui ne sait pas pourquoi elle croit que tous les membres de tel groupe racialisé sont et seront toujours stupides ou qui croit qu’il en est ainsi à cause d’une malédiction divine ou bien de la culture ou de l’« esprit » du groupe. Sur ce point ainsi que le précédent, notre réflexion est influencée par L. Blum, op. cit., p. 133-137. [↩]
- Cf. A. Lever, “Racial Profiling and the Political Philosophy of Race” dans N. Zack (dir.), The Oxford Hand-book of Philosophy and Race, Oxford: Oxford University Press, 2017, p. 425–435 pour un aperçu ainsi que de nombreuses références au sujet du débat philosophique initié par M. Risse et R. Zeckhauser, « Racial Profiling », Philosophy and Public Affairs, 2004, Vol. 32, No. 2. [↩]
- Autrement dit, il nous semble réducteur de limiter le racisme cognitif à ce qu’on qualifie parfois de racisme « scientifique ». [↩]
- Cf. Medium, op. cit. ainsi que ACLU, 2020, op. cit. et Amnesty International, « Reconnaissance faciale : quelles menaces pour nos droits ? », op. cit. [↩]
- Cf. J. Buolamwini, T. Gebru, op. cit. : “a demographic group (…) can (…) be subjected to frequent targeting. The use of automated face recognition by law enforcement provides such an example. (…). (…) African-American individuals are more likely to be stopped by law enforcement and be subjected to face recognition searches than individuals of other ethnicities”. Cf. ACLU, Face Surveillance and Racial Bias, https://www.aclum.org/sites/default/files/field_documents/racial_bias_and_fs.pdf (dernière consultation le 24 mars 2024) : “Even if the technology worked perfectly across racial groups, Black and brown people would suffer disproportionately from its use, just as these people and communities are disproportionately targeted for many other types of surveillance and police harassment”. Cf. C. Garvie, “Statement of Clare Garvie Senior Associate, Center on Privacy & Technology at Georgetown Law Before the U.S. House of Representatives Committee on Oversight and Reform Hearing on Facial Recognition Technology (Part 1) : Its Impact on Our Civil Rights and Liberties”, 2019, https://www.congress.gov/116/meeting/house/109521/witnesses/HHRG-116-GO00-Wstate-GarvieC-20190522.pdf (dernière consultation le 24 mars 2024) : “Communities of color disproportionately are the targets of police surveillance, face recognition being no exception to this rule. For example, in San Diego, police used face recognition up to 2.5 times more on African American people than on anyone else” et, juste après, en lien avec les mêmes chiffres, “people of color are disproportionately targeted by surveillance technologies”. [↩]
- Cf. ACLU 2020, op. cit. ainsi que Science in the News, op. cit. et Stanford Center for Comparative Studies in Race & Ethnicity, E. Radiya-Dixit, N. T. Djanegara, Race and Surveillance Brief, 2023, https://ccsre2023-prod.stanford.edu/sites/ccsre2023/files/media/file/race_and_surveillance_brief_final.pdf (dernière consultation le 24 mars 2024). La comparaison avec les « lantern laws » a été popularisée par S. Browne, Dark matters : on the surveillance of blackness, Duke university Press, Durham and London, 2015, p. 78-80. Pour une autre accusation problématique de racisme s’appuyant sur les « lantern laws » mais visant cette fois le différentiel racial de taux d’erreur des algorithmes de reconnaissance faciale, cf. M. Nkonde, « Automated Anti-Blackness : Facial Recognition in Brooklyn, New York », Harvard Kennedy School Journal of African American Policy, 2020, Vol. 26., p. 30-36. [↩]
- Cette définition a-t-elle d’ailleurs été développée avec comme exigence (parmi d’autres) de valider la première prémisse ou quelque chose de proche ? Peut-être que le but était uniquement de se servir du terme « racisme » afin de décrire un certain type de phénomènes raciaux. Ou bien, qui sait, il était peut-être d’utiliser le terme « racisme » afin d’amener certaines personnes à condamner certains phénomènes raciaux alors qu’ils ne l’auraient peut-être pas fait si on avait utilisé d’autres termes. [↩]
- Cf. L. Blum, op. cit., p. 186n76 pour la définition la plus fortement moralisée. [↩]
- Cf. V. Aubert, Dis, c’est quoi le racisme ?, op. cit., p. 74-76 pour une illustration des « règles du jeu » lorsqu’une accusation de racisme systémique est faite au moyen de ces sens plus riches. [↩]
- A côté de l’égalité parfaite, le standard pourrait être que les inégalités raciales ne soient pas trop importantes, qu’aucun groupe racialisé ne tombe en dessous d’un certain seuil ou bien que le groupe racialisé le moins bien loti soit le mieux loti possible, etc. Il pourrait aussi varier selon ce qui est distribué́. [↩]