Site icon RAISON PUBLIQUE

Visages dans la foule

Seven individual faces are outlined in red in a rushing crowd in this image about facial recognition technology.

Quels sont les enjeux associés à l’usage des technologies de reconnaissance faciale dans l’espace public à des fins de surveillance? Ce dossier, conçu par Malik Bozzo-Rey, Anne Brunon-Ernst et Claire Wrobel, examine dans une perspective pluridisciplinaire les questions que ces technologies soulèvent, en s’intéressant à ses dimensions juridiques, éthiques, littéraires et artistiques.

La loi relative aux Jeux Olympiques et Paralympiques de 20241 autorise le traitement algorithmique des images de vidéosurveillance dans l’espace public : « A titre expérimental et jusqu’au 31 mars 2025, à la seule fin d’assurer la sécurité de manifestations sportives, récréatives ou culturelles qui, par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes, les images collectées au moyen de systèmes de vidéoprotection […] dans les lieux accueillant ces manifestations et à leurs abords […], peuvent faire l’objet de traitements algorithmiques ». En amont des Jeux, les expérimentations de traitement algorithmique des données se mettent en place dans le cadre de manifestations culturelles ou sportives : les 3 et 5 mars 2024 lors des concerts du groupe Depeche Mode à l’Arena de Bercy2, du 19 au 22 avril 2024 à l’occasion du concert du groupe Black Eyes Peas à la Défense Arena et du match de football PSG-OL3. Cependant, ce traitement des données issues de la vidéosurveillance s’étend sur une période de plus d’un an, débordant ainsi largement le cadre de la sécurisation des Jeux, qui justifait ces dispositions juridiques. Les méga-événements sportifs et culturels ouvrent la voie à la pérennisation de nouveaux dispositifs de surveillance, supplantant, ou peut-être plutôt combinant, la vidéosurveillance traditionnelle avec d’autres technologies telles que les technologies de reconnaissance faciale (TRF).

Les études de la sécurisation de ces événements montrent que les pratiques de sécurité testées et mises en œuvre tendent à être utilisées dans d’autres contextes et créent ainsi, en matière de sécurité, des héritages à long terme4. Le présent dossier se donne pour tâche d’interroger les dispositifs de sécurité mis en place à l’occasion des grands événements sportifs et culturels, en s’intéressant aux théories et pratiques de la surveillance5. La surveillance est entendue ici comme « l’attention ciblée, systématique et routinière portée à des détails personnels à des fins d’influence, de gestion, de protection ou de direction »6.

Lors de la finale au Stade de France de la Ligue des champions de l’UEFA, le 28 mai 2022, les difficultés d’accès aux tribunes, le recours excessif à la force policière et l’agression des fans britanniques, ont placé la sécurité des supporteurs, la criminalité et les attaques terroristes au cœur des préoccupations dans la perspective de la préparation des Jeux, justifiant ainsi l’utilisation de systèmes de contrôle intrusifs et de technologies de surveillance novatrices. Depuis les attentats de Munich en 1972, de New York City le 11 septembre 2001 et de Londres le 7 juillet 2005, la sécurité est devenue un enjeu croissant de l’organisation de méga-événements, à tel point qu’on nomma les Jeux Olympiques de Londres 2012 les « Jeux de la sécurité »7. Les paramètres de tout débat public sur la surveillance de ces méga-événements sont encadrés par ces menaces réelles ou perçues. Comme l’a expliqué le rapporteur des recommandations du Sénat français de mai 2022 en faveur d’une expérimentation de trois ans de ces technologies8, seules des technologies telles que la reconnaissance faciale sont capables de prévenir les risques qui pèsent sur leur organisation. Ces recommandations constituent la base de l’actuelle loi JO.

Bien que la loi exclut tout recourt à la reconnaissance faciale, la « vidéosurveillance intelligente » se présente bien comme un type de TRF. En effet, la loi JO autorise ce traitement algorithmique de données. Hors de l’Hexagone, la Cour constitutionnelle fédérale allemande ne s’y est pas trompée. Elle a jugé, en février 2023, que la loi sur le traitement des données par la police du Land de Hambourg violait la constitution, au motif que « lorsque des données enregistrées sont traitées au moyen d’une analyse ou d’une interprétation automatisée des données, cela constitue une ingérence dans l’autodétermination informationnelle de toutes les personnes dont les données personnelles sont utilisées dans le cadre de ce traitement »9.

Les États n’ont pas attendu ces téchnologies pour mettre au point et en oeuvre de nombreuses stratégies pour surveiller les foules lors d’événements publics. Sous le règne d’Elizabeth I, en raison de troubles fréquents à l’ordre public , qui débutaient souvent aux abords et parfois même à l’intérieur des théâtres, comme ce fut le cas avec l’émeute qui se déchaîna au Swan Theater en 1597, une « culture du renseignement et de la surveillance »10 a émergé, s’appuyant sur un puissant réseau d’espionnage. À la suite d’une émeute qui se produisit lors de la représentation de The Isle of Dogs, pièce qualifiée de « séditieuse » par les autorités11, les dramaturges Ben Jonson et Thomas Nashe sont envoyés en prison. Considérant que le théâtre « encourage la rébellion », le Conseil privé de la Reine (Privy Council) menaça même de fermer tous les théâtres londoniens. Cet exemple montre la crainte persistante des autorités publiques face à la nature potentiellement subversive de tout événement public. Dans nos sociétés contemporaines, les technologies de surveillance ont pour but d’anticiper et prévenir les désordres dans l’espace public.

Si le théâtre peut être le lieu d’atteintes à l’ordre public à la Renaissance, l’histoire plus récente des caméras de surveillance est « inextricablement liée » aux événements sportifs et au phénomène du hooliganisme12. Avec la montée de la culture de la violence parmi les fans de football – les supporters de Liverpool ont par exemple été tenus responsables de l’effondrement d’un mur au stade du Heysel à Bruxelles en 1985, causant la mort de trente-neuf personnes. Margaret Thatcher, alors premier ministre, généralisa la surveillance des foules lors des matchs en Grande-Bretagne. Plusieurs leçons peuvent être tirées de cette première expérience de l’utilisation de la vidéosurveillance lors d’un méga-événement. En premier lieu, le fait de braquer des caméras sur les hooligans modifie la relation de l’individu à l’espace. C’est une expérience que John King a explorée dans son roman The Football Factory, adapté à l’écran en 2004. La littérature montre ici comment la surveillance « modifie la manière dont nous nous sentons et dont nous nous comportons dans les espaces surveillés »13. En second lieu, contrairement à ce que prétendent les responsables politiques, les caméras n’empêchent pas les accidents. Parfois elles les provoquent ou les aggravent. La tragédie de Hillsborough en 1989 montre comment une mésinterprétation des images de vidéosurveillance a conduit les officiers de police à garder les portes verrouillées, afin d’éviter la confrontation entre groupes de supporteurs, causant la mort de 96 personnes14. Les images de vidéosurveillance peuvent aussi être retournées par les surveillés contre les surveillants, comme lorsque les données des caméras ont remis en cause la version policière des événements, jusque-là relayée par les médias, suivant laquelle les victimes auraient été à l’origine de l’accident. L’exemple britannique atteste que les technologies de surveillance développées pour gérer les foules s’étendent ensuite à d’autres contextes ; elles façonnent des expériences subjectives de l’espace public qui peuvent être restituées dans la littérature et le cinéma ; et soulignent que les questions d’interprétation, à la fois par les autorités et dans le discours public, restent cruciales.

De nos jours, la surveillance vidéo est devenue surveillance augmentée par les TRF ; ainsi le périmètre de surveillance alors limité aux spectateurs sur site s’est élargi au-delà des mouvements de foule pour inclure l’événement dans sa globalité. Désormais, une surveillance soigneusement planifiée comprend des stratégies de billetterie, des politiques d’inclusion/exclusion basées sur le profilage, la surveillance de l’espace à des fins commerciales et de maintien de l’ordre, y compris le contrôle des foules et des itinéraires, la gestion des expériences sportives et de consommation des spectateurs, etc. La responsabilité d’assurer, aux spectateurs, officiels, dignitaires et concurrents, un environnement sécurisé dépend de l’événement concerné : elle incombe aux villes hôtes, dans le cas des Jeux Olympiques15, mais à l’organisme organisateur conjointement avec les agences locales chargées de l’application de la loi, dans le cas de l’UEFA16.

Ces stratégies font écho au paradigme de la société de surveillance de Foucault et à l’Homo Sacer d’Agamben17. Se situant dans la continuité du numéro spécial de Surveillance & Society paru en 2014 et intitulé « Surveillance and Sports18 », les articles proposés ici entendent renouveler la perspective sur la question des TRF à des fins de surveillance des foules par une approche interdisciplinaire de la théorie et de la pratique de la surveillance. En effet, comme l’explique l’ouvrage Surveillance, Law and the Humanities, « les sciences humaines s’intéressent moins aux populations ou aux forces qu’aux […] vies et mentalités individuelles. »19

Parmi toutes les technologies utilisées, les TRF sont probablement les plus controversées. Bien qu’elles prétendent offrir un système d’identification, de localisation et de contrôle presque instantané et plus efficace que d’autres technologies biométriques, telles que les empreintes digitales et les scanners de la rétine, la remise en cause des droits fondamentaux, notamment le droit à la vie privée, est bien réelle, et fait craindre une société à l’image du Big Brother d’Orwell. L’utilisation des technologies algorithmiques de vidéosurveillance soulève des problèmes éthiques liés notamment à la protection de la vie privée, au traitement, à l’accès et à la conservation des données générées, aux biais engendrés par le développement même des algorithmes20, à la réduction de l’identité personnelle à des données numériques, mais aussi à la génération d’une addiction aux techniques de surveillance dont le potentiel de dérive autoritaire ne doit pas être minimisé. Les TRF soulèvent des questions fondamentales en éthique : doit-on vraiment les considérer comme axiologiquement neutres et comme de simples outils d’aide à la décision ? Finalement, il s’agit de savoir jusqu’à quel point la société consent à déléguer son pouvoir de décision (et dans quelles circonstances), et si cette même société est prête à accepter au nom de la sécurité un pacte – et non un contrat – entre la sécurité (réelle ou supposée, objective ou subjective) et la technologie.

L’éthique est donc au cœur des problématiques soulevées par les TRF, mais aussi l’esthétique. En effet, le désir de contrôler les foules par le biais de leur visibilisation technologique interroge d’un point de vue esthétique et phénoménologique : une foule peut-elle être considérée comme un agent collectif et perceptif ? L’efficacité de la rationalité statistique, et plus récemment de la rationalité algorithmique, a été interprétée comme forme de perception21, qui tend à reproduire une compréhension désincarnée de la vision, qui dissocie ce que l’on voit de ce que l’on est capable de faire22, subvertissant ainsi radicalement l’expérience esthétique humaine. Si la perception de l’espace est toujours technologiquement médiatisée23, les technologies de contrôle et de surveillance des foules façonnent l’espace même que les foules sont censées occuper24. Ainsi est posée la possibilité de la résistance, en termes esthétiques, qui interroge les espaces disponibles pour obscurcir ou neutraliser ces « visions programmées »25.

Au-delà de cette expérience esthétique, la reconnaissance d’une personne est l’une des expériences les plus significatives de la vie humaine. Elle imprègne l’activité quotidienne, qu’il s’agisse d’interactions sociales ou de la vie numérique. La manière dont le changement technologique est façonné et structuré est donc intrinsèquement ancrée dans les normes et les relations sociétales, qui sont elles-mêmes également affectées par les transformations technologiques. En ce sens, la relation entre la technologie et la reconnaissance faciale peut être considérée comme mutuellement constitutive. Cette relation entraîne au moins deux conséquences principales : les individus sont de plus en plus confrontés à des expériences de reconnaissance intégrées dans la technologie ; les machines sont entraînées à reconnaître et à réagir à des traits pertinents26. Qu’elle soit traitée comme une caractéristique ou comme un résultat du système, la reconnaissance est conventionnellement codifiée comme un phénotype biologique et, historiquement, elle a été représentée comme un fait biométrique, et donc quantitatif et vérifiable27. Cette convention est encore profondément ancrée dans la conception de la reconnaissance automatique des visages et est responsable de la vulnérabilité des communautés non hégémoniques.

Ce dossier examine dans une perspective pluridisciplinaire les questions que ces technologies soulèvent, en s’intéressant à ses dimensions juridiques, éthiques, littéraires et artistiques. Il s’organise autour de quatre parties distinctes, qui ne prétendent pas couvrir toute la richesse des manifestations des TRF dans la surveillance des événements publics. Une première partie pose le cadre juridique du débat contemporain sur les TRF. Caroline Lequesne s’intéresse à manière dont la réglementation européenne connue sous le nom de AI ACT28 prend en compte la protection des droit fondamentaux. Dans l’article suivant, Connal Parsley et Conor Heaney discutent de l’affaire test au Royaume-Uni R (Bridges), qui a permis de tester l’acceptabilité juridique de la surveillance utilisant la technologie de reconnaissance faciale automatique lors de manifestations publiques et de déterminer les conditions dans lesquelles elles peuvent être mises en œuvre. La seconde partie s’ouvre sur l’article de Madeleine Donnelly qui étudie le sens de la prédiction statistique et algorithmique dans le cadre d’une société de surveillance, telle qu’elle a été décrite par Foucault. Gabriele Marino propose ensuite une étude de la manière dont la surveillance par TRF est mise en œuvre dans le cadre d’événements culturels, tels que des concerts. La troisième partie aborde les problèmes soulevés par la reconnaissance faciale. Vincent Aubert, en déclinant les différents sens que peut prendre le concept de racisme, étudie l’impact que ces technologies peuvent avoir sur le profilage racial et les politiques de prévention. Malik Bozzo-Rey interroge ensuite la possibilité d’une éthique de l’anonymat, cet anonymat que Caroline Lequesne présente comme une condition de la démocratie dans son premier article. La dernière partie explore les différentes manières dont l’art a pensé la résistance à la surveillance, que ce soient dans le cinéma dans l’article de Tyler Reigeluth ou dans les installations de Paolo Cirio qui est interviewé par Cristina Voto dans l’article qui clôt le volume.

A l’approche des Jeux Olympiques, qui constitueront à n’en pas douter à la fois une vitrine sécuritaire des dernières technologies disponibles et un terrain d’expérimentation inconcevable en dehors d’un tel événement, nous espérons apporter ici, grâce à une approche pluridisciplinaire, les éléments permettant un débat public serein et éclairé sur les questions de surveillance. Un tel débat, qui ne saurait se soustraire aux analyses que permettent les sciences humaines et sociales, ne peut être réduit à une simple question de sécurité ou de technophobie. Il appelle une réflexion juridique, épistémologique, éthique ou sémiotique des manifestations qui tendent à transformer une société démocratique en une société de surveillance.

Sommaire

 

==================

NOTES

  1. Article 10 de la LOI n° 2023-380 du 19 mai 2023 relative aux Jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions, ci-après « Loi JO ».[]
  2. https://www.lefigaro.fr/actualite-france/jo-paris-2024-cameras-intelligentes-concert-depeche-mode-bercy-20240216[]
  3. La vidéosurveillance algorithmique va faire l’objet de deux nouveaux tests ce week-end en région parisienne (lemonde.fr). Ces dispositifs avaient été initiés à la sortie du confinement à la station Châtelet du métro parisien en 2020, à la suite d’un dispositif similaire déjà déployé sur les marchés de la ville de Cannes (voir La RATP va tester des caméras « intelligentes » pour mesurer le taux de port du masque dans la station Châtelet (lemonde.fr)) ou les autorités de Nice pour contrôler l’accès à un festival de musique.[]
  4. Boyle P, Haggerty KD (2009) “Spectacular security: Mega-events and the security complex”. International Political Sociology 3(3): 257–274; Lindsay, I. (2013). “London 2012: Securing Urban Olympic Delivery”. Sports in Society 16(2) : 223-38.[]
  5. Les articles présentés dans ce numéro sont issus du colloque intitulé : Visages dans la foule : Reconnaissance faciale, surveillance et événements publics (Faces in the Crowd: Facial Recognition Technologies and Monitoring Crowds at Public Events), co-organisé les 7 et 8 décembre 2023 à l’université Paris-Panthéon-Assas par le centre de recherche Law & Humanities rattaché au CERSA, en collaboration avec ETHICS (EA 7446, Université Catholique de Lille) et FACETS (Université de Turin). Les organisateurs tiennent à remercier Prof. Massimo Leone, Armelle Sabatier et Juliette Ringeisen-Biardeaud pour leur soutien.[]
  6. Lyon, David (2007). Surveillance Studies: An Overview. Oxford: Polity Press., p. 14.[]
  7. Mason, Fred (2014). “Watching the Watchers: A Visual Sociology Essay on Control, Security and Surveillance at Olympic Women’s Soccer in Glasgow”. Surveillance & Society 11(4):405- 423.[]
  8. Rapport d’information n° 627 (2021-2022) de MM. Marc-Philippe Daubresse, Arnaud de Belenet Jérôme Durain, fait au nom de la commission des lois, déposé le 10 mai 2022.[]
  9. 1 BvR 1547/19, 1 BvR 2634/20.[]
  10. Bezio, Kristin M.S (2023). The Eye of the Crown. The Development and Evolution of Elizabethan Secret Services, London: Routledge.[]
  11. Dunnum, Eric (2020). Unruly Audiences and the Theater of Control in Early Modern London. London: Routledge, p. 13.[]
  12. McGrath, John E. (2004). Loving Big Brother: Performance, Privacy and Surveillance Space. London and New York: Routledge, p. 25.[]
  13. Ibid., p. 26.[]
  14. Norris, Clive, Moran, Jade and Gary Armstrong (eds) (1998). Surveillance, Closed Circuit Television and Social Control. Aldershot: Ashgate, p. 129.[]
  15. Coaffee, J., Fussey, P. and Moore, C. (2011) “Laminating Security for London 2012: Enhancing Security Infrastructure to Defend Mega Sporting Events” Urban Studies 48(15): 3311-3327.[]
  16. The Guardian, 13 février 2023.[]
  17. Foucault, Michel (1975). Discipline and Punish: the Birth of the Prison, trans. Alan Sheridan. London: Allen Lane (1977) ; Agamben, Giorgio (2016). Homo Sacer; L’intégrale 1997-2015. Paris: Seuil.[]
  18. Warren, I., & Zurawski, N. (2014). Surveillance and Sport. In Surveillance & Society (Vol. 11, Issue 4, p. 354‑359). Queen’s University Library. https://doi.org/10.24908/ss.v11i4.5172[]
  19. Brunon-Ernst, Anne, Jelena Gligorijevic, Desmond Manderson and Claire Wrobel, eds. (2023). Surveillance, Law and the Humanities. Edinburgh: Edinburgh University Press, p. 4-5.[]
  20. Bertail, Patrice, David Bounie, Stéphan Clémençon, Patrick Waelbroeck (2019). Algorithmes: Biais, Discrimination et Équité.[]
  21. Tarde, Gabriel (1895). Les lois de l’imitation. Félix Alcan: Paris ; Pasquinelli, Virilio, “Anomaly Detection : The Mathematization of the Abnormal in the Metadata Society”, Transmediale 2015 ; Halpen, Orit (2015). Beautiful Data. A History of Vision and Reason since 1945. Duke University Press.[]
  22. Merleau-Ponty, Maurice, Signes, Paris : Gallimard, 1960.[]
  23. Virilo, Paul, La machine de vision, Paris : Editions Galiléé, 1988.[]
  24. Lefebvre, Henri (2000). La production de l’espace. Anthropos : Paris.[]
  25. Hui Kyong Chun, Wendy (2011). Programmed Visions. Software and Memory. The MIT Press.[]
  26. Chun, Wendy (2021). Discriminating Data: Correlation, Neighborhoods, and the New Politics of Recognition. Cambridge MA: MIT Press.[]
  27. Leone, Massimo (2022). “Visage Mathematics: Semiotic Ideologies of Facial Measurement and Calculus”. In Danesi, Marcel, ed. Handbook of Cognitive Mathematics, Springer International Publishing, pp.1-26. []
  28. Proposition de Règlement du Parlement Européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle et modifiant certains actes législatifs de l’union, COM/2021/206 final, ci-après « AI Act ».[]
Quitter la version mobile