la vidéosurveillance algorithmique et la prédiction des comportements à risque lors de méga-événements : le cas des Jeux olympiques de Paris 2024

Print Friendly, PDF & Email

Que nous révèle l’expérimentation de la vidéosurveillance algorithmique (VSA) sur la prédiction des comportements à risque ? Une réflexion de Madeleine Donnelly.

Lors de l’inauguration du premier Centre d’Études sur les Technologies de Surveillance(CEThics), en France le 27 novembre 2023, une question a été soulevée à la suite de la conférence d’Olivier Aïm : comment pouvons-nous expliquer la difficulté à saisir les aspects de la surveillance après Foucault et Deleuze et dans les « Surveillance Studies » ? En d’autres termes, que révèle cette lacune dans nos difficultés à conceptualiser la surveillance alors que nous tentons de saisir les aspects de ses diverses expressions, à la fois visibles et invisibles dans nos sociétés contemporaines ? Quelles transitions et transformations liées aux techniques de surveillance peuvent nous aider à contextualiser et à conceptualiser l’un des débats les plus controversés en France dans la perspective des Jeux olympiques et Paralympiques 2024, à savoir la question de la crainte de la « généralisation de la surveillance » ? Quelle est cette surveillance que l’on craint de voir se généraliser ? Que nous révèle l’expérimentation de la vidéosurveillance algorithmique (VSA) sur la prédiction des comportements à risque ?

La position de la France concernant l’Intelligence Artificielle (IA) évolue. En novembre 2023, nous avons assisté au lancement du laboratoire Kyutai à Paris, par Xavier Niel, Eric Schmidt et Rodolphe Saadé, tandis que l’IA Act était encore en discussion au Parlement Européen. Par ailleurs, des grandes entreprises internationales ont déjà implémenté des technologies de vidéosurveillance algorithmique sur le territoire français au cours des dernières années1.

En juillet 2022, à la suite de la consultation publique, la CNIL a publié sa position concernant les conditions de déploiement des dispositifs de vidéosurveillance algorithmique, dit « augmentée », dans les espaces publics et a présenté le cadre légal actuel ainsi que les risques pour les droits et libertés des personnes. La CNIL établit deux ensembles de critères pour distinguer les dispositifs de vidéo augmentée des dispositifs de reconnaissance biométrique tels que la reconnaissance faciale. Le premier critère concerne la nature des données traitées et le second critère se rapporte à l’objectif du dispositif : identifier ou reconnaître une personne. En ce qui concerne les dispositifs vidéo, la CNIL reconnaît que les risques sont plus graduels en fonction des usages qui en découlent. Par exemple, le risque pour les personnes sera plus élevé si une caméra détecte des infractions, ou fait de la publicité ciblée auprès des passants. Au contraire, si un dispositif intelligent vise à établir des statistiques sur la fréquentation d’un métro, le niveau d’intrusion dans la sphère privée sera plus faible. Autrement dit, les caméras augmentées ne sont pas des dispositifs de reconnaissance biométrique si elles ne combinent pas ces deux critères.

Les implications politiques, morales et éthiques sont présentes dans le débat. Qu’allons-nous regarder ? Qu’apprend l’algorithme et quelles sont ses données d’entrée ? Quelles sont les définitions retenues concernant ce qui est caractérisé comme étant « suspect », « risqué » ou « anormal » ?

Selon l’article 7 du projet de loi n° 2023-380 du 19 mai 20232relative aux Jeux olympiques et paralympiques 2024 le but du déploiement de la vidéosurveillance « intelligente » est de « détecter, en temps réel, des événements prédéterminés qui peuvent présenter ou révéler ces risques et les signaler »3. En d’autres termes, l’autorisation de l’expérimentation de lavidéosurveillance intelligente pour assurer la sécurité de l’événement ne prévoitaucune reconnaissance faciale, mais la détection des risques et des comportements suspects.

L’expérimentation se prolongera au-delà des Jeux olympiques, jusqu’au 30 juin 2025. En fait, il est très probable que ce système de surveillance soit généralisé après l’événement sportif. Colin Bennett et Kevin Haggerty4 ont souligné l’idée selon laquelle la sécurité et le risque sont devenus spectaculaires avec des dynamiques de sécurité qui peuvent perdurer dépassant tout événement particulier. Avec la logique de la « gouvernance par la précaution » (precautionary governance)5, la planification dépasse le cadre historique ainsi que la question de la proportionnalité. En d’autres termes, il y a une impossibilité à éliminer complètement le risque d’où la nécessité d’avoir recours à une gouvernance qui fonctionne sur le mode de la précaution.

Mon hypothèse est que du régime de la « gouvernance par la précaution6 », nous passons à un mode de gouvernance basé sur la prédiction, reflet d’une société de plus en plus dépendante de l’anticipation des risques pour guider la prise de décisions. La dépendance croissante envers les « produits prédictifs » pour les « marchés des comportementaux futures7 », sur les prédictions pour les résultats judiciaires8, la santé publique, la gestion environnementale ou encore les dispositions sur la sécurité des Jeux olympiques de Paris 2024, illustre l’adoption généralisée de la prédiction comme nouvel impératif qui permettrait de réduire les risques et les incertitudes dans les processus de prise de décision. Toutefois, cette démarche n’est pas exempte de risques nouveaux, posant ainsi un défi majeur à la gouvernance contemporaine face à l’expansion de la surveillance algorithmique. Cette réflexion sur la surveillance, notamment à travers la lentille de la prédiction et ses implications, est cruciale pour évaluer non seulement les capacités technologiques actuelles mais aussi les implications morales et politiques de leur usage dans des contextes stratégiques comme les Jeux olympiques.

L’expérimentation : un impératif politique pour généraliser les technologies de surveillance ?

La généralisation du vocabulaire de l’expérimentation

Les exemples d’expérimentations en vue de réaliser les promesses de la « ville de demain » et les offres de nouveaux services aux usagers ne manquent pas. Ce constat est partagé en France et à l’international selon les géographes britanniques comme Bulkeley, Castàn Broto et Evans. Ces derniers font même référence à l’expression « governing by experiment » (« gouverner par expérimentation »)9.

L’expérimentation a envahi le vocabulaire concernant la phase de test des technologies dans les espaces publics ces dernières années en France. Paris2connect est identifié comme un « laboratoire d’expérimentation urbaine en plein air6 ». L’expérimentation urbaine consiste à tester un dispositif innovant au stade de prototype dans des conditions réelles dans tous les domaines concernant la ville : bâtiments, ressources, qualité de vie, économie locale, sécurité, environnement, mobilité. En 2015, JC Decaux s’est vu refuser le droit de tester sa méthodologie d’estimation quantitative des flux de piétons à la Défense10. En 2017, ces technologies ont été testées à titre expérimental dans le métro parisien et se sont arrêtées sans évaluation publique connue. Dans le cadre de la gestion de la pandémie de Covid-19 en 2020, des caméras augmentées ont été testées à Cannes11 et dans des stations du métro parisien (Chatelet) pour distinguer les personnes masquées de celles qui ne l’étaient pas, sans faire appel à la reconnaissance faciale. L’expérimentation de la reconnaissance faciale par CISCO dans les lycées (Virtual Security Gate) a fait l’objet d’une forte opposition de la CNIL à Marseille et à Nice12. L’expérimentation de la vidéosurveillance « intelligente » s’est multipliée depuis dans des villes françaises plus modestes comme Toulouse, Valenciennes ou Metz.

En deux mots, la vidéosurveillance algorithmique ne semble pas véritablement faire ses débuts, ces dispositifs sont déjà présents sur le territoire français depuis au moins 2015.

Définir l’expérimentation

Une première définition qui pourrait être donnée à l’expérimentation est un terme technique qui se réfère à une découpe de l’expérience en général, elle renvoie à un mode d’accès à la réalité, un mode d’accès à la connaissance. L’expérimentation est une expérience délibérée qui implique des règles épistémologiques, un cadre théorique et une responsabilité pratique. En ce sens, l’expérimentation fait référence à une tentative de « tester » un principe, une théorie ou de découvrir quelque chose d’inconnu pour en apprendre davantage. Une expérimentation implique un processus contrôlé de réalisation de tests, d’essais ou d’enquêtes pour recueillir des preuves empiriques, valider des hypothèses formulées ou explorer de nouveaux phénomènes.

Notons que si nous poussons cette définition jusqu’au bout, nous pouvons dire que les conditions de contrôle et la conception expérimentale n’ont pas été suffisamment mises en lumière dans le débat public autour de la vidéosurveillance algorithmique en France. Avant de réaliser une expérimentation, une prédiction testable ou une déclaration sur les variables à examiner doit être exposée. Cette prédiction testable n’a pas été rendue publique, le protocole pour le déploiement de ces technologies doit être publié dans les mois suivants le déploiement de ces technologies. En fait, ces technologies ont été utilisées dans divers contextes différents en France et sont maintenant au centre du débat public dès lors que leur généralisation est abordée.

Une deuxième définition de l’expérimentation implique sa conception en tant qu’elle implique la structuration de l’expérience avec une sélection de l’échantillon ou des sujets, où les procédures qui seront suivies sont clairement énoncées et convenues. Les conditions de contrôle se réfèrent à l’expérience qui vise à contrôler certaines variables. Quelles variables sont contrôlées dans le cas de la généralisation des « caméras augmentées » ? Ces variables, peuvent-elles même être contrôlées dans le sens classique où nous définissons une expérimentation dans le cas de ces technologies ? Quels facteurs ont été englobés et quelles variables ont été isolées pour permettre l’expérimentation dans les conditions de validation de l’hypothèse à tester ? L’aspect de l’expérimentation qui est remis en question se réfère uniquement à la collecte de données. Par ailleurs, si l’expérimentation doit être menée sur une base qui peut aller au-delà des jeux et être intégrée dans la loi de manière plus formelle et permanente, le problème de la capacité à répliquer ce type d’expérimentation nécessite que les résultats soient validés et partagés pour être reproduites.

Par exemple, en 2016, la SNCF a réalisé un test avec des caméras intelligentes pour détecter les agressions, ces résultats n’ont pas été partagés ou discutés avec la population française. S’il s’agit d’une expérimentation, nous pouvons estimer que ces technologies n’ont pas fait la preuve de leur efficacité. Par exemple, en 2020, la RATP a expérimenté pendant quelques mois la détection automatique des porteurs de masques dans le métro. La RATP a expliqué au Monde qu’elle n’a pas donné suite au projet en raison d’un « taux de détection moyen de 89% » qui était « inférieur aux observations faites sur le terrain » 13.

Cependant, si l’idée est de ne pas reproduire le chaos après la finale de la Ligue des Champions au Stade de France, le discours est que « si » nous avions englobé la vidéosurveillance algorithmique cela ne serait pas arrivé.

La logique du « Et si ? »14 (« What if ? ») dans l’histoire contrefactuelle est une exploration de l’histoire qui consiste à mettre en jeu un effet de variation hypothétique dans le mode de « et si l’histoire ? ». Cette logique a donné lieu à des explorations littéraires ou utopiques jusqu’au XIXe siècle. Au tournant du XXe siècle, lorsque les historiens se sont emparés de cette histoire contrefactuelle et l’ont faite instrument non pas d’exploration des possibilités, mais de confirmation de l’importance d’un phénomène donné. Par exemple : « Et si le chemin de fer n’avait pas été inventé, quelles auraient été les conséquences sur la croissance économique des États-Unis ? ».

Explorer de nouvelles méthodes pour éviter les erreurs passées peut être perçu comme risqué, surtout lorsqu’il s’agit de surveiller une population aussi vaste. En effet, le taux d’erreur dans de telles expérimentations pourrait être significatif. Bien qu’une expérimentation puisse échouer et ne pas offrir la meilleure « solution »15 les données seraient néanmoins collectées, analysées, et intégrées dans des processus prédictifs. Il est donc crucial de discuter des alternatives pour éviter d’être précipités dans un processus décisionnel limité et de ne pas être réduits à cette unique stratégie pour la planification et la mise en œuvre des jeux.

Nous suggérons de revisiter la grande métaphore souvent utilisée pour décrire divers aspects de la surveillance. Notre objectif n’est pas de nous limiter à cette métaphore pour comprendre la surveillance dans son lien avec la prédiction, mais plutôt d’examiner si elle peut encore nous offrir des éclairages pertinents pour comprendre l’expérimentation en cours.

Le « Panopticon », un lieu privilégié pour l’expérimentation

Une des grandes métaphores qui a été largement reprise pour appréhender notre situation actuelle au sein des Surveillance Studies est celle du Panopticon de Jeremy Bentham telle qu’elle a été employée par Michel Foucault dans Surveiller et punir, Naissance de la prison, 1975. Le troisième chapitre de Surveiller et punir, intitulé, le Panoptisme, s’ouvre sur la prise en compte du règlement mis en place à la fin du XVIIe siècle, indiquant les mesures à considérer dans le cas de la peste (à la différence du pouvoir répondant à la lèpre) qui est un exemple qui sera repris dans la qualification du biopouvoir au début de la leçon du 11 janvier 1978, Sécurité, territoire, population.

Rappelons brièvement l’exposition de la forme architecturale du Panopticon chez Foucault :

 [ …] On connaît le principe : à la périphérie un bâtiment en anneau ; au centre, une tour ; celle-ci est percée de larges fenêtres qui ouvrent sur la face intérieure de l’anneau ; le bâtiment périphérique est divisé en cellules, dont chacune traverse toute l’épaisseur du bâtiment ; elles ont deux fenêtres, l’une vers l’intérieur, correspondant aux fenêtres de la tour, l’autre, donnant sur l’extérieur, permet à la lumière de traverser la cellule de part en part. Il suffit alors de placer un surveillant dans la tour centrale, et dans chaque cellule d’enfermer un fou, un malade, un condamné, un ouvrier ou un écolier […]16.

Le Panoptique est une organisation spatiale qui s’est d’abord retrouvée dans le cadre de la prison. Cette organisation assure la possibilité d’une surveillance continue et généralisée des détenus. Cette architecture isole et enferme les individus qui sont différenciés, classés, comparés, examinés : « l’examen intervertit l’économie de la visibilité dans l’exercice du pouvoir6. »

Foucault décrit deux tendances relatives à la discipline qui se développent au XVIIIe siècle. Parmi ces deux tendances, Foucault décrit l’essaimage des mécanismes disciplinaires, où les mécanismes tendent à « sortir des forteresses closes où ils fonctionnaient et à circuler à l’état libre, les disciplines massives et compactes se décomposent en procédés souples de contrôle, qu’on peut transférer et adapter17. ». En plus de pouvoir s’adapter à différentes institutions, (la prison, l’école, l’hôpital…), les mécanismes disciplinaires semblent pouvoir s’adapter en circulant à l’état libre. Cette circulation à l’état libre, et cette notion de transposition au-delà des limites spatiales, ont été reprises au sein des Surveillance Studies.

Le Panoptique a en vue de devenir une fonction généralisée et diffuse dans tout le corps social, et va permettre de penser en plus de la moralisation des conduites, une finalisation des comportements. Cette idée est présente dans l’exemple du cas de l’atelier chez Foucault :

La discipline d’atelier, tout en demeurant une manière de faire respecter les règlements et les autorités, d’empêcher les vols ou la dissipation, tend à faire croître les aptitudes, les vitesses, les rendements, et donc les profits ; elle moralise toujours les conduites mais de plus en plus elle finalise les comportements et fait entrer les corps dans une machinerie, les forces dans une économie18

Nous pouvons noter que Foucault interprète le Panoptique pour décrire certains aspects du pouvoir disciplinaire au XIXe siècle que nous avons mentionné précédemment. Avec le pouvoir disciplinaire, nous assistons à une automatisation de la surveillance avec toute une série d’expérimentations, qui incluent des expérimentations de modification des comportements humains pour produire des effets spécifiques : « Côté laboratoire, le Panopticon peut être utilisé comme machine à faire des expériences, à modifier le comportement, à dresser et redresser les individus. […] Le Panopticon est un lieu privilégié pour rendre possible l’expérimentation sur les hommes, pour analyser en toute certitude les transformations qu’on peut obtenir sur eux. »19. Cette idée d’observer, d’expérimenter et de modifier les comportements est étendue à la vie quotidienne des individus : « Le Panopticon au contraire doit être compris comme un modèle généralisable de fonctionnement ; une manière de définir les rapports du pouvoir avec la vie quotidienne des hommes, à faire des expériences, à modifier le comportement, à dresser et redresser les individus. […] c’est en fait une figure de technologie politique qu’on peut et qu’on doit détacher de tout usage spécifique20. ».

L’autonomisation de la surveillance est pensée sous le mode de l’intégration du regard des surveillants sur les individus, d’une intériorisation de la possibilité d’être surveillé à tout instant avec l’image du regard omniprésent, partout en éveil :

[…] l’effet majeur du Panoptique : induire chez le détenu un état conscient et permanent de visibilité qui assure le fonctionnement automatique du pouvoir. Faire que la surveillance soit permanente dans ses effets, même si elle est discontinue dans son action ; que la perfection du pouvoir tende à rendre inutile l’actualité de son exercice ; que cet appareil architectural soit une machine à créer et à soutenir un rapport de pouvoir indépendant de celui qui l’exerce ; bref que les détenus soient pris dans une situation de pouvoir dont ils sont eux-mêmes les porteurs.21.

La pensée de la sécurité est devenue centrale dans la réflexion sur la notion de risque et de la probabilité avec un intérêt particulier porté à l’emploi des statistiques (démographie). Cependant, il semblerait que la probabilité ne puisse pas être réduite à la prédiction et qu’il pourrait sembler maladroit de transposer l’approche contextualisée de Foucault une lecture d’une pensée des techniques et des technologie22.

Augmenter les drones : combiner l’efficacité des drones avec des caméras augmentées

Les drones sont un exemple de nouvelles technologies pertinentes dans la prise en compte des techniques de ciblage, de traçage et d’enregistrement, on peut dire qu’il y a un dédoublement de la fonction d’enregistrement puisque la surveillance est capable de produire un film de tous les moments de nos vies. A partir d’une lecture de Foucault, Grégoire Chamayou montre que « […] la surveillance optique ne se limite pas à un contrôle en temps réel. Elle se double d’une fonction très importante d’enregistrement et d’archivage […]. L’idée derrière la notion de surveillance persistante est de filmer une ville entière afin de suivre les mouvements de tous les véhicules et de toutes les personnes qui s’y trouvent23 ».

Par-là nous pourrions émettre l’hypothèse selon laquelle si ces caméras dites intelligentes ou augmentées (vidéosurveillance algorithmique) échouent à détecter, cibler, prédire les comportements suspects ou à risque alors avec le redoublement du film de nos vies rendues possibles par les drones le pouvoir prédictif ne fera que s’affiner.

Par ailleurs, si le croisement des données n’est pas autorisé, les drones le sont. Or, les masses de données récoltées en tant que film de nos vies quotidiennes seront bien traitées algorithmiquement. En d’autres termes, s’agirait-il d’affiner l’augmentation pour mieux prédire le comportement risqué ou dangereux ?

Nous retournerons plus en profondeur à cette distinction conceptuelle entre le comportement risqué et le comportement dangereux, ou le risque et le danger, mais d’abord nous proposons de revenir à l’expérimentation en tant qu’il ne s’agit plus de penser la scientificité, mais bien l’expertise qui repose la question de la possibilité d’une expérimentation collective.

De l’expérimentation dans les pratiques scientifiques à la prise de décision confiée aux experts : repenser la possibilité d’une expérimentation collective ?

Dans le cadre des terminologies de ce que Morozov appelle « l’idéologie intelligente »24 qui a évolué et englobé une grande quantité de technologies différentes, la plupart n’ont pas servi à détecter et analyser le comportement humain de manière adéquate. En fait, nous pourrions soutenir qu’il s’agit seulement d’améliorer ces technologies et non tant d’en « faire l’expérimentation ». Les changements techniques dans l’utilisation du vocabulaire expérimental autour de « l’idéologie intelligente », utilisant des « caméras pilotées par algorithmes », des « caméras intelligentes » ou des « caméras numériques », rendent difficile la conceptualisation de ce qui est discuté en négligeant le fait que le public n’est pas inclus dans une consultation ou une discussion sur la mise en œuvre et la généralisation de ces technologies. « Les caméras intelligentes » et le fait qu’ils soient « en temps réel » constituent une sorte de redondance ou de tautologie selon Morozov. Tout se passe comme si nous allions un pas plus loin de ce que Morozov a identifié comme la « vague d’euphorie intelligente »25 avec un rebranding des composants essentiels de la ville intelligente, où il ne s’agit pas d’intelligence mais d’algorithmes qui dirigent la prise de décision, et d’une intelligence autonome pour aider les « pas si intelligents » à prendre les meilleures décisions, en faisant les meilleures prédictions.

En plus d’éclipser la population, nous pourrions soutenir que le vocabulaire utilisé suit dans la volonté de rassurer le public sur le déploiement de ces technologies dans un test contrôlé à réaliser au nom de la sécurité. Si ceci est un discours en vue de rassurer, cela nous amène à questionner non seulement comment nous définissons un comportement anormal, suspect ou à risque, mais cela réintroduit également la question centrale de la confiance des populations et du public envers le gouvernement. Au-delà de l’idée du consentement, il y a l’idée de la participation collective et de l’expérimentation du public considéré comme connaisseurs (knowers)26, qui ne fait pas partie de l’enquête27. En suivant le pragmatisme de Dewey, le savoir serait subordonné à l’expérience. En ce sens, nous pouvons aller au-delà du dualisme du savoir-pratiques ou « expériences ». Autrement dit, le savoir est immanent aux expériences pratiques, ou encore cela signifie que le savoir est plus technique qu’humain au sens où il résout des problèmes et il y a une forme de réévaluation du savoir ordinaire.

 Dewey insiste sur le fait que nous ne pouvons obtenir la démocratie par des moyens non démocratiques, ce dernier pense à la démocratie comme une coparticipation sociale, le cœur de la démocratie est l’expérimentation, nous devons réévaluer la conceptualisation de l’expérimentation qui est utilisée pour déployer les technologies de surveillance pour réintroduire une vue expérimentale sur la résolution de problèmes pratiques en défendant l’intelligence collective et en développant des habitudes démocratiques, la démocratie comme force créatrice28.

Le lien entre démocratie et savoir a été réintroduit dans le débat public à travers le prisme des experts : la pandémie, la crise écologique, où le transfert du pouvoir du peuple est entre les mains des experts, reposant la question classique du lien entre la vérité et la démocratie. Le débat sur l’appel aux experts a été réintroduit par Barbara Stiegler en 201929, qui réinvestit le débat entre Walter Lippmann et John Dewey en 1938 dans le climat actuel. Une des questions principales de ce débat concernait la justification épistémologique de la démocratie. En ce qui concerne le déploiement et la généralisation des dispositifs et systèmes de surveillance, sommes-nous réellement dans ce que Dewey appelait l’« injustice épistémique », dans la mesure où ils sont définis comme des injustices que les individus subissent en tant que sujets de savoir, connaisseurs ? Au-delà de ce que nous subissons en tant que sujets de droit, il y a aussi ce que nous subissons en tant que connaisseurs (knowers).

Pouvons-nous encore penser le savoir à travers le prisme de l’interaction entre la prédiction et la gouvernementalité ?

Comportement suspect, dangerosité et risque

Comportement suspect

Un comportement suspect peut se manifester de plusieurs manières. Premièrement, il peut s’agir d’une personne se trouvant dans un lieu interdit, comme le passage par une porte qui ne lui est pas autorisée. Deuxièmement, le comportement suspect peut être indiqué par les objets qu’une personne transporte ou laisse derrière elle, comme des bagages oubliés. Nous pourrions nous interroger sur le mode d’existence de ces objets qui signalent une menace potentielle ou un comportement dangereux. Souvent, ce sont les objets qu’une personne porte qui révèlent un comportement suspect, surtout lorsque ses actions ne correspondent pas aux attentes normatives associées à un espace ou un moment donné. Un comportement suspect peut aussi se traduire par une sensation, un sentiment d’incongruité face à une scène qui se déroule devant nous. Enfin, pour qu’un comportement soit jugé suspect, il doit être observable : les signes de malaise, comme une personne qui semble éviter les caméras de surveillance, peuvent la rendre suspecte.

Un suspect évoque une présomption de vérité sans preuve formelle, nourrissant le doute sur la réalité des faits. Ce sont souvent les objets portés ou laissés par une personne qui indiquent que son comportement pourrait être dangereux et donc suspect. De manière générale, le comportement peut désigner la façon dont nous agissons ou interagissons avec les autres, mais il peut aussi concerner des animaux, des objets, ou même le fonctionnement d’une machine. Quels types de comportements sont considérés comme risqués dans un environnement surveillé ? Un comportement à risque, d’un point de vue social, est souvent perçu comme socialement inapproprié et susceptible d’entraîner des conséquences négatives. Cela inclut des actions telles que la conduite dangereuse, les bagarres ou la violence. Plus largement, un comportement à risque peut désigner des actions qui exposent autrui à un danger ou à un risque significatif de dommage.

Lors des Jeux olympiques, les comportements jugés suspects sont souvent assimilés à des actions anormales, allant d’une personne immobile au sol à des objets ou des personnes présents dans des zones où ils ne devraient pas être. La complexité survient lorsqu’il s’agit de distinguer la nature suspecte d’un comportement, qui peut rapidement être interprétée comme anormale ou dangereuse.

« Dangerosité » et risque

Autant qu’on sache, la loi punit un homme pour ce qu’il a fait. Mais jamais pour ce qu’il est. Encore moins pour ce qu’on soupçonne qu’il pourrait être ou devenir. […] et voilà que maintenant la justice pénale, de plus en plus, s’intéresse aux gens dangereux, elle fait de la dangerosité une catégorie, sinon punissable, du moins susceptible de modifier la punition […] « On est en train de créer l’infraction psychologique, le crime de caractère. Je te punis car tu n’es pas comme il faut. Raisonnons un peu. Si la dangerosité est une possibilité de délit ou d’infraction, aucune loi n’autorise à punir une simple virtualité30.

Foucault rend très clair que gérer la population ne signifie pas que la discipline a été éliminée. Gérer la population ne signifie pas simplement gérer la masse collective de phénomènes ou simplement les gérer au niveau de leurs résultats globaux ; gérer la population signifie la gérer en profondeur, avec finesse et en détail. En 1978, Foucault est revenu sur une clarification du cours qu’il aurait souhaité donner qui ne s’intitulerait non pas Sécurité, Territoire, Population, mais une Histoire de la Gouvernementalité. Quesnay aurait fait apparaître le « gouvernement économique » qui, selon Foucault, est une tautologie, puisque « […] L’art de gouverner est précisément l’art d’exercer le pouvoir sous la forme et selon le modèle de l’économie 27 ».

Foucault a noté l’importance de prendre en compte la probabilité et les statistiques dans son analyse en prenant au sérieux la notion de sécurité : « L’espace propre à la sécurité renvoie donc à une série d’événements possibles, il renvoie au temporel et à l’aléatoire, un temporel et un aléatoire qu’il va falloir inscrire dans un espace donné.25 ». A notre sens, avec l’avènement des technologies numériques, la notion de probabilité en termes strictement statistiques, dans un sens réduit, tend de plus en plus vers la notion de prédiction. La probabilité implique le « voir » mais pas le « dire » qui appartient à la prédiction. En d’autres termes, même avant de prendre en compte le fait de savoir à l’avance ce qui va se passer, il y a une considération du « dire à l’avance ».

Comment pouvons-nous penser la transition de la prévision du comportement (prévision et probabilité) vers les techniques de prédiction lorsque les différentes conceptions des prédictions sont souvent assemblées et non clarifiées ?

Plus encore, si nous tendons vers une prédiction de plus en plus affinée des comportements, cette prédiction réduira le risque, mais ne l’éliminera pas. Les changements dans la nature des risques modifient la façon dont les populations agissent et réagissent. Comment repenser le lien entre prédiction et risque qui a été transformé dans la singularité des contextes historiques et des ruptures historiques ? En effet, nous savons que dès l’avènement des statistiques, il s’agit plutôt de penser la probabilité, le hasard et les chances dans une pensée de la vie mais surtout dans celle de la mortalité. Au XVIIe siècle émerge les premiers tableaux de mortalité en même temps que de grands progrès en physique et en mathématiques ont vu le jour. L’idée était déjà de collecter des données et de les analyser avec sophistication notamment dans l’utilisation des statistiques agricoles et des prévisions météorologiques. Au XIXe siècle, le risque est pris au sérieux par les assurances puis par la finance où le client est lui-même perçu comme un mauvais risque. Dans une tentative de saisir certains traits de notre actualité, les avancées dans le développement des processus analytiques de plus en plus sophistiquées utilisant l’apprentissage automatique et l’intelligence artificielle semblent avoir encore déplacé le rapport aux risques. La question devient alors celle de savoir : comment l’ère de la prédiction crée des tensions, des conséquences inattendues et des réalités imprévues ? En d’autres termes, dans la réduction des risques d’autres risques semblent émerger. Il semblerait que nous ne pourrions qu’en saisir certains effets en tant que la démocratie est elle-même pris dans une symétrie de modèle qui se déploie avec les prédictions.

Probabilité et prédiction : quels enjeux dans la conceptualisation de la surveillance contemporaine ? (Questions de recherche en cours)

Michel Foucault n’a pas seulement été l’un des premiers à élaborer des réflexions marquantes sur la surveillance, il a également perçu toute une série de phénomènes de décalages, de transitions et de transformations ainsi que des formes de continuités et de discontinuités dans l’histoire. A partir de cette approche, nous tentons de rendre compte d’une conceptualisation de la surveillance dans son lien étroit avec la prédiction. Foucault ne traite pas de la prédiction du comportement, mais plutôt de la probabilité et de la prévision des comportements. La prédiction n’est pas non plus une réappropriation de l’approche béhavioriste dans la lecture de B.F Skinner31 par Shoshana Zubof32. Un travail de recherche qui rend compte des traces, des contextualisations et des conceptualisations de la prédiction, doit être pris au sérieux afin d’élaborer une conceptualisation de ce que serait la surveillance contemporaine. Depuis la fin des années 1980, il semble qu’un certain nombre d’études aient tenté de qualifier et de rendre compte de la surveillance. Les Surveillance Studies prennent Michel Foucault et Gilles Deleuze pour les penseurs paradigmatiques de la surveillance. Néanmoins, cela peut être questionné dans la mesure où les réappropriations ne rendent pas toujours compte des contextes historiques en question ni de la singularité de pensées. Pour comprendre comment nous pouvons conceptualiser la surveillance, en plus de l’essor d’Internet et des nouvelles technologies, ce qui n’a pas été abordé sont les traces, les discontinuités dans l’histoire. Une des transformations que j’identifie est le passage de la probabilité et de la prévision à un principe directeur de prédiction questionnant cette transformation de la causalité en corrélations. Dans les dernières années de sa vie, Foucault revient lui-même sur ses analyses précédentes montrant que nous n’étions déjà plus dans cette surveillance qu’il a exposé dans les années 1975-1976.

Le travail interdisciplinaire entre la philosophie et le droit de Thomas Berns, Bernard Stiegler et Antoinette Rouvroy soulève les enjeux du régime de gouvernementalité algorithmique33, d’un monde social qui serait basé sur le traitement algorithmique des données massives plutôt que sur la politique, le droit et les normes sociales. Il s’agirait de penser l’élimination de l’expérience de la contingence en pensant une forme d’hyper-contingence où tout ne deviendrait que corrélation et a-normativité.

Notre recherche vise à contribuer aux défis de la « gouvernementalité algorithmique » en proposant une réflexion sur le rôle de la prédiction dans nos sociétés démocratiques. En d’autres termes, la prédiction n’est pas seulement vue comme une forme de prophétie ou le « meilleur devin » supposant que quelque chose va « probablement » se produire, la prédiction consiste à dire que quelque chose va se produire et à établir des techniques pour réduire la certitude et formaliser les effets prédéterminés. Même si nous suivons l’approche de la surveillanceliquide34, la causalité liquide devenant de simples corrélations, il semble y avoir quelque chose qui est à démontrer de manière non-causale comme nous définissons classiquement la causalité et cela ne nous dit pas grand-chose sur la prédiction.

Néanmoins, il a été démontré mathématiquement35 que la théorie philosophique qui démontre que les corrélations remplaceraient la causalité est fausse tout en concluant qu’aucune théorie n’a encore été prouvée assez valable pour se passer complètement de l’expérimentation. La prédiction et les corrélations semblent être analysées en prenant en compte l’analyse classique de la symétrie entre explication et prédiction36, alors que j’essayerai de démontrer que la prédiction ne tend plus à expliquer.

Si des corrélations fallacieuses ne peuvent fournir des évolutions sur des comportements futurs dans les bases de données aléatoires ou non aléatoires, que pouvons-nous comprendre l’adoption généralisée de la prédiction comme moyen d’atténuer les risques et les incertitudes dans les processus de prise de décision dans le judiciaire, le sécuritaire et plus intimement dans nos vies quotidiennes ?

La prédiction suppose le dire, les discours au sens foucaldien. En d’autres termes, nous pourrions émettre l’hypothèse selon laquelle le problème de la crainte de la généralisation de la surveillance dans le cadre des Jeux olympiques se concentre sur des mouvements et des gestesqui en réalité ne devraient pas être minimisés en termes de risques par rapport à la reconnaissance faciale par exemple. Les prédictions qui sont à l’œuvre dans les mécanismes de la surveillance, et plus globalement dans l’imbrication des différentes expressions dans nos sociétés, sont à prendre en compte dans une problématisation historique plus profonde37 de celle de l’expression de ces risques.

Plus encore, à quels risques émergents sommes-nous et serons-nous confrontés face à l’accroissement des pouvoirs prédictifs dans le dépliement des technologies de surveillance algorithmique dits « augmentés » ?

Notre recherche s’est penchée sur la prolifération et les implications potentielles de la vidéosurveillance algorithmique (VSA), particulièrement dans le contexte des préparations des Jeux olympiques et Paralympiques de 2024 à Paris. Les craintes concernant la généralisation de la surveillance se cristallisent autour de la transition de la surveillance traditionnelle vers des formes plus sophistiquées et intrusives comme la vidéosurveillance algorithmique qui promettent de prédire des comportements à risque soulevant des risques nouveaux. Nous avons souligné deux questions principales : quelle est cette surveillance que l’on craint de voir se généraliser ? Que pouvons-nous dire de l’expérimentation de la vidéosurveillance algorithmique et de la prédiction des comportements à risque ?

Nous avons identifié plusieurs transformations clé dans l’approche de la surveillance. Premièrement, la transition de la probabilité à la prédiction généralisée souligne un changement paradigmatique dans notre manière de concevoir la sécurité et la surveillance. Cette évolution pose de sérieux défis éthiques et juridiques, notamment en termes de respect de la vie privée et de potentialités de discrimination prédictive. Pour apporter un éclairage sur la crainte de la généralisation de la surveillance dans nos sociétés démocratiques en prenant en compte le cas des Jeux olympiques et Paralympiques 2024, nous avons proposé des éclairages conceptuels afin de mettre en lumière les implications de la prédiction dans ses différentes expressions et son rapport aux risques et notamment à l’irruption de risques nouveaux. Notre analyse a révélé que les défis à conceptualiser la surveillance découlent de son intégration profonde et souvent imperceptible dans le tissu de la vie quotidienne et de son évolution vers des formes de contrôle plus diffuses et technologiquement sophistiquées.

Deuxièmement, le concept d’expérimentation soulève la question de l’introduction des technologies telles que la vidéosurveillance algorithmique et son impact sur le droit à l’expérience individuelle et collective.

Nous avons souligné que les initiatives d’expérimentations ne sont pas isolées, mais font partie d’une tendance mondiale vers des villes intelligentes où la surveillance devient à la fois omniprésente et technologiquement avancée depuis au moins 2011 avec le dépôt de la marque Smarter Cities par IBM et les projets de transformations de la gestion de la ville vers une ville intelligente où règne ce que nous pourrions appeler l’« impératif de l’expérimentation ».

A quelques mois des Jeux olympiques, de nouvelles expérimentations sont en cours comme celles autorisées pour la SNCF et la RATP du 19 au 22 avril 2024. A Lyon, une demande de révision du cadre règlementaire au Premier ministre a été effectuée en mars 2024 pour tester la vidéosurveillance algorithmique sur une durée de deux ans au nom du « droit à la sécurité »38. Si la vidéosurveillance algorithmique vient à être normalisée et intégrée dans ce qui est revendiqué comme le « droit à la sécurité », cela ne semble pas aller sans la prise en compte de risques nouveaux pour les droits individuels allant de la vie privée et au droit à l’expérience. Nous entendons l’expérience en termes d’expérimentation au sens où que Foucault l’a posé dans les années 1970 dans des termes politiques et collectifs. Ce dernier désigne un moment de transformation à travers différentes expériences de luttes, de résistances ainsi que des processus de subjectivation et de transformation de soi.

 La question cruciale qui se pose est la suivante : comment repenser une expérimentation collective tout en prenant en compte l’interaction entre la prédiction, l’irruption de nouveaux risques et la gouvernance tout en pensant les transformations du droit à la sécurité à travers le déploiement des technologies de vidéosurveillance algorithmiques ? Pour espérer répondre à cette question, il faudra avoir collectivement la volonté de repenser les fondements de notre engagement envers la sécurité et la liberté dans nos sociétés démocratiques.

 

==================

NOTES

  1. http://francetvinfo.fr/economie/emploi/metiers/armee-et-securite/reconnaissance-faciale-les-experimentations-se-multiplient-avant-les-j-o-paris_4095193.html[]
  2. https://www.legifrance.gouv.fr/jorf/article_jo/JORFARTI000036742954.[]
  3. https://www.vie-publique.fr/loi/287639-jo-2024-loi-du-19-mai-2023-jeux-olympiques-et-paralympiques []
  4. Philipp Boyle, Kevin Haggerty, Spectacular Security: Mega‐Events and the Security Complex, Routledge, 2009, p.260[]
  5. Ibid.[]
  6. Ibid.[][][]
  7. Shoshana Zuboff, L’âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir, « Essais », 2018, Zulma, 2022.[]
  8. B.E. Harcourt, Against Prediction, Profiling, Policing, and Punishing in an Actuarial Age, The University of Chicago Press, 2006.[]
  9. H.BulkeleyV. Castán Broto, Government by experiment? Global cities and the governing of climate change, Transaction of the Institute of British Geographers, Volume 38, Issue3, P.361-375, 2012.[]
  10. Délibération n° 2015-255 du 16 juillet 2015 refusant la mise en œuvre par la société JC Decaux d’un traitement automatisé de données à caractère personnel ayant pour finalité de tester une méthodologie d’estimation quantitative des flux piétons sur la dalle de La Défense (demande d’autorisation n° 1833589) « La Commission constate que la société entend mener son expérimentation dans une zone où la connaissance de l’audience des dispositifs publicitaires ne peut être réalisée avec des moyens classiques, et qu’elle souhaite expérimenter sur cette zone de nouveaux dispositifs automatisés propres à assurer cette mesure. »[]
  11. Grâce à un programme de reconnaissance d’images développé par la start-up française Daktalab.[]
  12. https://www.usine-digitale.fr/article/la-cnil-s-oppose-fermement-aux-dispositifs-de-reconnaissance-faciale-[]
  13. https://www.lemonde.fr/en/opinion/article/2023/03/10/france-plans-to-use-ai-surveillance-during-olympics- but-it-has-never-proven-its worth_6018880_23.html#:~:text=In%202016%2C%20the%20French%20railways,100%25%20success%20in%20 identification%20tests.– []
  14. Voir Q.Delvermoz, P.Singaravelou, Pour une histoire des possibles, Seuil, 2016.[]
  15. Voir E. Morozov, Pour tout résoudre, cliquez ici : l’aberration du solutionnisme technologique (2013) trad. française Marie-Caroline Braud, FYP éditions, 2014.[]
  16. M.Foucault, Surveiller et punir : Naissance de la prison, tel, Gallimard, 1975, p.233[]
  17. Ibid. p.247[]
  18. Ibid. p.245[]
  19. Ibid. p.238[]
  20. Ibid. p.240[]
  21. Ibid. p.235.[]
  22. J. Revel, Michel Foucault : repenser la technique, Tracés, 2009, p.139-149.[]
  23. G. Chamayou, Théorie du drone, Paris, La fabrique éditions, 2013, p.60.[]
  24. E.Morozov Francesca Bria, Rethinking the smart city, 2018, p.2 / https://sachsen.rosalux.de/fileadmin/rls_uploads/pdfs/sonst_publikationen/rethinking_the_smart_city.pdf []
  25. Ibid.[][]
  26. J.Dewey, Le public et ses problèmes, (1927), trad. française de Joëlle Zask, Folio Essais, 2005.[]
  27. Ibid.[][]
  28. J.Dewey, Creative Democracy: the Task Before Us, 1939.[]
  29. B.Stiegler, Il faut s’adapter, sur un nouvel impératif politique, nrf essais, Gallimard, 2019.[]
  30. Michel Foucault, Attention : danger, 1978[]
  31. B.F. Skinner, Par-delà la liberté et la dignité, (1971), trad. Anne-Marie Richelle, ed. Robert Laffont, Gallimard,1972.[]
  32. S.Zuboff, L’âge du capitalisme de surveillance. Le combat pour un avenir humain face aux nouvelles frontières du pouvoir, (2018) « Essais » Zulma, 2022.[]
  33. A.Rouvroy, B.Stiegler, Le régime de vérité numérique, De la gouvernementalité algorithmique à un nouvel État de droit, Paris, Revue interdisciplinaire Captures, 2015.[]
  34. D.Lyon, Zygmunt Bauman, Liquid Surveillance, John Willey and sons, 2013.[]
  35. C.Sorin Calude, G. Longo, Le déluge des corrélations fallacieuses dans le big data, Foundations of science, 2016.[]
  36. C. Hempel, Éléments d’Épistémologie, (1966), Armand Colin, 2012.[]
  37. F. Taylan, Une histoire plus profonde du capitalisme, dans Marx et Foucault, 2014, p.17-28.[]
  38. https://www.aefinfo.fr/depeche/709546-la-region-auvergne-rhone-alpes-veut-tester-la-videosurveillance-algorithmique-dans-ses-transports-gares-et-lycees.[]

Madeleine Donnelly, doctorante à l'Université Polytechnique Hauts-de-France-ISTC, mène des recherches sur la prédiction à l'intersection du raisonnement humain et de l'IA, avec un accent particulier sur les implications pour la démocratie. Elle est membre du laboratoire ETHICS EA 7446 et du groupe de recherche CEthics (Centre d'étude sur les techniques de surveillance).
Avant d'entrer dans le monde universitaire, elle a travaillé dans une équipe de recrutement et en tant que consultante en communication à Paris, travaillant avec des startups et des entreprises internationales.