La vidéo-surveillance algorithmique, un passage à une autre échelle, qui change la nature de la surveillance

Pour l'association "La Quadrature du Net", la VSA, ce nouveau système déjà en phase de test dans plusieurs communes et qui pourrait être généralisé à l'occasion des Jeux olympiques, risque de devenir "un outil de contrôle social, de normalisation de nos comportements dans l'espace public".

Ce mardi 24 janvier, le Sénat examine le projet de loi "Jeux olympiques 2024", qui doit permettre de légaliser certaines mesures liées à l’ordre public, dont la possibilité d’utiliser de l’intelligence artificielle dans les logiciels de gestion des caméras de vidéoprotection connectées.

La vidéo-surveillance algorithmique (VSA) ou automatisée est déjà testée dans de nombreuses communes comme en Île-de-France à Massy (Essonne) ou Aulnay-sous-Bois (Seine-Saint-Denis), où les chefs des polices municipales et les élus en charge de ces questions estiment déjà qu’ils ne pourraient plus s’en passer. La VSA permet de détecter en temps réel et analyser des phénomènes de délinquance à un endroit donné, que l’œil humain ne verrait pas, ou mal, ou trop tard : mouvements de foule avec menaces d’écrasement, gestes agressifs, détection de dépôts de déchets sauvages. Ces logiciels permettent aussi aux maires de concrétiser le concept de "smart city", de villes intelligentes pour mieux gérer les flux de circulation par exemple. La loi interdit en revanche aux polices municipales la lecture en temps réel des plaques d’immatriculation et l’accès aux fichiers police et gendarmerie.

Une technologie sur laquelle les entreprises israéliennes et françaises sont en pointe, mais qui pose tout autant de questions en matière de libertés publiques en démocratie que la reconnaissance faciale, selon la Quadrature du Net. L'association qui lutte contre la censure et la surveillance a lancé une campagne d’information contre l’article 7 de la loi olympique. Entretien avec Noémie Levain, juriste à la Quadrature du Net.

FRANCE INTER : En quoi ces systèmes de vidéo-surveillance algorithmique ou automatisée qui permettent notamment de détecter des comportements à risque ou des agressions seraient-ils problématiques, aussi dangereux que des outils comme la reconnaissance faciale, selon vous ?

NOÉMIE LEVAIN : "C'est l'article 7 de cette loi sur les jeux olympiques qui vise à légaliser ces pratiques de vidéosurveillance automatisée. À la Quadrature du Net, nous étudions ces questions depuis trois ans à travers une initiative qui s'appelle “TechnoPolice”, qui recense les nouvelles technologies policières dans nos villes. Or, la vidéosurveillance algorithmique existe déjà, dans beaucoup de villes de France, en toute illégalité. C'est le cas à Nice, Moirans (Isère), ou encore Vannes (Morbihan). Et encore, il s'agit là de la partie émergée de l'iceberg, car c'est un marché très opaque.

Pour nous, la VSA est aussi dangereuse que la reconnaissance faciale. Elle est basée sur une technologie très similaire, qui vise à analyser des flux d'images par des algorithmes statistiques qu'on aura entraînés sur des données pour reconnaître des événements. Et en fait, la reconnaissance faciale, c'est reconnaître un visage. Là, c'est la même chose, c'est reconnaître des éléments corporels, comportementaux. Donc on analyse les corps, on les classe, on les catégorise.

L'objectif étant de donner cette information à la police qui va automatiser sa prise de décision et donc nécessairement automatiser son contrôle, sa surveillance et sa répression. Donc pour nous, ce n'est pas parce que ce n'est pas lié à l'identité civile que ce n'est pas dangereux. C'est vraiment l'idée de dire qu'on va pouvoir classer qui est normal ou pas normal, ce qui est suspect ou pas suspect. Et ça pose énormément de problèmes politiques, philosophiques, éthiques, puisque personne ne peut décider qui est suspect ou non ! Et c'est juste un outil de contrôle social, de normalisation de nos comportements dans l'espace public."

FRANCE INTER : Les communes qui utilisent déjà ces systèmes et logiciels de vidéosurveillance y voient pourtant un intérêt majeur ?

NOÉMIE LEVAIN : "Il est minime par rapport aux risques énormes que ça pose en termes de société de surveillance. La vidéosurveillance automatisée ou algorithmique est aussi dangereuse que la reconnaissance faciale ou que toute autre forme de surveillance pour la société. En fait, on est vraiment sur un passage à une autre échelle, un changement de nature de la surveillance de masse aujourd'hui en France.

Surtout, ce sont des outils qui vont se focaliser sur une population qui est déjà stigmatisée. Les quelques exemples qu'on a vus à travers notre recherche, c'est que les événements et les comportements soi-disant suspects qui sont censés être détectés, ça va être par exemple quelqu'un qui est statique. On appelle ça le “maraudage”. Généralement, c'est une personne qui mendie. Ça peut aussi être un groupe qui se rassemble, cela peut être quelqu'un qui court, et on sur-représente déjà la délinquance ou en tout cas, on se représente les problématiques dans l'espace public de sécurité alors qu'il y en a ailleurs et qui sont déjà des personnes sur lesquelles on focalise l'attention de la police. On craint donc que cette population soit sur-contrôlée et sur-réprimée."

"Ce qui permet la surveillance de masse, c'est le mythe de l'efficacité"

"Par ailleurs, ces outils alimentent la croyance selon laquelle surveiller l'espace public résoudra les problèmes de sécurité… Alors qu'en fait, les quelques études sorties ces dernières années démontrent l'inutilité des caméras de vidéosurveillance, que ce soit en terme de prévention et même de résolution d'infractions. Plutôt que de prendre un pas de recul et de se dire OK, essayons de traiter les problématiques de sécurité autrement qu'avec de la surveillance, avec des politiques sociales notamment, on va toujours vers la surenchère.

La caméra, ça ne marche pas ? On va en mettre plus. Les caméras 360° ne marchent pas ? On va mettre de l'intelligence artificielle. En fait, ça ne va pas marcher parce que ce n’est pas la solution en termes de politique publique pour faire de la sécurité. Et donc si ça ne marche pas, ça ne sert qu'à une chose, à faire de la surveillance de masse, à réprimer, à donner même à l’État, à la police, un pouvoir de contrôle sur la population. Et aujourd'hui, c'est assez effrayant de voir que la France est vraiment pionnière, en tout cas en Europe, que ce soit politiquement ou économiquement dans la surveillance.

À toujours se dire que s'il y a un problème de sécurité, plutôt que de réfléchir tranquillement, eh bien on va surveiller la population. On va donner des pouvoirs à l'État pour avoir des informations sur la population. Et quand on parle de surveillance de masse, ce n’est pas juste théorique. Il faut regarder les exemples concrets dans l'Histoire et même dans notre Histoire. Qu'est ce qui a permis la surveillance de masse ? C'est du pouvoir, du contrôle, de l'abus et donc le mythe de l'efficacité."

FRANCE INTER : Qu’attendez-vous des débats au Sénat ?

NOÉMIE LEVAIN : "On espère un vrai débat, une vraie prise de conscience déjà dans la société aujourd'hui, puisque c'est un sujet très peu connu. Il y a une volonté de ne pas vraiment expliquer et de faire. Enfin, c'est quand même assez hallucinant qu'une technologie aussi problématique passe dans une loi sur les Jeux Olympiques avec des échéances très courtes et avec cette instrumentalisation aussi de cet événement que sont les Jeux Olympiques par leur dimension exceptionnelle, leur dimension hors du temps.

En fait, ça permet de faire passer des politiques tout aussi exceptionnelles et pourtant problématiques et autoritaires. Nous, on veut vraiment faire prendre conscience à la société de l'existence de ces technologies pour qu'elle s'y oppose. On espère surtout un vrai moment démocratique à l'Assemblée nationale ensuite pour rejeter cet article 7 et interdire la vidéosurveillance automatisée ou algorithmique."

Source : https://www.radiofrance.fr/franceinter/la-video-surveillance-algorithmique-un-passage-a-une-autre-echelle-qui-change-la-nature-de-la-surveillance-1228189 (23/01/2023)