45 lines
No EOL
22 KiB
Text
45 lines
No EOL
22 KiB
Text
Title: CamIA
|
||
|
||
----
|
||
|
||
Maquette: true
|
||
|
||
----
|
||
|
||
Typesetting: false
|
||
|
||
----
|
||
|
||
Correction: false
|
||
|
||
----
|
||
|
||
Author: Corentin Loubet
|
||
|
||
----
|
||
|
||
Typeof: essai
|
||
|
||
----
|
||
|
||
Cover:
|
||
|
||
----
|
||
|
||
Bio:
|
||
|
||
----
|
||
|
||
Text: [{"content":{"text":"<p>Un dispositif artistique pour éprouver la vidéosurveillance algorithmique</p>"},"id":"653fc54a-ffc3-4497-b571-d01ece897be5","isHidden":false,"type":"description"},{"content":{"text":"<p>La loi relative aux Jeux olympiques de Paris 2024, dite loi JO adoptée en 2023, a autorisé l’expérimentation de logiciels de vidéosurveillance algorithmique (VSA) dans l’espace public à l’occasion de grands événements sportifs ou culturels. Concrètement, ces systèmes permettent « l’installation et l’utilisation par la police d’un logiciel qui analyse les images des caméras de vidéosurveillance afin de repérer, identifier ou classer des comportements, des situations, des objets ou des personnes » (La Quadrature du Net, 2024). Initialement prévues jusqu’en mars 2025, ces expérimentations ont depuis fait l’objet de discussions visant leur prolongation, notamment dans le cadre d’une proposition de loi relative à la sécurité dans les transports. Leur déploiement repose sur plusieurs principes juridiques, dont celui du consentement informé des personnes susceptibles d’être observées. Dans ce contexte, et dans la continuité de la campagne Technopolice lancée en 2019 par l’association La Quadrature du Net, le collectif Technopolice Paris-Banlieue (TPB) s’est constitué en mars 2024. Ses activités reposent principalement sur deux axes : la veille et la cartographie des dispositifs de surveillance déployés dans l’espace public francilien, ainsi que la sensibilisation du grand public aux enjeux politiques et sociaux de ces technologies. Cette dernière prend souvent la forme de discussions avec les passant·es dans les lieux concernés par les expérimentations de la VSA. Ces échanges ont toutefois révélé la difficulté de rendre immédiatement perceptibles des systèmes techniques souvent abstraits et invisibles. C’est ainsi qu’est né le dispositif CamIA. Conçu collectivement par des membres de TPB – développeurs, designer et sociologue – il vise à créer une situation permettant de rendre sensibles certains mécanismes de la surveillance algorithmique. Le dispositif prend la forme d’une petite caméra motorisée, posée au sol et reliée à un ordinateur par un câble qui évoque la laisse d’un animal. Mue par une logique propre, la caméra se déplace, scrute l’espace, « cherche du regard » des spectateur·ices intrigué·es. Son comportement légèrement erratique, ses mouvements attentifs et sa taille réduite lui confèrent une apparence presque attachante, empreinte d’une curiosité anthropomorphique. Lorsqu’elle repère un·e spectateur·ice, elle se fige, puis génère à son propos un commentaire qu’elle restitue au moyen d’une imprimante thermique.</p><p>À travers la description de ce dispositif et de son processus de conception, le présent article propose de s’interroger sur une façon de détourner les technologies de surveillance pour les transformer en instruments de sensibilisation critique.</p>"},"id":"6b1447fd-f80c-4700-a49c-30e820a8ee80","isHidden":false,"type":"text"},{"content":{"image":["file://2fmklpcojr0tm6q9"],"alt":"","caption":"","taille":"","classes":""},"id":"5b8078aa-b0c4-43cf-93ce-cebe59bdb6ca","isHidden":false,"type":"image"},{"content":{"image":["file://xpqhwj7hndtjgpf1"],"alt":"","caption":"Photographies de CamIA lors d’une rencontre publique du collectif TPB.","taille":"","classes":""},"id":"17a71619-ff25-4d9e-a195-30031dcb94ed","isHidden":false,"type":"image"},{"content":[],"id":"807c24c6-7795-4e6c-902a-2661b234c648","isHidden":false,"type":"break"},{"content":{"text":"<h3>Contexte et positionnement</h3><h4>Vision sécuritaire « de la ville et de nos vies »</h4><p>La VSA est le fruit de développements sociotechniques historiques. C’est avec l’émergence des États-nations modernes que se développe une volonté d’identification et de contrôle des populations. L’avènement des sociétés disciplinaires, théorisées par Foucault, s’appuie sur le développement et la multiplication des lieux d’enfermement (hôpitaux, asiles, prisons, etc.) qui matérialisent une certaine gestion et exclusion de l’espace public. Le pouvoir sécuritaire quant à lui permet « une régulation et pilotage en temps réel de flux circulant dans des milieux ouverts, <em>via</em> des capteurs et des opérations de coupure et d’ouverture des débits » (Tréguer, 2024). Ces évolutions sont accompagnées de développements technologiques situés. Ainsi, les technologies biométriques actuelles sont pour beaucoup le produit de volontés de mesurer et surveiller les corps et les personnes, notamment dans les colonies des empires européens (Bollenot, 2025). Souvent utilisées dans un premier temps seulement pour la surveillance de certains groupes marginalisés voire criminalisés (personnes colonisées, détenues, psychiatrisées, etc.), des dispositifs tels que le passeport ou le fichage policier se retrouvent progressivement normalisés au sein de toutes les populations des États européens au cours du xx<sup>e</sup> siècle. En même temps, les technologies de l’information se perfectionnent, notamment en raison de leur utilité et leurs usages militaires. Elles permettent ce que Deleuze analyse comme le passage de « l’individu effectivement discipliné, […] à l’individu potentiellement contrôlable » caractéristique de la société de contrôle.</p><p>Cette vision de la sécurité se caractérise par ailleurs par son implémentation souvent autoritaire, dans la mesure où les dispositifs de surveillance évoqués sont généralement déployés sans le consentement du moins informé des citoyen·nes. Pire, ces développements technologiques sont souvent accompagnés d’efforts, de la part des pouvoirs publics et de l’industrie, visant à créer de l’acceptabilité au sein des populations concernées, à l’aide par exemple de narratifs vantant la sécurité et l’ordre que ces systèmes seraient supposément destinés à (r)établir (Tréguer, 2024 ; Régnault et Benayoun, 2020). Ces discours se retrouvent dans les échanges avec des passant·es au cours des observations de terrain effectuées par des membres du collectif TPB. Ainsi, il n’est pas rare d’entendre des personnes admettant par ailleurs être mal ou pas informées sur les expérimentations en cours ou plus généralement la VSA, dirent que « si ça contribue à [leur] sécurité, alors [iels sont] pour ».</p><h4>Capitalisme des données et apprentissage machine</h4><p>Comme tout système algorithmique, le développement de la VSA nécessite l’entraînement de divers algorithmes sur de très vastes ensembles de données. En ce sens, la prolifération actuelle des technologies d’apprentissage machine est en partie rendue possible grâce à l’intense datafication du monde et de nos vies par les acteur·ices du capitalisme de surveillance (Zuboff, 2019). Tant en ligne que hors ligne, grand nombre de produits et solutions technologiques tendent à produire et collecter des données qui par la suite peuvent être vendues ou utilisées pour l’entraînement de solutions algorithmiques qui viendront « augmenter » leurs prédécesseurs. L’accès à ces vastes ensembles de données n’est pas anodin pour les producteur·ices de ces technologies, puisque la performance des modèles algorithmiques est en grande partie indexée sur la qualité des données d’entraînement. Il s’agit donc d’accéder à un volume de données pertinentes, c’est-à-dire aussi proches que possible des conditions d’utilisation des modèles finaux. En d’autres termes, dans le cas de la VSA par exemple, il s’agit pour les entreprises développant ces systèmes de pouvoir constituer des jeux de données de l’espace public tels que ce dernier est capté par les diverses caméras de vidéosurveillance déployées. C’est ce que permettent les expérimentations actuelles autorisées par la loi dite JO. Bien plus qu’un nouveau déploiement technologique, cette nouvelle loi a ainsi permis de livrer des données personnelles et publiques à des entreprises privées, pour leur propre bénéfice.</p><h4>Ancrage artistique : un art de la sur/sousveillance</h4><p>C’est donc face à cette banalisation croissante de la VSA et aux limites ressenties par les militant·es quant à leur impact sur l’opinion publique, que plusieurs membres du collectif TPB ont envisagé la conception d’un dispositif complémentaire aux approches militantes classiques, voué à faire vivre aux individus une expérience personnelle et émotionnelle des enjeux et des risques relatifs à la VSA. Par cette action, les membres du collectif Technopolice s’inscrivent dans une pratique transdisciplinaire de critique de la surveillance au moyen de dispositifs artistiques que les<em> surveillance studies</em> qualifient d’« art de la surveillance ». Plus récemment, Fourmentraux propose la notion d’art de la sousveillance pour désigner des œuvres qui détournent les technologies de surveillance afin d’en révéler les logiques politiques (Fourmentraux, 2023). Inspirée du concept de l’ingénieur américain Steve Mann, cette approche se déploie selon différentes stratégies artistiques visant à révéler, perturber ou reconfigurer les régimes de visibilité contemporains.</p><p>Certaines pratiques visent ainsi à rendre visible l’infrastructure de la surveillance en produisant des formes de « contre-visualité » (Mirzoeff, 2011), comme <em>Watching the Watchers</em> (2013) et <em>Every CCTV Camera</em> (2016) de James Bridle ou <em>MegaPixels</em> (depuis 2017) d’Adam Harvey en collaboration avec Tactical Tech, qui expose les bases de données utilisées pour entraîner la reconnaissance faciale. D’autres projets cherchent à perturber la surveillance dans une logique d’obfuscation (Nissenbaum, 2019), comme <em>How Not to Be Seen</em> (2013) de Hito Steyerl, un tutoriel pour apprendre à devenir invisible. Cette stratégie rejoint également le design adversarial (DiSalvo, 2012), avec des projets visant à outiller les luttes tels que <em>Sentient City Survival Kit</em> (2010) de Mark Shepard, les dispositifs anti-reconnaissance d’Adam Harvey (<em>CV Dazzle</em>, 2010 ; <em>HyperFace</em>, 2016), <em>The Camera-Shy Hoodie</em> (2023) de Mac Pierce ou dans un registre plus contextuel, le projet <em>Mij (The Fog)</em> (2025) développé avec le Rojava Center for Democratic Technologies pour dissimuler des véhicules face à des missiles à tête chercheuse. D’autres œuvres choisissent au contraire d’exagérer la surveillance pour en révéler l’aberration, comme <em>ImageNet Roulette</em> (2019) de Trevor Paglen et Kate Crawford ou dans un registre plus immersif, les postes de surveillance édulcorés de la série <em>Security by Julia</em> (à partir de 1988) de Julia Scher ou au contraire excessivement répressifs de <em>Border Patrol</em> (1995) de David Rokeby et Paul Garrin. Samuel Bianchini avec les <em>Discontrol Party </em>(2009-2018) propose quant à lui une version plus interactive et ludique. Une modalité que certains projets revendiquent explicitement, comme <em>Point d’Orgue</em> (2009) de Thierry Fournier ou <em>Situational Compliance</em> (2025) de Matthew Biederman et Lucas Paris. D’autres installations telles que <em>ACCESS</em> (2003) de Marie Sester ou <em>Nosy</em> (2006) et <em>Mojo</em> (2007) de Christian Moeller s’inscrivent par leurs modalités d’interaction dans la lignée d’installations cybernétiques telles que <em>The Senster</em> (1970-1974) d’Edward Ihnatowicz. Enfin, certaines œuvres cherchent à humaniser ou fragiliser les dispositifs de surveillance afin de susciter empathie et réflexion critique, comme <em>(In)Security Camera</em> (2003) de Ben Chang, Silvia Ruzanka et Dmitri Strakovski, où une caméra détourne le regard lorsqu’elle croise celui d’un·e spectateur·ice, ou <em>Pan, Tilt et Zoom</em> d’Aram Bartholl, où des caméras PTZ posées au sol apparaissent démunies, telles des tortues renversées. Ces différentes approches témoignent d’une ambiguïté inhérente à la surveillance qui, selon Anders Albrechtslund et Lynsey Dubbeld, possède une aura « à la fois séduisante et inquiétante » (Albrechtslund et Dubbeld, 2005).</p><p>Enfin, que ce soit par leur mise en scène attendrissante, leur présentation selon des modalités ludiques ou au contraire autoritaires, ou encore leur caractère <em>adversarial</em>, un certain nombre de ces dispositifs peuvent être rapprochés de la tradition des objets à comportements (Bianchini et Quinz, 2016). Ces artefacts, dont les mouvements expressifs conduisent les spectateur·ices à leur attribuer intentions et émotions, jouent sur une perception d’agentivité pour produire une forme d’« inquiétante étrangeté » qui transforme l’interaction avec la machine en expérience critique. CamIA s’inscrit dans cette lignée en mobilisant le comportement de l’objet comme ressorts expressifs pour sensibiliser aux dispositifs de VSA.</p><h3>Développement</h3><h4>Description du dispositif</h4><p>Le dispositif CamIA prend la forme d’une caméra montée sur un robot d’environ 20 cm de côté équipé de roues motrices et relié à un ordinateur par un câble. Le robot se déplace par activations régulières selon un cycle programmé, produisant une impression d’aléatoire ou d’agentivité. La caméra effectue quant à elle de légers mouvements de rotation horizontale (pan) et verticale (tilt). Limitée par une motorisation artisanale, elle regarde principalement vers sa gauche et vers le bas, ce qui lui confère un caractère apparemment timide. À l’avant du robot, une imprimante thermique de seconde main est encastrée dans une ossature en profilés d’aluminium. Elle se déclenche automatiquement lorsqu’un visage est détecté et qu’un commentaire est généré. L’ensemble est recouvert de surfaces imprimées en PLA blanc laissant partiellement visibles les composants électroniques.</p><p>Sur le plan algorithmique, le système repose sur des outils open source, à savoir YOLOv11n-face pour la détection et LLaVA pour la génération de texte, exécutés en local <em>via</em> un programme Python.</p>"},"id":"fbed64c1-3d5b-4995-8115-f2e72b53aa7c","isHidden":false,"type":"text"},{"content":{"image":["file://nubugxzfasodi2sp"],"alt":"","caption":"Schéma technique du dispositif CamIA.","taille":"","classes":""},"id":"cb8d15e6-fe2f-4fb2-b856-9381ae0b0857","isHidden":false,"type":"image"},{"content":{"text":"<h4>Processus de conception</h4><p>Le projet est né d’une discussion autour de l’idée d’une caméra « reconnaissante » (jouant sur le double sens du terme, entre identification et gratitude) capable de commenter et d’imprimer des portraits légendés des passant·es observé·es, à la manière d’une photo-finish. Dès l’origine, l’enjeu consistait à produire un dispositif visant à susciter un trouble porteur d’une discussion critique sur la VSA. Sur le plan pratique, les premières pistes envisageaient de détourner des caméras PTZ (pan-tilt-zoom) du commerce, mais la complexité technique de ces systèmes propriétaires nous a conduits à opter pour une approche centrée sur la fabrication d’une caméra motorisée DIY. Plusieurs membres du collectif décrivent ce processus comme ouvert et expérimental. L’un d’eux évoque un mode de conception proche d’un « cadavre exquis », il souligne que « chaque personne venait rajouter un peu la pierre qu’elle avait l’envie et la capacité de rajouter ». Selon lui, cette dynamique participait d’une « sensation de vie du collectif ». Un autre membre à l’origine du projet note que la caméra est progressivement devenue « un peu un membre de Technopolice […] pas une personne, mais une personnalité ». Cette personnification est renforcée par l’apparence et les comportements du dispositif. Lors des tests, des faux contacts dans les moteurs provoquaient des mouvements hésitants qui donnaient à l’objet un aspect « <em>cute</em> », contrastant avec le ton administratif et distant des commentaires générés. Cette ambivalence a orienté la conception vers une métaphore zoomorphique et la caméra fut progressivement pensée comme un animal de compagnie curieux ou timide. Certaines contraintes techniques ont alors été réinterprétées comme des éléments scénographiques, à l’image du câble reliant la caméra à l’ordinateur, assimilé à une « laisse ».</p><p>Cette projection zoomorphique dès la phase de conception participe alors d’un déplacement de la critique de la VSA. Tandis que l’intention initiale visait à activer une forme de méfiance chez le public comparable à celle suscitée par des dispositifs consistant à révéler ou exagérer la surveillance, comme ceux de Trevor Paglen ou Adam Harvey par exemple, CamIA – du fait de ses comportements imprévus – nous conduit ici à élaborer un dispositif à visée relationnelle plus proche de projets tels que <em>(In)Security Camera</em> de Ben Chang, Silvia Ruzanka et Dmitri Strakovski ou <em>Pan, Tilt and Zoom</em> d’Aram Bartholl.</p><p>Au terme du développement, les comportements frictionnels de l’objet influencent également la réception du dispositif par le public. Comme le souligne l’un des co-concepteur·ices, « les petits bugs humanisent un peu le truc », contribuant à désamorcer l’effet anxiogène attendu d’un objet de surveillance. Là où le collectif anticipait une réaction de malaise, les interactions observées étaient souvent empreintes de curiosité et d’empathie. Un dernier membre du collectif note ainsi que « le côté marrant et mignon […] capte les gens » et facilite l’entrée dans une discussion critique. En d’autres termes, plutôt que de générer de la défiance à l’égard des dispositifs de VSA, CamIA propose une entrée en matière par l’attachement et le trouble interactionnel. Ce faisant, le dispositif diffuse la critique de la VSA à travers ses « mauvais comportements » au lieu de l’introduire frontalement.</p><p>Finalement, ce dispositif met en évidence un dialogue constant entre technique, affects et réflexion critique, mais surtout un processus au cours duquel la technologie elle-même par son agentivité et ses résistances a imposé une orientation et une modalité de restitution au discours soutenu par le collectif. Plus qu’un simple support de médiation, l’objet apparaît alors comme un co-concepteur, participant de ce que nous pourrions qualifier comme une forme d’autocritique de la technologie.</p><h3>Conclusion</h3><p>Nos observations mettent en évidence un processus où la technologie, par ses dysfonctionnements ou comportements inattendus, a largement contribué à réorienter le dispositif initialement pensé pour susciter une gêne, vers un objet ludique et affectif. En transformant un dispositif inspiré de la VSA en objet expressif, l’installation ouvre un espace d’interprétation où la fragilité technique devient un point d’entrée vers une réflexion critique sur les infrastructures contemporaines de surveillance. Dès lors, ce projet illustre un mode d’expression de la critique des systèmes techniques où le dispositif n’est pas seulement le résultat d’une intention de conception, mais le produit de la relation ambiguë qui lie les co-concepteur·ices à l’objet perçu ici comme un « membre de Technopolice ». Ce faisant, CamIA suggère que la robotique et l’IA générative peuvent constituer des outils pertinents pour détourner les technologies de surveillance en des formes critiques originales et potentiellement ouvertes à des contextes variés et imprévisibles.</p><h3>Remerciements</h3><p>Les auteur·ices de cet article souhaitent remercier l’ensemble des membres du collectif TPB pour leur participation et leur engagement.</p>"},"id":"549dd046-dcab-4c43-9e12-f3bb53f0d850","isHidden":false,"type":"text"},{"content":{"level":"h3","text":"Bibliographie"},"id":"8351a467-65d4-46c1-bdbd-0e05c8adad40","isHidden":false,"type":"heading"},{"content":{"text":"<p>Anders Albrechtslund et Lynsey Dubbeld, « The Plays and Arts of Surveillance: Studying Surveillance as Entertainment », <em>Surveillance & Society</em>, 3(2/3), 2005 [en ligne : <a href=\"https://doi.org/10.24908/ss.v3i2/3.3502\">https://doi.org/10.24908/ss.v3i2/3.3502</a>].</p><p>Samuel Bianchini et Emanuele Quinz, <em>Behavioral Objects 1. A case study: Céleste Boursier-Mougenot</em>, Londres, Sternberg Press, 2016.</p><p>Vincent Bollenot, « <em>Signalé comme suspect ». La surveillance coloniale en France, 1915-1945</em>, Paris, CNRS Éditions, 2025.</p><p><br>Carl DiSalvo, <em>Adversarial Design</em>, Cambridge, MIT Press, 2012.</p><p>Jean-Paul Fourmentraux, <em>Sousveillance. L’œil du contre-pouvoir</em>, Dijon, Les presses du réel, 2023.</p><p>« Vidéosurveillance algorithmique, dangers et contre-attaque », La Quadrature du Net, 2024 [en ligne : <a href=\"https://www.laquadrature.net/toutsurlavsa\">https://www.laquadrature.net/toutsurlavsa</a>].</p><p>Nicholas Mirzoeff, <em>The Right to Look. A Counterhistory of Visua</em>lity, Durham, Duke University Press, 2011.</p><p>Helen Nissenbaum et Fin Brunton<em>, Obfuscation. La Vie privée, mode d’emploi</em>, Caen, C&F Éditions, 2019.</p><p>Irénée Régnauld et Yaël Benayoun, <em>Technologies partout, démocratie nulle part. Plaidoyer pour que les choix technologiques deviennent l’affaire de tous</em>, Limoges, FYP Éditions, 2020.</p><p>Félix Tréguer, <em>Technopolice. La surveillance policière à l’ère de l’intelligence artificielle</em>, Quimperlé, Éditions Divergences, 2024.</p><p>Shoshana Zuboff, <em>The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power</em>,<em> </em>New York, PublicAffairs, 2019.</p>"},"id":"aeb11b13-c044-463b-80ad-392f99a2376c","isHidden":false,"type":"bibliographie"}]
|
||
|
||
----
|
||
|
||
Avant-titre:
|
||
|
||
----
|
||
|
||
Portfolio:
|
||
|
||
----
|
||
|
||
Uuid: lbi5z1amsuse9rgh |