decor-6-site/content/15_camia/chapitre.txt
2026-05-06 09:15:07 +02:00

45 lines
No EOL
22 KiB
Text
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

Title: CamIA
----
Maquette: true
----
Typesetting: false
----
Correction: false
----
Author: Corentin Loubet
----
Typeof: essai
----
Cover:
----
Bio:
----
Text: [{"content":{"text":"<p>Un dispositif artistique pour éprouver la vidéosurveillance algorithmique</p>"},"id":"653fc54a-ffc3-4497-b571-d01ece897be5","isHidden":false,"type":"description"},{"content":{"text":"<p>La loi relative aux Jeux olympiques de Paris 2024, dite loi JO adoptée en 2023, a autorisé lexpérimentation de logiciels de vidéosurveillance algorithmique (VSA) dans lespace public à loccasion de grands événements sportifs ou culturels. Concrètement, ces systèmes permettent «&nbsp;linstallation et lutilisation par la police dun logiciel qui analyse les images des caméras de vidéosurveillance afin de repérer, identifier ou classer des comportements, des situations, des objets ou des personnes&nbsp;» (La Quadrature du Net, 2024). Initialement prévues jusquen mars&nbsp;2025, ces expérimentations ont depuis fait lobjet de discussions visant leur prolongation, notamment dans le cadre dune proposition de loi relative à la sécurité dans les transports. Leur déploiement repose sur plusieurs principes juridiques, dont celui du consentement informé des personnes susceptibles dêtre observées. Dans ce contexte, et dans la continuité de la campagne Technopolice lancée en 2019 par lassociation La Quadrature du Net, le collectif Technopolice Paris-Banlieue (TPB) sest constitué en mars&nbsp;2024. Ses activités reposent principalement sur deux axes&nbsp;: la veille et la cartographie des dispositifs de surveillance déployés dans lespace public francilien, ainsi que la sensibilisation du grand public aux enjeux politiques et sociaux de ces technologies. Cette dernière prend souvent la forme de discussions avec les passant·es dans les lieux concernés par les expérimentations de la VSA. Ces échanges ont toutefois révélé la difficulté de rendre immédiatement perceptibles des systèmes techniques souvent abstraits et invisibles. Cest ainsi quest né le dispositif CamIA. Conçu collectivement par des membres de TPB &nbsp;développeurs, designer et sociologue&nbsp; il vise à créer une situation permettant de rendre sensibles certains mécanismes de la surveillance algorithmique. Le dispositif prend la forme dune petite caméra motorisée, posée au sol et reliée à un ordinateur par un câble qui évoque la laisse dun animal. Mue par une logique propre, la caméra se déplace, scrute lespace, «&nbsp;cherche du regard&nbsp;» des spectateur·ices intrigué·es. Son comportement légèrement erratique, ses mouvements attentifs et sa taille réduite lui confèrent une apparence presque attachante, empreinte dune curiosité anthropomorphique. Lorsquelle repère un·e spectateur·ice, elle se fige, puis génère à son propos un commentaire quelle restitue au moyen dune imprimante thermique.</p><p>À travers la description de ce dispositif et de son processus de conception, le présent article propose de sinterroger sur une façon de détourner les technologies de surveillance pour les transformer en instruments de sensibilisation critique.</p>"},"id":"6b1447fd-f80c-4700-a49c-30e820a8ee80","isHidden":false,"type":"text"},{"content":{"image":["file://2fmklpcojr0tm6q9"],"alt":"","caption":"","taille":"","classes":""},"id":"5b8078aa-b0c4-43cf-93ce-cebe59bdb6ca","isHidden":false,"type":"image"},{"content":{"image":["file://xpqhwj7hndtjgpf1"],"alt":"","caption":"Photographies de CamIA lors dune rencontre publique du collectif TPB.","taille":"","classes":""},"id":"17a71619-ff25-4d9e-a195-30031dcb94ed","isHidden":false,"type":"image"},{"content":[],"id":"807c24c6-7795-4e6c-902a-2661b234c648","isHidden":false,"type":"break"},{"content":{"text":"<h3>Contexte et positionnement</h3><h4>Vision sécuritaire «&nbsp;de la ville et de nos vies&nbsp;»</h4><p>La VSA est le fruit de développements sociotechniques historiques. Cest avec lémergence des États-nations modernes que se développe une volonté didentification et de contrôle des populations. Lavènement des sociétés disciplinaires, théorisées par Foucault, sappuie sur le développement et la multiplication des lieux denfermement (hôpitaux, asiles, prisons, etc.) qui matérialisent une certaine gestion et exclusion de lespace public. Le pouvoir sécuritaire quant à lui permet «&nbsp;une régulation et pilotage en temps réel de flux circulant dans des milieux ouverts, <em>via</em> des capteurs et des opérations de coupure et douverture des débits&nbsp;» (Tréguer, 2024). Ces évolutions sont accompagnées de développements technologiques situés. Ainsi, les technologies biométriques actuelles sont pour beaucoup le produit de volontés de mesurer et surveiller les corps et les personnes, notamment dans les colonies des empires européens (Bollenot, 2025). Souvent utilisées dans un premier temps seulement pour la surveillance de certains groupes marginalisés voire criminalisés (personnes colonisées, détenues, psychiatrisées, etc.), des dispositifs tels que le passeport ou le fichage policier se retrouvent progressivement normalisés au sein de toutes les populations des États européens au cours du xx<sup>e</sup>&nbsp;siècle. En même temps, les technologies de linformation se perfectionnent, notamment en raison de leur utilité et leurs usages militaires. Elles permettent ce que Deleuze analyse comme le passage de «&nbsp;lindividu effectivement discipliné, […] à lindividu potentiellement contrôlable&nbsp;» caractéristique de la société de contrôle.</p><p>Cette vision de la sécurité se caractérise par ailleurs par son implémentation souvent autoritaire, dans la mesure où les dispositifs de surveillance évoqués sont généralement déployés sans le consentement du moins informé des citoyen·nes. Pire, ces développements technologiques sont souvent accompagnés defforts, de la part des pouvoirs publics et de lindustrie, visant à créer de lacceptabilité au sein des populations concernées, à laide par exemple de narratifs vantant la sécurité et lordre que ces systèmes seraient supposément destinés à (r)établir (Tréguer, 2024&nbsp;; Régnault et Benayoun, 2020). Ces discours se retrouvent dans les échanges avec des passant·es au cours des observations de terrain effectuées par des membres du collectif TPB. Ainsi, il nest pas rare dentendre des personnes admettant par ailleurs être mal ou pas informées sur les expérimentations en cours ou plus généralement la VSA, dirent que «&nbsp;si ça contribue à [leur] sécurité, alors [iels sont] pour&nbsp;».</p><h4>Capitalisme des données et apprentissage machine</h4><p>Comme tout système algorithmique, le développement de la VSA nécessite lentraînement de divers algorithmes sur de très vastes ensembles de données. En ce sens, la prolifération actuelle des technologies dapprentissage machine est en partie rendue possible grâce à lintense datafication du monde et de nos vies par les acteur·ices du capitalisme de surveillance (Zuboff, 2019). Tant en ligne que hors ligne, grand nombre de produits et solutions technologiques tendent à produire et collecter des données qui par la suite peuvent être vendues ou utilisées pour lentraînement de solutions algorithmiques qui viendront «&nbsp;augmenter&nbsp;» leurs prédécesseurs. Laccès à ces vastes ensembles de données nest pas anodin pour les producteur·ices de ces technologies, puisque la performance des modèles algorithmiques est en grande partie indexée sur la qualité des données dentraînement. Il sagit donc daccéder à un volume de données pertinentes, cest-à-dire aussi proches que possible des conditions dutilisation des modèles finaux. En dautres termes, dans le cas de la VSA par exemple, il sagit pour les entreprises développant ces systèmes de pouvoir constituer des jeux de données de lespace public tels que ce dernier est capté par les diverses caméras de vidéosurveillance déployées. Cest ce que permettent les expérimentations actuelles autorisées par la loi dite JO. Bien plus quun nouveau déploiement technologique, cette nouvelle loi a ainsi permis de livrer des données personnelles et publiques à des entreprises privées, pour leur propre bénéfice.</p><h4>Ancrage artistique&nbsp;: un art de la sur/sousveillance</h4><p>Cest donc face à cette banalisation croissante de la VSA et aux limites ressenties par les militant·es quant à leur impact sur lopinion publique, que plusieurs membres du collectif TPB ont envisagé la conception dun dispositif complémentaire aux approches militantes classiques, voué à faire vivre aux individus une expérience personnelle et émotionnelle des enjeux et des risques relatifs à la VSA. Par cette action, les membres du collectif Technopolice sinscrivent dans une pratique transdisciplinaire de critique de la surveillance au moyen de dispositifs artistiques que les<em> surveillance studies</em> qualifient d«&nbsp;art de la surveillance&nbsp;». Plus récemment, Fourmentraux propose la notion dart de la sousveillance pour désigner des œuvres qui détournent les technologies de surveillance afin den révéler les logiques politiques (Fourmentraux, 2023). Inspirée du concept de lingénieur américain Steve Mann, cette approche se déploie selon différentes stratégies artistiques visant à révéler, perturber ou reconfigurer les régimes de visibilité contemporains.</p><p>Certaines pratiques visent ainsi à rendre visible linfrastructure de la surveillance en produisant des formes de «&nbsp;contre-visualité&nbsp;» (Mirzoeff, 2011), comme <em>Watching the Watchers</em> (2013) et <em>Every CCTV Camera</em> (2016) de James Bridle ou <em>MegaPixels</em> (depuis 2017) dAdam Harvey en collaboration avec Tactical Tech, qui expose les bases de données utilisées pour entraîner la reconnaissance faciale. Dautres projets cherchent à perturber la surveillance dans une logique dobfuscation (Nissenbaum, 2019), comme <em>How Not to Be Seen</em> (2013) de Hito Steyerl, un tutoriel pour apprendre à devenir invisible. Cette stratégie rejoint également le design adversarial (DiSalvo, 2012), avec des projets visant à outiller les luttes tels que <em>Sentient City Survival Kit</em> (2010) de Mark Shepard, les dispositifs anti-reconnaissance dAdam Harvey (<em>CV Dazzle</em>, 2010&nbsp;; <em>HyperFace</em>, 2016), <em>The Camera-Shy Hoodie</em> (2023) de Mac Pierce ou dans un registre plus contextuel, le projet <em>Mij (The Fog)</em> (2025) développé avec le Rojava Center for Democratic Technologies pour dissimuler des véhicules face à des missiles à tête chercheuse. Dautres œuvres choisissent au contraire dexagérer la surveillance pour en révéler laberration, comme <em>ImageNet Roulette</em> (2019) de Trevor Paglen et Kate Crawford ou dans un registre plus immersif, les postes de surveillance édulcorés de la série <em>Security by Julia</em> (à partir de 1988) de Julia Scher ou au contraire excessivement répressifs de <em>Border Patrol</em> (1995) de David Rokeby et Paul Garrin. Samuel Bianchini avec les <em>Discontrol Party </em>(2009-2018) propose quant à lui une version plus interactive et ludique. Une modalité que certains projets revendiquent explicitement, comme <em>Point dOrgue</em> (2009) de Thierry Fournier ou <em>Situational Compliance</em> (2025) de Matthew Biederman et Lucas Paris. Dautres installations telles que <em>ACCESS</em> (2003) de Marie Sester ou <em>Nosy</em> (2006) et <em>Mojo</em> (2007) de Christian Moeller sinscrivent par leurs modalités dinteraction dans la lignée dinstallations cybernétiques telles que <em>The Senster</em> (1970-1974) dEdward Ihnatowicz. Enfin, certaines œuvres cherchent à humaniser ou fragiliser les dispositifs de surveillance afin de susciter empathie et réflexion critique, comme <em>(In)Security Camera</em> (2003) de Ben Chang, Silvia Ruzanka et Dmitri Strakovski, où une caméra détourne le regard lorsquelle croise celui dun·e spectateur·ice, ou <em>Pan, Tilt et Zoom</em> dAram Bartholl, où des caméras PTZ posées au sol apparaissent démunies, telles des tortues renversées. Ces différentes approches témoignent dune ambiguïté inhérente à la surveillance qui, selon Anders Albrechtslund et Lynsey Dubbeld, possède une aura «&nbsp;à la fois séduisante et inquiétante&nbsp;» (Albrechtslund et Dubbeld, 2005).</p><p>Enfin, que ce soit par leur mise en scène attendrissante, leur présentation selon des modalités ludiques ou au contraire autoritaires, ou encore leur caractère <em>adversarial</em>, un certain nombre de ces dispositifs peuvent être rapprochés de la tradition des objets à comportements (Bianchini et Quinz, 2016). Ces artefacts, dont les mouvements expressifs conduisent les spectateur·ices à leur attribuer intentions et émotions, jouent sur une perception dagentivité pour produire une forme d«&nbsp;inquiétante étrangeté&nbsp;» qui transforme linteraction avec la machine en expérience critique. CamIA sinscrit dans cette lignée en mobilisant le comportement de lobjet comme ressorts expressifs pour sensibiliser aux dispositifs de VSA.</p><h3>Développement</h3><h4>Description du dispositif</h4><p>Le dispositif CamIA prend la forme dune caméra montée sur un robot denviron 20&nbsp;cm de côté équipé de roues motrices et relié à un ordinateur par un câble. Le robot se déplace par activations régulières selon un cycle programmé, produisant une impression daléatoire ou dagentivité. La caméra effectue quant à elle de légers mouvements de rotation horizontale (pan) et verticale (tilt). Limitée par une motorisation artisanale, elle regarde principalement vers sa gauche et vers le bas, ce qui lui confère un caractère apparemment timide. À lavant du robot, une imprimante thermique de seconde main est encastrée dans une ossature en profilés daluminium. Elle se déclenche automatiquement lorsquun visage est détecté et quun commentaire est généré. Lensemble est recouvert de surfaces imprimées en PLA blanc laissant partiellement visibles les composants électroniques.</p><p>Sur le plan algorithmique, le système repose sur des outils open source, à savoir YOLOv11n-face pour la détection et LLaVA pour la génération de texte, exécutés en local <em>via</em> un programme Python.</p>"},"id":"fbed64c1-3d5b-4995-8115-f2e72b53aa7c","isHidden":false,"type":"text"},{"content":{"image":["file://nubugxzfasodi2sp"],"alt":"","caption":"Schéma technique du dispositif CamIA.","taille":"","classes":""},"id":"cb8d15e6-fe2f-4fb2-b856-9381ae0b0857","isHidden":false,"type":"image"},{"content":{"text":"<h4>Processus de conception</h4><p>Le projet est né dune discussion autour de lidée dune caméra «&nbsp;reconnaissante&nbsp;» (jouant sur le double sens du terme, entre identification et gratitude) capable de commenter et dimprimer des portraits légendés des passant·es observé·es, à la manière dune photo-finish. Dès lorigine, lenjeu consistait à produire un dispositif visant à susciter un trouble porteur dune discussion critique sur la VSA. Sur le plan pratique, les premières pistes envisageaient de détourner des caméras PTZ (pan-tilt-zoom) du commerce, mais la complexité technique de ces systèmes propriétaires nous a conduits à opter pour une approche centrée sur la fabrication dune caméra motorisée DIY. Plusieurs membres du collectif décrivent ce processus comme ouvert et expérimental. Lun deux évoque un mode de conception proche dun «&nbsp;cadavre exquis&nbsp;», il souligne que «&nbsp;chaque personne venait rajouter un peu la pierre quelle avait lenvie et la capacité de rajouter&nbsp;». Selon lui, cette dynamique participait dune «&nbsp;sensation de vie du collectif&nbsp;». Un autre membre à lorigine du projet note que la caméra est progressivement devenue «&nbsp;un peu un membre de Technopolice […] pas une personne, mais une personnalité&nbsp;». Cette personnification est renforcée par lapparence et les comportements du dispositif. Lors des tests, des faux contacts dans les moteurs provoquaient des mouvements hésitants qui donnaient à lobjet un aspect «&nbsp;<em>cute</em>&nbsp;», contrastant avec le ton administratif et distant des commentaires générés. Cette ambivalence a orienté la conception vers une métaphore zoomorphique et la caméra fut progressivement pensée comme un animal de compagnie curieux ou timide. Certaines contraintes techniques ont alors été réinterprétées comme des éléments scénographiques, à limage du câble reliant la caméra à lordinateur, assimilé à une «&nbsp;laisse&nbsp;».</p><p>Cette projection zoomorphique dès la phase de conception participe alors dun déplacement de la critique de la VSA. Tandis que lintention initiale visait à activer une forme de méfiance chez le public comparable à celle suscitée par des dispositifs consistant à révéler ou exagérer la surveillance, comme ceux de Trevor Paglen ou Adam Harvey par exemple, CamIA &nbsp;du fait de ses comportements imprévus&nbsp; nous conduit ici à élaborer un dispositif à visée relationnelle plus proche de projets tels que <em>(In)Security Camera</em> de Ben Chang, Silvia Ruzanka et Dmitri Strakovski ou <em>Pan, Tilt and Zoom</em> dAram Bartholl.</p><p>Au terme du développement, les comportements frictionnels de lobjet influencent également la réception du dispositif par le public. Comme le souligne lun des co-concepteur·ices, «&nbsp;les petits bugs humanisent un peu le truc&nbsp;», contribuant à désamorcer leffet anxiogène attendu dun objet de surveillance. Là où le collectif anticipait une réaction de malaise, les interactions observées étaient souvent empreintes de curiosité et dempathie. Un dernier membre du collectif note ainsi que «&nbsp;le côté marrant et mignon […] capte les gens&nbsp;» et facilite lentrée dans une discussion critique. En dautres termes, plutôt que de générer de la défiance à légard des dispositifs de VSA, CamIA propose une entrée en matière par lattachement et le trouble interactionnel. Ce faisant, le dispositif diffuse la critique de la VSA à travers ses «&nbsp;mauvais comportements&nbsp;» au lieu de lintroduire frontalement.</p><p>Finalement, ce dispositif met en évidence un dialogue constant entre technique, affects et réflexion critique, mais surtout un processus au cours duquel la technologie elle-même par son agentivité et ses résistances a imposé une orientation et une modalité de restitution au discours soutenu par le collectif. Plus quun simple support de médiation, lobjet apparaît alors comme un co-concepteur, participant de ce que nous pourrions qualifier comme une forme dautocritique de la technologie.</p><h3>Conclusion</h3><p>Nos observations mettent en évidence un processus où la technologie, par ses dysfonctionnements ou comportements inattendus, a largement contribué à réorienter le dispositif initialement pensé pour susciter une gêne, vers un objet ludique et affectif. En transformant un dispositif inspiré de la VSA en objet expressif, linstallation ouvre un espace dinterprétation où la fragilité technique devient un point dentrée vers une réflexion critique sur les infrastructures contemporaines de surveillance. Dès lors, ce projet illustre un mode dexpression de la critique des systèmes techniques où le dispositif nest pas seulement le résultat dune intention de conception, mais le produit de la relation ambiguë qui lie les co-concepteur·ices à lobjet perçu ici comme un «&nbsp;membre de Technopolice&nbsp;». Ce faisant, CamIA suggère que la robotique et lIA générative peuvent constituer des outils pertinents pour détourner les technologies de surveillance en des formes critiques originales et potentiellement ouvertes à des contextes variés et imprévisibles.</p><h3>Remerciements</h3><p>Les auteur·ices de cet article souhaitent remercier lensemble des membres du collectif TPB pour leur participation et leur engagement.</p>"},"id":"549dd046-dcab-4c43-9e12-f3bb53f0d850","isHidden":false,"type":"text"},{"content":{"level":"h3","text":"Bibliographie"},"id":"8351a467-65d4-46c1-bdbd-0e05c8adad40","isHidden":false,"type":"heading"},{"content":{"text":"<p>Anders Albrechtslund et Lynsey Dubbeld, «&nbsp;The Plays and Arts of Surveillance: Studying Surveillance as Entertainment&nbsp;», <em>Surveillance &amp; Society</em>, 3(2/3), 2005 [en ligne&nbsp;: <a href=\"https://doi.org/10.24908/ss.v3i2/3.3502\">https://doi.org/10.24908/ss.v3i2/3.3502</a>].</p><p>Samuel Bianchini et Emanuele Quinz, <em>Behavioral Objects 1. A case study: Céleste Boursier-Mougenot</em>, Londres, Sternberg Press, 2016.</p><p>Vincent Bollenot, «&nbsp;<em>Signalé comme suspect&nbsp;». La surveillance coloniale en France, 1915-1945</em>, Paris, CNRS Éditions, 2025.</p><p><br>Carl DiSalvo, <em>Adversarial Design</em>, Cambridge, MIT Press, 2012.</p><p>Jean-Paul Fourmentraux, <em>Sousveillance. Lœil du contre-pouvoir</em>, Dijon, Les presses du réel, 2023.</p><p>«&nbsp;Vidéosurveillance algorithmique, dangers et contre-attaque&nbsp;», La Quadrature du Net, 2024 [en ligne&nbsp;: <a href=\"https://www.laquadrature.net/toutsurlavsa\">https://www.laquadrature.net/toutsurlavsa</a>].</p><p>Nicholas Mirzoeff, <em>The Right to Look. A Counterhistory of Visua</em>lity, Durham, Duke University Press, 2011.</p><p>Helen Nissenbaum et Fin Brunton<em>, Obfuscation. La Vie privée, mode demploi</em>, Caen, C&amp;F Éditions, 2019.</p><p>Irénée Régnauld et Yaël&nbsp;Benayoun, <em>Technologies partout, démocratie nulle part. Plaidoyer pour que les choix technologiques deviennent laffaire de tous</em>, Limoges, FYP Éditions, 2020.</p><p>Félix Tréguer, <em>Technopolice. La surveillance policière à lère de lintelligence artificielle</em>, Quimperlé, Éditions Divergences, 2024.</p><p>Shoshana Zuboff, <em>The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power</em>,<em> </em>New York, PublicAffairs, 2019.</p>"},"id":"aeb11b13-c044-463b-80ad-392f99a2376c","isHidden":false,"type":"bibliographie"}]
----
Avant-titre:
----
Portfolio:
----
Uuid: lbi5z1amsuse9rgh