Magazine AMNESTY n° 108, mars 2022
Digitalisation et droits humains
Je te vois...
Nous sommes habitué·e·x·s à tomber sur des caméras de surveillance dans tous les endroits possibles et imaginables. Or, couplées à la reconnaissance faciale, elles constituent une atteinte massive à nos droits. Un projet à New York alerte sur l’ampleur de cette surveillance.
Texte par Manuela Reimann Graf
Photos de Mathias Wasik, New York
À New York, « la ville qui ne dort jamais », les caméras de surveillance fonctionnent 24 heures sur 24. Elles sont des milliers à épier les passant·e·x·s, que ce soit sur Broadway, dans les ruelles ou les quartiers éloignés du centre, mais surtout dans les lieux les plus fréquentés, à commencer par le métro.
Souvent dissimulées, la plupart des caméras ne se remarquent pas. Elles peuvent cependant être placées bien en vue, sans doute à des fins de dissuasion, et certains endroits en comportent un grand nombre. Il suffit d’y prêter attention pour remarquer que dans cette ville, les gens sont partout tenus à l’oeil. La paranoïa guette…
Un rendez-vous secret dans un parc ? Pas à New York: certaines caméras sont en mesure de reconnaître les
visages à 200 mètres de distance (un ou deux blocs
d’immeubles). Les prises de vues sont envoyées vers
un logiciel de reconnaissance faciale et comparées
aux innombrables visages enregistrés dans les bases
de données de la police. Les images publiées sur les
réseaux sociaux sont également utilisées, à l’insu des
internautes, et sans leur consentement.
Grâce au projet Decoders (voir encadré), Amnesty International a voulu savoir combien New York comptait de caméras de surveillance en 2021 : dans les arrondissements de Manhattan, du Bronx et de Brooklyn, elle en a
recensé plus de 15 000, utilisées par la police de New York (NYPD) pour pister des personnes via la reconnaissance faciale.
Les personnes racisées et les femmes courent un risque accru d’être confondues avec quelqu’un d’autre par le logiciel et poursuivies à tort. Comme les données utilisées pour entraîner les algorithmes proviennent majoritairement d’hommes blancs, les logiciels peinent à identifier correctement d’autres types de visages. On trouve ainsi beaucoup de caméras aux carrefours proches des lieux où se sont déroulées les manifestations du mouvement Black Lives Matter.
Les New-Yorkais·e·x·s ne s’étonnent pas que, dans les trois arrondissements examinés, les quartiers où la densité de caméras est la plus élevée soient ceux où la majorité de la population n’est pas blanche : selon le dernier recensement, 54 % de la population du quartier
d’East New York (Brooklyn) est noire et 30 % hispanique.
Les entreprises privées recourent elles aussi à cette technologie pour leur propre usage. Dans les quartiers où vivent des minorités, des caméras sont installées sur la devanture et à l’intérieur des magasins. Une nouvelle loi exige toutefois que les entreprises signalent qu’elles recueillent des données biométriques par un panneau sur la porte d’entrée.
Qui entre et sort, quand et avec qui ? Des caméras sont également installées devant des maisons et des immeubles d’habitation, sans que les locataires soient au courant. C’est une atteinte à la sphère privée des personnes qui habitent l’immeuble, contre laquelle elles n’osent généralement pas porter plainte, en particulier lorsqu’elles appartiennent à une minorité, tant il est difficile de trouver un logement abordable dans la ville.
Amnesty Decoders,
un grand projet pour une mégalopole
Alors qu’il est toujours plus largement prouvé que la technologie de reconnaissance
faciale entrave les droits humains, la police new-yorkaise n’a pas voulu fournir
des données sur son utilisation, en dépit de nombreuses demandes. Dans le cadre
du projet Decoders, Amnesty International a lancé le 4 mai 2021 un nouveau projet
à New York, auquel des milliers de volontaires ont participé l’an dernier. Iels ont répertorié plus de 15 280 caméras de vidéosurveillance aux carrefours de Manhattan, Brooklyn et du Bronx, trois arrondissements qui couvrent un immense territoire presque entièrement surveillé.
En trois semaines seulement, les volontaires ont effectué 18 841 heures, ce qui correspond à plus de 10 années de travail pour un·e·x chercheur·e·x à plein temps aux États-Unis. Les participant·e·x·s ont reçu des images de Google Street View avec la consigne de marquer les caméras dans un périmètre donné. Par groupes de trois, iels répertoriaient et analysaient les appareils susceptibles d’être utilisés avec la technologie de reconnaissance faciale.
Selon la coalition du projet «Ban the Scan», le département de police de New York (NYPD) a admis avoir appliqué la technologie de la reconnaissance faciale dans 22 000 cas depuis 2017. Alors que le NYPD prétend n’y avoir recours que pour élucider des crimes très graves, des reportages font entendre un autre son de cloche: ces technologies seraient utilisées pour poursuivre de petits délits comme les graffitis et le vol à l’étalage. La reconnaissance faciale menace également la liberté d’expression et le droit de manifester: durant l’été 2020, elle a probablement été utilisée pour identifier et arrêter un participant à une manifestation du mouvement Black Lives Matter, au motif qu’il aurait hurlé contre un policier.
Plusieurs organisations travaillent en ce moment dans toute la ville de New York pour y obtenir une interdiction stricte de la reconnaissance faciale. D’autres villes des États-Unis, dont San Francisco, Boston, Portland, ont déjà banni cette technologie. La police de San Francisco n’a plus le droit d’y recourir. Les élue·x·s municipaux ont fondé leur décision en invoquant le danger pour les libertés individuelles, supérieur aux avantages sécuritaires supposés.
Cet article vous a plu?
Lisez la suite du numéro 108 de notre magazine.
Vous trouverez aussi des articles inédits et des anciens numéros sur notre portail.