Un documentaire révèle les dangers de la reconnaissance faciale appliquée à la surveillance en Serbie

Une des milliers de caméras de surveillance des rues de Belgrade, capitale de la Serbie. Photo de la fondation SHARE, utilisée avec permission.

Cet article est basé sur un reportage réalisé par le partenaire de contenus de Global Voices, Meta.mk News Agency, dans le cadre d’un projet de la Fondation Metamorphosis.

Sauf mention contraire, tous les liens de cet article renvoient vers des pages en anglais.

Une initiative citoyenne appelée #hiljadekamera (« des milliers de caméras » en français), exprime son inquiétude concernant la dégradation de la protection de la vie privée en Serbie, à la suite de la mise en place d’un système de surveillance avec reconnaissance faciale à Belgrade, la capitale du pays. Dans le cadre de cette campagne, un documentaire du même nom a été diffusé.

Le gouvernement serbe, en coopération avec l’entreprise chinoise de solutions technologiques Huawei, a travaillé activement sur l’implantation du projet de surveillance, appelé Safe City (« Ville Sûre » en français), à Belgrade depuis 2019. Ce projet comprend l’installation de milliers de caméras de surveillance intelligentes avec reconnaissance faciale et d’objet. Les caméras font partie d’un lot incluant un système d’intelligence artificielle utilisé pour analyser les images enregistrées.

L’initiative Hiljade Kamera est menée par la fondation SHARE, la principale association de défense des droits numériques en Serbie, fondée en 2012, et membre du réseau européen pour les droits numériques EDRi. Sur son site internet (hiljade.kamera.rs), lancé en mai 2020, le groupe se décrit comme « une communauté d’individus et d’organisations qui défendent une utilisation responsable des technologies de surveillance ». En réponse au programme de surveillance du gouvernement, Hiljade Kamera réclame le respect du droit à la vie privée et la transparence par le biais de plusieurs stratégies comme la cartographie participative (crowdmapping), les réseaux communautaires, la recherche, la sensibilisation du public et la production de contenus.

La fondation SHARE a produit un documentaire clair et synthétique sur la situation (disponible en serbe avec des sous-titres en français).

Cette vidéo a été sous-titrée en français sur Amara. Si les sous-titres n'apparaissent pas correctement, vous pouvez également visionner la vidéo ici. Télécharger la transcription en français du documentaire hiljade kamera [txt, 12,2 kB]

Dans le film, des expert⸱e⸱s et des représentant⸱e⸱s de l’initiative et de l'Autorité serbe de protection des données expriment leurs craintes sur le projet de surveillance.

Bojan Perkov, chercheur en politiques publiques à la fondation SHARE, relève dans un article publié en mai 2019 que les gouvernements serbe et chinois travaillent sur une « coopération économique et technologique » depuis 2009, date à laquelle ils ont signé leur premier accord bilatéral. Des années plus tard, un partenariat stratégique mis en place entre le ministère de l'Intérieur serbe et Huawei, ouvre la voie à l'implémentation du projet « Safe Society in Serbia » (« Société sûre en Serbie » en français). Ces derniers mois, de nouvelles caméras ont été massivement installées un peu partout dans la ville de Belgrade.

Bojan Perkov remet aussi en question la légalité de ce programme d'implémentation :

Even though the Ministry was obliged by law to conduct a Data Protection Impact Assessment (DPIA) of the new smart surveillance system, it failed to fulfil the legal requirements, as warned by civil society organisations and the Commissioner for Personal Data Protection.

Bien que le ministère soit tenu par la loi de conduire une analyse d’impact relative à la protection des données (AIPD) sur les systèmes de surveillance intelligents, les conditions légales n’ont pas été remplies, comme l'ont souligné avec inquiétude les organisations citoyennes et le commissaire à la protection des données.

Les dangers de la surveillance biométrique

Le documentaire comprend la participation d’Ella Jakubowska, membre d'EDRi (le premier réseau de défense des droits numériques en Europe), qui met l’accent sur les risques relatifs à la surveillance de masse :

There’s a real sense of empowerment from being able to express yourself differently and suddenly, if you’re forced to conform, this composes a real threat to your identity. It really challenges your sense of dignity and who you are as a person and who you’re allowed to be in your society in a way that’s very dangerous.

Il y a un vrai sentiment d’émancipation dans le fait de pouvoir s’exprimer autrement et soudain, si vous êtes obligé⸱e de vous conformer, c’est un vrai danger pour votre identité. Cela remet en question votre dignité et qui vous êtes en tant qu’individu et qui vous pouvez être dans votre société d’une manière qui est très dangereuse.

Cet extrait fait partie d’une interview complète (en anglais avec sous-titres en anglais et en serbe), menée par la fondation SHARE, qui montre dans un contexte plus large les dangers de la surveillance biométrique de masse pour les droits et libertés humaines.

Sur les caméras de surveillance équipées d’un logiciel de reconnaissance faciale, les caractéristiques faciales sont enregistrées et analysées pour identifier un individu, en les faisant correspondre avec des bases de données déjà existantes.

Cette vidéo a été sous-titrée en français sur Amara. Si les sous-titres n'apparaissent pas correctement, vous pouvez également visionner la vidéo ici.

Mme Jakubowska observe :

Any society that looks to stratify people based on how they look, based on their health, based on their data and things about them, is an incredibly authoritarian and sinister society. The societies throughout history that have tried to separate and stratify people based on data about them are the sort of authoritarian societies that we want to stay as far away as possible from…

Toute société qui veut catégoriser les gens selon leur apparence ou selon leur santé grâce à des données et des informations sur eux, est une société extrêmement autoritaire et funeste. Les sociétés à travers l’histoire qui ont essayé de séparer et de catégoriser les gens en fonction de leurs données personnelles sont des sociétés autoritaires dont il faut s'éloigner le plus possible…

La représentante de l’EDRi insiste sur le fait que « le peuple doit demander des comptes à celles et ceux qui sont au pouvoir, dénoncer la surveillance dont chacun⸱e est témoin et participer aux efforts des associations citoyennes et des militant⸱e⸱s qui essaient de révéler ces installations secrètes ». La coopération de l'ensemble des acteurs ainsi que l'exigence d'un débat public sont les clés pour empêcher les situations où les citoyen⸱ne⸱s seraient privé⸱e⸱s de leur pouvoir de décision et où celui-ci reposerait exclusivement entre les mains des entreprises privées ou des forces de police, ajoute-t-elle.

Commentez

Merci de... S'identifier »

Règles de modération des commentaires

  • Tous les commentaires sont modérés. N'envoyez pas plus d'une fois votre commentaire. Il pourrait être pris pour un spam par notre anti-virus.
  • Traitez les autres avec respect. Les commentaires contenant des incitations à la haine, des obscénités et des attaques nominatives contre des personnes ne seront pas approuvés.