- Global Voices en Français - https://fr.globalvoices.org -

Comment Facebook a occulté les informations sur le mouvement nigérian #EndSARS

Catégories: Afrique Sub-Saharienne, Nigéria, Censure, Cyber-activisme, Droits humains, Jeunesse, Liberté d'expression, Manifestations, Médias citoyens, Advox, #EndSARS, un mouvement de jeunesse pour mettre un terme aux violences policières au Nigeria
Mark Zuckerberg, souriant, en compagnie de quatre acteurs des technologies au Kenya.

Le fondateur de Facebook, Mark Zuckerberg, pendant une visite au Kenya. Photo par Afromusing, 1er septembre 2016, sous licence CC BY 2.0.

Sauf mention contraire, tous les liens renvoient vers des pages en anglais.

Alors que les forces de sécurité nigérianes ont abattu des jeunes manifestant·es, le 20 octobre, lors des rassemblements anti-SARS qui avaient pour but de mettre fin aux violences policières, les publications des médias sociaux relayant activement les informations sur Facebook et Instagram ont été faussement signalées [1] comme « infox ».

Pendant plus de deux semaines, des manifestations #EndSARS ont eu lieu dans plusieurs villes du Nigéria et dans la diaspora. SARS, la Brigade spéciale de répression des vols instituée par la police nigériane, connue pour ses agissements hors la loi, a pendant plusieurs années arrêté, torturé et tué des citoyen·ne·s, surtout des jeunes.

Laissez cette vidéo ranimer votre colère, laissez-la vous stimuler. Nous avons commencé quelque chose d'incroyable que nous ne pouvons pas arrêter, nous sommes la génération qui apportera le changement, Inshallah #EndSARS

Filmé et monté par @BayoBrahms

[vidéo]
Vidéo d'une minute montrant des images des manifestations de masse au Nigeria contre les violences policières. En voix off (en anglais), le commentateur rappelle que le mouvement cherche à améliorer les conditions de vie dans le pays et que les manifestations sont pacifiques.

Les utilisateurs nigérians de Facebook et Instagram qui ont essayé de partager les images ou vidéos [7]de l'assassinat des manifestants anti-SARS au péage de Lekki, comme ce drapeau nigérian ensanglanté [8], ont reçu cette réponse : « Les vérificateurs de faits [9] disent qu'au moins une photo ou une vidéo dans ce post contient de fausses informations. »

Facebook travaille en collaboration avec une tierce partie indépendante pour vérifier et évaluer l'exactitude des informations. La vérification des faits du contenu partagé depuis le Nigeria a été sous-traitée [10] aux entreprises technologiques Africa Check [11], AFP-Hub [12] et Dubawa [13].

Le 22 octobre, le service de communication d'Instagram a présenté des excuses dans un tweet [14] pour avoir « signalé de manière incorrecte le contenu #EndSARS [15] et avoir marqué les messages comme étant faux ».

Une demande de commentaire de la part de Global Voices à propos de cette censure du contenu soutenant les manifestations anti-SARS — envoyée par message direct et tweetée le 22 octobre,  au compte Twitter officiel [16] du directeur de la communication de Facebook, Andy Stone — n'a pas reçu de réponse, ni même un accusé de réception.

La censure des militant·es sur Facebook

Depuis 2008, les militant·es de Global Voices, de l'Afghanistan au Kazakhstan, de la Bulgarie à la Macédoine, des Philippines à Singapour, du Brésil au Venezuela, de l’Égypte au Liban, du Bangladesh à l'Inde, de l’Éthiopie à la Tanzanie, ont fait part de leurs expériences concernant « la liberté d'expression, la censure et les droits humains sur le plus grand réseau social du monde ».

Il y a de cela deux semaines, Facebook était impliqué dans une controverse [18] sur l'alimentation des discours haineux en Inde. En 2018, le plus grand journal du Brésil a quitté Facebook, après avoir accusé le réseau social d’héberger de fausses informations [19] [fr]. En juillet 2016, Facebook a supprimé une publication [20] qui critiquait la police de Singapour. En 2011, Facebook a fermé [21] le compte d'une blogueuse après qu'elle ait « publié une série de posts sur la criminalité au Honduras ». Et le soir du 25 novembre 2010, Facebook a désactivé [22] [fr] la page « Nous sommes Khaled Said », qui rendait hommage à Khaled Said [23], un Égyptien de 28 ans battu à mort par deux officiers de police à Alexandrie. Facebook a finalement restauré la page après de nombreuses plaintes de militants sur Twitter.

Tout cela met en évidence la complicité historique de Facebook avec la censure des voix des activistes pour les droits humains. Cela s'est produit « encore et encore au cours des dix dernières années, souvent sans explication de la part de l'entreprise », affirme Ellery Roberts Biddle, journaliste, experte en technologie et directrice éditoriale [24] de Ranking Digital Rights, contactée par Global Voices par e-mail.

 La signalisation du contenu #EndSARS n'était pas une « erreur »

Une foule de manifestants brandissent des pancartes contre les violences policières à Lagos, au Nigeria.

Les manifestant·es anti-SARS à Lagos au Nigeria. Sur la pancarte d'une manifestante, on peut lire : “On vous a dit d'arrêter, vous continuez à tuer. #NonAuxViolencesPolicières” Photo par Kaizenify via Wikimedia, sous licence CC-BY-SA 4.0 [25].

La censure des contenus #EndSARS « est malheureusement très fréquente », affirme Jillian C. York, militante américaine [26] et directrice de la liberté d'expression internationale à l'Electronic Frontier Foundation. 

Jillian C. York a informé Global Voices via un message direct sur Twitter que « il ne s'agissait pas simplement d'une “erreur” d'Instagram » ; c'est plutôt une conséquence de « leurs systèmes de modération de contenu et de signalisation mal conçus – et non d'un bug », a souligné Mme York.

Ellery Roberts Biddle a blâmé Facebook pour son faible investissement dans la modération de contenu : 

Investigations by journalists and leaks from inside the company [27] demonstrate that Facebook does not put adequate financial or human resources towards its content moderation processes.

Les enquêtes menées par les journalistes et les fuites d'informations en interne [27]démontrent que Facebook ne consacre pas assez de ressources financières ou humaines à son processus de modération de contenu.

Les quelques exceptions à cette modération déficiente de Facebook sont « dans les pays comme l'Allemagne, où elle est strictement règlementée, mais il y a de bonnes raisons de suspecter (puisque nous n'avons pas d'informations fiables, en raison du manque de transparence de Facebook) que Facebook consacre beaucoup moins de ressources à la modération de contenu au Nigeria, malgré le fait que le Nigeria soit un pays beaucoup plus grand », a écrit Mme Biddle à Global Voices dans un e-mail.

Le Dr Qemal Affagnon, coordinateur régional [28] d'Internet Sans Frontières pour l'Afrique de l'Ouest, a déclaré par e-mail à Global Voices que c'est une « forme d'arrogance » ironique pour Facebook que de récolter des « métadonnées à partir des photos partagées par les Nigérians » tout en « réprimant » leur liberté d'expression.

La collecte des métadonnées des internautes nigérians, bien que constituant une atteinte à la vie privée, rend l'activité « rentable » pour la société technologique américaine. Monsieur Affagnon explique en outre que « Facebook s'appuie sur les métadonnées des photos telles que la date, l'heure et le lieu des appareils mobiles utilisés pour prendre les photos. Ces métadonnées sont extrêmement importantes pour le profilage des personnes (Par exemple, où êtes-vous, avec qui, quel type de voiture se trouve derrière vous) —  des informations précieuses qui intéressent les annonceurs. »

La censure intervient au moment où le géant de la technologie cherche à intégrer le marché nigérian. Il y a quatre ans, en septembre 2016, la première destination [29] de Mark Zuckerberg lors de son voyage en Afrique était Lagos, au Nigeria. Témoignage évident d'un écosystème technologique nigérian en plein essor, Facebook a récemment annoncé l'ouverture  [30]d'un deuxième bureau africain à Lagos, d'ici le second semestre 2021.

Selon M. Affagnon, compte tenu de l'intégration de la société technologique dans le marché nigérian, la censure du contenu #EndSARS parait à la fois « préoccupante et difficile à comprendre ». Toutefois, il affirme que Facebook a démontré « un manque total de respect pour la diversité des points de vue, ce qui est dangereux pour la démocratie » et « viole les droits des internautes nigérians tout en faisant preuve d'une forme abjecte d'autoritarisme ».

think about this: Facebook actively helped the Nigerian government to claim that no killings happened by labelling and removing video/photo/livestream posts of #EndSARS [2] protests (on Instagram too). after they did that they issue apology and keep it moving. after silencing stories

— T. (@TefoMohapi) October 23, 2020 [31]

Réfléchissons à cela : Facebook a activement aidé le gouvernement nigérian à affirmer qu'aucun meurtre n'avait eu lieu, en étiquetant et en supprimant les messages vidéo, les photos, la diffusion en temps réel des manifestations #EndSARS (sur Instagram également). Par la suite, Facebook a présenté des excuses et a continué de fonctionner normalement, après avoir supprimé toutes les informations.

La « signalisation incorrecte » du contenu #EndSARS [15] par Facebook [32] et Instagram a permis aux réseaux sociaux de brouiller les pistes sur les assassinats de manifestant·es perpétrés par l’État  [33]au péage de Lekki à Lagos. Le gouvernement de l'État de Lagos et l'Armée nigériane ont tous deux nié [34] les décès enregistrés ou qualifié [35] les fusillades de fausses informations, malgré les nombreuses preuves [36] fournies par des journalistes et des groupes de défense des droits humains comme Amnesty International [37].

Facebook n'a jamais été « totalement transparent avec le public sur la façon dont l'entreprise pourrait censurer un hashtag comme celui-ci [#EndSARS] et les raisons de le faire », a déclaré Mme Biddle. Par conséquent, il serait judicieux pour Facebook d'entreprendre un « audit complet et une révision de leurs systèmes, ainsi que de s'engager à faire preuve de transparence, à prévenir les utilisateurs et à leur donner la possibilité de faire appel de chaque décision », a souligné Jillian C. York.