Le présent article est publié dans le cadre d'un partenariat éditorial entre Global Voices et Ranking Digital Rights.
A la suite de la tuerie de Charlie Hebdo en janvier 2015, le cofondateur et PDG de Facebook Mark Zuckerberg publia un message de réflexions sur la religion, la liberté d'expression et la ligne éditoriale polémique de ce magazine.
“Il y a quelques années, un extrémiste au Pakistan s'est battu pour me faire condamner à mort parce que Facebook avait refusé d'interdire un contenu sur Mahomet qui l'offensait. Nous avons tenu bon parce que des voix divergentes — même si elles peuvent parfois être offensantes — peuvent faire du monde un endroit meilleur et plus intéressant”, avait écrit Zuckerberg sur sa page.
Un peu plus tard le même mois, Facebook accepta de restreindre l'accès à un nombre non précisé de pages “offensant le prophète Mahomet” en Turquie à la demande des autorités de ce pays.
La Turquie est connue pour la quantité de requêtes qu'elles adresse aux entreprises d'internet pour retirer du contenu enfreignant ses lois, mais n'est pas le seul État du Moyen-Orient à recourir à ce genre de tactique pour faire taire les voix critiques.
Si de nombreux gouvernements de la région font de temps en temps des demandes directes de retraits de contenus – tout en exerçant une pression “discrète” par d'autres moyens – les ratés des géants technologiques dans la modération de contenus dans la région sont un problème beaucoup plus grand et plus complexe.
Abus des mécanismes de signalement
A travers la région, les mécanismes de signalement des plateformes de médias sociaux sont souvent détournés pour réduire au silence les détracteurs des gouvernements, les groupes ou idées minoritaires et les formes d'expression considérées non en phase avec les croyances majoritaires sur la société, la religion et la politique.
En 2016, Facebook a suspendu plusieurs pages et groupes en langue arabe dédiées à l'athéisme à la suite de campagnes massives de signalement,.
Ceci a efficacement éliminé un des rares espaces (et dans certains cas, le seul) où les athéistes et autres minorités pouvaient se retrouver pour partager leurs expériences et s'exprimer librement en matière de religion. A travers la région, l'athéisme reste un tabou qui peut entraîner harcèlement, emprisonnement ou même meurtre.
“[Le signalement abusif] est un problème important”, a dit à Global Voices Jessica Anderson, directrice de projet à onlinecensorship.org, qui documente les cas de retraits de contenus par les plateformes de médias sociaux. “Au Moyen-Orient comme dans d'autres régions, nous avons documenté des cas de censure résultant de ‘campagnes de signalements’—des opérations coordonnées avec de multiples utilisateurs dénonçant une même page ou élément de contenu.”
Les mécanismes de signalement sont aussi utilisés abusivement par les voix pro-gouvernementales. En avril de cette année, Middle East Eye a rapporté que plusieurs militants politiques égyptiens ont vu leurs pages ou comptes suspendus et leurs flux en direct coupés après avoir été dénoncés par des “trolls pro-gouvernement”.
“Ce qu'on constate, c'est que le signalement peut exacerber les déséquilibres de pouvoir existants, en donnant à la majorité une capacité de ’policer’ la minorité”, dit Anderson. “Les conséquences de cela peuvent être graves : les minorités déjà marginalisées et opprimées perdent l'accès aux bénéfices des médias sociaux comme espace où s'organiser, réseauter, et se faire entendre.”
Dénégation des droits des utilisateurs, en contexte
En mai dernier, Apple a rejoint les rangs de Facebook et Twitter — les plateformes de médias sociaux les plus souvent citées dans ce domaine — quand l'iTunes store a refusé de téléverser cinq chansons du groupe libanais Al-Rahel Al-Kabir. Les chansons le moquaient le fondamentalisme religieux et l'oppression politique dans la région.
Un représentant d'iTunes a expliqué que Qanawat, un agrégateur de contenu basé à Dubaï contractant d'Apple pour gérer son magasin pour la région, avait pris sur lui de ne pas charger les chansons. Une source anonyme a déclaré à The Daily Star qu’iTunes n'avait pas connaissance de la décision de Qanawat, prise en raison des “sensibilités locales”. A la suite d'une requête de l'ONG de droits numériques SMEX basée à Beyrouth et du groupe lui-même, iTunes a téléversé les chansons et promis de changer d'agrégateur.
Cette affaire n'illustre pas seulement comment les “sensibilités locales” peuvent interférer avec les décisions sur les types de contenu pouvant être mis en ligne et y rester dans la région ; elle montre aussi que les entreprises doivent faire preuve de diligence raisonnable quand elles prennent des décisions susceptibles d'affecter les droits à la liberté d'expression des utilisateurs.
Parlant à Global Voices, Mohamad Najem, le cofondateur de SMEX, a souligné que Facebook et Twitter ont l'un comme l'autre leurs bureaux régionaux situés dans les Émirats arabes unis, qu'il a décrits comme l'un des “pays les plus répressifs” de la région.
“Voilà une décision commerciale qui affectera la libre parole de façon négative”, dit-il. Et d'exprimer son inquiétude que le choix d'un pays comme les EAU pour y ouvrir un bureau “puisse conduire à appliquer les normes sociales du Golfe” à une région [arabe] entière qui est “dynamique et différente”.
Localisation, toujours
Facebook et Twitter ont des bureaux dans les EAU destinés à couvrir le Moyen-Orient et Afrique du Nord (MENA en anglais), une région ethniquement, culturellement et linguistiquement diverse et qui présente un large éventail de points de vue et expériences politiques. Quand les entreprises sont sous la pression de gouvernement oppressifs ou de puissants groupes pour respecter “les sensibilités locales”, elles se rendent complices de l'extinction de l'expression de cette diversité.
“Les plateformes paraissent recevoir des directives de voix plus bruyantes et plus puissantes… au Moyen-Orient, [elles] n'ont pas su tenir tête aux intérêts puissants tels que les gouvernements”, dit Anderson.
Voir, par exemple, l'empressement de Facebook à satisfaire les demandes de censure du gouvernement turc. Au long des années, l'entreprise a participé à la censure des critiques contre le gouvernement, la religion et contre Atatürk le fondateur de la république, les activistes kurdes, les contenus LGBT et même contre une initiative anti-racisme.
La complicité de Facebook avec ces requêtes paraît invétérée. J'ai parlé il y a deux ans avec un militant turc qui m'a dit qu'il pensait que la plateforme “se transformait en média pro-gouvernemental”. Aujourd'hui, la plateforme continue à obéir et à restreindre l'accès à plus de 4.500 contenus à l'intérieur du pays rien qu'en 2017. Facebook n'est pas transparent sur le nombre et le taux de requêtes auxquelles il se soumet.
“Le plus gros défaut dans les façons dont les plateformes traitent les requêtes de retrait est [leur] manque de compréhension des contextes politiques. Et même s'il existe une forme d'idée de ce qui se passe sur place, je ne suis pas tout à fait sûre que la diligence nécessaire y soit”, dit Arzu Geybulla, une auteur indépendante qui couvre la Turquie et l'Azerbaïdjan pour Global Voices.
Dans le cadre de conférences, les représentants de Facebook sont confrontés à des questions routinières sur les campagnes massives de signalements. Ils soutiennent que des signalements multiples d'abus sur un même post ou page n'engendrent pas une procédure automatique de retrait de ce post ou page. Mais ils n'offrent guère d'information concrète sur comment l'entreprise décèle ces situations et y répond. Est-ce qu'elle regarde ce contenu de plus près ? Les représentants de Facebook disent aussi se concerter avec les spécialistes locaux de ces questions, mais les détails de ces consultations sont tout aussi opaques.
Et le travail de modération des contenus — décider de ce qui est conforme à la fois aux normes de droit locales et aux politiques de Facebook — n'est pas facile. Anderson de onlinecensorship.org explique :
Content moderation is incredibly labor intensive. As the largest platforms continue to grow, these companies are attempting to moderate a staggering volume of content. Workers (who may not have adequate knowledge and training, and may not be well paid) have to make snap decisions about nuanced and culturally-specific content, leading to frequent mistakes and inconsistencies.
La modération de contenu réclame une incroyable quantité de main d’œuvre. Alors que les plateformes continuent à grandir, ces entreprises s'efforcent de modérer un faramineux volume de contenus. Les employés (qui peuvent manquer de connaissances et de formation adéquates, et peuvent être sous-payés) doivent prendre des décisions instantanées sur des contenus nuancés et avec des particularismes culturels, conduisant à de fréquentes erreurs et incohérences.
Pour les militants et défenseurs des droits humains de la région, la difficulté est aussi de connaître l'ampleur de ce problème du fait du manque de transparence des entreprises. Des cas comme celui d'iTunes peuvent se produire plus souvent qu'il n'apparaît publiquement : ce n'est que si quelqu'un fait savoir qu'il a été censuré que ces pratiques viennent au jour.