Comment la pandémie de COVID-19 intensifie les failles de la modération des contenus

Logos de Messenger tenus comme des pancartes de manifestation.

Illustration de Mozilla, utilisé avec permission.

L'article suivant a été rédigé par les auteur·e·s invité·e·s Solana Larsen, responsable du rapport sur la santé d'Internet chez Mozilla, et Leil Zahra, un boursier Mozilla intégré à WITNESS.

Sauf mention contraire, tous les liens de cet article renvoient vers des pages en anglais, ndt.

Alors que les gens du monde entier se mettent à l'abri de la pandémie de COVID-19, Internet est devenu une ressource encore plus vitale qu'auparavant. Désormais des millions d'entre nous se connectent, compatissent, apprennent, travaillent et jouent exclusivement en ligne.

D'une certaine manière, la pandémie a révélé le potentiel d'Internet en tant que bien public mondial. Mais elle révèle aussi ce qu'Internet a de néfaste : les personnes qui n'y ont pas accès [fr] sont aujourd'hui encore plus pénalisées et les lacunes en matière de protection de la vie privée et de sécurité des technologies grand public exposent désormais infiniment plus de gens.

Un problème troublant mis en évidence par la pandémie est l'écosystème de modération des contenus sur Internet, qui est en panne. En d'autres termes, la façon dont les grandes plateformes technologiques traitent les discours de haine, la désinformation et les contenus illégaux en ligne est profondément défectueuse. Malgré de nombreuses avancées, Facebook, YouTube et d'autres plateformes modèrent souvent les contenus de manière capricieuse ou carrément dangereuse : les contenus nuisibles sont laissés à l'abandon et les contenus acceptables sont injustement supprimés. Ces décisions touchent souvent de manière disproportionnée les populations du Sud et les personnes qui parlent des langues moins bien représentées.

En ce moment, nous sommes à un point d'inflexion. Les failles de la modération des contenus vont-elles s'accentuer ? Ou cette crise peut-elle être un tremplin pour un changement positif et durable dans notre façon de communiquer en ligne ?

L'un des problèmes les plus épineux de la modération de contenu est de savoir qui – ou quel système – assure la modération. Avec la désinformation liée à la pandémie qui submerge les plateformes et l'impossibilité de travailler pour de nombreux modérateurs de contenu, de nombreuses plateformes se tournent de plus en plus vers l'intelligence artificielle. Les limites de cette approche sont claires. Le filtrage automatisé n'a pas réussi à empêcher la désinformation sur le COVID-19 de se propager comme une trainée de poudre et de mettre en danger la santé publique. Les plateformes sont inondées de messages suggérant que la consommation d'eau de javel peut guérir le virus, ou que la technologie 5G propage d'une manière ou d'une autre la maladie.

Outre le fait de passer sous silence la désinformation, la modération automatisée peut également censurer accidentellement un contenu de qualité. Les internautes qui posent des questions sérieuses, ou qui s'expriment en utilisant un vocabulaire ou des contextes locaux, peuvent être qualifié·e·s à tort de problématiques. En pleine pandémie, la modération automatisée sur Facebook a entraîné le retrait par erreur d'une grande quantité de contenu, y compris des liens vers des articles de presse sur le COVID-19. En mars, Facebook a affirmé qu'un « problème » technique était à l'origine de cette situation et a déclaré avoir restauré le contenu retiré. Mais cet épisode soulève de sérieuses questions sur l'efficacité de ces systèmes et, jette en outre un doute sur la transparence de Facebook. Lorsque YouTube a annoncé en mars avoir renforcé le filtrage automatique en raison de la pandémie de COVID-19, l'entreprise a déclaré : « Ce faisant, il est possible les utilisateur·rice·s et les créateurs voient une augmentation des suppressions de vidéos, y compris certaines vidéos qui ne violent pas nécessairement le règlement. » De même, Twitter a expliqué au cours du même mois que leur modération automatisée « pouvait parfois manquer du contexte que [leurs] équipes apportent, et cela pouvait [les] amener à faire des erreurs ».

Le fait que la procédure d'appel puisse être opaque lorsque le contenu est injustement retiré ou qu'un compte est suspendu, n'aide pas. Dans de nombreux cas, les utilisateur·rice·s sont laissé·e·s dans le doute quant aux raisons du retrait d'un contenu ou de la suspension d'un compte. Et même avant la pandémie, le contexte a été une question majeure dans le débat sur la modération des contenus. Par exemple, la question de savoir si une approche centrée sur les États-Unis pour ce qui est du langage accepté ou non doit être appliquée au niveau international.

La modération des contenus souffren d'un problème de technologie défectueuse ; les politiques inéquitables en sont un autre. Aux États-Unis et dans certains pays européens, les grandes plateformes technologiques peuvent être assez vigilantes quant au respect des lois locales et de leurs propres engagements politiques internes. Ailleurs, ce n'est pas le cas. Lors des élections au Nigéria en 2018, la chercheuse et collaboratrice de Global Voices Rosemary Ajayi et un groupe de collègues ont catalogué des centaines de tweets diffusant des informations désobligeantes et ont été consterné·e·s par le taux de réponse imprévisible et incohérent aux rapports sur cette activité. « Si vous signalez quelque chose de grave le jour des élections et qu'ils vous répondent une semaine plus tard, à quoi bon ? », a déclaré Mme Ajayi. Cette idée est tout aussi effrayante dans le contexte actuel : si une plateforme supprime la désinformation liée au COVID-19 alors que des millions de personnes l'ont déjà vue, le mal est déjà fait.

Ce ne sont là que deux des nombreux problèmes qui se posent depuis longtemps dans le domaine de la modération de contenu. Dans la récente étude de Mozilla sur l'espace des médias sociaux, nous en avons examiné plusieurs autres. Nous avons parlé avec un groupe polonais à but non lucratif de réduction des risques liés à la drogue, SIN, qui a été supendu par Facebook et qui ne peut pas faire appel de la décision. Et nous avons parlé avec le groupe de recherche sur les droits humains Syrian Archive, qui affirme que les preuves de violations des droits humains en temps de guerre sont souvent effacées par les plateformes. Il n'est pas difficile de voir comment de tels cas peuvent être particulièrement graves pendant une pandémie aussi. Que se passe-t-il si des informations critiques sur la santé disparaissent ou si des preuves de violations des droits humains liées au confinement sont supprimées à tort ?

Il n'y a pas de panacée pour ces problèmes. Mais une plus grande transparence sur ce qui est retiré, quand et pourquoi, ainsi que sur la proportion des retraits qui font l'objet d'un appel et sont rétablis, pourrait aider les chercheur·e·s et les communautés concernées à mieux conseiller les plateformes et les décideurs politiques. Les rapports de transparence des principales plateformes sont néanmoins devenus plus détaillés au fil des ans, en partie grâce à la pression de la société civile, notamment des signataires des principes de Santa Clara. Cette initiative communautaire visant à définir les bases de la transparence et de la responsabilité en matière de modération de contenu a été lancée en 2018, et plusieurs plateformes y ont adhéré par la suite. En mars, constatant que les principes bénéficieraient d'une mise à jour, l'Electronic Frontier Foundation (EFF) a lancé un appel à propositions mondial pour savoir comment mieux répondre aux besoins des voix marginalisées qui sont fortement touchées (la date limite est fixée au 30 juin).

On ignore tellement de choses sur les modèles de modération et les procédures d'appel dans les différents contextes mondiaux que même les témoignages anecdotiques des utilisateur·rice·s concerné·e·s constitueraient une ressource précieuse. Silenced.online est un nouvel outil de base pour le crowdsourcing et la discussion des expériences de retrait injustifié à travers le monde. Il vise à créer un réseau d'organisations et d'individus qui ont travaillé, ou veulent commencer à travailler, sur le retrait et la modération de contenus.

D'autres groupes conviendront qu'il est crucial que la société civile et les chercheur·e·s s'engagent sur les questions de modération des contenus et de régulation des plateformes. Les scandales et les crises ont tendance à provoquer de nouvelles règles et réglementations, ou des appels à une plus grande automatisation, qui ne sont pas nécessairement basés sur une analyse indépendante de ce qui fonctionne. Les nouvelles approches visant à créer des mécanismes de responsabilité et d'appel, comme le nouveau Conseil de surveillance de Facebook, exigent l'attention d'un public mondial.

Comme indiqué plus haut, la pandémie de COVID-19 met en évidence les défauts de modération du contenu, mais les problèmes sont anciens, notamment en matière de santé et de désinformation. Ils nécessitent un changement dans le fonctionnement quotidien des plateformes ainsi que dans la manière dont elles sont tenues responsables. Une attention et une concentration accrues sur la question pourraient catalyser quelque chose de positif. Cela peut susciter une plus grande transparence, et aller dans le sens d'une technologie plus humaine, de meilleures lois et d'un Internet plus sain.

Commentez

Merci de... S'identifier »

Règles de modération des commentaires

  • Tous les commentaires sont modérés. N'envoyez pas plus d'une fois votre commentaire. Il pourrait être pris pour un spam par notre anti-virus.
  • Traitez les autres avec respect. Les commentaires contenant des incitations à la haine, des obscénités et des attaques nominatives contre des personnes ne seront pas approuvés.