Le procès contre Meta au Kenya ouvre la voie aux pays africains pour poursuivre les entreprises technologiques

image credits: Book Catalog. Attribution 2.0 Generic (CC BY 2.0)

Crédits de l'image : Book Catalog. Attribution 2.0 Generic (CC BY 2.0)

Récemment, un tribunal kenyan a décidé qu'un dossier contre la société mère de Facebook, Meta, déposé par Daniel Motaung, un ancien modérateur de Facebook, pour exploitation présumée et environnement de travail toxique dans son bureau de Nairobi peut aboutir, créant un précédent pour les entreprises technologiques qui, en invoquant l'incompétence, ont tenté d'échapper à la justice afin d'éviter les répercussions juridiques devant les tribunaux locaux. Motaung a également poursuivi Meta Platforms Ireland Limited et son agent local d'externalisation, Samasource Kenya EPZ Limited.

Dans sa plainte déposée l'an dernier auprès du tribunal de l'emploi et des relations de travail du Kenya, Motaung et 12 autres anciens employés affirment avoir subi des blessures psychologiques en raison d'une exposition répétée à un contenu violent graphique extrêmement dérangeant, associé à un environnement de travail toxique.

Par l'intermédiaire de son avocat, Meta avait fait valoir que Meta Platforms, Inc. et Facebook étaient des sociétés étrangères et qu'elles n'étaient ni résidentes ni commerçantes au Kenya, et qu'elles n'étaient donc pas sous la juridiction du pays. Cependant, le tribunal de l'emploi et des relations de travail a décidé le 6 février que Meta pouvait être poursuivi au Kenya. Ce sera la première fois qu'un procès contre un géant mondial de la technologie fait l'objet d'une audience, non seulement en dehors de l'Occident, mais en Afrique, où l'acte répréhensible s'est produit.

Cette décision de justice pourrait permettre à ce que d'autres entreprises technologiques soient poursuivies au Kenya et dans d'autres pays. Cela pourrait inclure OpenAI qui, selon les dernières révélations du magazine Times, a payé des travailleurs kenyans moins de 2 USD pour les former à l'intelligence artificielle, les obligeant souvent à examiner du matériel explicite et traumatisant.

Les méfaits de la modération de contenu

La modération du contenu, le processus d'examen des publications, des photos et des vidéos sur les réseaux sociaux pour déterminer si le contenu enfreint les politiques d'une plate-forme, a fait l'objet d'un examen approfondi ces dernières années, à mesure que l'impact sur la santé mentale des travailleurs est devenu plus évident.

Bien que la modération de contenu soit une fonction essentielle de tout site de médias sociaux, Facebook choisit de ne pas employer directement les 15 000 personnes qui modèrent leur contenu. Au lieu de cela, il choisit de sous-traiter cette fonction de sécurité critique à des sous-traitants tiers tels que Genpet en Inde, Cognizant aux États-Unis, Covalen et Accenture en Irlande et, jusqu'à récemment, Sama Source au Kenya.

Les histoires de modérateurs de contenu embauchés par ces sous-traitants de Facebook sont toutes étrangement similaires : ils sont exposés à des heures prolongées d'exposition à du contenu répugnant, reçoivent peu ou aucun soutien pour contrer ou faire face aux dommages causés par l'exposition à un tel contenu, payés injustement et soumis à des accords de non-divulgation. Suite à l'affaire de mai 2020 dans laquelle Meta a versé 52 millions de dollars en règlement à plus de 11 000 modérateurs de contenu aux États-Unis pour des problèmes de santé mentale développés au travail, l'entreprise a amélioré les conditions de travail de certains modérateurs aux États-Unis. Ils n'ont pas reproduit cela avec d'autres à l'étranger.

Selon Nanjira Sambuli, chercheuse et analyste politique kenyane, l'Afrique est devenue la prochaine destination phare pour l'exportation de modération de contenu et avec elle, les effets secondaires qui en découlent.

Odanga Madung, chercheur chez Mozilla, journaliste de données indépendant et co-fondateur d'Odipo Dev, affirme que Motaung dispose d'un dossier solide. Comme il l'a révélé à Global Voices, en se basant uniquement sur les précédentes poursuites en matière de modération de contenu, Meta est susceptible de parvenir à un accord amiable.

Si cette affaire fait l'objet d'une audience complète, elle exposera très probablement les complexités de Facebook. Le public aura accès à leurs pratiques de modération de contenu. Pour quelles raisons permettent-ils au contenu de rester actif ou d'être supprimé et, ce faisant, de l'ouvrir à d'autres suites ou à un examen plus approfondi ?

Odanga fait référence au règlement de mai 2020.

« Nous avons évité un précédent très dangereux »

Mais là où Meta a vu une Savane numérique à Nairobi avec une main-d'œuvre jeune et férue de technologie qui pourrait être exploitée avec des pratiques de travail inacceptables, ils ont été aveugles ou sont devenus ignorants du système judiciaire du pays. En octobre 2021, la Haute Cour du Kenya a rendu une autre décision historique contre Uber pour violation de contrats avec des chauffeurs au Kenya. Tout comme Meta, Uber a essayé et échoué en utilisant le même argument de ne pas être domicilié au Kenya. Pendant des années, leurs chauffeurs se sont battus pour prouver qu'Uber Kenya Limited et Uber BV étaient bien une seule et même entreprise. Ils ont fini par gagner.

Odanga a expliqué les raisons : 

Cette décision nous préoccupe beaucoup, car nous sommes dans le champ de responsabilité de la plate-forme, en particulier compte tenu de la récente tentative de Facebook et Meta d'ignorer leur responsabilité en affirmant qu'ils ne sont pas domiciliés dans le pays. Le fait qu'ils puissent échapper à toute responsabilité pour tout type de préjudice qu'ils causeraient aux citoyens d'un autre pays est troublant.

En tant que boursier Mozilla, Odanga a exposé l'industrie de la désinformation qui a prospéré au Kenya en utilisant des rapports basés sur la recherche et en incitant les plateformes de médias sociaux à être plus responsables.

S'exprimant sur les raisons pour lesquelles la décision était si importante et sur sa signification, il a déclaré : « Je pense que nous avons évité un précédent très dangereux en prenant une telle décision au sein de nos tribunaux.»

L'effet papillon

Odanga a parlé de l'effet papillon que cette récente décision aura pour de très nombreuses personnes dans l'industrie comme lui. Mais plus important encore pour les utilisateurs de Facebook et les militants des droits numériques qui ont été victimes de leurs pratiques opaques de modération de contenu.

Parmi eux, deux chercheurs éthiopiens qui, avec le groupe de défense des droits kényans, l'Institut Katiba, poursuivent Meta pour 1,6 milliard de dollars pour avoir permis à des contenus haineux de prospérer sur leur plateforme et alimenté la violence ethnique éthiopienne.

Tout en échangeant avec les journalistes à Nairobi via un lien vidéo suite à la décision du Motaung contre Meta, sur le rôle que FoxGlove, une organisation à but non lucratif Tech Justice, jouait dans les deux affaires, l'un de ses co-fondateurs et directeurs Cori Crider a parlé de l'importance des deux cas et comment la modération du contenu (ou son absence dans le cas des Éthiopiens) était au cœur des deux.

Comme elle l'a noté, les deux cas découlent de ce qui s'est passé dans le même centre de modération de contenu de Nairobi à Sama Source.

Les informations divulguées par un ancien employé de Meta à FoxGlove ont révélé que 87 % du budget de désinformation de Facebook est alloué aux États-Unis anglophones. Le budget restant est ce qui est partagé par le reste du monde.

Malgré l'importance de la région subsaharienne, Meta n'a pas réussi à investir dans ces millions, a-t-elle déclaré. 

Comme Crider l'a expliqué, c'est cette incapacité à allouer un budget proportionné à la modération du contenu qui est à l'origine de niveaux de dotation intenables qui les ont amenés à permettre aux messages violents et haineux d'Éthiopie de prospérer, enflammant la guerre civile sanglante du pays. C'est également ce qui a conduit à l'exploitation des modérateurs de contenu et des conditions de travail qui, dans le cas de Motaung et de ses collègues, ont entraîné des traumatismes psychologiques et des TSPT, a-t-elle ajouté.

Des droits humains à un argument économique

Le chômage des jeunes est un véritable drame en Afrique. Selon Statista, le taux de chômeurs au Kenya a augmenté de 0,3 point de pourcentage en 2021 par rapport à l'année précédente. Selon les dernières données, le taux de chômage des jeunes au Kenya a atteint un sommet de 13,84 % en 2021.

L'absence de politiques régissant l'économie croissante du travail au Kenya menace de transformer ses jeunes avertis en numérique en esclaves numériques alors que les cas croissants d'exploitation des grandes technologies continuent de faire la une des journaux. Odanga a également évoqué une réelle crainte chez ses collègues chercheurs, les défenseurs kényans des droits de l'homme et du numérique, que la classe politique puisse rapidement faire de ces droits de l'homme un argument économique, et ce faisant, renoncer à leur rôle de décideur politique que les lois du travail étendent même dans l'espace numérique.

Là où Crider voit ces deux cas comme une opportunité de relancer les relations entre des démocraties importantes telles que le Kenya (et la région) et certaines des entreprises technologiques les plus grandes et les plus puissantes que le monde ait jamais vues, Nanjira prévient que ces opportunités ne seront pas pleinement exploitées à moins que « les décideurs africains ne mettent en place des garde-fous sur la manière dont l'économie des concerts est réglementée sur le continent ».

Commentez

Merci de... S'identifier »

Règles de modération des commentaires

  • Tous les commentaires sont modérés. N'envoyez pas plus d'une fois votre commentaire. Il pourrait être pris pour un spam par notre anti-virus.
  • Traitez les autres avec respect. Les commentaires contenant des incitations à la haine, des obscénités et des attaques nominatives contre des personnes ne seront pas approuvés.

Je m'abonne à la lettre d'information de Global Voices en Français

Non merci, je veux accéder au site