À un moment crucial des crises mondiales, X (anciennement Twitter) dilue sa politique de discours violent
Le 25 octobre 2023, la plateforme de réseaux sociaux X, anciennement connue sous le nom de Twitter, a apporté des modifications à sa politique globale en matière de directives communautaires. Selon la Platform Governance Archive* (un dépôt de données qui suit automatiquement les changements de politique sur 18 plateformes) X a considérablement assoupli sa politique en matière de discours violents. En 2023, les propos violents sont définis par X (et par Twitter dans le passé) comme des menaces violentes ou des souhaits de nuire.
Dans l'ensemble, ces changements signifient que la société X réduit considérablement le champ d'application de sa disposition relative aux propos violents ainsi que les conséquences lorsque de tels propos sont détectés. La société X semble indiquer à ses utilisateurs que les sanctions pour la publication de contenus violents s'appliqueront désormais à un champ d'expression plus restreint et que les sanctions elles-mêmes pourraient être moins sévères.
Ces changements interviennent alors que X poursuit le Center for Countering Digital Hate (CCDH), une organisation à but non lucratif qui lutte contre les discours de haine et la désinformation, en l'accusant d'avoir fait de fausses déclarations. Comme le rapporte Reuters, cette action en justice fait suite à un rapport publié par des médias utilisant les recherches du CCDH en juillet 2023, qui affirmait que les discours de haine envers les communautés minoritaires sur la plateforme avaient augmenté depuis qu'Elon Musk avait racheté l'entreprise en octobre 2022. The Guardian a également noté récemment que l'UE, en vertu de sa loi sur les services numériques (Digital Service Act ou DSA), a mis en garde X pour avoir autorisé « la désinformation présumée sur l'attaque du Hamas contre Israël » sur sa plateforme, tandis que 7amleh – le Centre arabe pour l'avancement des médias sociaux, a documenté l'escalade de la discrimination en ligne, du racisme, de l'incitation et de la désinformation sur X.
Les changements mis en œuvre par X sont les suivants :
De la politique de tolérance zéro à la simple réduction de la visibilité
Plus tôt, les lignes directrices communautaires de X ont déclaré :
X est un lieu où les gens peuvent s'exprimer, s'informer sur ce qui se passe et débattre de questions mondiales. Toutefois, les conversations saines ne peuvent pas se développer lorsque des propos violents sont utilisés pour faire passer un message. C'est pourquoi nous appliquons une politique de tolérance zéro à l'égard des discours violents afin de garantir la sécurité de nos utilisateurs et d'empêcher la normalisation des actions violentes. [accentuation ajoutée]
Aujourd'hui, le texte est le suivant :
X est un lieu où les gens peuvent s'exprimer, s'informer sur ce qui se passe et débattre de questions mondiales. Toutefois, les conversations saines ne peuvent pas se développer lorsque des propos violents sont utilisés pour faire passer un message. Par conséquent, nous pouvons supprimer ou réduire la visibilité des discours violents afin d'assurer la sécurité de nos utilisateurs et d'empêcher la normalisation des actions violentes. [accentuation ajoutée]
Le passage de la « tolérance zéro » à la « nous pouvons supprimer ou réduire la visibilité » est illustré plus loin dans les nouvelles lignes directrices communautaires.
De la suspension des comptes dans « la plupart des cas » à seulement « certains cas »
Auparavant, les sanctions de la X étaient sévères pour la plupart des violations de ses politiques :
Dans la plupart des cas, nous suspendrons immédiatement et définitivement tout compte qui enfreint cette politique. Dans le cas de violations moins graves, nous pourrons vous interdire temporairement l'accès à votre compte avant que vous ne puissiez poster à nouveau. [accentuation ajoutée]
La nouvelle version a été assouplie pour la plupart des infractions :
Dans certains cas, nous suspendrons immédiatement et définitivement tout compte qui enfreint cette politique. Toutefois, pour la plupart des violations, nous pouvons plutôt verrouiller temporairement votre compte avant que vous ne puissiez poster à nouveau. [accentuation ajoutée]
De la suspension ferme à la suspension éventuelle du compte
Les lignes directrices communautaires de X indiquent également que les contenus violents peuvent, dans de rares cas, être rendus moins visibles, mais que toute violation persistante de cette politique après un avertissement peut entraîner la « suspension permanente » des comptes. La version précédente de cette politique stipulait que les comptes seraient définitivement « suspendus ».
De l'évaluation du contexte à la non-évaluation du contexte
L'entreprise a également reformulé sa définition des contenus exemptés de sa politique en matière d'expression violente, en déclarant que « nous autorisons également certains cas de figures d'expression, de satire ou d'expression artistique lorsque le contexte est l'expression d'un point de vue plutôt que l'incitation à la violence ou au préjudice pouvant donner lieu à des poursuites ». Il s'agit d'une description plus précise des contenus exemptés. La politique précédente disait : « Nous nous assurons d'évaluer et de comprendre le contexte de la conversation avant d'agir ».
Il y a deux semaines, le site Facebook de Meta a également modifié sa politique concernant les contenus sadiques, imaginaires et violents. Toutefois, les restrictions ont été renforcées.
Actuellement, Meta et X, ainsi que d'autres grandes plateformes en ligne (YouTube, TikTok) font l'objet d'une enquête de conformité de la part de la Commission européenne dans le cadre du DSA. La Commission européenne a adressé des demandes à X, Meta et TikTok, leur demandant de rendre compte de la manière dont ils ont atténué la diffusion de contenus illégaux et de désinformation concernant le conflit israélo-palestinien.
Le DSA, qui est entré en vigueur en novembre 2022, oblige toutes les très grandes plateformes en ligne de l'UE à atténuer les risques sociétaux, y compris les discours « illégaux et préjudiciables ». Il existe actuellement 17 très grandes plateformes désignées, chacune comptant au moins 45 millions d'utilisateurs par mois. Dans le même temps, certaines organisations de la société civile en Europe ont fait part de leurs inquiétudes quant à l'utilisation du DSA comme instrument pour faire pression sur les plateformes afin qu'elles suppriment rapidement des contenus en temps de crise, ce qui pourrait potentiellement constituer une violation de la liberté d'expression et porter atteinte aux droits de l'homme.
*La Platform Governance Archive (PGA) est un référentiel de données et une plateforme qui recueille et conserve les politiques des principales plateformes de médias sociaux dans une perspective à long terme. Elle est gérée par le Platform Governance, Media and Technology Lab, et le Center for Media, Information, and Communication Research (ZeMKI) de l'université de Brême, en Allemagne.
Cet article a été publié sur Advox, un projet de Global Voices dédié à la défense de la liberté d'expression en ligne. · Tous les billets