Les législateurs allemands ont voulu étouffer les discours de haine et la discrimination raciale en ligne, et pour cela ils ont construit en 2017 une des lois les plus controversées de régulation des plateformes Internet de l'Union Européenne.
Connue sous le nom de “NetzDG”, la Netzwerkdurchsetzungsgesetz de l'Allemagne (loi d'application sur les réseaux) exige des grandes entreprises de médias sociaux qu'elles appliquent de façon pro-active sur leurs plateformes les lois allemandes sur le droit d'expression. Une tempête de critiques l'a saluée tant dans le pays qu'à l'étranger.
Cette loi impose des amendes aux réseaux sociaux qui ne retireraient pas un contenu “manifestement illégal” dans les 24 heures suivant leursignalement, et donne aux entreprises un maximum de sept jours pour examiner le retrait de matériaux plus ambigus. Comme le code pénal allemand définit déjà les propos haineux, la loi ne crée pas de nouvelles dispositions ou définitions au-delà de l'obligation faite aux grands réseaux sociaux de répondre aux citations judiciaires mentionnées par une adresse allemande.
En revanche, le texte contraint les entreprises à faire la chasse aux discours de haine, faute de quoi elles encourent en cas d'infraction persistante des amendes astronomiques pouvant atteindre 50 millions d'euros. Si cela accroît la pression sur la réactivité des firmes, cela les oblige aussi à décider de ce qui est — ou n'est pas — un discours de haine. La brièveté du délai donné par la loi aux entreprises pour retirer les propos haineux peut aisément les incliner à une censure automatisée afin de s'épargner de coûteuses amendes.
La NetzDG est le fruit de la conjoncture politique actuelle de l'UE, plutôt que des tensions de long terme sur le pouvoir et les droits des compagnies de médias sociaux quant à l'hébergement de contenus haineux en ligne.
Pendant la saison électorale allemande de 2017, les craintes des gains de sièges au parlement par les droitiers de l'Alternative pour l'Allemagne (AfD) ont conduit à une cacophonie de voix pressant les législateurs de barrer la voie aux propos haineux sur les médias sociaux, avec Facebook pour cible principale. Ce qui a largement couvert les voix qui plaidaient pour une approche mesurée exigeant des entreprises de médias sociaux plus de transparence et de responsabilisation en vue de protéger les droits et intérêts des utilisateurs.
Si toutes les entreprises de médias sociaux doivent appliquer la loi, les spécialistes s'accordent que cette “loi Facebook” a toujours visé une société bien précise.
Ce que nous avons maintenant en Allemagne, c'est une loi qui exige un respect et une attention disproportionnée de Facebook sans vraiment contraindre cette entreprise à réformer ses pratiques dans l'intérêt public.
Chaque fois que les législateurs sont sous pression pour réduire systématiquement les discours de haine en ligne, ils paraissent transférer toujours plus la responsabilité concrète de régulation des contenus aux entreprises privées elles-mêmes. Résultat final, c'est à Facebook que l'on demande de décider davantage — et pas moins — des types de contenus qui doivent rester en ligne.
Et alors que la mise en œuvre est techniquement confinée à l'intérieur des frontières allemandes, ses effets peuvent être ressentis mondialement. Cette loi peut-elle être suffisamment réparée pour empêcher tout dommage supplémentaire aux droits humains en ligne ? Ou bien faut-il la jeter entièrement ?
Meilleure gouvernance ? Difficile à dire.
En pratique, la NetzDG crée une expérience utilisateur légèrement différente pour les Facebookeurs allemands qui rencontrent des propos leur paraissant illégaux. Quand les utilisateurs veulent marquer du contenu potentiellement illégal, ils arrivent à une page distincte de signalement sur laquelle ils peuvent demander à Facebook de retirer le contenu en vertu de la NetzDG. Cette page est complètement indépendante des mécanismes existants de signalement de contenus inappropriés que Facebook propose aux utilisateurs ailleurs dans le monde. La page semble aussi avoir un mécanisme de gradation distinct.
Ce que fait notamment la loi NetzDG, c'est de se référer aux normes juridiques allemandes existantes sur les contenus illégaux. Et surtout, elle fixe de stricts délais et pénalités à la satisfaction des requêtes adressées à la compagnie de retirer les contenus illégaux.
Mais nous ne savons pas grand chose de la manière dont Facebook détermine dans les faits quels sont les contenus conformes à la loi allemande et ceux qui ne le sont pas.
Les contenus signalés sur Facebook seront-ils évalués par un être humain ou par un algorithme ? Si c'est un être humain, il ou elle vivra à San Francisco, aux Philippines ou à Dublin ? parlera quelles langues ? connaîtra le contexte culturel de chaque message signalé pour contrôle ? aura une formation juridique ? Qui prendra la décision ultime dans le processus de vérification de contenu ?
Nous n'en savons rien, car Facebook ne rend pas cette information publique. Le processus peut varier profondément selon les réponses à ces questions.
De la transparence, mais pas assez
Un élément plus clair de la NetzDG est l'exigence que les compagnies publient un rapport périodique détaillé sur les résultats de l'application de la loi. Mais les catégories de données proposées pour ce rapport de transparence par la NetzDG ne fournissent pas de compréhension significative du processus de décision de Facebook. La transparence réclamée ne s'étend qu'à la mise en œuvre de la loi elle-même et ne se rapporte pas à l'ensemble des décisions de retrait prises par Facebook. Les décisions prises dans le cadre des conditions de service sont totalement distinctes — la loi n'exige pas de transparence sur ce type de décisions.
De plus, la NetzDG requiert de Facebook un type de transparence que le gouvernement allemand lui-même ne fournit pas pour ses propres institutions. Il est impossible d'obtenir un aperçu national de tous les retraits de contenus ou requêtes de données de la part des autorités allemandes, et encore moins une ventilation service par service de ces enregistrements. Des entreprises allemandes comme la plateforme de courriel Posteo laissent entendre qu'une large proportion des requêtes administratives qu'elles reçoivent pour des informations sur les usagers sont illégales selon la loi allemande. Cela peut-il vouloir dire qu'une même proportion de requêtes de retrait de contenu est aussi illégale ? Des données publiquement accessibles sur ce genre de requêtes aideraient à répondre à cette question.
En même temps, la loi NetzDG essaie bien d'imposer quelques mesures additionnelles de transparence au processus décisionnel de Facebook en exigeant de la compagnie des rapports réguliers de transparence sur la mise en œuvre de la loi.
Au final, la loi rate l'occasion de définir une norme commune de divulgation des données, qui permettrait leur exploitation et leur croisement significatifs entre compagnies privées. Cela veut dire que chacune donnera l'information dans un format différent et avec des mesures différentes, rendant les comparaisons pouvant être intéressantes — par exemple, entre Facebook et Twitter — impossibles par nature. Les entreprises privées auraient pu et dû depuis longtemps développer conjointement de telles normes communes de divulgation, mais comme cela ne les intéresse guère de rendre leurs données significativement comparables, il revient aux organisations de la société civile d'intervenir et de définir des normes appropriées.
Ces faits mis ensemble rendent impossible aux tiers indépendants de croiser les rapports sur la transparence du secteur public avec ceux du secteur privé. Ce n'est pas sorcier de s'assurer que la transparence soit apportée par les secteurs tant public que privé de manière à rendre les affirmations vérifiables indépendamment et donc beaucoup plus fiables que si elles émanent d'un acteur seul. Mais, aux dépens de l'intérêt public, la loi n'est pas allée aussi loin.
Les échecs de l'auto-régulation sont ignorés
Plus absurde peut-être, alors qu'une bonne partie du débat public sur la loi était riche d'articles sur le non-fonctionnement du système auto-régulateur existant de Facebook, très peu d'éléments de la NetzDG y remédient réellement.
Autrement dit, il est toujours parfaitement loisible à Facebook de supprimer des images de mères donnant le sein ou de discours politiques non-violents qu'il considère offensants tout en laissant les incitations à la violence sur la plateforme totalement intactes.
Des critères minimaux plus élevés d'auto-régulation sur Facebook contribueraient grandement à rapporter aux nombreuses questions difficiles sur la régulation des contenus sur la plateforme, les réponses qui nous manquent toujours.
Ainsi, un niveau basique de formation juridique — en droit allemand — pour les individus qui prennent les décisions sur les contenus permettrait de garantir leur capacité à prendre des décisions effectives respectant le droit allemand.
Spirale descendante de dérégulation
Au ministère allemand de la Justice, l'auteur de la loi NetzDG a noté : “Avec le pouvoir et le contrôle vient la responsabilité.”
Mais les modalités mêmes de l'influence des entreprises de réseaux sociaux enferment les législateurs dans un paradoxe de réglementation. A mesure que ceux-ci se préoccupent de plus en plus de “faire quelque chose à propos de Facebook”, ils se retrouvent dans une spirale descendante de dérégulation. Peut-être déroutés par les caractéristiques particulières des compagnies de médias sociaux, les législateurs déversent le pouvoir décisionnaire et la responsabilités sur les entreprises d'une façon qui n'est ni utile ni efficace pour résoudre le problème. De ce fait, ils privatisent des décisions qui devraient être prises par des autorités indépendantes. Chaque invention réglementaire des législateurs voulant bien faire les laisse seulement enfermés dans la même contradiction régulatrice consistant à transférer davantage de responsabilité à Facebook, Google et nombreux autres (généralement plus petits) acteurs de la scène.
La gouvernance du secteur public n'y arrive pas mieux
De plus, il y a d'autres domaines où le secteur public pourrait exercer un rôle important dans la restriction du discours de haine sur les médias sociaux. Si les décisions de justice étaient facilement accessibles, à la portée de tous et rapides, les utilisateurs confrontés au harcèlement ou aux menaces violentes en ligne pourraient se tourner efficacement vers la police pour se faire aider et protéger. Plutôt que d'introduire Facebook comme une force de police privée, la loi ferait plutôt porter aux acteurs publics le poids des prises de décision. Ce qui les obligerait bien sûr à reconnaître que des améliorations sont nécessaires pour assurer un processus décisionnaire public rapide et efficace, dans les limites constitutionnelles existantes de l'ordre juridique allemand et des normes internationales.
Ceci n'a rien d'impossible.
Les services de police des Pays-Bas disposent d'une unité centralisée spéciale chargée de traiter tous les ordres de retrait et requêtes de données aux fournisseurs de services internet, pour vérifier leur légalité. Un tel modèle, combiné avec un contrôle juridictionnel additionnel, serait un premier pas permettant aux législateurs allemands de montrer qu'ils cherchent sérieusement à résoudre un problème, plutôt que d'attendre que Facebook le fasse à leur place. En se déchargeant de sa responsabilité sur Facebook, le secteur public n'échoue pas seulement à résoudre le problème : il se fait le complice actif de son aggravation.
Peut on réparer une loi défectueuse ?
Alors, que faire en pratique ? La loi peut-elle être réparée, et si oui, comment ? Au sens large, les législateurs pourraient améliorer la NetzDG en réduisant la quantité de pouvoir régulateur donné aux entreprises privées, et faire en sorte qu'à l'inverse le secteur public prenne une plus grande responsabilité et que la société civile joue un plus grand rôle.
Ils pourraient abandonner la fenêtre de 24 heures pour le retrait de contenu, et la remplacer par une solution plus limitée, dans laquelle Facebook transmettrait tous les cas – manifestement illégaux ou non – à une autorité allemande auto-régulée, qui disposerait de plus de temps pour les examiner.
Ils pourraient investir dans le système judiciaire allemand au-delà de l'exigence d'une adresse locale pour Facebook, en améliorant l'accès à la justice et en assurant aux décisions administratives allemandes plus de transparence et de reddition de comptes.
Une NetzDG amendée pourrait aussi établir et appliquer une norme ouverte pour ses rapports de transparence déjà obligatoires. Une norme ouverte fructueuse permettrait aux citoyens de croiser les données entre les entités publiques et privées, et utiliser ces mécanismes pour amener entreprises et administrations à rendre compte de leurs responsabilités.
Et à plus haut niveau, la loi pourrait mettre en branle un processus d'ouverture de débat public, impliquant tous les intéressés essentiels, pour déterminer des normes minimales d'auto-régulation des plateformes en ligne, conformes aux droits humains et aux standards internationaux.
Vers une NetzDG moins difforme
Ces propositions pourraient changer une loi lourdement critiquée en un texte juridique légèrement moins problématique. Une loi NetzDG ainsi revisitée se conformant aux standards internationaux des droits humains et prenant réellement en considération pendant sa rédaction l'opinion des juristes internationaux pourrait contribuer à réduire un peu des dégâts que la loi a causés au plan international. Le gouvernement allemand devrait se demander pourquoi un clone de la loi NetzDG est en ce moment à l'étude devant la Douma russe, et quels sont les impacts sur sa responsabilité de soutenir et protéger les droits humains.
Afin de développer une NetzDG moins difforme, les législateurs doivent commencer par reconnaître puis quitter la spirale de (dé-)réglementation où ils se sont actuellement enfermés. Le statu quo n'est pas une option efficace pour réguler les gros intermédiaires privés. Mettre au centre les normes fondamentales des droits humains en est une.