[Sauf mention contraire, tous les liens de cet article renvoient vers des pages en anglais, ndlt.]
Lorsque des humains sont confrontés à des informations de base telles que « Boston est dans le Massachusetts », par exemple, leur évaluation se limite facilement à « vrai » ou « faux ». Ce cadre binaire est simple et intuitif, mais le monde est bien plus complexe, et les gens ont besoin de cadres catégoriels plus nuancés pour déterminer la vérité.
Lorsque les entreprises technologiques et les chercheur⸱e⸱s passent par le processus d'élaboration de cadres permettant de catégoriser l'information, ils sont souvent enclins à la partialité. Pourtant, les entreprises dissimulent ces décisions aux citoyen⸱ne⸱s ordinaires qui finissent par consommer ces informations tous les jours et dont les vies sont façonnées par elles.
En Afrique, où les campagnes de désinformation deviennent souvent virales en ligne, en particulier pendant les périodes de tensions politiques [fr], les sociétés de technologie et de médias sociaux basées aux États-Unis deviennent les arbitres de la « vérité ». Des millions d'Africain⸱e⸱s utilisent des moteurs de recherche et des plateformes comme Google, Twitter et Facebook, qui filtrent l'information à travers leur propre perspective biaisée.
Pour compliquer les choses, ces plateformes technologiques et de médias sociaux, qui sont les principales voies d'accès aux informations et aux opinions, adoptent souvent des cadres différents pour classer les informations.
Par exemple, Google, le géant du secteur de la recherche en ligne, a développé une fonction permettant de vérifier les affirmations virales en classant les nouvelles [fr] selon une échelle de faux, en grande partie faux, à moitié vrai, en grande partie vrai et vrai. Facebook utilise une notation similaire [fr] mais se concentre plutôt sur les informations classées dans les rubriques faux, partiellement faux ou faux dans les rapports qui lui sont soumis. Parallèlement, Twitter a récemment annoncé son cadre qui comporte trois catégories [fr] : les informations trompeuses, les affirmations contestées et les affirmations non vérifiées.
Les organisations de vérification des faits diffèrent radicalement dans leurs catégorisations.
Par exemple, Politifact a inventé le Truth-O-Meter. Bien que cet outil suive la norme « vrai, surtout vrai, surtout faux, faux », il utilise également une catégorie « ton nez s'allonge » pour les déclarations qui « ne sont pas exactes et avancent des affirmations ridicules ». Snopes utilise une méthode très différente avec 14 catégories.
En revanche, Africa Check utilise huit catégories [fr]. Pour guider leurs décisions, ils notent les déclarations de fait, laissent la charge de la preuve à l'orateur, se concentrent sur la signification, utilisent les meilleures preuves disponibles au moment de la vérification et s'engagent à mettre à jour les informations et à clarifier les erreurs lorsque « de nouveaux éléments ou de meilleures preuves apparaissent ».
En outre, Full Fact, une organisation de vérification des faits basée au Royaume-Uni, n'utilise aucune catégorisation – laissant au lecteur la liberté de juger.
Cependant, les plateformes technologiques qui lancent des programmes de partenariat avec des organismes de vérification des faits exigent généralement que leurs partenaires adhèrent à leur cadre de catégorisation. Par exemple, Facebook s'attend à ce que ses organisations de vérification des faits évaluent le contenu examiné en fonction de son cadre publié sur Facebook [fr]. Au fil du temps, cela se traduit par la domination d'une seule vision du monde, faisant de Facebook un arbitre central de la vérité.
De nombreuses autres catégorisations sont publiées sans en partager la raison d'être, mais les utilisateurs quotidiens sont invités à les adopter et à y adhérer. Lorsque les plateformes modifient ces catégorisations, sur la base des avis de quelques expert⸱e⸱s ou ingénieur⸱e⸱s, la société est censée, là encore, adapter et mettre à jour sa vision du monde en conséquence.
Les chercheur⸱e⸱s ont tenté de trouver des solutions aux problèmes compliqués de la catégorisation de l'information. Claire Wardle, une universitaire reconnue dans ce domaine, a créé une catégorisation de sept types : satire ou parodie, contenu trompeur, contenu imposteur, contenu fabriqué, faux lien, faux contexte et contenu manipulé.
Bill Adar, professeur au Duke Reporters Lab, a adopté une approche unique de la catégorisation de l'information avec sa Taxonomie MediaReview, qui engage un processus de délibération démocratique pour catégoriser l'information grâce aux réactions du public.
Mais la catégorisation n'est pas une simple question technique – elle influence profondément la façon dont les citoyen⸱ne⸱s pensent et réfléchissent sur le monde. Les spécialistes des sciences cognitives ont montré l'importance de la catégorisation, certains affirmant que « connaître, c'est catégoriser ».
D'autres mettent en garde contre le danger de la catégorisation. Derek Cabera, professeur à l'université de Cornell, a écrit un essai intitulé Les côtés sombres de la pensée catégorique. Bart de Langhe et Philip Fernbach ont rédigé un article pour le Harvard Business Review, intitulé « Les dangers de la pensée catégorique ».
La catégorisation de l'information est la véritable autorité – mais sous une forme déguisée. Ceux qui détiennent le pouvoir de catégoriser l'information peuvent involontairement imposer aux citoyen⸱ne⸱s leur propre perception de la réalité.
La catégorisation de l'information est une nécessité irréfutable, mais le public doit rester vigilant quant à savoir qui détient le pouvoir de le faire. Le processus de catégorisation doit être transparent et, de fait, constamment soumis à un examen rationnel et ouvert de la part de la société.