
Image créée par Oiwan Lam via Canva Pro.
Le développement rapide de l’intelligence artificielle a suscité des controverses autour du droit d’auteur et des mégadonnées dans la plupart des régions du monde. En Chine, la tendance à la censure automatisée est plus préoccupante, car elle permet de transformer la censure passive du régime autoritaire en un façonnement proactif du cadre cognitif des individus en faveur du régime à parti unique.
Alors qu’un rapport du Hong Kong Free Press (HKFP) révélait il y a plusieurs mois que les grands modèles de langage chinois (LLMs), tels que Qwen, Ernie ou Deepseek, sont généralement alignés sur les positions du Parti communiste chinois (PCC), de nouvelles recherches semblent indiquer un renforcement de la censure exercée par l’IA, selon Alex Colville, chercheur au sein du China Media Project.
Si vous aviez demandé au modèle de langage open source DeepSeek R1, il y a seulement quatre mois, d’énumérer les différends territoriaux de la Chine en mer de Chine méridionale — un sujet hautement sensible pour la direction du Parti communiste chinois — il vous aurait répondu en détail, même si ses réponses vous orientaient subtilement vers une version édulcorée conforme à la ligne officielle. Posez aujourd’hui la même question à la dernière mise à jour, DeepSeek-R1-0528, et vous constaterez que le modèle est plus réservé, et bien plus catégorique dans sa défense de la position officielle de la Chine.
Cette intelligence artificielle « politiquement correcte » est rendue possible grâce à une série de réglementations. Depuis 2022, une disposition impose que les systèmes automatisés de recommandation de contenu « diffusent activement une énergie positive » et se conforment aux « valeurs dominantes ». Une directive idéologique publiée en janvier 2023 exige des fournisseurs de services qu’ils « respectent les mœurs et l’éthique sociales » et « adhèrent à la bonne direction politique, à l’orientation de l’opinion publique et aux tendances des valeurs ». Six mois plus tard, selon les Mesures provisoires pour la gestion des services d’intelligence artificielle générative, tous les services d’IA générative doivent promouvoir les « valeurs fondamentales du socialisme » de l’État, et les données d’entraînement doivent provenir de « sources légales », c’est-à-dire de sources obtenues légalement et ne contenant aucun contenu censuré ou jugé illégal par les autorités chinoises.
Les conséquences de la censure de l'IA
À mesure que la censure par l’IA devient plus omniprésente, la Chine connaît une transformation profonde de sa manière de censurer l’information en ligne, passant de méthodes traditionnelles et manuelles à une nouvelle ère dominée par l’intelligence artificielle, selon une analyse récente du China Media Project.
Traditionnellement, la censure en Chine reposait sur des armées de censeurs humains qui parcouraient les réseaux sociaux et les sites d’actualités à la recherche de mots-clés sensibles, supprimant manuellement les publications ou bloquant les contenus franchissant les lignes rouges politiques. Cette approche manuelle était chronophage et exigeante en main-d’œuvre, peinant à suivre le rythme effréné et l’ampleur des échanges en ligne. Tout cela fait partie de l’industrie dite de la « surveillance de l’opinion publique », qui désigne la surveillance systématique du discours en ligne et emploie des dizaines de milliers de personnes.
Pour en savoir plus : Confessions d'un agent de la censure chinoise
Désormais, avec l’essor de grands modèles de langage (LLMs), le gouvernement chinois et les géants de la tech intègrent directement la censure dans l’architecture même des systèmes d’intelligence artificielle. Pour garantir que les modèles suivent la « bonne direction politique », les LLM chinois sont entraînés à s’autocensurer dans leurs contenus générés. Un ensemble de données récemment divulgué, d’une taille de 300 Go, contient 133 000 éléments — contenus et instructions — destinés à apprendre aux IA comment classer et hiérarchiser les contenus sensibles. L’objectif principal de cet ensemble semble être la classification des contenus liés à l’opinion publique. Il révèle un système de catégorisation sophistiqué comportant 38 catégories distinctes, allant de sujets courants comme la « culture » et le « sport » à d’autres, plus controversés politiquement.
L’origine exacte de cette fuite reste inconnue. Toutefois, certains analystes y voient un signe que l’IA est en train de remplacer un système autrefois très gourmand en main-d’œuvre, nécessitant des milliers de censeurs humains, par une machine de surveillance automatisée. Un tel système serait capable de traiter des volumes bien plus importants de contenus en ligne, permettant ainsi une surveillance continue et autonome de chaque recoin d’internet. Xiao Qiang, chercheur sur le système de censure chinois à l’Université de Californie à Berkeley, affirme que le développement de l’IA générative a porté la censure automatisée de la Chine à un tout autre niveau :
Contrairement aux mécanismes de censure traditionnels, qui reposent sur le travail humain pour le filtrage par mots-clés et la relecture manuelle, un grand modèle de langage (LLM) entraîné à partir de telles instructions améliorerait considérablement l’efficacité et la précision du contrôle de l’information exercé par l’État.
En plus de la formation des IA à la censure, la Chine a également mis en place ses propres référentiels d’évaluation pour s’assurer que les grands modèles de langage (LLMs) du pays soient « conformes à la loi ». Deux mois avant l’entrée en vigueur de la loi chinoise sur l’intelligence artificielle générative, un groupe d’ingénieurs en informatique chinois, dirigé par He Junxian, professeur assistant à l’Université des Sciences et Technologies de Hong Kong, a publié sur GitHub le benchmark C-eval, composé de 13 948 questions à choix multiples couvrant 52 disciplines variées, parmi lesquelles figurent la « pensée de Mao Zedong », le « marxisme » et la « culture idéologique et morale ».
Quelques mois plus tard, début 2024, l’Académie chinoise des technologies de l'information et de la communication (CAICT), rattachée au ministère de l’Industrie et des Technologies de l’Information (MIIT), a mis au point un référentiel de sécurité de l’IA (AI Safety Benchmark), comprenant 400 000 invites en chinois portant sur des enjeux liés aux biais culturels, au bien-être psychologique des utilisateurs, à la vie privée et aux secrets industriels, à la correction politique et à la légalité.
La diffusion mondiale des récits chinois
Avec tous ces référentiels et réglementations chinoises sur l’IA, ce ne sont pas seulement les outils d’IA générative chinois qui sont soumis à la censure, mais aussi des marques occidentales, comme Microsoft Copilot, qui font face aux mêmes restrictions, notamment lorsque le service d’IA opère en Chine. L’exilé dissident chinois, Teacher Li, a donné un exemple à ce sujet sur X :
有网友反映,自己用微软的AI工具Copilot,问他如何让习近平下台,它拒绝回答,但问它怎么让川普下台时它就回答了,似乎会主动服从中共的审查。 pic.twitter.com/uai6IBuofM
— 李老师不是你老师 (@whyyoutouzhele) May 2, 2025
Un ami a raconté que lorsqu’il a demandé à l’outil d’IA de Microsoft, Copilot, comment renverser Xi Jinping, celui-ci a refusé de répondre, mais lorsqu’il a posé la même question à propos de Donald Trump, il a obtenu une réponse. Il semble donc que l’outil obéisse à la censure du Parti communiste chinois (PCC). pic.twitter.com/uai6IBuofM
— 李老师不是你老师 (@whyyoutouzhele) 2 mai 2025
En d’autres termes, le résultat est un système où la censure est à la fois proactive et invisible : l’IA ne génère ni ne recommande simplement aucun contenu en dehors des limites approuvées par l’État.
Étant donné l’alignement strict des IA génératives chinoises sur la ligne politique du Parti communiste chinois (PCC), les principaux moteurs de recherche comme Baidu (le moteur le plus populaire en Chine) et les plateformes sociales comme Weibo ont intégré Deepseek dans leurs services. Chaque fois que les utilisateurs recherchent certains sujets, Deepseek génère le « processus de pensée politiquement correct » ou les récits officiels sur la question.
C’est pourquoi Alex Colville a averti que « toute adoption du modèle DeepSeek à l’étranger pourrait potentiellement exporter le système de gouvernance sociale intérieure de la RPC ». Taïwan est aujourd’hui le champ de bataille cognitif le plus féroce dans le développement de l’intelligence artificielle générative.
Selon un rapport du comité américain sur le PCC (#US 🇺🇸 @committeeonccp), #DeepSeek modifie ou supprime dans 85 % des cas les réponses sur des sujets sensibles comme #Taïwan 🇹🇼 afin de s’aligner sur la censure du #PCC, tout en transmettant secrètement les données des utilisateurs vers la #Chine. Les démocraties doivent protéger les espaces numériques contre ce contrôle autoritaire.
[https://t.co/UD5qsMgkp0](https://t.co/UD5qsMgkp0) pic.twitter.com/RSDAVdXwmH
Le gouvernement chinois continental affirme que Taïwan, un État autonome depuis 1949 après que le Kuomintang, parti au pouvoir de la République de Chine, a été vaincu par le PCC lors de la guerre civile chinoise et a établi un gouvernement en exil de l’autre côté du détroit de Taïwan, fait partie intégrante de la Chine. Ces dernières années, la Chine a tenté de contraindre Taïwan à l’unification par des moyens diplomatiques, économiques, militaires, ainsi que par une guerre cognitive, incluant la manipulation ciblée de l’information, la propagande et des opérations psychologiques.
Grâce aux nouvelles technologies, la propagande politique chinoise devient globale. Le rapport récent d’OpenAI sur les usages malveillants de ses modèles a également révélé que certains acteurs chinois ont utilisé ses produits pour surveiller les commentaires anti-Chine sur les réseaux sociaux, publier des commentaires anti-américains en espagnol ciblant les utilisateurs latino-américains, et générer des commentaires critiques envers des dissidents chinois, dont Cai Xia.
À mesure que les modèles d’IA de DeepSeek gagnent en popularité à l’international — attirant les utilisateurs par leurs performances techniques solides à faible coût — la question demeure : comment leurs filtres politiques intégrés affecteront-ils les audiences mondiales ? La préoccupation plus large est de savoir ce que cela signifie lorsque des millions de personnes dans le monde commencent à dépendre de systèmes d’IA délibérément conçus pour refléter et renforcer les perspectives du gouvernement chinois.
Tous ces développements montrent comment l’IA générative peut être utilisée comme une arme pour surveiller la dissidence, manipuler les récits et imposer la conformité idéologique par des États autoritaires, alors que la gouvernance de l’IA fondée sur les droits humains accuse un retard important.







