Global Voices est fier de publier des textes, des traductions et des illustrations créés par des personnes, pour des personnes, et nous attendons de nos contributeurs qu'ils respectent cette norme.
Avec l’essor fulgurant des grands modèles de langage (LLM) comme ChatGPT, DeepSeek et Midjourney, et d'autres formes d'« IA » générative, ces technologies s’imposent désormais au cœur des plateformes et systèmes d’exploitation. Face à cette évolution, Global Voices, en tant que média, juge essentiel de définir un cadre clair pour leur utilisation sur son site.
Il existe deux raisons fondamentales pour lesquelles nous limitons l'utilisation des LLM dans notre travail. Toutes ces raisons sont liées à notre principale mission :
- La confiance. Les modèles de langage de grande envergure ne sont pas conçus pour garantir l'exactitude des informations. Bien que leurs algorithmes tombent parfois juste, ce n’est pas leur vocation première, et les exemples de réponses complètement à côté de la plaque sont légion. En tant qu'organisation de presse attachée aux principes journalistiques, nous avons à cœur de rapporter des faits avérés. S'appuyer sur des LLM pour rédiger ou traduire du contenu, ou sur des programmes générant des illustrations ou des graphiques sur simple demande, reviendrait à prendre le risque de trahir ces principes et de compromettre la confiance que nous demandons à nos lecteurs.
- Donner de la voix aux sans voix. Les LLM s'appuient sur des données déjà existantes — en l'occurrence, les textes numériques avec lesquels ils ont été entraînés — pour produire des réponses probables. Par conséquent, les résultats sont biaisés en faveur des informations les plus courantes et les plus abondantes en ligne. À terme, cela pousse internet vers une certaine uniformité, reléguant au second plan, voire faisant disparaître, les voix atypiques et moins entendues, précisément celles que nous nous efforçons de faire résonner. Nous tenons à publier des idées et des connaissances qui sortent des sentiers battus — surtout quand elles ne collent pas aux standards linguistiques ou aux schémas de pensée dominants. Pour nous, il est bien plus précieux d'exposer un point de vue humain, forgé par l'expérience et la réflexion, que de livrer un contenu qui “sonne bien” sans avoir de fond authentique.
Au-delà de ces raisons, d'autres considérations importantes entrent en jeu : l'impact environnemental des LLM ; les questions de droits d'auteur soulevées tant par leur entraînement que par leurs productions, ainsi que le respect des auteurs et illustrateurs dont les œuvres ont été utilisées sans autorisation ; et enfin, l'invisibilisation des personnes qui contribuent à affiner ces processus, bien souvent pour des salaires dérisoires et dans des conditions précaires.
Rechercher le juste milieu
Nous comprenons que les LLM donnent l'impression d'offrir une solution toute faite pour écrire, dessiner ou traduire, et qu'ils rendent bien service à ceux qui rédigent dans une langue qui n'est pas la leur ou qui doivent se plier à des règles de style ou des standards de publication un peu tordus. On reconnaît aussi que les LLM, et les autres technologies regroupées sous la bannière de l'« IA », forment un vaste fourre-tout, allant du simple correcteur orthographique aux outils générant du contenu sur commande. Ils sont souvent fourrés dans d'autres logiciels, rendant parfois leur absence difficile à gérer.
D'ailleurs, il faut bien admettre que les écrivains, illustrateurs et traducteurs s’appuient depuis belle lurette sur toute une panoplie d'outils pour faire leur boulot : dictionnaires, thésaurus, guides de style, dessins ou photos de référence… la liste est longue. Certaines applications qualifiées d'« IA » ne font finalement pas autre chose. Les traducteurs peuvent très bien dégoter un mot sur un traducteur en ligne plutôt que de feuilleter un vieux dico, et les auteurs n'hésitent pas à lancer un correcteur ou à dégoter un synonyme quand le mot leur échappe.
Un dico par-ci, un correcteur orthographique par-là, ou encore une recherche de synonymes quand l’inspiration fait défaut… On a tous nos petites astuces.
Cependant, tout comme nous n’accepterions pas un article copié-collé d’une encyclopédie ou de Wikipédia (même en changeant quelques mots par-ci, par-là), ni une traduction qui se contenterait de remplacer chaque terme par l’équivalent trouvé dans un dictionnaire, nous ne tolérerons pas non plus les écrits, les traductions ou les illustrations générés automatiquement.
En tant qu’organisation décentralisée, nous devons pouvoir accorder une confiance sans faille à nos contributeurs. Or, il n’existe à ce jour aucune technologie capable d’identifier de manière fiable les écrits ou traductions produits par des LLM, ni les illustrations créées sur demande par des générateurs automatisés. Quant aux outils qui prétendent le faire, ils traînent souvent derrière eux les mêmes casseroles éthiques et environnementales que les LLM eux-mêmes. C’est pourquoi nous nous réservons le droit de soumettre à un examen minutieux les contenus qui portent les marques d’une dépendance à ces technologies et, si besoin est, d’exiger des réécritures, de refuser la publication ou même de retirer des articles si nous constatons que ces outils ont été utilisés de manière contraire à notre mission.
Enfin, nous avons bien conscience que la technologie évolue à toute allure ; cette politique devra probablement suivre l'air du temps et sera mise à jour en fonction des besoins.