
Illustration de Tactical Tech, avec des éléments visuels de Yiorgos Bagakis et Alessandro Cripsta. Utilisée avec permission.
[Sauf mention contraire, tous les liens de ce billet renvoient vers des
pages Web en anglais.]
Cet article a été rédigé par Safa Ghnaim, en collaboration avec le Goethe-Institut Brésil, et publié initialement sur DataDetoxKit.org. Une version révisée de cet article est republiée par Global Voices dans le cadre d’un partenariat.
Bien qu’elle apparaisse comme une « technologie neutre », l’intelligence artificielle (IA) présente aussi des préjugés. Ce n’est pas l’outil objectif que l’on imagine. L’IA est créée par des individus et entraînée à partir d’ensembles de données. Tout comme vous, les personnes qui développent l’IA possèdent des croyances, des opinions et des expériences qui influencent leurs choix, qu’elles en aient conscience ou non. Les ingénieurs et les entreprises impliquées dans le développement et l’entraînement de l’IA peuvent accorder plus d’importance à certaines informations ou objectifs. Les outils d’IA, tels que les algorithmes ou les agents conversationnels, peuvent produire des résultats biaisés, en fonction des ensembles de données utilisés pour les « alimenter ». C’est pourquoi l’IA peut produire des données erronées, générer de fausses hypothèses ou prendre les mêmes mauvaises décisions qu’un être humain.
L’IA n’est pas magique : les machines programmées par l’être humain présentent leurs propres défauts.
Certaines personnes considèrent l’IA comme une solution magique, mais « l’intelligence artificielle » n’est rien de plus qu’une machine. En termes simples, les outils d’IA sont des programmes informatiques alimentés par une grande quantité de données pour les aider à faire des prédictions. L’« IA » désigne une variété d’outils conçus pour reconnaître des modèles, résoudre des problèmes et prendre des décisions à une vitesse et à une échelle bien supérieures à celles des humains.
Mais comme tout outil, l’IA est conçue et programmée par des individus. Les personnes qui conçoivent ces machines leur donnent des règles à suivre : « Fais ceci, mais ne fais pas cela ». Comprendre que les outils d’IA sont des systèmes automatisés, avec leurs propres limites influencées par l’être humain, peut vous aider à mieux aborder les capacités et les inconvénients de l’IA.
Lorsqu’on parle d’IA, les sujets abordés peuvent être très variés. Découvrez quelques exemples d’outils d’IA particulièrement populaires et leurs défauts :
Les outils de génération de texte créent du contenu à partir de mots-clés (ou « prompts ») que vous définissez. Leur entraînement repose sur d’importants volumes de textes collectés sur Internet, dont la qualité est variable. Vous entendrez peut-être parler de « grands modèles de langage » (LLM) ou de noms de produits spécifiques tels que ChatGPT, ou même d’expressions plus familières comme « agent conversationnel » ou « assistants IA ». Bien que ces outils soient capables de prouesses proches de l’intelligence humaine, comme réussir des examens, ils sont également réputés pour « halluciner », autrement dit, générer des contenus erronés.
Les outils de génération d’images permettent de créer des images ou des vidéos basées sur certains mots-clés que vous fournissez. Vous entendrez peut-être parler de modèles texte-image, ou même de noms de produits spécifiques comme DALL-E ou Stable Diffusion. Ces outils peuvent produire des images et des vidéos très réalistes, mais ils sont également connus pour véhiculer des stéréotypes et peuvent être détournés à des fins de sextorsion ou de harcèlement [fr].
Les systèmes de recommandation proposent du contenu qu’ils « prédisent » être le plus susceptible de vous intéresser ou de susciter une interaction. Ces systèmes opèrent en arrière-plan des moteurs de recherche, des fils d’actualité des réseaux sociaux et de la lecture automatique sur YouTube. Ils sont aussi appelés « algorithmes ». Ces outils ont tendance à vous montrer davantage de contenus similaires, au risque de vous emporter vers un dangereux puits sans fond. Les systèmes de recommandation sont utilisés dans des décisions importantes telles que le recrutement, les admissions universitaires, les prêts immobiliers, mais aussi dans de nombreux autres domaines de la vie quotidienne.
Alors que certains experts estiment que les outils d’IA, comme les agents conversationnels, deviennent « plus intelligents » par eux-mêmes, d’autres soutiennent qu’ils sont truffés d’erreurs. Voici quelques raisons pour lesquelles vous devriez considérer les préjugés qui affectent l’IA :
- Certaines données utilisées pour l’entraînement des modèles concernent des sujets personnels, protégés par des droits d’auteur, ou exploités sans autorisation.
- En fonction des données sur lesquelles ils sont entraînés, ils peuvent intégrer des discours haineux, des théories du complot, ou tout simplement des informations fausses.
- Les données peuvent être biaisées à l’encontre de certaines personnes, en raison de leur genre, de leur culture, de leur religion, de leur profession ou de leur situation personnelle.
Les outils d’IA sont également entraînés sur des données qui laissent complètement de côté certains éléments. Si les données d’entraînement contiennent peu ou pas d’informations sur un groupe, une langue ou une culture, l’IA ne pourra pas produire de réponses fiables à leur sujet. Une étude majeure menée en 2018 par Joy Buolamwini, intitulée « Nuances de genre », a montré que les systèmes de reconnaissance faciale peinaient à identifier les visages des personnes racisées, en particulier ceux des femmes noires. Au moment de l’étude, ces outils défectueux étaient déjà couramment utilisés par la police aux États-Unis.
En mettant en lumière les préjugés, on peut éviter de les reproduire.
Maintenant que vous êtes conscients des faiblesses potentielles des ensembles de données d’IA, créés par des personnes comme nous, tournons notre regard vers nous-mêmes. Comment le fonctionnement de notre cerveau humain peut-il mettre en lumière les préjugés de l’IA ?
Il existe des préjugés profondément enracinés au sein des individus, des organisations, des cultures et des sociétés. Mettez-les en lumière en réfléchissant à ces questions :
- Qu’attendez-vous des autres en termes de présentation, notamment en ce qui concerne leur comportement, leur tenue vestimentaire et leur manière de s’exprimer ?
- Certaines personnes ou groupes sont-ils plus exposés aux risques, aux sanctions ou à la stigmatisation en fonction de leur apparence, de leur comportement, de leur manière de s’habiller ou de parler ?
Les préjugés sur lesquels vous venez de réfléchir reposent souvent sur des hypothèses, des attitudes et des stéréotypes profondément ancrés dans les cultures, et peuvent influencer vos décisions de manière inconsciente. C’est pourquoi on parle de « préjugés implicites » : ils sont souvent ancrés dans votre état d’esprit, difficiles à repérer et à affronter.
Parmi les biais implicites les plus courants, on retrouve :
- Les biais de genre : tendance à tirer des conclusions hâtives sur les personnes en fonction de leur sexe, à partir de stéréotypes ou de préjugés.
- Les biais raciaux et/ou ethniques : tendance à tirer des conclusions hâtives sur les personnes en fonction de leur couleur de peau, leur origine culturelle et/ou leur origine ethnique.
Harvard propose une vaste bibliothèque de tests de biais implicites que vous pouvez passer gratuitement en ligne afin de mieux cerner vos propres biais et savoir sur quels aspects progresser. Avec de nombreux biais implicites, il peut être difficile d’identifier ces croyances. Le changement ne se fait pas en un jour, mais pourquoi ne pas commencer dès maintenant ?
Tout est ampl(ia)fié
Maintenant que vous avez découvert des exemples courants de schémas de pensée et de biais implicites, imaginez leur impact lorsqu’ils sont reproduits à grande échelle. Ces derniers peuvent toucher non seulement des individus, mais aussi des groupes entiers, surtout lorsqu’ils sont « codés en dur » dans les systèmes informatiques.
Voici les résultats que vous obtenez lorsque vous entrez le prompt « belle femme » dans le logiciel gratuit de génération de texte en image Perchance.org.

Images IA générées sur Perchance.org le 13 août 2024. Images fournies par Tactical Tech.
Si l’outil a généré six images de « belles femmes », pourquoi sont-elles toutes presque identiques ?
Essayez-le de votre côté, vos résultats sont-ils différents ?
Des études plus approfondies ont été menées sur ce sujet, avec des résultats similaires. Vous pouvez lire une de ces études et voir des infographies ici : « Les humains sont biaisés. L’IA générative l’est encore plus ».
Les outils d’IA ne sont ni neutres ni impartiaux. Ils sont détenus et construits par des personnes influencées par leurs propres motivations. Même les outils d’IA portant le terme « ouvert » (open) dans leur nom ne garantissent pas une transparence totale sur leur fonctionnement et peuvent être programmés avec des biais intégrés.
Vous pouvez poser des questions clés sur la façon dont les modèles d’IA sont conçus et entraînés pour mieux comprendre leur place dans un système plus vaste :
- Qui détient les entreprises qui développent les modèles d’IA ?
- Comment les entreprises en tirent-elles profit ?
- Quels sont les systèmes de pouvoir établis ou soutenus par les entreprises ?
- Qui tire le plus grand profit des outils d’IA ?
- Qui est le plus vulnérable face aux risques associés aux systèmes d’IA ?
Les réponses à ces questions peuvent être difficiles, voire impossibles à trouver. Cela en soi est significatif.
Étant donné que la technologie est conçue par des êtres humains et alimentée par des données (également collectées et étiquetées par des humains), on peut la voir comme un reflet des problèmes déjà existants dans la société. Nous pouvons nous attendre à ce que les outils alimentés par l’IA renforcent les déséquilibres de pouvoir, tout en systématisant et en perpétuant les préjugés, à une vitesse inédite.
Comme vous l’avez vu, les biais cognitifs sont tout à fait courants, tout le monde en a, d’une façon ou d’une autre. Commencer à affronter ces réalités dès aujourd’hui peut vous permettre d’éviter des erreurs demain et de repérer les failles dans des systèmes comme l’IA.