
Photo d’Alexander Grey sur Pexels
Au fil des années, l’intelligence artificielle (IA) semble s’imposer toujours davantage dans notre quotidien. À travers le monde, les populations se familiarisent progressivement avec les rouages de cette innovation et commencent à en percevoir les bénéfices potentiels. Une enquête mondiale récente menée par l’institut d’études de marché Ipsos révèle ainsi que 55 % des personnes interrogées estiment que les solutions reposant sur l’IA présentent davantage d’avantages que d’inconvénients. De tels résultats montrent clairement que, malgré les inquiétudes qu’elle suscite, cette technologie continue de fasciner le grand public. Les entreprises ne s’y sont pas trompées, mettant en avant l’efficacité et la facilité d’utilisation de leurs produits pour séduire les consommateurs. Et au regard de l’essor spectaculaire des investissements privés dans l’IA au cours de la dernière décennie, tout porte à croire que ce discours a trouvé un écho favorable.
Cependant, tout le monde ne partage pas cet enthousiasme. Les membres de la communauté lesbienne, gay, bisexuelle, transgenre et queer+ (LGBTQ+) se montrent notamment plus attentifs aux dérives associées à l’intelligence artificielle. Nombre de ces problématiques trouvent leur origine dans les données utilisées pour entraîner les modèles, souvent imprégnées de stéréotypes et d’idées reçues sur les personnes LGBTQ+. Mais les effets « hors ligne » de l’IA se révèlent tout aussi préoccupants. L’intégration de ces technologies dans des systèmes spécifiquement conçus pour identifier et surveiller les membres de la communauté suscite, par exemple, de vives inquiétudes. De la conception à la mise en œuvre, ces enjeux illustrent la manière dont les outils dopés à l’IA s’avèrent bien souvent plus nuisibles que bénéfiques pour les personnes LGBTQ+. En l’absence de garde-fous stricts encadrant l’usage de ces technologies, beaucoup risquent de les percevoir comme bien plus dangereuses qu’utiles.
La numérisation des stéréotypes existants
Pour comprendre comment l’intelligence artificielle peut nuire aux personnes LGBTQ+, il faut d’abord s’intéresser aux données sur lesquelles les modèles sont entraînés. Le média Wired a ainsi mis en lumière le fait que, lorsqu’on leur demande de représenter des membres de cette communauté, des outils populaires de génération d’images produisent des résultats réducteurs. À titre d’exemple, Midjourney dépeint régulièrement les femmes lesbiennes comme des figures austères, couvertes de tatouages. Ces représentations simplistes (et souvent offensantes) trouvent en grande partie leur origine dans les données collectées sur Internet. Une grande partie des informations accessibles aux modèles concernant la communauté LGBTQ+ est en effet imprégnée de stéréotypes. Dès lors, des solutions comme Midjourney ont de fortes chances de reproduire, voire d’amplifier, ces biais dans leurs productions visuelles. Si certaines pistes, comme une meilleure labellisation des données, peuvent améliorer la précision des modèles, elles risquent toutefois de se heurter à un obstacle de taille : l’ampleur considérable des contenus stigmatisants et dénigrants disponibles en ligne.
Les représentations biaisées de la communauté LGBTQ+ produites par les modèles d’IA ne constituent pas un phénomène isolé. Bien au contraire, de nombreux outils d’intelligence artificielle aujourd’hui dominant sur le marché génèrent des contenus défavorables à ce groupe. Dans un rapport consacré à l’analyse des postulats qui sous-tendent les grands modèles de langage (LLM), l’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO) a mis en évidence l’influence marquée de normes hétéronormatives sur des outils largement utilisés, tels que Llama 2 de Meta ou GPT-2 d’OpenAI. Selon cette étude, ces modèles ont produit des contenus négatifs à l’égard des personnes homosexuelles dans plus de la moitié des simulations menées. Les conclusions de l’UNESCO ne se contentent pas de souligner l’homophobie omniprésente dans les données d’entraînement des principales solutions d’IA générative : elles révèlent également l’incapacité des grands développeurs à apporter des réponses efficaces à un problème aussi profond que systémique.
L'essor des technologies de surveillance
Les préjudices que l’intelligence artificielle peut infliger aux personnes LGBTQ+ ne se limitent pas au seul espace numérique. Des systèmes d’IA prétendant détecter le genre des individus dans les lieux publics suscitent ainsi de vives inquiétudes. L’association belge Forbidden Colours, engagée dans la défense des droits LGBTQ+, a mis en lumière les implications alarmantes des outils dits de « reconnaissance automatique du genre » (Automatic Gender Recognition, AGR). Ces solutions analysent des contenus audiovisuels (notamment des images issues de caméras de surveillance) afin de déterminer le genre d’une personne à partir d’éléments tels que les traits du visage ou les caractéristiques vocales. Présentés comme des technologies de pointe, ces dispositifs posent pourtant des problèmes fondamentaux. Comme le souligne l’organisation, il est impossible de déterminer la manière dont une personne comprend ou vit son genre en se fondant uniquement sur son apparence ou sa façon de s’exprimer. Concevoir des outils qui classent les individus selon ces critères arbitraires relève ainsi, au mieux, d’une approche erronée et, au pire, d’une dérive dangereuse.
Malgré ces lacunes manifestes, les systèmes de reconnaissance automatique du genre (AGR) comptent des défenseurs particulièrement virulents. Ce sont notamment des gouvernements ouvertement hostiles à la communauté LGBTQ+ qui ont choisi d’y recourir, justifiant souvent leur décision au nom de la sécurité publique. À ce titre, Politico Europe a rapporté que le Premier ministre hongrois Viktor Orbán a autorisé l’utilisation de dispositifs biométriques reposant sur l’IA lors des événements Pride organisés dans le pays. Le dirigeant d’extrême droite a affirmé que ces mesures visaient à protéger les enfants de ce qu’il qualifie « d’agenda LGBTQ+ ». En pratique, cette décision offre surtout au gouvernement et aux forces de l’ordre les moyens de surveiller artistes, militants et simples citoyens participant à ces rassemblements. Si cette politique fait actuellement l’objet d’un examen par plusieurs institutions de l’Union européenne, sa mise en œuvre constitue d’ores et déjà un rappel saisissant de la manière dont l’intelligence artificielle peut être instrumentalisée pour intimider les figures LGBTQ+ engagées dans des dynamiques de mobilisation et de changement.
Pour un nouveau cadre technologique
Pour les membres de la communauté LGBTQ+, les compromis liés à l’intelligence artificielle sont particulièrement lourds. Si cette technologie innovante peut constituer un progrès global pour une large partie de la population, elle soulève des enjeux spécifiques susceptibles d’affecter de manière disproportionnée les personnes queers. Des outils courants, tels que les générateurs d’images et de textes, ont ainsi été identifiés comme véhiculant (et recyclant) des stéréotypes préjudiciables sur les réalités LGBTQ+, difficiles à éradiquer totalement. Au-delà de l’espace numérique, le déploiement de l’IA dans le monde « hors ligne » fait également peser des risques majeurs. Son intégration dans des dispositifs de surveillance, souvent avec pour objectif explicite d’assigner un genre aux personnes prises dans ces filets technologiques, constitue une atteinte directe à la vie privée. Pris dans leur ensemble, ces exemples montrent que nombre de solutions d’IA qui ont transformé notre quotidien n’ont tout simplement pas été conçues en tenant compte de l’ensemble des individus.
Face à cette dynamique préoccupante, les responsables de tous les secteurs doivent agir pour inverser la tendance. Cela passe d’abord par la mise en place de partenariats étroits entre les développeurs et les parties prenantes issues de la communauté LGBTQ+. Une collaboration constructive permettrait de s’assurer que les données utilisées pour entraîner les modèles d’IA reflètent plus fidèlement les réalités vécues par les personnes queer. Elle devrait également s’accompagner de garde-fous solides afin d’empêcher l’utilisation abusive de l’IA à des fins de surveillance ciblant cette communauté. Les systèmes intégrant des capacités de détection du genre devraient, à ce titre, être strictement interdits, dans la mesure où ils portent atteinte au droit fondamental à la vie privée. Enfin, il est essentiel que les personnes LGBTQ+ soient consultées à toutes les étapes du cycle de développement des outils, de la conception au déploiement. Une telle coopération contribuerait non seulement à réduire les multiples risques associés à l’IA, mais aussi à renforcer la probabilité que cette technologie soit perçue, par les membres de la communauté, comme une véritable valeur ajoutée plutôt que comme une menace.








