
Image de Liz Carrigan et Safa, avec des éléments visuels de Yiorgos Bagakis et La Loma, utilisée avec permission.
[Sauf mention contraire, tous les liens de ce billet renvoient vers des pages Web en anglais]
Cet article a été écrit par Safa pour la série « Digitized Divides » et publié initialement sur tacticaltech.org. Une version modifiée est republiée par Global Voices dans le cadre d'un accord de partenariat.
La technologie peut être utilisée pour aider les gens ou pour leur nuire, mais il ne s'agit pas nécessairement d'une situation binaire : elle peut être utilisée simultanément au profit d'une personne ou d'un groupe tout en portant nuisance à une autre personne ou un autre groupe.
Bien que certains puissent se demander si les avantages de l'utilisation de données personnelles pour mettre en œuvre des politiques et des actions à grande échelle l'emportent sur les préjudices, comparer les avantages et les préjudices dans cette approche équilibrée, binaire et à deux faces est une manière erronée de l'évaluer de manière critique, en particulier lorsque les préjudices incluent la violence contre les civils. Après tout, la souffrance humaine n'est jamais justifiée, et il n'y a pas de manière d'édulcorer les répercussions négatives en toute bonne foi. Le « both-sidesism » technologique (la tendance à présenter deux côtés comme équivalents) tente de déterminer la « bonté » ou les « bons points » de la technologie, ce qui est une diversion, car la technologie en elle-même n'est ni bonne ni mauvaise. Ce qui compte, ce sont les humains qui sont derrière elle, les propriétaires et les opérateurs derrière les machines. Selon les intentions et les objectifs de ces personnes, la technologie peut être utilisée à des fins très diverses.
Lucratives et létales
Israël utilise des données collectées auprès des Palestiniens pour entraîner des outils automatisés basés sur l'IA, y compris ceux coproduits par des entreprises internationales, comme la collaboration entre l'israélien Elbit Systems et l'indien Adani Defence and Aerospace, qui ont été déployés à Gaza et en Cisjordanie. Les outils de surveillance et les logiciels espions israéliens suralimentés par l'IA, notamment Pegasus, Paragon, QuaDream, Candiru, Cellebrite, ainsi que l'armement doté d'IA, comme le Smart Shooter et le Lavender, sont mondialement connus et exportés dans de nombreux pays, y compris le Soudan du Sud et les États-Unis.
Les États-Unis cherchent également des moyens d'utiliser des technologies de reconnaissance faciale, locales et importées, à la frontière américano-mexicaine pour suivre l'identité des enfants migrants, collectant des données qu'ils pourront utiliser au fil du temps. Eileen Guo du MIT Technology Review a écrit :« Le fait que cette technologie cible des personnes qui bénéficient de moins de protections de la vie privée que les citoyens américains s'inscrit dans la tendance plus large consistant à utiliser les populations des pays en développement, qu'il s'agisse de migrants à la frontière ou de civils dans des zones de guerre, pour aider à améliorer les nouvelles technologies. » En plus de la reconnaissance faciale, les États-Unis collectent également des échantillons d'ADN d'immigrants pour un registre de masse auprès du FBI.
En 2021, les entreprises américaines Google et Amazon ont signé conjointement un contrat exclusif d'un milliard de dollars avec le gouvernement israélien pour développer le « Projet Nimbus », destiné à faire progresser les technologies de détection faciale, de catégorisation automatisée d'images, de suivi d'objets et d'analyse des sentiments à des fins militaires — une initiative condamnée par des centaines d'employés de Google et d'Amazon au sein d'une coalition nommée No Tech for Apartheid.
L'armée israélienne a également des liens avec Microsoft pour des outils d'apprentissage automatique et du stockage sur le cloud. Ces exemples sont cités ici pour montrer le déséquilibre du pouvoir au sein des systèmes d'oppression plus larges qui sont à l'œuvre. Ces outils et ces liens commerciaux ne sont pas accessibles à tous les bénéficiaires potentiels ; il serait inconcevable que Google, Amazon et Microsoft signent ces mêmes contrats avec, par exemple, le Mouvement de la résistance islamique (Hamas).
Armes « intelligentes », matière à cauchemars
On attribue à l'ancien président américain Barack Obama la normalisation de l'utilisation de drones armés en dehors des champs de bataille. L'administration Obama qualifiait les frappes de drones de « chirurgicales » et « précises », allant parfois jusqu'à affirmer que leur usage n'avait entraîné « pas une seule mort collatérale », ce qui était manifestement faux. Depuis l'arrivée au pouvoir d'Obama en 2009, les frappes de drones sont devenues monnaie courante et leur utilisation s'est même étendue dans les actions internationales des États-Unis (sur les champs de bataille et en dehors) sous les administrations suivantes.
Les critiques affirment que l'usage de drones dans la guerre donne aux gouvernements le pouvoir « d'agir en tant que juge, juré et bourreau à des milliers de kilomètres de distance » et que les civils « souffrent de manière disproportionnée », ce qui constitue « une menace urgente pour le droit à la vie ». À titre d'exemple, BBC a décrit des drones russes comme « chassant » les civils ukrainiens.
En 2009, Human Rights Watch a publié un rapport sur l'utilisation par Israël des drones armés à Gaza. En 2021, Israël a commencé à déployer des « essaims de drones » à Gaza pour localiser et surveiller des cibles. En 2022, Omri Dor, commandant de la base aérienne de Palmachim, a déclaré : « L'ensemble de Gaza est “couvert” par des drones (véhicules aériens sans pilote) qui collectent des renseignements 24 heures sur 24. » À Gaza, la technologie des drones a joué un rôle majeur dans l'augmentation des dégâts et du nombre de cibles, y compris avec des drones hybrides comme le « Rooster » et les « Robodogs », capables de voler, de planer, de rouler et de grimper sur des terrains accidentés. Des véhicules mitrailleurs autonomes ont été utilisés pour remplacer les troupes au sol.
Smart Shooter, un système de tir assisté par IA dont le slogan est « un tir, une de touchée », se targue d'un haut degré de précision. Smart Shooter a été installé durant sa phase pilote en 2022 à un point de contrôle d'Hébron, où il est toujours actif jusqu'à aujourd'hui. Israël emploie également des missiles « intelligents », comme le SPICE 2000, qui a été utilisé en octobre 2024 pour bombarder un immeuble résidentiel de grande hauteur à Beyrouth.
L'armée israélienne est considérée comme l'une des 20 forces militaires les plus puissantes au monde. Israël a affirmé mener des « frappes de précision » et ne pas cibler les civils, mais Larry Lewis, expert en matière de dommages civils, a déclaré que les stratégies d'atténuation des dommages civils d'Israël étaient insuffisantes, leurs campagnes semblait conçues pour créer un risque pour les civils. Les technologies susmentionnées employées par Israël ont aidé son armée à utiliser une force disproportionnée pour tuer en masse les Palestiniens à Gaza. Comme l'a décrit un porte-parole des FDI (Forces de défense israéliennes) : « Nous nous concentrons sur ce qui cause un maximum de dégâts. »
Si les technologies basées sur l'IA réduisent la présence de troupes au sol et, par conséquent, les blessures et les pertes potentielles pour l'armée qui les déploie, elles augmentent considérablement les pertes parmi les populations ciblées. L'armée israélienne prétend que les systèmes basés sur l'IA « ont minimisé les dommages collatéraux et augmenté la précision du processus dirigé par l'homme », mais les résultats documentés racontent une tout autre histoire.
La documentation révèle qu'au moins 13 319 des Palestiniens tués étaient des bébés et des enfants âgés de 0 à 12 ans. Les rapports de l'ONU sur les victimes palestiniennes sont jugés conservateurs par les chercheurs, qui estiment que le bilan réel des victimes pourrait être le double, voire le triple. Selon un rapport : « Les soi-disant “systèmes intelligents” peuvent déterminer la cible, mais le bombardement est effectué avec des munitions “idiotes” non guidées et imprécises, car l'armée ne veut pas utiliser de bombes coûteuses sur ce qu'un officier du renseignement a décrit comme des “cibles poubelles”. » De plus, 92 % des unités de logement ont été détruites à Gaza, ainsi que 88 % des bâtiments scolaires, et 69 % de l'ensemble des structures de Gaza ont été détruites ou endommagées.
En 2024, des experts de l'ONU ont déploré [fr] l'utilisation d'Israël de l'IA pour commettre des crimes contre l'humanité à Gaza. Malgré toutes les informations susmentionnées, la même année, Israël a signé un traité mondial sur l'IA, élaboré par le Conseil de l'Europe pour la sauvegarde des droits de l'homme. Le fait qu'Israël ait tué un si grand nombre de Palestiniens à l'aide d'outils basés sur l'IA, connectés à des technologies de la vie quotidienne comme WhatsApp, est perçu par certains comme un signal d'alarme sur ce qui pourrait un jour leur arriver, mais est vu par d'autres comme un modèle pour systématiser efficacement la suprématie et le contrôle.
Cet article soutient que le problème ne réside pas seulement dans le manque de surveillance humaine des données et des outils d'IA ; en réalité, savoir qui collecte, possède, contrôle et interprète les données, et quels sont ses préjugés (qu'ils soient implicites ou explicites), est un élément clé pour comprendre les préjudices et abus réels et potentiels. De plus, se concentrer exclusivement sur la technologie dans le génocide commis par Israël à Gaza, ou dans toute autre guerre d'ailleurs, pourrait entraîner une erreur majeure : absoudre les auteurs de la responsabilité des crimes qu'ils commettent en utilisant cette technologie. En suraccentuant les outils, il peut devenir trop facile de redéfinir des abus intentionnels comme des erreurs commises par des machines.
Lorsqu'on examine l'utilisation de la technologie en géopolitique et en temps de guerre, la compréhension des structures de pouvoir est essentielle pour avoir une vision claire. Trouver la « bonté » dans des usages ultra-spécifiques de la technologie ne pèse pas lourd dans la tentative de compenser le « mal ».
Pour les êtres humains dont la vie est devenue plus difficile et les conditions plus désastreuses à la suite de la mise en œuvre de la technologie dans des logiques de domination, de guerre et des systèmes de suprématie, il n'y a pas grand-chose qui puisse être rationalisé en mieux. Et il en va de même pour d'autres entités qui utilisent leurs avantages (géopolitiques, technologiques ou autres) afin d'asseoir leur contrôle sur d'autres qui se trouvent dans des positions relativement plus désavantagées et vulnérables. Dissocier les applications utiles et nuisibles de la technologie revient à perdre de vue la situation dans son ensemble, non seulement sur la manière dont la technologie pourrait être utilisée un jour, mais aussi sur la manière dont elle est réellement utilisée en ce moment même.








