Ce rapport fait partie de Data Narratives, un projet du service de recherche Civic Media Observatory (Observatoire civique des médias) visant à identifier et à comprendre les discours concernant les données utilisées pour la gouvernance, le contrôle et la politique dans les pays suivants : El Salvador, Brésil, Turquie, Soudan et Inde. Si ce projet vous intéresse, vous pouvez en lire davantage ici et visiter notre ensemble de données publiques.
Accéder au rapport en version PDF intitulé :
« Artificial Intelligence Narratives:
A Global Voices Report »
Des acteurs puissants, des gouvernements et des sociétés sont en train de façonner avec détermination des récits sur l'intelligence artificielle (IA) dans le but de faire progresser des points de vue divergents de la part de la société et le gouvernement. Ces récits aident à établir ce que le public croit et ce qui devrait être considéré normal ou inévitable à propos de l'usage de l'IA dans leur quotidien : abordant de la surveillance à la prise de décisions automatisée.
Tandis que des messages publics considèrent des systèmes d'IA comme des outils qui promeuvent le progrès et l'efficacité, ces technologies sont utilisées de plus en plus pour surveiller les populations et retirer aux citoyens leur pouvoir de participer aux affaires politiques de mille et une façons. Cet enjeu lié au récit narratif sur l'IA est davantage plus complexe dû à la diversité des valeurs culturelles, des programmes d'action et des concepts ayant un impact sur la façon dont l'IA est abordée au niveau international. Tenir en compte de ces différences est un élément clé dans les contextes dans lesquels les données aggravent les inégalités, les injustices ou la gouvernance antidémocratique. Étant donné que ces systèmes continuent à être adoptés par des gouvernements ayant des antécédents de répression, il est crucial que les organisations de la société civile comprennent la situation pour faire face aux récits sur l'IA qui justifient l'utilisation antidémocratique de ces outils.
Nous avons travaillé avec les bases établies par le projet de recherche Unfreedom Monitor afin de mener notre recherche de Data Narrative sur le discours des données dans cinq pays qui font face à diverses menaces à la démocratie, ces pays étant : Soudan, El Salvador, Inde, Brésil et Turquie. Dans le but de mieux comprendre les relations de ces pays avec l'IA, leurs motivations et les stratégies de protection de l'intéret public, il est utile de contextualiser l'IA en tant qu'un récit de données. La prédominance de l'usage de l'IA implique intrinsèquement la prédominance des données et vice versa. Les systèmes d'IA dépendent de vastes quantités de données pour s'entraîner et pour opérer ; en même temps que ces systèmes gagnent en lisibilité et en valeur, car ils ont été largement intégrés dans les fonctions quotidiens qui génèrent par la suite d'énormes quantités de données nécessaires pour qu'ils puissent fonctionner.
La terminologie de l'IA : un récit et un obstacle
Le terme « intelligence artificielle » lui-même est polémique. Les définitions conventionnelles de ce concept – comme celle établie par la loi européenne sur l'IA : EU AI Act – ont pour but de fournir aux législateurs le cadre nécessaire afin de mettre en place des politiques de gouvernance efficaces ; cependant, ces essais sont insuffisants presque toujours, dus au fait qu'ils excluent, par mégarde, quelques systèmes de la surveillance à cause de la variabilité des formes et des fonctions de ces systèmes soi-disant intelligents dans l'ensemble. Les manières d'aborder la définition de « intelligence artificielle » varient énormément selon le champ d'étude. C'est ce qu'illustrent les données d'enquête dans lesquelles les informaticiens se concentrent sur les fonctions techniques des systèmes, tandis que les législateurs s'intéressent plutôt aux connexions métaphoriques entre les aspects du système qu'ils considèrent comme similaires à la pensée et au comportement humains. Cela montre que même le terme « intelligence artificielle » a un sens. Nous commençons à le comprendre en acceptant les utilisations globales qui en sont faites dans les médias populaires, ainsi que celles qui sont faites par les gouvernements et les chercheurs.
La diversité globale des récits de la terminologie de l'IA reflète la variété internationale des valeurs et des priorités culturelles. Plusieurs langues attribuent le mot « intelligence » à ces systèmes, mais les cultures ont ses différences concernant ce qui le concept d'intelligence implique pour chacune d'entre elles. Le simple usage du terme « intelligence » confère des qualités humaines à la technologie, ce qui peut créer une fausse idée que l'IA est autonome et puissante au lieu d'un outil développé et contrôlé par des humains. Des descriptions anthropomorphiques de l'IA peuvent masquer l'infrastructure sous-jacente et les intérêts commerciaux qui se cachent derrière son développement, induisant en erreur au public en l'incitant à tirer des conclusions incorrectes sur la manière dont la technologie marche et si on devrait lui faire confiance dans des cas spécifiques. Par conséquent, les récits sur l'IA qui utilisent des descriptions anthropomorphiques peuvent éviter que le public ne critique ces systèmes d'IA.
La langue qui attribue à un système plus d'intelligence qu'il n'en est capable peut être assimilée aux récits d'encadrement des entreprises qui commercialisent ces outils. Étant donné que les systèmes d'IA avancés, en particulier l'IA générative, nécessitent des ressources informatiques et des infrastructures massives que seule une poignée d'entreprises peut s'offrir, le pouvoir sur le développement de l'IA a été concentré dans les Big Tech telles que Google et Microsoft. Cette domination technique donne des avantages à ces compagnies sur les récits relatifs aux systèmes d'AI en encourageant des récits qui suggèrent que le contrôle privilégié qu'ils ont sur cette technologie est dans l'intéret public en raison des promesses disant que cela « démocratisera l'IA » pour tout le monde. En fait, ces modèles sont totalement incapables de démocratiser la connaissance : d'une part, cela est dû au fait que ces technologies ne peuvent pas différencier les faits de la fiction lorsqu'il s'agit de produire des résultats pour même justifier une définition libérale de « connaissance » et, d'autre part, c'est parce qu'elles offrent des réponses différents en fonction de l'utilisateur en raison de la nature des informations sur l'identité encodées dans le discours de celui-ci. La popularité de l'IA générative étend de plus en plus l'influence des entreprises des États-Unis dans d'autres pays, façonne tant les questions soulevées que les débats sur des réseaux sociaux et déterminent quelles recherches seront financées.
Considérer les systèmes d'IA comme intelligents est davantage plus compliqué et entremêlé avec des récits similaires. Aux États-Unis, les récits sur l'IA se basent souvent sur des thèmes opposés, tels que l'espoir et la peur, ce qui déclenche fréquemment deux émotions fortes: les craintes existentielles et les aspirations économiques. Dans n'importe quel cas, ceux-ci proposent que la technologie est puissante. Ces récits contribuent à inciter un enthousiasme exagéré concernant les outils d'IA et leur impact potentiel sur la société. En voici quelques exemples :
- une « course à l'armement en matière d'IA » entre les États-Unis et d'autres puissances mondiales, en particulier la Chine ;
- l'IA est un stimulant de la croissance économique et un agent de changement qui remodèle la société ;
- l'IA est une menace pour le monde du travail ;
- l'IA est un outil bénéfique pour la société ;
- l'IA est une force inévitable qui requiert une réglementation urgente ;
- si on n'utilise pas l'IA, on sera à la traîne ;
- l'IA est une force de démocratisation qui réduit les barrières à l'entrée au niveau mondial.
Un grand nombre de ces définitions présentent souvent l'IA comme une force inarrêtable et qui est en train de progresser très rapidement. Bien que ce récit puisse susciter l'enthousiasme et l'investissement en faveur de la recherche sur l'IA, cela peut contribuer aussi à engendrer une sensation de déterminisme technologique et à un manque d'engagement critique quant aux conséquences de l'adoption de l'AI aussi répandue. Il existe beaucoup de récits s'opposant à cela et qui développent les motifs de la surveillance, la détérioration de la confiance, le biais, la répercussion sur l'emploi, l'exploitation de la main-d'œuvre, les usages à haut risque, la concentration du pouvoir et les conséquences environnementales, entre autres.
Ces récits, accompagnés de la langue et de l'imagerie métaphoriques utilisées pour décrire l'IA, contribuent à semer la confusion et le manque de connaissances dans le public au sujet de cette technologie. En montrant l'IA comme un outil transformateur, inévitable et nécessaire à la réussite nationale, ces récits peuvent façonner l'opinion publique et les décisions politiques, souvent des manières qui encouragent une adoption et une commercialisation rapides.
Les principaux récits trouvés dans notre recherche
Vous pouvez cliquer sur les tableaux suivants pour naviguer parmi les récits que nous avons analysés et que nous décrivons dans la section suivante :
Version originale en anglais :
Version traduite en français :
Brésil
Le débat sur l'IA au Brésil, centré principalement sur les mesures réglementaires, a gagné en popularité puisque ce pays a accueilli le forum G20 cette année (2024) et a mené une série de préparations et des activités annexes concernant les problèmes liés à la gouvernance des données, telles que NetMundial+10. La réglementation principale qui a été abordée était le projet de loi 2338/2023, qui vise à établir des standards nationaux pour développer, mettre en place et faire un usage responsable des systèmes d'IA. À part ce projet de loi, il y a davantage des propositions législatives spécifiques dans quelques secteurs, telles que celles qui criminalisent les deepfakes pornographiques, et qui ont ciblé les résolutions de 2024 élaborées par le Tribunal Electoral Supérieur sur l'IA et les élections.
Dans ce contexte, notre chercheur a identifié trois récits essentiels. Le premier récit, « Le Brésil doit rester à l'avant-garde de la réglementation des nouvelles technologies », couvre le désir de du gouvernement de gauche actuel du Brésil et des membres de la société civile de revenir à l'avant-garde de la réglementation des nouvelles technologies comme ils l'étaient en 2014, avec le « Marco Civil da Internet » (Cadre Brésilien des Droits Civils pour l'Internet). Le deuxième récit, « Le Brésil doit réglementer l'IA pour ne pas être à la traîne », suit également un sentiment d'urgence pour la réglementation ; cependant, promu par l'aile droite conservatrice, le Parti libéral (PL), il donne la priorité à la facilitation d'un espace commercial sécurisé qui prospère grâce à l'innovation en matière d'IA. Le troisième récit, « La réglementation de l'IA empêche l'innovation au Brésil », avancé par l'aile droite néolibérale du pays, diffuse l'idée que la réglementation de l'IA empêchera le développement de l'industrie de l'IA au Brésil.
Inde
En novembre 2024, une vidéo deepfake faite par AI de l'actrice Rashmika Mandanna qui circulait sur les réseaux sociaux a déclenché un débat en Inde par rapport à la réglementation de l'IA. La confirmation de cette manipulation d'images a conduit à des discussions concernant le rôle du gouvernement en matière de contrôler les deepfakes faits par IA et de mitiger les dommages potentiels. Ce débat s'est étendu aux préoccupations sur l'impact de l'IA dans les élections, ce qui a encouragé que le gouvernement avertisse des plateformes sur les deepfakes faits par IA et qu'il publie un avertissement sur l'autorégulation et l'étiquetage des contenus faits par IA. Ces mesures ont suivi les problèmes soulevés publiquement par la Première ministre Narendra Modi, qui ont souligné les menaces posées par les deepfakes faits par IA et leur dommage potentiel pour les citoyens.
Au cours de la première phase de la discussion, juste après la publication de la vidéo deepfake faite par IA, notre chercheur a repéré deux récits principaux. Le premier récit, « Le gouvernement indien est résolu à rendre l'internet sûr pour ses citoyens », annonçait les actions générales du gouvernement en termes de réglementation pour lutter contre la désinformation, les discours haineux et le harcèlement en ligne. Le second récit, « La réponse du gouvernement indien aux “deepfakes” de l'IA est confuse et réactive », soutenu par des organisations telles que l’Internet Freedom Foundation, questionne les mesures réactives du gouvernement et considère qu'elles ont été prises sans une évaluation approfondie des différentes problématiques en question.
Plus tard, notre chercheur a relevé trois récits supplémentaires au moment où l'attention s'est portée sur les élections. Les deux premiers récits, « Les acteurs antinationaux de l'Inde utiliseront les deepfakes faites par IA » et « Les créateurs de deepfakes faits par IA et les plateformes qui les hébergent sont les véritables moteurs de la manipulation des élections », proposés par le gouvernement, visent à accuser les partis d'opposition, les plateformes de réseaux sociaux et les personnes qui sont derrière la création de vidéos deepfakes faites par l'IA pour propager de la désinformation sans faciliter l'adoption d'une réglementation stricte pour y remédier. Le troisième récit, « La solution à la désinformation par l'IA en Inde doit aller au-delà de l'interdiction et du blocage des contenus », également promu par des organisations telles que l’Internet Freedom Foundation, exige une réponse plus efficace de la part du gouvernement qui considère la responsabilité politique et renforce le système des médias.
Soudan
La guerre civile au Soudan, en cours depuis avril 2023, a affecté profondément tous les aspects de la société soudainaise. En mai 2023, les Forces armées soudanaises (SAF) ont utilisé la station de télévision nationale pour propager de la désinformation et affirmer que une vidéo de Mohamed Hamdan Dagalo (Hemedti), le commandant des Forces de soutien rapide (FSR), était faite par IA et que Hemedti était mort. Cependant, Hemedti est réapparu en juillet 2023 dans une vidéo enregistrée avec ses forces et publiée par les FSR sur X (avant connu comme Twitter), ce qui les sympathisants des SAF ont utilisée pour renforcer leur récit qui revendiquait sa mort en affirmant que « les FSR utilisent des deepfakes faits par IA afin de faire des tromperies militaires. » En janvier 2024, la crédibilité des SAF était entamée quand Hemedti est apparu publiquement avec plusieurs dirigeants africains lors de sa visite dans la région.
Au milieu de cette situation, où l'IA est utilisée comme un outil de guerre, notre chercheur a défini trois récits clefs. Le premier récit – comme indiqué ci-dessus, « Les FSR utilisent des simulacres d'IA pour la tromperie militaire » -, promu par les SAF et ses sympathisants, vise à discréditer les FSR en les associant aux deepfakes faits par IA et en les accusant de tromper à tout le monde pour les faire penser que leur commandant, Hemedti, est toujours en vie. Le second récit, « Les Émirats arabes unis et Israël utilisent l'IA pour faire passer leur programme d'action au Soudan », soutenu davantage par les sympathisants des SAF, explique que les Émirats arabes unis ont utilisé l'IA pour imposer leur programme d'action au Soudan en vue de favoriser les FSR tout en nuisant à la réputation des SAF. Israël et les Émirats arabes unis ont renforcé leur coopération en matière d'innovation en IA, qui s'est intensifiée à la suite de l'accord de paix conclu dans le cadre des accords d'Abraham. Le RSF, qui entretient des liens étroits avec les Émirats arabes unis, a cherché par le passé à instaurer des relations indépendantes avec Israël, en dehors des canaux officiels de l'État.
Le troisième récit, « Les FSR n'utilisent pas de deepfakes d'IA à des fins de tromperie militaire », renforcé par les FSR et ses sympathisants, contrecarre les accusations des SAF et nie avoir utilisé des deepfakes faits par IA à des fins de tromperie militaire dans leurs opérations en ligne.
Turquie
En Turquie, le battage médiatique est un facteur dominant dans les débats sur l'IA. Malgré cela, l'IA est souvent mal interprétée, étant vue et traitée comme une solution magique. Plusieurs entités tant du secteur public que privé recourent à l'IA pour projeter une image plus technophile, progressiste et objective, en l'utilisant pour se défendre des accusations de partialité ou de manque de modernité. Pourtant, cet optimisme contraste vivement avec les expériences frustrantes ou abusives que de nombreux citoyens turcs ont avec l'IA dans leur quotidien.
Dans ce combat de perceptions, notre chercheur a identifié deux récits. Le premier récit, « L'intelligence artificielle est impartiale et peut en elle-même résoudre de nombreux problèmes du peuple turc », soutenu par le parti au pouvoir, l'opposition et même la fédération de football du pays. Il décrit l'IA comme étant toujours impartiale, objective et supérieure aux systèmes fabriqués par l'homme, indépendamment des raisons, de la manière et de l'endroit où elle est utilisée. Le second récit, « L'intelligence artificielle cause plus de problèmes qu'elle n'en résout », est implicitement affirmé et présente les menaces associées à son usage, notamment l'exacerbation des problèmes sociétaux existants et la création de nouveaux problèmes.
Des lacunes dans la conversation
Les récits détectés par nos chercheurs mettent également en évidence les lacunes dans le débat sur l'IA. Le cas le plus évident se trouve au Salvador, où aucun récit clé discutant de l'IA n'a été trouvé. Notre recherche indique que les sujets de gouvernance des données qui prospèrent dans le dialogue social du Salvador sont principalement les politiques relatives aux crypto-monnaies et les enjeux liés à la protection des données.
En Inde, au Soudan et en Turquie, les enjeux liés à la protection des données sont également présents dans les discussions sur la gouvernance des données. Toutefois, dans tous ces pays, les inquiétudes concernant la fuite ou l'utilisation abusive des données personnelles sont liées à l'IA. Il semblerait qu'il n'y ait pas de discussion sur la source des données utilisées pour soutenir les systèmes d'IA et les implications que cela pourrait avoir ou pas sur la vie privée des personnes, même dans les pays où des réglementations potentielles sont en cours de discussion. La même chose se produit avec les discussions sur les répercussions potentielles de l'IA sur l'emploi : aucun récit local ne débat des menaces ou des opportunités que l'IA peut présenter pour les personnes sur leur lieu de travail.
Les récits présentés dans notre recherche sont également peu optimistes et n'associent pas clairement l'IA à des éléments positifs. Ce n'est qu'en Turquie que l'IA est présentée comme un outil effectif, bien qu'elle soit généralement mystifiée et utilisée dans le discours et comme stratégie de communication pour masquer les inefficacités.
Le travail de nos chercheurs ne révèle pas non plus de récits influents dans les sociétés des pays étudiés sur les conséquences possibles de l'IA sur les forces militaires ou policières de ces pays, au contraire des États-Unis. Ce n'est qu'en Turquie et El Salvador que nos chercheurs ont trouvé des discussions actives sur un éventuel espionnage de la part de leurs gouvernements. Néanmoins, dans tous ces incidents, les récits établissent un lien avec l'IA. La même situation s'est produite avec les violations des droits de l'homme : aucune discussion sur la manière dont l'IA peut les prévenir ou les faciliter n'a été enregistrée.
Notre recherche ne montre non plus aucun débat social approfondi sur l'opportunité que représente l'IA pour les responsables autoritaires actuellement au pouvoir ou souhaitant y accéder. Il ne semble guère y avoir de discussions sur la question de savoir si l'IA peut aggraver la notion d'absence de vérité indiscutable et si ce climat de méfiance est nuisible aux démocraties.
Accéder au rapport en version PDF intitulé :
« Artificial Intelligence Narratives:
A Global Voices Report »
Conclusion : les récits sur l'IA doivent changer
Les organisations de la société civile qui veulent protéger la démocratie et les droits de l'homme doivent mieux comprendre les récits de l'IA au plan mondial. La première élection générative influencée par l'IA vient d'avoir lieu. L'autoritarisme fondé sur les algorithmes et l'utilisation de l'IA aux fins de la répression sont vastes, y compris la propagande faite avec des deepfakes, la surveillance, la modération du contenu, la cyberguerre et les armes de l'IA. Les régions se focalisent sur des menaces et des politiques spécifiques liées à l'IA, mais des récits publics plus larges sur les impacts de l'IA sur la démocratie et les droits de l'homme sont nécessaires. Les recherches menées par le Data Narratives Observatory indiquent que les débats régionaux ne tiennent souvent pas compte des liens essentiels entre les systèmes d'intelligence artificielle, la gouvernance des données et le pouvoir. Il est nécessaire de changer les récits et de créer une infrastructure narrative. Considérer l'IA comme un élément d'un écosystème de données et non comme une intelligence anthropomorphisée peut aider à contrecarrer les récits nuisibles et trop simplifiés sur l'IA. Cette approche peut également contribuer à éduquer le public sur les droits relatifs aux données et à l'IA, puisque la politique en matière d'IA dépend de la gouvernance des données. Cette relation est très importante si l'on considère la croissance de l'IA et le rôle qu'elle joue dans le processus de surveillance.
Notre recherche dévoile des lacunes importantes dans le discours mondial sur l'IA. Du côté d'El Salvador, le discours social sur la gouvernance des données est centré sur les politiques relatives aux crypto-monnaies et à la protection des données, et accorde peu d'attention à l'IA. Les deepfakes faits par IA et leur emploi dans la désinformation sont discutés dans des pays comme le Brésil, l'Inde et le Soudan, mais ils abordent rarement les répercussions de l'IA sur la confidentialité des données ou sur l'emploi. Il est rare que l'on soit optimiste à l'égard de l'IA, sauf en Turquie, où l'IA est perçue comme une solution, même si c'est souvent de manière superficielle. Les échanges sur l'impact de l'IA sur les capacités militaires et policières, les droits de l'homme et son potentiel à soutenir les régimes autoritaires ou à compromettre les valeurs démocratiques sont particulièrement absents, ce qui met en lumière la nécessité d'un engagement plus complet et plus critique à l'égard des impacts sociétaux de l'IA dans le monde entier.
Des approches émergentes et prometteuses de la gouvernance de l'IA pourraient être renforcées par des méthodes qui respectent le pouvoir des récits autour des enjeux centraux. Les initiatives de gouvernance des données et de l'IA orientées vers la communauté, comme Connected by Data, et des réseaux de souveraineté des données indigènes, comme Te Mana Raraunga, illustrent la manière dont la gestion collective peut contester le contrôle des entreprises et la surveillance de l'État. Récemment, des efforts ont également été réalisés, comme la politique Fostering a Federated AI Commons Ecosystem, inspirée par le travail de Coding Rights, qui appelle le G20 à promouvoir un écosystème basé sur l'IA qui met l'accent sur des tâches spécifiques, orientées vers la communauté, et visant à limiter le pouvoir des monopoles de la technologie. La Fondation Mozilla suit de nombreuses autres initiatives concernant les données qui permettent aux communautés de gagner en autonomie.
Ces idées peuvent être puissantes, mais pour qu'elles réussissent, elles doivent être soutenues par des communautés diverses. La recherche sur des récits démontre qu'ils peuvent influencer efficacement les résultats publics, mais des défis se posent lorsqu'on essaie de développer des récits à partir de la base. Sans un changement délibéré des récits, les récits dominants sur l'IA pourraient s'intensifier et mener à :
- des récits corporatifs sur l'IA qui surestiment la capacité de l'IA, conduisant à des attentes erronées et confuses et rendant la réglementation plus difficile ;
- la normalisation d'une surveillance renforcée et d'une perte de pouvoir décisionnel de la part des humains, menée par des récits de l'État ;
- des récits simplistes sur l'IA, comme ceux qui présentent l'IA comme une menace ou comme une solution, qui peuvent faire oublier la prévention de risques et d'avantages réalistes ;
- des pratiques extractives et que la concentration du pouvoir dans le paysage de l'IA, qui resteront occultées ;
- des visions alternatives du développement et de la gouvernance de l'IA centrées sur la communauté, de la gestion des données et du travail sur les biens communs de l'IA peinent à s'imposer.
Ces conclusions soulignent le besoin crucial de développer la recherche sur les récits d'IA – non seulement pour les documenter, mais également pour aider la société civile à élaborer des contre-récits et des stratégies efficaces. La documentation est indispensable pour permettre aux sociétés de construire des infrastructures narratives qui défient le contrôle des entreprises et la surveillance de l'État. La meilleure façon pour les communautés de résister à la répression par l'IA est d'intégrer une compréhension nuancée de la manière dont les différentes communautés conceptualisent et discutent de l'IA dans le but d'élaborer des messages qui résonnent localement et qui contribuent globalement à un mouvement plus large et mondial. Nous commençons par comprendre les récits existants. Nous utilisons ces connaissances pour aider les communautés à repérer l'utilisation abusive des systèmes d'IA et à s'y opposer. En retour, elles peuvent utiliser ces informations pour faire progresser leurs visions alternatives de la gouvernance de l'IA, basées sur les droits de l'homme et les valeurs démocratiques.
Références
A Is. (2021). Aisforanother.net. https://aisforanother.net/
Article 3: Definitions | EU Artificial Intelligence Act. (2024, June 13). Future of Life Institute. https://artificialintelligenceact.eu/article/3/
Artificial intelligence (AI) and human rights: Using AI as a weapon of repression and its impact on human rights | Think Tank | European Parliament. (2024). Europa.eu. https://www.europarl.europa.eu/thinktank/en/document/EXPO_IDA(2024)754450
Aawsat. (2023, April 22). Where did Al-Burhan and “Hemedti” disappear? https://aawsat.com/home/article/4287326/%D8%A3%D9%8A%D9%86-%D9%8A%D8%AE%D8%AA%D9%81%D9%8A-%D8%A7%D9%84%D8%A8%D8%B1%D9%87%D8%A7%D9%86-%D9%88%C2%AB%D8%AD%D9%85%D9%8A%D8%AF%D8%AA%D9%8A%C2%BB%D8%9F
Bryson, J. J. (2022, March 2). Europe Is in Danger of Using the Wrong Definition of AI. Wired. https://www.wired.com/story/artificial-intelligence-regulation-european-union/
Catalysing Community Campaigns. (2024, September 26). Connected By Data. https://connectedbydata.org/projects/2023-catalysing-communities
Center for Preventive Action. (2024, October 3). Civil War in Sudan. Global Conflict Tracker; Council on Foreign Relations. https://www.cfr.org/global-conflict-tracker/conflict/power-struggle-sudan
Celso Pereira, P., Jungblut, C. (2014, March 25). Câmara aprova Marco Civil da Internet e projeto segue para o Senado. O Globo. https://oglobo.globo.com/politica/camara-aprova-marco-civil-da-internet-projeto-segue-para-senado-11984559
Chubb, J., Reed, D., & Cowling, P. (2022). Expert views about missing AI narratives: is there an AI story crisis? AI & SOCIETY. https://doi.org/10.1007/s00146-022-01548-2
D’Souza, A. A. (2024, April 24). India's foray into regulating AI. Iapp.org. https://iapp.org/news/a/indias-foray-into-regulating-ai
Edsall, T. B. (2024, June 5). Opinion | Will A.I. Be a Creator or a Destroyer of Worlds? The New York Times. https://www.nytimes.com/2024/06/05/opinion/will-ai-be-a-creator-or-a-destroyer-of-worlds.html
Foodman, J. (2024, August 12). Council Post: Artificial Intelligence Is Changing The World And Your Business. Forbes. https://www.forbes.com/councils/forbesbusinesscouncil/2023/07/24/artificial-intelligence-is-changing-the-world-and-your-business/
Framing AI. (2023, October 12). Rootcause. https://rootcause.global/framing-ai/
Funding Narrative Change, An Assessment and Framework. (2022, September 30). Convergence Partnership. https://convergencepartnership.org/publication/funding-narrative-change-an-assessment-and-framework/
Future of Life Institute. (2023, March 22). Pause Giant AI Experiments: an Open Letter. Future of Life Institute. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Grossman, G., Edelman. (2023, October 15). Smarter than humans in 5 years? The breakneck pace of AI. VentureBeat. https://venturebeat.com/ai/smarter-than-humans-in-5-years-the-breakneck-pace-of-ai/
Hacking the patriarchy — Coding Rights. (2024, September 4). Coding Rights. https://codingrights.org/en/
Halina, M., & Shevlin, H. (2019). Apply rich psychological terms in AI with care. Cam.ac.uk. https://doi.org/10.17863/CAM.37897
Hennessey, Z. (2023). Israel and the UAE join forces to accelerate AI innovation in Abu Dhabi. The Jerusalem Post. https://www.jpost.com/business-and-innovation/article-742509
İspir, E. (2023, March 29). Yapay Zekayla Müstehcen İçeriklerini Yapıp, Taciz Ettiler! “Sonuna Kadar Peşindeyim.” Onedio. https://onedio.com/haber/yapay-zekayla-mustehcen-iceriklerini-yapip-taciz-ettiler-sonuna-kadar-pesindeyim-1137454
Jain, R. (2024, May 9). ChatGPT Creator Sam Altman Feels It's A ‘Massive, Massive Issue’ That We Don't Take AI's Threat To Jobs And Economy ‘Seriously Enough’. Benzinga. https://www.benzinga.com/news/24/05/38725610/chatgpt-creator-sam-altman-feels-its-a-massive-massive-issue-that-we-dont-take-ais-threat-to-jobs-an
Javaid, U. (2024, May 31). Democratizing AI: Why Opening Wider Access To AI Is Vital. Forbes. https://www.forbes.com/councils/forbestechcouncil/2024/05/31/democratizing-ai-why-opening-wider-access-to-ai-is-vital/
Kak, A. and Myers West, S. eds. (2024, March). AI Nationalism(s): Global Industrial Policy Approaches to AI. AI Now Institute. (2024). https://ainowinstitute.org/ai-nationalisms
Kak, A., Myers West, S., & Whittaker, M. (2023, December 5). Make no mistake—AI is owned by Big Tech. MIT Technology Review. https://www.technologyreview.com/2023/12/05/1084393/make-no-mistake-ai-is-owned-by-big-tech/
Kalluri, Pratyusha Ria, Agnew, W., Cheng, M., Owens, K., Soldaini, L., & Birhane, A. (2023, October 17). The Surveillance AI Pipeline. ArXiv.org. https://arxiv.org/abs/2309.15084
Khanal, S., Zhang, H., & Taeihagh, A. (2024, March 27). Why and How Is the Power of Big Tech Increasing in the Policy Process? The Case of Generative AI. Policy & Society (Print). https://doi.org/10.1093/polsoc/puae012
Krafft, P. M., Young, M., Katell, M., Huang, K., & Bugingo, G. (2020, February 7). Defining AI in Policy versus Practice. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society. https://doi.org/10.1145/3375627.3375835
Lakhani, K. (2023, August 4). AI won’t replace humans — but humans with AI will replace humans without AI. Harvard Business Review. https://hbr.org/2023/08/ai-wont-replace-humans-but-humans-with-ai-will-replace-humans-without-ai
Magally, N. & Younis, A. (2021, June 26). Mossad Meetings with Hemedti Stir Anger in Sudan. (2021). Aawsat.com. https://english.aawsat.com/home/article/3048136/mossad-meetings-hemedti-stir-anger-sudan
Manson, K. (2024, February 28). AI Warfare Is Already Here. Bloomberg.com. https://www.bloomberg.com/features/2024-ai-warfare-project-maven/
Markelius, A., Wright, C., Kuiper, J., Delille, N., & Kuo, Y.-T. (2024, April 2). The mechanisms of AI hype and its planetary and social costs. AI and Ethics (Print). https://doi.org/10.1007/s43681-024-00461-2
Mozilla Foundation. (2021). Research Collection: Data for Empowerment. Mozilla Foundation. https://foundation.mozilla.org/en/data-futures-lab/data-for-empowerment/
Microsoft. (2024). AI For Good Lab. Microsoft Research. https://www.microsoft.com/en-us/research/group/ai-for-good-research-lab/
Naprys, E. (2023, November 27). China vs US: who’s winning the race for AI supremacy | Cybernews. https://cybernews.com/tech/china-usa-artificial-intelligence-race/
Narrative Power. (n.d.). Narrative Power. https://narrative.colorofchange.org/
Novak, M. (2023, November 5). Viral Video Of Actress Rashmika Mandanna Actually AI Deepfake. Forbes. https://www.forbes.com/sites/mattnovak/2023/11/05/viral-video-of-actress-rashmika-mandanna-actually-ai-deepfake/
Placani, A. (2024, February 5). Anthropomorphism in AI: hype and fallacy. AI and Ethics, 4. https://doi.org/10.1007/s43681-024-00419-4
Read, J. (2024, March 1). Nurturing a Workforce Ready for AI Integration in Manufacturing · EMSNow. EMSNow. https://www.emsnow.com/nurturing-a-workforce-ready-for-ai-integration-in-manufacturing/
Sky News Arabia. (2023, July 28). Video: This is what Hemedti said in his first appearance in months. https://www.skynewsarabia.com/middle-east/1640960-%D9%81%D9%8A%D8%AF%D9%8A%D9%88-%D9%87%D8%B0%D8%A7-%D9%82%D8%A7%D9%84%D9%87-%D8%AD%D9%85%D9%8A%D8%AF%D8%AA%D9%8A-%D8%A7%D9%94%D9%88%D9%84-%D8%B8%D9%87%D9%88%D8%B1-%D8%B4%D9%87%D9%88%D8%B1
Te Mana Raraunga. (n.d.). Te Mana Raraunga. https://www.temanararaunga.maori.nz/
PM Modi warns against deepfakes; calls on media to educate people on misinformation. (2023, November 17). The Hindu. https://www.thehindu.com/news/national/pm-modi-warns-against-deepfakes-calls-on-media-to-educate-people-on-misinformation/article67543869.ece
TSE – Tribunal Superior Eleitoral. (2024, March 1). Publicadas resoluções do TSE com regras para as Eleições 2024. (2024). Justiça Eleitoral. https://www.tse.jus.br/comunicacao/noticias/2024/Marco/eleicoes-2024-publicadas-resolucoes-do-tse-com-regras-para-o-pleito
Varon, J. (n.d.). T20 POLICY BRIEFING Fostering a Federated AI Commons ecosystem 1 TF05 -Inclusive digital transformation. Subtopic 5.5 -Challenges, Opportunities, and Governance of Artificial Intelligence. Retrieved December 19, 2024, from https://codingrights.org/docs/Federated_AI_Commons_ecosystem_T20Policybriefing.pdf
Vengattil, M. & Kalra, A. (2023, November 24). India warns Facebook, YouTube to enforce rules to deter deepfakes – sources. Reuters. https://www.reuters.com/world/india/india-warns-facebook-youtube-enforce-rules-deter-deepfakes-sources-2023-11-24/
Yahoo Finance Video. (2023, October 21). Google is “democratising AI” for non-expert business app creation | The Crypto Mile. Yahoo Finance. https://finance.yahoo.com/video/google-democratising-ai-non-expert-113148816.html