Les deepfakes audio et les farces de l'IA constituent une menace pour les élections dans le monde entier

Image crée avec Dalle-3 par OpenArt.

Aujourd'hui, presque tout le monde peut créer des enregistrements audio ou vidéo de célébrités ou de personnes ordinaires qui agissent et parlent comme elles ne l'auraient jamais fait en utilisant un logiciel d'intelligence artificielle (IA) simple et largement accessible. Les droits des personnes dont les voix et les images sont détournées devront être plus sérieusement protégés. De grandes entreprises technologiques se sont associées dans une tentative historique pour mettre fin à l'utilisation abusive de l'IA lors des prochaines élections dans le monde entier.

Les deepfakes continuent de se développer et chaque fois avec une meilleure qualité, plus convaincante, et plus proche de la réalité. Le grand nombre d'élections dans le monde en 2024 soulève la question de l'inclusion de l'intelligence artificielle dans ces processus électoraux, ce qui pourrait compromettre l'intégrité des élections. La manipulation des électeurs par des « deepfakes » est l'une des principales discussions dans de nombreux pays du monde qui se préparent à des élections. Environ 4 milliards de personnes se rendront aux urnes dans plus de 50 pays différents. Des universitaires, des journalistes et des hommes politiques ont exprimé leur inquiétude quant à l'utilisation de contenus générés par l'IA dans le cadre d'opérations d'influence politique.

Néanmoins, le contenu généré par l'IA aura également un impact plus important sur notre vie sociale. Récemment, les cas viraux concernaient des célébrités, mais compte tenu de la rapidité avec laquelle les deepfakes évoluent, nous aurons des vidéos deepfake de personnes ordinaires qui ne sont pas des célébrités ou des politiciens et qui ne suscitent pas l'intérêt du public pour leur travail ou leurs activités. Il s'agira d'une menace très sérieuse pour les sociétés, et c'est pourquoi il est très important d'avoir des initiatives collectives contre les supercheries générées par l'IA.

Études de cas de deepfakes récents

Les « deepfakes », ou manipulations non basées sur l'IA appelées « cheapfakes », ne sont pas nouvelles et existent depuis un certain temps. Cependant, avec l'impact du ChatGPT sur la diffusion de l'IA auprès d'un public plus large, des milliards de dollars ont été investis dans les entreprises d'IA au cours de l'année écoulée. Le développement de programmes qui facilitent leur production, en particulier les deepfakes, a multiplié l'utilisation de l'intelligence artificielle pour produire des deepfakes qui ciblent le public. Aujourd'hui encore, en plus de la manipulation vidéo, il y a eu des cas où un deepfake audio a été produit, ce qui est encore plus facile à créer.

Le deepfake audio du Président américain Joe Biden, distribué dans le New Hampshire pour inciter les gens à ne pas voter lors des primaires de l'État, a touché plus de 20 000 personnes. La personne à l'origine de cette manipulation et payée 150 dollars pour la produire, Steve Kramer, a déclaré qu'il s'agissait d'un acte de désobéissance civile visant à attirer l'attention sur les risques associés à l'intelligence artificielle en politique et sur la nécessité d'une réglementation de l'IA.

Le deepfake audio de l'homme politique slovaque Michal Simecka est un autre exemple important qui montre à quel point les deepfakes peuvent constituer un danger pour la démocratie. Un message vocal enregistré a été téléchargé sur Facebook, 48 heures avant les élections slovaques, semblant être celui de Simecka discutant de la fraude électorale avec la journaliste Monika Todova. Le deepfake audio du maire de Londres, Sadiq Khan, est un exemple qui pourrait avoir de graves implications politiques et sociétales. Au début du mois de novembre 2023, un deepfake audio de Khan est devenu viral lorsqu'il a semblé insulter le jour de l'Armistice (célébration de la fin de la Première Guerre mondiale) et exiger que les marches en faveur de la Palestine aient la priorité.

Outre les deepfakes audio avec des protagonistes politiques, des deepfakes vidéo avec des célébrités continuent de circuler sur l'Internet. Il existe par exemple des deepfakes vidéo du célèbre acteur hollywoodien Tom Hanks, dans lesquels une version IA de celui-ci fait la promotion d'un plan dentaire, ou du célèbre YouTubeur américain MrBeast, qui semble organiser « le plus grand tirage au sort d'iPhone 15 au monde ».

Les deepfakes de la chanteuse Taylor Swift publiés au début de l'année sur plusieurs plateformes de médias sociaux – X(anciennement Twitter), Instagram, Facebook et Reddit – sont également devenus viraux. Avant d'être retiré de X, un deepfake de Swift a été vu plus de 45 millions de fois au cours des quelque 17 heures pendant lesquelles il est resté sur la plateforme.

Une initiative collective contre la tromperie générée par l'IA 

Le Tech Accord to Combat Deceptive Use of AI in 2024 Elections, qui a été annoncé lors de la Conférence sur la sécurité de Munich, voit 20 acteurs majeurs, dont Adobe, Google, Microsoft, OpenAI, Snap Inc. et Meta, s'engager à utiliser des technologies de pointe pour détecter et contrecarrer les contenus nuisibles générés par l'IA qui visent à tromper les électeurs, et également à soutenir les efforts visant à favoriser la sensibilisation du public, l'éducation aux médias et la résilience de l'ensemble de la société. C'est la première fois que 20 entreprises différentes s'engagent ensemble contre la tromperie générée par l'IA.

Les entreprises participantes ont pris huit engagements spécifiques pour atténuer les risques liés aux contenus électoraux trompeurs générés par l'IA. Cette initiative entre le secteur technologique et l'IA vise à cibler les images, les vidéos et les sons créés par l'IA qui pourraient induire les électeurs en erreur au sujet des candidats, des responsables électoraux et du processus de vote. Toutefois, elle n'exige pas l'interdiction totale de ces contenus.

Commentez

Merci de... S'identifier »

Règles de modération des commentaires

  • Tous les commentaires sont modérés. N'envoyez pas plus d'une fois votre commentaire. Il pourrait être pris pour un spam par notre anti-virus.
  • Traitez les autres avec respect. Les commentaires contenant des incitations à la haine, des obscénités et des attaques nominatives contre des personnes ne seront pas approuvés.