« Deepfakes » et risques liés à la prolifération de la fraude audiovisuelle

Image crée avec Canva.

Il y a environ six ans, j'ai parlé d'un nouveau « virus » dans le journalisme. Bien que plusieurs années se soient écoulées, il n'existe toujours pas d’« anti-virus » contre les deepfakes, dont la fabrication a été avancée et perfectionnée, et la dernière étape consiste à simplifier le processus de production de ces vidéos canulars. Jusqu'à présent, il était nécessaire d'avoir certaines compétences pour utiliser des programmes spécifiques afin de produire des « deepfakes ». Le développement de nouvelles applications basées sur l'intelligence artificielle, mais plus faciles à utiliser, conduit à la production massive de deepfakes. Lors des dernières élections présidentielles aux États-Unis, il y a eu plus de « cheapfakes » que de « deepfakes », principalement parce que les « cheapfakes » étaient faciles à produire et que n'importe qui pouvait les réaliser. Maintenant que cela devient possible pour les deepfakes, qui sont si faciles à produire, il ne faut pas beaucoup de persuasion et de calculs pour dire que, dans les processus sociaux importants comme les élections, les deepfakes seront le principal risque dans le monde de l'information, maintenant que la manipulation devient plus faisable, au sens technologique du terme.

Les deepfakes sont de faux contenus visuels basés sur l'intelligence artificielle dans lesquels une personne réelle est présentée en train de dire ou de faire quelque chose qu'elle n'a jamais fait. Au fil des ans, les deepfakes ont été produits à des fins de divertissement et d'autres à des fins de sensibilisation, mais il arrive également que la manipulation de la société par le biais des deepfakes soit motivée par des raisons politiques ou économiques.

Les « deepfakes » sont de plus en plus faciles à produire, et il est donc urgent de sensibiliser la société à leur sujet. Un exemple récent dans la région des Balkans est la vidéo érotique qui usurpe l'identité de la célèbre présentatrice de télévision albanaise Luana Vjollca, en plaçant son visage sur un corps différent grâce à l'utilisation de l'intelligence artificielle. Le journaliste albanais Blendi Fevziu a publié une fausse vidéo de lui-même à des fins de sensibilisation, où il apparaît parlant chinois, arabe, russe et portugais. D'autres vidéos « deepfake » ont été publiées dans la région en 2022, comme celle où Elon Musk parle en albanais ou en serbe.

Ces exemples montrent qu'il est beaucoup plus facile de produire un deepfake aujourd'hui qu'il y a quelques années. Si l'on élargit le champ d'analyse au-delà de la région, un deepfake viral a été celui du célèbre mannequin américain Bella Hadid, dans lequel elle semblait soutenir les actions d'Israël dans la guerre contre le Hamas, ce qu'elle n'avait pas dit être le cas. Le deepfake de Bella Hadid a été vu plus de 28 millions de fois sur X (anciennement Twitter). Le développement de la technologie et de programmes faciles à utiliser basés sur l'intelligence artificielle constitue une autre menace pour la vérité.

Aujourd'hui, la vérité est au bord de la « mort », avec l'augmentation des « deepfakes » en circulation, car il sera de plus en plus difficile de comprendre ce qu'est la vérité. Compte tenu de la crise de crédibilité des médias, le journalisme sera encore plus remis en question dans un avenir proche. Cependant, le meilleur moyen de lutter contre tout cela est d'avoir un journalisme professionnel, un journalisme qui adhère aux normes professionnelles et qui place l'intérêt public au premier plan. Dans le cas contraire, le journalisme sensationnaliste et l'appât du clic ne feront qu'alimenter encore plus la méfiance à l'égard des médias et conduiront les citoyens à ne pas se sentir en sécurité avec les informations qu'ils reçoivent, créant ainsi un espace pour d'autres acteurs dans l'environnement de l'information. Dans cette situation, ceux qui aiment opérer dans le brouillard, profiter d'une approche machiavélique sans penser aux dommages causés à la société, en tirent toujours profit.

La popularisation des deepfakes grâce au développement de la programmation basée sur l'intelligence artificielle ouvre un nouveau chapitre dans la circulation de l'information et de la communication, que ce soit pour l'expéditeur ou le destinataire de l'information. En raison de cette évolution rapide et très importante, des efforts devraient être faits pour rendre la méthode de vérification plus simple et plus rapide qu'elle ne l'est actuellement.

Il existe actuellement des programmes qui aident à détecter ce phénomène qui vous fait vivre inconsciemment dans une fausse réalité, tels que FakeCatcher et Sentinel, mais il n'y a pas encore d'outils ouverts qui seraient disponibles pour tout le monde, gratuitement. En outre, il est important que les méthodes de détection soient perfectionnées afin de suivre l'évolution des « deepfakes », car la technologie qui facilite la production de « deepfakes » se développe à un rythme rapide. Actuellement, ces plateformes ne détectent pas les manipulations audios, un élément important des manipulations audiovisuelles, car il existe déjà des cas où l'image est réelle, alors que le son est généré par une intelligence artificielle.

La connaissance des deepfakes et la prise de conscience de ce phénomène permettent à la société d'être plus critique à l'égard de toute vidéo à laquelle elle est exposée. Les outils de détection des « deepfakes » sont importants, mais la lutte contre la désinformation nécessite également un engagement fort de la part des individus et des organisations de la société civile pour sensibiliser la société à l'existence et aux implications des « deepfakes » dans la vie de tous les jours.

Par ailleurs, il n'est pas nécessaire de créer un nouveau cadre juridique pour les « deepfakes », car il existe déjà des lois qui réglementent les contenus destinés à tromper, diffamer ou nuire aux individus, aux entreprises ou à la société dans son ensemble. Toutefois, en raison de la rapidité de leur distribution, de leur viralisation et de leur potentiel de nuisance, il est important de donner la priorité aux deepfakes.

Commentez

Merci de... S'identifier »

Règles de modération des commentaires

  • Tous les commentaires sont modérés. N'envoyez pas plus d'une fois votre commentaire. Il pourrait être pris pour un spam par notre anti-virus.
  • Traitez les autres avec respect. Les commentaires contenant des incitations à la haine, des obscénités et des attaques nominatives contre des personnes ne seront pas approuvés.