En mars 2022, un appel du président ukrainien Volodymyr Zelensky à « déposer les armes » dans le cadre du conflit russo‑ukrainien a surpris plus d’un·e observateur·ice. Déconcertant ? Certes, mais pas quand l’on connaît la véritable nature de cette vidéo : un deepfake ayant circulé sur les réseaux sociaux, avant d’être rapidement retiré des plateformes. Un exemple parmi tant d’autres qui invite à s’interroger sur le rôle des deepfakes dans le vaste paysage de la communication politique.
En savoir plus
Les deepfakes peuvent être définis comme des contenus audio, image ou vidéo créés ou manipulés par l’intelligence artificielle afin de représenter de manière convaincante des personnes, des objets ou des événements existants, de sorte qu’ils peuvent paraître authentiques ou réels aux yeux d’un·e spectateur·ice (Commission européenne, 2024).
Dans un contexte où la communication politique se digitalise rapidement, cette technologie s’inscrit dans la continuité de l’évolution des campagnes politiques, où les technologies numériques sont devenues des outils pour capter l’attention et influencer les perceptions. Dans un contexte où les acteur·ices politiques utilisent de plus en plus les réseaux sociaux pour communiquer, cette technologie s’inscrit dans l’évolution des pratiques de communication politique et soulève donc des questions importantes sur la confiance dans l’information et le débat public.
Deepfakes et désinformation : un détour par l’état de la recherche
Le débat sur l’efficacité des deepfakes est complexe. Si le sujet reste, pour le moment, relativement marginal dans le champ de la recherche en France, d’autres chercheur·euses s’interrogent sur le pouvoir réel des deepfakes comparé à d’autres formes de désinformation. Certain·es auteur·ices montrent que l’information audiovisuelle est plus facilement mémorisée et plus persuasive que la simple information textuelle, y compris dans le domaine politique (Grabe & Bucy, 2009). D’autres suggèrent que les deepfakes, par leur apparente authenticité, pourraient être perçus comme légèrement plus crédibles que d’autres formes de désinformation (Lee et Shin, 2021).
Toutefois, des études plus récentes apportent quelques nuances : certaines recherches montrent ainsi que l’exposition à un deepfake ne produit pas nécessairement un effet plus important sur les opinions politiques que la désinformation textuelle (Barari et al., 2021 ; Hameleers et al., 2022). À l’heure actuelle, l’enjeu semble donc moins résider dans la capacité des deepfakes à tromper directement, que dans leur potentiel à instaurer un doute généralisé, affectant la confiance dans l’information et le fonctionnement du débat démocratique.
Les deepfakes : ébranler la crédibilité d’un adversaire
L’utilisation la plus connue des deepfakes en politique est sans aucun doute celle qui consiste à discréditer un·e ou plusieurs adversaires, en particulier lors de périodes à enjeux élevés telles que les élections. En effet, les deepfakes peuvent être conçus de manière stratégique pour nuire et attaquer l’acteur représenté, par exemple en lui faisant exprimer des propos provocateurs, contradictoires ou hautement invraisemblables (Dobber et al., 2020). Les exemples ne manquent pas ces dernières années. Ainsi, après l’annonce par Joe Biden de son intention de se présenter à la présidence en 2024, les Républicains ont produit une vidéo générée par IA censée mettre en scène les conséquences désastreuses d’un éventuel second mandat de Biden (Johnson, 2023). Le cas de Biden est intéressant dans la mesure où il a souvent été la cible de ce type d’attaques : des modifications de ses discours ont régulièrement circulé sur les réseaux sociaux, parfois mélangées à des contenus parodiques, notamment avec le thème Baby Shark.
Si le discrédit d’adversaires reste l’usage le plus visible des deepfakes en politique, cette technologie semble ne pas se limiter pour autant à cet objectif.
Deepfakes comme outil de communication proactive : « Fake it until you make it »
En effet, les deepfakes s’intègrent aussi aux stratégies de communication proactive, lorsque les acteur·ice·s politiques ne se contentent pas de réagir aux événements, mais cherchent à anticiper l’opinion publique et à orienter le débat. Lors des élections sénatoriales françaises de 2023, la candidate Juliette de Causans a, par exemple, eu recours à l’IA pour retoucher subtilement certains détails de ses affiches électorales.
Dans d’autres contextes, ces technologies servent à adapter le message politique à différents publics. L’équipe du Premier ministre indien Narendra Modi a ainsi utilisé des deepfakes pour générer des discours audio dans plusieurs dialectes indiens – autre que l’hindi – créant des messages qui n’ont jamais été prononcés par le Premier ministre lui-même.
Même si ces deux exemples ne correspondent pas à la représentation traditionnelle d’un deepfake, il s’agit bien de contenus générés par IA, laissant cette fois-ci aux candidat·es et à leurs équipes le contrôle sur le résultat final.
Les deepfakes offrent ainsi la possibilité de modifier l’apparence ou certains traits d’un·e candidat·e, de personnaliser les messages selon le public ciblé et de rendre les contenus plus attractifs et engageants, allant ainsi au-delà d’un simple gadget technologique.
Quand le doute devient une stratégie politique : le liar’s dividend
Le potentiel des deepfakes, à la fois comme outil de communication politique et comme facteur de risque pour la démocratie, réside en partie dans la manière dont cette technologie peut contribuer à instaurer un doute généralisé. Les deepfakes peuvent en effet être utilisés pour semer le doute sur des contenus authentiques. Si tout peut potentiellement être interprété à tort comme un deepfake, cela peut affaiblir les fondements de la perception de la réalité et du discours public. L’ancien Premier ministre britannique, Rishi Sunak, qui a lui-même été victime d’un deepfake discréditant en 2023, a ainsi déclaré que les deepfakes « polluent l’écosystème de l’information publique » (Gye, 2023).
Selon Citron et Chesney (2019), « certains des mensonges les plus dangereux prennent la forme de démentis ». Ces auteurs développent le concept de « liar’s dividend » (« dividende du menteur »), selon lequel certain·es politicien·nes pourraient avancer que des contenus controversés les concernant seraient des deepfakes, afin de se protéger dans des situations préjudiciables. Par exemple, l’ancien ministre espagnol des Affaires étrangères Alfonso Dastis avait affirmé que des images de violences policières en Catalogne en 2017 étaient des « photos truquées », générées par IA (Oppenheim, 2017).
Cette stratégie de « confusion généralisée » montre que les deepfakes peuvent dépasser le simple ciblage d’individus et affecter la société dans son ensemble, en contribuant à l’érosion de la confiance des citoyen·nes dans l’information et à la distorsion du discours démocratique (Vaccari et Chadwick, 2020). Le potentiel de cette technologie réside donc moins dans les deepfakes eux-mêmes que dans leur capacité à générer de l’incertitude et de l’inquiétude quant à l’authenticité des contenus, ce qui contribue à en faire un enjeu significatif (Łabuz et Nehring, 2024).
Des effets variables selon les contextes
Pour comprendre le potentiel des deepfakes, il est important de considérer que leur perception et leur utilisation peuvent varier selon les contextes. La manière dont ces technologies sont employées peut, par exemple, dépendre du système politique en place, qu’il s’agisse d’une démocratie ou d’un régime autoritaire. Dans certains régimes autoritaires, les deepfakes pourraient ainsi servir d’extension aux stratégies de répression et de contrôle de l’information. Par exemple, fin 2018, des rumeurs circulant sur un message vidéo du président Ali Bongo ont contribué au lancement d’une tentative de coup d’État au Gabon, certains affirmant que la vidéo était un deepfake et que le président était en réalité décédé (Łabuz et Nehring, 2024). Dans des contextes politiquement instables comme celui du Gabon, et plus largement au sein de l’ensemble des systèmes politiques, les deepfakes pourraient donc être utilisés pour semer le doute sur l’authenticité des contenus.
Régulation, plateformes et limites technologiques
Les deepfakes posent également des défis éthiques, technologiques et juridiques. Sur le plan éthique, la diffusion de contenus générés par IA remet en question les notions d’authenticité et de vérité dans le discours politique, tout en engageant la responsabilité des créateur·rices et des diffuseur·euses de ces contenus, souvent rendus viraux via les réseaux sociaux (Citron et Chesney, 2019). La question se pose alors de savoir si l’utilisation des deepfakes dans la communication politique peut être considérée comme légitime dans certaines circonstances, ou si elle constitue une atteinte aux principes de transparence et d’intégrité des sociétés démocratiques. Par ailleurs, dans certains cas, ces technologies peuvent aussi contribuer à impliquer davantage certains publics marginalisés dans le débat politique, et servir ainsi, paradoxalement, des objectifs démocratiques.
Sur le plan juridique, la régulation des deepfakes reste complexe. Les plateformes numériques et les autorités publiques peinent à encadrer cette nouvelle forme de désinformation. Les deepfakes ne sont pas intrinsèquement problématiques : comme toute technologie, leur impact dépend de la manière dont ils sont utilisés (Citron et Chesney, 2019). Certains dispositifs de régulation reposent sur la responsabilité des plateformes, qui peuvent, par exemple, proposer des services pour limiter les risques liés aux contenus générés par IA. Par exemple, depuis février 2024, Meta appose une mention sur les images générées par IA sur Instagram et Facebook (Rahman‑Jones et Gerken, 2024).
Enfin, des questions techniques demeurent. Même si certaines études montrent que les deepfakes ne sont pas actuellement plus dangereux que d’autres formes de désinformation, leur impact peut varier selon le degré de réalisme des contenus et les contextes de diffusion (Hameleers et al., 2022). Bien que la technologie reste aujourd’hui limitée et que ses faiblesses en restreignent l’influence, il est probable que les deepfakes gagnent en sophistication à l’avenir, tandis que les outils de détection progresseront également, modifiant peu à peu l’équilibre entre production et contrôle des contenus (Citron et Chesney, 2019).
Conclusion
Si, à l’heure actuelle, les deepfakes ne sont pas intrinsèquement plus dangereux que d’autres formes de désinformation, leur usage témoigne tout de même de profondes transformations dans la communication politique : ils peuvent servir à discréditer des adversaires, améliorer l’image d’un candidat·e, ou encore semer le doute sur des faits établis. Leurs effets varient selon les contextes politiques et sociaux, et leur potentiel stratégique repose autant sur la crédibilité des contenus que sur la capacité à introduire un doute généralisé. Les deepfakes sont donc un outil révélateur de nouvelles dynamiques dans le débat public et la communication politique à l’ère numérique. Observer leur évolution et réfléchir à leur encadrement demeure essentiel pour préserver la confiance dans l’information et la santé de nos démocraties.
