Quand le détournement d’une vidéo de Marine Le Pen révèle les dangers de l’IA en politique

Cyrille Dalmont, directeur de recherche à l’Institut Thomas More

3 janvier 2024 • Opinion •


Le porte-parole de Renaissance Loïc Signor a diffusé une vidéo générée par l’intelligence artificielle dans laquelle Marine le Pen s’exprime en russe. Une pratique qui interroge alors que la majorité avait fait de la lutte contre les fake news son cheval de bataille, analyse Cyrille Dalmont.


« L’IA fait encore plus peur lorsqu’elle se rapproche de la réalité. Retrouvez les vœux 2024 de #MarinePoutine ». C’est par cette déclaration que le porte-parole du parti présidentiel Renaissance, le député Loïc Signor a justifié la publication d’une vidéo générée par une intelligence artificielle détournant les vœux de Marine le Pen dans laquelle elle s’exprime en russe sur son compte X (Ex Twitter).

Si de nombreux médias se sont amusés de la diffusion de cette fausse information (fake news) par un député de la majorité, on peut malgré tout s’interroger quant à cette pratique douteuse au vu de l’obsession d’Emmanuel Macron depuis son premier mandat de réguler, pour ne pas dire contrôler l’information, au motif de lutter contre les fausses nouvelles.

Car depuis la loi du 22 décembre 2018 contre la manipulation de l’information, couramment appelée loi « anti-fake news », nous avons assisté à une très longue succession de tentatives de « régulations » de la liberté d’expression (loi Avia, plateforme «Désinfox coronavirus», la Commission Bronner, la loi espace numérique, le projet de réserve citoyenne du numérique…). Un esprit chagrin pourrait aisément voir dans cet acharnement une forme de volonté étatique visant à s’octroyer le monopole de la description du réel.

Il est d’ailleurs cocasse de noter que le premier référé d’application de loi anti-fake news concernait déjà à l’époque un tweet d’un membre de la majorité, en l’occurrence l’ancien ministre de l’Intérieur Christophe Castaner.

Cette volonté présidentielle de s’octroyer le monopole du narratif du réel sur les réseaux sociaux est synthétisée dans la stupéfiante déclaration d’Emmanuel Macron lors de ses vœux à la presse du 15 janvier 2020 : « Nous sommes confrontés à la lutte contre les fausses informations, les détournements sur les réseaux sociaux […]. Il nous faut donc pouvoir répondre à ce défi contemporain, définir collectivement le statut de tel ou tel document ».

Le président a très vite compris qu’avec 41% des Français qui s’informent d’une manière ou d’une autre via les réseaux sociaux et un pourcentage qui atteint 62% chez les moins de 25 ans, l’État qui maîtrisait jusqu’alors l’information de manière implicite au travers de l’audiovisuel de service public se trouvait désormais fortement concurrencé par les réseaux sociaux et la force des vidéos et des images qu’ils véhiculent.

Les déclarations du ministre de l’Intérieur Gérald Darmanin sur les émeutes de juin dernier qui aurait été le fait de « beaucoup de Kévin et Mattéo » quand les réseaux sociaux montraient une réalité bien différente en sont la parfaite illustration.

La « mauvaise blague » de Loïc Signor visant à disqualifier un adversaire politique par la production d’une fake news générée par une intelligence artificielle doit cependant, au-delà de l’anecdote, nous alerter sur les dangers que peut représenter l’utilisation de tels outils numériques au service de la conquête du pouvoir, son exercice, mais également de sa conservation.

En effet, s’il est dorénavant possible de reproduire l’image, la voix, les tics de langage, les expressions faciales et les gestes d’un individu ou d’effectuer en temps réel une traduction de ses propos dans de multiples langues tout en conservant le timbre de sa voix, il est bien évident que l’on peut par ailleurs lui faire dire n’importe quoi et les conséquences qui en découleront pourront être désastreuses.

Ainsi, dans un contexte géopolitique extrêmement tendu, de faux propos de responsables politiques de premier plan concernant la situation à Gaza, en Ukraine ou à Taïwan pourraient très rapidement créer un embrasement mondial. Une fausse vidéo de déclaration de guerre d’un chef d’État produite par une organisation terroriste ou une puissance belligérante pourrait rapidement produire une situation hors de contrôle. Il est également possible d’imaginer de fausses vidéos d’attentats, de tortures ou de frappes militaires sur des civils entièrement générées par des IA dans l’optique de déclencher des réactions totalement disproportionnées des opinions publiques et la déstabilisation de régions entières.

La manipulation de l’information à l’échelle mondiale de l’organisation terroriste Hamas, qui a berné les médias du monde entier en accusant Israël d’avoir volontairement « bombardé un hôpital à Gaza, provoquant la mort de centaines de personnes », en est la parfaite illustration. Cette manipulation, diffusée par les comptes de propagande du Hamas, a été relayée par des médias traditionnels et s’est répandue sur les réseaux sociaux. Une IA pourrait bien évidemment reproduire cette manipulation concernant une frappe en Russie ou au Liban sans même qu’elle n’existe, bien évidemment elle serait démentie, mais les images auront fait le tour du monde et un doute persistera toujours.

Il en va de même des futures élections dans les démocraties libérales qui vont se succéder dans les prochains mois et qui seront à coup sûr l’occasion rêvée pour fabriquer de toutes pièces des fausses déclarations aussi vraies que nature sur les réseaux sociaux dans le but de disqualifier tel ou tel concurrent. Les démentis n’effaceront pas des mémoires les fake news véhiculées. Ces manipulations, qu’elles soient l’œuvre de puissances étrangères, d’organisations terroristes ou d’hommes politiques sans scrupules, risquent de fracturer durablement nos démocraties déjà fortement fragilisées.

Il est donc plus qu’urgent que le législateur s’empare du problème. Non pas pour interdire ou limiter le développement de l’intelligence artificielle en affichant de grandes déclarations d’intentions qui ne constituent dans les faits que des vœux pieux sans aucune incidence dans une économie mondialisée. Cette méthodologie qui est poursuivie par la Commission européenne depuis plus de trente ans, se traduit systématiquement par un affaiblissement de l’écosystème numérique européen qui, de leader dans les années quatre-vingt, est devenu quasiment insignifiant. Les entreprises européennes représentent aujourd’hui moins de 5% de la capitalisation des 50 premières entreprises technologiques du monde.

Une solution fiable pour ne pas se laisser abuser dans le futur par des IA génératives consisterait à imposer aux entreprises qui les développent l’insertion d’un code informatique intrinsèque permettant d’afficher systématiquement dans les lecteurs audio, vidéos, d’images ou de traitements de textes, un pictogramme visuel avertissant l’utilisateur ou le lecteur que ce message a été généré par une intelligence artificielle et qu’il peut donc être à l’origine d’une tentative de manipulation ou de propagande.