Publicité
analyse

Les deep fakes, péril démocratique

La start-up canadienne Lyrebird a créé un algorithme permettant par exemple de détourner la voix de Donald Trump. ©AFP

Les fake news sont appelées à être de plus en plus sophistiquées et effrayantes, ce qui risque de produire des mouvements de panique spectaculaires.

Séparer les bons développeurs de deep fake (artistes, vidéastes, professionnels du cinéma ou des jeux vidéos) de ceux qui ont des intentions néfastes est très complexe. L'écosystème évolue très rapidement, se nourrit de toutes les bonnes volontés. La volonté de manipuler pour nuire ne peut intervenir qu'à un stade avancé d'expertise, d'où la difficulté d'agir en amont.

Sans surprise, l'une des premières utilisations de la technologie du deep fake a été la pornographie. À l'automne 2017, un utilisateur de Reddit a posté plusieurs vidéos classées X, figurant le visage de personnalités très connues comme Emma Watson, Katy Perry ou Scarlett Johansson avec des corps d'actrices pornographiques.
Il a fallu un certain temps pour que les visionneurs de ces vidéos prennent conscience qu'elles étaient fausses, d'autant plus qu'entretemps, d'autres développeurs avaient perfectionné l'intelligence artificielle pour gommer quelques bugs.

Dans les mois suivants, d'autres applications de deep fakes, sans doute moins scandaleuses, mais plus alarmantes pour la démocratie, ont fleuri sur le web, avec notamment des trucages grossiers de discours de la chancelière allemande Angela Merkel, du président argentin Mauricio Macri, et surtout de l'ancien président américain Barack Obama.

Ces détournements à la gravité relative pourraient véritablement déséquilibrer les institutions dans les années à venir, si par exemple des personnalités politiques sont rançonnées ou mises sous pression avec ce type de documents. Ce type de scandales est déjà de plus en plus présent, au fil d'une américanisation rampante de la vie politique.

La voix aussi concernée

La dynamique quasi industrielle des deep fakes est d'autant plus inquiétante que des sociétés avec les meilleures intentions du monde enrichissent l'écosystème, et fournissent involontairement les outils à des développeurs ayant des intentions plus malsaines. L'intelligence artificielle (AI) étant, par nature, un fake, toutes les sociétés d'AI contribuent indirectement à armer les mauvais esprits.

Lyrebird a détourné les voix de Donald Trump, Barack Obama et Hillary Clinton pour créer une conversation imaginaire.

La start-up canadienne Lyrebird a par exemple créé un algorithme permettant non seulement d'imiter le discours d'une personne, mais aussi de suivre sa cadence. Lyrebird a ainsi détourné les voix de Donald Trump, Barack Obama et Hillary Clinton pour créer une conversation imaginaire.

Lyrebird, qui propose des solutions d'analyse de discours et de transcription de messages vocaux, assure être du bon côté de la force, en indiquant que sa démarche vise à alerter les consciences sur les risques que de telles technologies pourraient faire courir.

La start-up britannique Synthesia, qui se situe sur le même créneau, propose de son côté de modifier l'expression labiale de personnalités et d'appliquer une traduction dans plusieurs langues. Une technologie qui pourrait être très efficace dans les doublages de films et de séries.

Synthesia anticipe même pour cette fin d'année la possibilité de créer des vidéos à partir d'un simple texte. Concrètement, un avatar sur vidéo pourra prononcer en temps réel ce qui est écrit sur un clavier.

Mais selon son fondateur Victor Ribarbelli, il faudra encore attendre avant de voir des deepfakes impacter la démocratie. "Les personnalités politiques et les figures publiques ont des moyens significatifs pour prouver la provenance d'une vidéo. À la différence d'une désinformation basée sur un texte, qui peut être plus nuancée dans la façon dont le mensonge est présenté, une vidéo est clairement soit vraie soit fausse", estime-t-il.

Dès janvier 2018, une application grand public, Fake App, a été lancée, permettant aux utilisateurs de changer facilement la tête des personnes. L'autre application grand public assez connue est Faceswap. Ces deux applications ont été conçues de la même façon, d'abord avec l'extraction de données, ensuite l'entraînement pour permettre à l'intelligence d'identifier les processus à l'œuvre, et enfin la création.

Manipulations électorales

Alors que les réseaux sociaux tendent à devenir la principale matrice de l'information, en sachant qu'ils sont déjà depuis quelques années la première matrice de l'échange d'information, les raisons d'anticiper le pire sont nombreuses.

Dans le cas des élections, où tous les coups sont permis depuis bien longtemps, faire la différence entre les deep fakes et la simple manipulation de campagne est très complexe, ce qui risque de nuire encore plus à la confiance des citoyens vis-à-vis de ceux qui prétendent pouvoir les gouverner.

En février 2020, à huit mois de l'élection présidentielle américaine, Donald Trump a ainsi publié sur Twitter un montage figurant la présidente démocrate de la chambre des représentants en train de déchirer ses feuilles, suite à un discours du président américain lors d'un discours sur l'État de l'Union.

Aucune deep fake n'a été à l'œuvre dans ce tweet de Donald Trump, mais une manipulation éhontée, faisant croire aux visionneurs de la vidéo que Nancy Pelosi avait déchiré ses feuilles au moment de l'hommage à la famille d'un militaire et lors de la référence à la baisse du chômage. Combien de citoyens sont tombés dans le piège de ce montage?

La ligne entre humour, manipulation rhétorique, montage, deep fake et escroquerie est de plus en plus floue.

Pour Twitter et Facebook, qui ont adopté une politique anti-fake depuis quelques mois, cette vidéo ne pouvait être censurée, car elle ne violait pas les règles d'utilisation. Mais la ligne entre humour, manipulation rhétorique, montage, deep fake et escroquerie est de plus en plus floue.

Douter de tout et de tous est déjà un réflexe assez commun. Rien ne pourra vraiment garantir la véracité d'une photo ou d'une vidéo, jusqu'à ce que la personne figurant sur le document atteste qu'il s'agit bien d'elle, ou ne le démentit pas.

Dans le cas de documents compromettants, la personne qui niera l'évidence ne pourra qu'être prise au sérieux. Les juges peuvent se préparer à de sérieuses difficultés techniques et juridiques, et à de véritables cas de conscience!

Les techniques d'anonymisation et de brouillage des pistes vont fortement évoluer.

La mise en place de sanctions sévères pour les auteurs de ces faux pourrait être l'une des solutions, même si, parallèlement, il est fort probable que les techniques d'anonymisation et de brouillage des pistes vont également fortement évoluer.
Dans le cas d'agents de déstabilisation extérieurs, comme cela s'est vu à maintes reprises avec la Russie ces dernières années, l'application d'amendes ne risque pas d'avoir un effet dissuasif...

La Blockchain, un remède?

Une course effrénée entre le camp du réel et le camp du virtuel va prendre place. La technologie de la blockchain pourrait être l'une des solutions. Mais là aussi, les dérives pourraient être graves et le remède pire que le mal. La technologie de la blockchain a ceci de dérangeant qu'elle semble pouvoir donner un identifiant unique à absolument tout ce qui existe. Or, cette identification de masse marquerait de fait la fin du banal, du commun, de l'anodin... et donc de l'anonymat, ce qui est serait précisément le but de la démarche.

L'utilisation de la blockchain, ou d'une technologie similaire, afin de surveiller tout ce qui peut constituer un acte malveillant, réduirait considérablement les libertés individuelles, dans une proportion inédite. Ce qui serait pire que la falsification de la réalité, ou que l'émergence d'une société médiatique où rien, absolument rien, ne peut être considéré comme digne de confiance.

La prolifération de fake news est particulièrement intense durant les périodes de crise, avec des effets toujours plus dévastateurs sur la cohésion nationale.

L'écriture manuscrite imitable

Des chercheurs de l'University College London ont ainsi développé un programme qui peut analyser l'écriture manuscrite d'une personne et générer de façon semi-automatique un texte identique.

La prolifération de fake news est particulièrement intense durant les périodes de crise (attentats terroristes, gilets jaunes, coronavirus), avec des effets toujours plus dévastateurs sur la cohésion nationale, la fluidité de l'information vérifiée et la sérénité des débats.

Plus inquiétant encore, la fusion de plusieurs crises, par exemple lorsque la phase aiguë de la pandémie de Covid-19 a mené à une augmentation des discours de haine anti-musulmans en ligne, justement à l'aide de deep fakes.

Des fakes vidéos souvent réalisées avec des moyens artisanaux, sans intelligence artificielle, et avec peu de travail, mais qui ont pourtant suffi à répandre de fausses vérités comme une traînée de poudre. C'était le cas par exemple de cette vidéo affirmant que des musulmans étaient rassemblés devant une mosquée pendant le confinement, qu'ils ne respectaient donc pas. Or, cette vidéo avait été filmée avant le confinement.

Un exemple qui rappelle que les deep fakes ne sont pas, en soi, un problème d'intelligence artificielle, mais un problème purement humain. Avec ces nouveaux outils, véritables armes à feu de l'information, les périls s'annoncent nombreux dans les années et décennies à venir.

Le résumé

  • Comme cela a pu être observé lors des attaques terroristes ou lors de la pandémie, les périodes fortement anxiogènes sont propices à la propagation de fake news.
  • Celles-ci seront appelées à être de plus en plus sophistiquées et effrayantes, ce qui risque de produire des mouvements de panique spectaculaires.
  • À terme, la prise de recul vis-à-vis des médias pourrait rendre ces phénomènes d'hallucination collective encore plus dommageables.
  • Pour contrer le phénomène, la sanction s'avère inopérante et la prévention, très difficile.

Lire également

Publicité
Publicité
Publicité
Publicité

Messages sponsorisés

Messages sponsorisés