La menace Deepfake : comment établir la désinformation ?

Les progrès de l’intelligence artificielle permettent de falsifier de plus en plus facilement des enregistrements audiovisuels. Appelés « deepfakes », ces contenus représentent une menace bien réelle lorsqu’ils sont utilisés avec de mauvaises intentions.

Dans son rapport d’observation publié en 2022, Europol partage ses préoccupations quant à cette technologie à évolution rapide, de plus en plus facile à exploiter, et dont les préjudices psychologiques, sociaux et financiers peuvent s’avérer très lourds.

Cet article s’attachera à définir ce qu’est un deepfake. Il évoquera les moyens mis en œuvre pour les détecter, et les besoins exprimés par Europol dans la lutte contre ce type de désinformation.

© EUROPOL

Qu’est-ce qu’un deepfake ?

Il s’agit d’un enregistrement vidéo ou audio créé ou modifié pour faire dire à quelqu’un (ou lui faire commettre) quelque chose qui n’est jamais arrivé dans la réalité. Le terme s’est imposé lorsqu’en 2018, une vidéo virale de Barak Obama injuriant Donald Trump a révélé au grand public la capacité technologique de créer un montage réaliste à partir de deux vidéos différentes. Dans ce dernier, le cinéaste Jordan Peele prêtait sa voix et son visage pour l’intervertir avec celui de l’ancien président américain et lui faire dire ce qu’il voulait.

Ce procédé est aujourd’hui couramment exploité pour modifier du contenu existant ou pour créer et animer des personnes qui n’existent pas. Les experts prévoient une forte hausse de ce type de contenu durant les prochaines années.

Un type particulier d’intelligence artificielle

Le terme « deepfake » provient de la contraction entre « deep learning » et « fake ». Le deep learning est un type d’intelligence artificielle qui rend un ordinateur capable d’apprendre par lui-même. Il s’agit en réalité d’un système de neurones artificiels pouvant interpréter les informations qu’on lui donne. Cette technologie est utilisée notamment pour la traduction automatique ou la reconnaissance d’image.

Dans le cas des deepfakes, elle parvient aujourd’hui à produire des contenus parfaitement convaincants, notamment en remplaçant le visage d’une personne par celui d’une autre, en modifiant son aspect (sa couleur de cheveux, par exemple), en créant artificiellement une expression, ou même en générant un visage qui n’existe pas. Des sites comme thispersondoesnotexist.com ou generated.photos nous en donnent des exemples éloquents.

Si le procédé exige de grandes compétences, il est néanmoins de plus en plus accessible au public via diverses applications proposant leurs services en ligne. Avec Zao, Faceswap ou Deep Word, il y a moyen de créer un deepfake vraisemblable en quelques clics.

Comment détecter un deepfake ?

D’après le rapport d’Europol, détecter les deepfakes manuellement est encore possible pour un nombre limité de dossiers, à condition d’être formé. L’analyse se situe essentiellement au niveau de certaines incohérences (contour flou du visage, reflet de la lumière, veines anormales, détails inadéquats dans l’arrière-plan, etc.).

Quant à la détection automatique, elle se concentre sur des signaux biologiques et physiques, l’analyse du mouvement des lèvres parfois incompatible avec le son émis, et la recherche d’éléments ajoutés par rapport à l’image originale.

Mais il est un fait que les criminels surveillent les avancées de la police et gardent toujours une longueur technologique d’avance. La création de deepfakes se démocratise et n’est plus aujourd’hui l’apanage d’experts ou d’ingénieurs. L’émergence des plateformes en ligne qui proposent leurs services multiplie les risques et complexifie le travail de la police.

Plus à la portée des citoyens, les principes de détection des deepfakes sont identiques à ceux de n’importe quelle fausse information : identifier l’auteur et son intention, s’informer sur l’émetteur ou le site de diffusion, remonter à la vidéo ou à l’image originale, enquêter auprès des sites de fact checking ou via une recherche dans le Web, analyser l’image pour y repérer des incohérences.

Les besoins exprimés par Europol

Afin de répondre à ce nouveau défi, le rapport d’Europol pose quatre axes de réflexions, correspondant à quatre besoins :

  • De nouvelles procédures : il en existe déjà pour la détection de fausses preuves, mais il faut les adapter aux deepfakes au niveau de la création d’images, du stockage des médias, de la protection des preuves et de leur analyse. Un examen technique approfondi est nécessaire, mais aussi une réflexion par rapport à l’historique de la preuve (qui a eu accès au média ?). Ces procédures peuvent aussi prévoir des mesures de protection technique pour prouver l’authenticité d’un document généré en interne, comme l’usage de l’audiovisuel plutôt que du visuel, ou l’exécution de gestes difficilement falsifiables devant la caméra, comme bouger les mains devant le visage.
  • De nouvelles capacités : la détection de deepfakes demandant de l’expertise et du temps, un besoin de formations en criminalistique d’image et en personnel est donc exprimé.
  • La légifération des nouvelles technologies : une réflexion au niveau national et européen est nécessaire pour adapter la législation et anticiper les types de crimes émergents.
  • La sensibilisation du grand public : afin d’éveiller l’esprit critique, mais également pour que des préoccupations relatives à la vie privée ou à la protection des données n’entravent pas les moyens légaux nécessaires pour identifier les deepfakes.

La série d’articles :
La menace Deepfake : comment établir la désinformation ?
L’essor des deepfakes et les risques qui en découlent
Les solutions structurelles face aux deepfakes

Michèle ORBAN
Consultante et formatrice en veille informationnelle

Source :
https://www.europol.europa.eu/publications-events/publications/facing-reality-law-enforcement-and-challenge-of-deepfakes

®SECUNEWS