Ce que les yeux voient correspond-t-il à la réalité – ou non? Grâce aux dernières technologies, le contenu d’une vidéo peut aisément être modifié. C’est ce que souligne le nombre croissant de Deepfakes. Rien qu’au cours des deux dernières années, le nombre de vidéos manipulées sur Internet a doublé.

Pendant longtemps, les vidéos étaient symboles d’authenticité. La caméra avait pour rôle de filmer ce qui se passait dans la réalité. Contrairement aux photographies, qui ont été manipulées avant même l’ère technologique, les images en mouvement donnent aux gens un sentiment de réalité. Cependant, l’avènement des vidéos Deepfake prouve que, de nos jours, l’authenticité du matériel cinématographique doit être remise en question.

Mécanique et intelligence

Les Deepfakes sont des vidéos manipulées dans lesquelles des tiers échangent des visages de personnes ou leur attribuent des discours qu’ils n’ont jamais prononcés auparavant. Le terme Deepfake est composé des mots «deep learning» et «fake». 

Ces vidéos sont créées mécaniquement avec l’aide de l’intelligence artificielle. Avec un effort de calcul important et des données accumulées, la machine crée une vidéo et une copie artificielles de la voix de la personne concernée. Concrètement, les images ou vidéos existantes sont collectées et superposées jusqu’à atteindre un résultat supposé réaliste.

Ressusciter d’entre les morts

Même si cette technologie ne date pas d’hier, les vidéos de Deepfake sont apparues pour la première fois sous les feux de la rampe en 2015. Dans «Fast & Furious 7», le défunt acteur Paul Walker a été ramené à la vie. En effet, grâce à une technologie sophistiquée et à de nombreuses caméras qui ont filmé sous différents angles, l’équipe de tournage a projeté le visage de l’acteur décédé sur un double acteur, le frère de Paul Walker. Bien que les efforts ont été importants, le résultat n’était pas parfait et plusieurs spectateurs ont remarqué certaines incohérences. Cependant, l’exemple de Walker a montré que le potentiel de cette technologie peut être exploité encore davantage.

Les deux faces d’une même pièce

Outre l’industrie cinématographique, l’industrie du jeu et de plus en plus de personnes s’intéressent à la technologie qui se cache derrière les Deepfakes. Par exemple, des acteurs célèbres ont déjà été transportés dans des mondes de jeu artificiels tels que «Beyond: Two Souls» ou «Detroit: Become Human».

De plus en plus souvent, les Deepfakes se trouvent aussi sur YouTube. Les créateurs de contenu y produisent et y publient du matériel à des fins inoffensives et amusantes. Ils essaient souvent de projeter les visages des acteurs dans des scènes d’autres films. Dans ce cadre, le caractère drôle et divertissant des Deepfakes est incontesté. Avec les bonnes expressions faciales et les bons gestes, des étrangers peuvent devenir des acteurs célèbres. Ainsi, toute personne qui s’approprie les caractéristiques de personnes célèbres peut, à l’aide de la technologie Deepfake, se faire passer pour une autre personne en quelques secondes.

Mais il y a aussi un caractère sombre derrière cette technologie. La popularité des Deepfakes est également due à l’industrie du porno. Dans les forums en ligne et les réseaux sociaux, il y a quelques années, les utilisateurs ont essayé de projeter le visage de célébrités sur le corps d’actrices porno. Ces vidéos sont alors devenues populaires, c’est pourquoi le logiciel à leur origine a changé plusieurs fois. Même si les sites Internet s’efforçaient de supprimer ces fausses vidéos et de bloquer les comptes correspondants, cette pratique était déjà lancée. 

Les Deepfakes, une arme

Internet permet aux personnes malhonnêtes de copier pratiquement n’importe quel visage. Ceci est fait de plus en plus souvent pour nuire aux gens. C’est le cas de Anita Sarkeesian, critique des médias canadiens et militante des droits des femmes, qui s’exprime régulièrement en public contre l’objectivation et la sexualisation des femmes dans les jeux vidéo. Elle a été victime d’une campagne de diffamation sur Internet. En effet, des inconnus ont inséré son visage dans de nombreux films pornographiques et l’ont activement menacée sur des réseaux sociaux. 

Le cas de Rana Ayyub

Dans une autre affaire en Inde, le visage de la journaliste d’investigation Rana Ayyub a été utilisé à mauvais escient pour du porno Deepfake. Pourquoi? Parce que certaines personnes n’ont pas aimé le fait qu’elle attire l’attention sur les abus commis contre les femmes. Les vidéos de Deepfake sont donc de plus en plus souvent utilisées comme une arme de vengeance ou de pression. Étant donné que, de nos jours, presque tout le monde est actif sur les réseaux sociaux, le danger de devenir une cible est important. 

Exemples de préoccupations

Cette technologie pose également problème sur le plan politique. Dans les pays où la situation politique est de toute façon tendue, les Deepfakes peuvent causer de grands dégâts.

Le Gabon, pays africain, en est un exemple. Suite à une grave maladie, son président, Ali Bongo, ne s’était pas montré en public pendant des mois. En décembre 2018, apparaît alors une vidéo dans laquelle il parle à son peuple et le rassure au sujet de sa santé. Tout de suite, les gens ont pensé qu’il ne s’agissait que d’un Deepfake réalisé par ses opposants politiques. Cela a déclenché une hystérie qui s’est finalement terminée par un coup d’État militaire. Plus tard, il s’est avéré que la vidéo n’était pas un Deepfake. Mais cela ne change pas le fait qu’un simple soupçon a plongé le pays dans une crise politique.

Jordan Peele dans le rôle de Barack Obama

En 2018, une autre vidéo de Deepfake a également fait sensation. Elle mettait en scène l’ancien président américain Barack Obama, qui traitait Donald Trump de parfait idiot. Le réalisateur et l’acteur présent dans la vidéo était en fait Jordan Peele qui voulait souligner les dangers des vidéos manipulées. En même temps, il a montré comment l’identité de personnalités politiques peut être facilement utilisée dans des Deepfakes.

N’importe qui peut être victime d’un Deepfake, même un ancien président américain. Est-ce un danger pour la démocratie?

La menace de Deepfakes est donc bien réelle. Cependant, des experts comme Hao Li, un pionnier de Deepfake en Allemagne, pensent que, bien que la technologie de détection des Deepfakes se développe, les Deepfakes ne sont pas encore assez sophistiqués pour tromper les professionnels. 

Cette technologie se développe à une vitesse incroyable. Tout le monde peut devenir quelqu’un d’autre aujourd’hui, même en temps réel.

Hao Li, expert de Deepfake et PDG de Pinscreen

Le fait de ne plus pouvoir croire à ce que l’on voit en tant que spectateur est, selon Hao Li, une des plus grandes menaces des Deepfakes, surtout pour une démocratie. Si l’on se penche sur l’actualité des États-Unis ou du Brésil, nous remarquons que celle-ci confirme le point de vue de l’expert. Dans ces pays, les politiciens peuvent simplement mettre en doute la crédibilité de leurs opposants politiques et de leurs actions sans vraiment argumenter sur des faits avérés. Annoncer l’artificialité ou la fausseté d’une action ou d’une pensée suffit à créer le doute. Dans tous les cas, si tout est un mensonge, personne ne s’opposera à ce que la vérité soit discréditée et considérée comme un mensonge.

Comment savoir ce qui est réel et ce qui ne l’est pas?

De nos jours, parce que cette question est légitime, il est nécessaire de faire plus attention à notre consommation de vidéos. Fondamentalement, l’authenticité d’une vidéo peut être testée à l’aide de différents points clés (voir encadré). La technologie qui entoure les vidéos Deepfake est fascinante et montre ce dont l’intelligence artificielle est déjà capable aujourd’hui. Cependant, l’ère numérique exige que le public consomme des médias de plus en plus critiques. Il faut empêcher les personnes ayant des intentions criminelles de manipuler les masses avec les vidéos de Deepfake et de risquer ainsi de causer des dommages irréversibles. 

Comment vérifier l’authenticité d’une vidéo?
  1. D’où vient la vidéo? La source de la vidéo est-elle digne de confiance?
  2. Le contenu de la vidéo peut-il provenir d’autres sources (principes de la multi-source)?
  3. Y a-t-il des incohérences à observer sur le plan visuel? Par exemple, une personne cligne-t-elle des yeux anormalement ou pas du tout? Les mouvements et les traits du visage d’une personne sont-ils étranges?
  4. Comment sonne la voix de la personne en question? Le ton est-il habituel et ses lèvres bougent-elles de manière synchrone?

Texte Dominic Meier

Traduit par Andrea Tarantini

Advertentie