On connaissait le revenge porn, l’envoi de photos dénudées d’une personne sur les réseaux sociaux pour se venger d’elle. Humiliant, traumatisant, dangereux… autant d’adjectifs qui peuvent s’appliquer à ce phénomène. Mais avez-vous déjà entendu parler du deepfake porn ? 

Le nom à lui seul est inquiétant, et semble même bien plus dangereux encore que le revenge porn. Leur point commun ? Le cyberharcèlement à caractère sexuel. D’après l’article de NBC News, le nombre de vidéos du genre double chaque année depuis 2018. Cette année-là par exemple, 1897 vidéos ont été mises en ligne sur un site de deepfake bien connu. En 2022, on parle désormais de plus de 10 000 vidéos avec plus de 16 millions de vues au compteur. 

Quelle est cette tendance basée sur l’intelligence artificielle ? Quels sont les risques et comment arrêter ce deepfake d’un nouveau genre ? On vous dit tout.

__

Deepfake, les petites marionnettes 

Bien loin des marionnettes pour les tous petits, le deepfake porn est loin d’être un jeu pour enfants. En revanche, c’est un jeu d’enfant que de le mettre en pratique. Mais d’abord, que signifie deepfake ? Ce mot anglais signifie trucage. C’est la contraction de “deep learning” et de “fake”, que l’on peut traduire littéralement par “fausse profondeur.” A l’aide de logiciels basés sur l’intelligence artificielle, il permet de changer la voix ou encore, de remplacer le visage d’une personne par une autre. Bien loin de Paint ou de Photoshop, l’IA produit aujourd’hui des montages très réalistes. 

Leur utilisation a déjà été vu en politique – avec Donald Trump ou Angela Merkel, dans le domaine artistique ou encore à la télévision, notamment dans des émissions françaises de divertissement. Des trucages bluffant de réalisme – tellement que s’en est inquiétant. Vous pouvez donc imaginer les conséquences lorsqu’on associe le mot “porn.” Pour celui-ci, pas besoin de traduction, vous l’avez compris : il s’agit de pornographie. 

L’IA utilise votre visage pour le placer sur un corps qui n’est pas le vôtre, et qui bien sûr, est dénudé. Pas seulement pour obtenir une photo mais aussi – et surtout- pour réaliser une vidéo ; et c’est bien là, que les voyants passent au rouge et que le rire a laissé place à l’inquiétude. Même si certains savent que ces vidéos sont fausses, le mal est fait – en particulier chez les jeunes femmes. 

__

Attention danger, accès simplifié 

Si l’intelligence artificielle s’impose de plus en plus dans notre quotidien, le deepfake porn, lui, ne date pas d’hier. Rapidité, simplicité… il existe aujourd’hui des applications faciles d’utilisation, qui permettent au plus commun des mortels, d’agir comme il le souhaite. L’un des premiers cas remonte à 2017. C’est un utilisateur de Reddit, caché sous le pseudonyme « deepfakes » qui publie une vidéo pornographique dans laquelle le visage de l’actrice X a été remplacé par celui d’une star du cinéma – à l’image de Gal Gadot, la célèbre Wonderwoman. 

Ces options de trucage : tout le monde peut y avoir accès. En 2023, c’est rapide, facile et gratuit. Dernièrement, c’est en Espagne que des jeunes filles ont été victimes de cette intelligence artificielle. Des photos d’elles – trouvées sur les réseaux sociaux par les détracteurs – ont été utilisées ; seulement leurs visages. Les photos finales, elles, sont interdites au moins de 18 ans puisque les jeunes filles sont nues. Bien sûr, vous l’avez compris, ce ne sont pas elles, il s’agit d’un photomontage. 

“Il y a de nouvelles applications tous les jours, on fait face à une accélération massive de l’IA avec des outils de plus en plus simples et de plus en plus performants qui émergent” explique Medhi Mahroug, formateur en intelligence artificielle. Il note que tout s’est amplifié depuis novembre 2022 avec l’apparition de Chat GPT.

deepfake
Attention, censure © Getty Images

__

Une nouvelle ère

Ce qui était jusque-là difficile d’accès semble aujourd’hui à la portée de tous. “Avant, il fallait avoir des logiciels de montage, travailler image par image, c’était un travail conséquent. Aujourd’hui, il y a des outils de plus en plus simples d’utilisation” explique Medhi Mahroug. 

Dans l’Hexagone, les sanctions existent : un an d’emprisonnement et 15 000 euros d’amendes pour divulgation d’images d’un individu sans son consentement et à partir d’un montage. En juillet dernier, le Sénat a adopté le projet de loi SREN. Deux amendements ont été déposés par le gouvernement et concernent spécifiquement les deepfakes, avec notamment la notion de publication sur les réseaux sociaux. Il s’agit d’un cadre pénal ; ce qui le rend potentiellement applicable en Nouvelle-Calédonie

Pour Medhi Mahroug, le monde est entré dans une nouvelle ère et le premier enjeu est de faire prendre conscience à la société, la place qu’occupe l’intelligence artificielle dans notre quotidien et de ne pas “prendre pour argent comptant tout ce que l’on trouve sur internet.” Comme le souligne, Medhi, aujourd’hui qui a la volonté de vérifier toutes les informations ? Comment dissocier la réalité du monde virtuel ? Pour tenter de contrer ce phénomène, des outils ont été créés pour détecter les deepfakes. Ils analysent la structure d’une image, les dissonances, les pixels… pour donner un score de plausibilité. Mais attention, comme le dit Medhi, “c’est aussi une intelligence artificielle.” Décidément, elle est vraiment partout.   

__