© DeepNude

DeepNude, l'appli terrifiante capable de créer des faux nudes et de déshabiller les femmes

L’algorithme, qui ne déshabille que des corps féminins, a immédiatement déclenché la polémique.

"Le superpouvoir que vous avez toujours voulu avoir", c’est ce que l’application DeepNude se targue d’offrir aux internautes. Si le concept tient plus du cauchemar que du rêve, il prend effectivement des airs de science-fiction : l’appli permet à ses utilisateurs de "déshabiller" les femmes, simplement avec leur smartphone.

Avec un logiciel basé sur l’intelligence artificielle, la start-up originaire d’Estonie crée des photomontages à la fois troublants et effrayants de réalisme. À partir d’une photo montrant une femme habillée, DeepNude se sert parmi une dizaine de milliers de clichés pour créer une seconde image, cette fois sans ses vêtements.

Publicité

Les photos générées par l’appli sont donc fausses, mais suffisamment bien réalisées pour faire illusion. Impossible toutefois de déshabiller virtuellement un homme : l’application ne fonctionne qu’avec des images de femmes.

L’algorithme très vite retiré du marché

Capture d’écran du site de l’application DeepNude.

Disponible au téléchargement sur Windows et Linux depuis ce 23 juin, l’application aura eu une durée de vie aussi brève que mouvementée. Quatre jours seulement après son lancement, le créateur annonçait sur Twitter la fin de DeepNude. Et pour cause, sur les réseaux sociaux, les internautes s’étaient élevés contre le logiciel, au centre de vives polémiques.

Publicité

Outre le sexisme évident qui se dégageait du concept, la start-up a également été épinglée sur la question du consentement, qui ne figurait nulle part dans les conditions d’utilisation. Autrement dit, à aucun moment l’utilisateur ne devait demander l’accord de la personne sur la photo avant de la dénuder virtuellement.

Selon Mary Anne Franks, la présidente de la Cyber Civil Rights Initiative, qui lutte contre la pornographie sans consentement, "le but délibéré de cette application était de satisfaire les fantasmes prédateurs et grotesques d’hommes lamentables".

"La probabilité que les gens en fassent un mauvais usage est trop grande"

Concernant les accusations de sexisme, l’un des créateurs de DeepNude, surnommé Alberto, a déclaré à Motherboard que l’algorithme ne concernait que les femmes parce qu’Internet regorge plus de nudes féminins que masculins. Des arguments pour le moins bancals, qui n’auront pas suffi à faire pencher la balance.

Publicité

Le 27 juin, l’application annonçait officiellement sa fermeture, avec un message posté sur Twitter :

"Voici la brève histoire, et la fin de DeepNude. Nous avons créé ce projet pour le divertissement des utilisateurs il y a quelques mois. Nous pensions faire quelques ventes par mois, de façon contrôlée. […] Malgré la mesure de sécurité mise en place (les filigranes), si 500 000 personnes utilisent l’application, la probabilité que les gens en fassent un mauvais usage est trop grande. Nous ne voulons pas nous faire de l’argent de cette façon."

En effet, dans sa version gratuite, DeepNude barrait ses photos d’une bande en filigrane affichant les mots "fake nude". Mais dans la version payante (à 90 dollars), cette information était plus discrète : le mot "fake" apparaissait seulement dans un coin de l’image. Une annotation facile à faire disparaître en recadrant la photo, permettant ainsi de faire passer ces clichés pour de vrais nudes et, par la même occasion, de se servir de l’intelligence artificielle pour manipuler les images et harceler des femmes sur la Toile.

Publicité

Capture d’écran de leur "offre" Premium pour retirer les watermarks.

Les deepfakes, nouvelle arme de revenge porn

Car c’est bien là que réside le danger d’une telle application. En permettant aux internautes de dénuder n’importe quelle femme avec une simple photo d’elle, ce genre de logiciel ouvre une nouvelle brèche dans le domaine du revenge porn, qui consiste à diffuser des images dénudées ou pornographiques d’une personne sans son consentement.

Comme l’expliquait le Washington Post, la pornographie à base de deepfakes – des images entièrement créées par une intelligence artificielle – ne peut réellement être considérée comme du revenge porn car elle ne montre pas les véritables corps des femmes. Il n’empêche que les photomontages peuvent facilement prêter à confusion et porter préjudice aux personnes ciblées.

Plusieurs actrices ont d’ailleurs récemment fait les frais des "amusements" d’un utilisateur de Reddit nommé "deepfakes". Ce dernier avait créé des gifs à caractère pornographique en y apposant leur visage, rappelant ainsi les "face swap" de Snapchat, dans une version plus poussée et glauque. Parmi ses victimes, Scarlett Johansson, Maisie Williams, Emma Watson ou encore Gal Gadot qui avait, quant à elle, eu droit à toute une (fausse) vidéo X.

Heureusement, la législation s’adapte peu à peu à ces nouvelles menaces technologiques. Preuve que les deepfakes représentent un réel problème, la Virginie, aux États-Unis, vient d’étendre l’interdiction du revenge porn à ce type d’images. Depuis le 1er juillet, dans cet État, dévoiler un nude – réel ou non – d’une personne sans son consentement peut être passible de 2 500 dollars d’amende et d’un an de prison.

De son côté, la Californie réfléchit à une loi similaire afin de punir ce type de comportement. En attendant la démocratisation de ces lois, il ne reste qu’à se réjouir de la mort de DeepNude, et à croiser les doigts pour que ce genre d’applis ne prolifère pas.

Par Pauline Allione, publié le 08/07/2019

Copié

Pour vous :