DeepNude, l’application qui déshabille les femmes, a été supprimée !

Après seulement quelques jours d’existence (depuis fin juin 2019) teintés de polémiques et d’interrogations dans le monde entier, l’application DeepNude qui utilisait l’intelligence artificielle (technique « deepfake ») pour créer de fausses photos nues de femmes est en train de fermer ses portes. Dans un tweet, l’équipe DeepNude a déclaré avoir « largement sous-estimé » son intérêt pour le projet et que « la probabilité que les gens l’utilisent de manière abusive est trop élevée ».

 

Le phénomène du « deepfake »

Pour ceux d’entre vous qui n’étaient pas initiés au « deepfake », il s’agit simplement de l’utilisation de l’intelligence artificielle pour transférer la tête ou le visage de quelqu’un sur le corps de quelqu’un d’autre dans des vidéos. Pour donner un exemple, on peut calquer le visage de quelqu’un, comme un politicien, pour dans la foulée lui faire dire tout ce qu’on veut. Le reportage suivant utilise la célèbre vidéo qui met en scène Barack Obama pour nous illustrer le « deepfake ».

 

Atterrissage forcé

DeepNude sort donc des canaux de vente et aucune autre version ne fera l’ojet d’une publication. L’équipe a également mis en garde contre le partage du logiciel en ligne, affirmant que cela irait à l’encontre des conditions de service du logiciel. Cependant, ils reconnaissent que « sûrement des copies » vont sortir.

DeepNude aura incontestablement marqué ce début d’été. L’application, disponible pour Windows et Linux, utilisait l’intelligence artificielle pour modifier les photos afin de faire apparaître une personne habillée en personne nue. De plus (comble ou pas), elle était uniquement conçue pour les femmes. Une version gratuite de l’application mentionnait la transformation de l’image. La version payante donnait pendant ce temps la possibilité au client de ne pas en faire état.

 

Même si beaucoup de gens possèdent depuis longtemps la possibilité de manipuler numériquement des photos, DeepNude a rendu la technique « deepfake » accessible à tous. Si nous nous arrêtons un instant sur ce point, cela aurait armé encore plus des mouvements à l’instar du « revenge porn ». Un homme pourrait faire du harcèlement sexuel à une femme en prenant quelques-unes de ses photos sur un réseau social (Facebook, Instagram…), en les dénudant et en les mettant en ligne sur le Net.

Rappelons que des logiciels élaborés et très coûteux (dont nous ne mentionnerons pas ici les noms) utilisent déjà la technique « deepfake » pour réaliser notamment des vidéos pornographiques impliquant des femmes sans leur consentement.

Et maintenant?

Le créateur de DeepNude a déclaré aux médias américains « qu’il pensait que quelqu’un d’autre créerait bientôt une application comme DeepNude. La technologie existe, à la portée de tous ». Une opinion partagée par toute l’équipe de développement dans le tweet (en date du 27 juin 2019) annonçant la fermeture du site : « Le monde n’est pas encore prêt pour DeepNude ».

Quoi qu’il en soit, les vidéos ou images « deepfake » deviendront plus faciles à implémenter et plus difficiles à détecter. Pour le moment, peu de protections (voire aucune) ne permettent que cela ne se produise. En définitive, attester de la véracité d’une information deviendra un des prochains grands défis de nos sociétés hyperconnectés.

 

error

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Résoudre : *
13 + 26 =