Fake porn : le phénomène porno qui exploite l’image des stars Fake porn : le phénomène porno qui exploite l’image des stars

L'époque en live

Fake porn : le phénomène porno qui exploite l’image des stars par Sarah Ben Ali

Icône de voter Icône utilisée pour voir valoriser le contenu
Icône de voter Icône utilisée pour voir valoriser le contenu
Icône de visiteur Icône utilisée pour page visite

PLUS LUS

Icône de montre Icône utilisée pour voir le temps de lecture de ce contenu

Temps de lecture

4 minutes

Publié le Mardi 8 Janvier 2019

Victime de l’utilisation de son image dans des films porno diffusés sur le Web, Scarlett Johansson a expliqué au Washington Post qu’elle n’exercera aucun recours légal. Pas plus que la poignée d’autres stars concernées. Explications.

Le phénomène fake porn n’en finit pas de frapper les stars : après Meghan Markle, Michelle Obama, Gal Gadot et Emma Watson, c’est Scarlett Johansson qui en est aujourd’hui victime. Une douzaine de vidéos pornographiques la mettant en scène – ou plutôt, sa tête "collée " sur le corps d'actrices X – circulent sur le Net, a-t-elle confié fin 2018 au Washington Post. Mais l’actrice n’a pourtant pas l’intention de poursuivre les responsables, puisqu’il est très difficile de les identifier, et quasiment impossible d’empêcher la propagation de ces contenus sur la Toile. Quant aux législations en matière d’exploitation de l’image d’une personne sans son accord, elles sont hétérogènes d’un pays à l’autre, quand elles ne sont pas totalement floues. Pour Scarlett Johansson, aucun dispositif ne permet actuellement la protection effective des victimes. Et ce, alors que l’évolution technologiques rend pourtant de plus en plus difficiles la distinction entre une vidéo X classique et un fake porn.

Faux porno, vrai préjudice

La technologie derrière ce phénomène ? L’intelligence artificielle, qui permet de réaliser des "collages" du visage d’une personne sur le corps d’un tiers. Avec des résultats si saisissants qu’elle a pu être utilisée dans des films hollywoodien, comme Rogue One : A Star War Story.


Une fois cette technologie détournée en version porno et illégale, on obtient des deepfakes. Des vidéos postées sous l’étiquette "sex tape leakées", ultra-réalistes… et dont les femmes qui y apparaissant ignorent généralement l’existence. Mais qui seront vues des millions de fois selon le Washington Post, les internautes alléchés par le nom des stars se ruant dessus. Ces dernières ne sont d’ailleurs pas les seules victimes de l'exploitation de leur image, puisque des anonymes voient également leur visage implanté dans des films X. C’est le cas de la journaliste d’investigation indienne Rana Ayyub qui, en avril 2018, s’est retrouvée dans un deep fake, en représailles de son implication dans une campagne de lutte contre le viol dans son pays. En février 2018, sur la plateforme collaborative Reddit, des geeks proposaient quant à eux de créer des vidéos mettant en scène une ex-petite amie ou toute femme dont les internautes souhaiteraient se venger, moyennant paiement.
Des dérives rendues possibles par la tech... qui pourrait aussi fournir la solution, à défaut d’une véritable action des institutions. En juin 2018, une startup appelée Truepic a en effet vu le jour, dans le but de détecter les images altérées sur le Web, et a réussi à lever 8 millions de dollars pour financer son activité.    

 

 

Sarah Ben Ali avec Coline Clavaud-Mégevand

Icône de voter Icône utilisée pour voir valoriser le contenu
Icône de voter Icône utilisée pour voir valoriser le contenu

* champs obligatoires