Facebook Logo
© Pixabay

Meta se sai­sit de deux affaires de “deep­fakes” sexua­li­sant des femmes célèbres

Certaines publi­ca­tions mal­veillantes de deep­fakes, des images ou vidéos tru­quées à l’aide de l’Intelligence arti­fi­cielle, ont sou­le­vé la néces­si­té de modé­rer leur uti­li­sa­tion, notam­ment pour pro­té­ger les femmes, sexua­li­sées à tra­vers ce contenu. 

Le conseil de sur­veillance de Meta (Facebook, Instagram) a annon­cé, mar­di, se sai­sir de deux affaires concer­nant les fausses images por­no­gra­phiques de per­son­na­li­tés publiques fémi­nines, deux mois après le scan­dale des deep­fakes met­tant en scène Taylor Swift. Les deux cas ont été sélec­tion­nés “pour éva­luer si les règle­ments de Meta et leur appli­ca­tion sont effi­caces pour trai­ter [le pro­blème] des images à carac­tère sexuel géné­rées par l’intelligence arti­fi­cielle [IA], note, dans un com­mu­ni­qué, ce conseil sur­nom­mé “cour suprême du mas­to­donte des réseaux sociaux. 

Gros coup de pouce de l’IA générative

Composé de membres indépendant·es, le conseil est char­gé de tran­cher des ques­tions épi­neuses de modé­ra­tion des conte­nus. L’essor de l’IA géné­ra­tive, qui auto­ma­tise la pro­duc­tion de conte­nus per­fec­tion­nés, a don­né un nou­vel élan au phé­no­mène des deep­fakes, ou hyper­tru­cages, notam­ment les images mani­pu­lées et sexua­li­sées qui mettent en scène des femmes à des fins d’intimidation ou de harcèlement. 

Le pre­mier cas choi­si par le conseil de sur­veillance de Meta concerne une image, géné­rée par l’IA, d’une femme nue pos­tée sur Instagram, “res­sem­blant à une per­son­na­li­té publique indienne”, indique le com­mu­ni­qué. Un uti­li­sa­teur s’est plaint que l’entreprise cali­for­nienne ne retire pas cette image. “Meta a déter­mi­né que sa déci­sion de lais­ser le conte­nu affi­ché était erro­née et a sup­pri­mé le mes­sage pour vio­la­tion de ses règles sur l’intimidation et le har­cè­le­ment”, relève le conseil.

Le deuxième cas concerne une image pos­tée sur un groupe Facebook de créa­tion de conte­nus avec l’IA, mon­trant “une femme nue avec un homme qui lui tri­pote les seins”. La femme “res­semble à une per­son­na­li­té publique amé­ri­caine”, éga­le­ment nom­mée dans la légende. Meta avait reti­ré l’image et l’avait ajou­tée à une banque de conte­nus qui fait par­tie de son sys­tème d’application des règles, pour trou­ver et sup­pri­mer auto­ma­ti­que­ment de ses pla­te­formes les images déjà iden­ti­fiées par des employé·es comme problématiques.

96 % des deep­fakes sont du porno

En jan­vier der­nier, une fausse image por­no­gra­phique de la super­star amé­ri­caine Taylor Swift avait été vue 47 mil­lions de fois sur X avant d’être sup­pri­mée par le réseau social, une quin­zaine d’heures après avoir été mise en ligne. L’affaire avait sus­ci­té l’indignation de ses fans, de nom­breuses per­son­na­li­tés et même de la Maison-Blanche. 

Lire aus­si : Les “deep­fakes” de Taylor Swift relancent le débat sur les tra­vers de l’intelligence artificielle

Selon une étude réa­li­sée en 2019 par la socié­té néer­lan­daise Sensity, spé­cia­li­sée dans l'IA, 96 % des fausses vidéos en ligne sont de la por­no­gra­phie non consen­tie et la plu­part d'entre elles repré­sentent des femmes, célèbres ou pas.

Partager
Articles liés

Inverted wid­get

Turn on the "Inverted back­ground" option for any wid­get, to get an alter­na­tive sty­ling like this.

Accent wid­get

Turn on the "Accent back­ground" option for any wid­get, to get an alter­na­tive sty­ling like this.