Certaines publications malveillantes de deepfakes, des images ou vidéos truquées à l’aide de l’Intelligence artificielle, ont soulevé la nécessité de modérer leur utilisation, notamment pour protéger les femmes, sexualisées à travers ce contenu.
Le conseil de surveillance de Meta (Facebook, Instagram) a annoncé, mardi, se saisir de deux affaires concernant les fausses images pornographiques de personnalités publiques féminines, deux mois après le scandale des deepfakes mettant en scène Taylor Swift. Les deux cas ont été sélectionnés “pour évaluer si les règlements de Meta et leur application sont efficaces pour traiter [le problème] des images à caractère sexuel générées par l’intelligence artificielle [IA]”, note, dans un communiqué, ce conseil surnommé “cour suprême” du mastodonte des réseaux sociaux.
Gros coup de pouce de l’IA générative
Composé de membres indépendant·es, le conseil est chargé de trancher des questions épineuses de modération des contenus. L’essor de l’IA générative, qui automatise la production de contenus perfectionnés, a donné un nouvel élan au phénomène des deepfakes, ou hypertrucages, notamment les images manipulées et sexualisées qui mettent en scène des femmes à des fins d’intimidation ou de harcèlement.
Le premier cas choisi par le conseil de surveillance de Meta concerne une image, générée par l’IA, d’une femme nue postée sur Instagram, “ressemblant à une personnalité publique indienne”, indique le communiqué. Un utilisateur s’est plaint que l’entreprise californienne ne retire pas cette image. “Meta a déterminé que sa décision de laisser le contenu affiché était erronée et a supprimé le message pour violation de ses règles sur l’intimidation et le harcèlement”, relève le conseil.
Le deuxième cas concerne une image postée sur un groupe Facebook de création de contenus avec l’IA, montrant “une femme nue avec un homme qui lui tripote les seins”. La femme “ressemble à une personnalité publique américaine”, également nommée dans la légende. Meta avait retiré l’image et l’avait ajoutée à une banque de contenus qui fait partie de son système d’application des règles, pour trouver et supprimer automatiquement de ses plateformes les images déjà identifiées par des employé·es comme problématiques.
96 % des deepfakes sont du porno
En janvier dernier, une fausse image pornographique de la superstar américaine Taylor Swift avait été vue 47 millions de fois sur X avant d’être supprimée par le réseau social, une quinzaine d’heures après avoir été mise en ligne. L’affaire avait suscité l’indignation de ses fans, de nombreuses personnalités et même de la Maison-Blanche.
Lire aussi : Les “deepfakes” de Taylor Swift relancent le débat sur les travers de l’intelligence artificielle
Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l'IA, 96 % des fausses vidéos en ligne sont de la pornographie non consentie et la plupart d'entre elles représentent des femmes, célèbres ou pas.