La semaine dernière, des images à caractère sexuel de Taylor Swift générées par une intelligence artificielle ont envahi les réseaux sociaux. Des deepfakes que la communauté de fans de la chanteuse s’est empressée d’enterrer, mais qui ont relancé le débat sur les abus de l’intelligence artificielle.
Star parmi les plus influentes au monde, Taylor Swift paie régulièrement très cher la rançon de sa gloire à coups – cela ne vous étonnera pas – d’attaques sexistes et à connotations sexuelles. La semaine dernière, ce sont cette fois de fausses images de la star à caractère sexuel produites à l’aide d’une intelligence artificielle (IA) qui ont envahi les réseaux sociaux.
Un de ces deepfakes porno – créés de toute pièce par l’IA – a amassé sur X (ex-Twitter) plus de 45 millions de vues, avant d’être retiré de la plateforme quelque dix-sept heures plus tard. Selon le média 404, ces images seraient issues d’un groupe d’individus opérant sur la messagerie Telegram. Face au manque de réactivité de X, les fans de la chanteuse se sont mobilisé·es pour inonder la plateforme de photos et vidéos de Taylor Swift – notamment des images de ses concerts – sous le hashtag #ProtectTaylorSwift. Cette initiative a permis d’invisibiliser ces deepfakes, noyés parmi tous ces autres clichés. Une manœuvre habile, qui souligne également le peu de solutions qui existent actuellement pour répondre à ce genre d’abus. Or, le cas de Taylor Swift “n’est que la partie visible de l’iceberg”, affirme à Causette Giada Pistilli, chercheuse en philosophie sur les questions d’éthique appliquées à l’intelligence artificielle et responsable de l’éthique pour l’entreprise d’IA franco-américaine Hugging Face.
Lire aussi I L'effet Taylor Swift : décryptage d'un délire mondial
Les origines d’un deepfake
L’intelligence artificielle permet aujourd’hui de générer une image complètement fabriquée d’une personne bien réelle.[…]