taylor
© Montage Causette avec photo © Eva Rinaldi / Wikimedia

Les “deep­fakes” de Taylor Swift relancent le débat sur les tra­vers de l’intelligence artificielle

La semaine dernière, des images à caractère sexuel de Taylor Swift générées par une intelligence artificielle ont envahi les réseaux sociaux. Des deepfakes que la communauté de fans de la chanteuse s’est empressée d’enterrer, mais qui ont relancé le débat sur les abus de l’intelligence artificielle.

Star parmi les plus influentes au monde, Taylor Swift paie régulièrement très cher la rançon de sa gloire à coups – cela ne vous étonnera pas – d’attaques sexistes et à connotations sexuelles. La semaine dernière, ce sont cette fois de fausses images de la star à caractère sexuel produites à l’aide d’une intelligence artificielle (IA) qui ont envahi les réseaux sociaux.

Un de ces deepfakes porno – créés de toute pièce par l’IA – a amassé sur X (ex-Twitter) plus de 45 millions de vues, avant d’être retiré de la plateforme quelque dix-sept heures plus tard. Selon le média 404, ces images seraient issues d’un groupe d’individus opérant sur la messagerie Telegram. Face au manque de réactivité de X, les fans de la chanteuse se sont mobilisé·es pour inonder la plateforme de photos et vidéos de Taylor Swift – notamment des images de ses concerts – sous le hashtag #ProtectTaylorSwift. Cette initiative a permis d’invisibiliser ces deepfakes, noyés parmi tous ces autres clichés. Une manœuvre habile, qui souligne également le peu de solutions qui existent actuellement pour répondre à ce genre d’abus. Or, le cas de Taylor Swift “n’est que la partie visible de l’iceberg”, affirme à Causette Giada Pistilli, chercheuse en philosophie sur les questions d’éthique appliquées à l’intelligence artificielle et responsable de l’éthique pour l’entreprise d’IA franco-américaine Hugging Face.

Lire aussi I L'effet Taylor Swift : décryptage d'un délire mondial

Les origines d’un deepfake

L’intelligence artificielle permet aujourd’hui de générer une image complètement fabriquée d’une personne bien réelle. Muni·e d’une photo, il suffit “d’écrire une description de l’image qu’on souhaite obtenir pour que l’intelligence artificielle génère cette nouvelle image finie”, résume Giada Pistilli. “L’idée est de faire faire des actions ou faire dire quelque chose – à travers des images ou des deepfakes vidéo ou audio - à des personnes qui existent vraiment, mais qui n’ont jamais fait ces actions ou dit ces choses. C’est donc très souvent à leur insu et sans leur consentement”, poursuit-elle. Depuis l’avènement des technologies IA, ces dernières sont de plus en plus couramment utilisées pour créer des images pornographiques. “D’après les dernières recherches, 90 % du contenu deepfake qui existe sur Internet est à caractère pornographique. Et évidemment, la cible principale, malheureusement, ce sont les femmes”, déplore la chercheuse.

Lire aussi I Le “New York Times” spécule sur l'orientation sexuelle de Taylor Swift et crée la polémique

Dans le cas de Taylor Swift, la foison de photos de la chanteuse disponibles sur Internet facilite la création de ces contenus par l’IA. “Plus il y a d’informations concernant une personne, plus c’est simple de générer des images”, affirme Giada Pistilli, qui ajoute cependant que l’on dispose aujourd’hui d’outils si entraînés qu’il “serait assez simple de retravailler une photo de soi-même, par exemple” et donc de cibler des anonymes.

Les entreprises d’intelligence artificielle se dotent pourtant bien de systèmes de sécurité pour contrer ces intentions malveillantes. “Si on essayait d’écrire ‘Taylor Swift nue’ sur un programme d’IA, il y aurait un blocage, affirme Giada Pistilli. Des mesures de sécurité techniques par mots-clés sont mises en place. Les mots sexuels ou sexualisants, justement, sont bloqués. Il y a aussi des outils plus sophistiqués, avec un programme caché qui va analyser son contenu avant de présenter l’image générée à l’utilisateur. Si c’est du contenu problématique, il va afficher une image noire à la place.”

D’après la responsable éthique, pour parvenir à générer le contenu à caractère sexuel de Taylor Swift diffusé sur les réseaux sociaux, les internautes malintentionnés ont trouvé une façon de contourner les mesures de sécurité de l’IA. “Ces utilisateurs ont découvert qu’en faisant des fautes de frappe exprès, en n’exprimant pas explicitement ‘Taylor Swift à poil’, mais en la décrivant dans des situations où on est obligé d’être sans vêtements, comme une douche par exemple, ils arrivaient à générer le contenu souhaité. On peut malheureusement être très créatifs. Ensuite, ils se sont partagés l’info sur Telegram”, détaille Giada Pistilli.

Des victimes livrées à elles-même

Les États-Unis ne se sont pas encore dotés d’une législation spécifique aux deepfakes. “C’est là où c’est désolant, commente Giada Pistilli, parce qu’il fallait attendre Taylor Swift pour faire avancer la législation aux États-Unis. Suite à cet événement, la Maison-Blanche a fait savoir que le processus législatif allait être accéléré pour que ces agissements soient punis d’au moins un an d’emprisonnement et d’une amende assez sévère.” La députée démocrate au Congrès américain Yvette Clarke a par ailleurs récemment réintroduit une proposition de loi intitulée “Deepfakes accountability act”, qui vise à réguler le Dark Web et établir une jurisprudence en matière de protection.

En France non plus, il n’existe pas de délit spécifique aux deepfakes. En décembre 2023, la Française Salomé Saqué révélait dans une vidéo du média Fraîches avoir été victime de ce genre d’abus. La journaliste souligne dans ce témoignage le réalisme de ces images diffusées à son insu, l’étrange honte ressentie au moment de dénoncer ces photos pourtant créées de toutes pièces, mais aussi le manque d’aide disponible pour les femmes sexualisées en ligne et victimes de cyberharcèlement. Elle appelle à “une prise de conscience politique, la mise en place de mesures, d’outils pour lutter contre ce cyberharcèlement"”

Le sujet a été mis sur la table cet automne dans le cadre d’un projet de loi du gouvernement sur la sécurisation des espaces numériques (SREN). Adopté par le Sénat, ce projet a été modifié en première lecture à l’Assemblée nationale en octobre dernier. Comme le souligne Giada Pistilli, la création d’un délit est par ailleurs freinée par des limites techniques de la justice : “Il est compliqué de prouver d’où vient le contenu généré. S’il est partagé vraiment partout sur des plateformes, c’est difficile de retrouver la source, la personne qui l’a publié en premier.”

Lire aussi I Lutte contre le cyberharcèlement : le gouvernement veut créer une « peine complémentaire de bannissement des réseaux sociaux »

Toutes les femmes victimes de deepfakes ne disposent par ailleurs pas d’une communauté dévouée et d’une influence comme celles de Taylor Swift. Elles sont dès lors totalement démunies face à cette nouvelle forme d’abus sexuel. Les victimes anonymes se retrouvent pour l’heure à “devoir prouver que ce n’est pas vrai”, explique Giada Pistilli pour faire retirer ces images des plateformes. “Là est aussi tout l’enjeu des deepfakes. Les avancées techniques font qu’elles deviennent tellement réalistes que ce sera probablement à nous de prouver que ces images ont été générées. Ça donne également une arme supplémentaire à la personne qui se trouve en violation, parce qu’elle peut exercer du chantage sur sa victime. Elle est dans une position de force.”

“Trouver d’autres stratégies”

En attendant que le droit protège les victimes, il existe bien quelques solutions pour se protéger des deepfakes en amont. Giada Pistilli cite par exemple le "watermarking", le fait d'inscrire une sorte de petite filigrane invisibles à l'oeil nu - comme sur les billets de banque - sur les images postées sur internet pour empêcher leur utilisation par des IA ou pour permettre de tracer la machine qui a produit une image générée. Un dispositif actuellement exploré par la start-up où travaille la chercheuse, Hugging Face, mais aussi par d'autres programmes d'IA. Des entreprises offrent en outre d'ores et déjà "un service où on peut nous-mêmes watermarker toutes les images qu'on publie sur internet pour faire en sorte qu'elles ne puissent pas être utilisées pour générer du contenu par la suite", ajoute-t-elle. Car "si on décide qu'on doit aller s'attaquer à toutes les utilisations créatives que ces utilisateurs malveillants vont avoir, je pense que c'est un peu la lutte contre les moulins à vent. C'est pour ça qu'il faut trouver d'autres stratégies".

Prendre conscience des dérives de l'IA grâce à Taylor Swift

Les détournements de l’usage de l’intelligence artificielle ne s’arrêtent pas à la production d’images pornographiques de célébrités et d’anonymes. Le partage de contenu pédopornographique généré via des IA va également bon train. “J’aimerais qu’il y ait plus d’éducation sur les photos qu’on partage des enfants et des mineurs sur les réseaux sociaux. Ce n’est pas parce qu’on a un compte Instagram privé, par exemple, que c’est impossible d’aller récupérer ces photos”, déplore la chercheuse. Cette dernière appelle plus largement à faire preuve de prudence et d’esprit critique en ce qui concerne les IA. Il faut apprendre à “se comporter sur Internet, parce que l’Internet d’aujourd’hui, qu’on le veuille ou non, il est noyé d’IA”.

Lire aussi I L'Assemblée vote en faveur de la protection du droit à l'image des enfants sur les réseaux sociaux

L’affaire Taylor Swift révèle ainsi le danger plus vaste d’un monde où il serait devenu impossible de discerner le vrai du faux. “Le cas de Taylor Swift tombe assez mal et assez bien, parce qu’il permet de parler d’IA. À l’aube des élections aux États-Unis, des vagues de contenus générés par une IA concernant Trump, Biden, etc., se profilent, analyse Giada Pistilli. Le discours dépasse ainsi le préjudice moral d’une personne pour devenir un enjeu démocratique.” Une chose est sûre, l’influence de Taylor Swift n’est plus à prouver.

Partager
Articles liés

Inverted wid­get

Turn on the "Inverted back­ground" option for any wid­get, to get an alter­na­tive sty­ling like this.

Accent wid­get

Turn on the "Accent back­ground" option for any wid­get, to get an alter­na­tive sty­ling like this.