Publié le 13 mars dernier, le rapport de la Commission de l’intelligence artificielle peine à rendre compte des enjeux démocratiques et des dérives – notamment les deepfakes – qui entourent ces nouvelles technologies, dénonce aujourd’hui l’association #Jesuislà.
Officiellement lancée le 19 septembre 2023 par l’ancienne Première ministre élisabeth Borne, la Commission de l’intelligence artificielle a remis à Emmanuel Macron, le 13 mars dernier, son rapport contenant vingt-cinq recommandations sur l’IA en France. Un texte que l’association #Jesuislà – qui œuvre à enrayer la propagation des discours de haine et de désinformation en ligne – juge aujourd’hui décevant, et dont les recommandations “restent insuffisantes pour assurer la sûreté des Français et Françaises face à l’essor des systèmes d’intelligence artificielle”, selon un communiqué.
#Jesuislà souligne notamment le manque d’impartialité de cette Commission, dont “une partie non négligeable des membres sont liés d’une manière ou d’une autre aux entreprises de l’IA”, mais aussi l’occultation dans ce rapport des dérives potentielles de ces technologies, telles que les deepfakes. Laurine Chabal, chargée de plaidoyer de l’association, a répondu aux questions de Causette.
Causette : #Jesuislà se montre très critique vis-à-vis du rapport de la Commission de l’intelligence artificielle. Selon votre analyse, les bénéfices économiques liés à l’IA y priment-ils sur l’enjeu démocratique ?
Laurine Chabal : L’analyse qu’on fait de ce rapport, c’est qu’il est en effet très tourné sur l’innovation, sur les enjeux économiques liés à l’essor de l’intelligence artificielle. Il ne prend pas vraiment en compte les risques que peut représenter l’IA – notamment l’intelligence artificielle générative [capable de générer de nouveaux contenus, comme du texte, des images, de la musique, de l’audio et des vidéos, ndlr] – sur les droits humains. Alors même que ce rapport est lié à la lettre de mission du Premier ministre, Gabriel Attal, qui stipulait bien que l’une des thématiques qui devaient y être traitées, c’était l’éthique et les impacts sociétaux de ces technologies. On constate pourtant que ces enjeux y sont sous-traités, notamment la question des cyberviolences et des deepfakes, qui sont pourtant des problématiques majeures, selon nous, à l’heure actuelle. Sans jamais nier le fait que l’IA aura des impacts positifs, on maintient qu’on ne peut pas faire primer l’innovation sur les droits humains.
Justement, dans quelle mesure ce rapport prend-il en compte le danger que représentent les utilisations dérivées de l’IA, notamment les violences sexistes et sexuelles que sont les deepfakes ?
L.C. : Les deepfakes sont citées à deux reprises dans ce rapport, d’après notre analyse, et uniquement sous l’angle des risques liés à la désinformation, qui est évidemment un enjeu important, sur lequel l’association travaille aussi. Par contre, il n’est jamais fait mention de cyberviolences, de violences sexistes et sexuelles, de l’impact plus grand que peuvent avoir ces nouvelles technologies sur les groupes minorés, sur les femmes, sur les filles.
Les deepfakes pornographiques, par exemple, touchent principalement les célébrités, mais pas que. On voit aussi que ces pratiques peuvent se développer à l’école, dans des cas de cyberharcèlement. N’importe quelle femme ou personne issue d’une minorité de genre peut être touchée. Or, ces aspects sont totalement absents du rapport.
Comment l’expliquer ? On note qu’il y a un manque de transparence sur les personnes et structures auditionnées dans le cadre de cette commission. À notre connaissance, il est impossible de déterminer si des associations – notamment de lutte contre les violences en ligne et les violences faites aux femmes – ont été consultées. Le contenu laisse en tout cas transparaître que, même si ça a été le cas, elles n’ont pas forcément été écoutées. On remarque ainsi une absence totale du prisme du genre dans l’analyse proposée par ce rapport.
Lire aussi I Les “deepfakes” de Taylor Swift relancent le débat sur les travers de l’intelligence artificielle
Selon l’association #Jesuislà, comment au contraire accueillir au mieux l’intelligence artificielle dans la société française, en prenant en compte ces enjeux démocratiques et de protection contre les dérives à caractère sexuel ?
L.C. : Il s’agirait tout d’abord d’intégrer le prisme du genre dans l’évaluation des risques de l’IA. Avec les usages actuels, il faudrait vraiment appréhender cette technologie comme une nouvelle manière de contrôler le corps des femmes. La première étape, selon nous, c’est donc déjà de s’en rendre compte, la seconde, c’est d’aller à la rencontre des associations qui travaillent sur ces sujets pour comprendre ces problématiques et aller plus loin que les enjeux économiques de l’IA.
Sur la question des deepfakes – et de l’intelligence artificielle en général –, on pense par ailleurs qu’il est vraiment temps que la France écoute les Français, les Françaises et qu’il y ait un véritable débat public sur l’intelligence artificielle. Ces débats ne peuvent pas être uniquement réservés aux personnes qui travaillent dans les entreprises qui développent ces technologies ou aux personnes qui font des recherches sur ces sujets. L’IA va tellement nous toucher toutes et tous, être une révolution – comme le souligne d’ailleurs le rapport –, qu’il est primordial que tout le monde soit inclus dans la discussion. Sinon, ce n’est pas démocratique.
Finalement, notre association tend à mettre en avant une interdiction pure et simple des deepfakes. On a du mal à voir dans quelle mesure ces images détournées, quelle qu’en soit la nature [à caractère pornographique, mais aussi de désinformation politique], puissent être quelque chose de bénéfique à la société. Mais on aimerait au minimum que la société civile soit plus entendue sur ces questions-là. Sans tomber dans la peur irraisonnée de l’IA, il faut au moins prendre en compte les dégâts actuels causés par ces technologies et réfléchir aux problèmes qu’elles soulèvent sur le long terme pour les droits humains.
Lire aussi I Jamais contents : après avoir dénudé les femmes par tous les moyens, les mascus se servent de l’IA pour les rhabiller