a person's head with a circuit board in front of it
Photo : Steve Johnson / Unsplash

“Une absence totale du prisme du genre” : l’association #Jesuislà fus­tige le nou­veau rap­port de la Commission de l’intelligence artificielle

Publié le 13 mars der­nier, le rap­port de la Commission de l’intelligence arti­fi­cielle peine à rendre compte des enjeux démo­cra­tiques et des dérives – notam­ment les deep­fakes – qui entourent ces nou­velles tech­no­lo­gies, dénonce aujourd’hui l’association #Jesuislà.

Officiellement lan­cée le 19 sep­tembre 2023 par l’ancienne Première ministre élisa­beth Borne, la Commission de l’intelligence arti­fi­cielle a remis à Emmanuel Macron, le 13 mars der­nier, son rap­port conte­nant vingt-​cinq recom­man­da­tions sur l’IA en France. Un texte que l’association #Jesuislà – qui œuvre à enrayer la pro­pa­ga­tion des dis­cours de haine et de dés­in­for­ma­tion en ligne – juge aujourd’hui déce­vant, et dont les recom­man­da­tions “res­tent insuf­fi­santes pour assu­rer la sûre­té des Français et Françaises face à l’essor des sys­tèmes d’intelligence arti­fi­cielle”, selon un communiqué. 

#Jesuislà sou­ligne notam­ment le manque d’impartialité de cette Commission, dont “une par­tie non négli­geable des membres sont liés d’une manière ou d’une autre aux entre­prises de l’IA”, mais aus­si l’occultation dans ce rap­port des dérives poten­tielles de ces tech­no­lo­gies, telles que les deep­fakes. Laurine Chabal, char­gée de plai­doyer de l’association, a répon­du aux ques­tions de Causette.

Causette : #Jesuislà se montre très cri­tique vis-​à-​vis du rap­port de la Commission de l’intelligence arti­fi­cielle. Selon votre ana­lyse, les béné­fices éco­no­miques liés à l’IA y priment-​ils sur l’enjeu démo­cra­tique ?
Laurine Chabal :
L’analyse qu’on fait de ce rap­port, c’est qu’il est en effet très tour­né sur l’innovation, sur les enjeux éco­no­miques liés à l’essor de l’intelligence arti­fi­cielle. Il ne prend pas vrai­ment en compte les risques que peut repré­sen­ter l’IA – notam­ment l’intelligence arti­fi­cielle géné­ra­tive [capable de géné­rer de nou­veaux conte­nus, comme du texte, des images, de la musique, de l’audio et des vidéos, ndlr] – sur les droits humains. Alors même que ce rap­port est lié à la lettre de mis­sion du Premier ministre, Gabriel Attal, qui sti­pu­lait bien que l’une des thé­ma­tiques qui devaient y être trai­tées, c’était l’éthique et les impacts socié­taux de ces tech­no­lo­gies. On constate pour­tant que ces enjeux y sont sous-​traités, notam­ment la ques­tion des cyber­vio­lences et des deep­fakes, qui sont pour­tant des pro­blé­ma­tiques majeures, selon nous, à l’heure actuelle. Sans jamais nier le fait que l’IA aura des impacts posi­tifs, on main­tient qu’on ne peut pas faire pri­mer l’innovation sur les droits humains.

Justement, dans quelle mesure ce rap­port prend-​il en compte le dan­ger que repré­sentent les uti­li­sa­tions déri­vées de l’IA, notam­ment les vio­lences sexistes et sexuelles que sont les deep­fakes ?
L.C. : Les deep­fakes sont citées à deux reprises dans ce rap­port, d’après notre ana­lyse, et uni­que­ment sous l’angle des risques liés à la dés­in­for­ma­tion, qui est évi­dem­ment un enjeu impor­tant, sur lequel l’association tra­vaille aus­si. Par contre, il n’est jamais fait men­tion de cyber­vio­lences, de vio­lences sexistes et sexuelles, de l’impact plus grand que peuvent avoir ces nou­velles tech­no­lo­gies sur les groupes mino­rés, sur les femmes, sur les filles.
Les deep­fakes por­no­gra­phiques, par exemple, touchent prin­ci­pa­le­ment les célé­bri­tés, mais pas que. On voit aus­si que ces pra­tiques peuvent se déve­lop­per à l’école, dans des cas de cybe­rhar­cè­le­ment. N’importe quelle femme ou per­sonne issue d’une mino­ri­té de genre peut être tou­chée. Or, ces aspects sont tota­le­ment absents du rap­port.
Comment l’expliquer ? On note qu’il y a un manque de trans­pa­rence sur les per­sonnes et struc­tures audi­tion­nées dans le cadre de cette com­mis­sion. À notre connais­sance, il est impos­sible de déter­mi­ner si des asso­cia­tions – notam­ment de lutte contre les vio­lences en ligne et les vio­lences faites aux femmes – ont été consul­tées. Le conte­nu laisse en tout cas trans­pa­raître que, même si ça a été le cas, elles n’ont pas for­cé­ment été écou­tées. On remarque ain­si une absence totale du prisme du genre dans l’analyse pro­po­sée par ce rapport. 

Lire aus­si I Les “deep­fakes” de Taylor Swift relancent le débat sur les tra­vers de l’intelligence artificielle

Selon l’association #Jesuislà, com­ment au contraire accueillir au mieux l’intelligence arti­fi­cielle dans la socié­té fran­çaise, en pre­nant en compte ces enjeux démo­cra­tiques et de pro­tec­tion contre les dérives à carac­tère sexuel ?
L.C. : Il s’agirait tout d’abord d’intégrer le prisme du genre dans l’évaluation des risques de l’IA. Avec les usages actuels, il fau­drait vrai­ment appré­hen­der cette tech­no­lo­gie comme une nou­velle manière de contrô­ler le corps des femmes. La pre­mière étape, selon nous, c’est donc déjà de s’en rendre compte, la seconde, c’est d’aller à la ren­contre des asso­cia­tions qui tra­vaillent sur ces sujets pour com­prendre ces pro­blé­ma­tiques et aller plus loin que les enjeux éco­no­miques de l’IA.
Sur la ques­tion des deep­fakes – et de l’intelligence arti­fi­cielle en géné­ral –, on pense par ailleurs qu’il est vrai­ment temps que la France écoute les Français, les Françaises et qu’il y ait un véri­table débat public sur l’intelligence arti­fi­cielle. Ces débats ne peuvent pas être uni­que­ment réser­vés aux per­sonnes qui tra­vaillent dans les entre­prises qui déve­loppent ces tech­no­lo­gies ou aux per­sonnes qui font des recherches sur ces sujets. L’IA va tel­le­ment nous tou­cher toutes et tous, être une révo­lu­tion – comme le sou­ligne d’ailleurs le rap­port –, qu’il est pri­mor­dial que tout le monde soit inclus dans la dis­cus­sion. Sinon, ce n’est pas démo­cra­tique.
Finalement, notre asso­cia­tion tend à mettre en avant une inter­dic­tion pure et simple des deep­fakes. On a du mal à voir dans quelle mesure ces images détour­nées, quelle qu’en soit la nature [à carac­tère por­no­gra­phique, mais aus­si de dés­in­for­ma­tion poli­tique], puissent être quelque chose de béné­fique à la socié­té. Mais on aime­rait au mini­mum que la socié­té civile soit plus enten­due sur ces questions-​là. Sans tom­ber dans la peur irrai­son­née de l’IA, il faut au moins prendre en compte les dégâts actuels cau­sés par ces tech­no­lo­gies et réflé­chir aux pro­blèmes qu’elles sou­lèvent sur le long terme pour les droits humains.

Lire aus­si I Jamais contents : après avoir dénu­dé les femmes par tous les moyens, les mas­cus se servent de l’IA pour les rhabiller

Partager
Articles liés

Inverted wid­get

Turn on the "Inverted back­ground" option for any wid­get, to get an alter­na­tive sty­ling like this.

Accent wid­get

Turn on the "Accent back­ground" option for any wid­get, to get an alter­na­tive sty­ling like this.