Dans les dernières semaines, des images trompeuses de la chanteuse américaine Taylor Swift ont été diffusées massivement sur les réseaux sociaux, certaines la représentant faussement dans un contexte pornographique et d’autres la mettant en scène comme supportrice de Donald Trump. Ces images ont été produites grâce à l’intelligence artificielle (IA) générative, qui permet de créer des contenus textuels et audiovisuels à partir de commandes sous forme de texte. L’IA générative permet ainsi de générer des hypertrucages (en anglais, deepfakes), c’est-à-dire, des images et des vidéos qui sont très réalistes en apparence, mais qui ne sont pas des enregistrements de la réalité. Bien souvent, ces créations sont utilisées pour représenter des personnes réelles dans des situations qui ne se sont jamais produites, tel qu’illustré par le cas récent de Taylor Swift et par plusieurs autres.
Cette technologie est parfois utilisée pour la création artistique, le divertissement et la publicité. Elle est aussi utilisée à des fins de désinformation en contexte électoral. Cependant, dans la vaste majorité des cas, elle est employée pour créer des contenus pornographiques: en 2019, 96% des hypertrucages vidéos étaient de cette nature. Certaines applications permettent par exemple de déshabiller numériquement une personne à partir de photographies où elle apparaît toute vêtue. Ce qui est véritablement troublant, c’est que ces trucages ciblent presqu'exclusivement des femmes, et ce, de manière non consensuelle.
Les hypertrucages : politiques et pornographiques
Ce phénomène est loin d’être nouveau. Les hypertrucages pornographiques ont fait leur entrée dans la sphère numérique en 2017. À ce moment, plusieurs chercheurs ont rapidement souligné l’entrave à la vie privée qu’ils constituent pour les personnes qui en sont victimes. Certains gouvernements, à l’instar de ceux de la Virginie et de la Californie, se sont alors dotés de législations interdisant les hypertrucages non consensuels à caractère pornographique.
Depuis le succès phénoménal de ChatGPT, en 2023, l’IA générative occupe une place centrale dans l’actualité et dans les cercles d’experts en politique publique. Or, depuis lors, il semble que les médias ont surtout braqué leur attention sur les risques de désinformation et de manipulation des électeurs posés par des hypertrucages purement politiques et non pornographiques, comme le faux message vocal de Joe Biden appelant les électeurs du New Hampshire à ne pas voter aux primaires en janvier 2024 et le faux enregistrement du chef du parti Libéral progressiste de la Slovaquie, diffusé deux jours avant les élections slovaques d’octobre 2023.
Néanmoins, des chercheurs s’étant penchés sur la question dès l’apparition des hypertrucages ont mis en évidence les risques que cette technologie fait peser tant sur la vie privée et l’autonomie que sur le processus démocratique. D’autres recherches vont encore plus loin et soulignent que même si les enjeux éthiques liés respectivement aux hypertrucages politiques et aux hypertrucages pornographiques sont significatifs, l’intersection de ces considérations mérite d’être mise en lumière et d’orienter la réponse des autorités à la prolifération des hypertrucages. Ces recherches mettent de l’avant le caractère politique des hypertrucages pornographiques et leur impact sur l’égalité politique, valeur phare de la démocratie.
Les hypertrucages pornographiques en tant que dispositifs de muselage
En effet, tout porte à croire que la prolifération des hypertrucages pornographiques a un effet dissuasif qui nuit à l’entrée des femmes en politique et à leur prise de parole sur la place publique. Comme nous le rappelle le cas de Katie Hill, élue démocrate à la Chambre des représentants des États-Unis en 2018, la diffusion non consensuelle d’images à caractère sexuel peut être un facteur conduisant des femmes élues à se retirer de la politique. Ce type d’hostilité en ligne s’ajoute aux autres obstacles à l’entrée des femmes en politique, tels que la socialisation des femmes et les entraves à la conciliation travail – famille. Or, si les images utilisées pour nuire à Katie Hill étaient bel et bien réelles, il semble que l’impact de la diffusion d’images sexuelles ne soit pas pour autant amoindri lorsqu’elles sont synthétiques et mensongères. C’est par exemple de telles images artificielles qui ont amené la journaliste Rana Ayyub à cesser d’écrire et à se retirer des médias sociaux pendant plusieurs mois en 2020, une triste histoire qui nous rappelle que la diffusion de ces images mine aussi la capacité des femmes à prendre parole sur la place publique.
Nous pouvons identifier deux mécanismes par lesquels cette obstruction à l’égalité des genres en politique se produit.
D’une part, on peut penser que la production et la diffusion effective d’hypertrucages pornographiques ainsi que la menace que représente la simple possibilité d’en être victime ont pour effet de museler les femmes, de les réduire au silence. En effet, même en l’absence d’hypertrucages visant effectivement une personne, il se peut que celle-ci soit dissuadée de s’impliquer dans la vie publique par la seule crainte des représailles. Ainsi, on peut penser que de protéger la vie privée et intime des femmes contribue à protéger leur liberté d’expression et leur statut égal.
D’autre part, des chercheuses avancent que les hypertrucages peuvent aussi contraindre la parole des femmes en les incitant à produire des discours indésirés. Par exemple, les femmes victimes d’hypertrucages seront poussées contre leur gré à consacrer leur temps et leur énergie à démentir leur véracité, à parler de sujets intimes qu’elles auraient peut-être préféré éviter en public, ou encore à révéler certaines informations qu’elles auraient préféré garder pour elles (on peut penser à un coming-out forcé, par exemple).
Les hypertrucages pornographiques et le PL63
En plus d’augmenter les peines pour les discours haineux et l’exploitation sexuelle en ligne des enfants tout en créant différents organes étatiques de surveillance, le projet de loi 63 sur les méfaits en ligne contient une disposition qui interdit la diffusion de manière non consensuelle de contenus à caractère sexuel. Si des versions précédentes du projet ne visaient que la production et la diffusion d’images réelles, la mouture déposée la semaine dernière cible explicitement les contenus pornographiques synthétiques non consentis. Or, une prise en compte du double visage de l’impact des hypertrucages pornographiques sur les femmes, qui comprend une face intime et une face politique, nous amène à apprécier les avantages qu’offre cette disposition relative à la pornographie communiquée de manière non consensuelle.
En traitant la question des hypertrucages dans le cadre d’une législation principalement axée sur le discours haineux, le PL63 a la vertu de reconnaître le caractère politique de ces contenus générés par l’IA. D’une manière générale, on considère en effet qu’une des caractéristiques du discours haineux est de museler les groupes sociaux marginalisés ciblés par ce type de discours et de les réduire au silence en leur faisant craindre d’être exposés à diverses formes de représailles s’ils prennent part à la vie publique.
L’approche des hypertrucages proposée par le PL63 a un autre point fort. Lorsque ceux-ci sont uniquement abordés du point de vue de la désinformation, il n’est pas rare qu’une des pistes de solutions envisagées consiste simplement à identifier les contenus synthétiques comme tels, par exemple en leur apposant un filigrane (watermark). C’est d’ailleurs ce que Meta propose de faire en prévision des élections présidentielles américaines. Or, cette mesure ne peut mitiger que la composante informationnelle des hypertrucages : elle remet les pendules à l’heure et informe l’électeur du caractère irréel des images, les protégeant ainsi contre la manipulation. Toutefois, l’entrave à la vie privée et la crainte d’être la prochaine victime, sur lesquelles se fonde le caractère dissuasif des hypertrucages pornographiques, restent intactes. En revanche, l’interdiction ciblée qu’on trouve dans le PL63 permet véritablement de protéger les femmes sans non plus bannir toute forme de contenu synthétique.
Il faut tout de même reconnaître que d’autres dispositions du PL63 soulèvent des questions. Notamment, dans les consultations ayant précédé le dépôt du projet, plusieurs ont exprimé la crainte qu’en imposant aux plateformes numériques des obligations strictes de retrait du contenu préjudiciable, on incite celles-ci à faire du zèle afin de s’assurer de respecter la loi et donc à censurer des contenus licites. Ces plateformes pourraient également augmenter leur recours à des IAs pour identifier les contenus illicites, or il est bien connu que ces techniques ont tendance à avoir des biais discriminatoires à l’égard des minorités raciales, religieuses ou culturelles qui sont trop souvent associées à tort à des discours haineux ou terroristes.
![[Image] EH](https://www.ethique.gouv.qc.ca/wp-content/uploads/btdjdiih_eh.jpg)
