Désinformation, démocratie et intelligence artificielle
L’intelligence artificielle (IA) générative peut amplifier la désinformation. Nous soulignons ici les risques démocratiques découlant de ce phénomène et explorons quelques pistes de solution.
L’intelligence artificielle (IA) générative peut amplifier la désinformation. Nous soulignons ici les risques démocratiques découlant de ce phénomène et explorons quelques pistes de solution.
En juin dernier, le gouverneur de la Floride Ron DeSantis partageait des photos représentant Donald Trump étreignant l’immunologue Anthony Fauci sur les réseaux sociaux. Quelques semaines plus tard, un Comité d’Action Politique (PAC) pro-DeSantis a diffusé une publicité dans laquelle on pouvait entendre Trump attaquer la gouverneure républicaine de l’Iowa. L’objectif poursuivi était clair : discréditer Trump, adversaire de DeSantis dans la course à la chefferie du Parti républicain, en l’associant à des personnalités mal aimées des républicains (Fauci) ou en le montrant s’en prendre à d’autres républicains. Or, l’image partagée par DeSantis était un hypertrucage (deepfake), c’est-à-dire une image hautement réaliste générée grâce à l’intelligence artificielle (IA). La voix de Trump dans la publicité du PAC de DeSantis était également un extrait sonore généré à l’aide d’une IA.
Ces exemples de désinformation peuvent être vus comme une forme de manipulation, une forme d’influence insidieuse qui vise à modifier les comportements et les croyances des individus en exploitant certaines de leurs failles cognitives ou leur manque relatif d’information. L’émergence de cette forme de désinformation assistée par l’IA générative suscite des inquiétudes relatives à l’intégrité des processus démocratiques dans de nombreux pays, incluant le Canada.
Les IA génératives permettent de produire synthétiquement du texte, des images, des sons et des vidéos à partir d’instructions rédigées dans une langue naturelle. L’origine synthétique de ces contenus est souvent difficilement détectable, ce qui permet de flouer ceux qui y sont exposés. Par exemple, une étude récente a évalué que grâce à Chat-GPT, on pouvait produire de la désinformation convaincante et que les humains sont incapables, devant un texte, de déceler si ce dernier a été rédigé par un internaute ou un système d’IA. Les mêmes craintes sont suscitées par les hypertrucages, lesquels deviennent particulièrement nocifs lorsqu’ils mettent en scène des personnes réelles dans de fausses situations ou prononçant des paroles qui n’ont en réalité jamais été prononcées. Ces hypertrucages sont difficilement détectés, aussi bien par les humains que par les algorithmes de détection.
Non seulement l’IA contribue à générer des fausses nouvelles, mais l’architecture des réseaux sociaux contribue à accélérer leur diffusion. En effet, les réseaux sociaux ont tendance à récompenser le partage de contenus générant le plus d’interactions, ce qui crée une habitude de partager le plus de contenu possible sans en vérifier l’exactitude. Des experts ont parlé d’infocalypse pour décrire la propagation d’hypertrucages en ligne. Dans ce contexte, où il devient de plus en plus difficile de bien s’informer, la confiance accordée à toute source d’information est diminuée, ce qui accentue la vulnérabilité du public face à la manipulation.
Les exemples évoqués illustrent que la désinformation est une forme de manipulation qui porte atteinte à plusieurs principes fondamentaux de la démocratie. D’une part, la manipulation mine la transparence, car elle implique de dissimuler certaines informations à ses destinataires. De plus, la manipulation compromet gravement l’autonomie des personnes et leur habileté à penser de façon critique. Pour cette raison, elle empêche à la fois les individus de poursuivre leurs propres intérêts et d’évaluer ceux des autres, ce qui entrave la qualité de la délibération publique. La manipulation menace aussi l’égalité des citoyens, car elle permet à certaines personnes de s’arroger plus de pouvoir en influençant d’autres personnes par des moyens qui exploitent des asymétries d’information. Cette menace est d’autant plus grave qu’on assiste, depuis les dernières années, à une augmentation des opérations d’influences politiques poursuivies par des acteurs domestiques ou étrangers, privés ou publics, hostiles à la démocratie. Enfin, les hypertrucages présentent un danger particulier pour l’égalité des genres en politique. Les femmes sont nettement plus susceptibles de subir des abus découlant de la diffusion d’hypertrucages à caractère pornographique. Or, le risque de faire l’objet de tels hypertrucages pourrait constituer un obstacle de plus pour l’entrée des femmes en politique.
Face à la menace que représente la manipulation par les hypertrucages, plusieurs pistes de solution imparfaites existent.
La principale solution avancée consiste à signaler l’origine des contenus faussés ou hypertruqués en y apposant un filigrane ou une marque sur les métadonnées. Toutefois, cette approche prônant la transparence n’est pas suffisante. Il est notamment raisonnable de craindre que ces mesures soient facilement contournées ou qu’elles n’aient aucun effet sur certains problèmes. Par exemple, l’origine artificielle des hypertrucages mettant en scène des femmes est souvent déjà apparente, ce qui ne parvient pas à freiner les conséquences négatives sur leur carrière, pas plus qu’à atténuer le risque que d’autres soient dissuadées de se présenter aux élections.
Une seconde possibilité, prise au sérieux dans certains pays comme la France ou les États-Unis, consiste à interdire le partage d’hypertrucages sous certaines conditions (par exemple, lorsqu’ils personnifient des individus sans leur consentement, ou lorsqu’ils sont faits dans le cadre de publicités politiques ou en vue d’influencer des élections). En 2019, la Chine a déjà pris cette voie. Toutefois, cette solution présente un risque pour les droits fondamentaux, notamment pour la liberté d’expression. Certains artistes pourraient en effet user de l’IA pour produire de la satire, de la parodie et de la caricature, qui sont toutes des formes légitimes d’expression.
On peut également penser que soutenir l’éducation aux médias et à l’information, dans le but d’outiller les citoyennes et citoyens à mieux comprendre le phénomène des hypertrucages, à se familiariser avec les outils de détection des hypertrucages et à affiner leur esprit critique, peut représenter une piste de solution à la menace de la manipulation par désinformation. Toutefois, ce type de solution, axé sur les compétences et les bonnes habitudes des citoyens, possède un caractère individualiste et a donc peu d’incidence sur les causes structurelles de la prolifération de la désinformation comme l’architecture de plateformes numériques orientée par l’économie de l’attention, laquelle favorise, tel qu’expliqué plus haut, le partage de fausses nouvelles.
Ainsi, les efforts de promotion de la littéracie numérique, les obligations de transparence et des interdictions ciblées de partage d’hypertrucages gagneraient à être combinées à des mesures qui ciblent la mécanique de l’économie de l’attention et l’architecture des environnements numériques au sein desquels se déploie maintenant une grande partie de la délibération publique. On pourrait par exemple envisager de créer ou de soutenir le développement de plateformes et de réseaux sociaux visant explicitement à contrer la désinformation (et la mésinformation) dont les fils d’actualité seraient structurés par des algorithmes de recommandation fonctionnant avec d’autres critères que ceux associés à l’économie de l’attention. Ceux-ci pourraient notamment être orientés vers la rigueur et la qualité de l’information.