Commission de l'éthique en science et en technologie

La contrefaçon de l’opinion en ligne

Il existe un ensemble de stratégies de communication « dont la source réelle est occultée et qui prétend à tort être d’origine citoyenne[1]. » Ces stratégies sont employées en ligne ou hors ligne par un petit groupe afin de créer l’illusion qu’un grand nombre de personnes apprécient un produit, soutiennent une cause ou appuient un parti politique.

Dans le domaine commercial, cela peut se traduire par la rémunération de personnes afin qu’elles publient des commentaires positifs sur des produits. En matière de lobbyisme et de relations publiques, cela peut impliquer le financement d’un groupe de pression se présentant comme indépendant. En politique, cela peut se manifester par l’exagération du nombre de ses membres par un parti.

Ce phénomène n’est pas apparu avec les plateformes numériques, mais celles-ci contribuent à la diversification des tactiques employées et facilitent la dissimulation de l’identité des commanditaires. On peut penser, par exemple :

  • à l’amplification artificielle des interactions avec une publication ou un compte, par le biais de l’achat d’abonnés ou le trucage du nombre de vues ;
  • à la création de fausses identités (sock puppets) et de réseaux de faux comptes sur les médias sociaux ;
  • au recours à des robots amplificateurs (ou comptes automatisés), etc.

Enjeux éthiques

Ces tactiques impliquent toutes une forme de dissimulation de l’identité du commanditaire. Lorsque celle-ci est révélée, la tentative d’influence devient contre-productive, c’est-à-dire susceptible de nuire au produit, à la cause ou au parti politique dont elle cherche à accroitre l’influence.

Les stratégies de contrefaçon entrent en conflit avec plusieurs valeurs et principes, en particulier la transparence. En matière commerciale, l’entreprise trompe le consommateur ou la consommatrice en exagérant la popularité d’un produit.  Elle utilise par ailleurs des pratiques commerciales déloyales envers ses concurrents. Certaines tactiques sont sanctionnées par les lois sur la concurrence ou de protection des consommateurs au Canada et au Québec[2], aux États-Unis et dans l’Union européenne, notamment. En 2019, deux entreprises ont été pénalisées par la Federal Trade Commission, l’agence américaine responsable de la protection des consommateurs et de contrôle des pratiques anticoncurrentielles, pour avoir eu recours à des tactiques trompeuses de marketing en ligne. L’enquête a révélé que la société Devumi a vendu plus de 200 millions de faux comptes sur la plateforme X et 3,5 millions sur Facebook entre 2018 et 2019. Ceux-ci auraient d’ailleurs été utilisés par la Russie à des fins politiques.

En matière de lobbying et de relations publiques, ces tactiques cherchent à manipuler l’opinion publique ou les acteurs politiques afin d’amplifier artificiellement l’appui ou, au contraire, l’opposition à un projet, à une politique publique ou à un projet de loi[3].

En matière électorale, l’utilisation d’outils numériques afin d’amplifier artificiellement la popularité d’une personne candidate ou d’une formation politique entre en conflit avec des principes qui sont au fondement de l’intégrité électorale, c’est-à-dire le droit de l’électorat de faire un choix éclairé et l’égalité des chances. Elle vise non seulement à manipuler la perception de l’électorat, mais contrevient aux règles normales du jeu politique. Les stratégies d’astroturfing peuvent aussi dissimuler l’appui d’un commanditaire qui n’est pas autorisé à financer des activités électorales, un État étranger ou une entreprise, par exemple, ou cacher des dépenses électorales.

Un défi à l’intégrité électorale ?

Le recours à des stratégies d’astroturfing numérique pendant les élections est devenu courant, l’opération d’influence la plus connue étant celle menée par une usine à trolls commanditée par la Russie (Internet Research Agency) lors des élections américaines de 2016. À travers différentes tactiques de manipulation de l’information, l’opération a cherché à accroitre la polarisation politique, à nuire à la candidature démocrate en faveur du candidat républicain et à dissuader certains groupes d’exercer leur vote, notamment[4].

Dans le cas plus récent de la Roumanie, le recours à de telles tactiques, notamment, a conduit à l’annulation, en décembre 2024, par la cour constitutionnelle, du premier tour de l’élection présidentielle et à l’exclusion de la course du candidat de l’extrême droite. Les analyses du Digital Forensic Research Lab (DFRLab), de Democracy Reporting International (DRI) et du Foreign Policy Center décrivent les tactiques employées afin de biaiser l’algorithme de TikTok et d’amplifier la visibilité des vidéos du candidat. L’opération d’influence comprenait aussi l’activation de réseaux de comptes automatisés ainsi que l’utilisation de canaux sur l’application de messagerie instantanée Telegram afin de coordonner une diffusion multiplateforme des contenus. Selon Victoria Olari du DFRLab, « l’objectif était de créer l’apparence d’un intérêt organique grâce à un engagement systématique. » Ainsi, les publications du candidat paraissaient susciter un grand engagement populaire, alors que celui-ci était gonflé artificiellement.

Les analyses montrent par ailleurs que la campagne d’influence en Roumanie était en partie automatisée grâce à l’utilisation d’agents conversationnels intégrés à des canaux du service de messagerie instantanée Telegram[5]. Ces agents seraient en effet en mesure de mener certaines tâches de façon indépendante. Qui plus est, le candidat concerné aurait dissimulé plusieurs sources de financement qui auraient notamment servi à rémunérer des influenceurs et influenceuses pour faire la promotion de sa candidature, sans qu’ils ou elles identifient leur commanditaire[6]. Bien que la responsabilité d’une telle opération soit difficile à attribuer, le contexte géopolitique et la sophistication des stratégies amènent à conclure que la Russie en est l’instigatrice.

Selon Richard Nash de l’International Foundation for Electoral Systems (IFES), l’annulation des élections roumaines marque un tournant « dans la reconnaissance de l’impact des menaces numériques sur les élections. » Les environnements numériques sont en effet perméables à l’ingérence étrangère et aux tactiques de manipulation. Il est donc impératif de repenser les façons de garantir l’intégrité des élections.

Bien que la situation géopolitique du Québec et du Canada soit très différente de celle de la Roumanie, la réorientation politique des États-Unis sous l’administration Trump sème le doute quant aux risques encourus par ce type d’opération d’influence. En effet, la suspension des cyberactivités américaines contre la Russie pourrait accroitre le risque pour les processus démocratiques au Canada.

Contrer la manipulation de l’opinion en ligne

Il est difficile de contrer ces tactiques pour deux raisons :

Premièrement, elles sont difficiles à circonscrire et à distinguer de pratiques légitimes, qui relèvent, par exemple, du militantisme politique.

Deuxièmement, elles sont difficiles à détecter parce qu’elles reposent sur la dissimulation, qui est facilitée par l’opacité des algorithmes des plateformes numériques, les déficiences des politiques de modération ainsi que le manque d’accès aux données[7].

La manipulation de l’opinion publique en ligne est-elle véritablement à même de menacer la tenue d’élections libres ? L’évaluation de ses effets est difficile à isoler d’autres variables, bien que certaines études démontrent que l’astroturfing peut altérer l’opinion des personnes qui y sont exposées. Néanmoins, la protection de l’intégrité électorale appelle à la prudence, ce qui ne permet pas d’attendre d’obtenir une démonstration hors de tout doute de l’impact concret sur le vote.

L’annulation d’une élection est une décision exceptionnelle qui peut miner la confiance de l’électorat. Il est donc préférable d’agir en amont ; c’est ce que la Moldavie a fait, contrairement à la Roumanie. Des mesures peuvent être envisagées afin de maintenir la confiance publique et de s’assurer que les concurrents politiques respectent certaines règles, en particulier en matière de transparence. Une approche prudente requiert par ailleurs un cadre légal approprié, mais, surtout, une gestion des risques qui anticipe différents scénarios et une capacité de détection et d’analyse en continu qui couvre tout le cycle électoral (avant, pendant et après les élections).

 

 


[1] Sophie Boulay, Usurpation de l’identité citoyenne dans l’espace public. Astroturfing, communication et démocratie, Presses de l’Université du Québec, 2015. cf. « En 1986, le sénateur texan Lloyd Bentsen utilise le terme astroturf pour qualifier une campagne de communication. L’AstroTurf® est un revêtement synthétique imitant presque à la perfection les terrains de jeu gazonnés utilisés pour les sports amateurs et professionnels. Par ce jeu de mots, le sénateur distingue alors les efforts de citoyens, de type grassroots, des efforts d’intérêts corporatifs prétendant parler au nom des citoyens. »

[2] Justine Lalande fournit quelques exemples dans « L’astroturfing, ou l’art de créer de faux mouvements populaires », The Conversation, 3 janvier 2023.

[3] L’industrie du tabac et l’industrie pétrolière ont employé diverses tactiques d’influence de ce type, notamment en achetant des publicités au nom de groupes citoyens. Les plateformes numériques ont aussi dissimulé leurs interventions auprès de l’Union européenne derrière des groupes de façade.

[4]  Cf. New Knowledge The Tactics and Tropes of the Internet Research Agency ; Ahmed Al-Rawi and Anis Rahman, « Manufacturing rage: The Russian Internet Research Agency’s political astroturfing on social media », First Monday, vol. 25, vo 9 - 7 septembre 2020.

[5] Concernant le rôle de l’IA générative : The Rise of Generative AI and the Coming Era of Social Media Manipulation 3.0: Next-Generation Chinese Astroturfing and Coping with Ubiquitous AI | RAND

[6] DFRLab rapporte l’utilisation de la plateforme automatisée roumaine FameUp.

[7] L’ONG DRI a poursuivi la plateforme X pour obtenir l’accès en temps réel aux données sur les élections en Allemagne en vertu du règlement européen sur les services numériques.

 

Date de mise en ligne : 27 mars 2025

Soyez toujours informés de nos activités

Restez informés des enjeux actuels en science et en technologie en recevant nos éthiques hebdo, communiqués de presse et autres publications directement dans votre boîte courriel.

La Commission sur les réseaux sociaux
Participez à la discussion!
© Gouvernement du Québec, 2020
magnifiercrossmenuarrow-left