La Commission se penche actuellement sur les risques que pose l’intelligence artificielle (IA) pour la démocratie. Le projet d’avis en cours d’élaboration vise à approfondir ses interventions antérieures auprès du Conseil de l’innovation du Québec (participation au processus de consultation ayant mené au document Prêt pour l’IA) et d’Élections Québec (dépôt d’un mémoire dans le cadre de consultation d’Élections Québec Pour une nouvelle vision de la loi électorale).
Le sujet attire beaucoup l’attention, en particulier dans le contexte des élections aux États-Unis. Plusieurs travaux portent aussi sur les États européens. Toutefois, une réflexion plus poussée est nécessaire afin d’évaluer la pertinence de ces études dans les contextes québécois et canadien. La CEST, appuyée par un comité de travail interdisciplinaire (science politique, communication, philosophie pratique, droit et IA), formulera des recommandations afin d’atténuer les risques associés aux utilisations de l’IA pour l’intégrité des élections et de la délibération publique.
Les usages de l’intelligence artificielle dans le processus démocratique
L’avis se penchera principalement sur trois usages des systèmes d’IA :
- la création de contenu synthétique ;
- l’utilisation de robots conversationnels ; et
- l’analyse de données à des fins de profilage et de microciblage dans les communications politiques.
Ces trois utilisations engendrent une transformation des campagnes électorales et des communications politiques et ont des répercussions sur l’intégrité de l’information politique et électorale. Elles ont aussi des implications sur la manière dont les citoyennes et citoyens délibèrent et s’informent en vue de prendre part à la vie politique.
Enjeux éthiques
L’avis se penchera sur les enjeux éthiques, épistémiques, juridiques associés à ces utilisations. Il entend explorer les implications de ces nouvelles pratiques pour le droit de voter de manière éclairée, l’égalité politique et la participation politique et électorale, ainsi que leurs impacts sur la qualité de la délibération publique et sur la légitimité politique. Il identifiera par ailleurs les usages bénéfiques de l’IA, par exemple pour soutenir la délibération citoyenne.
Finalement, l’avis identifiera les mesures d’encadrement de l’IA les plus appropriées en évaluant l’importance des risques posés, à l’instar de l’approche adoptée par l’Union européenne. Plusieurs questions seront au cœur des réflexions entourant les façons d’atténuer les risques, notamment :
- Faut-il adopter une approche de prévention fondée sur les risques connus, ou plutôt une approche fondée sur la précaution, qui prend en compte les risques incertains associés aux nouveaux usages appelés à se développer ?
- La recherche d’une plus grande transparence est nécessaire, mais est-elle suffisante ?
- Comment atténuer les risques associés à l’IA tout en maximisant les bénéfices dans le respect des droits et libertés fondamentales ?
Pour aller plus loin, quelques Éthique hebdo de la CEST :
Hypertrucages et menaces pour l’égalité des genres en politique
Quel rôle jouent les systèmes d’intelligence artificielle dans le phénomène de polarisation?
Désinformation, démocratie et intelligence artificielle