La mise en marché de ChatGPT par OpenAI à la fin de l’année 2022 a popularisé une nouvelle génération d’agents conversationnels capables d’interagir avec les utilisateurs en langage naturel. Moins rigide que leurs prédécesseurs, qui s’en tenaient à des réponses toutes faites, ce type d’outils se banalise rapidement : ils sont maintenant intégrés dans les logiciels, les plateformes numériques (moteurs de recherche, médias sociaux, messageries) et les assistants vocaux. En dépit des erreurs et des fabulations qu’ils génèrent[2], les agents conversationnels exercent une fascination qui s’explique sans doute par les stratégies de mise en marché, mais aussi par leur facilité relative d’utilisation, leur polyvalence et leur conception qui amène une projection anthropomorphique, c’est-à-dire l’impression de « dialoguer » avec un humain.
Proportionnalité des avantages et des inconvénients
Les agents conversationnels généralistes, comme Gemini de Google, Copilot de Microsoft ou Claude d’Anthropic, sont de grands modèles de langage qui s’appuient sur les avancées de l’apprentissage automatique, des processeurs puissants et la disponibilité de grandes bases de données. Parfois qualifiés de « calculateurs de mots », ces modèles produisent du texte en prédisant les séquences de mots les plus susceptibles d’être pertinentes[3]. C’est ainsi qu’ils formulent des réponses plausibles qui n’auraient, selon certains, que l’apparence du sens et de la vérité, c’est-à-dire qu’ils répètent sans comprendre. En l’absence d’informations, ils comblent parfois les vides en avançant des faits inexacts ou en générant des données inexistantes.
Alors que les moteurs de recherche traditionnels recommandent une série de sites en fonction de mots clés et d’un algorithme de classement, les agents conversationnels fournissent généralement une seule réponse à une requête. En dissimulant ainsi la complexité d’un enjeu et la pluralité des sources, les agents conversationnels pourraient accroitre le risque que l’utilisateur soit mal informé, voire manipulé. Ils contribuent peu, par ailleurs, au développement d’un point de vue critique, et rendent la vérification de l’information difficile, car ils ne donnent pas toutes les sources d’information utilisées et ne rendent pas explicite le processus ayant amené à la production de ladite réponse.
En somme, les agents conversationnels fournissent un accès facile à des informations dont la qualité varie considérablement, souvent imprécises, peu fiables et susceptibles d’être biaisées, en fonction de la qualité des données d’entrainement. Faut-il en conclure que les inconvénients surpassent les avantages en matière d’accès à l’information ? Cela dépend des domaines, mais aussi du type d’entrainement, qu’il soit généraliste ou spécialisé, des agents conversationnels.
L’information électorale et politique
Plusieurs regroupements de journalistes et de chercheurs ont testé systématiquement la fiabilité des informations électorales et/ou politiques fournies par un ensemble d’agents conversationnels généralistes. On peut penser notamment à Proof-AI Democracy Project, Reuters Institute, AI Forensic, Algorithm Watch. Ces derniers en sont arrivés à la conclusion que les renseignements électoraux générés contiennent des imprécisions notables et qu’ils peuvent parfois induire les utilisateurs en erreur. Il y a toutefois une grande variabilité de la qualité des réponses générées d’un outil à l’autre, d’une langue à l’autre, etc. Certaines études ont aussi soulevé des doutes quant à la neutralité de l’information politique fournie par ces outils. D’ailleurs, en raison de leurs lacunes, certains agents conversationnels sont programmés pour refuser de répondre aux questions électorales, et recommandent plutôt aux utilisateurs de consulter des ressources fiables, par exemple les administrations électorales. Dans le cas de Twitter-X-Grok, ce n’est qu’après l’intervention d’un groupe d’administrateurs électoraux américains que l’outil a cessé de diffuser de fausses informations.
En matière électorale, la préservation de l’intégrité de l’information est cruciale. Car, afin d’exercer leur droit de vote, les électeurs et les électrices ont besoin de renseignements fiables et précis concernant les lieux, les dates et les modalités de vote, entre autres. Ainsi, dans ce cas spécifique, le risque associé à une information déficiente est inacceptable, car il peut compromettre l’exercice du droit fondamental de voter.
En ce qui a trait à l’information sur les partis politiques et les personnes candidates, la question de l’intégrité se pose différemment. Il s’agit plutôt de fournir de l’information de manière juste et équitable afin de permettre aux citoyennes et aux citoyens de voter de manière éclairée. Une piste de solution à explorer serait celle des agents conversationnels spécialisés, entrainés à partir des programmes des partis politiques, entre autres. (Un tel outil a été mis à la disposition de l’électorat britanno-colombien par un organisme de la société civile lors des plus récentes élections.) Par ailleurs, de façon générale, des assistants intelligents virtuels spécialisés pourraient faciliter l’accès à des ensembles complexes de documents et d’informations. C’est le cas notamment de Publio, qui facilite l’accès au portail de l’Office des publications de l’Union européenne. Il est toutefois nécessaire que ces outils soient conçus de manière à prendre en compte des principes éthiques tels que la transparence, la reproductibilité, l’interprétabilité et l’explicabilité[4]. Néanmoins, en matière électorale, même l’utilisation d’agents spécialisés est remise en question, car elle comporterait encore trop de risques. Des organisations comme Democracy Works recommandent une utilisation prudente de l’IA générative. Toutefois, cela n’a pas empêché l’entreprise Perplexity de mettre un tel outil en ligne en prévision des élections aux États-Unis. (Pour connaitre le point de vue des experts en IA sur cet outil.)
Vers une imputabilité des fabricants ?
Les agents conversationnels généralistes jouent un rôle grandissant en matière d’accès à l’information. Il est difficile d’en mesurer l’impact sur la qualité de l’information en général, mais dans certains usages et contextes les effets négatifs sont manifestement trop importants. Jusqu’à présent, il est revenu aux administrations électorales de parer aux conséquences de ces développements technologiques. Toutefois, plusieurs événements pourraient amener les entreprises concernées à agir de façon plus responsable :
- L’adoption par l’Union européenne au courant des dernières années de plusieurs lois et règlements, en particulier, le règlement sur les services numériques ou Digital Services Act, mais aussi la Loi sur l’intelligence artificielle ;
- L’ajout à certaines lois électorales de dispositions qui sanctionnent la diffusion de fausses informations et exigent leur retrait dans un bref délai, par exemple en Colombie-Britannique. Élections Ontario et Élections Manitoba ont aussi fait des recommandations en ce sens. D’ailleurs, Élections Canada a récemment proposé d’obliger « les plateformes qui utilisent des agents conversationnels ou des fonctions de recherche générés par IA à indiquer dans leurs réponses où trouver l’information officielle pour savoir où, quand et comment s’inscrire et voter » ;
- Finalement, le cas d’Air Canada laisse à penser que les organisations qui utilisent des agents conversationnels pourraient être tenues responsables des réponses générées par ceux-ci.
En conclusion, alors que les agents conversationnels deviennent des outils d’accès à l’information de plus en plus répandus, il est important de s’assurer qu’ils ne nuisent pas à la qualité de l’information et à l’exercice de droits fondamentaux.
[1] Le Global Public Opinion on Artificial Intelligence survey (2024) montre qu’une proportion significative de personnes utilisent ChatGPT en remplacement de Google (p. 36) : https://srinstitute.utoronto.ca/public-opinion-ai
[2] Concernant la qualité de l’information et l’IA générative, se référer au rapport conjoint du Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie (2024). Intelligence artificielle générative en enseignement supérieur : enjeux pédagogiques et éthiques, Québec, p.59 et suiv.
[3] Comité national pilote d’éthique du numérique (2021), Agents conversationnels : enjeu d’éthique, Avis no 3, p. 4.
[4] Ibid., p. 19.
![[Image] Shutterstock 2253920085](https://www.ethique.gouv.qc.ca/wp-content/uploads/3brejpa1_shutterstock_2253920085-scaled.jpg)
