Commission de l'éthique en science et en technologie

ChatGPT et évaluation des apprentissages : quels enjeux?

Alors que l’entreprise OpenAI vient tout juste d’annoncer le lancement d’une nouvelle version de son intelligence artificielle (IA) conversationnelle ChatGPT et que plusieurs voix s’élèvent pour réclamer un moratoire sur le développement de l’IA, de nombreux experts s’inquiètent des conséquences de ces technologies sur le milieu de l’enseignement supérieur et de l’éducation, et plus particulièrement sur l’évaluation des apprentissages. Dans cet éthique hebdo, nous explorons quelques questions éthiques soulevées par ChatGPT et d’autres IA génératives au regard de plusieurs valeurs liées à l’évaluation des apprentissages des étudiants, telles que l’autonomie, la rigueur, la responsabilité ou encore la propriété intellectuelle.  

5 avril 2023 Intelligence artificielle, Éducation, Communication scientifique exacte et accessible, Intégrité scientifique

Partager cette page

Qu’est-ce que ChatGPT?

ChatGPT (Generative Pre-trained Transformer) est une IA dite générative (c’est-à-dire qu’elle génère du contenu à partir de très grandes bases de données) dont l’une des particularités est de construire des écrits qui semblent pouvoir rivaliser avec bon nombre de créations humaines en raison de leur niveau d’élaboration et de langage. Le robot conversationnel lancé à la fin de 2022 par l’entreprise OpenAI peut, par exemple, compléter des examens, rédiger des essais, écrire des codes informatiques ou encore des poèmes. Dans sa nouvelle version, ChatGPT4 peut, entre autres, générer du texte à partir d'images.

Ces innovations appellent une réflexion autour de valeurs fondamentales qui entourent l’évaluation des apprentissages. On pense, par exemple, à l’autonomie au regard des connaissances, aux règles relatives au plagiat, à la citation des sources ou encore à la collaboration. 

Perte de contrôle et d’autonomie au regard des savoirs

Admettons que l’on demande à ChatGPT ce que Hobbes et Rousseau pensaient du principe de la séparation des pouvoirs. Le robot sera susceptible de fournir une réponse erronée, et ce, sans expliquer à l’utilisateur sur quelles données il s’appuie pour en arriver à cette réponse, parmi la grande quantité d’informations à partir desquelles il a été entraîné.

Même quand les informations qu’elles fabriquent sont justes, les IA génératives confrontent ainsi les étudiants à un risque de perte de contrôle au regard des connaissances, puisqu’ils n’ont accès qu’au produit final généré par les IA et non aux sources des données mobilisées pour forger ce produit, celles-ci étant incorporées dans des modèles prédictifs souvent opaques. Ce problème de la boîte noire peut également empêcher les étudiants d’avoir accès aux informations et savoirs qui correspondraient pourtant le mieux à leurs préférences et à leurs objectifs personnels, et de les approfondir, ce qui peut porter atteinte à leur autonomie. Ces enjeux sont liés aux valeurs d’explicabilité, de transparence et d’interprétabilité des algorithmes, récurrentes en éthique de l’IA.

Citation des sources et plagiat… des règles mises au défi

Dans un contexte d’évaluation des apprentissages, cette incertitude quant à l’origine des contenus peut semer le doute sur la manière dont il convient d’appliquer les règles relatives au plagiat et à la citation des sources, y compris pour les étudiants désirant faire preuve d’intégrité : devrait-on considérer ChatGPT et autres IA génératives comme des auteurs à part entière qui inventent des contenus originaux ou plutôt comme des outils de recherche? Si l’on souhaite citer l’IA, de quelle manière devrait-on le faire?

Il en découle des questions directement liées au principe de responsabilité, puisqu’il peut être difficile de savoir qui est imputable de la matière créée par l’IA. Est-ce l’étudiant qui l’utilise? L’entreprise qui déploie l’IA? L’IA elle-même? Ce risque semble d’autant plus important que l’une des caractéristiques des nouvelles IA génératives telles que ChatGPT est de produire des affirmations parfois fausses (manque de rigueur intellectuelle, de pertinence et de fiabilité) et susceptibles de véhiculer des biais (manque de diversité et d’inclusion), mais rédigées de manière à les rendre très plausibles, ce qui augmente par le fait même les risques de mésinformation et de discrimination vis-à-vis certains groupes. À titre d’exemple, ChatGPT semble démontrer une connaissance particulièrement médiocre de la culture québécoise. Dans un contexte d’évaluation des apprentissages, de nombreux experts suggèrent qu’il soit de la responsabilité des étudiants de vérifier la véracité et le bien-fondé des éléments proposés par l’agent conversationnel.

Risque d’incertitude quant au statut de ChatGPT

En tant qu’IA, ChatGPT et autres agents conversationnels ne sont pas doués d’agentivité, c’est-à-dire qu’ils ne sont pas capables d’agir intentionnellement pour atteindre des buts qui leur sont propres. Ces IA ne sont pas non plus dotées de sens moral, d’intelligence émotionnelle, d’empathie, de capacité à exercer un jugement, à ressentir des émotions ou encore à raisonner.

Pourtant, les utilisateurs d’agents conversationnels peuvent avoir tendance à leur prêter des qualités typiquement humaines, voire un esprit(ce qui pourrait se rapprocher, respectivement, de l’anthropomorphisme et de l’animisme, qui consistent à prêter des caractéristiques humaines ou une âme à des entités non humaines). Ce phénomène, plus couramment appelé l’effet Eliza en référence au premier robot conversationnel mis au point dans les années 60, se manifeste notamment par l’utilisation d’adjectifs qui réfèrent à des traits humains pour décrire les agents conversationnels (ChatGPT serait par exemple « poli », « sympathique » ou « gentil »). En quelque sorte, les utilisateurs tentent de reproduire avec l’IA la relation, le « contrat » informel qu’ils entretiennent habituellement avec les textes rédigés par des auteurs humains auxquels ils attribuent une intention. Ce phénomène est probablement renforcé par le fait que les agents conversationnels sont précisément conçus sur les modèles humains, comme en témoigne l’excellente maitrise du langage naturel dont ils peuvent faire preuve.

Des débats ont ainsi déjà eu lieu au sein de la communauté scientifique et académique au sujet du bien-fondé de nommer ChatGPT coauteur dans le cadre de publications. Quelques auteurs parlent même de « co-créativité » et de « littérature synthétique » pour désigner le fait de rédiger avec l’aide d’IA génératives. Ces récents développements soulèvent ainsi des questionnements sur le statut et le rôle des IA génératives dans un contexte d’évaluation des apprentissages : certains étudiants ou enseignants pourraient-ils être amenés à percevoir et à considérer les IA génératives comme des collaboratrices dotées d’autonomie décisionnelle?

Risque de renforcer les inégalités entre les étudiants 

Finalement, l’utilisation d’IA génératives dans le cadre de l’évaluation des apprentissages présente un risque de renforcer les inégalités entre les étudiants (plutôt que de les réduire) en fonction de facteurs tels que leur capacité d’avoir accès à l’IA (fracture numérique), leur littératie numérique ou encore leurs aptitudes à utiliser l’IA de manière à en tirer profit. En raison de la fracture numérique, les étudiants déjà favorisés pourraient être plus avantagés par l’IA que les moins favorisés, contribuant ainsi à creuser les écarts et à accentuer les iniquités.

En plus de soulever des questions au regard de plusieurs valeurs liées à l’évaluation des apprentissages, les nouvelles possibilités offertes par les IA génératives amènent ainsi à se questionner sur les compétences que l’on souhaite voir se développer chez les étudiants (par exemple organiser, assembler et éditer des textes, analyser, comparer, plutôt qu’apprendre par cœur), avec un risque de porter préjudice à celles et ceux qui éprouvent déjà des difficultés dans le cadre de l’évaluation des apprentissages.

Si l’enregistrement des fichiers de témoins est activé sur votre navigateur, la visite de ce site placera un fichier de témoins sur votre ordinateur, ou un fichier de témoins sera lu si vous avez déjà visité ce site auparavant. Notre utilisation des fichiers de témoins vise uniquement à améliorer votre expérience comme utilisatrice ou utilisateur sur le site Web de la Commission.