L’utilisation des outils d’intelligence artificielle générative (IAg) [définition à la page 8 de ce rapport] dans la production d’un article scientifique peut prendre plusieurs formes : améliorer la qualité et la clarté de la langue; traduire un manuscrit; produire des images, diagrammes et figures; générer des visualisations des données ou des résultats; proposer des références à inclure; proposer une structure du manuscrit; générer du texte (sections spécifiques du manuscrit, premier jet complet à partir de zéro ou de segments de textes, résumé [abstract] à partir du manuscrit rédigé), etc. Ces outils sont aussi employés pour la rédaction de rapports d’évaluation de relecture par les pairs. Cependant, ce dernier type d’usage ne sera pas abordé dans le présent billet.
Afin d’évaluer l’ampleur de ce phénomène, des recherches s’appuient sur des changements dans la fréquence de certains mots, expressions et formes de phrases depuis l’apparition de ChatGPT en 2022. Elles révèlent un accroissement marqué du recours aux outils d’IAg.
Il n’y a pas de consensus sur les façons scientifiquement valables et éthiquement acceptables d’utiliser les outils d’IAg en rédaction scientifique. Par exemple, selon un sondage réalisé auprès de plus de 5000 chercheurs et chercheuses dans différents pays, la grande majorité de ces personnes trouvent acceptable d’employer des outils d’IAg pour effectuer une révision linguistique ou une traduction. Concernant la génération de texte, les opinions varient en fonction de la section du manuscrit. En effet, à condition que le recours aux outils d’IA soit déclaré (transparence), 68% trouvent acceptable de le faire pour le résumé, 56% pour l’introduction, 44% pour la section consacrée à la méthode, 33% pour les résultats et 40% pour la discussion.
Les enjeux éthiques
Selon des experts et expertes, le recours aux outils d’IAg dans la production de la littérature scientifique pourrait accélérer l’avancement des connaissances, améliorer la qualité et la clarté de la langue ainsi que favoriser l’égalité des chances entre anglophones et non anglophones (l’anglais étant la langue prédominante en communication scientifique). Cependant, il soulève des enjeux éthiques importants.
Fiabilité, responsabilité et transparence
Les systèmes d’IAg ne sont pas entièrement fiables. Ils peuvent générer des contenus inexacts, incohérents ou biaisés, inventer des références qui n’existent pas, etc. Il faut donc que les auteurs vérifient systématiquement tous les contenus générés par les outils d’IAg, s’assurent de leur exactitude en s’appuyant sur des sources bien établies, examinent la cohérence de l’argumentation, etc. Comme en temps normal (c’est-à-dire sans les outils d’IAg), les auteurs doivent demeurer ultimement responsables de la qualité des contenus publiés.
La transparence joue également un rôle dans la qualité des contenus. Dans ce contexte, être transparent consiste à déclarer qu’on a utilisé des applications d’IAg et à décrire la manière dont elles ont été employées. Le niveau de détail de la description sera celui permettant à des tiers de comprendre et d’évaluer la crédibilité du travail, notamment dans le cadre d’une relecture par les pairs.
Originalité et intégrité
Le recours aux outils d’IAg soulève des enjeux sur le plan de l’originalité et de l’intégrité de la démarche et des résultats de recherche. Un outil d’IAg ne doit pas servir à générer des contenus que l’auteur s’attribuera sans avoir apporté lui-même une contribution significative. Cela équivaudrait à une forme de plagiat. Comme en temps normal, il y a des critères à remplir pour pouvoir se dire auteur d’un travail scientifique, dont le fait d’avoir rédigé le manuscrit ou l’avoir substantiellement révisé.
Notons que, dans le contexte de la rédaction scientifique assistée par l’IAg, la formulation de requêtes (instructions, prompt) à un système d’IAg est devenue une compétence en soi (ingénierie de prompt) qui pourrait peut-être, sous certaines conditions, être reconnue comme une contribution significative.
L’opacité des systèmes d’IA pose aussi des risques de plagiat et de violation de la propriété intellectuelle, puisque ces systèmes génèrent des contenus sans toujours être capables d’en préciser les sources. En effet, les systèmes d’IAg fonctionnent notamment grâce à un entrainement avec une quantité considérable de données, dont des études scientifiques. Il est donc possible, lors de la génération de contenus, qu’ils reprennent des éléments de recherches antérieures sans être capables d’en attribuer le crédit à leurs auteurs d’origine.
Déqualification
Le recours aux outils d’IAg menace le développement et la préservation de compétences humaines, un phénomène appelé « déqualification ». En effet, lorsque l’automatisation de certaines tâches réduit significativement les occasions d’exercer ses compétences, le manque de pratique risque d’entrainer une détérioration de ces dernières ainsi qu’une dépendance accrue aux technologies.
Appliquée au cas qui nous occupe, la déqualification risque de toucher des compétences telles que l’appropriation et la synthèse des connaissances existantes entourant le sujet de recherche, la conception d’hypothèses et d’idées originales, la structuration d’un texte scientifique, le développement d’une argumentation cohérente, l’analyse et l’interprétation de données, le jugement et la pensée critique, la rédaction claire et concise, etc. À plus long terme, cette déqualification des personnes pourrait réduire les capacités des institutions qui produisent des connaissances scientifiques.
Autres effets négatifs
Enfin, le recours aux systèmes d’IAg a d’autres effets négatifs, tels que l’uniformisation des articles scientifiques, les risques de fuites des données confidentielles et de la propriété intellectuelle entrées dans les systèmes d’IAg en ligne, les pertes d’emplois pour les étudiants, la détérioration de l’environnement (accroissement d’émission de GES, de la consommation d’électricité, d’eau, de composantes électroniques et de matériaux), etc.
Des humains qualifiés aux commandes
Les systèmes d’IAg n’étant pas entièrement fiables, l’humain doit rester dans la boucle. De manière à pouvoir diriger, superviser, évaluer, corriger, éditer le travail exécuté par les outils d’IAg, les chercheurs responsables du produit fini doivent être eux-mêmes hautement qualifiés. Or, en s’appuyant excessivement sur l’automatisation, les spécialistes risquent de se déqualifier et perdre progressivement les compétences leur permettant de s’assurer de la qualité des contenus générés par les outils d’IAg.
Qui plus est, pour se déqualifier, encore faut-il avoir été qualifié. Les compétences en recherche s’acquièrent par des années de travail humain assidu, tel un artisan remettant un nombre incalculable de fois son ouvrage sur le métier à tisser. Cela requiert pratique, répétition, patience, persévérance, application, expérience, perfectionnement. Or, si les nouvelles cohortes de chercheurs et chercheuses s’appuient excessivement sur l’automatisation pendant leur formation et ensuite lors de l’acquisition d’expérience pratique, elles auront beaucoup moins d’occasions de développer certaines compétences en recherche (pour des exemples de ces compétences, voir la section Déqualification). Ainsi, elles seront moins en mesure d’évaluer les extrants des machines, puis deviendront encore plus dépendantes de ces dernières.
Les systèmes d’éducation devront s’assurer que les personnes apprenantes continuent, à l’ère des systèmes d’IA, d’acquérir les qualités personnelles et les compétences leur permettant, en contexte de recherche, de demeurer aux commandes dans leur relation aux machines.
Consultez notre avis sur l’IA générative en enseignement supérieur

