Commission de l'éthique en science et en technologie

FERMETURE DES BUREAUX - Veuillez noter qu'en raison de la crise sanitaire liée à la pandémie de COVID-19, la CEST réalise l'ensemble de ses activités en mode virtuel seulement. Pour nous contacter

Les enjeux éthiques que soulèvent les algorithmes

Un algorithme applique une suite de règles formelles pour résoudre un problème donné. Comment faire pour que la solution soit neutre si les règles sont tirées d'une société biaisée? 

7 juillet 2021 Intelligence artificielle, Technologies de l'information et des communications

Partager cette page

Avez-vous déjà entendu parler de la chambre chinoise?

Au début des années 80, le philosophe américain John Searle propose l’expérience de pensée suivante : supposons que vous faites partie d’une expérimentation sur le langage et que quelqu’un vous donne une liasse de notes sur lesquelles sont inscrits des mots en langue chinoise. Pour vous, qui ne parlez pas chinois, ces inscriptions ne sont que des symboles que vous ne comprenez pas et qui ne représentent rien. Le responsable de l’expérience vous donne des règles pour apprendre comment associer les symboles que vous voyez. Grâce à ces règles, vous parvenez à associer les symboles entre eux. Ce que vous ne savez pas, c’est que les symboles associés forment des phrases. Maintenant, imaginons qu’un sinophone étranger aux paramètres de l’expérience vous observe à travers une vitre. Il voit que le responsable de l’expérience vous montre des phrases et que vous répondez avec des symboles adéquats. Du point de vue de l’observateur extérieur, vous parlez donc très bien chinois. Par ailleurs, n’importe qui vous connaissant saurait que vous ne parlez pas le chinois. Il est intuitif pour l’être humain de comprendre que l’association sans compréhension n’est pas réellement une connaissance[1].

John Searle utilise cette expérience de pensée pour montrer que les ordinateurs et les programmes informatiques, qui fonctionnent par l’application de règles formelles (la syntaxe), ne sont pas en mesure, du moins pour l’instant, de comprendre le sens des mots et des phrases (la sémantique) comme le peuvent les êtres humains. Or, la compréhension du sens et la connaissance sont le propre de l’esprit humain, plus que l’application mécanique de règles. Selon Searle, l’intelligence artificielle ne peut donc être qu’une intelligence faible.

Cette expérience de pensée a été proposée en 1980 et, depuis, de nombreuses avancées technologiques ont permis d’imaginer un système d’intelligence artificielle fonctionnant de manière à créer de nouvelles connexions comme le font les neurones humains. N’empêche, pour résoudre des problèmes, les algorithmes associent des symboles dont ils ne se représentent vraisemblablement pas le sens. Aux yeux de quelqu’un qui est extérieur à l’ordinateur, l’algorithme parait réfléchir et comprendre, tout comme vous avez semblé le faire dans la chambre chinoise. Les algorithmes et les intelligences artificielles n’ont cependant pas d’esprit propre et ne raisonnent pas par eux-mêmes; ils ne peuvent donc pas être imputables des erreurs et des paradoxes qu’ils créent. Ce sont les programmeurs qui le sont. Lorsqu’il est prouvé qu’un algorithme comporte des biais raciaux, sexistes ou culturels, c’est conséquemment le reflet d’un biais proprement humain ou de l’incapacité à obtenir un jeu de données parfaitement représentatif.

L’éthique des algorithmes

La plupart des algorithmes reproduisent des biais sociaux. Prenons un exemple : si un algorithme servant à déterminer le salaire de base d’un employé tire ses calculs d’un ensemble de données statistiques sur les salaires historiquement donnés au Québec pour cet emploi, il se peut qu’à diplomation égale une femme se fasse donner un salaire moins élevé qu’un homme, car statistiquement, les femmes sont moins bien payées. L’algorithme reproduit dans ce cas un biais sexiste, même si ce n’était pas l’intention des programmeurs. L’enjeu des biais algorithmiques a été soulevé il y a déjà un moment et un biais aussi évident que cet exemple serait aujourd’hui facilement évité. Cependant, la technique utilisée pour éviter un biais peut causer l’apparition d’autres biais ou être jugée injuste. En 2016, il était prouvé que COMPAS, un outil algorithmique utilisé dans le domaine judiciaire aux États-Unis et associant un risque de récidive à un accusé, avait des biais raciaux alarmants. Pour un crime similaire, et à dossiers antécédents pratiquement égaux, les personnes noires recevaient une note de risque beaucoup plus élevée que les personnes blanches. Comment faire, alors, pour corriger l’algorithme? Dans le cas de COMPAS, certains ont discuté de la pertinence d’introduire un biais positif à l’égard des personnes noires dans l’algorithme pour contrer le biais social négatif. D’autres ont argué que cette réponse était discriminatoire à l’égard des caucasiens. De cette façon, l’éthique des algorithmes force les philosophes et les programmeurs à se pencher sur l’égalité et l’équité; à se demander laquelle de ces deux notions devrait être privilégiée, et surtout, de quelle manière. Existe-t-il un algorithme parfaitement neutre? Difficile à dire, mais encore plus difficile à concevoir.

Au-delà des biais directs, les algorithmes peuvent également produire des formes de discrimination indirecte. Laura Blattner et Scott Nelson publiaient en mai 2021 « How Costly is Noise? Data and Disparities in Consumer Credit ». Dans cette étude, l’autrice et l’auteur exposent le problème de la disparité dans la collecte de données alimentant les algorithmes sur le crédit.  Pour déterminer le risque d’un prêt, les banquiers se fient à des algorithmes basés sur des scores de crédit. Ces algorithmes sont entrainés selon les données d’usagers utilisant largement leur crédit. Les algorithmes permettant aux banquiers d’évaluer le risque d’un prêt bancaire discriminent donc indirectement les classes moins bien desservies en ce qui concerne le crédit. En effet, les données recueillies sont pour ces groupes des données bruyantes (noisy data), c’est-à-dire que les prédictions des algorithmes sont imprécises et, parfois, totalement fausses. Certains membres de la société s’en voient discriminés, pas par biais, mais par non-représentativité. Pour cette raison, il est important de tester les algorithmes selon différents « points de vue » sociaux.

Parfois, les algorithmes sont tout simplement imprécis et, de ce fait, contribuent à une censure inutile. À titre d’exemple, plusieurs algorithmes sont entrainés pour reconnaître les messages haineux sur Internet, mais ne parviennent pas à distinguer ce qu’est réellement une insulte. Certaines phrases haineuses sont facilement reconnaissables, mais les messages malveillants sont généralement profondément humains, en ce sens qu’ils sont imprévisibles, changeants, sarcastiques et insaisissables. Plusieurs mots utilisés dans un contexte positif peuvent être utilisés dans des messages haineux. Au contraire, des messages haineux comportent souvent des termes pouvant également avoir une vocation éducative. À cet égard, il serait contre-productif de bannir du contenu qui offre une éducation sexuelle saine à cause d’un algorithme ayant été entrainé pour détecter les insultes sexuelles. Plusieurs utilisateurs du média social TikTok se sont plaints d’avoir été bannis à cause de leurs références à la communauté LGBTQ, même s’ils le faisaient positivement.

 

De la logique à l’éthique : transparence et pluralisme

Créer et superviser des algorithmes, c’est à la fois se poser des questions sur la justice des calculs, la justesse des données et la représentativité des différentes classes sociales. C’est ainsi faire de « l’éthique à l’échelle algorithmique ». La logique formelle oppose deux conceptions claires : vrai et faux. Contrairement à cette logique, l’éthique n’est pas formelle; elle exclut rarement tout malentendu et ses conclusions ne peuvent pas toujours être nettes et tranchées. Coder l’éthique revient à effacer ses nuances, car la binarité du code ne les permet pas. L’éthique des algorithmes est dans ce sens une éthique très particulière.

On a tous déjà entendu le questionnement de la voiture autonome : comment doit-on programmer une voiture intelligente lorsqu’elle doit faire un choix éthique? Si elle se retrouve dans un accident et doit impérativement choisir entre foncer vers une personne ou vers la chaussée, que doit-elle faire? Lorsqu’un humain doit faire un choix de cet ordre, on conçoit facilement que le choix n’en est pas vraiment un, car l’être humain réagit très difficilement aux situations qui comportent un tel niveau de pression. La rapidité et l’imprévisibilité d’une telle situation dédouane les parties impliquées de leur devoir éthique. Or, dans le cas de l’automobile intelligente, les programmeurs ne peuvent se dégager de cette responsabilité. La compagnie automobile se doit de choisir une ligne morale claire: l’automobile percutera-t-elle le mur ou le passant? Pour quelles raisons? Choisira-t-elle d’épargner le plus grand nombre de personnes en suivant une éthique utilitariste ou choisira-t-elle de rester dans la même lancée, peu importe qui elle frappe, car le hasard justifie l’accident? Dans tous les cas, il faudra que cette prise de position éthique soit encadrée par la loi et rendue publique pour que les acheteurs puissent faire un choix éclairé selon leurs valeurs. L’une des possibilités que peut présenter l’utilisation d’algorithmes réside dans cet enjeu : « l’éthique des algorithmes force les philosophes à se plier aux exigences de transparence et de précision du « paramétrage éthique » (ou éthiquement pertinent) d’un système d’intelligence artificielle » (Martin Gibert, 2020). Sans transparence, il est impossible de surveiller ou de repérer les biais.

L’absence de nuances, nécessaire pour le fonctionnement algorithmique, est une opportunité de réfléchir au cadre éthique de notre utilisation des technologies selon une pluralité de visions. Le pluralisme ne garantit pas l’absence de biais, mais l’absence de pluralisme garantit presque toujours une introduction de biais dans les algorithmes, volontaires ou non. Par ailleurs, en 2019, les femmes représentaient uniquement 18% du bassin de talents en IA. Pour tendre vers des algorithmes neutres, il faudra plus de diversité en IA. En attendant, il est important de soulever les enjeux éthiques des algorithmes et d’impliquer l’ensemble de la population dans la réflexion.

En alliant plusieurs voix dans le domaine de l’intelligence artificielle, on peut tendre vers des algorithmes plus neutres et opérer un aplanissement des biais sociaux. Sans une pluralité d’opinions, les systèmes d’IA ne peuvent s’adresser qu’à des groupes restreints de personnes ayant des valeurs similaires. Enfin, pour que les algorithmes aient la prétention d’offrir une réflexion pluraliste et éthique, il faut qu’il y ait une fusion, chez les programmeurs comme dans nos conceptions philosophiques générales, entre l’éthique et la logique, entre les implications morales et techniques des algorithmes.

 

[1] Searle, J. Minds, Brain and Programs, « Behavioral and Brain Sciences », vol. 3, no 3, p. 417-424, 1980.

 

 

 

 

Si l’enregistrement des fichiers de témoins est activé sur votre navigateur, la visite de ce site placera un fichier de témoins sur votre ordinateur, ou un fichier de témoins sera lu si vous avez déjà visité ce site auparavant. Notre utilisation des fichiers de témoins vise uniquement à améliorer votre expérience comme utilisatrice ou utilisateur sur le site Web de la Commission.