Commission de l'éthique en science et en technologie

FERMETURE DES BUREAUX - Veuillez noter qu'en raison de la crise sanitaire liée à la pandémie de COVID-19, la CEST réalise l'ensemble de ses activités en mode virtuel seulement. Pour nous contacter

Intelligence Artificielle : Peut-on produire des algorithmes parfaitement neutres?

En octobre 2016, la Maison Blanche publiait le rapport du Conseil national de la science et de la technologie américain portant sur l’intelligence artificielle (IA). Ce rapport fait état des avancées anticipées et des préoccupations du gouvernement américain à propos des impacts attendus de la prolifération des innovations en IA. Le rapport se termine avec 23 recommandations à mettre en place pour baliser la recherche et l’innovation en IA.

21 octobre 2016 Intelligence artificielle, Technologies de l'information et des communications

Partager cette page

Nous avons déjà à quelques reprises abordé certains aspects de l’IA touchant les algorithmes de profilage, la mécanisation des tâches. Ce qui retient cette fois notre attention est plus particulièrement lié aux possibilités de biais dans les algorithmes et plus spécifiquement à la possibilité de les éviter. La Maison Blanche y fait référence dans le rapport précédemment cité et recommande, entre autre, que les universités offrant des formations en IA intègrent au cursus des cours portant sur l’éthique et la sécurité. C’est qu’il a été démontré que les algorithmes répètent les biais des humains qui les ont créés. Ces biais ne sont pas nécessairement volontairement intégrés aux datas, mais entraînent néanmoins des résultats biaisés. Des occurrences ont été notées notamment sur un système utilisé par les forces de l’ordre américaines utilisant l’IA pour prédire les possibilités de récidive de criminels. L’algorithme amplifiait un biais raciste, augmentant de manière significative les possibilités de récidives des personnes non blanches.

Pour éviter ce type de dérives, les chercheurs proposent d’introduire un algorithme « normalisant » qui pourrait permettre de neutraliser les biais dès que la machine les détecte.

Mais des questions demeurent. Comment faire pour repérer les biais qui doivent être neutralisés? Sur quelle base juge-t-on qu’il s’agit de biais? N’introduirait-on pas un autre biais en voulant éviter le premier? Les chercheurs croient qu’en multipliant les expériences et l’information fournies à la machine, celle-ci, puisant dans des data plus vastes, en viendrait à éviter les biais. Cependant, comment pourra-t-on éviter, même avec les meilleures intentions, qu’une machine introduise d’elle-même des biais, si ce qui lui est demandé est de « réfléchir » à la manière des humains?

Évidemment, beaucoup de recherche doit encore être faite. Mais cette prise de conscience de biais, qu’ils soient introduits volontairement ou involontairement, ainsi que des conséquences qu’ils peuvent induire, demande à ce que l’utilisation de l’IA dans des contextes où une neutralité complète est souhaitée, porte à réfléchir.

Si l’enregistrement des fichiers de témoins est activé sur votre navigateur, la visite de ce site placera un fichier de témoins sur votre ordinateur, ou un fichier de témoins sera lu si vous avez déjà visité ce site auparavant. Notre utilisation des fichiers de témoins vise uniquement à améliorer votre expérience comme utilisatrice ou utilisateur sur le site Web de la Commission.