Intelligence artificielle - Santé

Applications de l’intelligence artificielle dans le domaine de la santé

Les avancées en intelligence artificielle (IA) ont le potentiel de se traduire par de nombreuses applications dans le domaine de la santé. Différents secteurs seront touchés, notamment :

  • L’organisation des soins de santé : L’IA pourrait soutenir la planification des services de soin, favoriser une utilisation optimale des ressources (budget, matériel, personnel soignant et de soutien, etc.) et améliorer les interactions avec les patients.
  • La prestation des soins cliniques : L’IA peut appuyer ou remplacer des professionnels de la santé dans certaines tâches comme le diagnostic (ex. analyse d’imageries médicales), le choix de traitement (collecte et analyse des données probantes), et les opérations chirurgicales de précision.
  • Les « apps » de santé : Certaines applications numériques (apps) font appel à l’IA. Ces apps peuvent notamment surveiller et évaluer en continue certains paramètres physiologiques du patient. Elles permettent de soutenir la prévention et la gestion de la maladie.
  • La recherche : L’IA peut identifier des corrélations et des patterns dans de volumineux ensembles de données de différents types (ex. habitudes de vie, génétique, conditions socio-économiques, environnement physique, etc.). Elle peut aussi analyser des ensembles de données et de résultats de recherches scientifiques afin de prédire des cibles médicamenteuses de manière à accélérer le développement de produits pharmaceutiques.

Exemples d’enjeux éthiques

Les applications de l’IA dans le domaine de la santé comportent différents risques éthiques qui doivent être évalués et gérés. En voici quelques exemples :

  • Fiabilité et sécurité : L’IA peut commettre des erreurs qui ont le potentiel de causer de sérieux torts, notamment lorsqu’il s’agit de soutenir le médecin dans le diagnostic et choix d’une option thérapeutique.
  • Attribution de la responsabilité : Lorsque des erreurs surviennent, l’attribution de la responsabilité devient complexe dans un contexte où interviennent une multitude d’acteurs tels que des professionnels de la santé, des machines, ainsi que des professionnels des technologies de l’information et des communications.
  • Protection des données : Les applications en IA dans le domaine de la santé reposent sur différents types de données sensibles qui doivent être protégées. Par exemple, les systèmes d’IA pourraient être piratés de manière à porter atteinte à la vie privée des personnes et à les exposer à des préjudices.
  • Biais et équité : Les applications en IA peuvent reproduire ou renforcer des biais existants puis entrainer des iniquités. Les biais peuvent être introduits au stade de la programmation ou lors de l’entrainement des machines à l’aide de grandes quantités de données. Par exemple, si les données ne sont pas représentatives de la diversité de la population, les extrants des systèmes d’IA ne seront pas adaptés à certains groupes.
  • Transparence et imputabilité : Il peut être laborieux, voire impossible de découvrir la logique sur laquelle s’appuient les systèmes d’IA (problème de la boite noire), que ce soit parce que le système est protégé par le secret commercial ou en raison de la complexité et de l’autotransformation des algorithmes. Par conséquent, il devient difficile de justifier et de valider les extrants de ces systèmes. Or, ces extrants peuvent avoir des impacts importants sur les personnes et doivent donc être justifiés.
  • L’autonomie des patients : Certaines applications en IA, telles que les apps de santé, peuvent favoriser l’autonomie puis le maintien à domicile de personnes vulnérables. Au contraire, l’opacité de certains systèmes (boite noire) qui permettent de faire des diagnostics et de proposer des options thérapeutiques limite la capacité du patient de consentir de manière éclairée.
  • L’autonomie professionnelle : Les systèmes d’IA qui posent des diagnostics et recommandent des protocoles thérapeutiques peuvent remettre en question l’expertise des professionnels de la santé et réduire leur autonomie. Or, l’autonomie du professionnel lui permet de prendre en considération des facteurs pouvant échapper à la machine (ex. signaux et contexte psychosociaux) afin de mieux personnaliser les soins.

Contexte du projet

Différents éléments contextuels expliquent le choix de la Commission de l’éthique en science et en technologie de travailler sur l’intelligence artificielle en santé dans le cadre d’une collaboration avec la France :

  • La Stratégie numérique du Québec : La Stratégie numérique du Québec, dévoilée en décembre 2017, appelle à une transformation numérique en santé. Elle précise que : « les nouvelles technologies serviront de leviers pour accélérer cette transformation. L’analytique avancée, l’intelligence artificielle et l’internet des objets offrent un potentiel immense pour améliorer les soins de santé ».
  • La Stratégie québécoise des sciences de la vie : La Stratégie québécoise des sciences de la vie 2017-2027 présente l’exploitation des données massives comme un créneau transversal à renforcer afin de faciliter l’analyse de situations complexes et la prise de décisions : « Cette nouvelle filière de développement social et économique réunit plusieurs spécialités telles que la science des données, l’apprentissage profond, l’intelligence artificielle, la recherche opérationnelle et l’optimisation ».
  • Rencontre avec des membres du CCNE à Paris : En mai 2018, le président de la CEST a rencontré le président et des membres du Comité consultatif national d'éthique pour les sciences de la vie et de la santé (CCNE) dans le cadre des États généraux de la bioéthique 2018 à Paris. L’IA a été un des thèmes discutés pendant la rencontre. L’idée d’une éventuelle collaboration entre le CCNE et la CEST a été soulevée.
  • La Déclaration franco-canadienne sur l’intelligence artificielle : Dans la foulée du Sommet du G7 en juin 2018 à Charlevoix, les gouvernements canadiens et français ont annoncé la signature de la Déclaration franco-canadienne sur l’intelligence artificielle. La Déclaration appelle à la création d’un groupe international d’experts qui se penchera notamment sur les enjeux éthiques liés à l’IA. La France et le Québec avaient déjà soulevé l’idée d’une collaboration en éthique de l’IA en avril 2018 lors d’une conférence organisée par le Conseil des Relations Internationales de Montréal.

Les travaux dans ce dossier sont au stade préliminaire. La prochaine étape consistera à déterminer le secteur d’application de l’IA (ex. soins cliniques, recherche) qui fera l’objet de l’analyse éthique de la Commission.  

Trousse de consultation