L’intelligence artificielle dans la prestation des soins cliniques

L’intelligence artificielle dans le domaine de la santé

Les avancées en intelligence artificielle (IA) ont le potentiel de se traduire par de nombreuses applications dans le domaine de la santé. Différents secteurs seront touchés, notamment :

  • La recherche : L’IA peut identifier des corrélations ou des patterns dans de volumineux ensembles de données de différents types (ex. données cliniques, habitudes de vie, profil génétique, conditions socio-économiques, environnement physique, etc.). Ceci pourrait, par exemple, permettre de découvrir des facteurs de risque de maladies ou, au contraire, des déterminants de la santé.
  • L’organisation des soins : L’IA pourrait soutenir la planification des services de soin, favoriser une utilisation optimale des ressources (budget, matériel, personnel soignant et de soutien, triage à l’urgence, etc.) et améliorer les interactions des établissements avec les patients.
  • Les applications mobiles et les objets connectés : Certaines applications mobiles et objets connectés font appel à l’IA. Ces dispositifs peuvent notamment surveiller et évaluer en continue certains paramètres physiologiques du patient. Elles permettent de soutenir la prévention, le diagnostic et la gestion de la maladie.
  • La prestation des soins cliniques : L’IA peut soutenir ou remplacer des professionnels de la santé dans certaines tâches comme le diagnostic, l’évaluation du pronostic, le choix de traitement et les opérations chirurgicales de précision.

Afin de travailler en complémentarité avec d’autres organismes, comités de travail et partenaires, la Commission a décidé de porter sa réflexion sur les enjeux éthiques soulevés par l’IA dans la prestation des soins cliniques (diagnostic, prédiction, choix thérapeutiques). Elle portera une attention particulière à l’encadrement des instruments et dispositifs médicaux intégrant l’IA.

Enjeux éthiques

Les applications de l’IA dans la prestation des soins comportent différents problèmes éthiques qui doivent être évalués et gérés. En voici quelques exemples :

La qualité des systèmes d’IA

  • Fiabilité et sécurité : Les systèmes d’IA peuvent commettre des erreurs qui ont le potentiel de causer de sérieux torts, notamment lorsqu’il s’agit de soutenir le médecin dans le diagnostic et le choix d’une option thérapeutique. Il faut donc évaluer la fiabilité des systèmes d’IA.
  • Neutralité : Les applications en IA peuvent reproduire ou renforcer des biais existants, ou encore introduire de nouveaux biais. Ces biais peuvent être introduits au stade de la programmation ou lors de l’entrainement des machines à l’aide de grandes quantités de données. Par exemple, lorsque les machines sont entrainées avec des données historiques, les extrants des systèmes d’IA auront tendance à se conformer aux extrants passés.

L’autonomie

  • Autonomie des patients : Certaines applications en IA, telles que les applications mobiles de santé et les objets connectés, peuvent favoriser l’autonomie des patients ou le maintien à domicile de personnes vulnérables. Au contraire, l’opacité de certains systèmes d’IA qui permettent de proposer des options thérapeutiques limite la capacité du patient de consentir de manière éclairée.
  • Autonomie professionnelle : Les systèmes d’IA qui posent des diagnostics et recommandent des protocoles thérapeutiques peuvent réduire l’autonomie des professionnels de la santé.

La relation patient-médecin

Certains observateurs craignent que le recours aux systèmes d’IA réduise le patient à un agrégat de données et dégrade la qualité de la relation patient-médecin. L’écoute humaine et l’empathie sont une composante essentielle de cette relation en ce qu’elle accroit la confiance et la qualité des soins. Au contraire, d’autres experts croient que l’assistance de l’IA libérera les professionnels de la santé de certaines tâches accaparantes et leur permettra de consacrer une plus grande part de leur temps à la relation avec le patient.

La responsabilité et l’imputabilité

  • Transparence : Il peut être ardu, voire impossible de découvrir la logique sur laquelle s’appuient les systèmes d’IA (problème de la boite noire), que ce soit parce que le système est protégé par le secret commercial ou en raison de la complexité et de l’auto-transformation des algorithmes. Les millions de paramètres des algorithmes d’apprentissage profond sont optimisés automatiquement et il est souvent impossible de comprendre comment ces paramètres fonctionnent et interagissent entre eux pour produire un résultat donné. Par conséquent, il devient difficile de valider et de justifier les extrants de ces systèmes.
  • Attribution de la responsabilité : Qui sera tenu responsable en cas de défaillance des systèmes d’IA? Lorsque des erreurs surviennent, l’attribution de la responsabilité (causale) devient difficile dans un contexte où interviennent une multitude d’acteurs tels que des professionnels de la santé, des machines, ainsi que des professionnels des technologies de l’information et des communications (many hands problem).

La justice

  • Accroissement des inégalités : Il faut s’assurer que l’implantation de l’IA dans la prestation des soins n’accroisse pas les inégalités. Lorsque les algorithmes sont entrainés avec des données historiques, cela peut introduire des biais qui peuvent perpétuer ou amplifier des inégalités existantes (cf. « neutralité » plus haut). Cela dit, même des algorithmes neutres ont le potentiel d’accroitre les inégalités si leur implantation affecte certains groupes disproportionnellement.
  • Individualisation des profils de risques : L’IA permet de faire des profils de risques individualisés et prédictifs de plus en plus précis. Ceci menace la mutualisation des risques, fondée sur la valeur de solidarité, qui caractérise nos modèles collectifs d’assurance des soins.

L’accès et la protection des données

Des quantités substantielles de données sont nécessaires afin d’entrainer des systèmes d’IA robustes et précis. Une des principales limites au progrès en IA appliquée àla santé est le manque de données en lien avec la santé. Encore trop peu de données sont collectées et elles ne sont souvent pas standardisées ou utilisables par des machines. Concernant les données disponibles, il faut trouver un équilibre entre un accès qui permet, d’une part, l’exploitation des données au bénéfice de la santé des populations et, d’autre part, la protection des données et le respect de la vie privée.

Notre équipe