L’intégration croissante de l’intelligence artificielle (IA) dans le domaine de la santé offre des perspectives prometteuses, mais soulève également des défis juridiques et éthiques majeurs, notamment en ce qui concerne l’utilisation des données de santé.
Protection des données personnelles
Les données de santé sont classées parmi les informations les plus sensibles, nécessitant une protection rigoureuse. En Europe, le Règlement général sur la protection des données (RGPD) encadre strictement leur traitement. L’article 9 du RGPD interdit, en principe, le traitement des données de santé, sauf dans des conditions spécifiques, telles que le consentement explicite de la personne concernée ou des motifs d’intérêt public dans le domaine de la santé publique. De plus, l’article 22 du RGPD accorde aux individus le droit de ne pas faire l’objet de décisions fondées exclusivement sur un traitement automatisé, y compris le profilage, lorsqu’elles produisent des effets juridiques les concernant ou les affectant de manière significative. Cette disposition est particulièrement pertinente dans le contexte de l’IA en santé, où des décisions automatisées peuvent avoir des conséquences importantes sur les patients.
En France, la Loi Informatique et Libertés de 1978, modifiée pour se conformer au RGPD, renforce ces protections en imposant des obligations supplémentaires aux responsables de traitement, notamment en matière de sécurité des données et de respect des droits des patients.
Responsabilité en cas d’erreur de l’IA
La détermination de la responsabilité en cas d’erreur commise par une IA médicale est complexe. Plusieurs acteurs peuvent être impliqués : le développeur de l’algorithme, le professionnel de santé qui utilise l’outil, ou l’établissement de santé qui l’a adopté. Le cadre juridique actuel, notamment la directive européenne sur la responsabilité du fait des produits défectueux, pourrait s’appliquer si l’IA est considérée comme un produit. Cependant, la notion de « défaut » doit être adaptée aux spécificités des algorithmes d’apprentissage automatique, qui peuvent évoluer au fil du temps. Par ailleurs, la responsabilité civile délictuelle pourrait être engagée en cas de faute prouvée d’un des acteurs. Ces questions sont encore en débat et nécessitent une clarification juridique.
Transparence et explicabilité des algorithmes
La transparence des algorithmes est essentielle pour garantir la confiance des patients et des professionnels de santé. Le RGPD impose une obligation de transparence, exigeant que les individus soient informés de la logique sous-jacente aux traitements automatisés les concernant. Cependant, de nombreux algorithmes d’IA, notamment ceux basés sur l’apprentissage profond, sont souvent qualifiés de « boîtes noires » en raison de leur complexité et de leur manque d’explicabilité. Cette opacité pose des défis en matière de conformité juridique et d’éthique, car il est difficile d’expliquer aux patients comment une décision médicale a été prise par une IA.
Biais et discrimination algorithmique
Les algorithmes d’IA peuvent reproduire ou amplifier des biais présents dans les données sur lesquelles ils sont entraînés, conduisant à des discriminations, notamment en matière d’accès aux soins. Par exemple, une IA entraînée sur des données majoritairement issues d’une population spécifique pourrait être moins précise pour d’autres groupes démographiques. Le RGPD interdit les traitements de données qui aboutissent à une discrimination injustifiée. Il est donc crucial de mettre en place des mesures pour identifier et corriger ces biais, afin de garantir l’équité des systèmes d’IA en santé.
L’intégration de l’intelligence artificielle (IA) dans le secteur de la santé est une tendance mondiale qui suscite des initiatives réglementaires variées pour encadrer l’utilisation des données de santé. Voici un panorama des cadres juridiques internationaux en la matière.
Union européenne : un cadre pionnier
L’Union européenne (UE) a adopté le 21 mai 2024 le Règlement sur l’intelligence artificielle, connu sous le nom d’IA Act. Ce texte, considéré comme la première réglementation globale sur l’IA, vise à garantir la sécurité des systèmes d’IA et le respect des droits fondamentaux. Il établit une classification des systèmes d’IA en fonction de leur niveau de risque : inacceptable, élevé ou limité. Les applications en santé sont généralement classées comme à « haut risque », imposant aux développeurs des obligations strictes en matière de collecte, de protection et de traçabilité des données, ainsi que de transparence envers les patients.
Parallèlement, l’UE travaille à la mise en place de l’Espace européen des données de santé (EEDS), visant à interconnecter les bases de données sanitaires des 27 États membres. Cette initiative vise à faciliter l’innovation et le développement de services de santé, tout en garantissant la protection des données personnelles.
Conseil de l’Europe : une approche axée sur les droits humains
Le 17 mai 2024, le Conseil de l’Europe a adopté un traité international visant à garantir que l’utilisation de l’IA respecte les droits fondamentaux, la démocratie et l’État de droit. Ce traité, une fois ratifié, constituera le premier instrument juridique contraignant en la matière, établissant des normes pour l’utilisation de l’IA, y compris dans le domaine de la santé.
Organisation mondiale de la santé : principes directeurs pour l’IA en santé
En juin 2021, l’Organisation mondiale de la santé (OMS) a publié un rapport établissant six principes directeurs pour l’utilisation de l’IA en santé :
- Protéger l’autonomie de l’être humain.
- Promouvoir le bien-être et la sécurité des personnes ainsi que l’intérêt public.
- Garantir la transparence, la clarté et l’intelligibilité.
- Encourager la responsabilité et l’obligation de rendre des comptes.
- Garantir l’inclusion et l’équité.
- Promouvoir une IA réactive et durable.
Ces principes visent à guider les pays dans l’élaboration de cadres réglementaires assurant une utilisation éthique et sécurisée de l’IA en santé.
Canada : une réglementation en évolution
Au Canada, il n’existe pas encore de cadre réglementaire spécifique à l’IA en santé. Toutefois, les lois fédérales et provinciales sur la protection des renseignements personnels, l’approbation des dispositifs médicaux et la non-discrimination s’appliquent aux technologies utilisant l’IA dans le domaine de la santé. Les autorités canadiennes travaillent actuellement à l’élaboration de directives spécifiques pour encadrer l’utilisation de l’IA en santé.
États-Unis : une approche sectorielle
Aux États-Unis, la Food and Drug Administration (FDA) est l’agence principale chargée de la régulation des dispositifs médicaux intégrant de l’IA. La FDA a publié des directives pour l’évaluation et l’approbation de ces technologies, mettant l’accent sur la sécurité, l’efficacité et la transparence. Cependant, il n’existe pas encore de cadre réglementaire fédéral spécifique à l’IA en santé, et les approches peuvent varier selon les États.
Vers une harmonisation internationale
Face à la diversité des approches réglementaires, des efforts sont en cours pour harmoniser les cadres juridiques au niveau international. Des initiatives telles que le projet FUTURE-AI visent à établir des lignes directrices consensuelles pour le développement et le déploiement d’une IA digne de confiance en santé, en s’appuyant sur des principes tels que l’équité, la transparence et la robustesse.
Sources :
lesentreprisesdumedicament.com
Catherine Régis, Gabrielle Beetz, Janine Badr, Alexandre Castonguay, Martin Cousineau, Philippe Després, Joé T. Martineau, Aude Motulsky, Jean Noel Nikiema, Cécile Petitgand, « ASPECTS JURIDIQUES
DE L’IA EN SANTÉ », Observatoire international sur les impacts sociétaux de l’IA et du numérique, Québec, Canada, Mars 2022