Du potentiel… aux nouveaux dilemmes
Les performances de l’IA en santé fascinent. Selon une étude du MIT (2023), les algorithmes de deep learning spécialisés peuvent détecter des pathologies sur radio ou scanner avec une précision équivalente, voire supérieure, à celle d’un radiologue humain dans certaines situations précises (Jha & Topol, NEJM, 2024). Les promesses sont tangibles :
- Réduire l’erreur de diagnostic
- Optimiser le choix des traitements
- Individualiser la prévention
- Fluidifier les parcours de soins
Cependant, ces mêmes outils déplacent la frontière de l’autonomie médicale, ouvrant la voie à des décisions dont la complexité échappe parfois à la sagacité humaine. Le collectif anglais “Future of Humanity Institute” signale en 2022 que près de 22% des professionnels interrogés ont déjà été confrontés à des choix où l’origine de la décision (humaine ou algorithmique) restait opaque lors d’une prise en charge automatisée.
L’éthique médicale : principes fondateurs et nouveaux enjeux
L’éthique médicale s’articule historiquement autour de quatre principes majeurs :
- Bénéfique (bienfaisance) : agir au meilleur intérêt du patient
- Non-malfaisance : éviter de nuire
- Autonomie : respecter les choix de la personne
- Justice : garantir l’équité de l’accès et des soins
L’IA met sous tension chacun de ces piliers : Comment être sûr que ses recommandations sont justes ? Les biais algorithmiques peuvent-ils renforcer les inégalités ? Un patient peut-il vraiment consentir à une décision qu’il ne comprend pas ? Qui porte la responsabilité en cas d’erreur ?
La question cruciale des biais algorithmiques
L’un des risques les plus documentés de l’IA médicale, c’est la question des biais. Les algorithmes ne sont pas neutres : ils apprennent à partir de données historiques, elles-mêmes intégrant, consciemment ou non, les biais sociaux et structurels du passé.
- Une étude publiée dans Science (Obermeyer et al., 2019) a ainsi démontré qu’un logiciel d’aide à la décision utilisé aux États-Unis sous-évaluait systématiquement les besoins médicaux des patients afro-américains, car l’historique utilisé reposait sur des dépenses de santé, elles-mêmes corrélées à un moindre accès aux soins.
- En 2022, Health Affairs signalait qu’en cancérologie, certains algorithmes de prédiction de risque étaient 30% moins performants sur des groupes ethniques sous-représentés dans les bases de données d’apprentissage.
Ce phénomène n’est pas limité à la dimension ethnique. Des biais de genre, d’âge, de statut socio-économique sont régulièrement mis en évidence, ce qui interroge directement le principe d’équité en médecine.
Transparence et explicabilité : vers des “boîtes noires” maîtrisées ?
L’efficacité d’un système d’IA ne suffit pas : la confiance des professionnels et des patients passe par la possibilité de comprendre, ou du moins de retracer, le processus menant à une décision.
- Selon l’enquête MedTech Europe 2022, 56% des médecins déclarent hésiter à agir sur une recommandation algorithmique dont ils ne pourraient expliquer la logique à leur patient.
Aujourd’hui, les modèles de deep learning – ceux utilisés en imagerie, par exemple – sont qualifiés de “boîtes noires” : leur fonctionnement repose sur des millions de paramètres souvent impossibles à interpréter intuitivement pour le clinicien. Face à cet enjeu, deux axes se dégagent :
- Recherche en “explainable AI” (XAI) : offrir des outils pour rendre lisibles les raisonnements de l’IA (priorisation des critères, visualisation des zones d’image, etc.).
- Encadrement réglementaire : le règlement européen sur l’IA (projet AI Act, 2024) impose que tout système à haut risque en santé soit “compréhensible et explicable aux utilisateurs”.
Responsabilité : qui répond des décisions de l’IA ?
La responsabilité médicale s’appuie traditionnellement sur le professionnel (individu ou institution). L’introduction d’une IA change cette donne.
- En 2021, la Commission européenne préconisait une responsabilité partagée entre les développeurs d’algorithmes et les utilisateurs cliniques, chaque partie devant pouvoir documenter sa part de l’action.
- Dans les faits, la jurisprudence reste balbutiante : la première affaire judiciaire en France impliquant un algorithme médical (2019) n’a pas encore tranché clairement la question de la faute en cas d’erreur.
La question prend aussi une tournure pratique : comment documenter le cheminement d’une décision hybride ? Faut-il imposer la traçabilité des interactions homme-machine dans le dossier médical ?
Consentement éclairé à l’ère des algorithmes
Le droit au consentement éclairé, pilier du soin, est aujourd’hui confronté à la complexité des systèmes d’IA. Un patient peut-il comprendre l’impact d’un algorithme sur sa prise en charge, surtout quand lui-même – ainsi que parfois le soignant – n’accède pas à l’intelligibilité du raisonnement ?
-
Un rapport du Conseil National d’Éthique allemand (2023) souligne que trois conditions devraient s’imposer :
- Expliciter au patient à quel moment une décision impliquant l’IA est prise
- Lui offrir un “droit de recours” humain face à la machine
- Garantir un accompagnement pour la compréhension des enjeux
L’OMS, de son côté (rapport 2022), insiste sur la co-décision : “L’IA ne doit jamais se substituer totalement à l’humain dans les moments-clés de la relation thérapeutique.”
Des exemples concrets d’enjeux éthiques sur le terrain
Au-delà des principes, les problématiques se déclinent au quotidien :
- Télémédecine et triage automatisé : l’usage d’IA pour prioriser les demandes d’urgence a soulevé des polémiques au Royaume-Uni (NHS 111 Online, 2020), certains patients ayant été orientés à tort vers des soins légers malgré des symptômes graves non détectés par le système.
- Diagnostic dermatologique assisté : une étude menée en France (CNRS, 2022) a révélé que si l’algorithme présentait un taux de précision supérieur à 90%, il “surtraitait” certains types de lésions bénignes, parmi des populations sous-représentées dans les jeux de données.
Ces cas illustrent la nécessité d’une vigilance permanente, ainsi que la participation de toutes les parties prenantes (patients, soignants, concepteurs) dans l’évaluation et l’ajustement des outils.
Le rôle essentiel de la formation et de l’interdisciplinarité
Garantir des décisions responsables, c’est aussi investir dans la formation des professionnels. Si 72% d’entre eux déclarent, selon l’Ordre des Médecins (2023), vouloir utiliser des outils d’IA, seuls 28% se sentent aujourd’hui “à l’aise” pour en comprendre les limites et les biais.
- Former aux fondamentaux de l’IA : recommandations, limites, zones de pertinence
- Sensibiliser aux enjeux techniques et éthiques dans le cursus des étudiants en santé
- Encourager les équipes pluridisciplinaires : le dialogue régulier entre ingénieurs, data scientists, médecins et représentants des patients est un levier majeur pour le repérage et la correction rapide des dérives
Des expériences menées en Suisse (Hôpitaux Universitaires de Genève, 2021) montrent que l’intégration précoce de séminaires interprofessionnels favorise l’adoption d’une culture de questionnement, clé d’un usage réfléchi et critique.
Évolutions réglementaires : balises pour une innovation responsable
La régulation des systèmes d’IA appliqués à la santé s’accélère.
- Le “AI Act” européen (en discussion pour 2024) prévoit d’imposer des exigences : sécurité, explicabilité, auditabilité, et des évaluations renforcées pour les dispositifs à risque (notamment en santé).
- La FDA américaine a publié, depuis 2021, des lignes directrices pour les logiciels d’IA en médecine, avec un suivi post-mise sur le marché pour surveiller “la confiance, l’efficacité et l’absence de dérive algorithmique”.
- La HAS (Haute Autorité de Santé) en France préconise un recensement public des algorithmes validés, accessibles aux praticiens et patients, afin de permettre comparaison et analyse critique.
La dynamique est lancée, mais l’harmonisation internationale reste un défi, notamment pour le contrôle des systèmes “auto-évolutifs”, qui se reparamètrent en fonction de nouvelles données.
Perspectives : inscrire la responsabilité dans l’ADN de l’innovation
L’IA, en médecine, n’a de sens que si elle amplifie l’humanité du soin. Responsabilité, transparence, équité, co-décision : tel est le socle sur lequel peuvent s’épanouir des applications utiles et sûres. L’implication continue des patients, associations, soignants, chercheurs et développeurs est décisive pour façonner un futur technique aligné avec les valeurs universelles de la santé.
À l’heure où chaque discipline médicale s’ouvre à ces outils, le débat éthique n’est pas un frein mais un cap. Entre régulation, formation, innovations techniques et choix de société, c’est une culture du dialogue et de l’exigence qui permettra, collectivement, d’inscrire la responsabilité au cœur de l’intelligence artificielle médicale.
Sources : Jha S. & Topol E., NEJM 2024 ; Obermeyer Z. et al., Science 2019 ; MedTech Europe 2022 ; Health Affairs 2022 ; Conseil National d’Éthique Allemagne 2023 ; Hôpitaux Universitaires Genève 2021 ; Ordre des Médecins 2023 ; HAS France ; FDA US.
