L’usage de l’intelligence artificielle en santé : éclairer les risques à l’aune de la révolution numérique

24 août 2025

Éclat technologique et zone d’ombre : l’essor de l’IA médicale questionné

En quelques années, l’intelligence artificielle (IA) a bouleversé l’univers de la santé. De la reconnaissance d’images pour la radiologie à la prédiction de maladies chroniques, les algorithmes et l’apprentissage automatique s’imposent auprès des patients, des médecins, et bientôt dans chaque recoin du système de soins. Mais à mesure que cette révolution avance, un paradoxe s’impose : alors qu’elle promet accès, efficacité et personnalisation, l’IA introduit également son lot d’incertitudes, d’enjeux inédits, et de risques difficilement quantifiables.

Quels sont, derrière l’enthousiasme, les dangers spécifiques liés à l’adoption des IA en médecine ? Quelles incidences sociales, éthiques et cliniques regarder lucidement ? Cet article propose un panorama rigoureux des questions critiques qui traversent l’évaluation de l’IA en santé, au moment où les expérimentations se multiplient et les attentes s’intensifient.

Vers une médecine augmentée : promesses fragilisées par les biais des algorithmes

Biais dans les données d’apprentissage : effet loupe sur les inégalités

Le cœur des technologies d’IA réside dans le traitement massif de données médicales renseignant âge, sexe, antécédents, bilans biologiques, imagerie… Un défi majeur apparaît : la qualité, la représentativité, et la diversité des données servent de socle à la justesse de l’IA. Or, les biais présents dans ces jeux de données peuvent être amplifiés de manière insidieuse par l’algorithme.

  • Un exemple marquant : une étude du Lancet Digital Health (2021) a révélé qu’un algorithme de diagnostic dermatologique affichait une précision de 91 % sur les peaux claires, contre 71 % sur les peaux foncées — car les données d’entraînement étaient massivement issues de patients caucasiens.
  • Autre écueil : aux États-Unis, un algorithme utilisé pour prioriser les patients à suivre en sortie d’hospitalisation (Science, 2019) attribuait systématiquement une priorité plus basse aux patients noirs, en raison de l’utilisation de critères économiques comme proxy de gravité clinique.

La leçon est claire : sans une vigilance extrême et une diversification des données, la généralisation de l’IA risque de cristalliser — voire d’aggraver — les inégalités d’accès et de qualité des soins.

Erreurs, imprévisibilité et absence d’intelligibilité

  • Failles de diagnostic : Plusieurs IA d’interprétation de radiographies présentent des performances très sensibles à des variations techniques du matériel d’imagerie ou à des artefacts non maîtrisés, pouvant conduire à des fausses interprétations (source : JAMA, 2022).
  • Effet “boîte noire” : De nombreux modèles, fondés sur le , produisent des recommandations sans offrir de justification compréhensible, rendant difficile le contrôle humain et la correction d’erreurs.

La transparence et l’explicabilité des IA médicales deviennent donc centrales dans la lutte contre le risque d’erreur : selon l’OMS, seules 14 % des solutions déployées en clinique aujourd’hui proposent une explication réelle de leur processus décisionnel (OMS, rapport 2021).

Données, cybersécurité et respect de la vie privée : lignes de faille sensibles

Le stockage massif, une cible pour les cyberattaques

La gestion de données médicales centralisées, nécessaires à l’IA, attire de façon croissante les cybercriminels. En France, le secteur de la santé représentait en 2022 plus de 11 % des attaques par rançongiciels (ANSSI, 2022). Les hôpitaux de Dax, Villefranche-sur-Saône et Corbeil-Essonnes ont, en moins de trois ans, été victimes de paralysie suite à un piratage de leurs données, provoquant retards de traitement et pertes d’information.

  • Risque accru : Plus les IA intègrent des outils de santé connectée — montres, capteurs, dossiers électroniques — plus la surface d’attaque potentielle s’étend.
  • Profondeur des atteintes : La fuite de données peut compromettre non seulement l’intimité médicale mais exposer à des discriminations (assurance, emploi) ou à une manipulation commerciale ciblée.

Confidentialité et consentement : défis du partage massif

L’utilisation des données de santé pour l’entraînement de l’IA suppose de recueillir, stocker, transférer et exploiter des volumes gigantesques d’informations individuelles. L’anonymisation, souvent mise en avant, n’est pas une garantie absolue de confidentialité : le MIT estimait en 2019 que 83 % des personnes pouvaient, en recoupant 3 jeux de données simples (âge, sexe, code postal), être ré-identifiées.

La réglementation (RGPD en Europe, HIPAA aux États-Unis) joue un rôle. Pourtant, la tension persiste entre innovation — qui suppose mutualisation et partage — et éthique individuelle, fondée sur l’autonomie et la maîtrise propre des données.

L’IA bouleverse la relation soignant-patient : déshumanisation ou renforcement ?

Le risque de la perte d’autonomie décisionnelle

  • Professionnels “assistés” : Une étude menée par le Brigham and Women’s Hospital (NEJM, 2023) montre que la dépendance à des “aides à la décision” IA fait parfois perdre aux cliniciens leur propre capacité critique, surtout chez les moins expérimentés.
  • Impact sur la formation : Certains étudiants en médecine passent moins de temps à interroger la pertinence d’un diagnostic, plongeant dans l’“automatisation du raisonnement” sans toujours percevoir quand “l’intuition humaine” est nécessaire.

Le maintien du lien humain : un principe fragilisé

Si le temps “administratif” des médecins peut diminuer grâce à l’IA, la tentation est réelle d’engager les patients dans des parcours très digitalisés, standardisés, où la singularité de leur vécu est moins prise en compte. L’algorithme, aussi sophistiqué soit-il, ne perçoit ni nuance culturelle, ni émotion authentique, ni contexte psychologique.

Ce risque de distanciation est critiqué par plusieurs associations de patients (France Assos Santé, Fédération Européenne des Patients) qui alertent sur la nécessité de préserver la décision partagée et l’écoute empathique.

Régulations et usages : une gouvernance impossible à suivre ?

Législation : entre harmonisation et “patchwork”

Le cadre réglementaire tente d’anticiper, mais court toujours après le rythme de l’innovation. En Europe, la loi sur l’IA (“AI Act”, 2024) introduit une catégorisation des algorithmes selon leur niveau de risque, imposant la certification pour ceux considérés “à haut risque” (dont ceux relatifs au diagnostic médical ou à la gestion de données sensibles). Mais l’hétérogénéité des réglementations nationales et la rapidité des évolutions technologiques rendent l’application difficile.

  • Exemple concret : En France, moins de 20 % des outils numériques référencés dans le catalogue de l’ANS/Haute Autorité de Santé sont en conformité stricte avec toutes les exigences RGPD/Interopérabilité (source : ANS, état des lieux 2023).
  • Risques de faux positifs ou d’“IA fantôme” : Certains outils mal régulés prolifèrent dans les applications mobiles grand public, sans évaluation indépendante.

Responsabilité juridique : qui pour porter l’erreur ?

En cas de mauvaise prise en charge ou d’erreur de l’IA, la responsabilité — professionnelle ou pénale — du fabricant, du concepteur d’algorithme, du médecin utilisant l’outil, ou de l’établissement est au cœur de débats juridiques non tranchés à ce jour. Cette incertitude crée une réticence à l’adoption de certaines technologies dans les établissements publics.

Défis nouveaux pour les professionnels et le système de soins

Le cercle vicieux de la surmédicalisation par l’IA

  • Algorithmes d’alerte : De nombreuses solutions cherchent à prédire des événements rares (AVC, complications postopératoires…) avec des scores de prédiction améliorés. Mais la multiplication des alertes, souvent faussement positives, peut favoriser la prescription d’examens ou de traitements inutiles, accroissant la charge et le coût pour le système.
  • Effet “hype” : La pression des patients, sensibilisés par des outils d’automesure connectée, pousse parfois à des consultations ou des explorations guidées non par le besoin clinique, mais par la donnée brute.

Le Health Innovation Hub Ireland (2022) pointe que la mise en œuvre d’algorithmes sans recadrage humain entraîne, dans 24 % des cas, une augmentation du recours à des ressources médicales superflues.

Failles systémiques : impact mondial, réponses locales

La plupart des systèmes de santé s’appuient encore sur des “pilotes” isolés ou de petites expérimentations, faute d’une stratégie nationale ou européenne pleinement coordonnée sur l’IA. Or, les dérives repérées localement peuvent rapidement contaminer des écosystèmes plus larges via les réseaux numériques.

  • Disparité d’accès : L’accès à l’IA médicale reste limité dans de nombreux établissements, renforçant la fracture territoriale et sociale. En 2021, moins de 12 % des hôpitaux français déclaraient avoir accès à une IA validée pour l’aide au diagnostic (DREES, panorama des SIH).
  • Problème d’interopérabilité : L’absence de normes techniques partagées empêche la mutualisation des connaissances issues de l’IA d’un pays à l’autre, ou d’un logiciel à l’autre.

Perspectives : risques à dompter, savoir à construire

S’il paraît évident que l’IA transforme en profondeur la santé, il est tout aussi urgent de poser des garde-fous collectifs : renforcer la diversité des jeux de données, exiger la transparence algorithmique, organiser la formation des professionnels à l’évaluation critique des outils, et mettre le patient au centre de chaque usage. Ce sont, d’une part, des défis techniques mais aussi politiques, économiques et humains.

Les risques fondamentaux de l’IA ne sont pas un plaidoyer contre l’innovation, mais une invitation à refuser l’aveuglement technologique : pour que la médecine augmentée reste, avant tout, une médecine éclairée et responsable.

  • Sources : OMS, ANSSI, The Lancet Digital Health, JAMA, Science, Health Innovation Hub Ireland, NEJM, ANS, DREES, MIT, France Assos Santé

En savoir plus à ce sujet :