Quels sont les points de vigilance pour l’IA dans le domaine médical ?

18/03/25

icone actualité Article

Les points de vigilance en matière d’intelligence artificielle et de santé incluent plusieurs aspects cruciaux. Quels sont-ils ?

L’intelligence artificielle représente une avancée majeure dans le secteur de la santé, apportant des solutions innovantes qui transforment les pratiques médicales. Cependant, cette révolution technologique s’accompagne de plusieurs enjeux cruciaux, comme les quelques exemples ci-après.

Le traitement et la fiabilité des données

La France possède l’une des plus grandes bases de données en santé au monde, fondée sur son système national de données médico-administratives, le SNIIRAM (Système national d’information inter-régimes de l’Assurance Maladie). Cette banque d’informations compile toutes les prescriptions de médicaments, les descriptions de maladies et les actes hospitaliers. Cependant, elle a été conçue pour l’analyse économique des prestations de santé, et non pour une analyse médicale approfondie. Cela rend parfois son exploitation difficile, avec jusqu’à 30 % d’erreurs relevées dans la description des pathologies des patients.

Les populations qui ont le moins accès aux soins sont sous représentées dans les données récoltées. Comme leur recours aux soins est moins documenté, l’analyse des algorithmes peut être faussée et augmenter les inégalités existantes.

La protection des données personnelles

Les données personnelles ne sont ni la propriété des patients ni celle des organismes qui les collectent. Les citoyens français sont usufruitiers de leurs données : ils peuvent les utiliser, mais pas les vendre. De plus, le traitement de ces données requiert le consentement éclairé de la personne concernée. En France, les données de santé sont anonymisées afin d’être accessibles aux chercheurs, uniquement pour des projets approuvés par des comités d’éthique.

Une plateforme nationale de santé regroupant toutes les données de santé des citoyens constitue une ressource précieuse tant pour les praticiens que pour la recherche médicale et pharmaceutique. Toutefois, il est impératif de garantir que ces données soient utilisées de manière appropriée et conforme à la législation, notamment par l’application du règlement général sur la protection des données (RGPD) entré en vigueur en mai 2018, ainsi que de la loi pour une république numérique de 2016.

La responsabilité et la transparence avec les patients

L’intelligence artificielle ne remplacera jamais le diagnostic humain. Son objectif n’est pas de se substituer aux professionnels de santé, mais de les aider dans leur travail. Il est important que ces assistants informatisés soient capables de reconnaître leurs limites et savoir dire « je ne sais pas ». Les outils utilisés doivent pouvoir apporter de la nuance à leurs résultats et dire par exemple : j’en suis sûre à 70 % », en soulignant les 30 % d’incertitude.

Lorsqu’une décision est prise avec l’assistance d’une IA, le professionnel de santé doit informer son patient, expliquer pourquoi il suit ses recommandations et comment il est parvenu à cette conclusion grâce à ce système.

De plus, le praticien doit avoir la possibilité de ne pas suivre les recommandations de l’IA s’il estime qu’elles sont erronées. De même, le patient doit être libre de refuser une décision émanant de l’IA. La question de la responsabilité légale se pose également : il est crucial de déterminer qui est responsable des décisions prises par les systèmes d’IA en santé. La transparence des traitements de données et des processus décisionnels est essentielle pour instaurer la confiance entre les patients et les professionnels de santé.

L’impact sur la relation patient-soignant

L’utilisation de l’IA ne remplace pas la relation humaine entre le patient et le professionnel de santé. Il est important de maintenir une communication ouverte et empathique. L’IA est simplement un soutien et une aide pour poser un diagnostic.

Une technologie respectueuse de la déontologie et de l’éthique 

L’avancement des traitements médicaux doit profiter à tous de manière équitable et juste pour tous. Pour créer une IA impartiale, les différents acteurs s’attachent à :

  • compléter les bases de données pour refléter la diversité démographique de la population ;
  • favoriser les collaborations interdisciplinaires (éthiciens, sociologues, défenseurs des patients, les professionnels de santé, etc.) ;
  • former les professionnels de santé et le personnel médical à ces nouvelles technologies ;
  • surveiller et évaluer les performances continuellement pour effectuer des ajustements et s’assurer que les systèmes d’IA évoluent au rythme des normes sociétales et des connaissances médicales.
  • faciliter l’accès aux technologies d’IA et réduire les inégalités dans l’accès aux soins de santé dans certaines régions où les populations n’ont pas les moyens d’adopter ces innovations.

L’IA offre un potentiel immense mais pour qu’elle profite au plus grand nombre, elle doit être utilisée avec soin et responsabilité. Cela nécessite de la formation, une réflexion éthique approfondie et une régulation adaptée pour équilibrer les bénéfices de l’IA avec les droits et la dignité des patients.

Newsletter

Recevez l’actualité SMI tous les trimestres

Je m’abonne

Articles du dossier