Entre éthique et technologie : pourquoi l’intelligence artificielle peut échouer en santé publique

L’intelligence artificielle (IA) est souvent présentée comme la clé de voûte de l’avenir de la santé publique, promettant une médecine plus précise, accessible et personnalisée. Pourtant, son déploiement soulève des questions éthiques majeures qui, si elles sont ignorées, peuvent compromettre son efficacité et son acceptation. Pourquoi l’IA, malgré son potentiel, peut-elle échouer à répondre aux enjeux de santé publique ? Cet article explore les défis éthiques, sociaux et technologiques qui entravent son succès.
L’IA : une promesse en tension avec des réalités humaines
L’IA en santé publique est censée automatiser les diagnostics, prédire les épidémies, optimiser les traitements et alléger les systèmes de santé. Cependant, son efficacité dépend largement de la qualité des données utilisées pour l’entraîner. Or, ces données sont souvent incomplètes, biaisées ou non représentatives de certaines populations, ce qui peut entraîner des décisions erronées ou discriminatoires.
Biais algorithmiques et inégalités sociales
Les algorithmes d’IA sont conçus pour apprendre à partir de données historiques. Si ces données reflètent des inégalités sociales, raciales ou économiques, l’IA risque de les reproduire et même de les amplifier. Par exemple, une étude de la CDC a révélé que les systèmes d’IA en santé peuvent perpétuer des disparités en raison de biais dans les données d’entraînement . De même, des recherches ont montré que l’IA peut accentuer les inégalités existantes en matière de santé publique si elle est déployée sans une évaluation critique des données utilisées .
Manque de transparence et de responsabilité
Les modèles d’IA, notamment les réseaux neuronaux profonds, sont souvent des “boîtes noires”, c’est-à-dire que leurs décisions ne sont pas toujours compréhensibles pour les humains. Ce manque de transparence soulève des questions sur la responsabilité en cas d’erreur. Si une décision automatisée conduit à un préjudice, il peut être difficile de déterminer qui est responsable : le développeur, l’utilisateur ou le système lui-même.
Les défis éthiques spécifiques à la santé publique
Consentement éclairé et confidentialité des données
L’utilisation de l’IA en santé publique implique la collecte et l’analyse de vastes quantités de données personnelles, souvent sensibles. Cela soulève des préoccupations concernant la confidentialité des informations et le consentement éclairé des individus. Les citoyens doivent être informés de la manière dont leurs données sont utilisées et avoir la possibilité de donner ou de retirer leur consentement.
Risques de déshumanisation des soins
L’IA, en automatisant certaines tâches, peut réduire les interactions humaines dans les soins de santé. Cela peut entraîner une déshumanisation des relations patient-soignant, essentielle pour la qualité des soins. L’empathie, la compréhension et le soutien moral, qui sont au cœur de la pratique médicale, risquent d’être négligés au profit de l’efficacité technologique.
Les échecs notables de l’IA en santé publique
Babylon Health : entre promesses et controverses
Babylon Health, une entreprise britannique de santé numérique, a lancé un chatbot médical alimenté par l’IA, prétendant offrir des consultations aussi efficaces qu’un médecin humain. Cependant, des études ont remis en question ces affirmations, soulignant des lacunes dans l’évaluation clinique et des préoccupations concernant la sécurité des patients .
Déploiement précipité et absence de régulation
L’Organisation mondiale de la santé (OMS) a averti que l’adoption précipitée de systèmes d’IA non testés pourrait entraîner des erreurs médicales, nuire aux patients et éroder la confiance dans ces technologies . Le manque de régulation et d’évaluation rigoureuse avant le déploiement de l’IA en santé publique est un facteur clé de ces échecs.
Vers une IA éthique et inclusive en santé publique
Pour que l’IA réussisse en santé publique, elle doit être développée et déployée de manière éthique et inclusive. Cela implique :
- La collecte de données diversifiées et représentatives, afin de réduire les biais et d’assurer l’équité des décisions.
- La transparence des algorithmes, permettant aux utilisateurs de comprendre comment les décisions sont prises.
- La responsabilité claire, définissant qui est responsable en cas d’erreur ou de pré
- Le respect de la confidentialité et du consentement éclairé, garantissant que les données des individus sont protégées et utilisées de manière éthique.
- La préservation de l’humanité dans les soins, en veillant à ce que l’IA complète, sans remplacer, l’interaction humaine dans les soins de santé.
L’intelligence artificielle offre des opportunités considérables pour améliorer la santé publique, mais son succès dépend de son intégration éthique et réfléchie dans les systèmes de santé. Sans une attention particulière aux défis éthiques, sociaux et technologiques, l’IA risque de ne pas tenir ses promesses et de creuser les inégalités existantes. Il est essentiel que les décideurs, les chercheurs et les praticiens collaborent pour développer des solutions d’IA qui soient non seulement efficaces, mais aussi justes, transparentes et humaines.