Alors que les systèmes d’intelligence artificielle utilisés pour le diagnostic médical irriguent désormais tout le champ de la pratique médicale, le Comité national pilote d'éthique du numérique (CNPEN) et le Comité consultatif national d'éthique pour les sciences de la vie et de la santé ont été saisis en juillet 2019 par le Premier ministre pour identifier les enjeux éthiques de leur utilisation. En résultent 16 recommandations et 7 points de vigilance. "Le numérique et en particulier l’intelligence artificielle en santé ouvrent des perspectives majeures de transformation de notre système de santé avec des capacités de renforcement significatif de la qualité des diagnostics et des soins au service des patients", estiment les instances dans un communiqué commun, joint à leur avis, rendu public ce mardi. A l’instar de la détection de lésions invisibles à l’œil, illustrent-elles. Ces IA "permettent de traiter très rapidement des cas assez aisés à diagnostiquer mais répétitifs, et libèrent ainsi du temps médical pour échanger avec le patient". Toutefois, ces outils engendrent une transformation majeure de la relation soignants-patients mais aussi de l’organisation des soins. Si les systèmes d’intelligence artificielle utilisés pour le diagnostic médical peuvent aider à générer des résultats ou établir des prédictions et des recommandations, ces "résultats" sont "basés d’une part sur des approches probabilistes et d’autre part qu’ils peuvent être entachés d’erreurs", rappellent les deux comités. "S'il ne serait pas éthique que les équipes soignantes et les patients se privent des avantages apportés pas ces outils, il faut se donner constamment les moyens de prendre de la distance avec le résultat fourni et il est indispensable de créer les conditions de la confiance", estiment le CCNE et le CNPEN. Ainsi, tout système d’intelligence artificielle utilisé pour le diagnostic médical "doit être soumis à un contrôle humain", recommandent-ils. "Ses résultats doivent être explicables." Le contrôle de conformité du système d’IA, "qui assure qu’il n’est pas dangereux et ainsi autorise sa mise sur le marché, doit être amélioré et surtout doit à l’avenir être accompagné d’une évaluation de son efficacité clinique montrant non seulement son absence de nocivité mais aussi qu’il contribue efficacement au principe de bienfaisance", peut-on lire dans l’avis. Par ailleurs, ces outils doivent toujours "être utilisés en priorité dans une optique d’amélioration du soin, avant les intérêts organisationnels, économiques, ou managériaux", ajoutent les instances. Celles-ci observent en effet que les systèmes d’intelligence artificielle en santé s’accompagnent "d’enjeux hétérogènes voire parfois contradictoires, entre intérêts économiques et industriels (conception des outils de SIA), promesses thérapeutiques pour les patients (bénéfices sanitaires attendus, dépistage, prévention et traitement), modification de la pratique professionnelle des personnels de santé concernés (activité des soignants pouvant être amenés à les utiliser, aide au diagnostic, éventuellement même des suppressions ou modifications de postes) et objectifs de régulation pour les autorités publiques". Les deux comités appellent ainsi à placer au premier rang des valeurs le "respect de la vie humaine" et "la garantie de conditions équitables d’accès aux soins".
La sélection de la rédaction
Les complémentaires santé doivent-elles arrêter de rembourser l'ostéopathie ?
Stéphanie Beaujouan
Non
Je vois beaucoup d'agressivité et de contre vérités dans les réponses pour une pratique qui existe depuis 1,5 siècle . La formatio... Lire plus