Avec quelque 186 millions d’utilisateurs actifs estimés en mars et un quasi-succès à un examen de médecine aux États-Unis, ChatGPT suscite l’enthousiasme… autant que les critiques. ChatGPT, pour "Generative Pre-trained Transformer" ("transformateur générique pré-entraîné"), est un agent conversationnel utilisant l’IA, lancé par la start-up californienne OpenAI en novembre 2022. Il peut produire des textes sur tout type de sujet. "Comme un smartphone, il prédit le mot suivant selon les probabilités " a expliqué Chams Sallouh, consultant et formateur en IA, lors de la rencontre "ChatGPT, bientôt médecin?", organisée le 27 mars par le Club Digital Santé. Dans le domaine de la santé, "l’entraînement d’une IA à comprendre des questions et à générer de réponses se base sur des historiques de conversation et sur la littérature médicale (bases de connaissances, arbre décisionnel)", a ajouté Thomas Gouritin, cofondateur du chatbot Asispo. ChatGPT est plus avancé que ses principaux concurrents, Bart de Google ou BioGPT de Microsoft, dans la recherche biomédicale. Des sociétés de taille plus modeste développent de leur côté des solutions spécifiques. Un vase champ d’application Les applications sont nombreuses. "Ces outils peuvent aider les professionnels de santé dans la recherche de connaissances, réduire les tâches fastidieuses de saisie des données…", a listé Chams Sallouh, soulignant l’impact positif sur la "qualité de vie au travail". Des IA interviennent déjà dans la télésurveillance et le suivi post-opératoire des patients. "44 % des patients ne sont pas recontactés après une opération et 80 % des litiges MACSF [mutuelle d’assurance des professionnels de santé] sont liés au suivi. Asispo permet de contacter 100 % des patients après une chirurgie dentaire et de leur délivrer un conseil écrit et validé par les médecins", a affirmé Thomas Gouritin. "L’équipe médicale gagne 6 à 8 heures par semaine." Des expérimentations sont en cours dans le diagnostic, la prévention, l’assistance en temps réel pour les urgences... Des réponses "hallucinantes" Cependant, l’IA présente des écueils bien identifiés. Le principal est la qualité des données servant à l’entraîner : nombre, diversité, biais cognitifs, contexte... Mais aussi l’opacité du mode de raisonnement, la machine étant incapable de justifier ses décisions. De nouveaux écueils apparaissent avec les chatbots. Ceux-ci s’appuient sur des informations issues d’internet, amenant à s’interroger sur la pertinence des sources, leur actualisation, le choix des données dans les domaines où il n’y a pas de consensus scientifique… Par ailleurs, les chatbots ne sont pas des moteurs de recherche et ne font qu’"imaginer" la réponse la plus plausible à une requête. Or "plausible" ne signifie pas forcément "juste" ou "pertinent". Aussi, ChatGPT a-t-il émis des "hallucinations", des réponses manifestement fausses mais présentées comme avérées. "On voudrait avoir davantage la main sur ce que le robot va répondre", a plaidé Thomas Gouritin. Programmé pour aller dans le sens de l’utilisateur, ChatGPT avait en 2020 recommandé à un testeur ayant évoqué des pensées suicidaires, de passer à l’acte. La valeur réelle de tels outils dans la santé (recommandations faites aux patients, diagnostic…) reste à mesurer. "En l’état, ChatGPT ne peut être certifié dispositif médical", a pointé Thomas Gouritin. Un cadre éthique à poser Pour le meilleur et pour le pire, l’IA gagne peu à peu l’ensemble de la société. Elle est néanmoins amenée à progresser puisque basée sur l’apprentissage profond ("deep learning"). D’autres modèles que ChatGPT se développent, associant apprentissage automatique et IA symbolique, basée sur un raisonnement logique et formel. "Les modèles d’IA appliqués à la santé doivent être conçus et évalués avec les professionnels de santé", a plaidé Lionel Reichardt, cofondateur du Club Digital Pharma et enseignant en e-santé. L’offre doit faire l’objet d’une réglementation internationale pour sécuriser les usages et poser un cadre éthique. La France et l’Europe ont posé le principe de "garantie humaine" à l’interprétation des résultats diagnostiques et thérapeutiques, impliquant que la machine ne peut agir seule et consacrant la responsabilité du professionnel de santé. La délégation de tâches à l’IA impose en effet que l’utilisateur soit conscient des limites. "Il faut éduquer à l’esprit critique", a souligné Thomas Gouritin. Ainsi, l’intelligence humaine et l’intelligence artificielle apparaissent comme complémentaires, le médecin conservant pleinement son rôle dans la prise en charge du patient
La sélection de la rédaction
Faut-il avoir peur de l'intelligence artificielle en médecine?
Pierre Devallet
Oui
Il est intéressant de voir que l'on nous enferme dans une question binaire et qu'on ne peut donner un avis qu'une fois qu'on a "ch... Lire plus