Revue de presse Mediscoop du 23-05-2023
Par Mme Céline Lefebvre (Paris) [Déclaration de liens d’intérêts]
– Date de publication : 23 mai 2023
ChatGPT pour répondre aux messages des patients. Une si bonne idée ? (mediscoop.net)
L’expansion rapide des soins de santé virtuels a provoqué une augmentation des messages de la part des patients, concomitante à une augmentation du travail des soignants.
Des organismes de santé partout dans le monde expérimentent l’aide d’assistants d’intelligence artificielle (IA) pour créer des réponses aux questions des patients, examinées ensuite par les cliniciens avant leur envoi.
Depuis la pandémie de Covid-19, quel clinicien ne croule pas sous les messages des patients au point de devoir y répondre en dehors des heures de service ?
Une étude relayée par le Wall Street Journal a estimé qu’après la pandémie, le nombre moyen de messages quotidiens par hôpital américain était passé de 50.000 à 80.000 (1).
Pour seconder les soignants, des organismes de santé américains ont lancé un projet pilote mené par Epic et Microsoft visant à générer, via ChatGPT-3, des messages destinés aux patients, dans 3 hôpitaux (UC San Diego Health, UW Health, Stanford Health Care).
En fouillant les dossiers médicaux et la littérature scientifique, l’IA génère un brouillon validé ensuite par le praticien qui prend alors la responsabilité de cliquer sur le bouton « envoi ».
Les 1ers retours pointent la qualité des réponses, mais aussi le manque d’empathie et de sollicitude de ChatGPT.
Sur ce point, une étude du JAMA constate justement l’inverse ; ChatGPT étant jugé plus « humain » que les médecins.
Sur les 195 questions/réponses, les évaluateurs indépendants ont préféré les réponses des chatbots à celles des médecins dans 78,6% des 585 évaluations (meilleure qualité, plus d’empathie).
Des observateurs mettent en garde sur le manque de transparence qui pourrait nuire à la relation de confiance entre le médecin et son patient.
De plus, l’implication de l’IA dans la santé et la vie privée des patients pose de sérieuses questions éthiques, d’autant que cela est fait le plus souvent sans le consentement préalable du patient.
Les co-auteurs de l’éditorial du JAMA alertent aussi sur les erreurs potentielles de l’IA ou la désinformation qu’elle pourrait propager.
Des cas se sont présentés au cours des diverses expériences.
Références :
(1) N Subbaraman. ChatGPT Will See You Now: Doctors Using AI to Answer Patient Questions. Pilot program aims to see if AI will cut time that medical staff spend replying to online inquiries. The Wall Street Journal. April 28, 2023
► Retrouvez l’article en ligne
(2) JW. Ayers et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Intern Med. April 28, 2023. doi:10.1001/jamainternmed.2023.1838
► Retrouvez l’abstract en ligne