Era il dicembre 2022, la prima volta che mi parlarono della Chat GPT: “Che cos’è?”. Chiesi: “Roba seria, mi fu risposto, non un gioco; prova tu stesso a scrivere un testo”. Mi sono registrato e ho inserito le parole “Medicina Narrativa”, e ho ricevuto un testo molto elegante di due pagine di sintesi chiara e strutturata di cosa sia la medicina narrativa. Ho cercato informazioni più recenti, sfogliando la mia autobiografia e altri studiosi dello stesso campo. Tuttavia, la risposta standard, molto cortese, è stata: “Mi scuso; non posso recuperare informazioni dopo il 2021”, forse perché stavo usando la versione gratuita.
Chat GPT è un chatbot di intelligenza artificiale sviluppato da OpenAI e lanciato il 30 novembre 2022. Si distingue per la possibilità di affinare e indirizzare una conversazione verso la lunghezza, il formato, lo stile, il livello di dettaglio e il linguaggio desiderati. Le richieste e le risposte successive vengono considerate in ogni fase della conversazione come un contesto.
A gennaio 2023, era diventata l’applicazione software di consumo con la crescita più rapida, con oltre 100 milioni di utenti. Alcuni osservatori hanno espresso preoccupazione per il potenziale di ChatGPT di sostituire o atrofizzare l’intelligenza umana e per il suo potenziale di consentire il plagio o alimentare la disinformazione.
ChatGPT è stato rilasciato come anteprima di ricerca liberamente disponibile, ma OpenAI ora gestisce il servizio su un modello freemium a causa della sua popolarità. Permette agli utenti del livello gratuito di accedere alla versione basata su GPT-3.5.
ChatGPT è stato costruito con un sistema di sicurezza contro i contenuti dannosi: abusi sessuali, violenza verbale e fisica, razzismo, sessismo e altri contenuti discriminatori. La Chat GPT, oltre ad alcune informazioni imprecise, ha un genere narrativo molto gentile, empatico e caloroso, che rifiuta qualsiasi testo scortese.
Chat GPT nel sistema sanitario
La promessa della Chat GPT è stata testata anche nel settore sanitario e i risultati sono stati pubblicati nell’aprile 2023 su una rivista prestigiosa come JAMA. (6) In che modo i medici informano i loro pazienti sulla diagnosi? Qual è il livello di accuratezza? E in che modo si riesce ad essere empatici con la situazione?
La premessa dello studio era la seguente: “L’assistenza sanitaria virtuale ha provocato un’impennata di messaggi ai pazienti, che si accompagna a un aumento del lavoro e del burnout degli operatori sanitari. Gli assistenti di intelligenza artificiale (AI) potrebbero potenzialmente aiutare a creare risposte alle domande dei pazienti, redigendo risposte che i medici potrebbero rivedere”. L’obiettivo era valutare la capacità di un assistente chatbot AI (ChatGPT) di fornire risposte di qualità ed empatiche alle domande dei pazienti.
In uno studio trasversale, è stato utilizzato un database pubblico e non identificabile di domande provenienti da un forum pubblico di social media (r/AskDocs di Reddit) per estrarre casualmente 195 scambi di ottobre 2022 in cui un medico verificato rispondeva a una domanda pubblica. Le risposte del chatbot sono state generate inserendo la domanda originale in una nuova sessione (senza domande precedenti) il 22 e 23 dicembre 2022.
La domanda originale e le risposte anonime e casuali del medico e del chatbot sono state valutate in triplice copia da un team di professionisti sanitari abilitati. I valutatori hanno scelto “quale risposta fosse migliore”. Hanno giudicato sia “la qualità delle informazioni fornite” (molto scarsa, scarsa, accettabile, buona o molto buona) sia “l’empatia o il comportamento al letto del paziente” (non empatico, leggermente empatico, moderatamente empatico, empatico e molto empatico). I risultati medi sono stati ordinati su una scala da 1 a 5 e confrontati tra il chatbot e i medici.
Delle 195 domande e risposte, i valutatori hanno preferito le risposte del chatbot a quelle del medico nel 78,6% (95% CI, 75,0%-81,8%) delle 585 valutazioni. Le risposte medie (IQR) dei medici erano significativamente più brevi di quelle dei chatbot (52 [17-62] parole contro 211 [168-245] parole; t = 25,4; P < .001). Le risposte del chatbot sono state valutate di qualità significativamente superiore rispetto a quelle dei medici (t = 13,3; P < .001). La percentuale di risposte valutate di qualità buona o molto buona (≥ 4), ad esempio, era più alta per i chatbot che per i medici (chatbot: 78,5%, 95% CI, 72,3%-84,1%; medici: 22,1%, 95% CI, 16,4%-28,2%;).
Ciò equivale a una prevalenza 3,6 volte superiore di risposte di qualità buona o eccellente per il chatbot. Le risposte del chatbot sono state inoltre giudicate significativamente più empatiche rispetto a quelle dei medici (t = 18,9; P < .001). La percentuale di risposte valutate empatiche o molto empatiche (≥4) era più alta per i chatbot che per i medici (medici: 4,6%, 95% CI, 2,1%-7,7%; chatbot: 45,1%, 95% CI, 38,5%-51,8%; medici: 4,6%, 95% CI, 2,1%-7,7%). Ciò equivale a una prevalenza 9,8 volte superiore di risposte empatiche o molto empatiche per il chatbot.
In questo studio trasversale, un chatbot ha generato risposte di qualità ed empatiche alle domande dei pazienti online.
“È necessario esplorare ulteriormente questa tecnologia in ambito clinico, ad esempio utilizzando un chatbot per redigere risposte che i medici potrebbero modificare. Studi randomizzati potrebbero valutare ulteriormente se l’uso di assistenti AI possa migliorare le risposte, ridurre il burnout dei medici e migliorare i risultati dei pazienti” (6).
Il contesto clinico è molto diverso da un forum aperto in modalità virtuale. Nella pratica quotidiana, medici e pazienti sono fisicamente presenti, con le loro personalità, competenze ed emozioni. Pertanto, tradurre queste conclusioni in contesti di cura reali richiederebbe tempo e sforzi. Tuttavia, questi risultati possono tracciare la strada per la creazione di un ecosistema tra l’IA e i fornitori di assistenza sanitaria. Al di là delle conclusioni degli autori sull’uso di AI-Chat-GPT per ridurre il burnout, quest’ultimo si riduce quando si creano relazioni più nutrienti ed empatiche con i pazienti.
È la parte narrativa che Chat-GPT copre con le risposte più lunghe, che i medici in carne e ossa in qualche modo rifiutano, in quanto “figli e figlie dell’EBM”. Il modello riduzionista della biomedicina riduce anche le possibilità di linguaggio e le capacità di empatia. Questo risultato appare molto strano, dal momento che con l’IA ci saremmo aspettati più precisione ma meno relazione.
Perché questi risultati? Abbiamo detto, “figli di una EBM-crazia”, di lezioni di distacco dai pazienti, con l’insegnamento di uno “sguardo clinico, che non deve guardare negli occhi i pazienti”. In quale sistema? Nelle organizzazioni sanitarie strangolate da continui ridimensionamenti, costrette a un’iper-efficienza che avvelena l’ecosistema fatto di operatori sanitari e pazienti e aumenta il rischio di risposte sgarbate, risposte verbali violente e, in un’escalation, di violenza fisica. Le soft skills o scienze umane, per ironia della sorte, sono chiamate competenze non tecniche, quindi le stesse competenze così essenziali da sviluppare vengono private di un nome proprio, in modo molto ignorante e miope, ignorando che esiste una tecnica per sviluppare empatia, comunicazione e lavoro di squadra.
Il risultato di questa scelta di termini è che i medici, mentre aggiornano le loro competenze, leggono preferibilmente solo documenti tecnici, trascurando gli altri documenti umanistici, non percependo il fatto che le scienze umane e le tecniche sono intrecciate per fornire una buona cura – la diagnosi è anche un’arte, non solo un mero processo tecnico. Dietro le parole scelte, c’è una competenza narrativa.
Se non ripariamo subito e con urgenza, il tocco umano di medici e assistenti sarà sostituito da un’intelligenza artificiale che non soffrirà mai di stanchezza da compassione, ma mostrerà sempre un’adorabile compassione senza i bisogni degli esseri umani.