IA e Chatbot

Questo articolo è stato scritto da ChatGPT, consultato il 10 maggio 2023 con la frase:
Scrivi un articolo sui chatbot in medicina”.
Negli ultimi anni, i chatbot sono diventati sempre più popolari come strumento per migliorare l’efficienza e l’accessibilità nella fornitura di servizi di assistenza sanitaria. I chatbot sono programmi informatici che utilizzano l’intelligenza artificiale per comunicare con gli utenti in modo conversazionale, simile a come gli esseri umani interagiscono tra loro.
In medicina, i chatbot possono essere utilizzati per fornire assistenza sanitaria, rispondere alle domande dei pazienti, gestire appuntamenti e fornire informazioni sui farmaci. Inoltre, i chatbot possono anche essere utilizzati per aiutare i pazienti a gestire le proprie condizioni di salute e per migliorare la conformità alle terapie prescritte.
Uno dei vantaggi principali dei chatbot in medicina è la loro capacità di fornire assistenza sanitaria 24 ore su 24, 7 giorni su 7. Questo può essere particolarmente utile per i pazienti che vivono in aree remote o che hanno difficoltà a recarsi fisicamente presso un medico.
Inoltre, i chatbot possono essere programmati per rispondere alle domande dei pazienti in modo rapido ed efficiente, senza la necessità di attese in lunghe code o di appuntamenti a lungo termine. Un altro vantaggio dei chatbot in medicina è la loro capacità di fornire informazioni personalizzate e di seguire i progressi dei pazienti nel tempo.I chatbot possono essere programmati per raccogliere dati sui sintomi dei pazienti e sui loro comportamenti di auto-gestione, aiutando i medici a identificare potenziali problemi e a fornire cure personalizzate.
Tuttavia, come ogni tecnologia, i chatbot in medicina presentano anche alcuni svantaggi.Uno dei problemi principali riguarda la precisione e l’accuratezza delle risposte fornite dai chatbot. Sebbene i chatbot possano essere programmati per rispondere a una vasta gamma di domande e di situazioni, non sono in grado di fornire la stessa precisione e personalizzazione di una visita medica con un professionista del settore.
Inoltre, i chatbot in medicina sollevano questioni di privacy e sicurezza dei dati. Poiché i chatbot raccolgono e gestiscono informazioni sensibili sui pazienti, è importante garantire che i dati siano protetti e che i pazienti siano informati sui tipi di dati che vengono raccolti e su come vengono utilizzati.
In sintesi, i chatbot rappresentano una promettente opportunità per migliorare l’accessibilità e l’efficienza nella fornitura di assistenza sanitaria. Tuttavia, è importante utilizzarli in modo oculato e integrarli in modo adeguato nella pratica medica, garantendo che i pazienti siano informati e consapevoli delle potenziali limitazioni dei chatbot in medicina.
Quando ai quesiti medici risponde l’IA: rischi e promesse dei chatbot

La pratica della medicina si è spostata sempre più online negli ultimi anni, anche a causa della pandemia di covid-19, e molti sistemi medici utilizzano già chatbot semplici per eseguire attività come la pianificazione di appuntamenti e fornire alle persone informazioni generali sulla salute. Ma la nuova frontiera è la risposta ai quesiti clinici e la diagnosi.

Cercare dei propri sintomi su Internet prima dell’appuntamento con un medico è una pratica ormai consolidata da anni. Nonostante “Dott. Google” sia notoriamente privo di contesto e incline a recuperare fonti inaffidabili, i tentativi di scoraggiare i pazienti non hanno però sortito i risultati sperati.

Col progresso della medicina digitale si stanno affermando strumenti di autodiagnosi molto più potenti ­­–  chatbot di intelligenza artificiale come ChatGPT di OpenAI, l’ultima versione del motore di ricerca di Microsoft Bing (basato sul software di OpenAI) e Google Med-PaLM – che sono in prospettiva in grado di dare una scossa al modo in cui le persone trovano risposte ai problemi di salute.

Gli LLM sono modelli di intelligenza artificiale che sfruttano gli algoritmi di deep learning per elaborare e comprendere il linguaggio naturale. Addestrati sul testo attraverso Internet, sono in grado di prevedere la parola successiva in una sequenza per rispondere alle domande in uno stile umano. Di fronte alle difficoltà degli operatori sanitari e dei professionisti medici, la speranza è che i chatbot possano supplire a quelle carenze diventando un nuovo punto di riferimento rispetto ai quesiti delle persone e se il buon giorno si vede dal mattino, i test iniziali dei ricercatori suggeriscono che i programmi di intelligenza artificiale siano molto più accurati di una ricerca su Google.

Ma assieme alle promesse questi strumenti così promettenti nascondono una serie di insidie, tra cui l’incertezza sull’accuratezza delle informazioni che forniscono alle persone, le minacce alla privacy e i pregiudizi razziali e di genere radicati nel testo da cui attingono gli algoritmi. Oltre ai rischi insiti nel modo in cui le persone possono interpretare le informazioni che provengono da un’intelligenza artificiale le informazioni. Insomma, con i bot si hanno implicazioni negative che non esistevano con le semplici ricerche su Google o gli strumenti di controllo dei sintomi.

I chatbot sono anche più facili da usare rispetto ai servizi di controllo dei sintomi online perché le persone possono semplicemente descrivere la loro esperienza piuttosto che inserirla in programmi che calcolano la probabilità statistica di una malattia. La differenza la fa l’uso della lingua naturale e la bidirezionalità dell’interazione: i bot possono fare domande di follow-up al paziente, proprio come farebbe un medico.

A fronte di queste enormi potenzialità la trappola più evidente, quasi scontata, è quello della disinformazione. Gli algoritmi prevedono la parola successiva di una serie in base alla sua frequenza nei testi online su cui si sono addestrati, il che teoricamente attribuisce pressoché lo stesso peso alle informazioni dei CDC statunitensi e a un thread casuale su Facebook.

OpenAI (l’azienda che ha creato ChtGPT) per evitare “allucinazioni”, cioè risposte in cui un bot indovina una risposta creando nuove informazioni che non esistono, “preaddestra” l’intelligenza artificiale con l’aiuto di professionisti di vari campi per garantire che risponda come nelle intenzioni dell’utente, anche se OpenAI non ha approfondito se il suo Chatbot dia più peso a determinate fonti  invece che ad altre. A scanso di equivoci comunque la società include una dichiarazione di non responsabilità in cui si spiega che ChatGPT non deve essere utilizzato per diagnosticare condizioni gravi, fornire istruzioni su come curare una condizione o gestire problemi potenzialmente letali.

Una soluzione per ovviare a questi rischi potrebbe essere forzare i chatbot a collegarsi soltanto a certe fonti. Ma molti studi ed esperienze degli utenti hanno dimostrato che gli LLM possono dar vita a fonti che non esistono e formattarle in modo che appaiono come citazioni affidabili. Discriminare tra fonti frutto di allucinazioni e fonti affidabili sarebbe un onere eccessivo per l’utente. Tra le altre possibilità c’è il coinvolgimento degli sviluppatori LLM che controllano le fonti da cui i bot attingono le informazioni oppure assoldare eserciti di verificatori di fatti che affrontano manualmente le falsità via via che le incontrano, scoraggiando i bot dal fornire quelle risposte in futuro. Ma, come è evidente, la quantità di contenuti generati dall’intelligenza artificiale rende l’impresa quantomeno proibitiva.

Google sta adottando un approccio diverso con il suo chatbot LLM Med-PaLM, che attinge da un enorme set di dati di domande e risposte reali di pazienti e medici, nonché dai quesiti universitari archiviati in vari database. Quando i ricercatori di Google hanno testato le prestazioni di Med-PaLM su diversi “assi”, tra cui l’allineamento con il consenso medico, la completezza e la possibilità di danno, le sue risposte erano allineate con il consenso medico e scientifico il 92,6% delle volte. I medici umani hanno ottenuto un punteggio complessivo del 92,9%. Le risposte del chatbot avevano maggiori probabilità di avere contenuti mancanti rispetto alle risposte umane, mentre avevano una probabilità leggermente inferiore di danneggiare la salute fisica o mentale degli utenti.

Un altro tema sul piatto è la velocità con cui i chatbot LLM potrebbero irrompere nella “normale” pratica medica. Anche i più entusiasti vedono con sospetto il fatto che la tecnologia sia implementata prima che gli organismi di regolamentazione possano mettersi al passo.

Senza regole, affidati al loro “libero sviluppo”, i chatbot saranno portati a perpetuare il razzismo, il sessismo e altri tipi di pregiudizio che ancora esistono in medicina e su Internet. Ad esempio, alle donne è meno probabile che vengano prescritti farmaci antidolorifici rispetto agli uomini, e ai neri è più probabile rispetto ai bianchi che venga diagnosticata la schizofrenia e meno probabile invece che venga diagnosticata la depressione.

Eliminare il razzismo da Internet è impossibile, ma gli sviluppatori potrebbero essere in grado di eseguire controlli preventivi per vedere dove un chatbot fornisce risposte distorte e dirgli di fermarsi o per identificare pregiudizi comuni che emergono nelle sue conversazioni con gli utenti.

Come accennato, un altro rischio è che il comportamento amichevole di un chatbot possa indurre le persone a fidarsi troppo e a fornire informazioni personali che potrebbero metterle a rischio. Insomma l’eccesso di fiducia è potenzialmente un attentato alla privacy degli utenti ed è da tenere in debito conto.

Poi non è chiaro se le persone tollereranno di ottenere informazioni mediche da un chatbot al posto di un medico. A gennaio l’app per la salute mentale Koko, che consente ai volontari di fornire consulenza gratuita e riservata, ha sperimentato l’utilizzo di GPT-3 per scrivere messaggi di incoraggiamento a circa 4000 utenti. Secondo il cofondatore di Koko Rob Morris, il bot ha aiutato i volontari a scrivere i messaggi molto più rapidamente che se avessero dovuto comporli da soli. Ma i messaggi risultavano meno efficaci se le persone sapevano che stavano parlando con un bot e l’azienda ha rapidamente interrotto l’esperimento. “L’empatia simulata sembra strana, vuota”, ha spiegato Morris in un Tweet. La ricerca ha anche provocato preoccupazioni rispetto al fatto che si sperimentasse su persone senza il loro consenso.

Le persone non sono sempre brave a distinguere tra un robot e un essere umano, e questa ambiguità è destinata a crescere con l’avanzare delle tecnologie di medicina digitale. In uno studio recente Singh e colleghi hanno progettato un test medico di Turing per vedere se 430 volontari riuscivano distinguere ChatGPT da un medico. I ricercatori non hanno addestrato ChatGPT di essere particolarmente empatico o di parlare come un medico. Gli hanno semplicemente chiesto di rispondere a una serie di 10 domande predeterminate da pazienti in un certo numero di parole. I volontari hanno identificato correttamente sia il medico che il bot in media solo il 65% delle volte.

I ricercatori hanno anche scoperto che gli utenti si fidavano del chatbot per rispondere a semplici domande. Ma più complessa diventava la domanda, e maggiore era il rischio o la complessità coinvolti, meno erano disposti a fidarsi della diagnosi del chatbot.

Probabilmente è inevitabile che i sistemi di intelligenza artificiale alla fine gestiranno una parte della diagnosi e del trattamento. L’importante però è che le persone sappiano che un medico è disponibile se non sono contente delle risposte dei chatbot.

Non è molto lontano il tempo in cui un chatbot AI sarà incaricato anche da importanti centri medici di formulare diagnosi di malattie. Ma una partnership solleverebbe una serie di nuove domande: se i pazienti e gli assicuratori dovranno pagare per questo servizio, come garantire che i dati dei pazienti siano protetti e chi sarà responsabile se qualcuno viene danneggiato dai consigli di un chatbot?

Mentre la comunità scientifica, politica e intellettuale si premura di immaginare rischi e conseguenze di questa rivoluzione, i ricercatori si augurano che l’implementazione nella pratica di queste tecnologie avvenga lentamente, limitato alla ricerca clinica, mentre sviluppatori ed esperti medici risolvono i problemi.