Privacy Policy
Home / News / “Curare con ‘intelligenza’”: Salvatore Corrao racconta la medicina nell’era degli algoritmi

“Curare con ‘intelligenza’”: Salvatore Corrao racconta la medicina nell’era degli algoritmi

Parlare oggi di intelligenza artificiale in Sanità significa muoversi su un terreno affollato di slogan, promesse e semplificazioni, ma “Curare con ‘intelligenza’ – L’intelligenza artificiale tra sapere medico e decisione umana” sceglie invece di sottrarsi a questa narrazione facile e di affrontare la questione da un’altra angolazione. Non cosa l’IA farà alla medicina, ma cosa la medicina diventa quando il processo decisionale si intreccia in modo strutturale con sistemi algoritmici.

A scriverlo è Salvatore Corrao, professore ordinario di medicina interna dell’Univesità di Palermo e osservatore critico dei cambiamenti che stanno attraversando la pratica clinica e l’organizzazione della cura.

ASP_MOBILE

Sfogliando il libro, l’intelligenza artificiale emerge come parte integrante della pratica clinica e dell’organizzazione dei servizi, non come un’aggiunta esterna o un semplice supporto tecnologico. Tra le pagine, la riflessione si concentra sulle implicazioni concrete dell’uso degli algoritmi nella cura, mettendo in luce le tensioni tra standardizzazione e personalizzazione, tra lettura dei dati e interpretazione clinica, tra efficienza dei processi e qualità della relazione con il paziente.

ASP TRAPANI_MOBILE

La medicina interna attraversa il testo come filo conduttore, non per una presunta vocazione tecnologica, ma perché è il luogo in cui la complessità clinica, la multimorbilità e l’incertezza decisionale rendono più evidente la distanza tra modelli astratti e pratica quotidiana. È in questo contesto che l’uso dell’intelligenza artificiale pone interrogativi non solo tecnici, ma anche culturali e professionali.

Da quale esigenza nasce il volume?

“Nasce dalla consapevolezza che il modo di fare medicina sta cambiando, perché il processo decisionale è sempre più mediato da dati, modelli e sistemi di supporto algoritmico. Per decenni il medico ha osservato, annotato, dedotto. Poi sono arrivati i numeri, gli algoritmi e nuove forme di rappresentazione della conoscenza. Il punto, però, è che l’intelligenza artificiale non è una bacchetta magica. Trasformerà la medicina, sì, ma dipende da noi se usarla bene, come strumento che accompagna lo sguardo umano e lo mette alla prova, senza sostituirlo. 

Io ho voluto raccontare questa trasformazione senza toni apocalittici né entusiasmo ingenuo. L’IA è un nuovo modo di operare ascoltando ciò che la clinica impone e ricordando una cosa essenziale, ossia che: dietro ogni variabile, ogni immagine, ogni traccia digitale c’è sempre una persona. Se perdiamo questo, perdiamo la medicina. 

Il libro nasce anche da una convinzione di fondo. L’incertezza fa parte della medicina e non è qualcosa da rimuovere. L’intelligenza artificiale può contribuire a gestirla meglio e in modo più consapevole, ma non a farla scomparire“.

Quindi l’intelligenza artificiale non serve a togliere dubbi e ambiguità?

“Esatto! Uno degli errori più comuni è pensare che l’IA elimini l’incertezza clinica. In realtà, l’IA non scioglie l’ambiguità della medicina interna né rende semplici i casi complessi. Offre strumenti per esplorarli meglio poiché è in grado di individuare le traiettorie di rischio, suggerire alternative diagnostiche e supportare le decisioni. Ma la complessità, soprattutto nei pazienti fragili, non è un errore da correggere, ma è una condizione strutturale della pratica clinica. 

Attenzione però, se non è governata da una solida competenza clinica, l’ipersensibilità algoritmica può produrre falsi positivi, allarmi inutili e richieste di esami non necessari. Questo si traduce in un sovraccarico diagnostico, in maggiore ansia per il paziente e per i familiari e in uno spreco di risorse che il sistema sanitario fatica già a sostenere. È il rischio di una medicina ipervigilante che finisce per fare troppo, troppo presto e talvolta senza un reale beneficio.

Per questo parlo di alleanza e non di delega. L’IA è utile quando amplifica il ragionamento, perché ti fa notare pattern non ovvi, ti aiuta nel pre-triage decisionale, raffina l’euristica, ma la responsabilità ultima del “prendersi cura” resta umana, perché richiede ascolto, comunicazione e tolleranza del dubbio. 

Nel libro lei parla di un “nuovo contratto” tra medico e paziente. Cosa significa?

Significa che l’adozione dell’IA cambia la dinamica della fiducia. L’output dell’algoritmo non può essere presentato come una verità oggettiva, ma come un’ipotesi clinica da condividere, discutere, adattare. Il paziente ha diritto a sapere come viene prodotta una raccomandazione, quali sono i margini di errore e se esistono percorsi alternativi.

Questa trasparenza non è burocrazia, ma è cura. Perché la medicina di precisione rischia di diventare impersonale se non è accompagnata da una relazione forte. E allora dico che è in equilibrio, non in delega. L’IA va trattata con rispetto, non con un affidamento cieco. Non è nemica, ma nemmeno un deus ex machina. Riflette e amplifica ciò che siamo come sistema sanitario. Ma se la medicina è cieca, l’IA non la rende veggente. Viceversa, se la medicina è giusta, l’IA la rende più potente.

Per costruire fiducia, però, servono anche regole, che per me sono: spiegabilità, verificabilità, supervisione clinica obbligatoria.  E l’idea di una medicina “driverless” non è ammessa, e soprattutto non è auspicabile”.

Nel libro lei scrive che ogni dato clinico è un frammento di identità. Perché?

“Semplicemente perché oggi i dati sanitari non sono solo materia prima per gli algoritmi, né semplici asset economici. Sono beni relazionali che nascono dalla fiducia tra paziente e sistema sanitario e vanno custoditi con responsabilità. Trattare un dato con superficialità significa tradire non solo la scienza, ma anche la persona che lo ha affidato.

Qui entra in gioco l’etica del dato. Chi può accedere? Per quale fine? Con quali limiti? Come garantire che non venga manipolato, venduto, violato… o peggio usato contro chi lo ha generato? Queste non sono domande accessorie, ma sono le fondamenta della fiducia. E senza fiducia, la medicina non regge, con o senza IA.

C’è poi un paradosso legato alla quantità dei dati. Un volume elevato può creare l’illusione di affidabilità, ma accumulare informazioni non significa automaticamente avvicinarsi alla verità. I sistemi di intelligenza artificiale sono infatti profondamente dipendenti dai dati su cui vengono costruiti. Ma se questi sono incoerenti, ridondanti o poco rappresentativi, il risultato può apparire preciso, ma essere clinicamente fuorviante. E in medicina anche un errore minimo può avere conseguenze importanti.

Per questo è necessaria una governance solida, insieme a nuove figure professionali come il clinical data steward, capaci di garantire qualità, standard e tracciabilità dei dati. Senza un’infrastruttura etica e organizzativa adeguata, la tecnologia non migliora la cura, ma rischia di complicarla ulteriormente”.

Lei contrappone “intelligenza artificiale” e “stupidità naturale”. È una provocazione?

“Sì, ma è una provocazione utile. Il confronto più interessante non è quello tra intelligenza artificiale e intelligenza umana, ma tra intelligenza artificiale e quella che definisco “stupidità naturale”, cioè l’insieme degli errori cognitivi sistematici (bias) che colpiscono anche i clinici più esperti. La medicina impone decisioni rapide, spesso prese sotto pressione, con informazioni incomplete e in contesti organizzativi fragili. In queste condizioni le scorciatoie mentali non sono l’eccezione, ma la regola.

In questo senso, l’IA può diventare un “correttore di traiettoria”. Non perché sia infallibile, ma perché può segnalare pattern, incoerenze e rischi che potremmo trascurare. Però qui c’è il rovescio, perché se noi abdichiamo al pensiero critico, aumentiamo l’automation bias (cioè la tendenza a fidarsi troppo della macchina). Per questo insisto sui tre pilastri citati prima: spiegabilità, verificabilità e supervisione clinica obbligatoria. La spiegazione deve essere comprensibile, altrimenti non puoi fare una revisione critica e rischi il deskilling (in altre parole perdita di abilità); la verificabilità serve a tracciare il percorso decisionale; la supervisione significa che la responsabilità finale resta del professionista.

Quindi sì! La “stupidità naturale” esiste ed è il vero pericolo dell’uso maldestro dell’IA. Ma la soluzione non è idolatrare l’IA, ma formare medici capaci di usare la tecnologia per ridurre gli errori senza perdere umanità”.

Che ruolo ha la medicina interna in questo futuro “aumentato”?

“In questo scenario, la medicina interna può svolgere una funzione di guida, perché l’internista è abituato a confrontarsi ogni giorno con la complessità, l’incertezza e l’integrazione di informazioni diverse. Nel libro sottolineo, apunto, che l’incontro tra internista e intelligenza artificiale deve avvenire su un piano di alfabetizzazione critica. Non basta imparare a usare gli strumenti, bisogna capire quando fidarsi, quando dubitare e come integrare il pensiero clinico con l’algoritmo. Serve una formazione progressiva e transdisciplinare lungo tutta la carriera, non corsi opzionali.

E qui arriva il valore culturale della medicina interna, che non solo un contributo diagnostico, ma anche epistemico, perché in medicina non basta sapere cosa fare, ma bisogna saper pensare mentre si cura. Il futuro dell’IA non si giocherà sulla potenza dei modelli, ma sulla qualità del giudizio clinico che li utilizza. E l’internista ha una responsabilità cruciale che è educare al pensiero critico, accompagnare la transizione, difendere la centralità del paziente.

C’è anche un risvolto organizzativo legato alla sinergia tra medici di medicina generale, pediatri di libera scelta e internisti, una collaborazione che può diventare decisiva. Insieme si possono costruire modelli decisionali adattivi e contestualizzati, capaci di coniugare algoritmi e umanità, migliorando la continuità assistenziale e riducendo la pressione ospedaliera.

Alla fine, il senso di tutto questo è semplice. Curare con intelligenza non significa soltanto usare tecnologie avanzate, ma significa decidere meglio, agire con maggiore consapevolezza e ascoltare di più. Perché la vera sfida è continuare a restare umani anche mentre la medicina diventa sempre più complessa”.

di Giorgia Gorner Enrile
© Riproduzione Riservata

Sviluppato, Gestito ed ottimizzato da Coffice s.r.l.