Privacy Policy
Home / Cronaca / Dalla nascita di ChatGPT Salute ai dubbi di Google: l’IA tra opportunità e rischi in sanità

Dalla nascita di ChatGPT Salute ai dubbi di Google: l’IA tra opportunità e rischi in sanità

Nel giro di poche settimane, il rapporto tra intelligenza artificiale e salute ha subito una brusca accelerazione. Da un lato OpenAI ha annunciato il lancio di ChatGPT Salute, un ambiente dedicato alle informazioni sanitarie personali, progettato per affiancare, e non sostituire, il medico. Dall’altro Google ha scelto una linea opposta, limitando o rimuovendo alcune risposte mediche generate da AI Overview dopo un’inchiesta del Guardian che ha messo in dubbio l’accuratezza clinica dei suoi “sommari” automatici.

Due strategie divergenti che fotografano la stessa inquietudine. L’ingresso sempre più profondo dell’IA in un ambito delicatissimo come quello sanitario, dove un’informazione imprecisa non è solo un errore, ma può diventare un rischio concreto per la salute delle persone.

Google frena, OpenAI rilancia

La decisione di Google di ridimensionare le risposte dell’IA su quesiti medici, come i valori di riferimento degli esami del sangue o i parametri della pressione arteriosa, nasce da una criticità strutturale ovvero l’assenza di contesto clinico. Le risposte automatiche forniscono valori medi che non tengono conto di variabili decisive come età, sesso, condizioni pregresse e comorbilità.

È proprio su questo punto che si concentra l’analisi di Tiziano Innocenti, direttore dell’Unità di metodologia della ricerca della Fondazione GIMBE:
“L’intelligenza artificiale generativa, se impiegata con consapevolezza, può aiutare i cittadini a orientarsi meglio: spiegare termini medici complessi, preparare domande per la visita, riassumere informazioni o tradurre referti in un linguaggio più semplice”. Ma il confine è sottile. “Questi sistemi non “ragionano” come un professionista sanitario e non verificano la correttezza dei contenuti che producono. Generano testi fluidi e convincenti, che possono sembrare autorevoli anche quando contengono errori”.

Un’informazione apparentemente corretta può dunque diventare fuorviante se estrapolata dalla realtà individuale del paziente. Un anziano con patologie cardiovascolari, ad esempio, ha obiettivi pressori diversi rispetto a un giovane adulto in buona salute. “Se il cittadino utilizza l’IA come se stesse parlando con un professionista, il rischio di disinformazione cresce: interpretazioni errate dei sintomi, sottovalutazione di segnali d’allarme o, al contrario, allarmismi ingiustificati”, avverte Innocenti.

Una tecnologia promettente, ma non ancora matura

OpenAI, al contrario di Google, ha scelto di strutturare un ambiente separato e regolamentato per l’uso sanitario. ChatGPT Salute promette maggiori tutele sulla privacy, la possibilità di collegare cartelle cliniche e app di benessere e modelli sviluppati con il contributo diretto di centinaia di medici. Un tentativo di governare il fenomeno, più che di limitarlo.

Ma quanto è solida, oggi, la base scientifica di queste applicazioni? Secondo Innocenti, le evidenze esistono, ma vanno lette con cautela: “Le prove scientifiche stanno aumentando, ma la loro qualità è ancora molto disomogenea. È importante distinguere tra la performance tecnica degli strumenti e la loro reale utilità clinica”.

Se sul piano tecnico alcuni modelli mostrano buone prestazioni in compiti ben delimitati, come riassunti o supporto alla scrittura ma: “ben diverso è il quadro quando si valuta efficacia, sicurezza e appropriatezza in contesti reali”. Qui le evidenze sono ancora limitate e i rischi non sono solo teorici: “I modelli possono produrre informazioni false o inventate, le cosiddette allucinazioni, pur formulate in modo credibile. Possono riflettere distorsioni presenti nei dati di addestramento e mostrare prestazioni variabili in base alla lingua, al contesto clinico e alla complessità del caso, rendendo difficile un utilizzo standardizzato e sicuro. La lettura più prudente è quindi quella di una tecnologia promettente, ma non ancora matura per un impiego esteso nelle applicazioni cliniche.

Le evidenze appaiono più solide per utilizzi a rischio contenuto, come il miglioramento della chiarezza dei testi, la comunicazione con i pazienti o il supporto alle attività amministrative e documentali. In ogni caso, l’output dovrebbe essere sempre controllato e validato da personale competente.”

L’effetto sui pazienti e sul Servizio sanitario

Un altro nodo cruciale riguarda l’uso diretto dell’IA da parte dei cittadini. Il rischio è che aumentino richieste inappropriate di esami e prestazioni. “Se un paziente inserisce sintomi generici , come stanchezza o mal di testa,  l’IA può restituire un ventaglio molto ampio di possibili cause, incluse patologie gravi, senza però stimarne la probabilità nel singolo caso”, spiega Innocenti. In alcune persone questo può tradursi in ansia e in una corsa agli esami “per sicurezza”.

Ma l’effetto non è univoco. “Se utilizzati con consapevolezza, questi strumenti possono anche aiutare i pazienti a preparare domande da discutere con il medico e a capire che alcuni esami, in determinati contesti, hanno un valore limitato”. L’impatto sull’appropriatezza dipende dunque dal design dello strumento, dal modo in cui le risposte vengono presentate e dal livello di alfabetizzazione sanitaria dell’utente.

Regole chiare per evitare l’equivoco più pericoloso

Il rischio più grande resta quello di percepire l’IA come un sostituto del medico. “È fondamentale impedire che un sistema nato per generare testi venga usato come strumento decisionale clinico”, sottolinea Innocenti. “La prima regola è la trasparenza: l’utente deve sapere sempre di interagire con un’IA e comprenderne i limiti”.

Diagnosi e decisioni terapeutiche, ricorda GIMBE, non sono delegabili a un algoritmo. “L’IA può supportare la comprensione di concetti e informazioni generali, ma non dovrebbe produrre output prescrittivi sul singolo caso, come indicazioni terapeutiche o dosaggi. Ancora più delicato il tema delle urgenze. In presenza di sintomi gravi, il sistema dovrebbe interrompere la conversazione e indirizzare esplicitamente verso un professionista o i servizi di emergenza.

Servono inoltre audit periodici, monitoraggio continuo, canali per segnalare errori, garanzie sulla privacy e controlli per evitare discriminazioni. E soprattutto formazione: I professionisti devono saper interpretare criticamente gli output e usare l’IA come supporto comunicativo, non come scorciatoia clinica”.

La vera sfida è culturale

Il punto centrale, oggi, non è stabilire se l’intelligenza artificiale debba entrare nel campo della salute. È già successo. La vera sfida è culturale: spiegare ai cittadini che l’IA non “sa”, ma elabora; che non decide, ma genera risposte probabilistiche; che non sostituisce il giudizio clinico.

Senza alfabetizzazione sanitaria e digitale, il rischio è quello di scambiare una risposta convincente per una risposta giusta. E in medicina, come dimostra il confronto tra Google e OpenAI, questa differenza non è mai stata così decisiva.

di Riccardo Vaccaro
© Riproduzione Riservata

Sviluppato, Gestito ed ottimizzato da Coffice s.r.l.