Un aspetto centrale e critico del dibattito sull’introduzione dell’intelligenza artificiale (AI) nel contesto sanitario emerso dalla tavola rotonda che ho “moderato” al Bhave Summit 2024 riguarda la validazione clinica e la certificazione dei risultati ottenuti con l’uso di queste tecnologie.
Questo è un punto particolarmente delicato e spesso sottovalutato, soprattutto se confrontato con il rigore con cui vengono valutati i farmaci e i dispositivi medici tradizionali. La mancanza di protocolli chiari e di standard scientificamente riconosciuti rappresenta uno dei principali ostacoli all’adozione diffusa dell’AI nelle pratiche cliniche.
Le Sfide degli Studi Clinici per l’AI
Uno dei principali problemi connessi all’utilizzo dell’intelligenza artificiale nella sanità è la carenza di studi clinici adeguati che ne validino l’efficacia. Mentre i farmaci e i dispositivi medici devono seguire un percorso regolatorio ben definito, che include fasi di sperimentazione clinica rigorosamente strutturate, lo stesso non si può dire per l'AI. Gli algoritmi di intelligenza artificiale, infatti, spesso si basano su modelli statistici complessi e dinamici che evolvono nel tempo, il che rende difficile valutarne i risultati con gli stessi parametri utilizzati per i farmaci.
Gli studi clinici tradizionali sono progettati per testare ipotesi su campioni di popolazione ben definiti, seguendo rigide fasi di sperimentazione (fase I, II, III, IV), con misure di esito specifiche e replicabili. Invece, i modelli di AI, come i sistemi di machine learning o deep learning, sono in continua evoluzione, poiché il loro apprendimento si basa sull'analisi di enormi quantità di dati che possono cambiare o essere aggiornati. Questa natura dinamica rende difficile la standardizzazione dei test e la ripetibilità dei risultati, che sono pilastri fondamentali degli studi clinici tradizionali.
Problemi di Generalizzazione e Bias dei Dati
Un’altra questione chiave riguarda la generalizzabilità dei risultati. L’AI si basa sui dati, ma la qualità di questi dati è fondamentale per garantire la bontà delle previsioni o delle diagnosi prodotte. Se i dati utilizzati per addestrare l’algoritmo non sono sufficientemente rappresentativi dell'intera popolazione, si rischia di ottenere modelli distorti o parziali, che potrebbero non essere applicabili a contesti diversi da quelli inizialmente considerati.
Ad esempio, se un algoritmo è addestrato su dati clinici provenienti da una popolazione specifica (ad es., una popolazione di un determinato ospedale o area geografica), potrebbe non funzionare bene su pazienti con caratteristiche diverse. Questo crea una questione di bias che, in campo medico, può avere gravi conseguenze per i pazienti. Un modello che funziona bene su un gruppo demografico potrebbe generare errori diagnostici in altri gruppi, portando a trattamenti inappropriati o inefficaci.
Mancanza di Regolamentazione e Standard Certificativi
Un altro aspetto problematico è la mancanza di un quadro regolatorio chiaro per la certificazione dell'AI in ambito clinico. A differenza dei farmaci, che devono essere sottoposti a valutazioni rigorose da parte di enti regolatori come l’Agenzia Europea per i Medicinali (EMA) o la Food and Drug Administration (FDA), non esistono ancora standard internazionali universalmente accettati per la certificazione dell’AI.
Questa lacuna regolatoria significa che molti strumenti basati sull’intelligenza artificiale vengono implementati senza una validazione clinica sufficiente, mettendo potenzialmente a rischio la sicurezza dei pazienti. Alcuni algoritmi vengono sviluppati e lanciati sul mercato in modo frettoloso, spesso con poche prove che ne confermino l’efficacia clinica su larga scala. Questo è un aspetto critico, poiché l’affidamento su un’AI non sufficientemente testata potrebbe portare a diagnosi errate, ritardi nel trattamento o errori terapeutici.
La normativa vigente per i dispositivi medici impone specifiche rigorose per la loro validazione e certificazione, con una chiara divisione delle responsabilità tra produttore e medico prescrittore. Tuttavia, l’AI non è attualmente soggetta a questi stessi requisiti. Il regolamento UE sui dispositivi medici (MDR), entrato in vigore nel 2021, ha iniziato a includere tecnologie digitali, ma resta molto lavoro da fare per adattare questi standard alle peculiarità degli algoritmi AI, che richiedono un monitoraggio continuo e una validazione periodica.
Rischi di Responsabilità Legale
Un’altra sfida significativa è legata alla responsabilità medica. Se un medico utilizza uno strumento AI per supportare le sue decisioni cliniche e questo strumento produce un risultato sbagliato, chi è il responsabile? Il medico, che si è affidato alla tecnologia, o il produttore dell’algoritmo? Questo è un terreno ancora inesplorato in molti Paesi e pone interrogativi legali complessi.
Per garantire la sicurezza dei pazienti, è necessario che vengano stabilite linee guida chiare e un quadro normativo che definisca le responsabilità in modo preciso. Attualmente, il quadro legislativo non è allineato con la velocità di sviluppo delle nuove tecnologie, lasciando molti punti oscuri in termini di responsabilità legale e protezione dei pazienti.
La Sfida dell'Interpretabilità dell'AI
Infine, uno dei problemi più discussi è la mancanza di trasparenza e interpretabilità delle decisioni prese dall'AI. Gli algoritmi più avanzati, come quelli basati su deep learning, operano come "scatole nere", nel senso che generano risultati senza che sia possibile comprendere esattamente come siano stati raggiunti. Questo è in contrasto con l'approccio clinico tradizionale, in cui ogni decisione medica deve essere giustificata e motivata. Per i medici, utilizzare uno strumento che non fornisce una chiara logica delle sue scelte potrebbe essere pericoloso, soprattutto in situazioni complesse in cui è richiesta la massima precisione.
Senza un’adeguata tracciabilità dei processi decisionali dell’AI, i medici potrebbero trovarsi a fidarsi di un sistema che non possono verificare, con un impatto potenzialmente devastante per la qualità delle cure.
Conclusioni
L’introduzione dell’AI nella sanità è un percorso promettente, ma al contempo complesso e pieno di insidie. Gli studi clinici e la certificazione di questi strumenti sono fondamentali per garantire che la tecnologia non solo sia efficace, ma anche sicura e affidabile. Le autorità regolatorie e i professionisti della salute devono collaborare per definire standard chiari e condivisi che possano regolare l’introduzione dell’AI nelle pratiche cliniche. Solo attraverso un approccio rigoroso e validato scientificamente sarà possibile trasformare l’intelligenza artificiale in uno strumento realmente utile, senza mettere a rischio la salute dei pazienti.
Guarda le videopillole dell'evento
Presidente SIT Antonio Vittorino Gaddi:
Massimiliano Nicolini:
Davide Bottalico:
Salvatore Ruggiero
CEO Merqurio
"Nursing up: "No a misure tampone". Il ministro: "Sulle liste di attesa le regioni utilizzino i fondi già stanziati"
L’87% dei cittadini afferma di non essere mai stato coinvolto in indagini sulla qualità del servizio o in iniziative per migliorare le strutture sanitarie
Ricerca del Cro di Aviano pubblicata sul Journal of Pathology
NTLA-2002 somministrato in una dose singola di 25 mg o 50 mg ha ridotto gli attacchi di angioedema
La finalità del divieto è di garantire la massima efficienza e funzionalità operativa all'Ssn, evitando gli effetti negativi di un contemporaneo esercizio, da parte del medico dipendente, di attività professionale presso strutture accreditate
Le richieste puntano sull'adeguamento economico e sulla riorganizzazione del lavoro
Con la graduatoria parte la caccia ai 22mila posti
Nursing Up: "Mai così tante. In nessun ospedale agenti dopo le 24"
Commenti