L’avanzamento esponenziale dell’Intelligenza Artificiale (IA) sta ridefinendo il panorama della sanità, promettendo innovazioni rivoluzionarie nei dispositivi medici. Con queste opportunità emergono tuttavia complesse sfide normative, legate alla necessità di garantire sicurezza, efficacia e affidabilità di sistemi che apprendono e si evolvono. In questo contesto, le principali giurisdizioni globali stanno affinando i propri quadri regolatori per accogliere queste tecnologie
Negli Stati Uniti, la Food and Drug Administration (FDA) ha recentemente pubblicato la bozza della guida “Artificial Intelligence-Enabled Device Software Functions: Lifecycle Management and Marketing Submission Recommendations“, un documento chiave che delinea le aspettative dell’agenzia per la gestione del ciclo di vita e le sottomissioni di marketing dei dispositivi medici abilitati all’IA. Parallelamente, l’Unione Europea si è mossa con un approccio normativo distinto, culminato nell’adozione dell’AI Act (AIA), il primo quadro legislativo completo al mondo sull’IA
Mentre FDA si concentra sulle specifiche tecniche e procedurali per l’autorizzazione e la sorveglianza dei dispositivi medici AI-driven, inquadrandoli all’interno del suo consolidato sistema regolatorio per i dispositivi medici, l’AI Act europeo adotta una prospettiva più ampia e basata sul rischio, classificando i sistemi di IA in base al loro potenziale impatto sui diritti fondamentali e sulla sicurezza, con requisiti stringenti per le applicazioni ad alto rischio, tra cui rientrano molti dispositivi medici.
La Linea Guida FDA
II documento di FDA “Artificial Intelligence-Enabled Device Software Functions: Lifecycle Management and Marketing Submission Recommendations” è una guida fondamentale (attualmente ancora in bozza) che fornisce raccomandazioni complete ai produttori di dispositivi medici che incorporano funzioni software abilitate all’intelligenza artificiale (AI-DSF). L’obiettivo principale è garantire la sicurezza e l’efficacia di questi dispositivi lungo il loro intero ciclo di vita del prodotto (Total Product Life Cycle – TPLC). Ecco un riassunto dei punti chiave di tale Linea Guida:
- Approccio olistico al TPLC : La guida enfatizza un approccio completo alla gestione del ciclo di vita dei dispositivi abilitati all’IA, dalla fase di progettazione e sviluppo fino alla sorveglianza post-commercializzazione. Questo riconosce le specificità dell’IA rispetto ai dispositivi medici tradizionali. In pratica tale approccio rappresenta un’aspettativa che il produttore dimostri una comprensione approfondita e un controllo proattivo del proprio dispositivo abilitato all’IA, dalla sua concezione alla sua dismissione, garantendo che rimanga sicuro ed efficace nel tempo e in contesti d’uso reali
- Contenuto delle sottomissioni di marketing . Vengono fornite raccomandazioni dettagliate su ciò che i produttori dovrebbero includere nelle loro richieste di autorizzazione alla commercializzazione (premarket submissions). Questo include:
- Descrizione del dispositivo : Una chiara spiegazione di come l’IA viene utilizzata per raggiungere lo scopo previsto del dispositivo, i suoi input e i suoi output, l’ambiente di utilizzo e gli utenti previsti
- Interfaccia utente e etichettatura : Dettagli su come l’interfaccia utente è progettata per garantire una chiara comprensione e interazione con il dispositivo, comprese le informazioni che devono essere fornite agli utenti sull’uso dell’IA nel dispositivo, le sue limitazioni e le prestazioni
- Valutazione del rischio : Una valutazione completa dei rischi specifici introdotti dall’IA che riguardano ad esempio il fatto che:
- i dati di addestramento o validazione siano non rappresentativi della popolazione d’uso prevista, portando a prestazioni inique o inefficaci per alcuni sottogruppi (es. etnia, sesso, età, condizioni socio-economiche);
- le prestazioni del modello IA si deteriorino nel tempo a causa di cambiamenti nei dati di input nel mondo reale
- la complessità del modello IA renda difficile per gli utenti clinici (o anche per la FDA) comprendere il motivo di una specifica decisione o raccomandazione
- attacchi malevoli possano indurre il modello IA a fornire output errati o dannosi
- il modello si adatti troppo bene ai dati di addestramento, perdendo la capacità di generalizzare accuratamente i nuovi dati.
- Gestione dei dati : Una accurata descrizione di come i dati vengono raccolti, curati, annotati e gestiti per garantire la rappresentatività e affrontare i potenziali bias
- Descrizione e sviluppo del modello IA: Dettagli sull’architettura del modello, il processo di sviluppo, i set di dati utilizzati per l’addestramento e la convalida, e come i diversi output del modello si combinano per creare l’output finale del dispositivo
- Validazione: Piani e dati di validazione per dimostrare le prestazioni del dispositivo in condizioni reali, inclusi test autonomi e valutazioni dell’interazione uomo-dispositivo
- Monitoraggio delle prestazioni del dispositivo : Piani per il monitoraggio continuo delle prestazioni del dispositivo dopo la commercializzazione, inclusa la gestione di potenziali “deriva” dei dati o cambiamenti nelle prestazioni.
- Sicurezza informatica: Raccomandazioni specifiche per la sicurezza informatica nei dispositivi abilitati all’IA, data la loro dipendenza dai dati e dalla connettività
- Trasparenza e Bias: La guida sottolinea l’importanza di affrontare la trasparenza e le potenziali distorsioni (bias) durante tutto il TPLC. Si incoraggia la valutazione delle prestazioni del modello tra diversi sottogruppi demografici (es. razza, etnia, sesso, età) per garantire che il dispositivo offra benefici simili a tutte le popolazioni rilevanti
Il Protocollo PCCP
Estremamente importante è poi un documento che. pur essendo distinto dalla Linea Guida, è al quanto correlato con essa. Si tratta del Predetermined Change Control Plan (PCCP) introdotto dalla FDA per affrontare la natura evolutiva e dinamica dei dispositivi medici abilitati all’Intelligenza Artificiale, in particolare quelli basati su Machine Learning (ML).
In sintesi, il PCCP è un piano pre-approvato dal produttore e dalla FDA che descrive le modifiche future previste per un dispositivo AI-DSF (AI-enabled Device Software Functions ) e come tali modifiche saranno gestite, verificate e validate. L’obiettivo principale è semplificare il processo normativo per gli aggiornamenti post-commercializzazione, evitando che ogni piccola modifica dell’algoritmo richieda una nuova e dispendiosa sottomissione di marketing completa alla FDA. Cosa include un PCCP (componenti chiave):
- Descrizione delle modifiche previste : dove Il produttore deve delineare chiaramente i tipi di modifiche che intende apportare al dispositivo AI-DSF in futuro. Queste modifiche devono essere sufficientemente specifiche e ben definite e devono rientrare nell’uso previsto e nelle indicazioni d’uso del dispositivo originale, o che non alterino in modo significativo la sicurezza o l’efficacia (o la sostanziale equivalenza per i 510(k))
- Protocollo di modifica : che riporta come le modifiche saranno implementate e controllate. Sono incluse:
- Pratiche di gestione dei dati: in cui devono essere definiti in che modo i nuovi dati saranno raccolti, curati, annotati e gestiti per l’addestramento e la validazione
- Pratiche di ri-addestramento : i metodi e le strategie per ri-addestrare o aggiornare il modello IA
- Valutazione delle prestazioni : i criteri di accettazione predefiniti e le metodologie di test (es. test su set di dati specifici, test di robustezza, test su sottogruppi) per verificare che le modifiche non compromettano la sicurezza o l’efficacia. Questo include metriche di performance chiare
- Procedure di aggiornamento : Come le modifiche saranno distribuite ai dispositivi, inclusi i piani di comunicazione agli utenti e i meccanismi di monitoraggio post-implementazione
- Valutazione dell’impatto : Il produttore deve valutare i potenziali benefici e rischi (inclusi i rischi di “danno sociale” o bias) derivanti dalle modifiche pianificate. Ciò significa che il produttore ha considerato come le modifiche influenzeranno la sicurezza e l’efficacia del dispositivo e che dispone di controlli adeguati
Processo di Approvazione: Il PCCP viene presentato alla FDA come parte della sottomissione di marketing iniziale del dispositivo . La FDA esamina e, se soddisfatta, “autorizza” il PCCP. Una volta autorizzato, il produttore può implementare le modifiche specificate nel piano senza la necessità di ulteriori sottomissioni di marketing individuali, purché tali modifiche rientrino nei parametri definiti e siano implementate secondo il protocollo approvato
Il PCCP della FDA rappresenta un approccio normativo innovativo e pragmatico, specificamente studiato per affrontare la natura evolutiva dell’Intelligenza Artificiale, in particolare il Machine Learning. Riconoscendo che i modelli IA sono intrinsecamente dinamici e spesso migliorano con l’esposizione a nuovi dati o con l’affinamento degli algoritmi, la FDA offre un meccanismo che consente ai produttori di pianificare e pre-approvare determinate categorie di modifiche. Questo elimina la necessità di una nuova sottomissione regolatoria completa per ogni piccolo aggiornamento, riducendo i tempi e i costi di immissione sul mercato di versioni migliorate e più performanti. L’accordo preventivo tra FDA e fabbricante, basato su un protocollo dettagliato di gestione delle modifiche e di verifica delle prestazioni, promuove una continua innovazione responsabile, garantendo che la sicurezza e l’efficacia del dispositivo siano mantenute o addirittura migliorate nel tempo, senza bloccare il progresso tecnologico con iter burocratici ripetitivi. Questo approccio è un esempio di come un’autorità regolatoria possa adattare la sua struttura per favorire lo sviluppo di tecnologie emergenti pur mantenendo un rigoroso controllo sulla sicurezza del paziente.
Al contrario, l’AI Act dell’Unione Europea, sebbene fondamentale per stabilire un quadro normativo olistico e basato sul rischio per l’IA, adotta un’impostazione che, per i dispositivi medici ad alto rischio (categoria in cui rientrano la maggior parte dei dispositivi IA medici), appare più rigida e potenzialmente meno agile nella gestione degli aggiornamenti post-commercializzazione. L’AI Act si concentra sulla conformità iniziale a requisiti stringenti, compresa una rigorosa valutazione della conformità con il coinvolgimento di un organismo notificato per i sistemi ad alto rischio. Sebbene preveda requisiti di monitoraggio post-commercializzazione e la gestione del ciclo di vita, l’assenza di un meccanismo analogo al PCCP per le modifiche predeterminate implica che ogni “cambiamento sostanziale” a un sistema IA ad alto rischio potrebbe richiedere una nuova valutazione di conformità. Questo, unito alla complessità e alla sovrapposizione con le già esistenti MDR/IVDR per i dispositivi medici, rischia di creare un onere normativo significativo per i produttori che operano nel mercato europeo, potenzialmente rallentando l’implementazione di miglioramenti e aggiornamenti ai modelli IA che potrebbero portare benefici ai pazienti.
In entrambi gli approcci però una volta che una specifica versione dell’applicazione medicale è installata ed operativa presso gli utenti, l’applicazione stessa deve rimanere sostanzialmente “statica” nella sua logica operativa e decisionale. Significa che la versione del modello di IA che è stata validata e rilasciata non continua ad apprendere e a modificare autonomamente il proprio comportamento in tempo reale, senza il controllo del fabbricante. Non è permesso quindi che il software si auto-modifichi imparando da ogni singolo dato del paziente che processa quotidianamente (apprendimento autonomo), perché questo introdurrebbe un’imprevedibilità e un rischio inaccettabili
Commenti Finali
In conclusione, mentre la FDA sta promuovendo un modello più flessibile e adattivo per facilitare l’iterazione e l’aggiornamento continuo dei dispositivi AI-DSF nel loro ciclo di vita, l’UE, con la sua enfasi su un controllo più preventivo e rigoroso attraverso l’AI Act, potrebbe inavvertitamente creare un ambiente meno propizio per l’adozione rapida di innovazioni incrementali nei dispositivi medici basati sull’IA. La sfida per l’Europa sarà trovare un equilibrio tra la necessità di una regolamentazione robusta per tutelare i diritti e la sicurezza, e la flessibilità necessaria per non ostacolare l’innovazione in un campo in così rapida evoluzione.
Commenti recenti