L’integrazione del Machine Learning (ML) nel software medico ha radicalmente mutato il paradigma di riferimento: non si opera più con logiche deterministiche basate su regole fisse, ma con modelli probabilistici che “imparano” dai dati. Se questo progresso offre opportunità diagnostiche senza precedenti, introduce al contempo una sfida regolatoria di primaria importanza: la gestione del bias algoritmico.

La domanda che oggi definisce il successo di una valutazione clinica non è più solo l’accuratezza media, ma l’equità: L’algoritmo è performante in modo equo su ogni sottogruppo della popolazione target?”. Un software che eccelle nel rilevare una patologia in un segmento demografico, ma che fallisce sistematicamente in un altro, a causa di un training set sbilanciato o di distorsioni storiche, non è solo inaffidabile: è un dispositivo che introduce un rischio clinico inaccettabile.

In questo articolo esploreremo come trasformare l’equità algoritmica da concetto etico a requisito di prestazione tecnica, analizzando:

  • Le strategie di mitigazione del bias.

  • L’importanza della stratificazione dei dati.

  • I criteri documentali necessari per dimostrare  che il proprio algoritmo non è solo performante, ma clinicamente equo.

L’Anatomia del Bias: Dove si nascondono gli errori

Il Machine Learning non è intrinsecamente neutrale. Il modello funge da specchio: se i dati di addestramento riflettono pregiudizi, lacune o prassi cliniche non ottimali, l’algoritmo non solo li apprenderà, ma li amplificherà : dimostrare di aver identificato e mappato queste fonti di bias è la prova primaria di una gestione del rischio proattiva.

Per un’analisi rigorosa, classifichiamo i bias in quattro categorie critiche:

  1. Bias di Selezione: Si verifica quando il dataset non riflette accuratamente la popolazione reale di destinazione (Intended Use). Ad esempio un modello addestrato solo su pazienti di centri di eccellenza occidentali potrebbe fallire su popolazioni con diversa etnia o background genetico. È necessario quindi giustificare il bilanciamento del dataset e, nel caso di lacune note, è obbligatorio esplicitare le limitazioni del dispositivo nelle Istruzioni per l’Uso
  2. Bias Storico: È la forma più insidiosa, poiché deriva da prassi cliniche consolidate. Se l’algoritmo apprende da cartelle cliniche in cui alcune categorie sociali hanno storicamente ricevuto meno screening, il modello potrebbe “imparare” erroneamente che tali categorie necessitano di meno cure.
  3. Bias di Etichettatura : Il ground truth (verità di riferimento) dipende dalla soggettività dell’esperto umano. Ad esempio se le linee guida di annotazione non sono standardizzate, la variabilità inter-operatore (tra diversi esperti) introduce rumore cognitivo e quindi l’algoritmo può ricevere input contraddittori, trasformando la soggettività umana in incertezza algoritmica
  4. Bias di Misurazione: Si verifica quando le prestazioni del modello dipendono indebitamente dalle caratteristiche tecniche degli strumenti di acquisizione dei dati o dalle condizioni ambientali. Ad esempio un algoritmo di analisi immagini addestrato esclusivamente su output di un determinato vendor può fallire drasticamente se utilizzato con dispositivi che applicano diversi algoritmi di compressione, calibrazione del colore o filtri proprietari.

Strategie Tecniche di Mitigazione

Il miglior approccio per ridurre le possibili situazioni di Bias è quello detto di  Fairness by Design che implica che l’equità non venga verificata solo a valle, come test di accettazione finale, ma sia parte integrante della pipeline di sviluppo del software. La mitigazione del bias non è un processo correttivo, ma ingegneristico.

Il primo passo critico è l’analisi di stratificazione che consiste nello scomporre il dataset di addestramento in sottogruppi basati su variabili sensibili (età, genere, etnia, comorbidità, tipologia di sensore ecc,) con l’obiettivo è mappare le discrepanze nella distribuzione dei dati : la presenza di un sottogruppo significativamente sottorappresentato espone il modello al rischio di underfitting, compromettendo la sua capacità di generalizzare su quella specifica popolazione

Per cui prima di addestrare, é importante valutare se sia necessario acquisire nuovi dati mirati o se sia possibile intervenire sulla struttura esistente del dataset.

Qualora la raccolta di ulteriori dati clinici risultasse impraticabile per vincoli di costo o di etica, è possibile ricorrere a tecniche di bilanciamento matematico:

  • Re-sampling: Si agisce sulla frequenza di campionamento tramite oversampling (incremento dei casi rari) o undersampling (riduzione dei gruppi dominanti)
  • Data Augmentation: Si creano varianti  dei dati esistenti — attraverso rotazioni, aggiunta di rumore controllato o trasformazioni geometriche — per forzare il modello a isolare caratteristiche invarianti rispetto al rumore dello strumento fisico che ha catturato il dato digitale originale o alle condizioni di acquisizione

La sfida tecnica principale è comunque quella di evitare l’overfitting, ovvero il rischio che il modello “impari a memoria” le variazioni fornite anziché estrarre pattern clinicamente rilevanti. Qualsiasi intervento di manipolazione dei dati deve essere sempre documentato rigorosamente.

Comunque sia, la strategia di mitigazione più solida rimane l’uso di un test set indipendente, mai visto dal modello durante la fase di tuning. Il test set deve riflettere la variabilità clinica attesa. Se il software verrà utilizzato in 10 ospedali diversi, il test set deve contenere dati provenienti da almeno 10 sorgenti (o macchinari) differenti. Questo processo di validazione esterna è il criterio d’oro per dimostrare che il software non ha “imparato” solo le caratteristiche specifiche del dataset di addestramento, ma possiede una reale capacità di generalizzazione clinica

La Documentazione Tecnica 

La Documentazione Tecnica  non è un mero archivio, ma la narrazione logica del ciclo di vita del dispositivo. Per un software basato su AI/ML, la documentazione deve rispondere in modo inequivocabile a tre domande: Perché è stato progettato così? Come è stato validato? Cosa succede se il modello fallisce?

I documenti cardine che compongono questa “architettura di trasparenza” sono:

  • Algorithmic Impact Assessment (AIA): che é  la valutazione del rischio centrata sul dato. Deve dettagliare:
    • Contesto Clinico: Definizione precisa del setting di utilizzo.
    • Mappatura degli Stakeholder: Identificazione di pazienti, medici e categorie vulnerabili.
    • Analisi dell’Impatto: Valutazione preventiva dei rischi (es. bias etnici o disparità diagnostiche).
    • Mitigazione: Descrizione delle misure di controllo (es. limiti di età o di utilizzo clinico) implementate per abbattere il rischio residuo.
  • Data Provenance: che traccia la storia evolutiva del dataset e contiene
    • Fonte: Provenienza geografica e clinica
    • Criteri di Selezione: Giustificazione metodologica sulla scelta e sull’esclusione di determinati dati
    • Protocollo di Labeling: Dettagli sulla competenza clinica degli annotatori e sulla validazione cross-expert (il protocollo di controllo qualità sull’etichettatura)
  • Fascicolo delle Performance Segmentate : Rappresenta la prova tecnica dell’assenza di bias: è la dimostrazione che il modello non è performante solo “in media”, ma è affidabile in ogni contesto previsto. Deve contenere tabelle di performance per ogni sottogruppo critico

Il Post-Market ed il problema dei Data Drift

In ambito medico, l’immissione sul mercato non segna il termine del processo, ma l’inizio della fase di monitoraggio attivo. In tale attività uno dei problemi più importante da tenere sottocontrollo é il cosiddetto Data Drift che è “il fenomeno per cui le caratteristiche statistiche dei dati, che un modello di Machine Learning riceve nel mondo reale. cambiano rispetto a quelle del dataset con cui è stato inizialmente addestrato”

Il Data Drift rappresenta il vero “tallone d’Achille” di ogni dispositivo basato su Machine Learning. A differenza di un software tradizionale, che mantiene un comportamento costante finché il codice rimane invariato, un modello di AI può degradare le proprie prestazioni pur mantenendo inalterato il codice sorgente. Il motivo è semplice: il contesto in cui opera — il mondo reale — è in costante mutamento.

Le cause di tale deriva possono essere catalogate in tre fattori principali:

  • Evoluzione tecnologica: L’introduzione di nuovi strumenti o di nuove generazioni di hardware (es. ecografi con risoluzioni superiori) che producono dati statisticamente diversi da quelli del training set originale.
  • Mutamento della pratica clinica: L’adozione di nuovi protocolli terapeutici che alterano la presentazione clinica dei sintomi.
  • Variabilità demografica: Cambiamenti nella popolazione di pazienti che accede alla struttura sanitaria, rendendo il modello meno rappresentativo.

Il piano di Post-Market Clinical Follow-up (PMCF) deve evolvere verso una vigilanza algoritmica continua, basata su due pilastri operativi:

  1. Monitoraggio delle performance in tempo reale: Non è sufficiente analizzare i log di errore. È necessario implementare sistemi di confronto campionario tra le previsioni dell’algoritmo e il gold standard (le diagnosi confermate dai clinici), per rilevare cali di accuratezza su base continuativa.
  2. Indicatori di Drift statistico: Il sistema deve monitorare costantemente la distribuzione dei dati in ingresso. Se i parametri (es. contrasto delle immagini, distribuzione delle età) deviano significativamente dalla baseline archiviata durante lo sviluppo, il sistema deve generare un alert automatico.

Il rilevamento del drift non deve limitarsi a segnalare il problema, ma deve attivare una procedura di revisione clinica e, se necessario, un piano di re-training validato, garantendo che il dispositivo evolva in modo controllato insieme alla pratica medica.

L’Audit Periodico . Il controllo della qualità nel tempo

La conformità non è un traguardo statico, ma un processo continuo. L’audit periodico,  deve estendersi dalla revisione documentale alla verifica dinamica delle prestazioni del modello, basandosi su due pilastri procedurali:

  1. Analisi dei Casi Limite (Edge Cases) : in cui ogni discrepanza tra l’output algoritmico e il parere del clinico deve essere trattata come un dato di monitoraggio. Questi casi, in cui il software fornisce risposte incerte o divergenti dalla diagnosi umana, costituiscono i “segnali deboli” di un possibile Data Drift. Il protocollo di audit deve prevedere la sistematica cattura, archiviazione e analisi di questi casi per alimentare il ciclo di miglioramento continuo.
  2. Protocollo di Update e Re-training Validato : È essenziale definire una procedura per l’aggiornamento del modello che sia tecnicamente solida e regolatoriamente tracciabile
    • Soglia di Intervento: Deve essere stabilita una metrica quantitativa (es. un tasso di errore specifico o un indice di divergenza statistica) che, una volta superata, inneschi automaticamente la procedura di re-training.
    • Aggiornamento Validato: Il fabbricante deve disporre di un percorso pre-validato per l’integrazione dei dati raccolti sul campo (Real World Data). Questo permette di migliorare l’algoritmo in risposta ai cambiamenti del contesto clinico, minimizzando l’impatto sulla certificazione esistente e garantendo che il dispositivo sia sempre conforme allo stato dell’arte.

I risultati di tale Audit rientrano nei contenuti del Rapporto di Valutazione Clinica (CER)

CONCLUSIONE

La conformità all’MDR non deve essere percepita dai fabbricanti come un mero esercizio burocratico, ma come una garanzia di eccellenza clinica. L’integrazione del Machine Learning nei dispositivi medici trasforma il software da strumento statico a partner attivo nel processo decisionale, ma questa evoluzione impone un cambio di paradigma: la sicurezza del paziente diventa inscindibile dall’equità algoritmica.

Dimostrare che un algoritmo è clinicamente equo — mappando le fonti di bias, stratificando le performance e implementando una rigorosa vigilanza algoritmica — non è solo un requisito per il superamento dell’audit. È la condizione necessaria per costruire un dispositivo robusto, capace di evolvere insieme alla pratica medica e di generare un’evidenza clinica (RWE) che sia davvero affidabile nel tempo.

Il futuro della diagnostica digitale non appartiene ai modelli più complessi, ma a quelli più trasparenti, monitorati e responsabili. In definitiva, l’equità algoritmica non è un concetto etico accessorio: è il pilastro tecnico su cui poggia la fiducia dei medici e la salute dei pazienti. Chi saprà trasformare la mitigazione del bias in un processo ingegneristico continuo non si limiterà a ottenere la marcatura CE, ma definirà lo standard del Next-Generation Healthcare.

GRAZIE PER L’ATTENZIONE

De Martino Antonio

De Martino Antonio

Laurea in matematica presso l’Università degli Studi di Milano. Sono cresciuto professionalmente nell’ ambito della Informatica Industriale all’interno di progetti per le Telecomunicazioni e di Automazione e dal 1990 mi occupo di consulenza aziendale sia su temi di compliance normativa, di processo e di prodotto, sia su temi di gestione aziendale. Negli ultimi tempi mi sto occupando soprattutto di Sistemi Integrati, di Marcature CE e di Dispositivi Medici su tematiche che riguardano la Validazione del Software per ISO13485, Regolamenti FDA, MDR , ANNEX 11 e GAMP Ho all’attivo interventi che riguardano più di 100 aziende sia manifatturiere sia di servizi di diverse dimensioni

Leave a Reply