- Home
- Flussi RSS
- progetti PNRR
- Caffè scientifico
- Deep learning nella cura dei tumori: l’algoritmo che impara a farci star meglio
Deep learning nella cura dei tumori: l’algoritmo che impara a farci star meglio
| Carlo Volpe | Caffè scientifico
Terabyte di dati, potenza computazionale e risorse cloud. La sfida dell’intelligenza artificiale affrontata al CRO di Aviano
Non si può predire l’andamento di una malattia senza conoscerne il passato. È per questo che l’analisi dei dati è così importante e quando sono talmente tanti da parlare di Big Data è necessario avere le risorse giuste per gestirli. Lo sanno bene al Centro di Riferimento Oncologico (CRO) di Aviano, in provincia di Pordenone, dove è attivo un team trasversale per competenze e discipline che sta ottenendo risultati significativi nello studio dei tumori.
Il deep learning può dare un grandissimo contributo per trasferire le scoperte scientifche nella terapia perché permette di prevedere in anticipo l’evoluzione della malattia
Per farceli raccontare abbiamo incontrato Maurizio Polano, bioinformatico che lavora nella Struttura Operativa Complessa di Farmacologia Clinica e Sperimentale e che si occupa di analisi genomiche e di sviluppo di modelli di intelligenza artificiale per la medicina di precisione e Roberto Ricci, informatico presso i Sistemi Informativi
Si parla molto di medicina personalizzata o di precisione. Si può essere davvero così precisi nella diagnosi e nella cura?
Spesso le espressioni medicina personalizzata e di precisione sono utilizzate come sinonimi ma, a mio avviso, è più corretto utilizzare il secondo termine. Quello che facciamo è usare i dati del profilo genetico del paziente per dare al medico la possibilità di prendere decisioni in maniera più oculata e facilitare sia la prevenzione che la diagnosi.
Precisione e accuratezza sono due facce importanti che devono coesistere. Con il machine learning è importante essere precisi senza però perdere di accuratezza.
Sono molte le informazioni da cui partiamo: dati clinici, immagini dei patologi, dati sui farmaci somministrati e tanti elementi omici (genomica, metabolomica, proteomica, epigenomica). Li mettiamo tutti insieme e cerchiamo di generare dei modelli per trovare la terapia ottimale per gruppi di pazienti.
Uno dei principali problemi, da sempre, è applicare le scoperte scientifiche nella terapia e in ciò il deep learning dà un grandissimo contributo per velocizzare i tempi di questo passaggio perché può permettere di prevedere in anticipo l’evoluzione della malattia se correttamente sviluppato. Il lavoro di training dell’algoritmo, tuttavia, è molto lento e passa per analisi ripetute, prove e validazioni continue, però, una volta definito il modello, siamo in grado di dare al clinico o ricercatore uno strumento semplice e veloce a supporto delle decisioni.
Come funziona l’allenamento dell’algoritmo?
Per prima cosa individuiamo una classificazione che l’algoritmo possa rappresentare, ad esempio per comprendere la sopravvivenza complessiva di un paziente oncologico. Il dato di partenza è solitamente un’immagine (una TAC o una risonanza): abbiamo i cosiddetti neuronavigatori ovvero immagini 3D ad altissima risoluzione effettuate prima dell’intervento che consentono di mappare la zona del cervello interessata e forniscono al neurochirurgo il metodo più preciso per progettare un intervento. Adottiamo poi due approcci: da una parte, la radiomica ovvero consideriamo solo la zona segmentata del tumore, ne evidenziamo gli elementi di interesse (texture, shape) e li correliamo con i fenotipi che stiamo studiando; dall’altra parte, applichiamo tecniche di deep learning con reti più o meno complesse per individuare alcuni parametri come la progressione libera da malattia, le mutazioni genetiche o epigenetiche, o altri marcatori. Attraverso il training, si genera un modello che viene poi validato su dati che l’algoritmo non ha mai visto prima in modo da poter effettuare un controllo sull’attendibilità della previsione.
In quali progetti state utilizzando queste tecniche di intelligenza artificiale?
Nella SOC di Farmacologia Clinico Sperimentale diretta dal dott. Giuseppe Toffoli sono in corso numerosi progetti di ricerca traslazionale con lo scopo di trasferire al letto del paziente le conoscenze della ricerca di base. Un’attività multidisciplinare che vede il coinvolgimento di numerose figure caratterizzate da una diversa professionalità. Il ruolo del bioinformatico e dell’intelligenza artificiale sta acquisendo in questa struttura un ruolo sempre più strategico. Parliamo in particolare di studi sul gliobastoma, di radiomica e, più recentemente, sul tumore del colon-retto dove stiamo applicando le più moderne tecniche di intelligenza artificiale.
Uno dei lavori più importanti è quello sul glioblastoma che è tra i tumori più devastanti sia per i pazienti che per chi se ne prende cura. È il più aggressivo dei tumori cerebrali: basti pensare che solo il 3% dei pazienti supera i 5 anni come speranza di vita. Perciò è una corsa contro il tempo: è importante trovare metodi sempre migliori per arrivare prima alla diagnosi e per comprendere l’efficacia delle terapie.
Abbiamo la fortuna di avere nella nostra regione, il Friuli Venezia Giulia, uno dei più importanti neurochirurghi di fama mondiale, il professor Skrap e che lavora insieme alla dottoressa Tamara Ius, e quindi è stata avviata con loro una collaborazione per sviluppare alcuni progetti di sequenziamento e cercare dei marcatori predittori per studiare l’immunoterapia. Ad oggi abbiamo analizzato 185 pazienti della coorte di Udine, ma contiamo di ampliare il numero dei casi fino a mille nei prossimi mesi.
Abbiamo inoltre avviato un’attività di radiogenomica, per dare la possibilità al neurochirurgo di correlare le informazioni provenienti dalle immagini ad alta risoluzione con l’informazione molecolare del paziente. Tutto questo prima di effettuare l’intervento chirurgico, perché è importante tenere in considerazione la qualità di vita del paziente ed eventualmente capire se si può rinunciare all’intervento, oppure agire in modo mirato.
Con l’uso delle risorse GARR il tempo per l’elaborazione dei calcoli è sceso da 24 a 6 ore. Il vantaggio è notevole perché possiamo perfezionare prima il modello
Tutto ciò non è possibile senza avere a disposizione grandi quantità di dati.
Parlando di predizioni, mi piace fare riferimento a qualcosa di molto distante dalla medicina: la Divina Commedia e in particolare il canto ventesimo dell’Inferno. Lì nell’ottavo cerchio troviamo gli indovini e i maghi, che per la legge del contrappasso sono costretti ad andare avanti con lo sguardo sempre rivolto al passato, senza mai poter vedere il futuro che avevano provato a predire. Questo ci deve far riflettere su quanto sia importante il nostro passato, la nostra storia clinica.
Su di noi abbiamo una quantità di informazioni sotto forma di Big Data che è davvero preziosa. Non ci possiamo permettere di perderli e di non analizzarli. Certamente non è tutto così semplice. La difficoltà, oltre che nella gestione della quantità, è nel fatto che alcuni dati sono spesso contraddittori, ci sono elementi confondenti e anche i farmaci hanno una finestra terapeutica specifica da tenere in considerazione.
Come si gestisce tutta questa quantità di informazione?
Serve tanta potenza di calcolo. Noi abbiamo deciso di utilizzare le risorse computazionali messe a disposizione da GARR grazie alla collaborazione con i Sistemi Informativi d’Istituto che amministrano e orchestrano le risorse aziendali in base alle esigenze dei diversi progetti di ricerca. Elaborazioni per le quali prima erano necessarie 24 ore, mentre oggi con le GPU, le schede grafiche che vengono usate per questi calcoli, possiamo averle in 6 ore con un risparmio di tempo prezioso perché ci consente di fare molte più prove. E per allenare l’algoritmo e farlo diventare sempre più preciso, la velocità è un fattore determinante visto che ci vuole molto tempo prima che si raggiunga un’elevata affidabilità.
Abbiamo utilizzato macchine Kubernetes e utilizzato sia Keras che Pytorch, librerie open source per il machine learning. Grazie a GARR abbiamo potuto far girare e valutare diversi modelli di reti neurali Resnet.
Oltre ai servizi Kubernetes, i sistemi informativi aziendali utilizzano la Cloud GARR per erogare circa una decina di macchine virtuali messe a disposizione dei ricercatori, inoltre fondamentale è stata l’attivazione nel corso del 2020 dello storage in modalità Object Store che ci ha permesso di avere a disposizione diverse centinaia di Terabyte per il salvataggio dei dati.
Mettendo i nostri dati sulla Cloud GARR siamo sereni che siano mantenuti in Italia e gestiti all’interno della comunità della ricerca
Nonostante siano sempre più le applicazioni di AI nella medicina, ci sono ancora alcuni ostacoli da superare. Quali sono le difficoltà principali?
Da una parte c’è il tema delle competenze: il bioinformatico spesso ha una formazione ibrida ma non è un medico e quindi è importante che ci sia una comunicazione tra gruppi e una buona condivisione. Inoltre c’è un problema di risorse: al crescere della quantità di dati, basti pensare all’alta risoluzione delle immagini di risonanza, la capacità computazionale richiesta per l’analisi aumenta.
Avere la possibilità di usare servizi come quelle messi a disposizione da GARR è un aiuto validissimo. Spesso ci si ferma di fronte all’impossibilità di avere infrastrutture digitali da realizzare e gestire in casa, senza pensare che utilizzando la Cloud GARR questo problema viene superato. Inoltre c’è il tema della sicurezza, cosa non da poco se consideriamo la sensibilità dei dati che trattiamo. Con questa scelta possiamo essere tranquilli che i dati siano mantenuti in Italia e gestiti in una piattaforma curata dalla comunità della ricerca.
Il bioinformatico Maurizio Polano (a destra) della Struttura Operativa Complessa di Farmacologia Clinica e Sperimentale e Roberto Ricci (a sinistra) informatico dei Sistemi Informativi SOC Gestione delle Tecnologie Cliniche, Tecno-Strutturali e Informatiche dell’IRCCS Centro di Riferimento Oncologico di Aviano
Bisogna anche superare le resistenze alla condivisione dei dati...
Purtroppo ancora sì. Ci sono però i modi per superare la logica del proprio orticello e collaborare insieme in rete, soprattutto con il deep learning. Uno dei miei sogni è proprio sfruttare la rete degli IRCCS italiani che sono tutti connessi con la rete GARR per far progredire i modelli che vengono sviluppati. Il deep learning infatti, come detto, necessita di molto tempo e quanti più casi possibili per allenare le macchine ed essere efficace. Se un modello viene sviluppato da un istituto può essere messo a disposizione degli altri e utilizzato per le proprie immagini in modo da perfezionare e far crescere il modello stesso. In questo modo, le immagini non uscirebbero dall’istituto di provenienza e si supererebbero le resistenze nella condivisione o nella conservazione in un unico repository. Non si tratta di fantascienza, è stato già fatto e dimostrato come efficace ad esempio da NVIDIA, azienda leader nel settore delle schede video GPU.
OPEN SOURCE :: Il servizio di cloud computing offerto da GARR si basa su soluzioni software a codice aperto e utilizza tecnologie di virtualizzazione e di gestione che permettono la facile allocazione delle risorse agli utenti.
AFFIDABILITÀ E FLESSIBILITÀ :: GARR Cloud assicura alta affidabilità e offre la possibilità di realizzare soluzioni di disaster recovery, espandere o ridurre le risorse in maniera elastica, partizionare le risorse assegnandole a distinti gruppi di lavoro.
IDEATO PER LA RICERCA :: Il servizio risponde alla necessità della comunità di disporre di strumenti per il calcolo e per l’immagazzinamento dei dati di gruppo mediante un’interfaccia di gestione intuitiva che permetta la creazione di ambienti di lavoro condivisi, dinamici, sicuri 6 e controllabili.
Caratteristiche uniche
GARR Cloud è un servizio gestito direttamente da GARR, che sfrutta sia le risorse interne che quelle messe a disposizione dalla propria comunità, in modo da garantire l’interoperabilità con le diverse piattaforme.
Infrastruttura italiana operata da soggetti italiani. Ciò consente di rispettare la conformità alle leggi italiane in materia di gestione dei dati, di sicurezza e di privacy, garantendo i vincoli, le politiche, la discrezione e il copyright sui dati degli utenti.
Progettato e gestito per essere destinato sia alle istituzioni di istruzione che di ricerca, consentendo di ottenere economie di scala a beneficio della intera comunità.
Infrastruttura distribuita geograficamente in maniera da realizzare il massimo livello di affidabilità possibile.
Cosa vi aspettate dal prossimo futuro?
Nell’immediato lavoriamo per perfezionare i risultati del nostro modello analizzando gli altri casi a disposizione. L’obiettivo finale sarà quello di fornire al medico un’applicazione in grado di nascondere tutta la complessità sottostante e il cui utilizzo sia il più semplice possibile, in modo tale che in pochi istanti, inserendo un’immagine, sia possibile avere indicazioni chiare per effettuare una diagnosi sempre più precisa.
Dai un voto da 1 a 5, ne terremo conto per scrivere i prossimi articoli.
Voto attuale:
Intelligenza artificiale: dalla genomica alla medicina personalizzata
Ultimi articoli in rubrica
-
di Elis Bertazzon
-
di Franco Niccolucci
-
di Valeria Panebianco, Martina Pecoraro, Simone Novelli
-
di Erika Trotto
-
di Sara Di Giorgio