Skip to main content
Il futuro del supercomputing? È (anche) made in Europe
Il futuro del supercomputing? È (anche) made in Europe

Il futuro del supercomputing? È (anche) made in Europe

| Federica Tanlongo | internazionale
Articolo letto 4368 volte

EuroHPC Joint Undertaking riporterà in Europa progettazione e produzione dei supercomputer. Puntando alla top 5.

Nel settembre scorso, il Consiglio dell’Unione europea ha formalmente adottato la proposta della Commissione di creare l’EuroHPC Joint Undertaking, che avrà il compito di mettere a sistema le risorse di supercomputing nazionali in Europa, con il doppio obiettivo di sviluppare due top supercomputer europei e creare attorno ad essi un ecosistema in grado di stimolare innovazione e crescita.

La EuroHPC Joint Undertaking è attiva da novembre, ma prende le mosse dalla firma, a marzo 2017 durante il semestre Italiano di presidenza, della Dichiarazione europea sull’High-Performance Computing. Il suo presupposto è che gli attuali fabbisogni di calcolo della scienza e dell’industria europea non sono coperti dal tempo macchina disponibile nel nostro continente, costringendoci sempre più spesso a elaborare i nostri dati in altri paesi, con ovvi problemi in termini di privacy, sicurezza e proprietà dei dati. Per di più, le macchine presenti in Europa non sono all’altezza delle performance ottenute in altre parti del mondo e sono costruite con componenti prodotte al di fuori dell’UE. Con un budget superiore al miliardo di Euro, di cui poco meno di 500 milioni investiti direttamente dall’UE, questa ambiziosa iniziativa vuole correggere il tiro e riportare in Europa due dei top 5 supercomputer mondiali e le competenze necessarie non solo per utilizzarli, ma anche per produrne la componentistica.

L’Italia è parte dei 22 soci fondatori della Joint Undertaking (che, oltre agli Stati Membri, comprende anche membri privati, enti di ricerca, data centre e utilizzatori) e vuole giocarvi un ruolo di primo piano. EuroHPC non è certamente la prima iniziativa europea sul tema del supercomputing ma è candidata ad essere la più importante, e non solo per i finanziamenti in gioco.

Ne abbiamo parlato con Antonio Zoccoli, vicepresidente INFN che ha seguito questa vicenda fin dalle prime mosse.

Da dove viene il rinnovato interesse per HPC?

Penso che la Commissione europea si sia finalmente resa conto che nei prossimi decenni saremo investiti da una quantità mai vista di dati, prodotti da molti settori scientifici ma anche dalla società stessa - e che chi non sarà in grado di estrarne il valore sarà perdente. È quindi in gioco il futuro stesso dell’Europa.

Antonio Zoccoli

Antonio Zoccoli è vicepresidente dell’INFN dal 2013 e fa parte del CdA del GARR

Quali sono le novità rispetto al passato?

Per la prima volta l’Europa ha deciso di finanziare l’acquisto e la costruzione di 2 macchine pre-exascale e due macchine exascale competitive con quelle di colossi come gli Stati Uniti e la Cina, che dovrebbero essere operative entro il 2025.
L’Europa ha compreso, forse un po’ tardi, che per competere ai massimi livelli non ci si può basare unicamente su hardware prodotto da altri: una parte dell’operazione consisterà quindi nel riportare nel nostro continente la progettazione e produzione di processori e altre componenti. È un aspetto che avrà importanti ricadute sulla sicurezza e sulla politica industriale, sia in termini di indipendenza dagli altri paesi che in termini di indotto, ma soprattutto di competenze strategiche che rischiamo altrimenti di perdere.

A cosa servirà la nuova infrastruttura?

A gestire le quantità sempre crescenti di dati e analizzarli in modo appropriato anche rispetto all’esplosione dell’intelligenza artificiale. I campi applicativi sono molteplici. Settori-chiave sono la medicina personalizzata, la genomica, le scienze dei materiali e soprattutto l’Industria 4.0. Non a caso all’interno di EuroHPC ci sarà anche un programma per facilitare lo sfruttamento di queste risorse d’avanguardia da parte del settore privato, e in particolare delle PMI.

Non bastano le risorse cloud, il cui costo è sempre più competitivo?

L’Europa sta investendo anche sul cloud, attraverso la realizzazione della European Open Science Cloud. Per come la vedo io, però, un conto è l’interfaccia e un altro le risorse che ci sono dietro. A mio avviso l’Europa con EuroHPC Joint Undertaking vuole assicurarsi che ci siano anche queste ultime e in quantità adeguata. D’altra parte, ferma restando la possibilità di usare l’high-throughput computing, anche il calcolo parallelo può essere utilizzato in modo massiccio per risolvere i più svariati problemi computazionali. Non penso che sia tanto una questione di architetture, dunque, ma una scelta strategica a favore di un modello centralizzato, che ha il vantaggio di avere una governance più semplice rispetto al distribuito.

Sappiamo già come sarà questa governance?

La Joint Undertaking sarà finanziata al 50% dagli stati membri che ospiteranno le risorse e dalla commissione. Gli Stati Membri potranno candidarsi a realizzare una delle macchine, impegnandosi a finanziare il 50% di realizzazione e costi operativi – parliamo di investimenti nell’ordine di oltre 200 Milioni di euro a macchina! – da soli o in cordata con altri paesi, che condivideranno i costi a fronte di una quota di risorse da utilizzare. Le proposte saranno valutate in base a competenze, infrastrutture e fondi resi disponibili. Una volta realizzate, le macchine saranno di proprietà della JU, ma i paesi che le gestiscono disporranno di una parte delle risorse, che potranno quindi essere assegnate sia dalla JU che a livello nazionale, con un processo di qualificazione simile a quello che già era di PRACE.

Quali sono gli obiettivi di lungo periodo?

Due sono i grandi obiettivi dell’iniziativa sul lungo periodo: avere in Europa delle macchine competitive per analizzare ed immagazzinare grandi quantità di dati e fare un balzo in avanti in queste tecnologie ed avere in Europa una rete di supercomputer pienamente europei.

Quale ruolo per INFN e la ricerca italiana?

Il nostro obiettivo è trasformare in opportunità la coincidenza di avere i due più grandi centri italiani di supercalcolo per la ricerca a pochi km l’uno dall’altro a Bologna. CNAF e CINECA sono stati recentemente interconnessi ad un Tbps con un collegamento realizzato proprio da GARR, che permette di vederli come un unico data centre esteso. L’anno prossimo a questa sinergia si aggiungerà un altro attore di primo piano: il centro di calcolo dello European Centre for Medium-Range Weather Forecasts (ECMWF) in costruzione presso il nuovo tecnopolo bolognese. La regione ci ha concesso degli spazi all’interno del tecnopolo e grazie anche alla vicinanza fisica sarà possibile raggiungere livelli di integrazione ancora maggiori tra i tre data centre. Per INFN questo significherà poter sfruttare il calcolo parallelo anche per LHC, per cui finora si è utilizzato l’high-troughput computing. Più in generale, il polo bolognese ha la possibilità di diventare uno dei centri di punta per il calcolo scientifico a livello europeo e mondiale e far crescere attorno a sé un intero ecosistema, con il suo indotto e con la diffusione di competenze altamente specializzate anche al settore industriale.

Come avverrà questo trasferimento?

Le risorse di EuroHPC sono finanziate da fondi pubblici e solo in minima parte potranno essere offerti alle imprese, per non creare indebiti vantaggi nei confronti dei provider commerciali. Più importante in questo senso sarà la creazione di competenze da trasferire anche al comparto privato. Il trasferimento tecnologico è una delle missioni di università e ricerca, ma oggi non riusciamo a formare abbastanza professionisti specializzati nel settore del computing e dell’analisi dei dati. Invece, nei prossimi anni ci sarà ancora più bisogno di diffondere queste competenze ad ampi strati della popolazione e non solo a poche figure ad alto livello: nell’industria del futuro anche l’operaio dovrà sapere di software e di intelligenza artificiale.
EuroHPC prevede anche attività di formazione, ma questa è una sfida che deve essere raccolta non da una singola iniziativa, ma da università e ricerca nel loro insieme.

Quali saranno le ricadute di EuroHPC sui fabbisogni di rete?

In sé, EuroHPC chiede solo di costruire supercomputer. Ma evidentemente non si può prescindere dagli aspetti di rete se si vuole rendere fruibile un’infrastruttura simile: è necessaria infatti una rete ad alta capacità per trasferire le grandissime quantità di dati da analizzare e rendere accessibili i risultati. Per il futuro servirà una rete nazionale al Terabit e anche i collegamenti internazionali dovranno essere dimensionati di conseguenza.

Quali altre infrastrutture potenziare in vista di EuroHPC?

Sicuramente lo storage è un aspetto fondamentale e deve evolvere di pari passo con l’infrastruttura di calcolo. È fondamentale non solo poter immagazzinare i dati da analizzare ma anche poterli preservare e rendere disponibili in formato aperto. Data preservation e open science sono due temi strategici che devono essere affrontati di pari passo al calcolo e su cui non possiamo permetterci di rimanere indietro.

Maggiori info:
eurohpc-ju.europa.eu
Ti è piaciuto questo articolo? Faccelo sapere!
Dai un voto da 1 a 5, ne terremo conto per scrivere i prossimi articoli.

Voto attuale:

Articoli nella rubrica


Archivio GARR NEWS