- Home
- Flussi RSS
- progetti PNRR
- Osservatorio della rete
- Non solo LHC
Non solo LHC
| Federica Tanlongo | Osservatorio della rete
Belle II: la comunità della Fisica ancora protagonista sulla rete della ricerca
LHC non è l’unico grande utente della rete della ricerca nella comunità della Fisica. Presto sarà affiancato da un altro esperimento che non è da meno né per ambizioni, né per dati da produrre, elaborare e, naturalmente, trasmettere in tempo reale. L’esperimento vede un forte impegno dell’INFN, che da solo rappresenta circa il 10% della collaborazione globale, con il coinvolgimento di CNAF, ReCaS e altri 4 siti. Ne abbiamo parlato con Fabrizio Bianchi, coordinatore del computing di BELLE II per l’Italia.
Che cos’è BELLE II
Successore del progetto BELLE, l’esperimento è focalizzato sulla cosiddetta “flavour physics”, che si occupa dello studio delle interazioni tra le varie famiglie di quark (caratterizzati appunto da diversi flavour). L’esperimento prenderà dati ad un collider “asimmetrico”, in cui elettroni e positroni si scontreranno con differenti energie chiamato SuperKEKB. La nuova infrastruttura, in costruzione a Tsukuba, nei pressi di Tokio, è caratterizzata da una luminosità superiore di due ordini di grandezza a quella del predecessore KEKB, protagonista di BELLE. Questa luminosità elevatissima renderà possibile l’osservazione di un numero mai raggiunto prima di collisioni di particelle. Il rivelatore permetterà così di svolgere una vasta gamma di ricerche, tra cui lo studio della violazione della Simmetria CP (o Charge Parity violation), cioè la simmetria di comportamento tra particelle e antiparticelle. In altre parole, si tratta di comprendere perché nell’universo ci sia apparentemente molta più materia che antimateria, quando ci si aspetterebbe che dopo il Big Bang si sia formato un ugual numero di particelle di entrambi i tipi e che esse si comportino nello stesso modo.
Nuove sfide per la rete
L'esperimento raccoglierà qualcosa come 100 PB di raw data, a cui si aggiungeranno altri 200 PB tra dati ricostruiti e simulati
Insomma grazie a BELLE II potremo saperne di più sul perché l’universo si è evoluto proprio così com’è e non altrimenti. Per farlo sarà necessario osservare e registrare moltissimi eventi, elaborare modelli matematici complessi e ideare simulazioni: non appena l’esperimento diventerà operativo, comincerà a raccogliere, trasmettere ed elaborare un’impressionante quantità di informazione, che avrà bisogno di autostrade a lunga distanza tra le Reti Nazionali della Ricerca per essere distribuita e trattata a dovere. L’esperimento prevede di raccogliere, in un periodo compreso tra il 2018 e il 2023, una statistica che corrisponda a circa 200 miliardi di eventi utili, per qualcosa come 100 PB di raw data, a cui si andranno ad aggiungere altri 200 PB circa tra dati ricostruiti e simulati. La potenza di calcolo necessaria per elaborare tutto questo è stimata nell’ordine di 1.3 MHEPSpec.
Il modello di calcolo
Il modello di calcolo di BELLE II è stato pensato per coprire, in un ambiente distribuito su ben 4 continenti, tutta la filiera che va dall’elaborazione dei raw data, alla loro distribuzione e analisi alle simulazioni Monte Carlo e all’archiviazione in tempo reale di questa enorme massa di informazioni. Per far ciò impiegherà un sistema di calcolo distribuito basato sul toolkit DIRAC (Distributed Infrastructure with Remote Agent Control) sviluppato dall’esperimento LHCb al CERN, che permette di far interoperare sistemi di calcolo eterogenei, quali Grid basate su middleware differenti, cloud e cluster locali.
Il sistema prevede di avere una struttura a tier con tre livelli. Il primo è rappresentato dai raw data center, cioè i centri di calcolo dove saranno ospitati i dati grezzi, da processare o distribuire ai tier inferiori. Oltre al centro di calcolo presso Tsukuba, tra i principali saranno il Pacific Northwest National Laboratory di Richland per il Nord America, Gridka per la Germania e CNAF per l’Italia. Il secondo livello è costituito dai centri dove saranno immagazzinati i dati ricostruiti (Mini-DST) e verrà effettuato il grosso dell’analisi. Per il nostro Paese questo livello includerà, oltre al CNAF, i centri INFN di Napoli (Re- CAS), Pisa e Torino. Infine ci sono i siti di produzione Monte Carlo, che sfrutteranno sia risorse dedicate situate presso questi centri, che quelle rese disponibili da altre strutture (in particolare i laboratori di Legnaro e Frascati), secondo un modello “opportunistico”, cioè in grado di sfruttare risorse non specificamente allocate al progetto, ma libere in un dato momento, basato su grid.
Un esperimento su cui non tramonta mai il sole
Per i dati grezzi, la trasmissione in tempo reale ai raw data center è un requisito fondamentale
Il progetto si sviluppa su 4 continenti. In Europa i Paesi più coinvolti oltre all’Italia sono Germania e Slovenia; in Nord America oltre agli States, che ospiteranno il raw data center, un importante contributo sarà dato dal Canada. In Asia, oltre al Giappone, sono fortemente coinvolte Corea e Taiwan, mentre il quarto continente è rappresentato dall’Australia, che metterà in campo la sua potente cloud. Insomma, un esperimento su cui non tramonta mai il sole e che richiederà una grande organizzazione anche solo per gestire i periodici meeting in videoconferenza! Ogni Paese partecipante in BELLE II fornisce una frazione di risorse di calcolo proporzionale al numero dei ricercatori coinvolti: nel nostro caso, circa il 10% del totale su scala globale. Per quanto riguarda l'archiviazione dei Mini-DST, la proporzione è anche maggiore, perché bisogna tenere in considerazione le repliche dei dati ai fini di disaster recovery e per garantire un accesso contemporaneo a moltissimi utenti: si prevede di avere tre copie complete di tutti i dati dell’esperimento, di cui una in Asia, una in Europa e una terza in Nord America. Anche il numero di ricercatori coinvolti comporta sfide significative per chi si occupa di progettare il sistema di calcolo e archiviazione. Se sulla carta gli strumenti per garantire l’accesso distribuito a dati archiviati in siti diversi ci sono tutti, non se ne conosce ancora l’effettiva scalabilità: un aspetto importante perché con circa 600 ricercatori attorno al globo è facile ipotizzare l’invio contemporaneo di grandi quantità di job da parte di numerosi utenti. Una strategia possibile su cui si sta riflettendo è quindi quella di introdurre salvaguardie e limitazioni per “guidare” l’attività degli utenti in modo che sia meno onerosa dal punto di vista del sistema.
Presto e bene
Per i dati grezzi, la trasmissione in tempo reale da superKEKB ai vari raw data center è un requisito assolutamente fondamentale, in primo luogo per farne immediatamente una seconda copia ed evitare così disastrose perdite di informazione. È anche fondamentale che i dati provenienti dalle osservazioni siano processati una prima volta nel più breve lasso di tempo possibile dalla presa dati, in modo da avere un feedback circa il buon funzionamento di quest’ultima. Poiché data la mole di dati questo non si potrà fare solo localmente, andranno distribuiti da subito agli altri centri. I Mini-DST non hanno requisiti di tempo reale, ma devono comunque essere trasmessi velocemente perché sono l’input per l’elaborazione. In questo caso, è accettabile avere ritardi nell’ordine di pochi giorni, e lo stesso vale per i dati simulati e quelli risultanti dall’analisi.
Collegamenti verso Oriente
I Numeri di BELLE II
Sono 23 i Paesi coinvolti nella collaborazione, per un totale di 97 istituti e 577 persone che saranno impregnate all’esperimento.
300 PetaBytes è la quantità di dati che l’esperimento stima di raccogliere.
Di questi, circa 100 PB deriveranno direttamente dalle collisioni osservate, mentre altri 200 PB saranno originati dall’elaborazione e analisi dei dati grezzi e da simulazioni Monte Carlo.
Tutto questo si traduce, a livello di rete nella necessità di poter importare i dati dal Giappone a elevate velocità. Allo stato attuale, la connettività internazionale di ricerca con gli Stati Uniti è già adeguata a sostenere il traffico previsto per BELLE II, mentre quella con il Giappone passa attraverso gli Stati Uniti: una situazione non ottimale perché si sommano gli eventuali problemi dei due passi e nei fatti la banda realmente disponibile risulta ridotta. Se si partisse oggi, quindi, il trasferimento avverrebbe in due fasi: Giappone-USA e USA-Europa. Ovviamente, per gli europei sarebbe meglio un collegamento diretto di ricerca trans-asiatico, di cui le Reti Nazionali della Ricerca (NREN) e la dorsale europea GÉANT stanno studiando la fattibilità, non tanto a livello tecnico ma economico. Per questo si è deciso di appoggiarsi alla rete privata LHCONE, visto che molti dei centri coinvolti in BELLE II partecipano anche agli esperimenti LHC.
La Data Challenge intercontinentale
Un altro aspetto fondamentale per i ricercatori è verificare l’effettiva capacità di throughput dei dati tra i siti coinvolti, in modo da poter beneficiare al meglio delle elevate bande passanti disponibili sulle reti della ricerca. Con questo obiettivo, a cavallo tra maggio e giugno scorso è stata realizzata una data challenge tra il sito nordamericano e 3 siti europei (INFN Napoli, INFN-CNAF e Karlsruhe Institute of Tecnhology). Grazie a questa sperimentazione, portata avanti in collaborazione con GARR, ESNET, DFN (queste ultime rispettivamente di USA e Germania) e GÉANT, il team di BELLE II è stato in grado di simulare l’impatto del traffico giornaliero che BELLE II produrrà a regime, stimato in circa 25 Terabyte al giorno. L’indicazione fondamentale che ne è emersa è che sarà necessario migliorare il throughput dei dati. In altre parole, ancora non siamo in grado di trasferire la quantità di dati che vorremmo nel tempo che vorremmo: per quando comincerà la presa dati, vorremmo aver aumentato di un ordine di grandezza la velocità ora disponibile. Mediamente, la produzione di dati che arriverà, ad esempio, verso i centri italiani dovrebbe essere pari a circa 700 Mbps al giorno per 365 giorni, ma poiché la trasmissione non avverrà in modo costante avremo bisogno di raggiungere velocità nell’ordine di 2-3 Gbps. Per numeri come questi, i problemi non sono chiaramente di rete. Anche le dimensioni dei pacchetti non dovrebbero costituire un punto debole, visto che quelli di LHC o dei “cugini” astrofisici di eVLBI sono decisamente più grandi. Si sta quindi studiando la configurazione locale alla ricerca di colli di bottiglia nei server di partenza e di arrivo. In questo senso saranno necessari altri test di trasferimento dati nei prossimi mesi e la collaborazione con le reti della ricerca risulterà preziosa.
Dai un voto da 1 a 5, ne terremo conto per scrivere i prossimi articoli.
Voto attuale:
Ultimi articoli in rubrica
-
di Carlo Volpe
-
di Elis Bertazzon
-
di Carlo Volpe
-
di Carlo Volpe