Big data: Ska e Cern siglano un accordo di cooperazione

Ska e il Large Hadron Collider del Cern collaboreranno nello sviluppo della tecnologia necessaria per il futuro dell’Information and Communication Technology

Fabiola Gianotti, direttore generale del Cern, e Philip Diamond, direttore generale di Ska. Crediti: Cern

La Ska Organisation e il Cern hanno siglato oggi un accordo per formalizzare la loro collaborazione nell’ambito dei Big Data, viste le comuni sfide future nel campo dell’informatica e dell’archiviazione dei cosiddetti dati di exascale (un Exabyte equivale a 1 miliardo di gigabytes). Nei prossimi anni, le antenne dello Square Kilometre Array dovranno raccogliere un’immensa quantità di dati scientifici e si rendono necessarie delle infrastrutture ideate ad hoc per elaborarli.
In tutto il mondo, i paesi si impegnano per far fronte ad un salto nelle richieste della tecnologia dell’informazione e della comunicazione. Ska e il Large Hadron Collider (Lhc) del Cern (l’acceleratore di particelle più grande del mondo) collaboreranno nello sviluppo della tecnologia necessaria per il futuro dell’ Information and Communication Technology.

La firma di questo accordo di collaborazione tra due dei maggiori produttori di dati scientifici sul pianeta dimostra che stiamo entrando davvero in una nuova era della scienza”, ha affermato Philip Diamond, direttore generale di Ska. “Le richieste di calcolo di Lhc sono affrontate dalla rete mondiale di calcolo Lhc che impiega più di mezzo milione di centri di calcolo in tutto il mondo. Le nostre richieste aumentano e vogliamo ampliare il lavoro utilizzando idee e infrastrutture comuni. Ska sarà un partner ideale”, ha dichiarato Eckhard Elsen, direttore dell’area Ricerca e Computing presso il Cern.

Sia per il Cern che per Ska l’acquisizione, l’archiviazione, la gestione, la distribuzione e l’analisi dei dati scientifici sono argomenti particolarmente cruciali per affrontare le sfide tecnologiche del futuro. Nel caso di Ska, si prevede che la fase 1 – che rappresenta circa il 10% del progetto – genererà circa 300 petabyte di dati ogni anno, quindi dieci volte in più rispetto agli esperimenti scientifici più grandi attualmente im corso.