“la ricerca scientifica lavora con strumenti spesso unici al mondo, per i quali non si può pretendere di disporre del supporto software di un produttore. I grandi rivelatori di particelle sono realizzati nelle Università e nei centri di ricerca e non si possono acquistare; si tratta di strumenti che esistono in un solo esemplare. “
Nessuno può mettere in dubbio l’importanza crescente dell’informatica nell’organizzazione di quasi tutti i settori delle società contemporanee, ivi compreso il mondo della Ricerca Universitaria. Il nuovo scenario tecnologico mondiale nel quale il ruolo della ricerca universitaria assume un’importanza crescente, implica anche la crescita del software libero che diventerà sempre più importante.
Appena pochi mesi fa il mondo è rimasto col fiato sospeso mentre veniva eseguito uno degli esperimenti scientifici più importanti e tecnologicamente avanzati del pianeta: al CERN di Ginevra, come molti sapranno, è stato attivato il Large Hadron Collider(LHC), il più grande acceleratore di particelle mai realizzato. L’obiettivo finale dello straordinario esperimento, a cui l’Italia collabora con un notevole sforzo finanziario e centinaia di scienziati, è quello di dare risposta alle molteplici domande sull’origine dell’universo, capire perché la materia nell’universo è molto più abbondante che l’anti-materia e giungere a scoperte che cambieranno profondamente la nostra visione dell’universo. Qual è il contributo dell’IT e in particolare del software libero? Ne abbiamo parlato con Giovanni Organtini – professore di Fisica Sperimentale all’Università di Roma “Sapienza”.
Quali sono i progetti a cui sta lavorando?
Il mio lavoro di ricerca riguarda la fisica delle particelle elementari. In particolare mi interesso delle tecniche sperimentali, hardware e software, per la rivelazione e la misura delle particelle agli acceleratori. In questo momento sto lavorando all’esperimento CMS sul collisore LHC al CERN.
Qual è il connubio tra Fisica e IT?
Fare fisica significa fare misure, che oggi si eseguono con strumenti complessi, che richiedono quasi sempre l’ausilio di computer per l’acquisizione dei dati in formato digitale. Nel caso della fisica delle particelle gli strumenti producono milioni di dati per ciascun evento a frequenze spaventose: a LHC si susseguono 40 milioni di collisioni al secondo. La precisione richiesta dalle misure in questi casi richiede anche di accumulare miliardi di eventi e dunque e’ necessario disporre di immense banche dati per la loro conservazione.
I dati raccolti poi devono essere sottoposti a operazioni di tipo logico-matematico per estrarre le informazioni rilevanti per la fisica (energia, natura e velocità delle particelle) dai valori dei segnali prodotti dai rivelatori (tipicamente grandezze di tipo elettrico come correnti o tensioni). Per quest’operazione e’ necessario l’impiego di potenti CPU, in grado di processare rapidamente la gigantesca mole di dati disponibili. Per gli esperimenti LHC si prevede di raccogliere una decina di PB di dati, per processare i quali e’ necessario l’uso
di migliaia di CPU.
Perchè i sistemi aperti hanno da sempre trovato terreno fertile in ambiente scientifico e accademico?
I sistemi aperti consentono estrema flessibilità e adattabilità a ogni tipo di esigenza. Per sua natura la ricerca scientifica lavora con strumenti spesso unici al mondo, per i quali non si può pretendere di disporre del supporto software di un produttore. I grandi rivelatori di particelle sono realizzati nelle Università e nei centri di ricerca e non si possono acquistare; si tratta di strumenti che esistono in un solo esemplare.
E’ dunque di capitale importanza poter disporre di sistemi in qualche modo standardizzati che però si prestano a essere adattati di volta in volta alle esigenze dei singoli strumenti. Lo stesso vale per le architetture software impiegate nella ricerca: la complessità delle analisi e dei calcoli richiede strumenti dedicati, per i quali e’ spesso necessario poter modificare a piacere i sistemi. Negli anni poi i sistemi aperti, contrariamente al comune sentire, si sono dimostrati ben più affidabili, robusti ed efficienti dei sistemi tradizionali.
Anche il costo ridotto gioca un ruolo, specialmente quando si parla di grandi numeri, come nel caso di LHC, ma direi che questo aspetto e’ marginale rispetto agli altri effettivi vantaggi.
Può parlarci del Progetto del sistema di tracciabilità e di workflow management realizzato nell’ambito del CMS?
La costruzione di un rivelatore di particelle e’ un’operazione complessa e distribuita. CMS – Compact Muon Solenoid e’ composto di diversi sotto-rivelatori, tutti realizzati in diverse parti del mondo. A Roma e’ stata costruita una parte del cosiddetto calorimetro elettromagnetico. Si tratta di uno strumento composto da oltre 200000 parti diverse, provenienti e certificate da diversi soggetti distribuiti in diverse parti del mondo. A Roma ogni singolo componente e’ stato sottoposto a decine di misurazioni per accertarne la qualità, al fine di garantire la qualità del prodotto finale.
Trattandosi di un unico esemplare non si può rischiare che una parte di esso non funzioni come previsto. La complessità delle operazioni, che si sono protratte per anni, ha richiesto lo sviluppo di un sistema che garantisse la corretta esecuzione del protocollo di certificazione e consentisse diconoscere, in ogni momento, lo stato della produzione. Al termine della produzione il sistema, che aveva memorizzato tutti gli esiti delle misure, e’ stato usato per calcolare le prestazioni dell’apparato, attraverso l’analisi dei dati raccolti nel corso della costruzione. Il sistema di tracciabilità consentiva lo scambio dei dati con gli altri centri di produzione, in modo tale che i dati potessero essere facilmente trasferiti a un altro centro, quando le componenti fisiche realizzate venivano lì spedite per il loro completamento. Possiamo dire che si e’ trattato di un’impresa paragonabile alla costruzione di un aereo o di una nave e che le soluzioni open impiegate si sono dimostrata non solo all’altezza della situazione, ma talvolta persino più efficienti e flessibili di altre soluzioni di tipo commerciale.
Crede che la filosofia open si possa utilizzare anche in ambito accademico lì dove regnano i baroni?
Premesso che i baroni sono ormai una categoria di comodo, utile ai detrattori delle Università e ammesso che tuttavia, specie in alcune realtà, esistono tuttora, sebbene in numero ridotto, e’ certo che la filosofia open non solo si può utilizzare in loro presenza, ma direi che e’ uno dei modi per contrastare questo fenomeno. I baroni devono il loro potere alla capacità di controllare le risorse economiche e alla rete di protezioni che limitano la possibilità di espressione. I sistemi aperti consentono la riduzione dei costi e pertanto sono accessibili anche a chi non dispone di grandi risorse finanziarie.
L’intrinseca apertura dei sistemi impedisce a chiunque di controllare anche solo parte dello sviluppo. L’adozione della stessa filosofia in ambito editoriale, inoltre, permetterebbe a chiunque di accedere o di
pubblicare informazioni, con conseguente riduzione del potere di controllo da parte degli editori. Infine, se si adottasse su vasta scala questo paradigma nello sviluppo tecnologico, si produrrebbero importantissimi effetti nel mercato dei brevetti, che personalmente considero alla stregua dei diritti di passaggio sulle terre dei feudatari medioevali.
Tutta l’economia moderna e’ dominata dai tentativi di proteggere i pretesi diritti di sfruttamento economico delle idee. La cosa incredibile e’ che la maggior parte delle persone ritiene giusto questo sistema, e non comprende che esso va a esclusivo vantaggio di pochi “baroni” dell’economia, e a danno dello sviluppo economico e tecnologico, contro gli interessi della maggioranza. La filosofia open potrebbe davvero rivoluzionare l’intera società, se adottata correttamente e con lo spirito giusto, apportando benefici su una percentuale molto alta della popolazione, sia dal punto di vista culturale che economico.
—–
Giovanni Organtini e’ professore di Fisica Sperimentale all’Università di Roma “Sapienza”. Insegna Laboratorio di Calcolo e si occupa di fisica sperimentale delle particelle elementari. In particolare lavora nel campo delle tecniche sperimentali per la rivelazione delle particelle e del calcolo distribuito per gli
esperimenti. Attualmente e’ membro della collaborazione CMS, uno degli esperimenti LHC, per il quale coordina l’attività del centro di calcolo distribuito di Roma.