Si chiama Machine learning ed è una tecnica di apprendimento automatico che sta rivoluzionando il mondo con applicazioni innovative in molti settori, dai motori di ricerca al commercio online, dalla sicurezza informatica ai processi industriali, fino alla ricerca scientifica. L’idea centrale è potente come le potenzialità che offre: costruire algoritmi capaci di estrarre informazioni e nozioni da un insieme di dati, consentendo a sistemi informatici che li utilizzano di fare predizioni senza che siano stati precedentemente programmati per farlo. In sintesi, algoritmi che girano sul computer e imparano dai dati (da qui Machine learning), e che sono capaci di “scovare” informazioni nascoste nei dati stessi (ad esempio una nuova scoperta in fisica) con velocità ed efficienza maggiore di qualsiasi essere umano. A fare il punto su questa tecnica, nata negli ultimi decenni del secolo scorso e che oggi sta vedendo una fortissima accelerazione, grazie alle nuove capacità di calcolo sviluppate in ricerca e in particolare nella fisica delle particelle, è la rivista scientifica Nature che pubblica domani un articolo di review sul tema. “Le frontiere della ricerca nel Machine learning oggi si muovono molto velocemente, e il potenziale di queste tecniche per la fisica delle alte energie, in termini di approcci e strumenti software al servizio di nuove scoperte, è immenso” commenta Daniele Bonacorsi, professore associato all’Università di Bologna e ricercatore della sezione INFN di Bologna, co-autore dell’articolo su Nature.
Machine learning: dalla scoperta del bosone di Higgs alle nuove applicazioni
Il Machine Learning ha giocato un ruolo nella scoperta del bosone di Higgs, in cui l’impiego di queste tecniche in analisi dati ha portato a un aumento della sensitività sperimentale equivalente ad aver raccolto circa il 50% di dati in più nel Large Hadron Collider (LHC). In altre parole “il Machine Learning ha permesso la scoperta in anticipo e con meno dati: a fronte di una scoperta possibile intorno al 2015-16, questa è avvenuta nel 2012, e ha valso il Nobel ai fisici teorici Peter Higgs e Francois Englert già nel 2013” sottolinea Bonacorsi. Ma le applicazioni del Machine Learning non si fermano all’analisi dati. Alcuni esperimenti di LHC usano il Machine learning nei sistemi di selezione degli eventi (detti “trigger”) che provengono dalle collisioni di particelle, al ritmo di 50 Terabytes al secondo (tanti dati in un’ora quanti Facebook ne raccoglie in un anno), per selezionare con efficienza campioni molto accurati di eventi promettenti. Di grande interesse anche le applicazioni in sistemi di tracciamento e di identificazione di particelle – dove emergono soluzioni di Deep Learning - anche in esperimenti di fisica astroparticellare. Il Machine Learning svolge un ruolo importante anche nell’ottimizzazione dell’uso delle risorse di calcolo usate nei centri Grid in tutto il mondo, grazie a modelli predittivi e adattivi che rappresentano soluzioni di riferimento anche per altri settori, scientifici e industriali.
Focus su Bologna
L’Istituto Nazionale di Fisica Nucleare sta investendo molto sul potenziamento delle competenze e delle risorse per il calcolo scientifico nei settori del cloud computing e del Machine learning. In particolare la città di Bologna ospita dal 2003 il Tier-1, uno degli undici centri di calcolo al mondo che gestisce l’elaborazione dati provenienti dall’acceleratore LHC che si trova al Cern di Ginevra. Il Tier-1 è ospitato nella sede del Cnaf, il centro nazionale dell’INFN dedicato al calcolo e alle tecnologie innovative. “Questa attività di punta sul Machine learning si inquadra perfettamente negli investimenti che l’Infn sta facendo nell’area bolognese dove prevede di potenziare il proprio Centro di calcolo nazionale (Cnaf) trasferendolo nell’area del tecnopolo e integrandolo con quello del Cineca. Si andrebbe così a costituire uno dei più grandi poli di calcolo europei” commenta Antonio Zoccoli, della giunta esecutiva dell’INFN e professore dell’Università di Bologna. L’Università di Bologna è fortemente impegnata nel campo dei big data, con una serie di iniziative che coinvolgono istituzioni, centri di ricerca, centri di calcolo e università del territorio. Su tutte, il neonato Competence Center BI-REX (Big Data Innovation & Research EXcellence): un partenariato pubblico-privato di 61 attori, che coinvolgerà i Tecnopoli regionali e i laboratori della Rete alta tecnologia dell’Emilia-Romagna. Ma anche con la scuola di dottorato in Data Science and Computation, realizzata da Alma Mater di Bologna, Politecnico di Milano e Fondazione Golinelli di Bologna, con la partecipazione dell’Istituto Nazionale di Fisica Nucleare (INFN) e dell’Istituto Italiano di Tecnologia – IIT.