Principali filoni di ricerca
Fisica del quark b
(A. Bragagnolo, T. Dorigo, H. Yarar, E. Lusiani, M. Margoni, P. Ronchese, F. Simonetto, G. Strong)
Lo studio della produzione di adroni con quark b, del loro decadimento e della loro evoluzione temporale permette di acquisire una profonda conoscenza delle interazioni elettrodeboli e di QCD. Infatti, una o più discrepanze tra le misure sperimentali e le predizioni dello Standard Model potrebbero essere attribuite a fenomeni di "Nuova Fisica" attualmente fuori portata delle ricerche dirette che sfruttano collisioni tra protoni ad altissima energia. Grazie alle eccellenti performance di ricostruzione di tracce e vertici, e dei suoi eccezionali rivelatori di muoni, il rivelatore CMS può competere direttamente con esperimenti specificamente progettati per misure di Fisica del b, come LHCb o Belle2 a KeK.
Il nostro gruppo ha una lunga militanza nel campo della Fisica del b, cominciata ai tempi di LEP e passando attraverso una lunga esperienza a BABAR. Il gruppo di Fisica del b di CMS Padova, che attualmente consiste di 4 staff e 4 studenti di dottorato, in passato ha contribuito ad importanti misure, tra cui:
- La misura della sezione d'urto inclusiva pp → bbX → μ+ μ- X' a √s = 8 TeV
- L'osservazione per la prima volta del decadimanto raro Bs → μ+ μ-
- La misura del controverso parametro P'5 nel processo B0 → K* μ+ μ-
- Lo studio della Bs → J/Ψ φ decays at 8 and 13 TeV
- Una migliore misura del processo Bs → J/Ψ φ analizzando un dataset più ampio e utilizzando tecniche di Deep Learning.
- La ricerca del decadimento raro Bs → τ+ τ-, molto raro nel Modello Standard perchè mediato da interazioni deboli del secondo ordine (scambio di 2 bosoni elettrodeboli virtuali). Questo processo è simile a Bs → μ+ μ-, ma è favorito per motivi di elicità rispetto al decadimento, già osservato da CMS e LHCb, del Bs in due muoni. Tuttavia la difficoltà di identificare leptoni τ rende la ricerca molto complessa. Questa è in corso utilizzando un particolare set di dati raccolto da CMS chiamato "B parked data". L'analisi richede la regressione delle quantità osservabili (pioni carichi da un decadimento adronico di un leptone tau, e muone prodotto dal decadimento dell'altro tau) alla massa del Bs, e la discriminazione di un gran numero di fondi fisici e combinatori diversi.
- Misurare le sezioni d'urto pp → bbX → μ+ μ- X' e pp → gg → (bb)(bb) → 4 μ X' a √s=13TeV
- Misurare la violazione di CP indotta dal mixing dall'asimmetria di carica in stati finali con due coppie di muoni dello stesso segno ACP = N(μ+ μ+ - μ- μ-) / N(μ+ μ+ + μ- μ-).
Fisica dell'Higgs e del Modello Standard
(R. Ardino, U. Gasparini, G. Grosso, S. Y. Hoh, J. Pazzini, M. Zanetti, A. Zucchetta)
La scorperta del bosone di Higgs, annunciata da CMS e ATLAS nel 2012, rappresenta una pietra miliare nella comprensione del settore elettrodebole del Modello Standard (SM) delle particelle elementari, e ne conferma la piena validità. La presenza del bosone di Higgs ha determinato l'inizio di una nuova serie di misure a CMS, volte a determinare con la maggiore precisione possibile gli accoppiamenti del bosone di Higgs con le altre particelle dello SM. Infatti, una discrepanza tra una misura sperimentale e un processo del Modello Standard implicherebbe la presenza di "Nuova Fisica", suggerendo la presenza di nuove particelle ancora sconosciute. Il gruppo è attualmente concentrato su due canali che coinvolgono il bosone di Higgs.
Misura della produzione associata ad un bosone vettore del bosone di Higgs e del suo decadimento in bosoni W
Anche se il decadimento del bosone di Higgs in una coppia di bosoni W è consolidato, c'è un particolare interesse nell'osservazione dello stesso accoppiamento in produzione e decadimento al fine di determinare la larghezza di questa particella. Con questo obbiettivo, il gruppo è impegnato nella ricerca del processo WH → W(WW*), in particolare nel caso dove due bosoni W decadano in leptoni dello stesso segno. Questo stato finale beneficia di una frequenza di decadimento favorevole e di un ridotto numero di processi SM di fondo. Gli aspetti cruciali dell'analisi consistono nell'identificazione dei leptoni, anche attraverso tecniche multivariate, nella stima dei fondi e nella riduzione di leptoni spuri dovuti ad adroni. La significanza osservata, combinando i risultati con gli altri canali di decadimento WH → W(WW*) → 3l, ZH → Z(WW*) → 3l e ZH → Z(WW*) → 4l è di 4.7 σ, per unasezione d'urto pari a μ = 1.85+0.33-0.32(stat)+0.27-0.25(exp)+0.10-0.07(theo) volte la predizione dello SM. L'interpretazione dei risultati è svolta anche nel framework teorico STXS, per fornire misure delle sezioni d'urto differenziali in modo model-independent.
Decadimenti rari dei bosoni di Higgs e Z in un mesone J/Ψ e un fotone
L'accoppiamento del bosone di Higgs ai quark della seconda generazione rappresenta la vera sfida delle misure dell'Higgs a High Luminosity-LHC. Un canale di decadimento molto raro ma promettente consiste nel cercare il decadimento bosone di Higgs in un fotone (γ) ad alta energia e un mesone J/Ψ, quest'ultimo osservato nel suo decadimento in coppie di muoni. Il processo H → J/Ψ γ avviene prevalentemente tramite loop di quark charm, e la sua misura permetterebbe di determinarne gli accoppiamenti con l'Higgs. Essendo un processo estremamente pulito, grazie ai ridottissimi fondi del Modello Standard e all'eccellente risoluzione sulla ricostruzione della massa invariante, necessita di una grande quantità di dati. Più vicina è invece l'osservazione del decadimento raro del bosone Z → J/Ψ γ, che secondo il Modello Standard avviene circa 100 volte più frequentemente dell'analogo processo con il bosone di Higgs, e che non è mai stato osservato.
Ricerca di fisica oltre il Modello Standard: Heavy Composite Majorana Neutrino
(M. Presilla, P. Azzi)
Nell'ipotesi di fisica oltre lo Standard Model, i modelli compositi prevedono che quark e leptoni non siano particelle elementari ma siano a loro volta composte da altri elementi fondamentali, e che quindi abbiano una loro sottostruttura. Questa sottostruttura interna potrebbe manifestarsi ad un'energia sufficientemente alta, denominata Lambda.
I neutrini di Majorana composti pesanti (in inglese, Heavy Composite Majorana Neutrino, abbreviati in HCMN) è una particella ipotetica particolarmente interessante dato che assume un ruolo fondamentale nei meccanismi della leptogenesi spiegando l'asimmetria materia-antimateria nell'Universo.
Il neutrino HCMN potrebbe venire prodotto nelle collisioni tra protoni a LHC assieme ad un leptone, e decadere a sua volta in un leptone e due quark.
Questo stato finale è particolarmente interessante dal punto di vista sperimentale perchè consiste in due leptoni dello stesso sapore con la stessa carica elettrica, e un jet adronico. La massa invariante dei due leptoni e del jet è una variabile discriminate fortemente correlate con la massa del neutrino HCMN.
L'analisi in corso sfrutta tutti i dati raccolti da CMS durante il Run-II nel periodo compreso tra il 2016 e il 2018. Il risultato è particolarmente interessante perchè, per la prima volta, vengono considerati i limiti di unitarietà nell'interpretazione teorica dei risultati.
Metodi statistici avanzati
Ottimizzazione del design di apparati sperimentali e procedimenti di misura
(T. Dorigo, L. Layer, G. Strong)
La tecnica di machine learning denominata INFERNO
utilizza tecniche di differentiable programming per ottimizzare la misura di parametri fisici in
analisi afflitte da errori sistematici non trascurabili, con la creazione di summary statistics che
rendano la misura robusta all'effetto delle sistematiche. Questa tecnica sta venendo applicata
a misure di top quark physics prodotte con dati dell'esperimento CMS, per dimostrare la
potenza di INFERNO.
In parallelo all'attività su descritta, l'uso di tecniche di deep learning, e più in generale di
differentiable programming, sta venendo considerata per costruire modelli differenziabili
anche delle parti intrinsecamente stocastiche della catena di estrazione di informazioni che da
un detector e un processo fisico di interesse, attraverso la ricostruzione dei segnali elettronici
e la creazione di summary statistics, produce inferenza statistica sui parametri di interesse.
Più in dettaglio, la specificazione di una loss function che includa i veri obiettivi
dell'esperimento (e.g. la minima incertezza sulla misura di un parametro di interesse,
o la combinazione di una serie di simili outputs opportunamente pesati, eventualmente
vincolata a constraints esterni quali e.g. il costo dell'apparato sperimentale), e la
composizione di una pipeline completamente differenziabile che includa una
modellizzazione dell'interazione radiazione materia, della geometria dell'apparato, della
pattern recognition dei segnali, e dell'analisi dati, permette di effettuare gradient descent
verso la minima loss, e ottenere una piena e completa ottimizzazione dell'intero apparato
sperimentale e della procedura di misura.
La nascente collaborazione MODE sta
iniziando studi per ora concentrati su casi d'uso semplificati che coinvolgono e.g. apparati
per tomografia muonica per border control e apparati per proton therapy di tumori, e si
svilupperanno in seguito nell'ottimizzazione di un calorimetro ibrido per un futuro collider.
Ricerca di segnali di nuova fisica con tecniche non supervisionate di anomaly detection
(T. Dorigo, M. Fumanelli, C. Maccani)
La ricerca di segnali di nuova fisica nei dati di CMS si avvale di modelli teorici che prevedono le caratteristiche peculiari dei processi fisici coinvolti. Tuttavia questi modelli non esauriscono la totalità delle segnature sperimentali che possono permettere a nuovi processi di manifestarsi. La grande quantità di possibili segnature necessita di strumenti automatici per lo scanning di spazi dei parametri a molte dimensioni. Un algoritmo di recente ideazione (RanBox) permette di operare una opportuna trasformazione dello spazio delle caratteristiche osservabili, che rende la densità relativa di processi del modello standard nello spazio quasi uniforme. In tale spazio una ricerca di intervalli multidimensionali a densità maggiore delle zone circostanti permette di evidenziare anomalie che potenzialmente sono prodotte da nuovi processi fisici. L'algoritmo è in fase di finalizzazione con la prospettiva di una applicazione a dati di CMS.