top of page

TEST 265 – [Fase Ω – Governance ML] DNN supervisionata sui residui SNe Ia (μ_obs − μ_CMDE) con baseline “residuo = 0”

Scopo del test
Questo test nasce con l’intento di capire se, nel comportamento delle Supernove di tipo Ia, esista ancora una traccia nascosta di informazione che sfugga alla descrizione temporale offerta dal modello, o se invece, una volta sottratta la distanza teorica prevista, ciò che rimane sia soltanto il rumore inevitabile di ogni misura e la naturale dispersione astrofisica che accompagna gli oggetti del cosmo. Si tratta di una verifica di chiusura, un esame di coerenza interno, perché chiede a un sistema di apprendimento flessibile e sofisticato, una rete neurale addestrata in cieco, di cercare pattern dove forse non ne esistono più. L’obiettivo è proprio questo: dimostrare che, anche mettendo in campo un predittore capace di modellare relazioni non lineari e complesse, nessuna struttura nascosta emerge dai residui delle supernove una volta che la parte principale del segnale è stata spiegata. Se la rete fallisce nel suo compito di imparare, significa che l’universo, almeno su questo fronte, si comporta come un campo informativo completamente coerente e privo di margini predittivi residui.

Descrizione della funzione
Il cuore operativo del test si fonda su un insieme di dati di Supernove Ia accuratamente selezionate e standardizzate, ciascuna descritta da una serie di parametri osservativi e contestuali che ne riassumono il comportamento luminoso e la qualità del dato. Ogni supernova è rappresentata dal suo redshift osservato, dai parametri di luce comunemente usati per la standardizzazione, dalle proprietà fisiche della galassia ospite e da indicatori strumentali che raccontano come è stata raccolta la misura. Tutti i dati sono stati congelati prima dell’analisi, evitando che l’addestramento della rete possa in qualsiasi modo dipendere da conoscenze successive. L’informazione è divisa in tre insiemi ciechi e indipendenti — addestramento, validazione e test — distribuiti in modo da mantenere equilibrio tra i diversi strumenti, le epoche di osservazione e gli intervalli di redshift. La grandezza su cui si lavora è il residuo, ossia la differenza tra la distanza osservata e quella prevista, una misura diretta di quanto la realtà si discosti dal modello. L’intero test è accompagnato da controlli di coerenza detti “negativi”, costruiti in modo da assicurare che eventuali correlazioni trovate non siano il risultato di casualità o di errori di configurazione. In uno di questi controlli le etichette dei residui vengono rimescolate a caso, nell’altro vengono sostituiti da valori generati da un semplice rumore gaussiano: se la rete riesce a migliorare in questi scenari, il test è fallito per definizione; se invece le prestazioni restano identiche, allora si conferma l’assenza di segnale strutturato. L’intero processo è tracciato con semi numerici fissati in anticipo e verifiche di integrità sui file usati, per assicurare che nessuna parte del sistema possa essere alterata o contaminata da informazione esterna.

Metodo di analisi
L’analisi utilizza una rete neurale di tipo feed-forward, cioè un sistema che elabora i dati in modo sequenziale passando da uno strato di nodi all’altro, con attivazioni non lineari che permettono di cogliere eventuali relazioni complesse tra le variabili. La rete è volutamente leggera ma stabile, con tre livelli intermedi e un numero di nodi sufficiente a rappresentare i pattern principali senza rischiare sovra-addestramento. Ogni strato usa funzioni di attivazione regolari, piccole percentuali di dropout per evitare dipendenze eccessive dai singoli nodi e una regolarizzazione dolce sui pesi per mantenere l’equilibrio del sistema. L’ottimizzazione segue un percorso controllato, con tassi di apprendimento adattivi e interruzione automatica del training quando non si osservano più miglioramenti significativi, impedendo così che la rete memorizzi rumore. L’intero addestramento si svolge in cieco, cioè senza che le informazioni di validazione o test influiscano sulle scelte di configurazione, e ogni dato viene pesato in base alla propria incertezza per rispettare la diversa qualità delle misure. Le analisi vengono ripetute molte volte con semi indipendenti, per testare la stabilità statistica dei risultati. Inoltre, il test prevede quattro varianti in cui si limita deliberatamente il numero di variabili in ingresso — solo il redshift, solo i parametri di luce, solo le caratteristiche dell’ospite, oppure tutte insieme — per verificare se, restringendo il campo, emergano inaspettate correlazioni nascoste. A completamento vengono eseguiti i due controlli negativi e, come raffinamento finale, una doppia verifica supplementare: un’analisi bootstrap per stimare la robustezza delle metriche globali e un esame della calibrazione locale dei residui per accertare che l’ampiezza degli intervalli predittivi sia coerente con le probabilità nominali. Tutto ciò serve a garantire che nessuna variazione apparente possa essere confusa con un segnale reale.

Risultati ottenuti
Al termine del ciclo di test, la rete neurale si è comportata esattamente come previsto in assenza di segnale: non ha imparato nulla di utile oltre il rumore. L’errore medio assoluto sullo split di test è risultato identico, entro le incertezze, a quello della baseline che assume residuo nullo. La differenza numerica è minima, inferiore a un millesimo di magnitudine, una variazione impercettibile e statisticamente irrilevante. Le prestazioni della rete, sia in termini di errore quadratico medio sia di capacità esplicativa, non mostrano alcun vantaggio rispetto alla condizione più semplice possibile. Il coefficiente di determinazione, che misura quanta parte della varianza dei dati venga spiegata dal modello, si aggira attorno allo zero, come atteso se il residuo è puro rumore. Gli indicatori di calibrazione mostrano che la distribuzione degli errori predetti è perfettamente coerente con quella osservata, e gli intervalli di confidenza risultano rispettati con precisione quasi ideale. Nessuna correlazione significativa appare tra i residui e le variabili fondamentali come il redshift, la forma della curva di luce o le proprietà delle galassie ospiti, e nessun segnale direzionale emerge dalle mappe angolari. I controlli negativi confermano pienamente la bontà del risultato: quando si sostituiscono i residui reali con valori casuali, la rete produce le stesse metriche, dimostrando che ciò che sta osservando è effettivamente rumore e non informazione. Le prove di robustezza eseguite variando parametri tecnici o modalità di pesatura non modificano in modo significativo i risultati, e la dispersione tra le diverse esecuzioni rimane molto ridotta, segno che il comportamento osservato è stabile e non dipende da fluttuazioni accidentali. Le micro-verifiche aggiuntive rafforzano ulteriormente la conclusione: il bootstrap mostra che il coefficiente di determinazione rimane strettamente centrato intorno allo zero con margini di incertezza compatibili con la teoria, mentre la calibrazione locale degli intervalli predittivi dimostra che le coperture effettive coincidono quasi perfettamente con quelle nominali. Tutte le misure rientrano nei limiti di confidenza previsti, senza scostamenti sistematici o deviazioni anomale.

Interpretazione scientifica
L’insieme dei risultati indica con chiarezza che i residui delle Supernove Ia, una volta sottratta la previsione del modello, non contengono più informazione strutturata. La rete neurale, che avrebbe potuto cogliere anche deboli correlazioni nascoste, non trova nulla di significativo da apprendere. Questo significa che le differenze tra le distanze osservate e quelle teoriche sono spiegabili interamente dalle incertezze di misura e dalle inevitabili variazioni intrinseche degli oggetti celesti. L’universo, in questo contesto, si presenta come un sistema coerente: ciò che resta dopo aver tolto la componente ordinata non è un residuo carico di informazione non interpretata, ma un rumore distribuito in modo uniforme e privo di struttura. Anche il fatto che nessuna singola variabile, nemmeno il redshift o i parametri di luce più sensibili, mostri pendenze sistematiche, conferma che il residuo è bianco e che il tempo cosmico agisce in modo regolare su tutte le scale considerate. I controlli ciechi, i test negativi, le ablation e i controlli di calibrazione hanno eliminato ogni possibile ambiguità. È un risultato che parla di coerenza più che di scoperta: l’assenza di informazione non è un fallimento, ma una prova di completezza. In termini pratici, significa che il modello ha spiegato tutto ciò che può essere spiegato con le variabili osservabili disponibili, lasciando al caso e al rumore il ruolo che loro compete.

Esito tecnico finale
Il test può considerarsi pienamente superato. Tutte le metriche chiave, dalle misure di errore alla calibrazione, convergono verso i valori attesi per un residuo casuale. Non emergono strutture nascoste, non si rilevano tendenze sistematiche, non si osservano anisotropie né correlazioni spurie. I controlli negativi e le varianti di ablation confermano l’assenza di segnale, le ripetizioni su semi differenti restituiscono risultati stabili e coerenti, e l’intera procedura ha rispettato i criteri di cieco e di tracciabilità fissati all’inizio. In conclusione, i residui delle Supernove Ia si comportano come un rumore puramente statistico, perfettamente compatibile con le incertezze osservate e con la naturale varianza astrofisica. Il modello, in questo dominio, risulta quindi pienamente validato.

bottom of page