Scomposizione della varianza nella regressione lineare
In questo articolo andiamo a studiare più approfonditamente la varianza delle osservazioni teoriche, sapendo che la media dei valori teorici è uguale alla media dei valori osservati.
Questo valore spiega quanta varianza è spiegata dal modello di regressione costruito ed è chiamata varianza di spiegata.
La varianza della variabile y può essere scomposta come segue:
Per il primo termine della scomposizione, è detta varianza dei residui , ovvero ciò che il modello non riesce a spiegare, per questo motivo è chiamata anche varianza non spiegata. La devianza è chiamata “error sum of square” (ESS).
Il secondo termine corrisponde invece alla varianza spiegata dal modello, come già indicato a inizio articolo ed è chiamata appunto varianza spiegata. La devianza è chiamata “regression sum of square” (RSS).
Per rendere la formula in modo più elegante possiamo riscriverla come:
TSS=ESS+RSS
dove TSS è " total sum of square " e facendo il rapporto tra RRS e TSS si ottiene R^2 ed è un indice di accostamento del modello ai dati. Questo indice varia tra 0 e 1, assume valore 1 quando i punti osservati giacciono sulla retta di regressione mentre assume 0 quando la retta è rappresentata orizzontalmente ovvero non spiega per nulla i dati.
Commenti
Posta un commento