Differenza tra deviazione standard e media

Deviazione standard vs media

Nelle statistiche descrittive e inferenziali, diversi indici sono usati per descrivere un insieme di dati corrispondente alla sua tendenza centrale, dispersione e asimmetria. Nell'inferenza statistica, questi sono comunemente noti come stimatori poiché stimano i valori dei parametri della popolazione.

La tendenza centrale si riferisce e individua il centro della distribuzione dei valori. Media, modo e mediana sono gli indici più comunemente usati per descrivere la tendenza centrale di un set di dati. La dispersione è la quantità di diffusione dei dati dal centro della distribuzione. La gamma e la deviazione standard sono le misure di dispersione più comunemente utilizzate. I coefficienti di skewness di Pearson sono usati per descrivere l'asimmetria di una distribuzione di dati. Qui, l'asimmetria si riferisce a se il set di dati è simmetrico rispetto al centro o meno e se non è distorto.

Cosa significa?

La media è l'indice di tendenza centrale più comunemente usato. Dato un set di dati, la media viene calcolata prendendo la somma di tutti i valori dei dati e quindi dividendoli per il numero di dati. Ad esempio, i pesi di 10 persone (in chilogrammi) sono misurati in 70, 62, 65, 72, 80, 70, 63, 72, 77 e 79. Quindi il peso medio delle dieci persone (in chilogrammi) può essere calcolato come segue. La somma dei pesi è 70 + 62 + 65 + 72 + 80 + 70 + 63 + 72 + 77 + 79 = 710. Media = (somma) / (numero di dati) = 710/10 = 71 (in chilogrammi).

Come in questo particolare esempio, il valore medio di un set di dati potrebbe non essere un punto dati dell'insieme ma sarà univoco per un determinato set di dati. Media avrà le stesse unità dei dati originali. Pertanto, può essere contrassegnato sullo stesso asse dei dati e può essere utilizzato nei confronti. Inoltre, non esiste alcuna limitazione di segno per la media di un set di dati. Può essere negativo, zero o positivo, in quanto la somma dell'insieme di dati può essere negativa, zero o positiva.

Qual è la deviazione standard?

La deviazione standard è l'indice di dispersione più comunemente utilizzato. Per calcolare la deviazione standard, vengono prima calcolate le deviazioni dei valori dei dati dalla media. La media quadrata delle deviazioni è chiamata deviazione standard.

Nell'esempio precedente, le rispettive deviazioni dalla media sono (70 - 71) = -1, (62-71) = -9, (65-71) = -6, (72-71) = 1, (80- 71) = 9, (70-71) = -1, (63-71) = -8, (72-71) = 1, (77-71) = 6 e (79-71) = 8. La somma di i quadrati di deviazione sono (-1) 2+ (-9)2+ (-6)2+ 12+92+ (-1)2+ (-8)2+ 12+ 62 + 82 = 366. La deviazione standard è √ (366/10) = 6,05 (in chilogrammi). Da ciò si può concludere che la maggior parte dei dati si trova nell'intervallo 71 ± 6.05, a condizione che il set di dati non sia molto distorto, ed è proprio così in questo particolare esempio.

Poiché la deviazione standard ha le stesse unità dei dati originali, ci fornisce una misura di quanto i dati sono deviati dal centro; maggiore la deviazione standard maggiore la dispersione. Inoltre, la deviazione standard sarà un valore non negativo indipendentemente dalla natura dei dati nel set di dati.

Qual è la differenza tra deviazione standard e media?

• La deviazione standard è una misura della dispersione dal centro, mentre la media misura la posizione del centro di un set di dati.

• La deviazione standard è sempre un valore non negativo, ma la media può assumere qualsiasi valore reale.