Que es el error estandar?

Definicion

El error estandar (EE) es una medida de cuan precisamente un estadistico muestral estima el correspondiente parametro poblacional. Mas comunmente, se refiere al error estandar de la media - cuanto se espera que la media muestral varie de la verdadera media poblacional a traves de diferentes muestras.

Como calcularlo

Error estandar de la media = desviacion estandar dividida por la raiz cuadrada del tamano de muestra (EE = DE / raiz(n)).

Ejemplo

Un conjunto de datos de calificaciones tiene una desviacion estandar de 12 puntos.

Muestra de 9 estudiantes: EE = 12 / raiz(9) = 12 / 3 = 4.0

Muestra de 36 estudiantes: EE = 12 / raiz(36) = 12 / 6 = 2.0

Muestra de 144 estudiantes: EE = 12 / raiz(144) = 12 / 12 = 1.0

Cuadruplicar el tamano de muestra reduce el error estandar a la mitad cada vez.

Por que es importante

El error estandar es el bloque de construccion de los intervalos de confianza y las pruebas de hipotesis. Un intervalo de confianza del 95% es aproximadamente la media muestral mas o menos dos errores estandar. Cuando ves barras de error en un grafico, a menudo representan errores estandar.

Entender el error estandar te ayuda a juzgar la confiabilidad de los hallazgos de investigacion. Un estudio que reporta una media de 50 con EE = 1 da una estimacion mucho mas precisa que uno que reporta una media de 50 con EE = 10. Cuanto menor es el error estandar, mas puedes confiar en la estimacion.

Punto clave

El error estandar mide la precision de una estimacion muestral. Muestras mas grandes producen errores estandar mas pequenos y estimaciones mas confiables.

← Back to Glossary