Definicion
El error estandar (EE) es una medida de cuan precisamente un estadistico muestral estima el correspondiente parametro poblacional. Mas comunmente, se refiere al error estandar de la media - cuanto se espera que la media muestral varie de la verdadera media poblacional a traves de diferentes muestras.
Como calcularlo
Error estandar de la media = desviacion estandar dividida por la raiz cuadrada del tamano de muestra (EE = DE / raiz(n)).
Un conjunto de datos de calificaciones tiene una desviacion estandar de 12 puntos.
Muestra de 9 estudiantes: EE = 12 / raiz(9) = 12 / 3 = 4.0
Muestra de 36 estudiantes: EE = 12 / raiz(36) = 12 / 6 = 2.0
Muestra de 144 estudiantes: EE = 12 / raiz(144) = 12 / 12 = 1.0
Cuadruplicar el tamano de muestra reduce el error estandar a la mitad cada vez.
Por que es importante
El error estandar es el bloque de construccion de los intervalos de confianza y las pruebas de hipotesis. Un intervalo de confianza del 95% es aproximadamente la media muestral mas o menos dos errores estandar. Cuando ves barras de error en un grafico, a menudo representan errores estandar.
Entender el error estandar te ayuda a juzgar la confiabilidad de los hallazgos de investigacion. Un estudio que reporta una media de 50 con EE = 1 da una estimacion mucho mas precisa que uno que reporta una media de 50 con EE = 10. Cuanto menor es el error estandar, mas puedes confiar en la estimacion.
El error estandar mide la precision de una estimacion muestral. Muestras mas grandes producen errores estandar mas pequenos y estimaciones mas confiables.