Определение
Дисперсия - это статистическая мера, количественно оценивающая, насколько разбросан набор значений относительно среднего. Она вычисляется путем усреднения квадратов отклонений каждого значения от среднего. Чем больше дисперсия, тем больше разброс данных.
Как рассчитать дисперсию
Найдите среднее, вычтите его из каждого значения, возведите каждый результат в квадрат, а затем усредните эти квадраты отклонений.
Дневные температуры за неделю (в градусах Цельсия): 20, 22, 19, 21, 23
Среднее: (20 + 22 + 19 + 21 + 23) / 5 = 21
Квадраты отклонений: (20-21)^2 + (22-21)^2 + (19-21)^2 + (21-21)^2 + (23-21)^2 = 1 + 1 + 4 + 0 + 4 = 10
Дисперсия: 10 / 5 = 2
Почему это важно
Дисперсия - строительный блок для многих статистических методов. Она центральна в ANOVA (дисперсионном анализе), регрессии и портфельной теории в финансах. Понимание дисперсии помогает количественно оценивать риск, оценивать стабильность и сравнивать надежность различных процессов.
На практике для отчетности чаще используется стандартное отклонение, потому что его легче интерпретировать. Но за кулисами дисперсия выполняет основную математическую работу. Многие формулы в продвинутой статистике работают непосредственно с дисперсией, потому что квадратичные значения имеют удобные математические свойства.
Дисперсия измеряет разброс данных в квадратных единицах. Для повседневной интерпретации извлеките из нее квадратный корень, чтобы получить стандартное отклонение.