Теорема Гаусса-Маркова
В классическом множественном регрессионном анализе обычно делаются следующие предпосылки:
1. Математическое ожидание случайного члена равно нулю в любом налюдении
(3.30)
2. Дисперсия случайного члена постоянна для всех наблюдений
. (3.31)
3. Значения случайного члена в любых наблюдениях и не коррелируют между собой
Cov( ) = 0 (i ≠ j). (3.32)
Это условие с учетом того, что М( ) = М( ) = 0 принимает вид
M( ) = 0 (i ≠ j). (3.33)
4. Случайный член должен быть распределен независимо от объясняющих переменных в одних и тех же наблюдениях
Cov( ) = M( ) = 0, (3.34)
где было учтено, что М( ) = 0.
Следует сказать, что последнее условие заведомо выполняется, если
объясняющие переменные считаются детерминированными величинами.
5. Матрица является неособенной, т. е. столбцы матрицы X линейно независимы.
6. Значения случайного члена распределены по нормальному закону.
Модель (3.6), удовлетворяющая приведенным предпосылкам 1- 6, называется классической нормальной линейной моделью множественной регрессии.
Модель (3.6), удовлетворяющая приведенным предпосылкам 1- 5, называется классической линейной моделью множественной регрессии.
Согласно теореме Гаусса-Маркова, при выполнении указанных предпосылок оценки параметров линейной множественной регрессии (3.13), полученные методом наименьших квадратов, будут несмещенными и эффективными (т. е. будут иметь наименьшую дисперсию) в классе линейных несмещенных оценок.
Нарушение одного из условий Гаусса-Маркова приводит к нарушению
эффективности оценок, т. е. в классе несмещенных оценок можно найти такие, которые имеют меньшую дисперсию.
После построения модели необходимо вычислить значения остатков еi и проверить выполнение предпосылок 1- 6, так как их нарушение снижает качество модели. Если условия нарушаются, то следует модернизировать модель соответствующим образом. Эти вопросы будут рассмотрены далее.
Дата добавления: 2016-03-22; просмотров: 902;