Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Основные гипотезыСтр 1 из 7Следующая ⇒
Лекция 2. Множественный регрессионный анализ Классическая нормальная линейная модель множественной регрессии Экономические явления, как правило, определяются большим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости одной зависимой переменной у от нескольких объясняющих переменных х1, …, хk. Эта задача решается с помощью множественного регрессионного анализа. Имеется n наблюдений. Обозначим i-е наблюдение зависимой переменной yi, а объясняющих переменных xi1, xi2, … xik. Тогда модель множественной линейной регрессии можно представить в виде: (1) где i = 1, 2, …, n число наблюдений. ε i – регрессионные ошибки случайного характера. Основные гипотезы Гипотезы, лежащие в основе модели множественной регрессии, являются естественным обобщением модели парной регрессии: 1. , i = 1, …, n – спецификация модели. 2. xi1, xi2, … xik – детерминированные (неслучайные) величины. Векторы xs =(x1s, …, xns)Т s = 1, …, k линейно независимы в Rn. 3. a. М(ε t) = 0, т.е. математическое ожидание ошибки равно нулю. М( – не зависит от номера наблюдения i. Означает неизменность дисперсий регрессионной ошибки. (Это свойство наз. гомоскедастичностью регрессионной ошибки). 3. b. М(ε i, ε j)=0 при i≠ j – статистическая независимость (некоррелированность друг с другом) ошибок для разных наблюдений. Некоррелированность ошибок означает, что результат наблюдений одного объекта не может повлиять на результат наблюдений другого. 3. c. Ошибки ε i, i=1, …, n имеют совместное нормальное распределение ε i~N(0, σ 2). В этом случае модель называется классическойнормальной линейной регрессионной. Гипотезы, лежащие в основе множественной регрессии удобно записать в матричной форме, которая будет использоваться в дальнейшем. Пусть: Y обозначает матрицу (вектор-столбец) (y1, …, yn)Т (Т вверху означает транспонирование), В = (β 0, β 1, …, β к)Т – вектор-столбец коэффициентов (неизвестных значений параметров модели), Е = (ε 1, ε 2, …, ε n)Т – вектор-столбец ошибок, - матрицу объясняющих переменных, которая соответствует набору векторов-столбцов объясняющих переменных, а также вектору-столбцу из единиц, отвечающему за константу в уравнении модели. Матрица должна быть матрицей полного ранга. - единичная матрица размерности ;
- ковариационная матрица размерности вектора ошибки.
Условия 1-3 в матричной записи выглядят следующим образом: 1. Y=XВ+Е – спецификация модели; 2. X – детерминированная матрица, имеет максимальный ранг k+1; 3. a, b. М(ε)= 0; V(ε)=М(ε ε T)=σ 2 In; дополнительное условие: 3. с. Е ~N(0, σ 2 In ), т.е. Е – нормально распределенный случайный вектор со средним и матрицей ковариаций σ 2 In (нормальная линейная регрессионная модель).
Оценкой этой модели по выборке является уравнение: Y = X + Е, Где – вектор-столбец оценок неизвестных параметров модели; E = (e1, e2, …, en)Т – вектор –столбец регрессионных остатков.
|