Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Основні припущення в багатофакторному регресійному аналізі
Багатофакторна лінійна регресійна модель є узагальненням простої лінійної регресійної моделі, тому всі основні класичні припущення для неї зберігаються, але дещо модифікуються. 1. Математичне сподівання залишків дорівнює нулю. 2. Значення вектора залишків незалежні між собою, тобто відсутня серійна кореляція. 3. Модель гомоскедастична. 4. Коваріація між випадковою величиною та кожною незалежною змінною дорівнює 0. Відзначимо, що властивість 4 виконується автоматично, якщо не стохастичні та припущення 1 має силу. 5. Модель повинна бути правильно специфікованою. 6. Випадкова величина підпорядковується нормальному закону розподілу з нульовим математичним сподіванням і постійною дисперсією. 7. Відсутність мультиколінеарності між факторами , тобто фактори повинні бути незалежними один від одного. Не повинно бути точного лінійного зв’язку між двома або більше факторами. Припущення 7 для простої лінійної регресії відсутнє, але надзвичайно важливе для багатофакторної регресії. Якщо всі припущення класичної лінійної регресійної моделі виконуються, то МНК-оцінки є не тільки лінійними без відхилень оцінками, але мають ще найменшу дисперсію, тобто є BLUE -оцінками.
|