Главная страница
Случайная страница
КАТЕГОРИИ:
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника
|
Представление регрессии в корреляционной форме. Частные корреляции
Пусть методом наименьших квадратов требуется построить модель вида
, (1)
где – некоторые функции предикторов . Было проведено наблюдений, значения которых составляют вектор :
.
Вычислим значения в каждой из точек и составим матрицу :
.
Найдем средние значения элементов вектора и каждого из столбцов матрицы , начиная со второго. Обозначим эти величины , .
Рассчитаем , .
Перепишем модель (1) в виде
, (2)
и введем обозначения
, (3)
. (4)
Подставив формулы (3), (4) в выражение (2), получим:
. (5)
Если составить сумму квадратов

и продифференцировать ее по , получим первое нормальное уравнение

или
,
так как , .
Таким образом, оценка свободного члена модели (5) всегда будет равна независимо от того, каковы будут значение других коэффициентов. Поэтому можно исключить из модели (5) и применять ее в виде
, (6)
где . Эта модель связывает нормированные переменные , , с нормированным откликом и содержит неизвестных коэффициентов. Для нахождения их оценок воспользуемся методом наименьших квадратов. Составим матрицы и :



Рассмотрим суммы , и :
,
, .
Внедиагональные члены матрицы и элементы вектора представляли бы собой выборочные коэффициенты корреляции величин и , если бы эти величины имели двумерное распределение. Несмотря на то, что это не так, значения и позволяют судить о наличии точной или приближенной парной линейной зависимости между конкретными наборами данных и . Матрица для преобразованной модели в дальнейшем будет называться корреляционной матрицей -переменных, а и – коэффициентами корреляции, хотя более корректно вместо слова «корреляция» использовать термин «сопряженность», так величины являются детерминированными.
Система нормальных уравнений для модели (6) будет иметь вид:
,
где
, , . (7)
После того, как найдены оценки , можно перейти к оценкам по соотношениям:
, ; 
Проверка гипотезы равноценна проверке гипотезы . При этом надо учитывать, что остаточная сумма квадратов преобразованной модели будет иметь степеней свободы (как для исходной модели), так как нормированные переменные связаны ограничением .
Преобразование регрессионной задачи к виду (6) удобно, так как оно делает все числа, участвующие в вычислениях, лежащими между -1 и 1. Это минимизирует эффекты ошибок округления и делает вычисления более устойчивыми. С другой стороны, корреляционная матрица полезна для выявления тех функций факторов , между которыми существует линейная или очень близкая к линейной связь. Если для некоторых , , то следует один из этих членов исключить из модели. Выбор, какой из членов следует оставить в модели, может осуществляться на основании знаний или интуитивных представлений о каждом из них. Если нет иных оснований, то в модель включается тот член, для которого показатель величины связи с откликом (коэффициент корреляции с откликом) больше.
Корреляционная матрица используется также в различных методах выбора факторов. В этой ситуации возникает потребность в определении частных (парциальных) коэффициентов корреляции.
Рассмотрим модель

и, используя результаты эксперимента, найдем корреляционную матрицу и вектор .
Если построить модели
, , , (8)
то можно найти новые независимые переменные , значения которых равны остаткам от регрессии на , на , …, на . (остатки от подобранных моделей (18)).
Значения новых независимых переменных представляют собой долю исходных данных, которые не зависят от значений . Теперь можно построить новую корреляционную матрицу для переменных и новый вектор корреляций . Они состоят из частных коэффициентов корреляции. Частный коэффициент корреляции может записываться, например, так . Это означает «частный коэффициент корреляции переменных и после исключения влияния переменной ».
Аналогично, если построить модели
, , , (9)
то можно определить остатки от регрессий , , на , и на , и построить корреляционную матрицу и вектор корреляций . Этот процесс можно продолжать далее.
Частные коэффициенты корреляции можно находить по формулам
, (10)
(11)
и так далее.
|