![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Свойство 1. Справедливо неравенство
0 £ Свойство 2. Чтобы случайные величины были независимы, необходимо и достаточно равенства нулю корреляционного отношения:
Свойство 3. Чтобы между случайными величинами имела место собственная функциональная зависимость h = j(x), т.е.
P(h = j(x)) = 1,
необходимо и достаточно, чтобы корреляционное отношение было равно единице:
Свойство 4. Если регрессия h на x линейна, то корреляционное отношение равно квадрату коэффициента корреляции:
Таким образом, корреляционное отношение есть характеристика близости стохастической зависимости между случайными величинами к функциональной зависимости h = j(x), где j(x) есть функция регрессии h на x.
3.2.3. Остаток. Остаточная дисперсия
Пусть известно уравнение линейной среднеквадратичной регрессии h на x1, x2, …, x n:
Рассмотрим соответствующую этому уравнению регрессии случайную величину h r:
Случайная величина z = h – h r, определяемая формулой
z
называется остатком случайной величины h относительно случайного вектора (x1, x2, …, x n), а дисперсия этой случайной величины
Как видно из формулы (1.21), в случае n = 1 остаточная дисперсия h относительно x такова:
В общем n -мерном случае справедлива формула:
Отметим очевидные свойства остаточной дисперсии, которые следуют из формулы (2.14).
Свойство 1. Наибольшее значение остаточная дисперсия принимает в случае, если h не коррелирована ни с одной из величин x1, x2, …, x n. В этом случае r 2(h, h r) = 0 и остаточная дисперсия равна дисперсии h:
Свойство 2. Наименьшее значение остаточной дисперсии достигается при условии, что
Свойство 3. Для двумерного случайного вектора остаточные дисперсии его компонент
Ясно, что чем меньше остаточная дисперсия, тем точнее приближение случайной величины x с помощью соответствующего уравнения регрессии. Иногда в приложениях такое приближение характеризуют отношением
3.2.4. Сводный коэффициент корреляции Сводным коэффициентом корреляции называется коэффициент корреляции случайной величины h и ее наилучшего в смысле среднеквадратичного линейного приближения h r. Из формулы (2.16) следует:
r 2(h, h r) = 1 –
Приведем свойства сводного коэффициента корреляции, вытекающие непосредственно из его определения.
Свойство 1. –1 £ r (h, h r) £ 1.
Свойство 2. Равенство r (h, h r) = 0 означает, что r (h, x k) = 0 для всех k.
Свойство 3. Равенство r (h, h r) = 1 означает, что имеет место собственная линейная зависимость
Свойство 4. Если случайные величины x1, x2, …, x n не коррелированы, то справедливо равенство
r 2(h, h r) =
в котором легко узнать аналог теоремы Пифагора.
П р и м е р. Найти характеристики связи для случайных величин x и h, если x = x1 + x2, h = x + z и известно, что x1, x2, z попарно не коррелированы и распределены нормально:
x1 ~ N(a 1, s1), x2 ~ N(a 2, s2), z ~ N(a 3, s3).
Коэффициент корреляции r (x, h) был найден в п. 2.2.1. Для нашего случая имеем:
r (x1, h) =
r (x2, h) =
Определяя сводный коэффициент корреляции, получим:
r (x, h) =
Чтобы определить корреляционное отношение, найдем вначале функцию регрессии j(x, y):
j(x, y) = M(h /x1 = x, x2 = y) = M(x + z /x = x + y) = x + y + a 3.
В соответствии с тем, что регрессия, как видим, линейна, корреляционное отношение равно квадрату коэффициента корреляции:
Остатком в соответствии с формулой (2.13) является случайная величина z, а ее дисперсия и будет остаточной дисперсией. Остаточная дисперсия определяется как дисперсия разности:
D(h-x) = Dz =
3.3. Представление случайной величины в ортогональном базисе Рассмотрим множество случайных величин таких, которые можно представить в виде линейной комбинации случайных величин x1, x2, …, x n. Предположим, что для них существуют все моменты до второго порядка включительно и при этом все математические ожидания равны нулю, а дисперсии отличны от нуля. Введем матрицу ковариаций, т.е. матрицу вторых смешанных моментов: C = (c i j), 1£ i, j £ n, c i j = M(x i x j), c i i = Dx i. (2.22)
Если случайные величины попарно не коррелированы, то С – диагональная матрица. Рассмотрим простейший случай: n = 2. Тогда матрица ковариаций С и корреляционная матрица R имеют диагональный вид:
C = Элементом наилучшего в смысле среднего квадрата приближения случайной величины h (в предположении, что Мh = 0, Dh = s2) в ортогональном базисе x1, x2 будет линейная комбинация
x = a10 x1 + a20 x2, (2.24)
коэффициенты которой, как мы видели, определяются так:
где c 1 = cov(h, x1), c 2 = cov(h, x2). (Вспомним в линейной алгебре аналогичные формулы для коэффициентов разложения вектора по ортогональному базису на плоскости.) Формулы (2.24) и (2.25) легко обобщаются на случай n -мерного пространства. Получаем разложение случайной величины h в системе произвольного числа n некоррелированных случайных величин. Здесь система x1, x2, …, x n выступает в качестве ортогонального базиса. В n -мерном случае имеем:
h = a10 x1 + a20 x2 + … +a n 0 x n, (2.26)
где Особенно просто, как известно, выполняется разложение относительно ортонормированного базиса. Полагаем
Это означает, что система x1, x2, …, x n попарно не коррелирована, и базисные величины имеют единичные дисперсии h = r 10x1 + r 20x2 + … + rn 0x n. (2.28)
Геометрический смысл коэффициентов разложения (2.26) и (2.28) состоит в том, что они представляют собою проекции элемента h на соответствующий элемент x k.
П р и м е р. Известны все моменты (до второго порядка включительно) системы случайных величин h, x1, x2, x3.
Математические ожидания
5, 112; 1, 023; 2, 005; 4, 985.
Стандартные отклонения
0, 490; 0, 087; 0, 170; 0, 283.
Корреляционная матрица
В качестве ортогонального базиса можно выбрать попарно некоррелированные случайные величины x1, x2, x3. Переходим к нормированным и центрированным величинам, которые образуют ортонормированный базис:
x10 = (x1 – 1, 023)/0, 087;
x20 = (x2 – 1, 023)/0, 170;
x30 = (x3 – 4, 985)/0, 283.
В линейном пространстве случайных величин, натянутом на этот базис, находим элемент наилучшего среднеквадратичного приближения случайной величины h. Для этого составляем уравнение регрессии:
(у –5, 112) / 0.490 = 0, 606(x 1–1, 023) / 0, 087 +
+ 0, 599(x 2 – 1, 023) / 0, 170 – 0, 452(x 3 – 4, 985) / 0, 283,
или короче
y = 3, 422 x 1 + 1, 730 x 2 – 0, 784 x 3 + 2, 053.
Следовательно, элементом наилучшего среднеквадратического приближения случайной величины h в базисе x1, x2, x3 будет случайная величина h*:
h* = 3, 422 x1 + 1, 730 x2 – 0, 784 x3 + 2, 053.
Коэффициенты корреляции
r 1 = 0, 606; r 2 = 0, 599; r 3 = – 0, 452
характеризуют степень влияния соответствующего фактора на характеристику h. Точность описания этой характеристики с помощью параметров x1, x2, x3 характеризуется остаточной дисперсией. Вычисляя остаточную дисперсию по формуле (3.18), получим:
sh2 = 0, 006.
Сводный коэффициент корреляции характеризует точность описания в относительных единицах. Вычисляя сводный коэффициент корреляции по формуле (2.21) (теорема Пифагора), получаем:
r (h, h*) = 0, 965.
Близкое к единице значение сводного коэффициента корреляции говорит о высокой точности описания характеристики h с помощью выбранной линейной функции.
|