Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Свойство 1. Справедливо неравенство
0 £ £ 1. Свойство 2. Чтобы случайные величины были независимы, необходимо и достаточно равенства нулю корреляционного отношения:
= 0.
Свойство 3. Чтобы между случайными величинами имела место собственная функциональная зависимость h = j(x), т.е.
P(h = j(x)) = 1,
необходимо и достаточно, чтобы корреляционное отношение было равно единице:
= 1. Свойство 4. Если регрессия h на x линейна, то корреляционное отношение равно квадрату коэффициента корреляции:
= r 2(x, h). Таким образом, корреляционное отношение есть характеристика близости стохастической зависимости между случайными величинами к функциональной зависимости h = j(x), где j(x) есть функция регрессии h на x.
3.2.3. Остаток. Остаточная дисперсия
Пусть известно уравнение линейной среднеквадратичной регрессии h на x1, x2, …, x n:
. (2.12)
Рассмотрим соответствующую этому уравнению регрессии случайную величину h r: .
Случайная величина z = h – h r, определяемая формулой
z , (2.13)
называется остатком случайной величины h относительно случайного вектора (x1, x2, …, x n), а дисперсия этой случайной величины – остаточной дисперсией: . (2.14)
Как видно из формулы (1.21), в случае n = 1 остаточная дисперсия h относительно x такова:
= . (2.15)
В общем n -мерном случае справедлива формула:
= . (2.16)
Отметим очевидные свойства остаточной дисперсии, которые следуют из формулы (2.14).
Свойство 1. Наибольшее значение остаточная дисперсия принимает в случае, если h не коррелирована ни с одной из величин x1, x2, …, x n. В этом случае r 2(h, h r) = 0 и остаточная дисперсия равна дисперсии h: = Dh.
Свойство 2. Наименьшее значение остаточной дисперсии достигается при условии, что , и оно равно нулю. Это имеет место в случае, если справедливо равенство
. (2.17)
Свойство 3. Для двумерного случайного вектора остаточные дисперсии его компонент и x относительно h и h относительно x определяются формулами:
= m02 (1 – r 2), (2.18)
= m20 (1 – r 2). (2.19)
Ясно, что чем меньше остаточная дисперсия, тем точнее приближение случайной величины x с помощью соответствующего уравнения регрессии. Иногда в приложениях такое приближение характеризуют отношением , где 0 £ £ 1.
3.2.4. Сводный коэффициент корреляции Сводным коэффициентом корреляции называется коэффициент корреляции случайной величины h и ее наилучшего в смысле среднеквадратичного линейного приближения h r. Из формулы (2.16) следует:
r 2(h, h r) = 1 – . (2.20)
Приведем свойства сводного коэффициента корреляции, вытекающие непосредственно из его определения.
Свойство 1. –1 £ r (h, h r) £ 1.
Свойство 2. Равенство r (h, h r) = 0 означает, что r (h, x k) = 0 для всех k.
Свойство 3. Равенство r (h, h r) = 1 означает, что имеет место собственная линейная зависимость
.
Свойство 4. Если случайные величины x1, x2, …, x n не коррелированы, то справедливо равенство
r 2(h, h r) = , (2.21)
в котором легко узнать аналог теоремы Пифагора.
П р и м е р. Найти характеристики связи для случайных величин x и h, если x = x1 + x2, h = x + z и известно, что x1, x2, z попарно не коррелированы и распределены нормально:
x1 ~ N(a 1, s1), x2 ~ N(a 2, s2), z ~ N(a 3, s3).
Коэффициент корреляции r (x, h) был найден в п. 2.2.1. Для нашего случая имеем:
r (x1, h) = = .
r (x2, h) = = .
Определяя сводный коэффициент корреляции, получим:
r (x, h) = .
Чтобы определить корреляционное отношение, найдем вначале функцию регрессии j(x, y):
j(x, y) = M(h /x1 = x, x2 = y) = M(x + z /x = x + y) = x + y + a 3.
В соответствии с тем, что регрессия, как видим, линейна, корреляционное отношение равно квадрату коэффициента корреляции:
.
Остатком в соответствии с формулой (2.13) является случайная величина z, а ее дисперсия и будет остаточной дисперсией. Остаточная дисперсия определяется как дисперсия разности:
D(h-x) = Dz = .
3.3. Представление случайной величины в ортогональном базисе Рассмотрим множество случайных величин таких, которые можно представить в виде линейной комбинации случайных величин x1, x2, …, x n. Предположим, что для них существуют все моменты до второго порядка включительно и при этом все математические ожидания равны нулю, а дисперсии отличны от нуля. Введем матрицу ковариаций, т.е. матрицу вторых смешанных моментов: C = (c i j), 1£ i, j £ n, c i j = M(x i x j), c i i = Dx i. (2.22)
Если случайные величины попарно не коррелированы, то С – диагональная матрица. Рассмотрим простейший случай: n = 2. Тогда матрица ковариаций С и корреляционная матрица R имеют диагональный вид:
C = ; R = . (2.23) Элементом наилучшего в смысле среднего квадрата приближения случайной величины h (в предположении, что Мh = 0, Dh = s2) в ортогональном базисе x1, x2 будет линейная комбинация
x = a10 x1 + a20 x2, (2.24)
коэффициенты которой, как мы видели, определяются так:
= , , (2.25)
где c 1 = cov(h, x1), c 2 = cov(h, x2). (Вспомним в линейной алгебре аналогичные формулы для коэффициентов разложения вектора по ортогональному базису на плоскости.) Формулы (2.24) и (2.25) легко обобщаются на случай n -мерного пространства. Получаем разложение случайной величины h в системе произвольного числа n некоррелированных случайных величин. Здесь система x1, x2, …, x n выступает в качестве ортогонального базиса. В n -мерном случае имеем:
h = a10 x1 + a20 x2 + … +a n 0 x n, (2.26)
где , k = 1, 2, …, n. Особенно просто, как известно, выполняется разложение относительно ортонормированного базиса. Полагаем
(2.27)
Это означает, что система x1, x2, …, x n попарно не коррелирована, и базисные величины имеют единичные дисперсии . В этом случае коэффициенты разложения (2.26) равны соответствующим коэффициентам корреляции: h = r 10x1 + r 20x2 + … + rn 0x n. (2.28)
Геометрический смысл коэффициентов разложения (2.26) и (2.28) состоит в том, что они представляют собою проекции элемента h на соответствующий элемент x k.
П р и м е р. Известны все моменты (до второго порядка включительно) системы случайных величин h, x1, x2, x3.
Математические ожидания
5, 112; 1, 023; 2, 005; 4, 985.
Стандартные отклонения
0, 490; 0, 087; 0, 170; 0, 283.
Корреляционная матрица
.
В качестве ортогонального базиса можно выбрать попарно некоррелированные случайные величины x1, x2, x3. Переходим к нормированным и центрированным величинам, которые образуют ортонормированный базис:
x10 = (x1 – 1, 023)/0, 087;
x20 = (x2 – 1, 023)/0, 170;
x30 = (x3 – 4, 985)/0, 283.
В линейном пространстве случайных величин, натянутом на этот базис, находим элемент наилучшего среднеквадратичного приближения случайной величины h. Для этого составляем уравнение регрессии:
(у –5, 112) / 0.490 = 0, 606(x 1–1, 023) / 0, 087 +
+ 0, 599(x 2 – 1, 023) / 0, 170 – 0, 452(x 3 – 4, 985) / 0, 283,
или короче
y = 3, 422 x 1 + 1, 730 x 2 – 0, 784 x 3 + 2, 053.
Следовательно, элементом наилучшего среднеквадратического приближения случайной величины h в базисе x1, x2, x3 будет случайная величина h*:
h* = 3, 422 x1 + 1, 730 x2 – 0, 784 x3 + 2, 053.
Коэффициенты корреляции
r 1 = 0, 606; r 2 = 0, 599; r 3 = – 0, 452
характеризуют степень влияния соответствующего фактора на характеристику h. Точность описания этой характеристики с помощью параметров x1, x2, x3 характеризуется остаточной дисперсией. Вычисляя остаточную дисперсию по формуле (3.18), получим:
sh2 = 0, 006.
Сводный коэффициент корреляции характеризует точность описания в относительных единицах. Вычисляя сводный коэффициент корреляции по формуле (2.21) (теорема Пифагора), получаем:
r (h, h*) = 0, 965.
Близкое к единице значение сводного коэффициента корреляции говорит о высокой точности описания характеристики h с помощью выбранной линейной функции.
|