Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Тема 8 Статистическое изучение взаимосвязи социально-экономических явлений
Основные понятия и определения Признаки, обуславливающие изменение других, взаимосвязанных с ними признаков, называются факторными. Признаки, изменяющие свои значения в результате воздействия факторных, называются результативными. В статистике различают связь функциональную и связь корреляционную. При наличии функциональной связи одному и тому же значению факторного признака соответствует лишь одно значение результативного признака. Корреляционная связь характеризуется тем, что изменение среднего значения результативного признака обусловлено изменением одного или нескольких факторных признаков, а, следовательно, при наличии корреляционной зависимости одному значению факторного признака может соответствовать несколько разных значений результативного. Связь между различными социально-экономическими явлениями и их признаками классифицируется по аналитическому выражению, по направлению и по степени тесноты связи. Задачей регрессионного анализа является установление формы зависимости результативного признака от факторного, построение теоретической линии регрессии и определение направления этой зависимости. Корреляционный анализ заключается в оценке степени тесноты связи между рассматриваемыми показателями, т.е. в какой степени результативный показатель подвержен влиянию со стороны факторного. Если изучается влияние на результативный признак одного факторного, то такая корреляция называется парной. Если на результативный признак оказывают влияние несколько факторных, то такая корреляция называется множественной. По аналитическому выражению связи могут быть прямолинейными и криволинейными. Прямолинейная связь графически представлена в виде прямой линии, криволинейная – в виде различных кривых (гипербола, парабола, полином и т.д.). Так, при парной корреляции, аналитическая связь между факторным и результативным признаками может быть описана следующими уравнениями:
прямой ; параболы ; гиперболы и т.д. Определить тип уравнения можно, исследуя зависимость графически. Также можно это сделать и не прибегая к графическому изображению. Если значения результативного и факторного признаков возрастают одинаково (примерно в арифметической прогрессии), то это свидетельствует о наличии линейной связи между ними, а при обратной связи – гиперболической. Если значения результативного признака возрастают в арифметической прогрессии, а факторного значительно быстрее, то применяется параболическая или степенная функция. Расчет параметров уравнения регрессии (a, b, c) осуществляется на основе метода наименьших квадратов, при котором минимизируется сумма квадратов отклонений эмпирических (фактических) значений результативного признака от теоретических (расчетных), полученных по уравнению регрессии: (8.1) Для нахождения значений параметров уравнения регрессии необходимо решить систему нормальных уравнений (количество уравнений зависит от числа исследуемых факторных признаков). Так, для парной корреляции при линейной форме зависимости, система имеет следующий вид: (8.2)
Путем преобразований получаем формулы расчета значений параметров и : , (8.3) где - значения обшей средней по факторному и результативному признакам; - среднее значение из произведений индивидуальных значений факторного и результативного признаков; - среднее значение из квадратов индивидуальных значений факторного признака; - квадрат среднего значения факторного признака. В уравнении регрессии значение параметра показывает усредненное влияние на результативный признак неучтенных факторов; значение параметра (коэффициент регрессии) показывает, насколько изменяется в среднем значение результативного признака при изменении факторного на единицу его измерения. По направлению выделяют связь прямую и обратную. При наличии прямой связи с увеличением (уменьшением) значений факторного признака наблюдается также увеличение (уменьшение) значений результативного признака. При обратной связи с увеличением (уменьшением) значений факторного признака наблюдается изменение значений результативного признака в обратном направлении, т.е. его значения уменьшаются (увеличиваются). Если значение параметра уравнения регрессии больше нуля, это говорит о наличии прямой связи между признаками, и, наоборот, если значение отрицательное, то связь между факторным и результативным признаками будет обратная. Теснота связи при линейной зависимости определяется с помощью линейного коэффициента корреляции. Для его расчета применяются различные формулы, приведем одну из них: , (8.4) где - значения обшей средней по факторному и результативному признакам; - среднее значение из произведений индивидуальных значений факторного и результативного признаков; - среднеквадратические отклонения по факторному и результативному признакам соответственно. Значение линейного коэффициента корреляции находится в пределах от –1 до +1. Знаки коэффициентов регрессии и корреляции совпадают и говорят о характере связи между факторным и результативным признаками. Оценка линейного коэффициента корреляции представлена в следующей таблице: Таблица 8.1 – Оценка значений линейного коэффициента корреляции
Степень тесноты связи между показателями определяется количественными критериями, представленными в таблице 8.2:
Таблица 8.2 – Характер связи в зависимости от значения коэффициента корреляции
Коэффициент детерминации D = показывает, на сколько процентов вариация результативного признака объясняется вариацией признака, положенного в основание группировки или входящего в уравнение регрессии. Проверка адекватности моделей, построенных на основе уравнения регрессии, начинается с проверки значимости коэффициента регрессии. Значимость коэффициента регрессии осуществляется с помощью t-критерия Стьюдента: , (8.5) где - дисперсия коэффициента регрессии. Параметр модели признается статистически значимым, если
, (8.6) где - уровень значимости критерия проверки гипотезы о равенстве нулю параметров, измеряющих связь; (v = n – k – 1) - число степеней свободы, которое характеризует число свободно варьирующих элементов совокупности. Дисперсия может быть определена по выражению: , (8.7) где - дисперсия результативного признака; k – количество факторных признаков в уравнении. Более точную оценку величины дисперсии дает следующая формула: . (8.8) Проверка адекватности всей модели осуществляется с помощью расчета F-критерия и величины средней ошибки аппроксимации (): . (8.9) Значение средней ошибки аппроксимации не должно превышать 12-15%.
|