![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Коэффициент конкордации
Коэффициент конкордации является характеристикой связи между несколькими порядковыми признаками. Выборочное значение коэффициента конкордации между p ранжировками
Коэффициент конкордации часто используется для оценки согласованности мнений экспертов. Пусть p – количество экспертов, n – количество объектов, Пусть мнения экспертов полностью согласованы, причем первому объекту все эксперты дают ранг 1, второму – ранг 2, … n -му объекту – ранг n. Тогда
Для того чтобы коэффициент конкордации принимал значение 1 при полной согласованности мнений экспертов, разделим Свойства коэффициента конкордации: 1. коэффициент конкордации принимает значения от 0 до 1 (ранжировки 2. коэффициент конкордации равен 1 тогда и только тогда, когда все p ранжировок совпадают; 3. если 4. пусть Формула (3.9) используется для расчета выборочного значения коэффициента конкордации только в случае отсутствия объединенных рангов в рассматриваемых ранжировках. Если же таковые имеются, то используется следующая формула:
где
После расчета выборочного значения коэффициента конкордации необходимо проверить значимость коэффициента. Для этого выдвигаются гипотезы:
Для проверки нулевой гипотезы используется статистика Существуют и другие способы проверки значимости коэффициента конкордации [12].
3.3 Корреляционный анализ номинальных признаков: анализ двухфакторных таблиц сопряженности
Рассмотрим два категоризованных номинальных признака X и Y. Признак X может принимать значения
где
Вероятности
Ряд распределения случайной величины Y имеет вид:
В силу случайности рассматриваемых признаков исход наблюдения имеет некоторую неопределенность. Возникает вопрос: можно ли предсказать значение, которое примет случайная величина при очередном наблюдении? Зная закон распределения случайной величины, можно в некоторой мере оценить надежность прогноза. Например, две случайные величины X и Y имеют следующие законы распределения:
Из этих таблиц видно, что закон распределения случайной величины Y имеет значительно меньшую неопределенность и позволяет с высокой вероятностью предсказать, что результатом наблюдения будет значение Числовой характеристикой распределения дискретной случайной величины, которая может служить мерой его неопределенности, является энтропия закона распределения, определяемая формулой:
Энтропия зависит не от значений случайной величины, а только от их вероятностей и количества r возможных значений. Основание логарифмов может быть произвольным. Однако для сравнения энтропий различных распределений они должны вычисляться при одном и том же основании. В теории информации в качестве основания логарифмов принято брать 2. Энтропии приведенных выше распределений при натуральных логарифмах принимают следующие значения: Свойства энтропии: 1) 2) 3) По аналогии с одномерной случайной величиной энтропия пары случайных величин определяется следующим образом:
Свойства энтропии двумерного распределения: 1) 2) Пусть имеется выборка объема n из генеральной совокупности (Х, Y). Тогда эмпирическое распределение генеральной совокупности (Х, Y) может быть представлено в виде двухфакторной таблицы сопряженности признаков Х и Y размерности
где
Замечание: признаки X и/или Y могут быть измерены в порядковой или количественной шкале. В последнем случае для построения выборочной таблицы сопряженности наблюдаемые значения признаков должны быть сгруппированы в форме интервального вариационного ряда. На практике применяют три метода отбора объектов в выборку. 1) Перекрестный отбор Предполагается, что величины 2) Целевой отбор Распределения строк 3) Третья схема отбора объектов получается из первой схемы, когда число n является не фиксированной, а случайной величиной, подчиненной заданному закону распределения. В этом случае
|