![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Эпсилон-энтропия непрерывного сообщения
Рассмотрим непрерывное сообщение в виде стационарного случайного процесса x(t) с известной одномерной плотностью вероятности рx(х). Проведём дискретизацию сообщения, для чего определим разрешённые уровни (х1, x2,..., xm). Вероятность нахождения случайной величины на интервале
Квантование дискрета непрерывного сообщения позволяет заменить непрерывную функцию плотности вероятности сообщения px(x) рядом вероятности, у которого возможными значениями служат разрешённые уровни х1, х2, …хm, а их соответствующие вероятности вычисляются по формуле (2.4). Вышеприведённые предпосылки позволяют для определения энтропии непрерывного сообщения воспользоваться формулой (1.7), полученной для дискретного сообщения. Подставив (2.4) в формулу (1.7), получим
где воспользовались соотношением
По условию нормировки плотности вероятности имеет место равенство
то формулу (2.6) можно записать в виде
где Из (2.7) следует, что энтропия непрерывного сообщения зависит как от плотности вероятности, так и от шага квантования. Причём при устремлении шага квантования к нулю теряется смысл выражения (2.7), так как
В литературе по теории информации величина (2, 7) называется эпсилон-энтропией по названию буквы e, определяющей шаг квантования. Эпсилон-энтропию можно рассматривать как величину, определяющую среднее количество информации, приходящейся на один дискрет квантованного непрерывного сообщения. Если конечные расчётные формулы представлять в виде разности энтропии, определяемых для одного и того же e, то log e будет вычитаться. Сказанное позволяет не учитывать log e (или условно рассматривать e= 1) и в качестве энтропии непрерывного сообщения использовать зависимость
равную взятому со знаком минус математическому ожиданию логарифма плотности вероятности непрерывной случайной величины. В общем плане плотность вероятности рx(х) является размерной величиной. Чтобы избежать некорректности, под логарифмом необходимо ставить рx(х) в безразмерном виде, поделив её на единицу с размерностью плотности вероятности. Энтропия (2.9) характеризует количество информации, приходящейся в среднем на один дискрет непрерывного сообщения. Если все дискреты на интервале [0, Т] являются независимыми случайными величинами, представляющими собой стационарный случайный процесс с одной и той же одномерной плотностью вероятности для всех своих сечений, то количество информации, заключённое в сообщении длительностью Т, определяется выражением
Формула (2.10) совпадает с выражением (2.16) для количества информации кодовой комбинации из n позиций в коде.
|