Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Эпсилон-энтропия непрерывного сообщения
Рассмотрим непрерывное сообщение в виде стационарного случайного процесса x(t) с известной одномерной плотностью вероятности рx(х). Проведём дискретизацию сообщения, для чего определим разрешённые уровни (х1, x2,..., xm). Вероятность нахождения случайной величины на интервале в соответствии с процедурой квантования будем рассматривать как вероятность рi того, что дискрет сообщения примет значение хi, тогда при достаточно малом шаге квантования Dх будет иметь место равенство . (2.4) Квантование дискрета непрерывного сообщения позволяет заменить непрерывную функцию плотности вероятности сообщения px(x) рядом вероятности, у которого возможными значениями служат разрешённые уровни х1, х2, …хm, а их соответствующие вероятности вычисляются по формуле (2.4). Вышеприведённые предпосылки позволяют для определения энтропии непрерывного сообщения воспользоваться формулой (1.7), полученной для дискретного сообщения. Подставив (2.4) в формулу (1.7), получим , (2.5) где воспользовались соотношением , b=Dх. Если устремить Dx®dx, то суммирование в (2.5) заменится интегрированием, которое распространим на всю числовую ось х. В то же время величину logDx, которая зависит от Dх и при его приближении к нулю стремится к " ", будем рассматривать как постоянную величину, не зависящую от х. В этом случае (2.5) примет вид . (2.6) По условию нормировки плотности вероятности имеет место равенство , то формулу (2.6) можно записать в виде , (2.7) где - шаг квантования. Из (2.7) следует, что энтропия непрерывного сообщения зависит как от плотности вероятности, так и от шага квантования. Причём при устремлении шага квантования к нулю теряется смысл выражения (2.7), так как . (2.8) В литературе по теории информации величина (2, 7) называется эпсилон-энтропией по названию буквы e, определяющей шаг квантования. Эпсилон-энтропию можно рассматривать как величину, определяющую среднее количество информации, приходящейся на один дискрет квантованного непрерывного сообщения. Если конечные расчётные формулы представлять в виде разности энтропии, определяемых для одного и того же e, то log e будет вычитаться. Сказанное позволяет не учитывать log e (или условно рассматривать e= 1) и в качестве энтропии непрерывного сообщения использовать зависимость , (2.9) равную взятому со знаком минус математическому ожиданию логарифма плотности вероятности непрерывной случайной величины. В общем плане плотность вероятности рx(х) является размерной величиной. Чтобы избежать некорректности, под логарифмом необходимо ставить рx(х) в безразмерном виде, поделив её на единицу с размерностью плотности вероятности. Энтропия (2.9) характеризует количество информации, приходящейся в среднем на один дискрет непрерывного сообщения. Если все дискреты на интервале [0, Т] являются независимыми случайными величинами, представляющими собой стационарный случайный процесс с одной и той же одномерной плотностью вероятности для всех своих сечений, то количество информации, заключённое в сообщении длительностью Т, определяется выражением . (2.10) Формула (2.10) совпадает с выражением (2.16) для количества информации кодовой комбинации из n позиций в коде.
|