Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Мера информации по Шеннону
Сообщения могут быть закодированы разными символами. Число разных символов, из которых образуются сообщения, составляет основание кода, (русский алфавит имеет 33 символа, двоичный код – 2 символа, код Бодо – 5 символов и т.д.). Совокупность различных символов, составляющих основание кода, назовем алфавитом. Пусть - основание кода и передается последовательность , где - один из символов из алфавита. Число всевозможных сообщений, которые можно создать равно . Информация, содержащаяся в ансамбле из N сообщений, должна быть пропорциональна длине последовательности. Р. Хартли в 1928 г. предложил за меру количества информации в ансамбле из N сообщений принять величину . Но мера информации по Хартли не учитывает вероятностный характер появления элементов последовательности . Мера – это одна из характеристик исследуемого объекта. Это может быть длина, ёмкость и т.д. В данном случае необходимо определить меру информации, содержащемся в каждом элементе ансамбля и среднюю меру информации в ансамбле в целом. Мера должна обладать двумя свойствами: 1. мера исследуемого объекта не должна быть отрицательной, 2. если объект состоит из нескольких элементов, каждый обладающий определённой мерой, полная мера объекта равна суме мер отдельных составляющих, (условие аддитивности). Пусть ансамбль состоит из элементов . Выберем два элемента из этого ансамбля, имеющих совместную вероятность реализации этих элементов . Обозначим через меру информации, содержащемся в элементе . Тогда, используя свойство аддитивности меры, запишем меру информации, содержащуюся в ансамбле из двух элементов , , . (2.1) Дифференцируя левую и правую части выражения (2.1) по , получим . . В результате имеем Умножив обе части полученного равенства на , получим уравнение . (2.2) Уравнение (2.2) имеет решение, если , (2.3) где С – постоянная величина. Интегрируя уравнение (2.3), получим ,
(2.4)
Определим из условия: если событие происходит с вероятностью , то оно не несёт никакой информации для абонента. Поэтому функция и . Так как мера информации не должна быть отрицательной, а , то коэффициент должен быть отрицательным. Если , то мера информации имеет вид и измеряется в неперах, [Нат]. Однако на практике, ввиду развития цифровой техники и использования двоичной системы счисления чаще применяется основание логарифма, равное 2. Тогда и мера информации, или количество информации, содержащаяся в элементе , будет равна . (2.5) В дальнейшем основание логарифма 2 будем опускать. Мера информации измеряется в битах, [Бит]. Каждый элемент ансамбля обладает своим количеством информации , реализующимся с вероятностью . Таким образом, мера информации – это характеристика элемента ансамбля , являющаяся случайной величиной с реализациями в виде количества информации , появляющихся с вероятностями , (Таблица 1).
|