![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Количественная мера информации.
При введении понятия энтропии мы исходили из количества событий, о которых нам необходимо получить информацию. Таким образом, энтропия характеризует количество информации, получаемой путём исследования интересующего нас процесса, если мы можем получить в своё распоряжение сведения о любом из M интересующих нас событий. Однако возможен такой исход исследования (или измерений), когда о некоторых событиях из рассматриваемых М событий сведения фактически не будут получены. Допустим, что до проведения исследований предусматривалась реализация одного из
а после проведения исследований она уменьшилась до значения, не превышающего:
В таком случае количество I полученной информации определяется разностью между исходной и конечной энтропиями:
Формула (2.5) даёт обобщённую количественную оценку информации и соответствует формулировке: количество информации равно убыли энтропии. Величина исчерпывающей информации соответствует В качестве примера рассмотрим оценку количества информации, получаемой от аналогового измерительного прибора с длиной рабочей части шкалы, равной L, работающего с погрешностью ∆, заданной в единицах длины прибора. Предположим, что допустимая погрешность δ в заданной измерительной системе меньше той, которую может обеспечить используемый прибор: δ < ∆. Исходя из заданной точности измерений прибор должен гарантировать Начальная энтропия измерений:
а энтропия после измерений:
Количество информации, получаемой от этого прибора:
т.е. определяется его точностью во всех случаях, когда имеет место δ < ∆. При δ = ∆ величина Для практических расчётов количество информации по формулам (2.1), (2.2), (2.3) и (2.5) введём понятие единицы измерения информации. Примем во внимание, что в устройствах хранения, передачи и переработки информации обычно применяются элементы, в которых для записи информации используется только два символа, такие как высокий и низкий потенциалы (в электронных устройствах) или намагниченный и не намагниченный участки магнитных носителей информации. В качестве этих символов обычно используют 1 и 0. Использование только этих символов для записи информации соответствует Информацию, которую получают из опыта с двумя равновероятными исходами, используют в качестве эталона (единицы) количества информации в устройствах, в которых запись информации производится только с помощью двух символов. Эту информацию называют битом, или двоичной единицей информации. Согласно формуле (2.3) количество информации, равное одному биту, можно получить и иным путём, из опыта со многими, но не равновероятными исходами. Опыт с двумя равновероятными исходами (к которому приближается, например, подбрасывание монеты) является лишь эталоном бита. Из определения бита следует, что максимальное количество информации, которая может храниться в электронном триггере или на элементарном намагниченном участке магнитной дискеты, равному одному биту. По тем же причинам номинальная ёмкость ЗУ, указанная в битах, есть максимальное количество информации, которое может храниться в этих ЗУ при условии, что все события, сообщения о которых зафиксированы в ЗУ, являются равновероятными. Обычно в ЗУ зафиксированы сообщения о событиях, которые не равновероятны. Ярким примером такого рода сообщений являются сообщения об отсутствии аварийной ситуации. Их вероятность при нормальном ходе технологического процесса значительно выше вероятности поступления сигнала аварии. По указанным причинам фактический объём информации, хранящейся в ЗУ, значительно меньше номинального. Широко используются производные от бита единицы информации: 1 байт = 8 бит; 1 Кбайт = 210 байт; 1 Мбайт = 220 байт и др. Особой единицей информации является слово. Слово – это количество информации, обрабатываемой в данном управляющем устройстве за один цикл работы устройства. Величина слова обычно кратна байту: 1 байт, 2 байт, 4 байт. Если необходимо оценить лишь объём записи информации на электронных или магнитных носителях, то битом называют минимальный объём записи, соответствующий двоичной или двоичному нулю (элементарная ячейка памяти).
|