Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Пример 5.
При угадывании целого числа в диапазоне от 1 до N было получено 8 бит информации. Чему равно N? Решение. Для того чтобы найти число, достаточно решить уравнение N=28=256 Ответ: N = 256. Вывод: при угадывании любого целого числа в диапазоне от 1 до 256 получаем 8 бит информации.
Пример 6. За два года студент получил 100 оценок. Среди них: 60 пятерок, 25 четверок, 10 троек и 5 двоек. Сколько бит информации несет сообщение о получении студентом следующей отметки? Решение. Посчитаем вероятности получения пятерок, четверок, троек и двоек студентом за 2 года: · вероятность пятерки: Р5=60/100=0, 6; · вероятность четверки: Р4=25/100=0, 25; · вероятность тройки: Р3=10/100=0, 1; · вероятность двойки: Р2=5/100=0, 05. Зная вероятности событий, можно определить количество информации в сообщении о каждом из них. Согласно теории информации, для этого нужно решить показательное уравнение 2i=1/Р. Решение выражается через логарифм i=log2(l/P). Вычисления: I5 = log2(l/0, 6) = log2(5/3) = 0, 737 бит; I4 = log2(l/0, 25) = log2(4) = 2 бит; I3 = log2(l/0, l) = log2(10) = 3, 322 бит; I2 = log2(l/0, 05) = log2(20) = 4, 322 бит. Ответ: сообщение о получении отметки «отлично» несет 0, 737 бит информации, «хорошо» – 2 бит, «удовлетворительно» – 3, 322, «неудовлетворительно» – 4, 322 бит информации. Вывод: чем меньше вероятность события, тем больше информации несет сообщение о нем.
В компьютерах используется двоичная система счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния. Так некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. Как уже отмечалось, за единицу измерения количества информации, при условии двоичного кодирования принят один бит. Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое, истина или ложь и т. п.). При этом, в частности, невозможно нецелое число битов. Следующей по величине единицей измерения количества информации является байт, представляющий собой последовательность, составленною из восьми бит, т.е. 1 байт = 23 бит = 8 бит. Именно восемь бит, или один байт, используется для того, чтобы закодировать символы алфавита. Один байт также является минимальной единицей адресуемой памяти компьютера. В информатике также широко используются кратные байту единицы измерения количества информации, в которых используется коэффициент 2n. Этот выбор объясняется тем, что компьютер в основном оперирует числами не в десятичной, а в двоичной системе счисления. Кратные байту единицы измерения количества информации вводятся следующим образом: 1 Килобайт (Кбайт) = 1024 байт = 210 байт 1 Мегабайт (Мбайт) = 1024 Кбайт = 1020 байт 1 Гигабайт (Гбайт) = 1024 Мбайт = 1030 байт 1 Терабайт (Тбайт) = 1024 Гбайт =1040 байт. 1 Петабайт (Пбайт) = 1024 Тбайт = 1050 байт 1 Экзабайт (Эбайт) = 1024 Пбайт = 1060 байт
Вероятностный подход используется и при определении количества информации, представленной с помощью знаковых систем. Если рассматривать символы алфавита как множество возможных сообщений N, то количество информации, которое несет один знак алфавита, можно определить по формуле (1). При равновероятностном появлении каждого знака алфавита в тексте сообщения для определения количества информации можно воспользоваться формулой (2). Множество знаков, используемых при записи текста, называется алфавитом. Полное количество знаков в алфавите называется мощностью (размером) алфавита. Допустим, что все знаки алфавита встречаются в тексте с одинаковой частотой (равновероятно), вычислим по формуле (2) количество информации, которое несет каждый знак (символ) алфавита. Так в 2-х символьном алфавите каждый символ «весит» 1 бит (log22 = 1); в 4-х символьном алфавите каждый символ несет 2 бита информации (log24 = 2); в 8-ми символьном —3 бита (log28 = 3) и т.д. Один символ из алфавита мощностью 256 (28) символов несет в тексте 8 бит (1 байт) информации. Алфавит из 256 символов используется для представления текстов в компьютере. Количество информации (информационный объем), содержащееся в сообщении, закодированном с помощью знаковой системы и содержащем определенное количество знаков (символов), определяется с помощью формулы: V=К× I, (3) где V – информационный объем сообщения; I = log2 N – информационный объем одного символа в используемом алфавите., К – количество символов в сообщении, N – мощность алфавита. Поясним сказанное выше на примерах.
Пример 7. Книга, набранная с помощью компьютера, содержит 150 страниц; на каждой странице – 40 строк, в каждой строке – 60 символов. Каков объем информации в книге? Решение. Мощность компьютерного алфавита равна 256. Один символ несет 1 байт информации. Значит, страница содержит 40•60 = 2400 байт информации. Объем всей информации в книге (в разных единицах): 2400•150 = 360000 (байт); 360000 (байт)/1024 (байт/Кбайт) = 351, 5625 (Кбайт); 351, 5625 (Кбайт)/1024 (Кбайт/Мбайт) = 0, 34332275 (Мбайт). Ответ: объем информации в книге составляет 360000 байт, 351, 5625 Кбайт, 0, 34332275 Мбайт.
Пример 8. Подсчитайте объем информации, содержащейся в романе А. Дюма «Три мушкетера», и определите, сколько близких по объему произведений можно разместить на одном лазерном диске в 600 Мбайт если в книге 590 стр., 48 строк на одной странице, 53 символа в строке. Решение. 590•48•53 = 1500960(символов). 1500960 байт = 1466 Кбайт = 1, 4 Мбайт. 600 Мбайт/1, 4 Мбайт = 428, 57. Ответ: на одном лазерном диске емкостью 600 Мбайт можно разместить около 428 произведений, близких по объему к роману А. Дюма «Три мушкетера», что составляем 1, 4 Мбайт.
Пример 9. На диске объемом 100 Мбайт подготовлена к выдаче на экран дисплея информация: 24 строчки по 80 символов, эта информация заполняет экран целиком. Какую часть диска она занимает? Решение. Код одного символа занимает 1 байт. 24•80=1920 (байт). Объем диска 100•1024•1024 байт = 104857600 (байт). 1920/104857600=0, 000018 (часть диска). Ответ: информация занимает 0, 000018 часть диска. Пример 10. Каково время (в секундах) передачи полного объема данных по каналу связи? Известно, что передано Решение. Обозначим неизвестное время за х (с), тогда за первый период, равный 0, 25 х (с), передано 8•0, 25 х =2 х (с•Мбит/с) данных. За остальное время - 0, 75 х, (с) передано 20•0, 75 х =15 х (с•Мбит/с). Объем переданной информации переведем из Мбайт в Мбиты: 731=731•8=5848 (Мбит). Получаем уравнение 2 x +15 х = 5848, откуда х =344 (с). Ответ: для передачи полного объема данных по каналу связи в объеме 731 Мбайт необходимо 344 с.
На семантическом уровне информация рассматривается по ее содержанию, отражающему состояние отдельного объекта или системы в целом. При этом не учитывается полезность для получателя информации. Для измерения смыслового содержания информации широкое распространение получил подход, основаны на использовании тезаурусной меры. При этом под тезаурусом понимается совокупность информации (сведений), которой располагает получатель (приемник). Данный подход предполагает, что для понимания (осмысливания) и использования полученной информации получатель должен обладать тезаурусом, т.е. определенным запасом знаков, наполненных смыслом, слов, понятий, названий явлений и объектов, между которыми установлены связи на смысловом уровне. Таким образом, если принять знания о данном объекте или явлении за тезаурус, то количество информации, которое содержится в новом сообщении о данном предмете, можно оценить по изменению индивидуального тезауруса под воздействием данного сообщения. В зависимости от соотношения между смысловым содержанием сообщения и тезаурусом пользователя изменяется количество семантической информации. При этом характер такой зависимости не поддается строгому математическому описанию и сводится к рассмотрению трех основных условий, при которых тезаурус пользователя: · стремится к нулю, т.е. пользователь не воспринимает поступившее сообщение; · стремится к бесконечности, т.е. пользователь досконально знает все об объекте или явлении и поступившее сообщение его не интересует; · согласован со смысловым содержанием сообщения, т.е. поступившее сообщение понятно пользователю и несет новые сведения. Два первых предельных случая соответствуют состоянию, при котором количество семантической информации, получаемое пользователем, минимально. Третий случай связан с получением максимального количества семантической информации. Таким образом, количество семантической информации, получаемой пользователем, является величиной относительной. Так как одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного. Поэтому возникает сложность получения объективной оценки количества информации на семантическом уровне. Для получения такой оценки используются различные единицы измерения количества информации: абсолютные или относительные. В качестве абсолютных единиц измерения могут использоваться символы, реквизиты, записи и т.д. В качестве относительной – коэффициент содержательности, который определяется как отношение количества семантической информации к объему. Например, для определения на семантическом уровне количества информации, полученной студентами на занятиях, в качестве единицы измерения может быть принят исходный балл (символ), характеризующий степень усвояемости ими нового учебного материала, на основе которого можно косвенно определить количество информации, полученное каждым студентом. Это количество информации будет выражено через соответствующий оценочный балл, в принятом диапазоне оценок. На прагматическом уровне информация рассматривается с точки зрения ее полезности (ценности) для достижения потребителем информации поставленной практической цели. Данный подход при определении полезности информации основан на расчете приращения вероятности достижения цели до и после получения информации. Количество информации, определяющее ее ценность (полезность), находится по формуле: (4) где P0, P1 – вероятность достижения цели соответственно до и после получения информации. В качестве единицы измерения (меры) количества информации, определяющей ее ценность, может быть принят 1 бит (при основании логарифма, равном 2). То есть это такое количество полученной информации, при котором отношении вероятностей достижения цели равно 2. Рассмотрим три случая, когда количество информации, определяющее ее ценность, равно нулю, и когда она принимает положительное и отрицательное значения. Количество информации равно нулю при P0 = P1, т.е. полученная информация не увеличивает и не уменьшает вероятность достижении цели. Значение информации является положительной величиной при P1 > P0, т.е. полученная информация уменьшает исходную неопределенность и увеличивает вероятность достижения цели. Значение информации является отрицательной величиной при P1 < P0, т.е. полученная информация увеличивает исходную неопределенность и уменьшает вероятность достижения цели. Такую информацию называют дезинформацией.
|