Студопедия

Главная страница Случайная страница

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Алфавитный подход.






Слово предоставляется группе №3

В3.

1. В чем заключается алфавитный подход к определению количества информации?

 

Для человека количество информации определяется на основе уменьшения неопределенности наших знаний, а компьютер не понимает содержание и новизну. Информация рассматривается им как последовательность букв, цифр, кодов цветов точек изображения и т.д. Это важно для хранения и передачи информации техническими устройствами.

 

2. Как посчитать количество информации в сообщении с помощью алфавитного подхода?

 

Через количество символов с учетом информационного веса символов.

 

3. Почему информационная емкость русской буквы а больше информационной ёмкости английской буквы?

 

Потому, что в русском алфавите букв больше, чем в английском. Число равновероятных событий появления русской буквы больше, значит и само её появление несет больше информации

 

4. Пусть две книги на русском и китайском языках содержат одинаковое количество знаков. В какой книге содержится большее количество информации с точки зрения алфавитного подхода?

 

Ответ: в китайской.

 

Учитель: Заполняем опорный конспект, отвечая на вопросы:

5. Сколько битов информации несет одна буква русского алфавита? Считать появление символов в сообщении равновероятным.______________________________________________________________________________________

6. Как подсчитать количество информации в слове записанном на русском языке?

_____________________________________________________________________________________________________

7. Пусть две книги на русском и китайском языках содержат одинаковое количество знаков. В какой книге содержится большее количество информации с точки зрения алфавитного подхода?

____________________________________________________________________________________________________

Учитель выставляет оценки за работу в группах.

Единицы измерения информации

Какие единицы измерения вы знаете?

Ученик: минимальная единица измерения информации 1 бит. Так как «алфавит компьютера» (число символов на клавиатуре) составляет примерно 256 символов, то 1 символ составляет 8 бит информации (28=256).

1 байт=23=8 бит

Учитель: Более крупные единицы измерения информации:

 

1Кбайт (килобайт)=210 байт=1024 байт

1Мбайт (мегабайт)=210 Кбайт=1024 Кбайт=220 байт

1Гбайт (гигабайт)=210 Мбайт=1024 Мбайт=230 байт

1Тбайт (терабайт)=210 Гбайт=1024 Гбайт=240 байт

1Пбайт (петабайт)=210 Тбайт=1024 Тбайт=250 байт

 

Итак, количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков в сообщении.

Формулы Хартли и Шеннона.

Учитель: Как определить полученное количество информации за один бросок игрального кубика?

У куба 6 граней, значит требуется решить показательное уравнение 2I =6. Это можно сделать, используя понятие логарифма. Напомню, что логарифмом называют показатель степени I, в которую нужно возвести основание логарифма (2) чтобы получить заданное число N. Log26 ≈ 2, 6 бит. Значит за один бросок мы получим 2, 6 бит информации.

Учитель:

1. Для равновероятных событий расчетная формула количества информации имеет вид: N=2I или I =log2 N (формула оценки сообщений предложена в 1928 году Р. Хартли).

 

2. Иногда формула Хартли записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность P=1/N, то N = 1/P и формула имеет вид:

I =log2 (1/P)= - log2 (P)

 

3. Существуют множества ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета не симметрична (одна сторона тяжелее другой), то при её бросании вероятности выпадения «орла» и «решки» будут различаться.

Формулу для вычисления количества информации в случае различных вероятностей событий предложил К.Шеннон в 1948 году. В этом случае количество информации определяется по формуле:

pi log 2 pi, где I –количество информации, N –количество возможных событий, pi –вероятности отдельных событий. Вероятность события pi =1/N.

Поясним формулу на примере:

Пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:

P1 =1/2

P2 =1/4

P3 = 1/8

P4 =1/8

Тогда, количество информации, которое мы получим после реализации одного из событий можно рассчитать по формуле:

I= - (1/2•log21/2 + 1/4•log21/4 + 1/8•log21/8 + 1/8•log21/8) = (1/2 + 2/4 + 3/8 + 3/8) битов =14/8 битов»1, 75 бита.

Этот подход к определению количества информации называется вероятностным.

Выполнить задания №8, 9 ОК.

8. Сравните количество получаемой информации при бросании симметричной пирамидки и несимметричной.

_______________________________________________________________________________________________

_______________________________________________________________________________________________

Итак, количество информации, которое мы получаем достигает максимального значения, если события равновероятны. (при бросании несимметричной четырехгранной пирамидки (1, 75 бита) – события не равновероятны, при бросании симметричной (2 бита) – события равновероятны)

9. Какое количество информации получит второй игрок в игре «Угадай число», если первый загадал число: 32, 128? ___________________________________________________________________________________________

3. Практическая работа: (№2.3, стр. 82)

Вычислить с помощью электронного калькулятора Wise Calkulator количество информации, которое будет получено:

v При бросании симметричного шестигранного кубика;

v При игре в рулетку с 72 секторами;

v При игре в шахматы игроком за черных после первого хода белых, если считать все ходы равновероятными.

v При игре в шашки.

Ответы учащиеся записывают в тетрадь.

Ответ: 2, 58 бита, 6, 17 бита, 4, 32 бита. 2, 80 бита.

 

4. Решение задач.

Задача 1 (№2.7 практикум Угринович стр.37)

Заполнить пропуски числами:

Г) __Гб=1536 Мб=__Кбайт

Решение:

Чтобы перевести меньшую единицу числа в большую (из Мб в Гб) надо разделить его на 1024, чтобы перевести большую единицу измерения в меньшую (из Мб в Кб) надо умножить на 1024.

1536 Мб=1536: 1024 Гб=1, 5 Гб

1536 Мб= 1536*1024 Кб=1 572 864 Кб

 

Д) 512 Кб=2_ байт=2_ бит

512 Кб= 512*1024 байт=524288 байт или 29*210=219 байт

219 байт=219*23 бит=222 бит, так как в 1 байте 8 бит или 23

Задача 2 (№2.8)

Найти х из следующих соотношений:

а) 16х бит=32 Мб

Решение:

Для сравнения двух частей надо обе части перевести в одну единицу измерения, лучше известную, т.е.32 Мб переведем в биты. Переведем сначала в байты.

32 Мб * 220байт =25*220байт=225байт.

Затем переведем в биты: 225*23 бит=228 бит

Преобразуем левую часть в степень двойки: 2бит=228 бит, значит х=7

б) 8х Кб=16 Гб

Переведем Гб в Кбайты. 1ГБ=220 Кбайт, значит

16 Гб= 16*220 Кбайт=24*220 Кбайт=224 Кбайт. Теперь переведем в степень 2 левую часть

2 Кб= 224 Кбайт, значит х=8

Задача 3 (№2.10)

Пользователь компьютера, хорошо владеющий навыками ввода информации с клавиатуры может вводить в минуту 100 знаков. Мощность алфавита, используемого в компьютере равна 256. Какое количество информации в байтах может ввести пользователь за 1 минуту.

Решение: так как мощность алфавита (количество символов в алфавите) равно 256, то длину кода одного символа легко посчитать, надо решить уравнение 2x=256, где х=8, так как 1 байт= 8 бит, то 8*100=800 бит информации, или 100 байт за минуту будет введено.

Задача 4. В барабане для розыгрыша лотереи находится 32 шара. Сколько информации содержит сообщение о первом выпавшем номере (например, выпал номер 15)?

Решение:

т.к. вытаскивание любого из шаров равновероятно, то количество информации вычисляется по формуле 2I=N, где I – количество информации, а N – количество шаров. Тогда 2I=32, отсюда I = 5 бит.

Задача 5. Группа школьников пришла в бассейн, в котором 4 дорожки для плавания. Тренер сообщил, что группа будет плавать на дорожке номер 3. Сколько информации получили школьники из этого сообщения?

Решение:

Поскольку выбор одной дорожки из 4-х равновероятен, то количество информации определяется по формуле: 2I=N, где I – количество информации, а N=4 – количество дорожек. Тогда 2I=4, отсюда I=2 бита.

Задача 6. В корзине лежат 8 шаров. Все шары разного цвета. Сколько информации несет сообщение о том, что из корзины достали красный шар?

Решение:

Поскольку все шары разного цвета, то вытаскивание одного шара из восьми равновероятно. Количество информации определяется по формуле: 2I=N, где I – количество информации, а N=8 – количество шаров. Тогда 2I=8, отсюда I=3 бита.

Задача 6. Была получена телеграмма: «Встречайте, вагон 7». Известно, что в составе поезда 16 вагонов. Какое количество информации было получено?

Решение:

Поскольку номер вагона равновероятно может быть выбран из 16 вагонов, то количество информации определяется по формуле: 2I=N, где I – количество информации, а N=16 – количество вагонов. Тогда 2I=16, отсюда I=4 бита.

Задача 7. При угадывании целого числа в некотором диапазоне было получено 6 бит информации. Сколько чисел содержит этот диапазон?

Решение:

Поскольку выбор числа равновероятен из заданного диапазона, то количество информации определяется по формуле 2I=N, где I=6 бит, а N – количество чисел в искомом интервале. Отсюда: 26=N, N=64.

Задача 8. Сообщение о том, что ваш друг живет на 10 этаже, несет 4 бита информации. Сколько этажей в доме?

Решение:

Поскольку появление в сообщении номера этажа равновероятно из общего числа этажей в доме, то количество информации определяется по формуле: 2I=N, где I = 4 – количество информации, N – число этажей в доме. Отсюда: 24=N, N=16.

Задача 9. Какое количество информации несет сообщение: «Встреча назначена на сентябрь».

Решение:

Поскольку появление в сообщении месяца сентябрь равновероятно из 12 месяцев, то количество информации определяется по формуле: 2I=N, где I – количество информации, N – количество месяцев. Отсюда: 2I=12, I=log212≈ 3.584962501 бит.

Задача 10. Какое количество информации несет сообщение о том, что встреча назначена на 15 число?

Решение:

Поскольку появление в сообщении определенного числа равновероятно из общего числа дней в месяце, то количество информации определяется по формуле: 2I=N, где I – количество информации, N=31 – количество дней в месяце. Отсюда: 2I=31, I=log231≈ 4.954196310 бит.

5. Подведение итогов, домашнее задание:

Учитель подводит итог урока, выставляются оценки.

Итак, подводя итог выше сказанному, можно сказать, что математическая теория информации не охватывает всего богатства содержания информации, поскольку она отвлекается от содержательной (смысловой, семантической) стороны сообщения. С точки зрения этой теории фраза из 100 слов, взятая из газеты, пьесы Шекспира или теории Эйнштейна, имеет приблизительно одинаковое количество информации. Советский математик Ю. А. Шрейдер оценивал информацию по увеличению объема знаний у человека под воздействием информационного сообщения. Академик А.А. Харкевич измерял содержательность информации по увеличению вероятности достижения цели после получения информации человеком или машиной. В компьютере применяется алфавитный подход к измерению информации.

Дом. задание:

1. учить конспект.

2. Учебник Угриновича стр. 74-82.

3. Уметь отвечать на вопросы после каждого параграфа.

4. № 2.4, 2.5 (учебник, стр. 82).

5. повторить изученное, подготовиться к контрольной работе.

 

 

Литература:

  1. Угринович Н.Д. Информатика и информационные технологии. Учебник для 10-11 классов. – М.: БИНОМ. Лаборатория знаний, 2003. с. 74-82.
  2. Шауцукова Л.З. Информатика: Учебн. Пособие для 10-11 кл. общеобразоват. Учреждений.–М.: просвещение, 2003.9-с. 9-11.
  3. Информатика. Задачник-практикум в 2 т. /Под ред. И.Г. Семакина, Е.К. Хеннера: Том 1. – Лаборатория Базовых Знаний, 1999 г. – 304 с.: ил.
  4. Практикум по информатике и информационным технологиям. Учебное пособие для общеобразовательных учреждений / Н.Д. Угринович, Л.Л. Босова, Н.И. Михайлова. – М.: Бином. Лаборатория Знаний, 2002. 400 с.: ил.

 

 


Поделиться с друзьями:

mylektsii.su - Мои Лекции - 2015-2024 год. (0.013 сек.)Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав Пожаловаться на материал