Студопедия

Главная страница Случайная страница

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Теория информации






МЕЖДУНАРОДНАЯ АКАДЕМИЯ БИЗНЕСА И УПРАВЛЕНИЯ

Институт информационных и инновационных технологий

Специальность. Организация и технология защиты информации

 

Зачетная работа

по курсу

ОСНОВЫ ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ

 

Студент: Смирнов В А

Руководитель: Воронков Э.Н.

 

Москва, 2012

 

 

Оглавление

Введение. 4

1. Теория. 5

Теория информации. 5

1.1. Основные понятия информатики и математики. 5

1.2. Сигнал. 5

1.3. Основные понятия. Информация. 6

Информационная энтропия (по Шеннону). 6

Энтропия по Хартли. Единица информации. 7

1.4. Основные понятия. Компьютер. 9

1.5. Информационная энтропия (по Шеннону). 10

1.6. Энтропия по Хартли. Единицаинформации. 11

Кодирование и декодирование. 16

1.7. Средства связи. Канал связи. 17

Канал связи. Основные характеристики. 18

Периодические сигналы.. 19

Формулы Эйлера. 21

1.8. Электро магнитная волна. 23

2. Практика. 24

2.1. Кодирование. Энтропия. 24

2.2.Гармонические сигналы. Вычисления в среде MATLAB. Построение графиков. 26

2.3.Рассчитать информационнуюантропию по системе Шенона и для двоичной троичной четверичной системы. 28

2.4.Кодирование в различных система счисления. 28

2.5.Упражнения. 29

2.6 Вычисление. 31

2.7 Сигналы.. 35

5.Контроль. Самоконтроль. 37

Список источников. 38

10. Практика. 39

10.1. Тема. 39

11. Контроль и самоконтроль. 39

 

 

 

Введение

Основные поколения компьютеров

1. Лампы

2. Транзисторы

3. На интегральных схемах

4. СБИС – сверх большие интегральные схемы

5. Сейчас – супер СБИС

Закон Мура:

Примерно каждые 2 года количество транзистаров на чипе удваевается.

Основные понятия информатики и математики

n Объект - информационное понятие, в котором отдельно не выделяется его содержание Часть объекта принято называть элементом, однако сам элемент может рассматриваться как объект. Объекты отличаются друг от друга их свойствами.

n Процесс - характеристика изменения свойств объекта.

n Множество - набор каких либо объектов обладающих общим для всех их характеристическими свойствами.

n Множество элементов в информатике называют массивом.

n Величина характеристика (свойство) объекта. Величины могут быть непрерывными, например время и дискретными, например число на циферблате ваших часов. В технике непрерывные величины принято называть аналоговыми. В отличие от аналоговых дискретные величины имеют конечное число значений.

n Система - множество элементов, находящихся в каком либо отношении друг к другу (взаимодействии).

n Информационная система совокупность любых объектов, взаимодействующих путем обмена информацией.

 

Теория

Теория информации

Теорией информации называют науку, изучающую количественные закономерности, получения передачи, обработки и хранения информации.

 

Основные понятия информатики и математики

Объект - информационное понятие, в котором отдельно не выделяется его содержание Часть объекта принято называть элементом, однако сам элемент может рассматриваться как объект. Объекты отличаются друг от друга их свойствами.

Процесс - характеристика изменения свойств объекта.

Множество - набор каких либо объектов обладающих общим для всех их характеристическими свойствами.

Множество элементов в информатике называют массивом.

Величина характеристика (свойство) объекта. Величины могут быть непрерывными, например время и дискретными, например число на циферблате ваших часов. В технике непрерывные величины принято называть аналоговыми. В отличие от аналоговых дискретные величины имеют конечное число значений.

Система - множество элементов, находящихся в каком либо отношении друг к другу (взаимодействии).

Информационная система совокупность любых объектов, взаимодействующих путем обмена информацией.

 

Сигнал

Сигнал Сигнал является материальным носителем информации, которая передается от источника к потребителю. Он может

быть дискретным и непрерывным (аналоговым).

Дискретный сигнал слагается из счетного множества (т.е. такого множества, элементы которого можно пересчитать) элементов (говорят – информационных элементов).

Непрерывный (аналоговый) сигнал – отражается некоторой физической величиной, изменяющейся в заданном интервале времени, например, тембром или силой звука.

Сообщение. Информацию передаваемую с помощью сигнала принято называть сообщением

 

Основные понятия. Информация

Информация – это сведения о каких либо событиях. Информация фиксирует свойства объектов и отражает связь между какими либо событиями

Информация – есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя говорить об информации так же бессмысленно как е без наличия сообщения. Только соединяясь с потребителем, сообщение выделяет информацию. Информация – не материальная сущность, а способ описания взаимодействия.

Три основных свойства информации: её можно считывать, передавать и обрабатывать. Поэтому часто информации дают такое определение:


Поделиться с друзьями:

mylektsii.su - Мои Лекции - 2015-2024 год. (0.007 сек.)Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав Пожаловаться на материал