Студопедия

Главная страница Случайная страница

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Операционная система (ОС) персонального компьютера как средство управления ресурсами






Операционная система – это комплекс программ, обеспечивающий контроль за существованием (некоторые из ресурсов ВС, как мы знаем, являются программными или логическими/виртуальными и создаются под контролем операционной системой), распределением и использованием ресурсов ВС.

Типовая структура ОС
Ядро резидентная часть ОС, работающая в режиме супервизора. В ядре размещаются программы обработки прерываний и драйверы наиболее «ответственных» устройств. Это могут быть и физические, и виртуальные устройства. Например, в ядре могут располагаться драйверы файловой системы, ОЗУ. Обычно ядро работает в режиме физической адресации.
Следующие уровни структуры – динамически подгружаемые драйверы физических и виртуальных устройств. Это драйверы, добавление которых в систему возможно «на ходу» без перекомпоновки программ ОС. Они могут являться резидентными и нерезидентными, а также могут работать как в режиме супервизора, так и в пользовательском режиме.
Можно выделить следующие основные логические функции ОС:

· управление процессами;

· управление ОП;

· планирование;

· управление устройствами и ФС.

Управление процессами. Жизненный цикл процесса. Рассмотрим типовые этапы обработки процесса в системе, совокупность этих этапов будем назвать жизненным циклом процесса в системе. Традиционно, жизненный цикл процесса содержит этапы:

· образование (порождение) процесса;

· обработка (выполнение) процесса;

· ожидание (по тем или иным причинам) постановки на выполнение;

· завершение процесса.

Планирование. Важной проблемой, на решение которой ориентированы многие компоненты современных ОС, является проблема планирования предоставления тех или иных услуг или функций операционной системой. Традиционно, в состав задач планирования ОС могут входить следующие:

· планирование очереди процессов на начало обработки процессором;

· планирование распределения времени ЦП между обрабатываемыми в мультипрограммном режиме процессами;

· планирование порядка обработки заказов на обмен с ВУ;

· планирование порядка обработки прерываний;

· планирование использования ОЗУ (организация свопинга).

В целом, комплексное решение задач планирования в ОС определяет основные эксплуатационные качества каждой конкретной системы. Рассмотрим типовые задачи планирования и модельные решения этих задач.

Планирование очереди процессов на начало обработки ЦП
При планировании очереди процессов на начало обработки ЦП могут применяться как примитивные стратегии организации очереди FIFO, так и стратегии, учитывающие не только порядок поступления в очередь, но и объем ресурсов, продекламированных процессами для использования. В общем случае очередь процессов в БВП может предоставляться как объединение подочередей, где каждая подочередь включает в себя определенные классы процессов (например, такая классификация может строиться на объеме запрашиваемых ресурсов и/или типе процесса). При этом возможно определение приоритета каждой из очередей (сначала рассматриваются непустые очереди с наименьшим приоритетом).

Планирование распределения времени работы ЦП между процессами
Здесь существует несколько проблем:

· величина кванта времени работы ЦП, выделяемого выполняемому процессу.

· стратегия выбора процесса, который будет выполняться ЦП из множества процессов, готовых к исполнению и размещенных в БОП.

3.Измерение информации – вероятностный и алфавитный подходы

С точки зрения на информацию, как на снятую неопределеность, количество информации в сообщении о каком-то событии зависит от вероятности совершения данного события.

Научный подход к оценке сообщений был предложен еще в 1928 году Р. Хартли. Расчетная формула Хартли для равновероятностных событий имеет вид:

I=log2N или 2I=N,

где N - количество равновероятных событий (число возможных выборов), I - количество информации.

Если N = 2 (выбор из двух возможностей), то I = 1 бит.

Пример 1. Использование формулы Хартли для вычисления количества информации. Сколько бит информации несет сообщение о том, что

поезд прибывает на один из 8 путей?

Формула Хартли: I=log2N,

где N – число равновероятностных исходов события, о котором речь идет в сообщении,

I – количество информации в сообщении.

I = log28 = 3(бит) Ответ: 3 бита.

Модифицированная формула Хартли для неравновероятностных событий. Так как наступление каждого из N возможных событий имеет одинаковую вероятность

p= 1 /N, то N= 1 /p и формула имеет вид

I = log2N= log2(1/p) = - log2p

Количественная зависимость между вероятностью события (p) и количеством информации в сообщении о нем (I) выражается формулой:

I=log2(1/p)

Вероятность события вычисляется по формуле p=K/N, K – величина, показывающая, сколько раз произошло интересующее нас событие; N – общее число возможных исходов, событий. Если вероятность уменьшается, то количество информации увеличивается.

Пример 2. В классе 30 человек. За контрольную работу по математике получено 6 пятерок, 15 четверок, 8 троек и 1 двойка. Сколько бит информации несет сообщение о том, что Иванов получил четверку?

Количественная зависимость между вероятностью события (p) и количество информации сообщения о нем (I)
I = log2(1/p) = - log2p
вероятность события 15/30 количество информации в сообщении =log2(30/15)=log22=1.  

Ответ: 1 бит.

Использование формулы Шеннона. Общий случай вычисления количества информации в сообщении об одном из N, но уже неравновероятных событий. Этот подход был предложен К.Шенноном в 1948 году.

Основные информационные единицы:

Iср - количество бит информации, приходящееся в среднем на одну букву; M - количество символов в сообщении I – информационный объем сообщения pi -вероятность появления i символа в сообщении; i - номер символа;

 

 

Iср= -

Значение Iср достигает максимума при равновероятных событиях, то есть при равенстве всех pi pi= 1 /N.

В этом случае формула Шеннона превращается в формулу Хартли.

Пример 3. Сколько бит информации несет случайно сгенерированное сообщение «фара», если в среднем на каждую тысячу букв в русских текстах буква «а» встречается 200 раз, буква «ф» - 2 раза, буква «р» - 40 раз.

Будем считать, что вероятность появления символа в сообщении совпадает с частотой его появления в текстах. Поэтому буква «а» встречается со средней частотой 200/1000=0, 2; Вероятность появления буквы “а” в тексте (pa)можем считать приблизительно равной 0, 2;

буква «ф» встречается с частотой 2/1000=0, 002; буква «р» - с частотой 40/1000=0, 04;

Аналогично, pр = 0, 04, pф = 0, 002. Далее поступаем согласно К.Шеннону. Берем двоичный логарифм от величины 0, 2 и называем то, что получилось количеством информации, которую переносит одна-единственная буква “а” в рассматриваемом тексте. Точно такую же операцию проделаем для каждой буквы. Тогда количество собственной информации, переносимой одной буквой равно log21/pi= -log2pi, Удобнее в качестве меры количества информации пользоваться средним значением количества информации, приходящейся на один символ алфавита

Iср= -

Значение Iср достигает максимума при равновероятных событиях, то есть при равенстве всех pi

pi= 1 /N.


Поделиться с друзьями:

mylektsii.su - Мои Лекции - 2015-2024 год. (0.007 сек.)Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав Пожаловаться на материал