Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Операционная система (ОС) персонального компьютера как средство управления ресурсами ⇐ ПредыдущаяСтр 2 из 2
Операционная система – это комплекс программ, обеспечивающий контроль за существованием (некоторые из ресурсов ВС, как мы знаем, являются программными или логическими/виртуальными и создаются под контролем операционной системой), распределением и использованием ресурсов ВС. Типовая структура ОС · управление процессами; · управление ОП; · планирование; · управление устройствами и ФС. Управление процессами. Жизненный цикл процесса. Рассмотрим типовые этапы обработки процесса в системе, совокупность этих этапов будем назвать жизненным циклом процесса в системе. Традиционно, жизненный цикл процесса содержит этапы: · образование (порождение) процесса; · обработка (выполнение) процесса; · ожидание (по тем или иным причинам) постановки на выполнение; · завершение процесса. Планирование. Важной проблемой, на решение которой ориентированы многие компоненты современных ОС, является проблема планирования предоставления тех или иных услуг или функций операционной системой. Традиционно, в состав задач планирования ОС могут входить следующие: · планирование очереди процессов на начало обработки процессором; · планирование распределения времени ЦП между обрабатываемыми в мультипрограммном режиме процессами; · планирование порядка обработки заказов на обмен с ВУ; · планирование порядка обработки прерываний; · планирование использования ОЗУ (организация свопинга). В целом, комплексное решение задач планирования в ОС определяет основные эксплуатационные качества каждой конкретной системы. Рассмотрим типовые задачи планирования и модельные решения этих задач. Планирование очереди процессов на начало обработки ЦП Планирование распределения времени работы ЦП между процессами · величина кванта времени работы ЦП, выделяемого выполняемому процессу. · стратегия выбора процесса, который будет выполняться ЦП из множества процессов, готовых к исполнению и размещенных в БОП. 3.Измерение информации – вероятностный и алфавитный подходы С точки зрения на информацию, как на снятую неопределеность, количество информации в сообщении о каком-то событии зависит от вероятности совершения данного события. Научный подход к оценке сообщений был предложен еще в 1928 году Р. Хартли. Расчетная формула Хартли для равновероятностных событий имеет вид: I=log2N или 2I=N, где N - количество равновероятных событий (число возможных выборов), I - количество информации. Если N = 2 (выбор из двух возможностей), то I = 1 бит. Пример 1. Использование формулы Хартли для вычисления количества информации. Сколько бит информации несет сообщение о том, что поезд прибывает на один из 8 путей? Формула Хартли: I=log2N, где N – число равновероятностных исходов события, о котором речь идет в сообщении, I – количество информации в сообщении. I = log28 = 3(бит) Ответ: 3 бита. Модифицированная формула Хартли для неравновероятностных событий. Так как наступление каждого из N возможных событий имеет одинаковую вероятность p= 1 /N, то N= 1 /p и формула имеет вид I = log2N= log2(1/p) = - log2p Количественная зависимость между вероятностью события (p) и количеством информации в сообщении о нем (I) выражается формулой: I=log2(1/p) Вероятность события вычисляется по формуле p=K/N, K – величина, показывающая, сколько раз произошло интересующее нас событие; N – общее число возможных исходов, событий. Если вероятность уменьшается, то количество информации увеличивается. Пример 2. В классе 30 человек. За контрольную работу по математике получено 6 пятерок, 15 четверок, 8 троек и 1 двойка. Сколько бит информации несет сообщение о том, что Иванов получил четверку?
Ответ: 1 бит. Использование формулы Шеннона. Общий случай вычисления количества информации в сообщении об одном из N, но уже неравновероятных событий. Этот подход был предложен К.Шенноном в 1948 году. Основные информационные единицы:
Iср= - Значение Iср достигает максимума при равновероятных событиях, то есть при равенстве всех pi pi= 1 /N. В этом случае формула Шеннона превращается в формулу Хартли. Пример 3. Сколько бит информации несет случайно сгенерированное сообщение «фара», если в среднем на каждую тысячу букв в русских текстах буква «а» встречается 200 раз, буква «ф» - 2 раза, буква «р» - 40 раз. Будем считать, что вероятность появления символа в сообщении совпадает с частотой его появления в текстах. Поэтому буква «а» встречается со средней частотой 200/1000=0, 2; Вероятность появления буквы “а” в тексте (pa)можем считать приблизительно равной 0, 2; буква «ф» встречается с частотой 2/1000=0, 002; буква «р» - с частотой 40/1000=0, 04; Аналогично, pр = 0, 04, pф = 0, 002. Далее поступаем согласно К.Шеннону. Берем двоичный логарифм от величины 0, 2 и называем то, что получилось количеством информации, которую переносит одна-единственная буква “а” в рассматриваемом тексте. Точно такую же операцию проделаем для каждой буквы. Тогда количество собственной информации, переносимой одной буквой равно log21/pi= -log2pi, Удобнее в качестве меры количества информации пользоваться средним значением количества информации, приходящейся на один символ алфавита Iср= - Значение Iср достигает максимума при равновероятных событиях, то есть при равенстве всех pi pi= 1 /N.
|