Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Единицы измерения информации.
Подход к информации как мере уменьшения неопределенности знаний позволяет количественно измерять информацию. Для количественного определения любой величины необходимо выбрать единицу измерения. За единицу количества информации принято такое количество информации, которое мы получаем при уменьшении неопределенности в два раза. Такая единица названа бит. В компьютере информация представлена в двоичном коде или на машинном языке, алфавит которого состоит из двух цифр 0 и 1, так как до сих пор не удается создать надежно работающие технические устройства, которые могли бы со стопроцентной надежностью сохранять и распознавать больше, чем два состояния. Эти цифры можно рассматривать как два равновероятных состояния. При записи одного двоичного разряда реализуется выбор одного из двух возможных состояний и следовательно, один двоичный разряд несет количество информации в 1 бит. В информатике система единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например. Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n=3, 6, 9 и т.д., что соответствует десятичным приставкам Кило (103), Мега (106), Гита (109). В информатике наиболее употребляемой единицей измерения количества информации является байт, причем 1 байт = 8 бит Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления — для этого обычно используется прием кодирования, то есть выражение данных одного типа через данные другого типа. Своя система существует и в вычислительной технике — она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами, по-английски — binary digit или, сокращенно, bit (бит). Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 210= 1024. Производные единицы измерения количества информации вводятся следующим образом: 1 Кбайт =210 байт = 1024 байт 1 Мбайт = 210 Кбайт = 1024 Кбайт 1 Гбайт = 210 Мбайт = 1024 Мбайт «Методы представления данных» Для обмена информацией с другими людьми человек использует естественные языки, то есть информация представляется с помощью естественных языков. В основе языка лежит алфавит – набор символов (знаков), которые человек различает по их начертанию. Наряду с естественными языками были разработаны формальные языки (системы счисления, язык алгебры, языки программирования и др.)
|