![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Информация. Дополнительные свойства информации
Дополнительные свойства информации: 1) Атрибутивное – это неотрывность информации от физического носителя и языковая природа информации. Хотя информация неотрывна от физического носителя и имеет языковую природу она не связана жестко ни с конкретным носителем, ни с конкретным языком. а) Дискретность – содержащаяся в информации сведения и знания дискретны, то есть характеризуют отдельные данные, характерности и свойства конкретных объектов. б) Непрерывность. Информация имеет свойства сливаться с уже зафиксированной и накопленной ранее, способствуя поступательному развитию и накоплению. 2) Прогматические а) Включают в себя смысл и новизну, что характеризует перемещение информации в социальных комуникациях, выделяет ту или иную ее часть, которая нова для потребителя. б) Полезность – информация, уменьшающая неопределенность сведений об объекте. в) Ценность – Различна для различных потребителей и пользователей. г) Кумулятивность. Характеризует накопление и хранение информации. 3) Динамическое. Характеризует динамику развития информации во времени. Информация. Формы сигналов Формы сигналов: а) Неприрывные(аналоговые). Аналоговым сигналом называется, если его параметр в заданных пределах может принимать любые промежуточные значения. б) Прерывистые(дискретные). Дискретным называется сигнал, если его параметр в заданных пределах принимает отдельное фиксированное значение. Замена точного значения его приближенной дискретной величиной при условии, что два ближайших дискретных значения могут различаться не на сколь угодно малую величину, а лишь на конкретную минимальную величину квант, называется квантование, обратный процесс, называется сглаживание. Информация. Количество информации, равновероятностные события. Энтропия Формула Хартли, выведенная из вероятностно-статистического подхода К.-Э. Шеннона N=2i, i=log2N, где i – количество информации (в битах), N – количество информационных сообщений (событий). В одном случае рассматриваются равновероятностные события, в другом – мощность алфавита.
Количеством информации называют числовую характеристику сигнала, отражающую степень неопределенности, которая исчезает после получения данного сигнала. Эту меру неопределенности к теории информации называют энтропия.
Энтропия – мера внутренней неупорядоченности системы. Уменьшая неопределенность мы получаем информацию.
|