![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Информация. Количество информации, неравновероятностные события. Энтропия
Для не равновероятностных событий применяют следующую формулу: Вероятность события выражается в долях единицы и вычисляется по формуле: р=К/N, где К- величина, показывающая, сколько раз произошло интересующее событие, N –общее число возможных исходов какого-то процесса. Существует общая формула вычисления количества информации для событий с различными вероятностями. Эту формулу в 1948 г. Предложил американский учёный Клод Шеннон. Количество информации в этом случае вычисляется по формуле: N- количество возможных событий4 Рi-вероятность отдельных событий. Количеством информации называют числовую характеристику сигнала, отражающую степень неопределенности, которая исчезает после получения данного сигнала. Эту меру неопределенности к теории информации называют энтропия.
Энтропия – мера внутренней неупорядоченности системы. Уменьшая неопределенность мы получаем информацию. \
|