![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
СС. правило перевода из 10ой системы в другую.Стр 1 из 3Следующая ⇒
Виды и формы предоставления информации Виды: Средства массовой информации научно-техническая генетическая Предоставление: текстовая графическая звуковая числовая Формы адекватности информации Синтексическая - отображает формально структурные характеристики информациии не затрагивает его смыслового содержания. на этом уровне учитывается тип ностителя и способ предоставления информации, скорость передачи и обработки, размеры кодов и их точность преобразования. способствует восприятию структурных характеристик Семантическая (смысловая) - эта форма определяет степень сооответствия образа объекта и самого объекта. семантический оспект предпологает учет смыслового содержания информации. на этом уровне анализируются те сведения которые отображает информация и рассматриваются смысловые связи. эта форма служит для формирования понятий и представлений, выявления смысла содержания информации и ее обобщение. Прогмантическая (потребительская)- она отражает отношение информации и ее потребителя. соответствие информ цели пользователя, этот аспект рассмотрения связи с ценностью, полезностью использовании информации при выроботке потребителя решения для достижения своей цели. с этой точки зрения анализируются потребительские свойства информации. эта форма адекватности непосредственно связана с практическим использованием информации. 5. СС, виды СС СС-это совокупность приемов и правил для обозначения и наименования чисел алфавит - это множество знаков используемых для записи чисел.цифра - это любой знак входящий в алфавит СС. Виды: не позиционные - если количественный эквивалент символа не ависит от его положения. недостатки: 1. существует постоянная потребность введения новых знаков для записи больших чисел 2. невозможно представить дробные и отрицательные числа 3. сложно выполнять арифметические операции т.к.нет алгоритма их выполнения позиционные - кол.эквивалент символа зависит от его положения в записи. характерно: наличие основания системы. оно показывает во сколько раз изменяется количественное значение цифры на перемещении ее на соседнею позицию и кол-во символов входящих в алфавит СС. СС. правило перевода из 10ой системы в другую. СС-это совокупность приемов и правил для обозначения и наименования чисел алфавит - это множество знаков используемых для записи чисел цифра - это любой знак входящий в алфавит сс. 2 до тех пор, пока не останется остаток, меньший или равный 1. Число в двоичной системе Для перевода десятичного числа в двоичную систему его необходимо последовательно делить на записывается как последовательность последнего результата деления и остатков от деления в обратном порядке. Для перевода десятичного числа в восьмеричную систему его необходимо последовательно делить на 8 до тех пор, пока не останется остаток, меньший или равный 7. Число в восьмеричной системе записывается как последовательность цифр последнего результата деления и остатков от деления в обратном порядке. и так же в 16ую 7. СС, правило перевода дробных чисел. СС-это совокупность приемов и правил для обозначения и наименования чисел алфавит - это множество знаков используемых для записи чисел цифра - это любой знак входящий в алфавит сс. дробное из (10)- необходимо отделить от целого, умножить на основан.системы в которое переводим. целая часть будет полученного произведения будет первым после запятой, далее снова дробную часть полученного произведения нужно умножить на основание системы. 9. Классификация мер информации --- синтаксическая - это мера кол-ва информации оперирует с обезличенной информацией не выражающей смыслового отношения к объекту. Vd-объем данных - в сообщении измеряется кол-во символов (разрядов) в этом сообщении. Hd(энтропия). Кол-во информации i на синтаксическом уровне не возможно определить без рассмотрения понятия энтропии системы. Не равновероятные события - формулы.. ---Для измерения смыслов содерж.инф., т.е. ее кол-во на семантическом уровне наиболее популярна тезаурусная мера, которая связывает семантические свойства информ со способностью принимать поступившее сообщение. Тезаурус - совокупность сведений которой располагает пользователь. - --Прогмантическая - это мера определяет полезность информации, для достижения пользователя поставленной цели. эта мера - величина относительная, обусловлена особенностями использ.этой информ в той или иной системе. 10. энтропия как количественная мера информации. применение формулы Хартли при определении кол-ва информации Информацио́ нная энтропи́ я — мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. Формула Хартли определяетколичество информации, содержащееся в сообщении длины n. I = log 2 N = n log 2 m. 11. Подходы к измерению информации Содержательный - Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными --------------- алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации. ---Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон. 12. Параметры измерения информации: кол – во инф. И объем данных. 1)содержательный(новые сведения для человека) 13.кол-во инф, ед изм инф.применение формулы шеннона 14.Кодирование и декодирование 15. Криптографические методы преобразования информации. 16.кодирование информации с помощью метода фано
|