Лекция 2. Свойства информации. Количество информации. Понятие алгоритма.
Краткие итоги
В лекции были рассмотрены понятии информатика и информатизация. Описано как передается и в каком виде существует информация.
Контрольные вопросы
1. Что изучает Информатика?
2. Что понимается под информацией?
3. Что называется информационными процессами?
4. Дайте определение, что такое технические средства.
5. Дайте определение, что такое программное обеспечение и что оно в себя включает.
6. Что означает термин Brainware?
7. Дайте определение Информационным объектам.
8. Дайте примеры передачи сообщений.
9. Опишите процесс передачи сообщений.
Лекция 2. Свойства информации. Количество информации. Понятие алгоритма.
В лекции рассматривается общий смысл понятий алгоритма, количество информации, какими свойствами обладает информация. Понятия информатизация общества
Цель лекции: Понять, как измеряется количество информации. В лекции рассматривается понятия бита и байта информации.
Какими свойствами обладает информация?
Свойства информации:
· достоверность; · полнота; · ценность; · своевременность; | · понятность; · доступность; · краткость; · и др. |
Информация достоверна,если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.
Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.
Информация полна,если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.
Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.
Ценность информациизависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.
Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка.
Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.
Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.
Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному, излагаются в школьных учебниках и научных изданиях.
Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях
Как измеряется количество информации?
Возможно, ли объективно измерить количество информации? На этот вопрос ученые до сих пор не могут дать точный ответ. Как, например можно измерить информацию, которая содержится в литературных произведениях Пушкина, Лермонтова, Достоевского. Важнейшим результатом теории информации является следующий вывод: В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.
В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Эти подходы используют математические понятия вероятности и логарифма.
Подходы к определению количества информации. Формулы Хартли и Шеннона.
Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. Приведем другие примеры равновероятных сообщений: 1. при бросании монеты: «выпала решка», «выпал орел»; 2. на странице книги: «количество букв чётное», «количество букв нечётное». Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли. Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями. |
В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bit — binary digit — двоичная цифра).
Бит в теории информации —количество информации, необходимое для различения двух равновероятных сообщений (типа «орел»—«решка», «чет»—«нечет» и т.п.).
В вычислительной технике битомназывают наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Широко используются также ещё более крупные производные единицы информации:
· 1 Килобайт (Кбайт) = 1024 байт = 210 байт,
· 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
· 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
· 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
· 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.
При этом важно отличать двоичные кратные приставки от соответствующих десятичных:
«один К» – 1 К=210=1024 от «один кило» – 103=1000,
«один М» – 1 М=220=1048576 от «один мега» – 106=1000000 и т.д.
Этим часто злоупотребляют производители компьютерной техники, в частности, производители жестких магнитных дисков, которые при указании их информативной емкости используют меньшую единицу измерения с тем, чтобы результирующее значение выражалось большим числом (как в известном мультфильме – "А в попугаях-то я длиннее!").
Дата добавления: 2015-04-21; просмотров: 2220;