Количество информации.
С позиции каждого отдельного человека количество информации, содержащееся в каком-либо сообщении, — субъективная величина.
Объективная количественная мера информации может быть введена на основе вероятностной трактовки информационного обмена.
Этот способ измерения количества информации впервые предложил в 1948 г. К. Шеннон.По К. Шеннону, информация— это сведения, уменьшающие неопределенность (энтропию), существовавшую до их получения.
Количественное описание информации базируется на вероятностном подходе. За единицу информации принимается один бит. Это такое количество информации, получаем в результате реализации одного из двух равновероятных событий, например, при бросании монеты. Термин "бит" произошел от выражения binary digit, что означает "двоичная цифра", то есть принимающая значение 0 или 1.
Один бит информации получает человек, когда он узнает опаздывает с прибытием нужный ему поезд или нет, был ночью мороз или нет, присутствует на лекции студент Иванов или нет и т. д.
Таким образом, применительно к ЭВМ на одном проводе можно реализовать два взаимоисключающих события: есть напряжение и нет напряжения. Следовательно, одним проводом можно передать 1 бит информации.
Более крупная единица информации — байт— равна 8 бит. Проверка присутствия или отсутствия на лекции 24 студентов дает лектору три байта информации. Еще более крупная единица информации — 1 Кбайт — равна 1024 байтам. Далее— 1 Мбайт равен 1024 Кбайтам, 1 Гбайт равен 1024 Мбайтам, а 1 Тбайт равен 1024 Гбайтам.
Для измерения больших объемов информации применяют кратные единицы информации:
1 байт = 8 бит;
1 килобайт (Кб) = 1024 байт;
1 Мегабайт (Мб) = 1024 Кб = 1048576 байт;
1 Гигабайт (Гб) = 1024 Мб = 1048576 Кб.
§2. История развития ЭВМ. Поколения ЭВМ. (Лекция 2)
Дата добавления: 2015-10-09; просмотров: 506;