Кодирование звуковой информации
Это наиболее поздние методы и поэтому наиболее далеки от стандартизации.
Метод FM (более ранний) – основан на том, что звук раскладывается на последовательность простейших гармонических сигналов разных частот – синусоиды. Синусоида имеет параметры A, f, φ, которые можно описать числами (кодом).
Метод таблично-волнового синтеза. Сущность этого метода состоит в том, что используются для представления звука реальные образцы, которые составляют заранее разработанные таблицы. Эти образы называются сэмплами. Для звука можно устанавливать такие характеристики, как тип инструмента, высоту, продолжительность и интенсивность
Меры информации
Мера информации может быть: синтаксическая, семантическая, прагматическая.
Синтаксическая мера оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
Количество информации на синтаксическом уровне невозможно определить без рассмотрения понятия неопределенного состояния системы (энтропии).
Семантическая мера определяет смысловое содержание информации. Семантическая мера связывает семантические свойства информации со способностью пользователя принимать поступившие сообщения. Для этого используется понятие тезауруса пользователя.
В зависимости от соотношения между смысловым содержанием информации S и тезаурусом пользователя Sp, изменяется и количество семантической информации Ic, воспринимаемой и включаемой в свой тезаурус. Максимально это количество, если информация понятна и несет ранее неизвестные пользователю (отсутствующие в его тезаурусе) сведения. Величина эта относительна.
Прагматическаямера определяет полезность информации и также является относительной.
ЭВМ оперирует с абстрактной информацией, поэтому в этом случае представляет интерес в основном синтаксическая мера.
Объем данных
Объем данных Vg – измеряется количеством символов, разрядов в сообщении. В различных системах счисления один разряд имеет различный вес и, соответственно, меняется единица измерения данных:
· в десятичной системе счисления – дит;
· в двоичной системе счисления – бит (bit – binary digit).
В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bit — binary digit — двоичная цифра). Бит — наименьшая единица измерения информации. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Широко используются также более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
Количество информации
Количество информации на синтаксическом уровне – мера снятой неопределенности.
Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. Формула Хартли: I = log2N
Американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Формула Шеннона:I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN),
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.
Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.
Практически, количество информации всегда меньше или равно объему данных.
Вопросы для самоподготовки
1. Что означает термин "информатика" и каково его происхождение?
2. Какие сферы человеческой деятельности и в какой степени затрагивает информатика?
3. Назовите основные составные части информатики и основные направления её применения.
4. От кого (или чего) человек принимает информацию? Кому передает информацию?
5. Где и как человек хранит информацию?
6. Что необходимо добавить в систему "источник информации — приёмник информации", чтобы осуществлять передачу сообщений?
7. Какие типы действий выполняет человек с информацией?
8. Приведите примеры ситуаций, в которых информация
а) создаётся; | д) копируется; | и) передаётся; |
б) обрабатывается; | е) воспринимается; | к) разрушается; |
в) запоминается; | ж) измеряется; | л) ищется; |
г) делится на части; | з) принимается; | м) упрощается. |
9. Приведите примеры обработки информации человеком. Что является результатами этой обработки?
10. Приведите примеры информации:
а) достоверной и недостоверной;
б) полной и неполной;
в) ценной и малоценной;
г) своевременной и несвоевременной;
д) понятной и непонятной;
е) доступной и недоступной для усвоения;
ж) краткой и пространной.
11. От чего зависит информативность сообщения, принимаемого человеком?
12. Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём?
13. Как определяется единица измерения количества информации?
14. В каких случаях и по какой формуле можно вычислить количество информации, содержащейся в сообщении?
15. Почему в формуле Хартли за основание логарифма взято число 2?
16. При каком условии формула Шеннона переходит в формулу Хартли?
17. Что определяет термин "бит" в теории информации и в вычислительной технике?
18. Приведите примеры сообщений, содержащих один (два, три) бит информации.
РАЗДЕЛ 2. ОБЩАЯ ХАРАКТЕРИСТИКА ПРОЦЕССОВ СБОРА, НАКОПЛЕНИЯ, ОБРАБОТКИ И ПЕРЕДАЧИ ИНФОРМАЦИИ
Дата добавления: 2015-08-08; просмотров: 1719;