Статистическое определение количества информации (по Шеннону).

Этот подход к определению количества информации в сообщениях, учитывающий не равновероятное появление символов сообщения и их статистическую связь, был предложен К.Шенноном в 1946 г.

Рассмотрение этого метода удобно начать с определения количества информации в дискретных сообщениях, символы которых появляются не равновероятно, однако статистическая связь между символами отсутствует.

Пусть, как и ранее, дан источник дискретных сообщений , с объемом алфавита равным m, который генерирует сообщение, состоящее из n символов. Допустим, что в этом сообщении символ встречается раз, символ раз и так далее вплоть до символа , который встречается раз, причем очевидно, что

При приеме одного символа , как следует из (1.4), получаем количество информации :

,

где - априорная вероятность появления символа .

А количество информации , содержащееся в взаимно независимых символах , будет равно:

.

Аналогично, в символах содержится количество информации :

,

и так далее вплоть до

.

Очевидно, что полное количество информации (In), содержащееся в сообщении из n символов, равно сумме количеств информации содержащихся во всех m символах алфавита.

(бит).

Разделив и умножив это выражение на n (n ≠ 0),приведем это выражение к виду:

(бит)

Ясно, что отношение – это априорная вероятность появления i-го символа. Таким образом, при достаточно большом n, имеем: , причем , как сумма вероятностей полной группы событий.

Окончательно получим:

(бит) (1.7)

При этом среднее количество информации, приходящееся на один символ (Н), будет равно:

(1.8)

Определенная таким образом величина Н называется энтропией, а формула (17) известна как формула Шеннона для энтропии источника дискретных сообщений. Энтропия определяет среднее количество информации, приходящееся на один символ дискретного сообщения.

В общем случае, символы, входящие в сообщения, могут появляться не только с различной вероятностью, но и быть статистически зависимыми. Статистическая зависимость может быть выражена условной вероятностью появления одного символа после другого.

Чтобы учесть статистические связи между символами, входящими в сообщение, вводят понятие условной энтропии.

Условная энтропия ( ) определяется выражением

, (1.9)

где – условная вероятность появления символа после символа . Количество информации , содержащееся в такого рода сообщении длиной n символов, равно:

(бит) (1.10)








Дата добавления: 2017-05-18; просмотров: 1644;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.008 сек.