Определение информации как меры изменения неопределенности.

Следует отметить, однако, что рассмотренные способы измерения информации еще не дают возможности судить о действительном количестве информации в сообщении. Одну и ту же реальную информацию можно оформить в виде краткого содержательного отчета или же в многотомном красиво оформленном виде. Таким образом, число страниц в документе, число байтов, битов, показателей не отражает объем реальной информации, содержащейся в сообщении. Широкое распространение получила мера количества информации, связанная с мерой неопределенности некоторой ситуации. В рамках этого подхода количество информации определяется как числовая характеристика сообщения, отражающая ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения.

Рассмотрим пример бросания монеты. До получения информации о результате имеется два равновозможных варианта (орел, решка). После получения информации об исходе броска неопределённость исчезает. Количество информации, получаемое в подобном случае, называется битом.

Количественно выраженная неопределенность в теории информации получила название энтропии. При энтропии, равной нулю, имеется полная информация о системе. Количество информации может быть определено как разность значений энтропии до и после получения информации.

В простом варианте, пусть имеется N возможных вариантов, Аi , состояния рассматриваемой системы. Обозначим через P(А i ) вероятность того (в рамках имеющейся у нас информации о системе до получения сообщения ), что система находится в состоянии Аi . Энтропия H (мера степени неосведомленности о состоянии системы) полагается равной:

H = - P(А1 )*log2(Р(А1)) - P(А2 )*log2(Р(А2)) … - P(АN )*log2(Р(АN)).

Можно показать, что выбор основания, 2, логарифма определяет единицу измерения - бит. Значения логарифмов в данных выражениях £ 0, так как вероятность любого события не превосходит единицу. Следовательно, значение Н всегда неотрицательно. Обозначим через Н0 значение до получения информации и через Н1.- после.

Количество полученной информации дается выражением:

I = Н0 - Н1

Примеры.

(1) Пусть система имеет два равновозможных состояния (например, монета), причем у нас нет никаких сведений о состоянии системы. Тогда n=2 и P(Аi )=1/2.

Н0 = -1/2*log2(1/2) - 1/2*log2(1/2)= - log2(1/2) = log2(2)=1

Теперь пусть была получена информация о том, что при броске монеты выпал “орел”. Тогда P(А1) = 1 и P(А2)=0. Следует отметить, что при стремлении вероятности Р к нулю произведение log(P)*P стремится к нулю. Поэтому полагаем: 0*log2(0) =0.

Следовательно: Н1= -1*log2(1) - 0*log2(0) = 0 – 0 =0

Тогда для количества полученной информации:

I = Н0 - Н1 = 1- 0 = 1 бит

(2) Рассмотрим состояние игрального кубика (N = 6). Обозначим через Аi событие, заключающееся в выпадении при броске кубика числа i. Пусть произведено испытание (бросок кубика), причем у нас нет никаких сведений о его результате, т.е. о состоянии системы (кубика) после испытания ( P(Аi )=1/6. Тогда:

Н0 = -1/6*log2(1/6) - 1/6*log2(1/6)-1/6*log2(1/6)-1/6*log2(1/6) - 1/6*log2(1/6) - 1/6*log2 (1/6)= = - log2(1/6) = log2(6)

Следует подчеркнуть, что при наличии ненулевой информации о состоянии системы следует использовать условные вероятности вариантов Аi . Например, пусть нами получено сообщение о том, что число очков на кубике четное. В этом случае вероятности нечетных значений равны нулю, а четных - равны 1/3, .

Н1 = 0 - 1/3*log2(1/3) - 0 - 1/3*log2(1/3) - 0 - 1/3*log2(1/3) = - log2(1/3) = log2(3)

Количество полученной нами информации полагается равным разности соответствующих значений величины Н до и после сообщения

Получаем: I = log2(6)-log2(3) = log2(6/3) = log2(2) = 1 бит – количество переданной информации.








Дата добавления: 2016-12-26; просмотров: 748;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.004 сек.