Количественная мера неопределенности.

Пусть опыт имеет n равновероятных исходов.

Очевидно, что неопределенность каждого из них зависит от n, т.е. мера неопределенности является функцией числа исходов f(n).

Можно указать некоторые свойства этой функции:

1. f(1) = 0, поскольку при n = 1 исход опыта не является случайным и, следовательно, неопределенность отсутствует;

2. f(n) возрастает с ростом n, поскольку чем больше число возможных исходов, тем более затруднительным становится предсказание результата опыта.

Для определения явного вида функции f(n) рассмотрим два независимых опыта и с количествами равновероятных исходов, соответственно , .

(Для обозначения опытов со случайными исходами будем использовать греческие буквы , и т.д., а для обозначения отдельных исходов опытов (событий) – латинские заглавные A, B и т.д.)

Пусть имеет место сложный опыт, который состоит в одновременном выполнении опытов и ;

Число возможных его исходов равно · , причем, все они равновероятны.

Очевидно, неопределенность исхода такого сложного опыта будет больше неопределенности опыта , поскольку к ней добавляется неопределенность ; мера неопределенности сложного опыта равна f( · ).

С другой стороны, меры неопределенности отдельных и составляют, соответственно, f( ) и f( ).

В первом случае (сложный опыт) проявляется общая (суммарная) неопределенность совместных событий, во втором – неопределенность каждого из событий в отдельности.

Однако из независимости и следует, что в сложном опыте они никак не могут повлиять друг на друга и, в частности, не может оказать воздействия на неопределенность , и наоборот.

Следовательно, мера суммарной неопределенности должна быть равна сумме мер неопределенности каждого из опытов, т.е. мера неопределенности аддитивна:

(1.1)

Доказано, что единственная функцияf(n), из всех существующих классов функций удовлетворяющая свойствам (1) и (2) и соотношению (1.1) является log(n).

Таким образом: за меру неопределенности опыта с n равновероятными исходами можно принять число logа(n).

Выбор основания логарифма в данном случае значения не имеет, поскольку в силу известной формулы

преобразования логарифма logа(n) от одного основания а к другому основанию с состоит во введении одинакового для обеих частей выражения (1.1) постоянного множителя logca, что равносильно изменению масштаба (т.е. размера единицы) измерения неопределенности.

Исходя из этого, мы имеет возможность выбрать из каких-то дополнительных соображений основание логарифма.

Таким удобным основанием оказывается 2, поскольку в этом случае за единицу измерения принимается неопределенность, содержащаяся в опыте, имеющем лишь два равновероятных исхода, которые можно обозначить, например, ИСТИНА (True) и ЛОЖЬ (False) и использовать для анализа таких событий аппарат математической логики.

Единица измерения неопределенности при двух возможных равновероятных исходах опыта называется бит

(Название бит происходит от английского binary digit, что в дословном переводе означает "двоичный разряд" или "двоичная единица".)

Таким образом, функция, описывающей меру неопределенности опыта, имеющего n равновероятных исходов, может быть представлена в виде:

f(n) = log2n (1.2).

Эта величина получила название энтропии. В дальнейшем будем обозначать ее H.

Вновь рассмотрим опыт с n равновероятными исходами.

Поскольку каждый исход случаен, он вносит свой вклад в неопределенность всего опыта, но так как все n исходов равнозначны, разумно допустить, что и их неопределенности одинаковы.

Из свойства аддитивности неопределенности (1.1), а также того, что согласно (1.2) общая неопределенность равна log2n, следует, что неопределенность, вносимая одним исходом составляет

где

– вероятность любого из отдельных исходов.

Таким образом, неопределенность, вносимая каждым из равновероятных исходов, равна:

H = - p log2p (1.3).

 

Обобщим формулу (1.3) на ситуацию, когда исходы опытов не равновероятны, например, p(A1) и p(A2).

Тогда:

H1 = - p(A1) log2 p(A1) и H2 = - p(A2) log2 p(A2)

H = H1 + H2 = -p(A1) log2 p(A1) - p(A2) log2 p(A2)

Обобщая это выражение на ситуацию, когда опыт имеет n не равновероятных исходов A1, A2,..., An, получим:

(1.4)

Введенная таким образом величина, как уже было сказано, называется энтропией опыта .

Используя формулу для среднего значения дискретных случайных величин, можно записать:

H( ) = - log2 p ( ),

где – обозначает исходы, возможные в опыте .

Энтропия является мерой неопределенности опыта, в котором проявляются случайные события, и равна средней неопределенности всех возможных его исходов.

Для практики формула (1.4) важна тем, что позволяет сравнить неопределенности различных опытов со случайными исходами.

Пример. Имеются два ящика, в каждом из которых по 12 шаров.

  • в первом – 3 белых, 3 черных и 6 красных;
  • во втором – каждого цвета по 4.

Опыты состоят в вытаскивании по одному шару из каждого ящика.

Что можно сказать относительно неопределенностей исходов этих опытов?

Согласно (1.4) находим энтропии обоих опытов:

, т.е. неопределенность результата в опыте выше и, следовательно, предсказать его можно с меньшей долей уверенности, чем результат .

 








Дата добавления: 2015-07-22; просмотров: 2473;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.009 сек.