Количественная мера неопределенности.
Пусть опыт имеет n равновероятных исходов.
Очевидно, что неопределенность каждого из них зависит от n, т.е. мера неопределенности является функцией числа исходов f(n).
Можно указать некоторые свойства этой функции:
1. f(1) = 0, поскольку при n = 1 исход опыта не является случайным и, следовательно, неопределенность отсутствует;
2. f(n) возрастает с ростом n, поскольку чем больше число возможных исходов, тем более затруднительным становится предсказание результата опыта.
Для определения явного вида функции f(n) рассмотрим два независимых опыта
и
с количествами равновероятных исходов, соответственно
,
.
(Для обозначения опытов со случайными исходами будем использовать греческие буквы
,
и т.д., а для обозначения отдельных исходов опытов (событий) – латинские заглавные A, B и т.д.)
Пусть имеет место сложный опыт, который состоит в одновременном выполнении опытов
и
;
Число возможных его исходов равно
·
, причем, все они равновероятны.
Очевидно, неопределенность исхода такого сложного опыта
будет больше неопределенности опыта
, поскольку к ней добавляется неопределенность
; мера неопределенности сложного опыта равна f(
·
).
С другой стороны, меры неопределенности отдельных
и
составляют, соответственно, f(
) и f(
).
В первом случае (сложный опыт) проявляется общая (суммарная) неопределенность совместных событий, во втором – неопределенность каждого из событий в отдельности.
Однако из независимости
и
следует, что в сложном опыте они никак не могут повлиять друг на друга и, в частности,
не может оказать воздействия на неопределенность
, и наоборот.
Следовательно, мера суммарной неопределенности должна быть равна сумме мер неопределенности каждого из опытов, т.е. мера неопределенности аддитивна:
(1.1)
Доказано, что единственная функцияf(n), из всех существующих классов функций удовлетворяющая свойствам (1) и (2) и соотношению (1.1) является log(n).
Таким образом: за меру неопределенности опыта с n равновероятными исходами можно принять число logа(n).
Выбор основания логарифма в данном случае значения не имеет, поскольку в силу известной формулы

преобразования логарифма logа(n) от одного основания а к другому основанию с состоит во введении одинакового для обеих частей выражения (1.1) постоянного множителя logca, что равносильно изменению масштаба (т.е. размера единицы) измерения неопределенности.
Исходя из этого, мы имеет возможность выбрать из каких-то дополнительных соображений основание логарифма.
Таким удобным основанием оказывается 2, поскольку в этом случае за единицу измерения принимается неопределенность, содержащаяся в опыте, имеющем лишь два равновероятных исхода, которые можно обозначить, например, ИСТИНА (True) и ЛОЖЬ (False) и использовать для анализа таких событий аппарат математической логики.
Единица измерения неопределенности при двух возможных равновероятных исходах опыта называется бит
(Название бит происходит от английского binary digit, что в дословном переводе означает "двоичный разряд" или "двоичная единица".)
Таким образом, функция, описывающей меру неопределенности опыта, имеющего n равновероятных исходов, может быть представлена в виде:
f(n) = log2n (1.2).
Эта величина получила название энтропии. В дальнейшем будем обозначать ее H.
Вновь рассмотрим опыт с n равновероятными исходами.
Поскольку каждый исход случаен, он вносит свой вклад в неопределенность всего опыта, но так как все n исходов равнозначны, разумно допустить, что и их неопределенности одинаковы.
Из свойства аддитивности неопределенности (1.1), а также того, что согласно (1.2) общая неопределенность равна log2n, следует, что неопределенность, вносимая одним исходом составляет

где

– вероятность любого из отдельных исходов.
Таким образом, неопределенность, вносимая каждым из равновероятных исходов, равна:
H = - p log2p (1.3).
Обобщим формулу (1.3) на ситуацию, когда исходы опытов не равновероятны, например, p(A1) и p(A2).
Тогда:
H1 = - p(A1) log2 p(A1) и H2 = - p(A2) log2 p(A2)
H = H1 + H2 = -p(A1) log2 p(A1) - p(A2) log2 p(A2)
Обобщая это выражение на ситуацию, когда опыт
имеет n не равновероятных исходов A1, A2,..., An, получим:
(1.4)
Введенная таким образом величина, как уже было сказано, называется энтропией опыта
.
Используя формулу для среднего значения дискретных случайных величин, можно записать:
H(
) = - log2 p (
),
где
– обозначает исходы, возможные в опыте
.
Энтропия является мерой неопределенности опыта, в котором проявляются случайные события, и равна средней неопределенности всех возможных его исходов.
Для практики формула (1.4) важна тем, что позволяет сравнить неопределенности различных опытов со случайными исходами.
Пример. Имеются два ящика, в каждом из которых по 12 шаров.
- в первом – 3 белых, 3 черных и 6 красных;
- во втором – каждого цвета по 4.
Опыты состоят в вытаскивании по одному шару из каждого ящика.
Что можно сказать относительно неопределенностей исходов этих опытов?
Согласно (1.4) находим энтропии обоих опытов:

, т.е. неопределенность результата в опыте
выше и, следовательно, предсказать его можно с меньшей долей уверенности, чем результат
.
Дата добавления: 2015-07-22; просмотров: 2624;
