Задача 6.2.5

Маємо три дискретних немарковських джерела з алфавітами Ймовірності сумісної появи символів мають такі значення:

p ( x1, y1, z1 ) = 0,048;

p ( x1, y1, z2 ) = 0,012;

p ( x1, y2, z1 ) = 0,072;

p ( x1, y2, z2 ) = 0,162;

p ( x2, y1, z1 ) = 0,272;

p ( x2, y1, z2 ) = 0,068;

p ( x2, y2, z1 ) = 0,300;

p ( x2, y2, z2 ) = 0,060.

Знайти ентропії кожного з джерел, системи трьох джерел, а також повну взаємну інформацію для кожної пари джерел.

Розв’язання. Щоб знайти ентропію кожного з джерел, розрахуємо ймовірності появи символів на виході джерел згідно з виразами:

Маємо такі значення:

p ( x1) = 0,3; p ( x2) = 0,7; p ( y1) = 0,4;

p ( y2) = 0,6; p ( z1) = 0,692; p ( z2) = 0,308.

Знаходимо ентропії джерел:

H(X) = 1,8813 біт ; H(Y) = 0,971 біт ; H(Z) = 0,8909 біт .

Щоб обчислити повну взаємну інформацію, знайдемо ентропії для чого розрахуємо ймовірності сумісної появи пар символів, користуючись виразами типу:

Маємо

 

За виразом (1.11) обчислюємо ентропії кожної із систем двох джерел:

H(X,Y ) = 1,7975 біт ; H(X,Z) = 1,653 біт ; H(Y,Z) = 1,8345 біт .

Тепер знаходимо значення повної взаємної інформації для всіх пар джерел:

Аналогічно

Для обчислення ентропії системи трьох джерел скористуємось виразом (6.20), коли

Із виразу (1.16) отримаємо

Щоб знайти H(Z/Y,X), необхідно розрахувати умовні ймовірності типу . Для цього скористаємось виразами:

Отримаємо

Далі знаходимо частинні умовні ентропії

,

аналогічно

Тепер обчислимо повну умовну ентропію:

Нарешті








Дата добавления: 2014-12-22; просмотров: 897;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.005 сек.