Пятый постулат теории информации

 

Вернёмся к рис. 4. Пусть матрица соответствия Π = || π j k; j, k = 1, 2, …, N || диагонализируема ( | det Π | = 1), так что в отсутствие в канале КПДС помех статическая система передачи информации абсолютно надёжна [ = 1] и потери информации в системе ССПИ не происходит, а между символами {wj} и знаками {uj} имеется одно-однозначное соответствие.

Из-за наличия в реальных каналах КПДС (в основном – в линиях электросвязи) различного рода естественных и искусственных помех это одно-однозначное соответствие непредсказуемым (случайным) образом нарушается. В простейшем варианте системы ССПИ (см. рис. 5) стохастичность каналаКПДС можно характеризовать квадратной переходной матрицей порядка NП= || Pj k; j, k = 1, 2, …, N ||, элементы которой Pj k = P (wk|uj) есть условные вероятности того, что входному (первичному) знаку uj U будет соответствовать (при сканировании произвольного текста) выходной символ wk W. При любом значении j = 1, 2, …, N соблюдается равенство , то есть элементарное сообщение uj в любом случае как-то идентифицируется (решение на выходе декодера: «Не знаю, что за знак был передан по каналу КПДС!» – не принимается). По формуле полной вероятности .

Понятно, что если переходная матрицаПимеет диагональный вид, то есть П= || δj k; j, k = 1, 2, …, N ||, где δj k = 1 при j = k и δj k = 0 при jkj k – символ Кронекера), то символу wk всегда будет присваиваться значение знака uk – и потерь информации в канале КПДС происходить не будет. Такие системы ССПИ рассматривались в разд. 6.

В общем случае матрицаП– произвольная, с двумя ограничениями:

а) 0 ≤ Pj k ≤ 1;

б ) = 1 при любом j = 1, 2, …, N.

 

 

помехи

 

 

 


Π = { Pj k }

U = {uj} P11 P12P1 kP1 N W = {wk}

P = {Pj} P21 P22P2 k P2 N Pвых = {P'k}

I = {Ij} . . . . . . . . . . . . . . . . . . . Iвых ={I'k j; j, k = 1, 2, …, N }

= – Pj 1 Pj 2Pj k Pj N

. . . . . . . . . . . . . . . . . . . .

PN 1 PN 2PN k PN N

Рис. 5. Статическая система передачи

дискретной информации при наличии помех

 

Отметим также, что величина (сумма элементов k-го столбца матрицы П) может лежать в пределах от 0 до N при любом k = 1, …, N, то есть в крайних случаях либо k-му символу wk не будет присвоено ни одного из значений переданных знаков uj U, либо всем им будет соответствовать выходной символ wk.

Каким же образом символу wk W на выходе КПДС следует присваивать значение некоторого знака uj U? Оптимальным решением, с точки зрения математическойстатистики, будет следующее: символу wk нужно присваивать значение uj, апостериорная вероятность которого

P(uj|wk) = P(uj) P(wk|uj)/P(wk) = Pj Pjk /P'k

максимальна по всем значениям j = 1, 2, …, N (байесовское решение). В этом случае информационные потери в канале КПДС должны быть минимальными.

Переставим столбцы матрицы П в соответствии с этим правилом принятия решения таким образом, чтобы k-й выходной символ wk соответствовал k-му знаку uk на входеканала КПДС. Тогда знаку uj чаще всего (но не всегда!) будет соответствовать символ wj.

При произвольной матрице П сообщение Si(n) = ( ui1, ui2, …, uik, …, uin ) будет доходить до получателя ПИ в искажённом виде S'i(n) = ( wi1, wi2, …, wik, …, win ), поскольку в общем случае любому символу wik может быть случайным образом присвоено значение любого знака uj. Поэтому возникает вопрос: насколько эти искажения существенны? Поскольку нас интересуют «длинные сообщения» (Si(n), n >> 1), у которых I(Si(n)) ≈ n n H(U), то в простейшем случае, когда помехи в канале КПДС не зависят от знаков uj U, нам нужно определить среднюю (на один входной знак uj) потерю синтактической информации при ошибочной идентификации знаков {uj} источника ДИС на выходе канала КПДС.

Казалось бы, количество информации Ij j, которое содержится в выходном символе wj, относительно информации, содержащейся во входном знаке uj – после упорядочения («квазидиагонализации») матрицы П = || Pj k || в соответствии с байесовским правилом идентификации символов wk – можно вычислить по формуле Ij j = Pj j Ij = – Pj j log Pj. Тогда «естественным образом» получается:

при Pj j = 1 величина Ij j = Ij = – log Pj, а при Pj j = 0: Ij j = 0.

Однако это не так, ибо отсутствие в выходном символе wk информации о входном знаке uj соответствует не случаю, когда Pj k = P(wk|uj) = 0, а случаю, когда вероятность Pj k появления на выходе КПДС символа wk не связано статистически с появлением знака uj на его входе, то есть когда

Pj k = P(wk|uj) = P(wk) = P'k, или .

Поскольку P(uj, wk) = P(uj) P(wk|uj) = P(wk) P(uj|wk), то

,

и при P(wk|uj) = P(wk), или, что то же самое, при Pjk = P'k справедливо равенство: P(uj|wk) = P(uj).

Если у симметричного бинарного канала КПДС P(wk|uj) = 0,5 = P(wk), то,

как остроумно заметил К. Шеннон ([46], с. 227), линия электросвязи в КПДС вовсе не нужна: получатель информации ПИ может с таким же успехом подбрасывать монету. И хотя половина знаков uj будет идентифицирована на выходе канала КПДС правильно, какие из символов wik в последовательности S'i(n) = (wi1, wi2, …, wik, …, win ) будут соответствовать знакам uj, а какие – нет, получатель информации определить не сможет. В этом случае

P(wk|uj) = P(wk), или Pj k /P'k = 1, или log(Pj k /P'k ) = – log(P'k /Pj k) = 0.

Значит,

величиной Ik j = log(Pj k /P'k) можно характеризовать количество информации, содержащейся в выходном символе wk W относительно входного знака uj U.

Если при всех значениях j и k от 1 до N величина Pj k принимает значение либо Pj k = 1, либо Pj k = 0 (то есть Pj k = π j k), то мы приходим к вариантам, рассмотренным нами в разд. 6: Ik j = log(π j k /P'k).

Особенно ясно это видно при анализе потерь информации в бинарных системах передачи сообщений.

Пусть имеется бинарный канал КПДС. Его функционирование можно описать схемой, представленной на рис. 6. Введём следующие обозначения:

P1 = P, P2 = 1 – P, P11 = p, P12 = 1 – p, P22 = q, P21 = 1 – q,

Ik j = log(Pj k /P'k); j, k = 1, 2;

P'1 = P p + (1 – P) (1 – q), P'2 = P (1 – p) + (1 – P) q.

Удельная информативность знаков (энтропия) бинарного источника ДИС

.

Рассмотрим случай а) на рис. 6: p = 1, q = 1, p + q = 2. В этом случае потерь информации нет, и среднее количество информации, содержащейся на выходе канала КПДС относительно источника ДИС, определяется из следующих

 

P11 = p

(P1 = P ) u1 →¤ ¤→ w1 (P'1)

P12 = 1 – p P21 = 1 – q

 

(P2 = 1 – P ) u2 →¤ ¤→ w2 (P'2 = 1 – P' )

P22 = q

 

p = 1 p = 0 p = 0

u1 →¤ ¤→ w1 u1 →¤ ¤→ w1 u1 →¤ ¤→ w1

 

u2 →¤ ¤→ w2 u2 →¤ ¤→ w2 u2 →¤ ¤→ w2

q = 1 q = 0 q = 1

а) б ) в)

 

p = 0,5

u1 →¤ ¤→ w1

0,5

0,5

u2 →¤ ¤→ w2

q = 0,5

г)

Рис. 6. Бинарный канал передачи дискретных сообщений

вычислений – в соответствии с формулой (6.2):

P'1 = P; P'2= 1 – P;

P1 P11 I11 = – P log P; P1 P12 I21 = – P·0·log 0 = 0;

P2 P21 I12 = – (1 – P)·0·log 0; P2 P22 I22 = – (1 – P) log (1 – P);

.

Вводя обозначение (U, П) = и определяя коэффициент надёжности бинарной системы передачи дискретных сообщений как χ(U, П) = (U, П) / (U) ≡ χ(P, p, q) в случае а) получим:

(U, П) = (U), χ(P, 1, 1) = 1.

Удельная информативность (U, П) множества символов W на выходе канала КПДС при данном источнике ДИС U на его входе равна:

(U, П) = = ,

или (U, П) = . (7.1)

Величину R (U, П) К. Шеннон назвал «скоростью передачи информации» по каналу КПДС ([46], с. 277).

Мы будем под величиной (U, П) подразумевать среднее количество синтактической информации, передаваемой по каналу КПДС, на вход которого поступают всевозможные элементарные сообщения (знаки) uj U источника ДИС, а на выходе появляются символы (вторичные знаки) wk из совокупности W, приходящейся на один знак из совокупности U(бит/знак), поскольку рассматриваются статические системы ССПИ

В варианте а) на рис. 6:

(U, П) = – P log P – (1 – P ) log (1 – P ) = (U) [бит/знак].

В общем случае (N ≥ 2) при Pj k = δj k получаем:

Ik j = – δ j k log Pj = – δ j k log (P'k /Pj k) и (U, П) = (U).

В случае б ) на рис. 6: p = q = 0, p + q = 0. Тогда P11 = P22 = 0, то есть переданному знаку u1 никогда не будет соответствовать выходной символ w1, а знаку u2 – символ w2. Однако это не значит, что информация в такой системе ССПИ будет полностью потеряна. Напротив, если декодер символу w1 будет присваивать значение знака u2, а символу w2 – знака u1 (согласно правилу максимума апостериорной вероятности), то потери информации в канале КПДС вообще не будет происходить и

(U, П) = = – (1 – P ) log (1 – P ) – P log P = (U).

В случае в) на рис. 6: p = 0, q = 1, p + q = 1. Очевидно, что здесь происходит полная потеря информации при любом алгоритме работы декодера, хотя

величина q ≠ 0.

Действительно. Вычислим значение функции (U, П).

Заметим, что P'1 = 0, а P'2 = 1. Значит:

j = 1, k = 1 ► Pj Pjk = P1 P11 = P · 0 = 0; j = 1, k = 2 ► P1 P11 = P1· 1 = P;

j = 2, k = 1 ► P2 P21 = (1 – P )·0 = 0; j = 2, k = 2 ► P2 P22 = 1 – P;

(U, П) = 0 – P log 1 + 0 – (1 – P ) log 1 = 0.

Если отнести величину (U, П) к удельной информативности (U) источника ДИС, то в случаях а) ( p + q = 2) и б ) ( p + q = 0) получим: χ(P, p, q) = = (U, П)/ (U) = 1, а в случае в): p = 0, q = 1, p + q= 1, χ( P, 0, 1) = 0.

Величина κ (P, p, q) = 1 – χ (P, p, q) показывает процент потерь информации источника ДИС в канале КПДС; поэтому величину χ (P, p, q) = 1 – κ (P, p, q) следует называтькоэффициентом информационной надёжности статической системы передачи дискретных сообщений (ССПИ ).

В случае г) на рис. 6 ( p = q = 1/2) получаем следующее:

P'1 = (P + 1 – P) = = P'2;

P1 P11 I11 = – P log = 0; P1 P12 I21 = 0;

P2 P21 I12 = P2 P22 I22 = 0; (U, П) = 0; χ(P, , ) = 0,

то есть в этом случае в канале КПДС также происходит полная потеря информации относительно любой достаточно длинной входной последовательности Si(n) = ( ui1, ui2, …, uik, …, uin ), n >> 1.

Рассмотрим общий случай (0 < p < 1, 0 < q < 1) и определим, когда происходит полная потеря информации в системе ССПИ. Теперь уже совершенно ясно, что это произойдёт в случае, если вероятность поступления к получателю ПИ символа wk не зависит от того, какой из знаков uj множества U = {uj} был выдан источником ДИС в канал КПДС, то есть при P (wk|uj) = P (wk).

При k = 1, j = 1: P(w1) = P'1 = P(w1|u1) = p.

При k = 1, j = 2: P(w1) = P'1 = P(w1|u2) = 1 – q.

Приравнивая правые части этих равенств, получаем:

p = 1 – q, или p + q = 1, а χ(P, p, q) = 0.

То же самое получается при k = 2. Частные случаи ( p = 0, q = 1: случай в) и p = q = 0,5: случай г) на рис. 6) как раз соответствуют варианту p + q = 1.

Итак,если p + q = 2, то (U, П) = (U), χ(P, p, q) = 1;

если p + q = 0, то (U, П) = (U), χ(P, p, q) = 1;

если p + q = 1, то (U, П) = 0, и надёжность канала КПДС становится нулевой: χ(P, p, q) = 0.

Значит, мы получили два сечения поверхности χ(P, p, q) по уровням χ = 1 и χ = 0 (см. рис. 7): точки (0, 0, 1) и (1, 1, 1), в которых χ(P, p, q) = 1, и прямую p + q = 1 на плоскости ( p, q), на которой χ(P, p, q) = 0.

Рис. 7. Зависимость коэффициента информационной надёжности χ

канала КПДС от величин p и q

 

Если p + q ≠ 2, p + q ≠ 0, а также p + q ≠ 1, то 0 < χ(P, p, q) < 1, и эти две точки и прямую можно соединить, при заданном значении P и различных зна-

чениях p и q, непрерывной поверхностью χ(P, p, q) по формуле:

χ(P, p, q) = / (U), (7.2)

где P'k = , а (U) = – P log P – (1 – P) log (1 – P).

Зависимость коэффициента надёжности χ(P, p, q) бинарной статической системы передачи семиотической («дискретной») информации ССПИ от переменных p и q при P = 0,5 представлена на рис. 7.

Отметим, что в симметричных бинарных системах ССПИ( p = q) непреднамеренные помехи (естественного и искусственного происхождения) могут снизить величину ( p + q) от значения p + q = 2 ( p = q = 1) до значения p + q = 1 (то есть p = q = 0,5: см. рис. 7). Интервал значений от p + q = 0 ( p = q = 0) до p + q = 1 относится к организованным «противником» помехам в канале КПДС.

Пусть в качестве знаков u1 и символов w1 используется “1”, а в качестве u2 и w2 – “0” (современные бинарные цифровые системы электросвязи). Если «противник» – глупый, то он каждую посланную источником ДИС “единицу” будет ретранслировать как “ноль” и наоборот. Нетрудно распознать такой алгоритм подавления электросвязи и поменять алгоритм работы сканера: “единицам” первичного источника ДИС присваивать значения символов “ноль” и наоборот. В таком случае эффективность противодействия «глупого противника» становится нулевой, а канал передачи информации – стопроцентно надёжным.

Для распознавания субъектами общения такого «глупого противника» им достаточно договориться, что вместе с информационным блоком всегда будет передаваться известная источнику ДИС и получателю ПИ псевдослучайная последовательность, анализ которой и выявит тактику «противника».

В сотовых системах стандарта GSM 900 такая псевдослучайная последовательность служит для оценки текущей надёжности канала КПДС в каждом рабочем кадре (так называемая «обучающая последовательность»).

Максимальная эффективность противодействия обмену информацией между ДИС и ПИ будет иметь место при p + q = 1; например, когда «противник» половину “единиц” будет ретранслировать, по псевдослучайному закону, как “ноли”, а половину “нолей” – как “единицы”.

В этом случае p = q = 0,5 и χ(P, p, q) = 0.

Мы так подробно остановились на вопросе о потере знаковой («дискретной») информации в каналах КПДС при наличии в них непреднамеренных или организованных помех потому, что его решение наиболее трудно для понимания, а в соответствующей литературе по этому вопросу наблюдаются разночтения. В то же время, адекватное решение вопроса о потерях информации в каналах связи и правильная его ( решения) интерпретация имеют фундаментальное значение для понимания прикладной теории информации и её приложений.








Дата добавления: 2015-05-16; просмотров: 695;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.061 сек.