Энтропия дискретного сообщения
В дискретной технике связи широко применяется алфавит из двух символов х1 и х2, которым приписываются значения "0" и "1". В этом случае слова, сообщения (или точнее кодовые комбинации) состоят из нескольких позиций. Чем больше число позиций в кодовой комбинации, тем больше будет число различных кодовых слов, но тем длиннее само слово.
Если позиция в кодовой комбинации одна, n=1, то можно образовать 21=2 слова: "0" и "1". Если позиций две, n =2, то можно образовать четыре слова, 22 = 4: 00, 01, 10, 11. Если позиций три, n=3, то - 23=8: 000, 001, 010, 011, 100, 101, 110, 111. В общем случае для двоичного кода число различных возможных кодовых комбинаций определяется формулой 2n, где m = 2 число символов в алфавите, или основание кода, an- число позиций в коде.
Рассмотрим энтропию двоичного кода. Поскольку имеется только два символа (m = 2), то энтропия, вычисленная по формуле (13.6), равна
. (1.12)
Так, в двоичном коде символы образуют полную группу несовместных событий, для которых р1 + р2 = 1, р2 = 1 - р1. Для удобства анализа обозначим р1 = р, р2 = 1 - р. Тогда формула (1.12) примет вид
Нx(р) = – [p log р + (1 – p) log(1 – p)]. (1.13)
Энтропию (1.13) будем рассматривать как функцию от вероятности одного из символов, р. График этой зависимости
Максимальное значение энтропии двоичного кода согласно (1.9) достигается при , а сам максимум равен
. (1.14)
Энтропия обращается в нуль, при р = 0 или р = 1, что согласуется с (13.10) и следует непосредственно из симметричности (13.13) относительно р и (1-р).
Вернёмся к кодовой комбинации, содержащей n позиций. Если появление символов "0", "1" на любой позиции кода является равновероятным и независимым, то все комбинации будут равновероятными, при этом вероятность появления любой комбинации (1/2)n = 2-n. В этом случае каждая кодовая комбинация будет нести максимальную информацию, равную
. (1.15)
Результат (1.15) следует рассматривать следующим образом. В кодовой комбинации информация сообщения является суммой энтропий, определяемых для каждой позиции кода. Информация (1.15) равна n бит потому, что число позиций n, ив каждой позиции достигается максимальная энтропия, равная 1 бит/символ (1.14). Если же вероятность конкретного символа на той или иной позиции будет больше или меньше 0,5 энтропия каждой позиции кода будет уменьшаться, что приведёт к уменьшению информации сообщения, которую следует записать в виде
, (1.16)
где Нx- энтропия двоичного кода, определяемая формулой (1.13).
Дата добавления: 2016-01-26; просмотров: 1657;