Информация, количество и качество

 

Информация – один из популярных терминов в нашем лексиконе. В него вкладывается довольно широкий смысл, а его восприятие чаще всего интуитивно. Большой энциклопедический словарь (М., 1998) дает следующее определение информации: «Информация (от лат. informatio – разъяснения, изложение), первоначально – сведения, передаваемые людьми устным, письменным или другим способом (с помощью условных сигналов, технических средств и т.д.), с середины 20 в. общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире…; – одно из основных понятий кибернетики.» Как видим, это определение отражает смысловой сдвиг в понимании термина информация, произошедший за последнюю половину века. Желая подчеркнуть особую, нематериальную сущность информации, Норберт Винер сказал: « Информация есть информация, не материя и не энергия». Информацию можно хранить, преобразовывать (обрабатывать) и передавать, у нее должен быть источник, материальный носитель, передатчик, канал связи и приемник.

В общении мы часто употребляем термин «данные» как синоним информации, однако между ними есть существенное различие. Данные – это величины, их отношения, словосочетания (тексты), преобразование и обработка которых позволяют извлечь ту или иную информацию (знание) о некотором предмете, явлении, процессе. Данные в этом аспек­те служат «сырьем» для получения информации.

Исследованием методов хранения, передачи и приема информации, а также оценки ее количества и качества занимается теория информации. Математические основы теории информации составляют теория кодиро­вания, теория случайных процессов, математическая статистика, теория вероятностей. Основоположниками теории информации являются Н. Винер, К. Шеннон, Р. Хартли, значительный вклад в теорию информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, В.А. Котельников и др.

Важнейшим понятием теории информации является количественная оценка информации. Эта оценка дает возможность изме­рить информационные потоки в информационных системах независимо от их природы и физической реализации. Один из подходов к оценке количества информации основан на следующих соображениях.

Предположим, что получателя информации интересует, в каком из N возможных состояний находится интересующий его объект. Если у полу­чателя нет никаких сведений о состоянии объекта, то количество требуе­мой для этого информации можно считать равным уменьшению неопре­деленности состояния объекта.

Эта мера в теории информации называется энтропией по аналогии с физикой, где энтропия характеризует степень неупорядоченности (хаотичности) физической системы. Неупорядоченность может быть ин­терпретирована в смысле того, насколько мало получателю информации известно о данной системе. Если наблюдатель выявил что-нибудь в фи­зической системе, ее энтропия для наблюдателя снизилась. В нашем слу­чае максимум энтропии соответствует отсутствию информации о состоя­нии объекта. Минимум энтропии (ноль) соответствует полной информа­ции о состоянии объекта.

Таким образом, энтропия и объем информации имеют противопо­ложные знаки. Если объект может находиться в двух равновероятных со­стояниях (N = 2), то говорят, что для снятия неопределенности о его со­стояниях требуется единица информации. Такая единица получила на­звание бит (binary digit-bit), т.е. бит информации сужает область выбора вдвое. Аналогично для N = 4 достаточно двух бит и т.д.

По формуле Шеннона, энтропия объекта, имеющего N возможных состояний, равна

где Рiвероятность нахождения объекта в i-м состоянии.

Если все N состояний объекта равновероятны, энтропия равна

При кодировании информации в той или иной позиционной системе счисления, число различных состояний, кодируемых n разрядами, равно

N=qn

где q – основание системы счисления;

n – число разрядов.

При передаче n-разрядного сообщения, записанного в системе с ос­нованием q, получателем будет воспринято количество информации, равное:

I = log N = nlog q – формула Хартли.

Если в качестве основания логарифма принять q, то I = n, т.е. коли­чество информации, воспринятой получателем (при его полном априор­ном незнании содержания сообщения), будет равно числу разрядов в со­общении (объему данных) I= n= VД, где VД – объем данных.

Если появление различных кодовых комбинаций в сообщении не равновероятно, то естественно, что I < VД.

Обратим внимание на другую сторону измерения количества ин­формации. Она связана с той или иной потребностью получателя информации, о которой отправитель сообщения может и не знать.

Всем известно, что некий оратор может говорить очень долго, например передать содержание нескольких десятков стра­ниц текста (десятки тысяч знаков), а неопределенность, снимаемая его сообщением, может составлять всего несколько бит.

Измерения только количества информации в наше время (лавинообразного нарастания ее потоков) уже недостаточно. Потребности управления, науки и техники требуют решения проблемы содержательности информации и ее ценности.

В одной из работ предлагается принять за меру ценности информации ее количество, необходимое для достижения поставленной цели.

Если до получения информации вероятность достижения цели ее получателем равнялась Р0, а после ее получения – Pi, то ценность информации можно определить как:

C=log (Pi/P0).

В других работах, кроме вероятностных характеристик неопределенности состояния объекта до и после получения информации, вводятся функции штрафов и потерь. Оценка информации производится по результатам их минимизации. Рассматривается и случай, когда ценность информации становится отрицательной (за счет дезинформации или неполноты информации). Ценность информации связывается с конкретной задачей, для которой она получается.

Попытки построить семантическую (смысловую) теорию ценности информации исходят еще от Н. Винера. Его идея состоит в том, что эффективность использования информации зависит от уровня знаний ее получателя. Если назвать совокупность знаний получателя о некотором предмете тезаурусом, то количество и ценность информации в некотором сообщении можно оценить степенью изменения тезауруса получателя под воздействием сообщения.

Зависимость количества информации Ic, включаемого пользователем в свой тезаурус после получения некоторого сообщения, от величины этого тезауруса Tn в момент получения сообщения можно представить графиком на рисунке.

Ic

Tn

Максимальное количество информации получатель приобретает (включает в свой тезаурус), обладая достаточно большим (развитым), но еще не полным тезаурусом. При ТП = 0 получатель не способен воспринимать информацию. При ТП = ТП полн., т.е. при полном знании о некотором объекте, получатель не нуждается в поступающей информации.

Качество информации определяется и другими показателями, обеспечивающими возможность ее эффек­тивного использования, вне зависимости от тезауруса получателя.

Среди таких показателей важнейшие:

- релевантность информации (от английского relevant – уместный, относящийся к делу) отражает соответствие сообщения поступившему запросу;

- репрезентативность информации (от французского representatif – представительный) означает правильность выбора частных показателей в целях отражения характеристик объекта в целом;

- полнота информации характеризует сообщение с точки зрения достаточности набора показателей для принятия решения;

- актуальность информации определяется степенью сохранения ее ценности на момент принятия решения;

- точность информации определяется ее адекватностью реальному состоянию некоторого объекта.

 








Дата добавления: 2014-12-02; просмотров: 2402;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.007 сек.