Глава 2. Понятие информации.
Понятие информации столь же сложно и неоднозначно, как и понятие коммуникации. Более того, очевидно, что информация, обмен ею, лежит в основе , является целью любой коммуникации. В данной работе мы затрагиваем лишь тот аспект общей теории информации, который может иметь самое непосредственное отношение к технологиям и философии PR . С этой точки зрения оптимальным представляется трактовка информации тем же Умберто Эко. Поэтому, учитывая наличие других, иногда противоречащих данному, подходов к природе информации, остановимся на интерпретации этого феномена в работах итальянского ученого.
Когда мы узнаем, какое из двух событий имеет место, мы получаем информацию. Изначально предполагается (считается, например, само собой разумеющимся, является результатом некоей предварительной конвенции- соглашения и т.д.), что оба события равновероятны, и что мы находимся в полном неведении относительно того, которое из них произойдет. Вероятность –это отношение числа возможностей ожидаемого исхода к общему числу возможностей. Подбрасывая монетку, и ожидая, что выпадет: орел или решка, мы допускаем вероятность выпадения каждой из сторон как составляющую ½.
В случае игральной кости, у которой шесть сторон, вероятность для каждой составит 1/6 , если же бросают одновременно две кости, рассчитывая получить две шестерки или две пятерки, вероятность выпадения одинаковых сторон будет равняться произведению простых вероятностей, т.е. 1/36.
Отношение ряда событий к ряду соответствующих им возможностей – это отношение между арифметической и геометрической прогрессиями, и второй ряд является логарифмом первого.(С.39-40).
Это означает, что при наличии 64 возможных исходов, когда, например, мы хотим узнать, на какую из 64 клеточек шахматной доски пал выбор, мы получаем количество информации, равное Lg 2 64, т.е. шести. Иными словами, чтобы определить, какое из шестидесяти четырех равновероятных событий произошло, нам необходимо последовательно произвести шесть операций выбора из двух.
Геометрическая прогрессия способна усложнять до невероятности, казалось бы, очень простые вещи. Для того, чтобы представить, сколько всего «выборов», а , следовательно, информации «вмещается» на простой шахматной доске, приведем известный пример. Легенда гласит, что заскучавшему персидскому владыке, большому почитателю интеллектуальных игр, мудрец придумал новую забаву: игра, стилизованная под войну, с доской в клетку 8 на 8, раскрашенную в черный и белый цвет, двумя комплектами фигур двух цветов и т.д. Царь был в восторге и пообещал отдать мудрецу все, что он пожелает. «Мне много не нужно»,- скромно сказал тот и попросил, чтобы ему выдали одно зернышко пшеницы за первую клетку, по два за вторую, по четыре за третьею, по восемь за четвертую, шестнадцать за пятую и так далее, до последней, шестьдесят четвертой клетки. Царь с облегчением отдал приказ расплатиться. Но при подсчете оказалось, что расплатиться невозможно. Сумма зерен начинает стремительно расти и то, что вначале казалось незначительным – одно зернышко, превращается в 512 за десятую клетку, 1 024 за одиннадцатую, свыше полумиллиона за 12. Наконец число зерен, соответствующее 64 клетке, - 9 223 372 036 854 780 000. Это была катастрофа. Мудрец предложил расплатиться, используя принцип геометрической прогрессии с определенной частотой удвоения. Этот пример приводится в книге Т.Х. Эриксена «Тирания момента. Время в эпоху информации» (5) для иллюстрации роста в современном мире объемов информации в геометрической прогрессии с различными частотностями удвоения.
Но вернемся к анализируемому У. Эко случаю выбора из 64 возможных вариантов.
Сократим число возможных случаев до восьми. Если имеется восемь непредсказуемых, поскольку они все равновероятны, возможных исходов, то определение одного из них потребует трех последовательных операций выбора. Эти операции выбора обозначены на схеме буквами. Например, чтобы идентифицировать пятый случай, нужно три раза произвести выбор: в точке А между В1 и В2, в точке В2 между С3 и С4 и в точке С3 выбрать между пятым и шестым случаями. И так как речь шла об идентификации одного случая из восьми возможных, то Log 8= 3.
С 1
В 1
3
С2
А
5
С3
В2
С4
В теории информации единицей информации, или битом, (от “binary digit”, т.е. «бинарный сигнал»), называют информацию, получаемую при выборе из двух равновероятных возможностей.(6) Следовательно, если идентифицируется один из восьми случаев, мы получаем три бита информации; если один из шестидесяти четырех – то шесть битов.
Восемь бит дают 1.байт, а миллиард байтов – соответственного 1 гигабайт (обычная сегодня единица измерения объема компьютерной памяти или емкости диска).
При помощи бинарного метода определяется один из любого возможного числа случаев – достаточно последовательно осуществлять выбор, постепенно сужая круг возможностей. Электронный мозг, называемый цифровым, или дигитальным, работая с огромной скоростью, осуществляет астрономическое число операций выбора в единицу времени. Напомним, что и простой калькулятор функционирует за счет замыкания и размыкания цепи, обозначенной 1 и 0 соответственно; на этой основе возможно выполнение самых разнообразных операций, предусмотренных классической алгеброй.
В семидесятые годы применение метода бинарных оппозиций было чрезвычайно популярно в общей теории культуры, а особенно в лингвистике и литературоведении. (7) Элементы бинарного подхода остаются актуальными и до сих пор, особенно в таких вопросах, как структура языка. Знаки (слова) языка состоят из фонем и их сочетаний, фонемы – это минимальные единицы звучания, обладающие дифференциальными признаками, это непродолжительные звучания, которые могут совпадать или не совпадать с буквами или буквой алфавита и которые сами по себе не обладают значением, но однако ни одна из них не может подменять собой другую, а когда такое случается, слово изменяет свое значение (рос, рас, рис, рус), особенно , например, в английском языке (знаменитое «овца» и «корабль» соответственно “ship”/ “sheep”).
Более того, нельзя не вспомнить, что еще З. Фрейд, наблюдая станные феномены замещения в бреду или сновидении одного понятия его антонимом, высказал смелое предположение, что, вполне возможно, существовал некий пра-язык, где антонимы таковыми не являлись, где не было, следовательно, смысловых оппозиций, не было бинарности. Это положение Фрейда не нашло своего подтверждения, но то, что на уровне предсознания или языка обыденного сознания происходит странное сближение антонимических единиц, и в любом случае современные исследователи видят возникновение большинства бинарных оппозиций следствием распада мифологического сознания, которое является не дискретным, а континуальным:
«(..) Современные исследования показывают, что мысль Фрейда о родовой близости антонимов, что проявляется в возможности замены на бессознательном уровне значения на противоположное, подтверждается данными лингвистики. Так, оказывается, что антонимы имеют высокий коэффициент ассоциативной связности (коэффициент Нобла), из чего следует, что антонимы фактически гораздо ближе по содержанию друг другу, чем случайно взятая пара слов. Это подтверждают и данные генетического анализа образования антонимической пары, согласно которому антонимы возникают из общего родового качества (имеют общую архисему) в результате действия механизма маркировки.»(8).
Вернемся к рассматриваемой коммуникативной модели. Поскольку речь шла о единицах информации, и мы установили, что когда, например, известно, какое событие из восьми возможных осуществилось, мы получили три бита информации. Но эта «информация» имеет косвенное отношение к собственно содержанию сообщения, к тому, что мы из него узнали. Ведь для теории информации не представляет интереса, о чем говорится в сообщениях, о числах, человеческих именах, лотерейных билетах или графических знаках, то есть содержание сообщения ограничивается фактом получения сообщения определенного объема. Это означает, что в теории информации значимо число выборов для однозначного определения события. И важны также альтернативы, которые – на уровне источника – представляются как со- возможные.
Вопреки расхожему представлению, отождествляющему информацию с содержанием сообщения, информация, в рассматриваемом нами ключе, равнодушна к непосредственному, конкретному содержанию.
Информация это не столько то, что говорится, сколько то, что может быть сказано. Информация,- подчеркивает У. Эко,– это мера возможности выбора.Сообщение, содержащее один бит информации (выбор из двух равновероятных возможностей), отличается от сообщения, содержащего три бита информации (выбор из восьми равновероятных возможностей), только тем, что во втором случае просчитывается большее количество вариантов (неважно, каких именно вариантов, важно, что их именно столько). И вот уже на основании получаемых нами вариантов выбора мы можем сказать, что вовтором случае информации больше, потому что исходная ситуация менее определена.
Детективный роман тем более держит читателя в напряжении и тем неожиданнее развязка, чем шире круг подозреваемых в убийстве, шире горизонт читательских ожиданий (читательских выборов).
Информация – это свобода выбора при построении сообщения и, следовательно, она представляет собой статистическую характеристику источника сообщения. Иными словами, информация – это число равновероятных возможностей, ее тем больше, чем шире круг, в котором осуществляется выбор. В самом деле, если в игре задействованы не два, восемь или шестьдесят четыре варианта, а n миллиардов равновероятных событий, то выражение I= Lg 10 в n-ой степени составит неизмеримо большую величину. И тот, кто, имея дело с таким источником, при получении сообщения осуществляет выбор одной из n миллиарда возможностей, получает огромное количество битов. Но в любом случае, сколь бы велики не были объемы полученной информации, нельзя забывать о том, что она всегда представляет собой известное обеднение того несметного количества возможностей выбора, которым характеризовался источник до того, как выбор осуществился, и сформировалось сообщение.
В теории информации предполагается и берется в расчет следующий принципиальный постулат: равновероятность события на уровне источника. То есть изначально предполагается, что любой из рассматриваемых вариантов равно возможен. Эту статистическую величину называют заимствованным из термодинамики терминомэнтропия (Винер и др., в отечественной традиции см.: Р. Абдеев, Н. Моисеев и т.д.(9)).
При этом состояние энтропии – естественное состояние, следовательно, состояние, к которому элементы любой системы стремятся автоматически. Энтропия некоторой системы – это и есть состояние равновероятности, к которому стремятся ее элементы. Энтропия может именоваться неупорядоченностью только в определенном смысле: если под порядком понимать совокупность вероятностей, организующихся в систему таким образом, что ее поведение делается предсказуемым. Предсказуемость любого события, явления – следствие снижения изначальной энтропии, невозможность предопределения поведения элемента системы – следствие нарастающей энтропии.
Высокоэнтропийные источники сообщений не только существуют в природе, они являются и постоянно производятся культурой. Тот же У. Эко приводит следующий пример. Очень высокой энтропией обладает система, которую представляют собой буквы на клавиатуре, к примеру, пишущей машинки или компьютера. Она обеспечивает возможность получения большого количества информации. Машинописная страница вмещает 25 строк по 60 знаков в каждой, на клавиатуре 42 клавиши и каждая позволяет напечатать две буквы, таким образом, с добавлением пробела, который тоже знак, общее количество возможных символов составит 85. Если, умножив 25 на 60, мы получаем 1500 позиций, то спрашивается, какое количество возможных комбинаций существует в этом случае для каждого из 85 знаков клавиатуры?
Общее число сообщений с длиной М, полученной при помощи клавиатуры, включающей С знаков, можно определить, возводя М в степень С. В нашем случае это составит 85 в одна тысяча пятисотой степени возможных сообщений. Такова ситуация равновероятности, существующая на уровне источника, и число возможных сообщений измеряется 2895-ти значным числом.
Но сколько же операций нужно совершить, чтобы идентифицировать одно единственное сообщение? Очень и очень много. Их реализация потребовала бы значительных затрат времени и энергии, тем больших, что, как нам известно, объем каждого из возможных сообщений равен 1500 знакам, каждый из которых определяется путем последовательного выбора между 85 символами клавиатуры… Потенциальная возможность источника, связанная со свободой выбора, чрезвычайно высока, но передача этой информации оказывается весьма затруднительной.
Здесь-то и возникает необходимость в коде с его упорядочивающим действием. Введение кода как раз и позволяет ограничивать комбинационные возможности задействованных элементов и число самих элементов. В ситуацию равновероятности источника вводится система вероятностей: одни комбинации становятся более, другие менее вероятными. Информационные возможности источника сокращаются, но возможность передачи информации резко возрастает.
Итак, сообщение, полученное на базе большого количества символов, число комбинаций которых достигает астрономической величины, оказывается высокоинформативным, но вместе с тем и непередаваемым, ибо для этого необходимо слишком большое число операций выбора. Эти операции требуют затрат, идет ли речь об электрических сигналах, механическом движении или мышлении: всякий канал обладает ограниченной пропускной способностью, позволяя осуществлять лишь определенное количество операций выбора. Следовательно, чтобы сделать возможной передачу информации и построить сообщение нужно уменьшить число операций выбора и число символов, подлежащих такой операции, нужно упростить исходную сложность. Ведь куда легче передать сообщение, полученное на основе системы элементов, число комбинаций которых заранее ограничено. Число выборов уменьшается, но зато возможности передачи сообщения возрастают.
Упорядочивающая функция кода как раз и позволяет осуществить коммуникацию, поскольку код представляет собой систему вероятностей, которая накладывается на равновероятность исходной системы, обеспечивая тем самым возможность коммуникации. Однако, отметим, что в любом случае информация нуждается в упорядочивании не из-за ее объема, но потому, что иначе ее передача неосуществима.
«Код - определяет Л.М. Землянова - система условных знаков, символов, правил передачи информации по каналам связи в соответствии с их техническими и социально-культурными особенностями и функциями» (10).
С введением кода число альтернатив такого высокоэнтропийного источника, как клавиатура пишущей машинки, заметно сокращается. Она еще больше уменьшается если за нее садится человек со знанием определенного языка (носитель конкретного социально-культурного кода), например, итальянского, речь уже идет не о всех возможных 85 в 1500 степени сообщениях, которые в принципе может обеспечить клавиатура пишущей машинки, но о значительно меньшем их числе в соответствии с вероятностью, отвечающей определенному набору ожиданий, и, стало быть, более предсказуемым. Ведь введение кода (в данном случае, итальянского или русского языка – естественных языков отправителя сообщения, использующих клавиатуру) делает невозможным присутствие сообщений, выходящих за рамки языкового кода. Эта система кода не разрешает, например, в русском языке писать «ы» после «ж» и «ш», оперирует только определенным набором слов, правилами их сочетаемости т.п. Наличие кода, предусматривающего возможность разнообразных комбинаций, существенно ограничивает число возможных выборов.
Таким образом, код выступает как система, устанавливающая:
1. Репертуар противопоставленных друг другу символов,
2. Правил их сочетания,
3. Окказиональное взаимооднозначное соответствие каждого символа какому-то одному означающему.
Но код (например, естественный язык) тем самым сам становится источником информации. Поэтому используя код для передачи сообщения мы сталкиваемся с двумя видами информации: информацией самого источника и информацией кода.
Как только адресатом сообщения становится не машина как в первом примере У. Эко, а человек, ситуация стремительно меняется, то же самое происходит если человек, а не машина становится и источником информации. Код стремительно усложняется и видоизменяется. К собственно коду добавляется принципиально новое качество, совершенно, излишнее в мире кодированного общения автоматов: осуществляется переход от мира сигнала к миру смысла.
Литература:
1. Бориснев С.В. Социология коммуникации. М., «Юнити». С.29-31.
2. Почепцов Г.Г. Теория коммуникации. М. «Рефл-бук», «Ваклер», 2001.
3.См.: Федотова Л.Н. Социология массовой коммуникации: Учебник для вузов. - СПб., «Питер», 2003. С.26-45.
4. Эко У. Отсутствующая структура. Введение в семиологию.- ТОО ТК «Петрополис», 1998 (далее ссылки на это издание с указаниями страницы в тексте).
5. Эриксен Т.Х. Тирания момента. Время в эпоху информации. М.: Издательство «Весь мир», 2003. С.97-100.
6. Л.М. Землянова предлагает следующее определение: «Бит (bit – аббревиатурный синтез слов binary – двоичный и digit – цифра, знак, символ, разряд) – элементарная единица измерения количества информации в компьютерных операциях, равная одному двоичному разряду. Из битов складываются байты, мегабайты и другие более крупные единицы, используемые в ЭВМ.» // Землянова Л.М. Зарубежная коммуникативистика в преддверии информационного общества. Толковый словарь терминов и концепций. М., МГУ, 1999. С.25.
7. См., например: Лотман Ю.М. Феномены культуры //Семиотика культуры. Труды по знаковым системам. Вып.Х., Тарту, 1978.
8.См., например Фрейд З. Введение в психоанализ. М., 1989. С.71. См., также: Улыбина Е.В. Психология обыденного сознания. М.: Смысл, 2001. С.20-22., С.72.
9. Моисеев Н.Н. Судьба цивилизации. Пусть разума. – М.: Языки русской культуры, 2000: Абдеев Р.Ф. Философия информационной цивилизации. М.: ВЛАДОС,1994.
10. Землянова Л.М.. Указ. Соч. С.82.
Глава Ш
Дата добавления: 2016-12-26; просмотров: 978;