Сенсорная система в свете теории информации

С точки зрения его функции нервное волокно можно сравнить с ка­белем, передающим информацию. Подход инженеров связи-теорию ин-

Рис. 2-17. Схема, иллюстрирующая понятия и термины теории информации.

формации-можно применить также и к нервной системе. Эту область знаний в совокупности с теорией управления часто называют киберне­тикой; ее применение к биологии называют биокибернетикой, особенно в Европе, в США такие общие термины используются реже.

Элементы теории информации.Фундаментальная идея, из которой развилась теория информации, представлена в виде блок-схемы на рис. 2-17. Здесь выделены те функциональные компоненты, которые принимают участие в передаче информации: источник информации, передатчик, канал передачи, приемник, потребитель и источник помех, который в данном примере действует на канал передачи. Это простое расчленение можно применить ко всем видам передачи информации как в технике, так и в биологии. Теория информации может дать количе­ственную меру информации, что позволяет выводить утверждения, по­могающие описывать и сравнивать системы передачи информации.

Чтобы передавать информацию, нужны символы (например, буквы или цифры); в определенной степени они задаются или определяются источником информации. Эти знаки кодируются в передатчике, обычно преобразуясь в другие виды сигналов, более подходящие для передачи (например, частотно-модулированные электромагнитные волны в случае ЧМ-радиосвязи). Кодирование -это общий термин, используемый .для такого преобразования,при котором сохраняется однозначная связь между элементами двух наборов знакои; примером кодирования является перевод букв алфавита в знаки азбуки Морзе. В приемнике переданная информация декодируется и направляется потребителю.

В теории информации особое внимание уделяется влиянию помех. Помехи могут возникать в передатчике (в процессе кодирования), в ка­нале передачи и в приемнике (при декодировании). Такие источники по­мех представлены на рис. 2-17 как один элемент, действующий на канал передачи. Одной лз задач теории информации является нахождение та­ких процедур кодирования, которые защищают информацию от разру­шающего действия помех.

Как можно измерять информацию? В теории информации термин


«информация» применяется только к тем характеристикам сообщений, которые поддаются численной оценке и могут описываться математиче­скими формулами. Следующий пример показывает, откуда возникает такое использование этого термина.

Если вы бросите одну игральную кость из пары, то с одинаковой ве­роятностью может выпасть одно из шести чисел. До бросания мы знаем только то, что результатом будет одно из шести определенных чисел. Акт бросания устраняет эту неопределенность измеримым обра­зом, что мы можем использовать для определения информационного содержания броска. Заметим, что каждое такое событие, т.е. каждое бросание кости с шестью гранями, будет иметь одинаковое информа­ционное содержание. Событие другого типа-подбрасывание монеты (где есть только два возможных результата) будет иметь другое инфор­мационное содержание. В общем случае можно сказать, что: информа­ционное содержание события-это количественная мера уменьшения не­определенности наших знаний о ситуации благодаря знанию исхода события. Заметьте, что передача символов от источника к потребителю имеет точную аналогию с вышеприведенными примерами-тут тоже имеется измеримое уменьшение априорной неопределенности.

Легко видеть, что это уменьшение неопределенности сведений об ис­ходе события тем больше, чем меньше вероятность р получения каждого исхода; бросание кости (р = 1/6) устраняет большую неопределенность, чем подбрасывание монеты (р = 1/2). В связи с этим количество инфор­мации / имеет смысл определить через величину, обратную р, т. е. через 1/р. Разумным дополнительным условием для измерения информации является требование, чтобы в случае события с одним возможным исхо­дом, который обязательно наступит и, значит, имеет вероятность 1, ко­личество информации равнялось бы нулю. Это условие можно выпол­нить, используя логарифмическую функцию от 1/р, поскольку log 1 = 0.

Эти рассуждения поясняют, почему количество информации в одном событии (или сообщении, состоящем из одного символа, выбранного из нескольких равновероятных) было определено как

I = log(l/p). [2-5]

В этом определении используют логарифм по основанию 2 (записы­вая его в виде log2), поскольку тогда ситуация с р = 1/2 будет давать 1 ед. информации. Таким образом, [2-5] можно следующим образом переписать для определения количества информации / в событии, имеющем равновозможные исходы с вероятностью р:

I = log2(l/p). [2-6]

Для игры в кости информационное содержание каждого броска одной игральной кости теперь можно оценить численно: I = log2 [1 (1/6)] = 2,58 бит. Что такое «бит», мы узнаем позже. Посколь­ку логарифмические линейки и карманные калькуляторы обычно не


дают возможности непосредственно определять функцию log2, полезно знать формулу перевода: log2 п = log10 n/log10 2 = 3,32• log10 n.

Вводя меру информации, мы начали с предположения, что все со­стояния источника информации могут иметь место с одинаковой ве­роятностью р, как, например, в случае игральных костей. Это предполо­жение является упрощением; обычно отдельные знаки, или состояния, источника информации не равновероятны.

Примером случая неравной вероятности могут служить буквы алфа­вита, которые встречаются в тексте с разными частотами (вероятностя­ми). Читатель может легко убедиться в этом самостоятельно; в англий-ском'тексте, например, самая распространенная буква-е. Общий случай неравных вероятностей выходит за рамки данного вводного рассмотре­ния меры информации; интересующиеся читатели могут найти допол­нительную литературу по приведенному списку.

Остановившись на частном случае равных вероятностей, заметим, однако, что [2-6] можно записать в другом виде; если и-общее число возможных символов, или состояний источника, справедливо равенство р = \/п. Для игральной кости п = 6. Выражая через п количество инфор­мации при передаче одного символа, получим

/ = log2n. [2-7]

Это значит, что содержание информации в таком сообщении равно ло­гарифму по основанию 2 числа п всех возможных символов, которые могут быть переданы. Мы применим это соотношение в нейрофизиоло­гии (см. далее).

Конечно, субъективная ценность единицы информации для получате­ля зависит от многих факторов, не включенных в рассмотренную выше количественную меру информации. Например, при игре в кости субъек­тивная цена, которую игрок назначает разным числам, может варьиро­вать в зависимости от бессознательной мотивации, его отношений с другими партнерами, того, последний ли доллар он сейчас ставит, и т.д. Изучение таких аспектов символьной информации часто назы­вают семантикой.

Двоичные и недвоичные знаки; бит.Как подчеркивалось выше, пере­дача информации требует набора символов, из которых передающий информацию может делать выбор. В простейшем случае набор состоит всего из двух символов, называемых двоичными, или бинарными (напри­мер, двух цифр: 0 и 1). Используя их, передающий информацию может посылать сообщения о выборе из двух возможных вариантов (например, «да» или «нет»). Двоичные системы особенно удобны с технической точ­ки зрения; примерами их реализации являются свет-темнота, смена по­ложений тумблера, наличие и отсутствие отверстия в перфокарте. Это одна из причин, по которой в качестве единицы информации было вы­брано информационное содержание акта, определяющего один двоичный символ. Этот выбор уже подразумевался в [2-6] и [2-7], так


как log2 2=1. Количество информации, которое передается в сообще­нии, содержащем один из двух равновероятных двоичных символов, на­зывается одним битом.

Один бит^Зтб относительно небольшое количество информации; ес­ли с помощью двоичных символов нужно передавать более про­странные сообщения, следует объединять вместе несколько знаков-из двоичных символов нужно составлять слова. Алфавит, из которого со­ставляются такие слова, состоит из «букв» 0 и 1. Длина слов, т.е. число двоичных знаков, используемых на одно слово, есть прямая мера (в би­тах) количества информации, передаваемой в одном слове. Словом, со­стоящим из двух двоичных знаков, можно передать два бита, из трех-три и т.д. Число различных слов, которые могут быть составлены из двух двоичных знаков, равно 22 = 4. Это 00, 01, 10 и 11. С помощью трех знаков можно составить 23 = 8 слов следующего вида: 000, 001, 010, 011, 100, 101, ПО, 111. Очевидно, что используя т двоичных знаков на слово, можно составить п = 2т различных сообщений; процесс, кон­кретизирующий любое из них, передает т бит информации.

Обсуждавшееся до сих пор определение количества информации можно также применить и к случаям, в которых в качестве носителей информации служат любые произвольные символы. Любой желаемый набор символов можно представить двоичными последовательностями достаточной длины. Чтобы кодировать символы таким образом, т.е. чтобы получить однозначное соответствие между набором из п симво­лов и двоичными словами, длина последних должна составлять в сред­нем т = log2 и двоичных знаков.

Принцип такого кодирования представлен на рис. 2-18. Это дерево выбора решений, в котором в результате последовательного раздвоения ветвей получается в точности по одной ветви на каждый символ (здесь нужно было представить 8 букв от А до Я). Каждое раздвоение симво­лизирует выбор из двух возможностей. Если выбор левой ветви мы обозначим цифрой 0, а правой 1, то мы сможем построить соответ­ствующие двоичные кодовые слова путем простого прохождения от «ствола» дерева к символам на конечных веточках. Получившиеся двоичные слова написаны под буквами, к которым они относятся.

Если такое кодовое дерево, или дерево выбора, строить для всего английского алфавита, то число выборов (точек раздвоения) будет рав­но первому целому числу, превышающему log2 26, или 5, так как 25 = = 32. Шесть двоичных слов, не понадобившихся для букв, можно ис­пользовать для кодирования знаков препинания и интервалов.

Но если произвольный знак можно заменить двоичным словом, то можно также сказать, что он содержит столько же информации (в би­тах), сколько и двоичное слово, которым он закодирован. Следователь­но, среднее содержание информации I в акте определения одного сим­вола из набора в п символов равно I = log2 п. Это [2-7], которое мы получили выше при определении количества информации.

Настоящее введение в основные концепции теории информации


Рис. 2-18. Кодовое дерево, или дерево выбора. Путем последовательных выбо­ров из двух возможностей буквам от А до Н можно присвоить разные коды. В каждой точке раздвоения повороту влево ставится в соответствие знак 0, а по­вороту вправо-знак 1. Если начать с исходной точки и последовательно зафик­сировать все знаки вдоль какой-то траектории, получится запись в двоичной си­стеме той буквы, которая стоит у конечной точки (от А до Н). Эти двоичные слова приведены под соответствующими буквами.

сильно упрощено, в частности по причине допущения равной вероятно­сти всех символов в наборе. Ссылки на более фундаментальные изложе­ния теории информации приведены в конце книги.

Теория информации в сенсорной физиологии.Теперь мы применим идею, описанную выше в общих терминах, к передаче информации в нервной системе. Подходящим для обсуждения примером является ре­цептор с афферентным нервным волокном. Здесь информация кодирует­ся и передается дальше в виде нервных импульсов. источниками инфор­мации служат раздражители окружающей среды, передатчиком - рёцеп-торная клетка, каналом передачи-нервное волокно, приемником - си­напс некоторого центрального нейрона, а сам этот нейрон может рассматриваться как потребитель.

Физически измеримые параметры стимулов (например, интенсив­ность давления на кожу, положение стимула на периферической сенсор­ной поверхности, длины волн светового и звукового стимулов)-это передаваемые величины. На примере рецептора растяжения (разд. 2.1) мы видели, как параметры стимула определяют реакцию рецептора: ча­стота импульсного разряда в афферентном волокне меняется в ту же сторону, что и интенсивность стимула. В этом случае переменная «ин­тенсивность стимула» кодируется переменной «средняя частота нервных импульсов». Такой способ кодирования, сопоставимый с частотной мо­дуляцией в технических системах связи, обнаружен в рецепторах всех модальностей: в мышечных веретенах, в кожных рецепторах давления, в хеморецепторах языка и фоторецепторах сетчатки носителем инфор­мации является частота нервных импульсов.

Поскольку афферентные волокна определенных рецепторов связаны с определенными клетками ЦНС, информация, содержащаяся в потоке импульсов, расшифровывается соответствующим образом. Например,


Рис. 2-19. Кодирование интенсивности стимула (абсцисса) нервными импульса­ми (ордината). Длительность каждого стимула фиксирована. В качестве примера взят механорецептор, подвергаемый действию силы (измеряемой в ньютонах). Характеристическая кривая процесса кодирования имеет форму лестницы (крас­ная линия).

афференты 1а оканчиваются на гомонимных мотонейронах, а механо-чувствительные кожные афференты проецируются в постцентральную извилину.

Передача информации идеальным рецептором.Каким образом мы мо­жем различить по сериям импульсов, посылаемых рецептором, те со­стояния, которые позволят описать содержащуюся информацию? Рас­смотрим сначала кодирование интенсивности стимула. Если на опреде­ленном отрезке времени стимулируемый рецептор либо не выдает импульсов, либо генерирует один импульс, то он может обеспечить передачу информации только о двух уровнях интенсивности стимула. В этом случае отсутствие потенциалов действия означает, что «интен­сивность стимула ниже порога», а один потенциал действия-что «ин­тенсивность стимула выше порога». Если возможное число импульсов составляет 0, 1 и 2, то элемент-потребитель в такой системе получит ин­формацию, достаточную для различения трех уровней стимуляции. Ес­ли стимул может возбуждать в афферентном волокне до N импульсов, то рецептор теоретически может сигнализировать в ЦНС об N + 1 уров­нях интенсивности. Иллюстрация к такой ситуации дана на рис. 2-19. Число импульсов N в афферентном волокне (ордината) может при­нимать только целые значения. По этой причине кривая, соотносящая интенсивность стимула (абсцисса) с числом импульсов, имеет форму лестницы. У идеального рецептора, который реагирует на неизменный стимул постоянной частотой разряда, число импульсов N равно про­изведению частоты разряда / на время наблюдения V. N=f-t. Значит, максимальное число уровней интенсивности стимула, различимых по


активности одного нервного волокна, равно

N + 1=₤m t+1, [2-8]

где fm-максимальная частота разряда рецептора. В случае рецептора со спонтанной частотой разряда f0 (в отсутствие какого бы то ни было об-наружимого внешнего стимула) в [2-8] и во всех последующих выраже­ниях fm следует заменить на fm —f0.

Таким образом, в данном случае число имеющихся в наличии сим­волов-это число различимых состояний активности афферентного во­локна. Следовательно, количество информации об интенсивности сти­мула в примере рис. 2-19 равно I = log2(N+ l) = log2 10= 3,3 бита. В общем случае для идеального рецептора, у которого частота разряда определяется стимулом, содержание в этом разряде информации отно­сительно интенсивности стимула вычисляется по формуле

/ = log2(fm t+l). [2-9]

Это соотношение между /, fm и временем наблюдения t показано графически на рис. 2-20. Очевидно, что количество информации / возра­стает как с увеличением fm, так и с увеличением t. Максимальная часто­та fm - фиксированное свойство рецептора. Вместе с тем, удлиняя время наблюдения t, теоретически можно получить сколь угодно точную ин­формацию об интенсивности неизменного длительного стимула. Одна­ко на практике свойства реальных рецепторов и динамика процесса де­кодирования в ЦНС ограничивают время, до которого можно растягивать интеграл оценки афферентного разряда в целях увеличения количества информации. Изучая реальные рецепторы, мы можем полу­чить некоторое представление о пределе, до которого имеет смысл уве­личивать г.

Передача информации реальным рецептором.На стимул постоянной интенсивности идеальный рецептор реагирует совершенно регулярным разрядом с неизменной частотой. В случае биологических рецепторов это условие не выполняется.

Экспериментально обнаружено, что при поддерживании постоянной интенсивности стимула частота разряда рецептора может меняться со временем. На рис. 2-21, А показан разряд рецептора давления кошачьей лапы для разных интенсивностей стимуляции. Бросается в глаза, что ча­стота разряда-носитель информации об интенсивности стимула-флук­туирует стохастически (т. е. случайным образом, без видимой причины). Такие флуктуации сигналов в технике связи называют шумом. Они сни­жают качество работы информационного канала - вносят искажения в передачу информации (см. рис. 2-17).

Чтобы количественно оценить потери информации из-за шума в ре­цепторе, рассмотрим экспериментально полученное кодовое соотноше­ние, приведенное на рис. 2-21, Б. каждая точка графика представляeт результат одного измерения, подобного показанному в части А, только




Рис 2-20 За8ИСИМОСТЬ содержания информации / (ордината) в реакциях идеаль­ного рецептсра от времени наблюдения t (абсцисса). Различные кривые соответ­ствуют разл)1ЧНЫМ значениям максимальной частоты импульсов fm в разряде ре­цептора' кривые были вычислены на основании [2-9]. Красным отмечена область' в к0ТОРУю попадают соответствующие значения количества информа­ции в реакц!1ЯХ механорецепторов кожи при изменении времени наблюдения t.

здесь врем? наблюдения равно 5 с. Число различимых состояний мож­но оценить построив на этой полосе точек ступенчатую кривую; та, что изображена здесь, оказалась имеющей восемь ступенек (первая распола­гается на уровне 0 импульсов), что соответствует 3 битам на стимул, ес­ли далее сгоит идеальный приемник, считающий в течение 5 с.


Рис. 2-21. Влияние шума на кодирование в рецепторе. А. Реальные записи разря­да рецепторов давления в подошве лапы кошки в ответ на стимулы, действую­щие в течение 1 с; интенсивности стимулов указаны рядом с записями. Б. Значе­ния частоты импульсов в реакциях на стимулы длительностью 5 с (ордината), полученные на основании многих записей типа А для стимулов разной интен­сивности (абсцисса). Ступенчатая кривая (красная линия) построена таким обра­зом, чтобы она вписывалась в полосу разброса данных, имея при этом ступень­ки максимальной возможной высоты.

Основание для построения лестницы, изображенной на рис. 2-21, Б, следующее. Две интенсивности стимула четко различаются, если все значения числа импульсов (ордината на рис. 2-21, Б), соответствующие одной интенсивности, отличаются от значений, соответствующих дру­гой интенсивности. «Наихудший случай», который представляет мини­мально возможное различение, задается ступенчатой кривой с макси­мальной высотой ступенек, которая может быть вписана в полосу точек кодового графика для экспериментально измеренных реакций.

Если бы данный рецептор мог работать как идеальный модулятор частоты (идеальный рецептор без шума), то в экспериментальных усло­виях рис. 2-21, £ можно было бы различить по крайней мере 300 града­ций интенсивности стимула; соответствующее содержание информации составляло бы 8,2 бита на реакцию [2-9]. Следовательно, в этом приме­ре на каждой реакции 8,2 — 3 = 5,2 бита теряется из-за шума!

Наивысшие значения количества информации на стимул, измеренные до сего времени, были обнаружены у деэфферентированных мышечных веретен. Первичные__окончания (Ia) могут передавать по 4,8 бита на 1 стимул; вторичные окончания (II) реально передают по 6,3 бита.

Отклонения функции реального рецептора от идеального также ста­новятся очевидными, когда варьируют время наблюдения t. При удли­нении t количество информации, передаваемой идеальным рецептором, монотонно растет, как это показано на рис. 2-20 кривыми, соответ­ствующими [2-9]. Однако количество информации, передаваемой ре-


альным рецептором, не может нарастать беспредельно. На рис. 2-20 красным указана область, в пределах которой изменяются эксперимен­тально полученные значения количества информации на стимул в зави­симости от времени наблюдения t у кожных механорецепторов опреде­ленного типа. Например, рецепторы давления на кошачьей лапе, по существу, уже достигают своих максимальных возможностей (3 бита на стимул) всего лишь через 1 с.

Хотя частота разряда многих рецепторов может достигать несколь­ких сотен в секунду, качество их работы с точки зрения передачи инфор­мации об интенсивности стимула явно немногим лучше или даже не лучше, чем у идеального рецептора с максимальной частотой разряда 20 с‾1.

Избыточность.Неточное кодирование в реальном рецепторе (из-за шума)-это один из видов искажения информации при передаче. Можно ли найти в нервной системе примеры компенсации таких искажений? Методы, разработанные для предотвращения потерь информации в тех­нике связи, используют введение избыточности. Чтобы пояснить это понятие, рассмотрим сначала пример из области лингвистики. Попро­буйте расшифровать следующую последовательность букв:

Код.р.в...е в р.цеп...ах ис.аж... и.-з. ш.ма

Информацию, содержащуюся в этом предложении, можно восстано­вить, хотя около 40% букв отсутствует; письменный текст содержит больше символов, чем это необходимо для точного понимания его смы­сла; этот излишек и есть избыточность. Она измеряется в битах.

Исследования текстов, из которых систематическим образом изыма­лись отдельные части, показали, что, например, письменный немецкий содержит в среднем лишь по 1,3 бита на букву. Теоретически среднее содержание информации в каждой из 26 букв алфавита равно log2 26 = = 4,7 бита, так что средняя избыточность в этом случае составляет 4,7 — 1,3 = 3,4 бита на букву.

С первого взгляда это может показаться расточительной тратой символов, но это только одна сторона избыточности. Ее достоинства становятся очевидными, когда в канале передачи возможны искаже­ния -например, при плохой телефонной связи, радиоприеме в условиях помех или в случае неразборчивого почерка. Здесь избыточность языка обеспечивает узнавание текста, когда удается идентифицировать всего лишь часть знаков. В теории информации показано в общем виде, что передача информации тем надежнее застрахована от искажений, чем больше избыточность, введенная при кодировании.

Избыточность в нервной системе.Один из эффективных способов ис­пользования избыточности для защиты от шума состоит в передаче ин­формации по двум или более каналам параллельно. Такая возможность реализуется в нервной системе. На периферии плотность рецепторов обычно так высока, что даже точечные стимулы возбуждают несколько


волокон. При такой параллельной передаче степень фактического ис­пользования периферической информации зависит от характера ее обра­ботки в центральной нервной системе. В предположении, что оценка включает суммирование импульсов во всех возбужденных волокнах, по­лучаемую наблюдателем информацию об интенсивности стимула мож­но вычислить на основании вариабельности суммарного разряда-на­пример, способом, представленным на рис. 2-21, Б. При таком процессе суммации общее число импульсов в интервале наблюдения растет с уве­личением числа активированных афферентных волокон приблизительно линейно. Вариабельность разряда (шум), т.е. ширина полосы неопреде­ленности на рис. 2-21, Б, увеличивается в меньшей степени. В связи с этим, по мере того как число афферентных волокон нарастает, число шагов, которые могут быть изображены на экспериментально получен­ном кодовом графике (типа показанного на рис. 2-21, Б), увеличивается. Отсюда следует, что в суммарном разряде содержится больше инфор­мации, чем в разряде отдельного рецептора. Таким образом, обобщая, можно сказать, что избыточность, создаваемая передачей по парал­лельным каналам, компенсирует искажения, возникающие при кодирова­нии в отдельном рецепторе.

Избыточность, создаваемая параллельной передачей информации, используется и внутри ЦНС. Но тут вступает в действие новый фактор: из-за конвергенции и дивергенции в сетях синаптических связей парал­лельные каналы могут действовать как весьма сложные цепи, которые (как показано в теории информации) могут в принципе обеспечить до­полнительную избыточность.

Но если для сохранения информации об интенсивности стимула столь широко используется передача по параллельным каналам, то не­избежно должно наблюдаться обширное «растекание» возбуждения вну­три ЦНС, о котором уже говорилось выше (см. рис. 2-8, А). Однако, как мы уже видели, такому растеканию может противодействовать лате­ральное торможение (см. рис. 2-8, Б). В зависимости от силы такого торможения в центральных представительствах периферии может под­черкиваться либо информация об интенсивности стимула, либо инфор­мация о его местоположении.

Информация в психологии. Вэкспериментальной психологии, и в осо­бенности в психофизике (см. гл. 1), также используется количественное определение информации. Здесь мы приведем несколько примеров, под­черкивающих взаимосвязь между нейрофизиологическим и психофизи­ческим измерением информации.

В процессе экспериментов люди могут субъективно оценивать интен­сивность какого-нибудь стимула (например, яркость или давление на кожу) и выражать эти оценки каким-нибудь способом (например, чис­ленно, см. разд. 1.3). Если такие субъективные оценки изобразить точка­ми против соответствующих значений интенсивности стимула, получит­ся график типа изображенного на рис. 2-21, Б. На нем вместо числа импульсов, генерируемых рецептором (на ординате рис. 2-21, Б), мы те-


перь имеем численные выражения субъективной оценки интенсивности. Учитывая разброс данных, мы можем оценить соответствующее коли­чество информации, имеющееся в наличии на уровне сознательного во­сприятия, с помощью уже описанной ступенчатой кривой. В экспери­ментах, связанных с субъективными оценками интенсивности давления на кожу, были получены значения порядка 3 бит/стимул; это примерно то же самое, что найдено для одиночного рецептора давления. Значит, в этом эксперименте для субъективных оценок интенсивности в во­сприятии достаточно информации, передаваемой отдельным нервным волокном, и, следовательно, вклад всех других возбужденных волокон -по крайней мере для этого очень частного психофизического вопроса об интенсивности стимула-может рассматриваться как избыточность.

В другом эксперименте испытуемого просили сравнивать два после­довательных стимула и определять различия в их интенсивности. Срав­нение количеств психофизической и рецепторной информации обнару­жило, что, по крайней мере в случае психофизического различения Холодовых воздействий на кожу, в решение испытуемого вносит вклад информация, идущая по всем Холодовым волокнам стимулируемой области кожи (см. рис. 3-15), в этом случае вся имеющаяся в наличии нейронная информация используется для снижения дифференциального порога.

В заключение мы сравним общее количество сенсорной нейрофизио­логической информации, которая может поступать в распоряжение субъекта, с соответствующим количеством психофизической информа­ции. Для этого мы воспользуемся понятием максимального потока ин­формации (бит/с); эту меру называют также емкостью (пропускной спо­собностью) канала.

Емкость канала, например механорецептора (см. рис. 2-21), экспери­ментально определяется путем прогрессивного учащения последова­тельности стимулов при одновременном укорочении каждого из них. При снижении длительности стимула до значений менее 1 с содержание информации в реакции на отдельный стимул уменьшается (см. рис. 2-20), но из-за возрастания числа стимулов поток информации обычно возрастает. В табл. 2-2 суммированы данные о емкости каналов всех рецепторов в ряде органов чувств, полученные на основании обще­го числа афферентных волокон и емкости отдельных каналов. Они срав­ниваются с измерениями емкости психофизических каналов; это макси­мальный поток информации на уровне сознательного восприятия. В случае зрительной системы приводимое значение емкости относится к случаю чтения и определено в психофизических экспериментах. Для слуховой системы это емкость, связанная с пониманием речи.

Как мы знаем из нашего собственного опыта, в каждый данный мо­мент времени мы можем полностью направить свое сознательное вни­мание только на одну сенсорную модальность. По этой причине мало­вероятно, чтобы человек мог одновременно обрабатывать более одного из тех максимальных психофизических потоков, которые приведены


Таблица 2-2.Сравнение потоков информации (емкости каналов) на уровне периферических нервов и сознательного восприятия. Слева указаны общее число рецепторов и афферентных волокон для пяти сенсорных систем и максимальный поток информации в каждой из них. Справа приведены данные по максимальным потокам информации на уровне сознательного восприятия-оценки емкости каналов, полученные в психофизических экспериментах

 

Сенсорная система Число рецепторов Число афферентов Общая емкость каналов, бит/с Психофизическая оценка емкости каналов, бит/с
Зрительная 2-Ю8 2-106 ю7
Слуховая 3-Ю4 2 10* ю5
Тактильная 107 106 106
Вкусовая 3-Ю7 103 103 1 (?)
Обонятельная 7-Ю7 105 105 1 (?)

в табл. 2-2 справа. Следовательно, мы можем заключить, что макси­мальный поток информации в процессе сознательного сенсорного во­сприятия составляет около 40 бит/с-т. е. на много порядков ниже, чем передаваемый рецепторами (левая часть табл. 2-2). Таким образом, по­лучается, что наше восприятие, по-видимому, ограничивается ничтож­ной частью всего обилия информации, имеющейся в наличии на сен­сорных входах.

В 2.20. Для случая кодирования рецептором интенсивности стимула ко­личество информации может быть определено

а) как число различимых значений частоты разряда рецептора;

б) как число потенциалов действия, генерируемых в единицу
времени;

в) как логарифм по основанию 2 числа уровней интенсивности стимула, различаемых по разряду рецептора;

г) только в том случае, если отсутствуют статистические флук­туации частоты разряда (нет шума)

. В 2.21. Какие из следующих утверждений относительно избыточности верны?

а) Избыточность в принципе связана с увеличением мощности, затрачиваемой на передачу информации, по сравнению и не­обходимым минимумом,

б) Избыточность-это увеличение количества нформации, пере­даваемой по нервному волокну, за счет укорочения рефрак­терного периода.

в) Избыточность реализуется в нервной системе путем передачи одной и той же информации по нескольким параллельным каналам,

г) Как правило, подверженность информации искажениям уве­личивается с увеличением избыточности.



22. Следующие утверждения применимы к понятию «количество информации».

а) Словам английского языка нельзя приписать никаких значе­
ний количества информации, поскольку эти слова имеют
смысл, который нельзя измерить (семантическая информа­
ция).

б) Количество информации в каждом отдельном броске играль­
ной кости с шестью гранями равно I = log10 (6) бит.

в) Когда произвольный символ кодируется двоичными знаками,
количество информации в нем всегда неизбежно становится
меньше (потеря информации).

г) Количество информации в акте выбора некоторого символа зависит от вероятности его появления.


 








Дата добавления: 2015-10-05; просмотров: 991;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.038 сек.