ТРАНСФОРМАЦИЯ ПОДХОДОВ 1 страница


Структура главы:

2.1 Информационный подход

2.1.1 Кибернетика и статистическая теория связи

2.1.2 Инженерная психология и ее эволюция

2.1.3 Поиски ограничений пропускной способности

2.2 Компьютерная метафора

2.2.1 Ментальные модели и аналогия с компьютером

2.2.2 «Когнитивная психология» Улрика Найссера

2.2.3 Принципы символьного подхода

2.3 Модулярность познания и коннекционизм

2.3.1 Идея специализации обработки

2.3.2 Гипотеза модулярности: вклад Джерри Фодора

2.3.3 Нейронные сети в психологии

2.4 Усиливающееся влияние нейронаук

2.4.1 Интерес к нейропсихологическим данным

2.4.2 Новые методы и старые проблемы

2.4.3 Нейробиологические модели познания



На рубеже 1960-х годов произошла быстрая смена сферы интересов и теоретической ориентации мировой экспериментальной психологии. Термин «когнитивный» стал относиться не только к высшим познава­тельным процессам, но также к восприятию и даже моторике, мотива­ции и эмоциям. Складывается впечатление, что иногда он использует­ся, по словам голландского психолингвиста Флореса д'Аркэ, «в качестве модной этикетки, позволяющей сбыть залежалый товар» (Flores d'Arcais, 1975, p. 45). Отдельным примерам такого рода, несомненно, противостоит — особенно в лице междисциплинарной когнитивной на­уки — ведущее направление современных научных исследований пове­дения и психики человека. Это направление постоянно развивается и имеет значительное число способных и активных сторонников.

Главным достижением когнитивной психологии стало то, что она полностью восстановила прерванное бихевиоризмом почти на полвека изучение познания. После появления вычислительных машин анализ внутренних психических процессов и состояний внезапно перестал ка­заться чем-то сомнительным. Но и внутри области познавательных про­цессов оказались неожиданные пробелы. Так, на первых порах из рас­смотрения выпала проблема обучения. Дело в том, что известные до тех пор компьютеры были устройствами, которые не обучались, их возмож­ности были жестко заданы «хардвером» и программным обеспечением. Типичный компьютер последовательно оперирует дискретными симво­лами. Для него характерно отделение активного процессора от пассив­ной памяти. Процессор имеет ограниченную пропускную способность, тогда как пассивная память, напротив, является существенно более ем­кой. Те же черты стали находить и в организации когнитивной сферы человека. Потребовалось более двух десятилетий и тысячи эксперимен­тов для выявления противоречий и начала интенсивных поисков аль­тернативных архитектур. На первый план выдвинулись представления о параллельной обработке. Появились новые методы, позволяющие ре­конструировать и даже в какой-то мере «увидеть» процессы, разворачи­вающиеся в самих структурах мозга. В когнитивных исследованиях ком­пьютерная метафора в различных ее модификациях все более уступает место теориям и моделям, основанным на анализе реальных нейрофи­зиологических механизмов и их эволюционного развития.


2.1 Информационный подход

2.1.1 Кибернетика и статистическая теория связи

Решающее значение для появления когнитивной психологии имела ки­бернетическая революция в науке и технике, истоки которой, в свою очередь, связаны с развитием формальной и математической логики. В середине 19-го века Дж.С. Милль и Дж. Буль были убеждены, что их системы логики описывают законы мышления (именно так называлась вышедшая в 1858 году книга Буля, содержавшая описание двоичной ал­гебры). Отличительной чертой психологических теорий, которые ори­ентировались на эти достижения, уже тогда был более или менее отчет­ливый отказ от рассмотрения физиологических механизмов, которые, правда, в то время были еще практически неизвестны.

В 1900 году немецкий математик Давид Гильберт сформулировал ряд нерешенных в 19-м столетии проблем, часть из которых была связа­на с формальным обоснованием таких аксиоматических систем, как арифметика, геометрия, пропозициональная логика. Речь шла о полно­те, непротиворечивости и вычислимости выражений, записанных в тер­минах «языка» этих систем. Несмотря на усилия выдающихся авторов и полученные ими принципиальные результаты, заметное продвижение в решении этих проблем произошло только в 1930-е годы, благодаря ра­ботам Гёделя, Колмогорова, Поста, Чёрча и Тьюринга (см. 9.2.2). Анг­лийский логик Алан Тьюринг проанализировал проблему эффективнос­ти процедур вычисления. Идея эффективности близка лейбницевской идее алгоритма — последовательности операций, ведущих через опреде­ленное (конечное) число шагов к решению. Тьюринг показал, что любая эффективная процедура может быть реализована с помощью простого абстрактного автомата, получившего название «машины Тьюринга». Со­стояния и изменения состояний этой «машины» могут быть описаны с помощью четырех или пяти элементарных логических операций, счи­тывающих и записывающих двоичные числа в ячейки передвигаемой вперед и назад бесконечной ленты. Эта работа сделала возможной очень наглядное теоретическое обоснование функционирования вычисли­тельной техники, так как с формальной точки зрения всякое цифровое вычислительное устройство является ничем иным, как физическим воп­лощением «машины Тьюринга».

«Кибернетика» американского математика и физика Норберта Ви­нера, вышедшая в свет в 1948 году и переведенная потом на многие языки (например, Винер, 1958), зафиксировала начало новой научно-технической революции, основанной на теории управления и сервоме­ханизмов, статистической теории связи и применении программируе­мых вычислительных устройств. Как пишут А.И. Берг и Б.В. Бирюков, «Кибернетика осуществляет формализованный подход к объектам раз­личной природы — техническим, биологическим, социальным. Смысл


этого подхода состоит в том, чтобы выделить в них стороны, связанные с управлением и переработкой информации... Кибернетика влечет за со­бой изменение привычных взглядов на некоторые философские катего­рии. Например, концепция управления как перевода управляемого объекта из одного состояния в другое в соответствии с целью (задачей) управления влечет за собой определенное переосмысление телеологи­ческого... подхода. Если до кибернетики представление о цели обычно считалось неотделимым от идеализма, то теперь становится очевидным, что это понятие органически входит в число наиболее общих понятий, используемых для описания реальности» (Берг, Бирюков, 1975, с. 503).

Так была реабилитирована одна из характерных особенностей того, что Курт Левин и неопозитивисты называли «аристотелевским способом образования понятий» (см. 1.3.2). Кибернетика стала пер­вым опытом широкого синтеза научных дисциплин в 20-м веке, про-образом современной когнитивной науки. Многое в кибернетике было подготовлено работами не только математиков и физиков, но и фило­софов, физиологов, психологов1. Уже у Аристотеля можно найти пре­красный образ управления кораблем, который может вестись к цели различными способами: капитаном по звездам, местным лоцманом по береговым ориентирам и т.д. Карл Бюлер в своей книге о причинах первого кризиса психологии (Buehler, 1927) прямо называл изучение процессов управления поведением на основе психического отображе­ния (нем. Darstellung) окружения — центральной задачей этой научной дисциплины.

В более узком исследовательском контексте Кёлер (см. Metzger, 1975) дал анализ фиксационных движений глаз в терминах работы ме­ханизма с отрицательной обратной связью (англ. feedback). Примерно та же самая задача удержания прицела на движущемся объекте интересо­вала и Винера, который занимался созданием вычислительной маши­ны для управления зенитным огнем. Важно отметить, что в случае сис­тем с обратной связью, особенно если эти системы включают несколько уровней организации, теряет свою объяснительную силу столь важное в механике и в науках о неживой природе понятие линейных причин-

1 Ближайшим сотрудником Винера и его соавтором по статье «Поведение, целена­
правленность и телеология» (Винер, 1958) был физиолог Розенблют. Разработка идеи це­
ленаправленности была дана ранее такими физиологами, как П.К. Анохин, H.A. Берн-
штейн, В.ф. Вайцекер и Э.ф. Хольст. В последнее время нейрофизиология вновь стано­
вится источником идей для всего комплекса когнитивных исследований (см. 2.4.3 и 9.1.1 ).
При этом происходит поиск понятий, которые могли бы лучше выразить сложность изу­
чаемых систем, чем ставшие привычными понятия кибернетики. Так, по предложению
американского биолога Дж. Эдельмана (Нобелевская премия 1972 года за работы по им­
мунологии) в когнитивной науке начинает использоваться понятие «повторного ввода»
(англ. re-entry), близкое понятию «обратная связь», но подчеркивающее значение само­
организации
нейронных систем живого, частично осознающего себя организма (напри-
94 мер, Edelman, 1985).


но-следственных связей. На место этого понятия выдвигается представ­ление о круговой причинности. Например, в физиологических исследо­ваниях картезианское понятие рефлекторной дуги было еще в 1930-е годы, то есть в период доминирования основанных на схемах «стимул-реакция» бихевиористских концепций и до официального появления кибернетики, заменено представлением о рефлекторном кольце, причем произошло это практически одновременно на Востоке (H.A. Бернш-тейн) и на Западе (Виктор фон Вайцекер). Так яблоки, по словам Гёте, одновременно падают осенью в разных садах.

Начиная с 1942 года в США стали практически регулярно происхо­дить встречи, в которых участвовали ведущие кибернетики, лингвисты, физиологи и психологи. Междисциплинарные конференции и семина­ры, на которых закладывалась основа для совместных исследований, в духе последующей когнитивной науки, участились с окончанием войны и в других странах, в частности, в Советском Союзе. В 1950-е годы по­явились возможности и для прямых международных контактов разроз­ненных до того времени национальных групп. Из многочисленных дос­тижений и нововведений кибернетики в психологию проникли первоначально, пожалуй, только положения статистической теории связи, изложенной в доступной для психологов форме Шенноном и Уивером (Shannon & Weaver, 1949). Эта теория — она стала известна по­том как теория информации — предлагала простой формальный аппарат для оценки количества информации, содержащейся в том или ином со­общении.

Количество информации Н, передаваемое сообщением о реализации одного из N равновероятных событии, определяется по формуле:



 


Количество информации измеряется, таким образом, в двоичных ло­гарифмических единицах, или битах. Передача количества информации, равного одному биту, позволяет уменьшить неопределенность ситуации вдвое, двух битов — вчетверо и т.д. Множество всех возможных событий, естественно, заранее должно быть известно на принимающей стороне. Приведенная выше формула описывет максимально возможное количе­ство информации, достигаемое в случае, когда система событий совер­шенно случайна. Если система событий структурирована, так что разные события возникают с различной вероятностью/>, то среднее количество информации для множества из N событий определяется несколько бо­лее сложной формулой:



 


 


Именно эта информация Я при продолжительном предъявлении сиг­налов определяет нагрузку на канал связи. Разница между максимально




возможным и фактическим количеством информации определяет далее так называемую избыточность системы событий. Избыточность являет­ся ничем иным, как мерой организации такой системы, степени ее отли­чия от совершенно случайного, хаотичного состояния. Важным источ­ником избыточности в канале связи являются, наряду с абсолютной вероятностью возникновения событий, условные вероятности следова­ния события друг за другом. Так, поскольку появление, а главное, сле­дование отдельных фонем друг за другом в звуках человеческой речи да­леко не равновероятны, общая избыточность системы фонем (или же букв при письме и чтении) естественных языков оказывается довольно большой, примерно равной 70%.

С инженерной точки зрения, можно говорить далее о различной сте­пени оптимальности процессов кодирования информации. Оптималь­ным является такое кодирование событий, например в виде последова­тельностей двоичных символов «0» и «1», при котором более вероятные события будут представлены, более короткими цепочками символов. Интересно, что соответствующая эмпирическая зависимость — чем ча­стотнее слово в языке, тем оно короче — действительно известна в лингвистике, где она называется «вторым законом Ципфа». При опти­мальном кодировании канал связи, имеющий пропускную способность С бит/с, будет передавать С/Н двоичных символов в секунду. Если ко­дирование не оптимально, то фактическая скорость передачи инфор­мации уменьшится. Она в принципе никогда не может превзойти про­пускную способность канала С, а тем более стать бесконечной (Яглом, Яглом, 1973).

Первой претеоретической метафорой будущей когнитивной пси­хологии стало, таким образом, понимание человека как канала связи с ограниченной пропускной способностью. Это понимание буквально совпадало с тем специфическим аспектом рассмотрения возможностей человека, который был характерен для проводившихся еще в годы Вто­рой мировой войны инженерно-психологических исследований. По­скольку экстремальные условия войны и начавшегося сразу после нее военно-индустриального соревнования Востока и Запада вновь и вновь обнаруживали специфические слабости человеческого звена в системе человек—машина, необходим был единый язык описания ограничений как техники, так и самого человека-оператора. Теория информации была воспринята многими психологами и инженерами как своего рода лапласовская «мировая формула» (см. 1.1.2), позволяющая единообраз­но описать возможности не только технических звеньев человеко-ма­шинных систем, но и большое количество собственно психологических феноменов.


2.1.2 Инженерная психология и ее эволюция

В силу их значительного и продолжающегося влияния на когнитивный подход, нам следует хотя бы кратко остановиться здесь на особенностях и эволюции исследований «человеческого фактора» {human factor engineering), получивших в Западной Европе и СССР название инженер­ной психологии. Появление этой области исследований было вызвано це­лым рядом случаев отказа человеко-машинных систем, произошедших по вине человека. Один из наиболее драматических, хотя и малоизвест­ных эпизодов случился в декабре 1941 года на американской военно-морской базе Перл-Харбор, когда инженеры, обслуживавшие один из первых образцов только что поступивших на вооружение радиолокато­ров, отчетливо увидели на экране отраженные от приближающихся японских самолетов сигналы, но просто не поверили, что такое количе­ство сигналов возможно, и решили отправить аппаратуру на ремонт вме­сто того, чтобы сообщить в штаб флота о возможном нападении.

Потребовалось целое десятилетие, чтобы научиться аккуратно опи­сывать подобные ситуации. Для этого инженерными психологами наря­ду с теорией информации стала использоваться заимствованная из ра­диотехники и психофизики теория обнаружения сигнала (Wald, 1950). Благодаря ряду допущений, эта теория позволила описать работу опера­тора в задачах на обнаружение с помощью всего лишь двух параметров: чувствительности (а") и критерия (β). Если первый параметр описывает сенсорные возможности различения сигнала на фоне шума, то второй, как мы сказали бы сегодня, связан именно с когнитивными переменны­ми: представлением о вероятности появления сигнала, а также оценкой относительной «цены» последствий двух возможных и неизбежных в си­туации обнаружения ошибок — пропуска сигнала и ложных тревог. На ос­новании этих когнитивных переменных формируется готовность опера­тора при прочих равных условиях подтверждать наличие сигнала (низкий, или либеральный критерий) либо воздерживаться от такого под­тверждения (высокий, или консервативный критерий). С формальной точки зрения, именно завышенное положение критерия помешало опе­раторам в Перл-Харборе подтвердить приближение воздушных целей.

На рис. 2.1 показаны два идеализированных примера ситуации обна­
ружения сигнала для простейшего случая, при котором появление сигна­
ла не меняет разброса значений распределения шума, а просто сдвигает
это распределение вправо по оси величин регистрируемой в сенсорных
каналах активности. Распределение шума (аналог спонтанной сенсорной
активности) предполагается нормальным и стандартным, так что его сред­
нее равно нулю, а стандартное отклонение — единице. Верхний график
описывает ситуацию обнаружения слабого сигнала, сдвигающего рас­
пределение шума лишь на 0,5 его стандартного отклонения. Величина 0,5
и есть значение параметра чувствительности, обычно обозначаемого как
d' (произносится «дэ штрих»). Нижний график иллюстрирует обнаруже- „_


Ρ =2,0 сигнал и шум

шум

β = 0,0 нет да


-2,0 -1,5 -1,0 -0,5 0 0,5 1,0 1,5 2,0

d" сенсорное возбуждение



 


-2,0 -1,5 -1,0 -0,5 0 0,5 1,0 1,5 2,0

а' сенсорное возбуждение

Рис. 2.1. Примеры использования аппарата теории обнаружения сигнала для описания ситуаций обнаружения слабого (А) и сильного (Б) сигналов на фоне шума.



ние более мощного сигнала. Расстояние между распределениями и, сле­довательно, чувствительность здесь больше: d' = 1,5. На обоих графиках также приведены по два возможных значения параметра критерия выбо­ра ответа, β («бета»). Оператор, принимающий более низкий из этих двух критериев (β = 0,0), будет сообщать о появлении сигнала всякий раз, когда величина сенсорной активности превышает среднее для рас­пределения шума значение. Критерий β = 2,0 означает, что о присут­ствии сигнала будет сообщаться, если величина сенсорной активности превысит два стандартных отклонения распределения шума.


Лейтмотивом множества исследований, проведенных с использо­ванием аппарата теории обнаружения сигнала, стало представление о субоптимальности решений человека в ситуациях обнаружения. Особен­но проблематичным оказалось постепенное ухудшение результатов об­наружения с увеличением времени наблюдения. Это ухудшение обычно состоит в ужесточении критерия принятия решений, что ведет к умень­шению числа ложных тревог, но чревато также и все более вероятными ошибками пропуска сигнала. Особенно яркими примерами этого яви­лись сбои в обнаружении воздушных целей при охране наиболее важных государственных объектов системами противовоздушной обороны (ПВО) СССР и США в 1980-е годы. Так, в 1987 году немецкий летчик-любитель Маттиас Руст пересек со стороны Финляндии советскую гра­ницу, незамеченным долетел до Москвы и приземлился на Красной пло­щади. Некоторое время спустя похожий инцидент произошел и в США, где недовольный налоговой политикой правительства фермер, захватив охотничье ружье, беспрепятственно долетел до центра Вашингтона, но разбился при попытке посадить свой самолет в саду Белого Дома. В обо­их случаях операторы ПВО были «обезоружены» многолетним ожидани­ем вражеского нападения: стремясь избежать ложных тревог, они посте­пенно ужесточали критерии и в конце концов практически перестали замечать потенциально опасные цели.

О субоптимальности работы человека-оператора также говорили данные, собранные на основе экспертных оценок и представляемые в инженерной психологии в виде так называемых «МАВА—МAВА таблиц». Эти таблицы сравнивают между собой области деятельности и отдельные задачи, в которых человек оказывается лучше машины (Men-are-better-at) или, напротив, машина лучше человека (Machines-are-better-at). Так, зада­чи по обнаружению сигнала в силу колебаний внимания и отмеченной тенденции к завышению критерия принятия решений человеком лучше было бы доверить машине. С другой стороны, запоминание больших мас­сивов информации и узнавание изображений первоначально считалось одной из областей, в которых человек был эффективнее машины. Разуме­ется, по мере развития компьютерных технологий количество таких обла­стей стало постепенно сокращаться. Лишь наиболее сложные задачи, тре­бующие глобальной оценки ситуации и выработки новых решений, причем часто на основании неполной информации, пока что прочно ос­таются в компетентности человека2.

2 Качество принимаемых человеком решений резко снижается в условиях стресса,
вызываемого в первую очередь недостатком времени. Поэтому, например, в современной
ядерной энергетике предпринимаются специальные меры для того, чтобы в течение 10—
20 минут фиксировать развитие событий, не давая человеку возможности реализовать
слишком поспешные решения. Подобные задержки «на обдумывание», к сожалению,
невозможны в работе летчика или водителя, где действовать часто приходится в интерва­
лах времени порядка долей секунды (за 1 секунду автомобиль, движущийся со скоростью
60 км/час, проезжает около 17м). 99


К компетенции человека продолжают и, безусловно, будут продолжать относиться задачи по принятию решения в условиях многокатегориально­го выбора. В отличие от рассмотренной задачи обнаружения сигнала, где основания для решения могут быть представлены в виде одной-един-ственной переменной, в подобных задачах существует несколько каче­ственно различных систем критериев и несколько (обычно более двух) альтернативных решений. Специфически человеческим звеном здесь яв­ляется прежде всего оценка относительной важности (весовых коэффици­ентов) различных критериев. Такая оценка всегда довольно субъективна и не может быть сведена к одному критерию, даже такому существенно­му, как критерий стоимости. Например, если речь идет о выборе проекта нового предприятия, то наряду с критерием стоимости строительства (возможно, в сочетании с ожидаемыми доходами — критерий cost/ benefit) важную роль в том или ином контексте могут играть также и другие кри­терии, такие как критерии престижности или экологической безопаснос­ти. Сравнительную оценку важности критериев в каждом конкретном случае может дать только лицо (группа лиц), принимающее решение.

Помимо самой оценки специфическая сложность задач многокрите­риального выбора состоит в том, что «при их рассмотрении все доводы "за" и "против" не присутствуют в уме одновременно; иногда присут­ствует одна часть, в другое время — иная, причем первая исчезает из вида. Следовательно, различные цели или склонности по очереди берут "верх" и появляется неопределенность, которая озадачивает и мучает нас»3. В качестве простейшей исчерпывающей процедуры получения ве­совых коэффициентов отдельных критериев и их агрегации в общую оценку альтернатив в литературе по методам поддержки принятия реше­ний (Ларичев, 2002) рекомендуется следующая последовательность шагов:

1. Упорядочить критерии по важности.

2. Присвоить наиболее важному критерию оценку 100 баллов и, ис­
ходя из попарного отношения критериев по важности, дать в бал­
лах оценку каждому из них.

3. Сложить полученные баллы, а затем произвести нормировку кри­
териев (вычислить их весовые коэффициенты), разделив присво­
енные баллы на сумму весов.

4. Оценить значение каждой альтернативы по каждому из критери­
ев в отдельности по шкале от 0 до 100 баллов.

5. Определить общую оценку каждой альтернативы, используя фор­
мулу взвешенной суммы баллов (то есть просуммировать оценки
данной альтернативы по всем критерием с учетом весовых коэф­
фициентов последних).

3 Эта цитата взята из письма Бенджамина Франклина, датированного сентябрем 1772 года. Франклин рекомендует далее записывать аргументы «за» и «против» на левой и пра­вой стороне листа: «Когда я имею все это в поле зрения, я пытаюсь оценить их веса; если я найду два, каждый на другой стороне, которые кажутся мне равными, я их вычеркну... Если я считаю, что некоторые два довода "за" равны трем доводам "против", я вычеркиваю все пять; продолжая таким образом, я нахожу со временем, где находится баланс». Эти сообра­жения можно считать эскизом современных компьютерных программ, поддерживающих процессы принятия решений (см. 8.4.2). Проблемы данной области связаны с нетранзи­тивным и нелинейным характером человеческих предпочтений, накладывающим ограни-100 чения на математические операции с балльными оценками (см. Ларичев, 2002).


6. Выбрать в качестве лучшей альтернативу, получившую наиболь­шую общую оценку.

Развернувшиеся во второй половине 20-го века работы по автома­тизации отдельных функций и областей деятельности человека в целом проходили под лозунгом его освобождения от тяжелых и несвойствен­ных ему сенсомоторных задач. Предполагалось, что за человеком-опе­ратором постепенно останутся только функции когнитивного контроля за работой технических систем. С развитием информатики, электрони­ки и когнитивных исследований стали создаваться системы относитель­но полного технического контроля и исполнения действий (такие как Flight Management Systems, используемые в военной и гражданской авиа­ции для автоматического управления основными режимами полета). Постоянное увеличение степени сложности техники требовало от чело­века-пользователя сопоставимых, все более серьезных усилий по обуче­нию и пониманию работы систем. Одновременно, из-за технических и финансовых ограничений автоматизации часто подвергались относи­тельно изолированные фрагменты деятельности.

Результаты подобной фрагментарной замены человека компьютер­ными системами часто оказывались неудовлетворительными. В этих по­луавтоматизированных системах скорее сам человек оказался под конт­ролем автоматов, чем наоборот. Известный отечественный инженерный психолог Б.Ф. Ломов (например, Ломов, 1966) еще в начале 1960-х годов предупреждал об опасности такого развития, выдвинув вместе со своими коллегами принцип «активного оператора». Главным недостатком, или, по словам современной английской исследовательницы Лизанн Бэйнб-ридж, иронией автоматизации стало сегодня то, что оператору или, на­пример, летчику временами приходится действовать в еще более экстре­мальном диапазоне нагрузок, чем прежде. Относительно легкие задачи упростились за счет их автоматизации, тогда как трудные задачи стали более сложными в силу усложнения самих человеко-машинных систем, а также из-за того, что решать их приходится внезапно и из состояния недонагрузки. При внезапных повышенных нагрузках в условиях жестких временных ограничений возникает состояние острого стресса, меняющее протекание практически всех познавательных процессов. Стресс, в част­ности, ведет к эффекту так называемого туннельного зрения — резкому ог­раничению размеров функционального поля зрения и фиксации внима­ния на отдельных деталях, а не на сцене в целом (см. 4.2.2 и 9.4.3).

Центральной проблемой сегодня становится выравнивание этого дисбаланса, то есть избирательная поддержка (вплоть до полной замены4)

4 Речь идет о временной передаче управления автоматам. Примером могут служить
современные системы предотвращения столкновения с земной поверхностью (GCAS
Ground Collision Avoidance System), используемые в военной авиации. Эти системы оцени­
вают параметры движения самолета и с учетом рельефа местности, а также времени реак­
ции пилота автоматически уводят самолет в случае необходимости из опасной зоны. 101


человека в тех случаях, когда он находится на пределе своих возможно­стей, и, напротив, эпизодическая передача ему дополнительных функ­ций (например, ручного управления самолетом) в периоды потенциаль­но опасной недонагрузки. В результате возникает новая задача адаптивной автоматизации. Она предполагает психологический мони­торинг функционального состояния человека с текущей оценкой степе­ни и характера его внимания, содержаний восприятия, понимания ак­туальной ситуации (или «осознания ситуации» situation awareness) и, насколько возможно, также непосредственных намерений. Хотя в об­щем виде эта задача еще очень долго не будет иметь решения, ее част­ные решения, похоже, возможны; они опираются на результаты при­кладных когнитивных исследований и также обсуждаются на страницах этой книги (см. 3.4.2 и 7.4.3).

Инженерную психологию всегда интересовала задача нахождения некоторого единого языка для описания работы человека и функциони­рования технических систем. Наиболее подходящим языком такого описания вначале считалась теория информации. С накоплением опро­вергающих это мнение данных (см. 2.1.3), а затем и с возникновением задачи адаптивной автоматизации стали меняться акценты, так что иногда сами машины стали описываться в антропоморфных терминах как продукты (артефакты) деятельности человека. Так, датчанин Йене Расмуссен (Rasmussen, 1986) предложил рассматривать все компоненты человеко-машинных систем в контексте трех, известных из теории дея­тельности вопросов: «для чего?», «что?» и «как?» (см. 1.4.3). Им же была предложена трехуровневая модель операторской деятельности, в кото­рой на самом низком уровне поведение находится под контролем авто­матизированных навыков, на втором — хранящихся в памяти правил и на третьем — знаний о ситуации. Данная модель используется прежде всего для классификации ошибок оператора. В зависимости от уровня воз­никновения такие ошибки влекут за собой разную степень ответствен­ности. Например, авиадиспетчер может просто перепутать похожие ко­манды (неудачно расположенные рядом кнопки) или же, подумав, сознательно направить два самолета на одну и ту же посадочную полосу (см. 9.1.3).








Дата добавления: 2016-06-13; просмотров: 515;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.021 сек.