ТРАНСФОРМАЦИЯ ПОДХОДОВ 1 страница
Структура главы:
2.1 Информационный подход
2.1.1 Кибернетика и статистическая теория связи
2.1.2 Инженерная психология и ее эволюция
2.1.3 Поиски ограничений пропускной способности
2.2 Компьютерная метафора
2.2.1 Ментальные модели и аналогия с компьютером
2.2.2 «Когнитивная психология» Улрика Найссера
2.2.3 Принципы символьного подхода
2.3 Модулярность познания и коннекционизм
2.3.1 Идея специализации обработки
2.3.2 Гипотеза модулярности: вклад Джерри Фодора
2.3.3 Нейронные сети в психологии
2.4 Усиливающееся влияние нейронаук
2.4.1 Интерес к нейропсихологическим данным
2.4.2 Новые методы и старые проблемы
2.4.3 Нейробиологические модели познания
На рубеже 1960-х годов произошла быстрая смена сферы интересов и теоретической ориентации мировой экспериментальной психологии. Термин «когнитивный» стал относиться не только к высшим познавательным процессам, но также к восприятию и даже моторике, мотивации и эмоциям. Складывается впечатление, что иногда он используется, по словам голландского психолингвиста Флореса д'Аркэ, «в качестве модной этикетки, позволяющей сбыть залежалый товар» (Flores d'Arcais, 1975, p. 45). Отдельным примерам такого рода, несомненно, противостоит — особенно в лице междисциплинарной когнитивной науки — ведущее направление современных научных исследований поведения и психики человека. Это направление постоянно развивается и имеет значительное число способных и активных сторонников.
Главным достижением когнитивной психологии стало то, что она полностью восстановила прерванное бихевиоризмом почти на полвека изучение познания. После появления вычислительных машин анализ внутренних психических процессов и состояний внезапно перестал казаться чем-то сомнительным. Но и внутри области познавательных процессов оказались неожиданные пробелы. Так, на первых порах из рассмотрения выпала проблема обучения. Дело в том, что известные до тех пор компьютеры были устройствами, которые не обучались, их возможности были жестко заданы «хардвером» и программным обеспечением. Типичный компьютер последовательно оперирует дискретными символами. Для него характерно отделение активного процессора от пассивной памяти. Процессор имеет ограниченную пропускную способность, тогда как пассивная память, напротив, является существенно более емкой. Те же черты стали находить и в организации когнитивной сферы человека. Потребовалось более двух десятилетий и тысячи экспериментов для выявления противоречий и начала интенсивных поисков альтернативных архитектур. На первый план выдвинулись представления о параллельной обработке. Появились новые методы, позволяющие реконструировать и даже в какой-то мере «увидеть» процессы, разворачивающиеся в самих структурах мозга. В когнитивных исследованиях компьютерная метафора в различных ее модификациях все более уступает место теориям и моделям, основанным на анализе реальных нейрофизиологических механизмов и их эволюционного развития.
2.1 Информационный подход
2.1.1 Кибернетика и статистическая теория связи
Решающее значение для появления когнитивной психологии имела кибернетическая революция в науке и технике, истоки которой, в свою очередь, связаны с развитием формальной и математической логики. В середине 19-го века Дж.С. Милль и Дж. Буль были убеждены, что их системы логики описывают законы мышления (именно так называлась вышедшая в 1858 году книга Буля, содержавшая описание двоичной алгебры). Отличительной чертой психологических теорий, которые ориентировались на эти достижения, уже тогда был более или менее отчетливый отказ от рассмотрения физиологических механизмов, которые, правда, в то время были еще практически неизвестны.
В 1900 году немецкий математик Давид Гильберт сформулировал ряд нерешенных в 19-м столетии проблем, часть из которых была связана с формальным обоснованием таких аксиоматических систем, как арифметика, геометрия, пропозициональная логика. Речь шла о полноте, непротиворечивости и вычислимости выражений, записанных в терминах «языка» этих систем. Несмотря на усилия выдающихся авторов и полученные ими принципиальные результаты, заметное продвижение в решении этих проблем произошло только в 1930-е годы, благодаря работам Гёделя, Колмогорова, Поста, Чёрча и Тьюринга (см. 9.2.2). Английский логик Алан Тьюринг проанализировал проблему эффективности процедур вычисления. Идея эффективности близка лейбницевской идее алгоритма — последовательности операций, ведущих через определенное (конечное) число шагов к решению. Тьюринг показал, что любая эффективная процедура может быть реализована с помощью простого абстрактного автомата, получившего название «машины Тьюринга». Состояния и изменения состояний этой «машины» могут быть описаны с помощью четырех или пяти элементарных логических операций, считывающих и записывающих двоичные числа в ячейки передвигаемой вперед и назад бесконечной ленты. Эта работа сделала возможной очень наглядное теоретическое обоснование функционирования вычислительной техники, так как с формальной точки зрения всякое цифровое вычислительное устройство является ничем иным, как физическим воплощением «машины Тьюринга».
«Кибернетика» американского математика и физика Норберта Винера, вышедшая в свет в 1948 году и переведенная потом на многие языки (например, Винер, 1958), зафиксировала начало новой научно-технической революции, основанной на теории управления и сервомеханизмов, статистической теории связи и применении программируемых вычислительных устройств. Как пишут А.И. Берг и Б.В. Бирюков, «Кибернетика осуществляет формализованный подход к объектам различной природы — техническим, биологическим, социальным. Смысл
этого подхода состоит в том, чтобы выделить в них стороны, связанные с управлением и переработкой информации... Кибернетика влечет за собой изменение привычных взглядов на некоторые философские категории. Например, концепция управления как перевода управляемого объекта из одного состояния в другое в соответствии с целью (задачей) управления влечет за собой определенное переосмысление телеологического... подхода. Если до кибернетики представление о цели обычно считалось неотделимым от идеализма, то теперь становится очевидным, что это понятие органически входит в число наиболее общих понятий, используемых для описания реальности» (Берг, Бирюков, 1975, с. 503).
Так была реабилитирована одна из характерных особенностей того, что Курт Левин и неопозитивисты называли «аристотелевским способом образования понятий» (см. 1.3.2). Кибернетика стала первым опытом широкого синтеза научных дисциплин в 20-м веке, про-образом современной когнитивной науки. Многое в кибернетике было подготовлено работами не только математиков и физиков, но и философов, физиологов, психологов1. Уже у Аристотеля можно найти прекрасный образ управления кораблем, который может вестись к цели различными способами: капитаном по звездам, местным лоцманом по береговым ориентирам и т.д. Карл Бюлер в своей книге о причинах первого кризиса психологии (Buehler, 1927) прямо называл изучение процессов управления поведением на основе психического отображения (нем. Darstellung) окружения — центральной задачей этой научной дисциплины.
В более узком исследовательском контексте Кёлер (см. Metzger, 1975) дал анализ фиксационных движений глаз в терминах работы механизма с отрицательной обратной связью (англ. feedback). Примерно та же самая задача удержания прицела на движущемся объекте интересовала и Винера, который занимался созданием вычислительной машины для управления зенитным огнем. Важно отметить, что в случае систем с обратной связью, особенно если эти системы включают несколько уровней организации, теряет свою объяснительную силу столь важное в механике и в науках о неживой природе понятие линейных причин-
1 Ближайшим сотрудником Винера и его соавтором по статье «Поведение, целена
правленность и телеология» (Винер, 1958) был физиолог Розенблют. Разработка идеи це
ленаправленности была дана ранее такими физиологами, как П.К. Анохин, H.A. Берн-
штейн, В.ф. Вайцекер и Э.ф. Хольст. В последнее время нейрофизиология вновь стано
вится источником идей для всего комплекса когнитивных исследований (см. 2.4.3 и 9.1.1 ).
При этом происходит поиск понятий, которые могли бы лучше выразить сложность изу
чаемых систем, чем ставшие привычными понятия кибернетики. Так, по предложению
американского биолога Дж. Эдельмана (Нобелевская премия 1972 года за работы по им
мунологии) в когнитивной науке начинает использоваться понятие «повторного ввода»
(англ. re-entry), близкое понятию «обратная связь», но подчеркивающее значение само
организации нейронных систем живого, частично осознающего себя организма (напри-
94 мер, Edelman, 1985).
но-следственных связей. На место этого понятия выдвигается представление о круговой причинности. Например, в физиологических исследованиях картезианское понятие рефлекторной дуги было еще в 1930-е годы, то есть в период доминирования основанных на схемах «стимул-реакция» бихевиористских концепций и до официального появления кибернетики, заменено представлением о рефлекторном кольце, причем произошло это практически одновременно на Востоке (H.A. Бернш-тейн) и на Западе (Виктор фон Вайцекер). Так яблоки, по словам Гёте, одновременно падают осенью в разных садах.
Начиная с 1942 года в США стали практически регулярно происходить встречи, в которых участвовали ведущие кибернетики, лингвисты, физиологи и психологи. Междисциплинарные конференции и семинары, на которых закладывалась основа для совместных исследований, в духе последующей когнитивной науки, участились с окончанием войны и в других странах, в частности, в Советском Союзе. В 1950-е годы появились возможности и для прямых международных контактов разрозненных до того времени национальных групп. Из многочисленных достижений и нововведений кибернетики в психологию проникли первоначально, пожалуй, только положения статистической теории связи, изложенной в доступной для психологов форме Шенноном и Уивером (Shannon & Weaver, 1949). Эта теория — она стала известна потом как теория информации — предлагала простой формальный аппарат для оценки количества информации, содержащейся в том или ином сообщении.
Количество информации Н, передаваемое сообщением о реализации одного из N равновероятных событии, определяется по формуле:
Количество информации измеряется, таким образом, в двоичных логарифмических единицах, или битах. Передача количества информации, равного одному биту, позволяет уменьшить неопределенность ситуации вдвое, двух битов — вчетверо и т.д. Множество всех возможных событий, естественно, заранее должно быть известно на принимающей стороне. Приведенная выше формула описывет максимально возможное количество информации, достигаемое в случае, когда система событий совершенно случайна. Если система событий структурирована, так что разные события возникают с различной вероятностью/>, то среднее количество информации для множества из N событий определяется несколько более сложной формулой:
Именно эта информация Я при продолжительном предъявлении сигналов определяет нагрузку на канал связи. Разница между максимально
возможным и фактическим количеством информации определяет далее так называемую избыточность системы событий. Избыточность является ничем иным, как мерой организации такой системы, степени ее отличия от совершенно случайного, хаотичного состояния. Важным источником избыточности в канале связи являются, наряду с абсолютной вероятностью возникновения событий, условные вероятности следования события друг за другом. Так, поскольку появление, а главное, следование отдельных фонем друг за другом в звуках человеческой речи далеко не равновероятны, общая избыточность системы фонем (или же букв при письме и чтении) естественных языков оказывается довольно большой, примерно равной 70%.
С инженерной точки зрения, можно говорить далее о различной степени оптимальности процессов кодирования информации. Оптимальным является такое кодирование событий, например в виде последовательностей двоичных символов «0» и «1», при котором более вероятные события будут представлены, более короткими цепочками символов. Интересно, что соответствующая эмпирическая зависимость — чем частотнее слово в языке, тем оно короче — действительно известна в лингвистике, где она называется «вторым законом Ципфа». При оптимальном кодировании канал связи, имеющий пропускную способность С бит/с, будет передавать С/Н двоичных символов в секунду. Если кодирование не оптимально, то фактическая скорость передачи информации уменьшится. Она в принципе никогда не может превзойти пропускную способность канала С, а тем более стать бесконечной (Яглом, Яглом, 1973).
Первой претеоретической метафорой будущей когнитивной психологии стало, таким образом, понимание человека как канала связи с ограниченной пропускной способностью. Это понимание буквально совпадало с тем специфическим аспектом рассмотрения возможностей человека, который был характерен для проводившихся еще в годы Второй мировой войны инженерно-психологических исследований. Поскольку экстремальные условия войны и начавшегося сразу после нее военно-индустриального соревнования Востока и Запада вновь и вновь обнаруживали специфические слабости человеческого звена в системе человек—машина, необходим был единый язык описания ограничений как техники, так и самого человека-оператора. Теория информации была воспринята многими психологами и инженерами как своего рода лапласовская «мировая формула» (см. 1.1.2), позволяющая единообразно описать возможности не только технических звеньев человеко-машинных систем, но и большое количество собственно психологических феноменов.
2.1.2 Инженерная психология и ее эволюция
В силу их значительного и продолжающегося влияния на когнитивный подход, нам следует хотя бы кратко остановиться здесь на особенностях и эволюции исследований «человеческого фактора» {human factor engineering), получивших в Западной Европе и СССР название инженерной психологии. Появление этой области исследований было вызвано целым рядом случаев отказа человеко-машинных систем, произошедших по вине человека. Один из наиболее драматических, хотя и малоизвестных эпизодов случился в декабре 1941 года на американской военно-морской базе Перл-Харбор, когда инженеры, обслуживавшие один из первых образцов только что поступивших на вооружение радиолокаторов, отчетливо увидели на экране отраженные от приближающихся японских самолетов сигналы, но просто не поверили, что такое количество сигналов возможно, и решили отправить аппаратуру на ремонт вместо того, чтобы сообщить в штаб флота о возможном нападении.
Потребовалось целое десятилетие, чтобы научиться аккуратно описывать подобные ситуации. Для этого инженерными психологами наряду с теорией информации стала использоваться заимствованная из радиотехники и психофизики теория обнаружения сигнала (Wald, 1950). Благодаря ряду допущений, эта теория позволила описать работу оператора в задачах на обнаружение с помощью всего лишь двух параметров: чувствительности (а") и критерия (β). Если первый параметр описывает сенсорные возможности различения сигнала на фоне шума, то второй, как мы сказали бы сегодня, связан именно с когнитивными переменными: представлением о вероятности появления сигнала, а также оценкой относительной «цены» последствий двух возможных и неизбежных в ситуации обнаружения ошибок — пропуска сигнала и ложных тревог. На основании этих когнитивных переменных формируется готовность оператора при прочих равных условиях подтверждать наличие сигнала (низкий, или либеральный критерий) либо воздерживаться от такого подтверждения (высокий, или консервативный критерий). С формальной точки зрения, именно завышенное положение критерия помешало операторам в Перл-Харборе подтвердить приближение воздушных целей.
На рис. 2.1 показаны два идеализированных примера ситуации обна
ружения сигнала для простейшего случая, при котором появление сигна
ла не меняет разброса значений распределения шума, а просто сдвигает
это распределение вправо по оси величин регистрируемой в сенсорных
каналах активности. Распределение шума (аналог спонтанной сенсорной
активности) предполагается нормальным и стандартным, так что его сред
нее равно нулю, а стандартное отклонение — единице. Верхний график
описывает ситуацию обнаружения слабого сигнала, сдвигающего рас
пределение шума лишь на 0,5 его стандартного отклонения. Величина 0,5
и есть значение параметра чувствительности, обычно обозначаемого как
d' (произносится «дэ штрих»). Нижний график иллюстрирует обнаруже- „_
Ρ =2,0 сигнал и шум |
шум |
β = 0,0 нет да
-2,0 -1,5 -1,0 -0,5 0 0,5 1,0 1,5 2,0
d" сенсорное возбуждение
-2,0 -1,5 -1,0 -0,5 0 0,5 1,0 1,5 2,0
а' сенсорное возбуждение
Рис. 2.1. Примеры использования аппарата теории обнаружения сигнала для описания ситуаций обнаружения слабого (А) и сильного (Б) сигналов на фоне шума.
ние более мощного сигнала. Расстояние между распределениями и, следовательно, чувствительность здесь больше: d' = 1,5. На обоих графиках также приведены по два возможных значения параметра критерия выбора ответа, β («бета»). Оператор, принимающий более низкий из этих двух критериев (β = 0,0), будет сообщать о появлении сигнала всякий раз, когда величина сенсорной активности превышает среднее для распределения шума значение. Критерий β = 2,0 означает, что о присутствии сигнала будет сообщаться, если величина сенсорной активности превысит два стандартных отклонения распределения шума.
Лейтмотивом множества исследований, проведенных с использованием аппарата теории обнаружения сигнала, стало представление о субоптимальности решений человека в ситуациях обнаружения. Особенно проблематичным оказалось постепенное ухудшение результатов обнаружения с увеличением времени наблюдения. Это ухудшение обычно состоит в ужесточении критерия принятия решений, что ведет к уменьшению числа ложных тревог, но чревато также и все более вероятными ошибками пропуска сигнала. Особенно яркими примерами этого явились сбои в обнаружении воздушных целей при охране наиболее важных государственных объектов системами противовоздушной обороны (ПВО) СССР и США в 1980-е годы. Так, в 1987 году немецкий летчик-любитель Маттиас Руст пересек со стороны Финляндии советскую границу, незамеченным долетел до Москвы и приземлился на Красной площади. Некоторое время спустя похожий инцидент произошел и в США, где недовольный налоговой политикой правительства фермер, захватив охотничье ружье, беспрепятственно долетел до центра Вашингтона, но разбился при попытке посадить свой самолет в саду Белого Дома. В обоих случаях операторы ПВО были «обезоружены» многолетним ожиданием вражеского нападения: стремясь избежать ложных тревог, они постепенно ужесточали критерии и в конце концов практически перестали замечать потенциально опасные цели.
О субоптимальности работы человека-оператора также говорили данные, собранные на основе экспертных оценок и представляемые в инженерной психологии в виде так называемых «МАВА—МAВА таблиц». Эти таблицы сравнивают между собой области деятельности и отдельные задачи, в которых человек оказывается лучше машины (Men-are-better-at) или, напротив, машина лучше человека (Machines-are-better-at). Так, задачи по обнаружению сигнала в силу колебаний внимания и отмеченной тенденции к завышению критерия принятия решений человеком лучше было бы доверить машине. С другой стороны, запоминание больших массивов информации и узнавание изображений первоначально считалось одной из областей, в которых человек был эффективнее машины. Разумеется, по мере развития компьютерных технологий количество таких областей стало постепенно сокращаться. Лишь наиболее сложные задачи, требующие глобальной оценки ситуации и выработки новых решений, причем часто на основании неполной информации, пока что прочно остаются в компетентности человека2.
2 Качество принимаемых человеком решений резко снижается в условиях стресса,
вызываемого в первую очередь недостатком времени. Поэтому, например, в современной
ядерной энергетике предпринимаются специальные меры для того, чтобы в течение 10—
20 минут фиксировать развитие событий, не давая человеку возможности реализовать
слишком поспешные решения. Подобные задержки «на обдумывание», к сожалению,
невозможны в работе летчика или водителя, где действовать часто приходится в интерва
лах времени порядка долей секунды (за 1 секунду автомобиль, движущийся со скоростью
60 км/час, проезжает около 17м). 99
К компетенции человека продолжают и, безусловно, будут продолжать относиться задачи по принятию решения в условиях многокатегориального выбора. В отличие от рассмотренной задачи обнаружения сигнала, где основания для решения могут быть представлены в виде одной-един-ственной переменной, в подобных задачах существует несколько качественно различных систем критериев и несколько (обычно более двух) альтернативных решений. Специфически человеческим звеном здесь является прежде всего оценка относительной важности (весовых коэффициентов) различных критериев. Такая оценка всегда довольно субъективна и не может быть сведена к одному критерию, даже такому существенному, как критерий стоимости. Например, если речь идет о выборе проекта нового предприятия, то наряду с критерием стоимости строительства (возможно, в сочетании с ожидаемыми доходами — критерий cost/ benefit) важную роль в том или ином контексте могут играть также и другие критерии, такие как критерии престижности или экологической безопасности. Сравнительную оценку важности критериев в каждом конкретном случае может дать только лицо (группа лиц), принимающее решение.
Помимо самой оценки специфическая сложность задач многокритериального выбора состоит в том, что «при их рассмотрении все доводы "за" и "против" не присутствуют в уме одновременно; иногда присутствует одна часть, в другое время — иная, причем первая исчезает из вида. Следовательно, различные цели или склонности по очереди берут "верх" и появляется неопределенность, которая озадачивает и мучает нас»3. В качестве простейшей исчерпывающей процедуры получения весовых коэффициентов отдельных критериев и их агрегации в общую оценку альтернатив в литературе по методам поддержки принятия решений (Ларичев, 2002) рекомендуется следующая последовательность шагов:
1. Упорядочить критерии по важности.
2. Присвоить наиболее важному критерию оценку 100 баллов и, ис
ходя из попарного отношения критериев по важности, дать в бал
лах оценку каждому из них.
3. Сложить полученные баллы, а затем произвести нормировку кри
териев (вычислить их весовые коэффициенты), разделив присво
енные баллы на сумму весов.
4. Оценить значение каждой альтернативы по каждому из критери
ев в отдельности по шкале от 0 до 100 баллов.
5. Определить общую оценку каждой альтернативы, используя фор
мулу взвешенной суммы баллов (то есть просуммировать оценки
данной альтернативы по всем критерием с учетом весовых коэф
фициентов последних).
3 Эта цитата взята из письма Бенджамина Франклина, датированного сентябрем 1772 года. Франклин рекомендует далее записывать аргументы «за» и «против» на левой и правой стороне листа: «Когда я имею все это в поле зрения, я пытаюсь оценить их веса; если я найду два, каждый на другой стороне, которые кажутся мне равными, я их вычеркну... Если я считаю, что некоторые два довода "за" равны трем доводам "против", я вычеркиваю все пять; продолжая таким образом, я нахожу со временем, где находится баланс». Эти соображения можно считать эскизом современных компьютерных программ, поддерживающих процессы принятия решений (см. 8.4.2). Проблемы данной области связаны с нетранзитивным и нелинейным характером человеческих предпочтений, накладывающим ограни-100 чения на математические операции с балльными оценками (см. Ларичев, 2002).
6. Выбрать в качестве лучшей альтернативу, получившую наибольшую общую оценку.
Развернувшиеся во второй половине 20-го века работы по автоматизации отдельных функций и областей деятельности человека в целом проходили под лозунгом его освобождения от тяжелых и несвойственных ему сенсомоторных задач. Предполагалось, что за человеком-оператором постепенно останутся только функции когнитивного контроля за работой технических систем. С развитием информатики, электроники и когнитивных исследований стали создаваться системы относительно полного технического контроля и исполнения действий (такие как Flight Management Systems, используемые в военной и гражданской авиации для автоматического управления основными режимами полета). Постоянное увеличение степени сложности техники требовало от человека-пользователя сопоставимых, все более серьезных усилий по обучению и пониманию работы систем. Одновременно, из-за технических и финансовых ограничений автоматизации часто подвергались относительно изолированные фрагменты деятельности.
Результаты подобной фрагментарной замены человека компьютерными системами часто оказывались неудовлетворительными. В этих полуавтоматизированных системах скорее сам человек оказался под контролем автоматов, чем наоборот. Известный отечественный инженерный психолог Б.Ф. Ломов (например, Ломов, 1966) еще в начале 1960-х годов предупреждал об опасности такого развития, выдвинув вместе со своими коллегами принцип «активного оператора». Главным недостатком, или, по словам современной английской исследовательницы Лизанн Бэйнб-ридж, иронией автоматизации стало сегодня то, что оператору или, например, летчику временами приходится действовать в еще более экстремальном диапазоне нагрузок, чем прежде. Относительно легкие задачи упростились за счет их автоматизации, тогда как трудные задачи стали более сложными в силу усложнения самих человеко-машинных систем, а также из-за того, что решать их приходится внезапно и из состояния недонагрузки. При внезапных повышенных нагрузках в условиях жестких временных ограничений возникает состояние острого стресса, меняющее протекание практически всех познавательных процессов. Стресс, в частности, ведет к эффекту так называемого туннельного зрения — резкому ограничению размеров функционального поля зрения и фиксации внимания на отдельных деталях, а не на сцене в целом (см. 4.2.2 и 9.4.3).
Центральной проблемой сегодня становится выравнивание этого дисбаланса, то есть избирательная поддержка (вплоть до полной замены4)
4 Речь идет о временной передаче управления автоматам. Примером могут служить
современные системы предотвращения столкновения с земной поверхностью (GCAS —
Ground Collision Avoidance System), используемые в военной авиации. Эти системы оцени
вают параметры движения самолета и с учетом рельефа местности, а также времени реак
ции пилота автоматически уводят самолет в случае необходимости из опасной зоны. 101
человека в тех случаях, когда он находится на пределе своих возможностей, и, напротив, эпизодическая передача ему дополнительных функций (например, ручного управления самолетом) в периоды потенциально опасной недонагрузки. В результате возникает новая задача адаптивной автоматизации. Она предполагает психологический мониторинг функционального состояния человека с текущей оценкой степени и характера его внимания, содержаний восприятия, понимания актуальной ситуации (или «осознания ситуации» — situation awareness) и, насколько возможно, также непосредственных намерений. Хотя в общем виде эта задача еще очень долго не будет иметь решения, ее частные решения, похоже, возможны; они опираются на результаты прикладных когнитивных исследований и также обсуждаются на страницах этой книги (см. 3.4.2 и 7.4.3).
Инженерную психологию всегда интересовала задача нахождения некоторого единого языка для описания работы человека и функционирования технических систем. Наиболее подходящим языком такого описания вначале считалась теория информации. С накоплением опровергающих это мнение данных (см. 2.1.3), а затем и с возникновением задачи адаптивной автоматизации стали меняться акценты, так что иногда сами машины стали описываться в антропоморфных терминах как продукты (артефакты) деятельности человека. Так, датчанин Йене Расмуссен (Rasmussen, 1986) предложил рассматривать все компоненты человеко-машинных систем в контексте трех, известных из теории деятельности вопросов: «для чего?», «что?» и «как?» (см. 1.4.3). Им же была предложена трехуровневая модель операторской деятельности, в которой на самом низком уровне поведение находится под контролем автоматизированных навыков, на втором — хранящихся в памяти правил и на третьем — знаний о ситуации. Данная модель используется прежде всего для классификации ошибок оператора. В зависимости от уровня возникновения такие ошибки влекут за собой разную степень ответственности. Например, авиадиспетчер может просто перепутать похожие команды (неудачно расположенные рядом кнопки) или же, подумав, сознательно направить два самолета на одну и ту же посадочную полосу (см. 9.1.3).
Дата добавления: 2016-06-13; просмотров: 531;