Объяснение и обоснование решений.
Система объяснений (СО) функционально предназначена для формирования ответов на вопросы пользователя относительно поведения интеллектуальной системы в процессе получения ею заключения или решения. Способность объяснять свои действия — одно из главных отличительных свойств интеллектуальных систем. Она повышает доверие пользователя к системе, к представляемым ею рекомендациям и решениям. Кроме того, СО возможно использовать в процессе модификации и развития интеллектуальной системы, выявлении противоречивых знаний, а также при обучении менее подготовленных пользователей.
Системы искусственного интеллекта различных типов, ориентированные на разные проблемные области, должны иметь специфичные для них СО (некоторые типы ИС могут вообще не иметь СО). Однако в настоящее время на практике все СО реализуются на одних и тех же принципах в основном двумя способами [82]:
- фиксацией событий и состояний с помощью заготовленных текстов на естественном языке;
- трассировкой рассуждений, обратным развертыванием дерева целей с указанием подцелей.
При реализации каждого из этих способов предварительно выделяются ситуации, факты и узлы перехода в новые состояния, требующие объяснений. Им ставится в соответствие некоторый текст объяснения.
При способе фиксации событий объяснения составляются из кратких текстов на естественном языке, которые хранятся вместе с правилами и фактами. Эти тексты предварительно помещаются в программу и инициируются в том случае, когда задан вопрос по соответствующей ситуации и необходимо их представление. Несмотря на некоторые преимущества, связанные с возможностью, формирования удобных и простых для восприятия объяснений, этот способ имеет два важных ограничения, препятствующих широкому применению:
- объяснения должны исправляться каждый раз, когда меняется БЗ или соответствующие эвристики;
- объяснение может быть адаптировано к индивидуальному пользователю только с большим трудом. Кроме того, очень часто пользователя интересует именно ход рассуждения, цепочка логических выводов, приведших к заключению.
Способ трассировки рассуждений при объяснении предусматривает пересечение дерева целей для ответа на вопросы. Основываясь на дереве целей, СО может объяснять, как было получено заключение. Это достигается путем прохождения подцелей, которые были удовлетворены при движении к цели. Если требуется более детальное объяснение, то СО может повторить каждое из задействованных правил, представив их в краткой формулировке на естественном языке.
Система объяснения отвечает преимущественно на два типа вопросов: «Почему?» и «Как?» Оба вопроса должны интерпретироваться на различных уровнях, которые образуются при обосновании поведения программы исходя из действующего уровня, приоритета и компетентности пользователя. Здесь возникает проблема предоставления объяснений различной глубины и сложности в зависимости от уровня пользователя и целей использования СО, т. е. проблема адаптации к уровню пользователя ИС. В настоящее время на практике такую адаптацию пока реализовать в полной мере не удалось.
Так как механизм получения решений ИС часто реализуется путем обхода пространства состояний в виде графа И/ИЛИ, то и формирование объяснений чаще связывается с обработкой вершин этого графа. При ответе на вопрос «Почему?» вероятнее движение вверх по графу состояний к ближайшей подцели, которая объясняет причину достижения текущей подцели. При ответе на вопрос «Как?» возможно движение вниз по графу с объяснением способа достижения текущей подцели. Поскольку дерево целей является И/ИЛИ графом, то при движении вниз обычно образуется несколько подцелей.
В большинстве интеллектуальных систем объяснения даются в терминах целей и правил. Однако простое прослеживание экспертных правил, которые были использованы при конкретном выводе, является недостаточно удовлетворительным объяснением, которое может дать ИС. Более убедительным объяснением, удовлетворяющим интуиции человека относительно правильности решения задачи, явилось бы объяснение, основанное на фундаментальных принципах организации знаний о проблемной области. Система объяснений должна быть способна перефразировать правила на естественном языке и описывать мотивации их активизации, которые базируются на знаниях системы о себе (на уровне метазнаний). Важна аргументация, основанная на глубинных причинно-следственных закономерностях проблемной области. Реализация этих перспективных возможностей является одной из главных задач при создании ИС новых поколений.
Одна из основных характеристик ИС состоит в том, что они моделируют в определенной мере человеческие рассуждения. В них каждый из сделанных по определенной программе выводов должен соответствовать основным этапам, которые бы сделал эксперт. При этом он может проверить программу и при необходимости подкорректировать ее. По аналогии с черным ящиком ИС можно рассматривать как прозрачный ящик: будучи прозрачным, они могут дать описание способа получения результатов. С этой точки зрения некоторые информационные системы являются диагностическими, т. е. полученные с их помощью результаты представляют собой не решение задачи, а только некоторую гипотезу. При этом предлагаемые объяснения — это лишь совокупность рассуждений, которые неясно как скомбинированы.
Получил распространение вид объяснения, называемый обоснованием выводов, которое, не учитывая способа комбинации выводов, дает описание системы путем выявления причин сделанных выводов. Одним из способов обоснования решений и выводов является проверка или оценка их правильности и реализуемости на основе прогнозирования последствий и развития ситуаций в случае использования этих решений, а также выявление возможных узких мест. Во многих предметных областях, основой для принятия управляющих решений и выработки обоснованных рекомендаций является оценка ситуаций, складывающихся во внешней среде, определение и прогнозирование ее наиболее важных свойств на основе интерпретации имеющихся данных.
Объективной основой для оценки ситуаций на базе имеющихся данных, количественных и качественных характеристик является знание закономерностей, связывающих данные с типами возможных ситуаций, причем это знание может быть формально выражено, в частности, с помощью некоторых «жестких» моделей. При интерпретации текущих данных с целью оценки ситуации ИС придает данным более широкий смысл, извлекает из них информацию о ситуации в целом, которая непосредственно в них не содержится. В итоге они преобразуются в форму, приемлемую для восприятия человеком, принимающим решения. Эту операцию называют часто понятийным анализом данных. Результаты анализа могут быть выражены и представлены также в виде чисел, таблиц, формализованных текстов, графических представлений.
Прогнозирующие системы логически выводят вероятные следствия из заданных ситуаций и при текущих данных. При обосновании решений и прогнозировании в этих системах часто используется либо имитационная, либо параметрическая динамическая модель, в которой значения параметров подгоняются под данную ситуацию. Выводимые из этой модели следствия составляют основу для прогноза. Если не делать вероятностных оценок, то прогнозирующие системы могут порождать большое число возможных сценариев будущих событий.
В настоящее время активно ведутся работы по созданию информационных систем, органически объединяющих и использующих средства искусственного интеллекта и имитационного моделирования, ведь в какой-то мере это разные инструменты оперирования одной проблемой в разных ее проявлениях [117, 121, 89].
Дата добавления: 2017-02-20; просмотров: 308;