Адаптация функций принадлежности

В главе, посвященной извлечению знаний из обученных нейронных сетей, мы познакомились с методами интерпретации отображения сетью входной информации в выходную с помощью правил типа неравенств, правил m-of-n и других. В теории нечетких множеств соответствующие нечеткие правила уже изначально имеют наглядный смысл. Например,

если разрыв между бедными и богатыми высок, то уровень преступности повышен.

Конечно, заманчиво иметь возможность получения не только качественного, но и количественного правила, связывающего уровень разрыва в доходах с преступностью. Мы знаем, что нейронные сети типа персептрона являются универсальными аппроксиматорами и могут реализовать любое количественное отображение. Хорошо бы, поэтому построить нейронную сеть так, чтобы она, во-первых, воспроизводила указанное нечеткое качественное правило (чтобы изначально знать интерпретацию работы сети) и, во-вторых, давала хорошие количественные предсказания для соответствующего параметра (уровня преступности). Очевидно, что добиться этого можно подбором соответствующих функций принадлежности. А именно, задача состоит в том, чтобы так определить понятия “высокий разрыв в доходах” и “повышенный уровень преступности”, чтобы выполнялись и качественные и количественные соотношения. Нужно, чтобы и сами эти определения не оказалось дикими - иначе придется усомниться в используемом нами нечетком правиле. Если такая задача успешно решается, то это означает успешный симбиоз теории нечетких множеств и нейронных сетей, в которых “играют” наглядность первых и универсальность последних.

1 Заметим, что использованные нами ранее функции принадлежности носили достаточно специфический характер (так называемую треугольную форму). Успех же сочетания нечетких моделей существенно зависит от разумного нечеткого разбиения пространств входов и выходов. Вследствие этого, задача адаптации функций принадлежности может быть поставлена как задача оптимизации, для решения которой и могут использоваться нейронные сети. Наиболее простой путь для этого заключается в выборе некоторого вида функции принадлежности, форма которой управляется рядом параметров, точное значение которых находится при обучении нейронной сети.

Рассмотрим соответствующую методику на следующем примере.Обозначим

- курс доллара США ($) по отношению к немецкой марке (DM);

- курс доллара США ($) по отношению к шведской кроне (SK);

- курс доллара США ($) по отношению к финской марке (FM);

Предположим, что мы имеем три нечетких правила

если $ слаб по отношению к DM и слаб по отношению к SKи слаб по отношению к FM,

то величина портфеляочень высока

если $ силен по отношению к DM и силен по отношению к SKи слаб по отношению к FM,

то величина портфеля высока

если $ силен по отношению к DM и силен по отношению к SKи силен по отношению к FM,

то величина портфеля мала

Формально, эти правила можно записать следующим образом

если есть L1 и есть L2 и есть L3 ,то PV есть VB

если есть H1 и есть H2 и есть L3 ,то PV есть B

если есть H1 и есть H2 и есть H3 ,то PV есть S

Для всех нечетких правил Li и Hi используем сигмоидные функции принадлежности

 

Для нечетких оценок величины портфеля вводятся следующие функции принадлежности

 

.

Предположим, что точные количественные значения курса доллара по отношению к немецкой марке, шведской кроне и финской марке равны , соответственно. Поскольку любые значения этих курсов являются в какой-то мере слабыми и в какой-то мере сильными (а соответствующие меры определяются функциями принадлежности), то все три правила вступают в игру. В этом случае можно определить уровень активация каждого из них:

 

Теперь можно вычислить и количественные оценки величины портфеля, даваемые каждым из наших правил,

 

Оценка величины портфеля получается усреднением вышеприведенных оценок по уровням активации каждого из правил

 

Ниже на рисунке приведена архитектура нейронной сети, эквивалентной описанной выше нечеткой системе.

Рис. 11.4. Нейронная сеть (нечеткий персептрон), входами которой являются лингвистические переменные, выходом - четкое значение величины портфеля. Скрытые слои в нечетком персептроне называются слоями правил

Значения выходов в узлах первого слоя отражают степень соответствия входных значений лингвистическим переменным, связанными с этими узлами. Элементы второго слоя вычисляют значения уровней активации соответствующих нечетких правил. Выходные значения нейронов третьего слоя соответствуют нормированным значениям этих уровней активации Выходные значения нейронов четвертого слоя вычисляются как произведения нормированных значений уровней активации правил на значения величины портфеля, соответствующего данной их (ненормированной) активации:

.

Наконец, единственный выходной нейрон (слой 5) просто суммирует воздействия нейронов предыдущего слоя.

Если мы имеем набор обучающих пар, содержащих точные значения курсов обмена и точные значения величины портфеля : , то определив ошибку сети для k-й обучающей пары обычным образом, как ( - реальное значение состояния выходного нейрона), можно использовать метод градиентного спуска для коррекции значений параметров, управляющих формой функции принадлежности лингвистической переменной “величина портфеля”:

,

,

,

.

Аналогичным образом выводятся уравнения коррекции для параметров, управляющих формой функций принадлежности нечетких понятий слабый Li и сильный Hi курс доллара: Легко заметить, что особенностью описанного нами совместного использования нейросетевого и нечеткого подходов заключается в том, что адаптируются не величины связей между нейронами, а формы нелинейного преобразования, осуществляемого нейронами (формы функции принадлежности). С нейрокомпьютерной точки зрения достоинства нечетких моделей как раз и связано с нелинейностью функции принадлежности. Фиксирование и изначальное задание архитектуры сети позволяет интерпретировать ее решения. И что особенно важно, описанный подход по сути позволяет инкорпорировать априорные знания в структуру нейронной сети.

Нейронные сети и статистическая физика

Данная тема заслуживает не одной книги и ей действительно посвящена обширнейшая литература. В настоящем курсе лекций мы не можем хоть сколько-нибудь подробно остановится на ней. Рассмотрим кратко лишь применение соответствующих идей к анализу сети Хопфилда. Демонстрация тесной аналогии, существующей между спиновыми стеклами и нейронными сетями, определила массированное и плодотворное вторжение методов статистической физики в теорию нейронных сетей в начале восьмидесятых годов. Сеть Хопфилда со стохастическими нейронами и явилась главной моделью, в которой применение этих методов оказалось наиболее значительным. Это чрезвычайно плодотворное обобщение модели, в некотором смысле эквивалентное переходу к сетям с градуальными нейронами. В нем нейроны являются стохастическими элементами, и это обстоятельство открывает путь использованию методов статистической физики для анализа свойств ассоциативной памяти.








Дата добавления: 2015-04-10; просмотров: 1550;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.009 сек.