Обучение Хебба с учителем

Правило обучения Хебба основано на принципе усиления связи между нейронами при их взаимном возбуждении. Этот принцип можно адаптировать и к обучению с учителем, если вес связи настраивать на ожидаемый, а не реальный выход нейрона. Например, если входной потенциал нейрона В, поступающий от нейрона А, является положительным, и от нейрона В ожидается положительный отклик, то связь между этими нейронами усиливается.

Проверим, как с помощью метода обучения Хебба с учителем можно научить сеть распознавать набор ассоциаций между образами. Ассоциации задаются как набор упорядоченных пар {<Х1, Y1>, <Х2, Y2>, …, <Хt , Yt>}, где Xi и Yi - вектор ассоциируемых между собой образов. Предположим, размерность вектора Xi равна n, а размерность Yim. Построим сеть, соответствующую этой ситуации. Она должна состоять из двух слоев, первый из которых содержит n нейронов, а второй – m (рис. 17).

Для обучения этой сети воспользуемся формулой настройки весов из предыдущего раздела

W = c*f ( X, W)*X,

где f(X,W) – реальный выход нейронной сети. При обучении с учителем заменим реальный выход нейронов ожидаемым выходным вектором D. Получим

W = c* D*X

Рис. 17. Изучение ассоциаций с помощью метода обучения Хебба с учителем

Возьмем пару векторов 1, Y1> из набора ассоциаций и применим это правило обучения к узлу к выходного слоя

Wik = c* dk*xi

где ∆Wik – весовая добавка к связи нейрона i входного слоя с узлом к выходного слоя,

dk – ожидаемый выход k-го нейрона,

хii-й элемент вектора X.

Эта формула применяется для настройки всех весов связей всех нейронов выходного слоя. Вектор – это входной вектор X, a – выходной вектор Y. Применяя эту формулу для настройки отдельных весов связей с каждым нейроном выходного слоя, приходим к формуле модификации весов для всего выходного слоя

W = c* Y*X

где Y*X – внешнее векторное произведение, определяемое как матрица

.

Чтобы обучить сеть всему набору ассоциированных пар, нужно организовать итерационную процедуру настройки весов для каждой пары <Хi,Yi> по формуле

 

Wt+1=Wt+c Y*X.

Для всего обучающего множества имеем

W1 = W0+c*(Y1*Xl+ Y22+... + Ytt) ,

где W0 – исходная конфигурация весов. Если исходные веса W0 инициализировать нулевым вектором <0;0;...;0>, а коэффициент обучения с выбрать равным 1, получим следующую формулу вычисления весов

W=Y1*X1+ Y22+...+ Ytt.

Сеть, отображающая вектор входов в вектор выходов и обученная по этой формуле настройки весов, называется линейным ассоциатором. Как станет ясно впоследствии, такая модель позволяет хранить множество ассоциаций в матрице связей. Это приводит к возможности взаимодействия между сохраненными шаблонами. Проблемы, возникающие при таком взаимодействии, будут рассмотрены в следующих разделах.

 








Дата добавления: 2016-04-14; просмотров: 1095;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.006 сек.