Прореживание связей

Эта методика стремится сократить разнообразие возможных конфигураций обученных нейросетей при минимальной потере их аппроксимирующих способностей. Для этого вместо колоколообразной формы априорной функции распределения весов, характерной для обычного обучения, когда веса “расползаются” из начала координат, применяется такой алгоритм обучения, при котором функция распределения весов сосредоточена в основном в “нелинейной” области относительно обльших значений весов (см. Рисунок 7).

Рисунок 7

Этого достигают введением соответствующей штрафной составляющей в функционал ошибки. Например, априорной функции распределения:

,

имеющую максимум в вершинах гиперкуба с , соответствует штрафной член:

 

в функционале ошибки. Дополнительная составляющая градиента

 

исчезающе мала для больших весов, , и пропорциональна величине малых весов, . Соответственно, на больших штрафная функция практически не сказывается, тогда как малые веса экспоненциально затухают.

Таким образом, происходит эффективное вымывание малых весов (weights elimination), т.е. прореживание малозначимых связей. Противоположная методика предполагает, напротив, поэтапное наращивание сложности сети. Соответствующее семейство алгоритмов обучения называют конструктивными алгоритмами.








Дата добавления: 2015-04-10; просмотров: 763;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.003 сек.