Узагальнено-регресійна НМ
Дана мережа влаштована аналогічно ймовірнісній НМ, але вона призначена для розв’язання завдань регресії, а не класифікації. Як і у випадку PNN-мережі, у точці розташування кожного навчального спостереження міститься гауссова ядерна функція. Узагальнено-регресійна НМ (GRNN-мережа) копіює в себе всі навчальні спостереження й використовує їх для оцінювання відгуку в довільній точці. Остаточна вихідна оцінка мережі визначається як зважене середнє виходів за всіма навчальними спостереженнями:
,
де - точки навчальної вибірки.
Перший проміжний шар GRNN-мережі складається з радіальних елементів. Другий проміжний шар містить елементи, які допомагають оцінити зважене середнє. Кожний вихід має в цьому шарі свій елемент, що формує для нього зважену суму. Щоб одержати зі зваженої суми зважене середнє, цю суму потрібно поділити на суму вагових коефіцієнтів. Останню суму обчислює спеціальний елемент другого шару. Після цього у вихідному шарі виконується розподіл (за допомогою спеціальних елементів «розподілу»). Таким чином, число елементів у другому проміжному шарі на одиницю більше, ніж у вихідному шарі. Як правило, у завданнях реґресії потрібно оцінити одне вихідне значення, і, відповідно, другий проміжний шар містить два елементи.
Переваги й недоліки GRNN-мереж в основному такі, як і в PNN-мереж. Розходження полягає в тому, що GRNN використовуються в завданнях реґресії, a PNN - у завданнях класифікації. GRNN-мережа навчається майже миттєво, але може вийти великою і повільною. Як і мережа RBF, GRNN-мережа не має здатності екстраполювати дані.
Дата добавления: 2015-10-13; просмотров: 603;