Классификация методов решения задач оптимизации

 

Возможны два подхода к решению задачи отыскания минимума функции многих переменных f(x)=f(x123,…хn) при отсутствии ограничений на диапазон изменения неизвестных.

Первый подход лежит в основе косвенных методов оптимизации и сводит решение задачи оптимизации к решению системы нелинейных уравнений, являющихся следствием условий экстремума функции многих переменных

(∂f/∂xi)x=x*= 0, i=1,...,n

 

Вектор f′(x), составленный из первых производных функций по каждой переменной, т.е. f′(x) = (∂f/∂x1, ∂f/∂x2,…, ∂f/∂xn)т называют градиентом скалярной функции f(x). В точке минимума градиент равен нулю. Решение системы нелинейных уравнений – задача весьма сложная и трудоемкая, поэтому на практике используют второй подход к минимизации функций, составляющих основу прямых методов.

Суть их состоит в построении последовательности векторов х[0], х[1],…, х[n], таких, что f(х[0])>f(х[1])>…>f(х[n]), > …. В качестве начальной точки х[0] может быть выбрана произвольная точка, однако стремятся использовать всю имеющуюся информацию о поведении функции f(x), чтобы точка х[0] располагалась как можно ближе к точке минимума.

Переход (итерация) от точки х[k], к точке х[k+1], k=0,1,…n состоит из двух этапов:

1) выбор направления движения из точки х[k],

2) определение шага вдоль этого направления.

Методы построения таких последовательностей часто называют методами спуска (т.к. происходит переход от больших значений функции к меньшим). Впервые такая задача была рассмотрена О.Коши в 1845г.

Математически методы спуска описываются соотношением

х [k+1] = х [k] + акр[k], k=0,1,… (9.1)

где р[k] – вектор, определяющий направление спуска,

ак – длина шага.

В координатной форме:


х1[k+1] = х1 [k] + ак р1 [k],

х2[k+1] = х2 [k] + ак р2 [k],

…………………………….

хn[k+1] = хn [k] + ак рn [k].

 

Различные методы спуска отличаются друг от друга способами выбора двух параметров – направления спуска и длины шага вдоль этого направления. На практике применяются только методы, обладающие сходимостью, число итераций k →∞.

На практике вычисления прекращаются при выполнении некоторых критериев (условий) например: ||х[k] – х[k-1]|| ≤ ε – условие малости приращения аргумента, или - функции ||f(х[k]) – f(х[k-1])|| ≤ γ.

Методы поиска минимума называются детерминированными, если оба элемента перехода от х [k] к х [k+1] (направление движения и величина шага) выбираются однозначно, по доступной в х[k] информации. Если же при переходе используется случайный механизм, то алгоритм называется случайным поиском минимума.

Детерминированные алгоритмы безусловной минимизации делятся на классы в зависимости от вида используемой информации. Если на каждой итерации используется лишь значение минимизируемой функции f′(x), то метод называется методом нулевого порядка. Если требуется вычисления первых производных минимизируемой функции, то - методы первого порядка, вторых – второго порядка.

В настоящее время разработано множество методов для задач условной и безусловной оптимизации. Качество численного метода характеризуется:

- скоростью сходимости;

- временем выполнения одной итерации;

- объемом памяти РС;

- классом решаемой задачи.

 








Дата добавления: 2017-09-19; просмотров: 938;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.004 сек.