Классификация методов решения задач оптимизации
Возможны два подхода к решению задачи отыскания минимума функции многих переменных f(x)=f(x1,х2,х3,…хn) при отсутствии ограничений на диапазон изменения неизвестных.
Первый подход лежит в основе косвенных методов оптимизации и сводит решение задачи оптимизации к решению системы нелинейных уравнений, являющихся следствием условий экстремума функции многих переменных
(∂f/∂xi)x=x*= 0, i=1,...,n
Вектор f′(x), составленный из первых производных функций по каждой переменной, т.е. f′(x) = (∂f/∂x1, ∂f/∂x2,…, ∂f/∂xn)т называют градиентом скалярной функции f(x). В точке минимума градиент равен нулю. Решение системы нелинейных уравнений – задача весьма сложная и трудоемкая, поэтому на практике используют второй подход к минимизации функций, составляющих основу прямых методов.
Суть их состоит в построении последовательности векторов х[0], х[1],…, х[n], таких, что f(х[0])>f(х[1])>…>f(х[n]), > …. В качестве начальной точки х[0] может быть выбрана произвольная точка, однако стремятся использовать всю имеющуюся информацию о поведении функции f(x), чтобы точка х[0] располагалась как можно ближе к точке минимума.
Переход (итерация) от точки х[k], к точке х[k+1], k=0,1,…n состоит из двух этапов:
1) выбор направления движения из точки х[k],
2) определение шага вдоль этого направления.
Методы построения таких последовательностей часто называют методами спуска (т.к. происходит переход от больших значений функции к меньшим). Впервые такая задача была рассмотрена О.Коши в 1845г.
Математически методы спуска описываются соотношением
х [k+1] = х [k] + акр[k], k=0,1,… (9.1)
где р[k] – вектор, определяющий направление спуска,
ак – длина шага.
В координатной форме:
х1[k+1] = х1 [k] + ак р1 [k],
х2[k+1] = х2 [k] + ак р2 [k],
…………………………….
хn[k+1] = хn [k] + ак рn [k].
Различные методы спуска отличаются друг от друга способами выбора двух параметров – направления спуска и длины шага вдоль этого направления. На практике применяются только методы, обладающие сходимостью, число итераций k →∞.
На практике вычисления прекращаются при выполнении некоторых критериев (условий) например: ||х[k] – х[k-1]|| ≤ ε – условие малости приращения аргумента, или - функции ||f(х[k]) – f(х[k-1])|| ≤ γ.
Методы поиска минимума называются детерминированными, если оба элемента перехода от х [k] к х [k+1] (направление движения и величина шага) выбираются однозначно, по доступной в х[k] информации. Если же при переходе используется случайный механизм, то алгоритм называется случайным поиском минимума.
Детерминированные алгоритмы безусловной минимизации делятся на классы в зависимости от вида используемой информации. Если на каждой итерации используется лишь значение минимизируемой функции f′(x), то метод называется методом нулевого порядка. Если требуется вычисления первых производных минимизируемой функции, то - методы первого порядка, вторых – второго порядка.
В настоящее время разработано множество методов для задач условной и безусловной оптимизации. Качество численного метода характеризуется:
- скоростью сходимости;
- временем выполнения одной итерации;
- объемом памяти РС;
- классом решаемой задачи.
Дата добавления: 2017-09-19; просмотров: 990;