Задачи оптимизации.
- Безусловная задача оптимизации состоит в отыскании максимума или минимума действительной функции от n действительных переменных и определении соответствующих значений аргументов
- Условные задачи оптимизации, или задачи с ограничениями, — это такие, при формулировке которых задаются некоторые условия (ограничения) на множестве.
Теория и методы решения задач оптимизации при наличии ограничений составляют предмет исследования одного из важных разделов прикладной математики — математического программирования.
Одномерная оптимизация. Одномерная задача оптимизации в общем случае формулируется следующим образом: найти наименьшее (или наибольшее) значение целевой функции
, заданной на множестве
, и определить значение проектного параметра
, при котором целевая функция принимает экстремальное значение. Существование решения поставленной задачи вытекает из следующей теоремы:
Теорема Вейерштрасса.
Всякая функция
, непрерывная на отрезке
принимает на этом отрезке наименьшее и наибольшее значения, т. е. на отрезке
существуют такие точки
и
, что для любого
имеют место неравенства
.
Методы поиска. Численные методы поиска экстремальных значений функции рассмотрим на примере нахождения минимума функции
на отрезке
. Будем предполагать, что целевая функция унимодальна, т. е. на данном отрезке она имеет только один минимум. Погрешность приближенного решения задачи определяется разностью между оптимальным значением
проектного параметра и приближением к нему
Потребуем, чтобы эта погрешность была по модулю меньше заданного допустимого значения
.
Процесс решения задачи методом поиска состоит в последовательном сужении интервала изменения проектного параметра, называемого интервалом неопределенности. В начале процесса оптимизации его длина равна
, а к концу она должна стать меньше
, т. е. оптимальное значение проектного параметра должно находиться в интервале неопределенности — отрезке
, причем
.
Тогда для выполнения условия
в качестве приближения к оптимальному значению можно принять любое
. Например,
или
, или
.
В последнем случае достаточно выполнения неравенства
.
Метод золотого сечения. Метод состоит в построении последовательности отрезков
,
…, стягивающихся к точке минимума функции
. На каждом шаге, за исключением первого, вычисление значения функции
проводится лишь в одной точке. Эта точка, называемая золотым сечением, выбирается специальным образом.
1 шаг: внутри отрезка
выбираем некоторые внутренние точки
и
и вычисляем значения целевой функции
и
(рис. 12.1).

Рисунок 12.1 – Иллюстрация 1-го шага алгоритма
Поскольку в данном случае
очевидно, что минимум расположен на одном из прилегающих к
отрезков:
или
. Поэтому отрезок
можно отбросить, сузив тем самым первоначальный интервал неопределенности.
2 шаг: на отрезке
, где
,
. Нужно снова выбрать две внутренние точки, но одна из них
осталась из предыдущего шага, поэтому достаточно выбрать лишь одну точку
, вычислить значение
и провести сравнение. Поскольку здесь
ясно, что минимум находится на отрезке
. Обозначим этот отрезок
, снова выберем одну внутреннюю точку и повторим процедуру сужения интервала неопределенности. Процесс оптимизации повторяется до тех пор, пока длина очередного отрезка
не станет меньше заданной величины.
Теперь рассмотрим способ размещения внутренних точек на каждом отрезке
. Пусть длина интервала неопределенности равна l, а точка деления разбивает его на части
,
.
Золотое сечение интервала неопределенности выбирается так, чтобы отношение длины большего отрезка к длине всего интервала равнялось отношению длины меньшего отрезка к длине большего отрезка:
.
Из этого соотношения можно найти точку деления, вычислив отношения
и
. Преобразуем выражение и найдем значения
и
:
;
;
;
;
;
.
Поскольку нас интересует только положительное решение, то
;
.
Очевидно, что интервал неопределенности можно разделить в соотношении золотого сечения двояко: в пропорциях
и
.
В данном случае имеем
;
;
;
.
Аналогично,
.
Начальная длина интервала неопределенности составляет
. После первого шага оптимизации получается новый интервал неопределенности — отрезок
. Его длина равна
.
На втором шаге отрезок
также делится в соотношении золотого сечения. При этом одной из точек деления будет точка
. Покажем это:

Последнее равенство следует из соотношения
.
Вторая точка деления
выбирается так же, как выбирается точка
при делении отрезка
, т.е.
. И снова интервал неопределенности уменьшается до размера
.
По аналогии можно записать координаты точек деления у и z отрезка
на k-м шаге оптимизации
:
,
.
Вычислению, естественно, подлежит только одна из координат у, z, другая координата берется с предыдущего шага. При этом длина интервала неопределенности равна
. Как и в общем случае метода поиска, процесс оптимизации заканчивается при выполнении условия
. Тогда проектный параметр оптимизации
. В качестве приближения к оптимальному значению можно принять
или
, или
. В последнем случае для достижения требуемой точности достаточно, чтобы
.
СПИСОК ЛИТЕРАТУРЫ
1. Месарович М., Такахара Я. Общая теория систем. – М.: Мир, 1978. — 311с.
2. Уемов А.И. Системный подход и общая теория систем. – М.: Мысль. — 1978, — 272 с.
3. Анфилатов В.С., Емельянов А.А., Кукушкин А.А. Системный анализ в управлении. - М.: Радио и связь, 2002. — 368 с.
4. Тихонов В.И. Статистическая радиотехника. – М.: Радио и связь, 1982. — 624 с.
5. Справочник по теории автоматического управления / Под ред. А.А. Красовского. – М.: Наука, 1987. — 712 с.
6. Сейдж Э., Дж. Мэлс. Теория оценивания и ее применение в связи и управлении. — М.: Связь, 1976. — 496.
7. Невельсон М., Хасьминский Р. Стохастическая аппроксимация и рекурентное оце-нивание — М.: Наука, 1972. — 232 с.
8. Саридис Дж. Самоорганизующиеся стохастические системы управления. - М.: Нау-ка, 1980. — 400 с.
9. Цыпкин Я.З. Основы теории обучающихся систем — М.: Наука, 1970. — 384 с.
10. Поповский В.В., Олейник В.Ф. Математические основы управления и адаптации в телекоммуникационных системах — Х.: СМИТ, 2011. — 362 с.
11. Математичні основи теорії телекомунікаційних систем/ За загальною ред. В.В. По-повського — Харків — Х.: СМІТ, 2006. — 564 с.
12. Popovskij V. Control and Adaptation in Telecommunication Systems: Mathematical Foundations (Lecture Notes in Electrical Engineering) // Publisher: Springer, 2011. – 187 p.
13. Тарков М.С. Нейкомпьютерные системы — М.: Б13, 2006. — 142 с.
13.
14. Осин А.В., Смольский С.М., Шелухин О.И Самоподобие и фракталы. Телекоммуникационные приложения – М.: Физматлит, 2008 - 368 c.
Дата добавления: 2016-06-24; просмотров: 1014;
