Задачи оптимизации.

- Безусловная задача оптимизации состоит в отыскании максимума или минимума действительной функции от n действительных переменных и определении соответствующих значений аргументов

- Условные задачи оптимизации, или задачи с ограничениями, — это такие, при формулировке которых задаются некоторые условия (ограничения) на множестве.

Теория и методы решения задач оптимизации при наличии ограничений составляют предмет исследования одного из важных разделов прикладной математики — математического программирования.

Одномерная оптимизация. Одномерная задача оптимизации в общем случае формулируется следующим образом: найти наименьшее (или наибольшее) значение целевой функции , заданной на множестве , и определить значение проектного параметра , при котором целевая функция принимает экстремальное значение. Существование решения поставленной задачи вытекает из следующей теоремы:

Теорема Вейерштрасса.

Всякая функция , непрерывная на отрезке принимает на этом отрезке наименьшее и наибольшее значения, т. е. на отрезке существуют такие точки и , что для любого имеют место неравенства .

Методы поиска. Численные методы поиска экстремальных значений функции рассмотрим на примере нахождения минимума функции на отрезке . Будем предполагать, что целевая функция унимодальна, т. е. на данном отрезке она имеет только один минимум. Погрешность приближенного решения задачи определяется разностью между оптимальным значением проектного параметра и приближением к нему Потребуем, чтобы эта погрешность была по модулю меньше заданного допустимого значения .

Процесс решения задачи методом поиска состоит в последовательном сужении интервала изменения проектного параметра, называемого интервалом неопределенности. В начале процесса оптимизации его длина равна , а к концу она должна стать меньше , т. е. оптимальное значение проектного параметра должно находиться в интервале неопределенности — отрезке , причем .

Тогда для выполнения условия в качестве приближения к оптимальному значению можно принять любое . Например, или , или .

В последнем случае достаточно выполнения неравенства .

Метод золотого сечения. Метод состоит в построении последовательности отрезков , …, стягивающихся к точке минимума функции . На каждом шаге, за исключением первого, вычисление значения функции проводится лишь в одной точке. Эта точка, называемая золотым сечением, выбирается специальным образом.

1 шаг: внутри отрезка выбираем некоторые внутренние точки и и вычисляем значения целевой функции и (рис. 12.1).

Рисунок 12.1 – Иллюстрация 1-го шага алгоритма

Поскольку в данном случае очевидно, что минимум расположен на одном из прилегающих к отрезков: или . Поэтому отрезок можно отбросить, сузив тем самым первоначальный интервал неопределенности.

2 шаг: на отрезке , где , . Нужно снова выбрать две внутренние точки, но одна из них осталась из предыдущего шага, поэтому достаточно выбрать лишь одну точку , вычислить значение и провести сравнение. Поскольку здесь ясно, что минимум находится на отрезке . Обозначим этот отрезок , снова выберем одну внутреннюю точку и повторим процедуру сужения интервала неопределенности. Процесс оптимизации повторяется до тех пор, пока длина очередного отрезка не станет меньше заданной величины.

Теперь рассмотрим способ размещения внутренних точек на каждом отрезке . Пусть длина интервала неопределенности равна l, а точка деления разбивает его на части , .

Золотое сечение интервала неопределенности выбирается так, чтобы отношение длины большего отрезка к длине всего интервала равнялось отношению длины меньшего отрезка к длине большего отрезка: .

Из этого соотношения можно найти точку деления, вычислив отношения и . Преобразуем выражение и найдем значения и :

; ; ;

; ; .

Поскольку нас интересует только положительное решение, то

; .

Очевидно, что интервал неопределенности можно разделить в соотношении золотого сечения двояко: в пропорциях и .

В данном случае имеем ; ; ; .

Аналогично, .

Начальная длина интервала неопределенности составляет . После первого шага оптимизации получается новый интервал неопределенности — отрезок . Его длина равна .

На втором шаге отрезок также делится в соотношении золотого сечения. При этом одной из точек деления будет точка . Покажем это:

Последнее равенство следует из соотношения .

Вторая точка деления выбирается так же, как выбирается точка при делении отрезка , т.е. . И снова интервал неопределенности уменьшается до размера .

По аналогии можно записать координаты точек деления у и z отрезка на k-м шаге оптимизации : , .

Вычислению, естественно, подлежит только одна из координат у, z, другая координата берется с предыдущего шага. При этом длина интервала неопределенности равна . Как и в общем случае метода поиска, процесс оптимизации заканчивается при выполнении условия . Тогда проектный параметр оптимизации . В качестве приближения к оптимальному значению можно принять или , или . В последнем случае для достижения требуемой точности достаточно, чтобы .

 

 

 

СПИСОК ЛИТЕРАТУРЫ

1. Месарович М., Такахара Я. Общая теория систем. – М.: Мир, 1978. — 311с.

2. Уемов А.И. Системный подход и общая теория систем. – М.: Мысль. — 1978, — 272 с.

3. Анфилатов В.С., Емельянов А.А., Кукушкин А.А. Системный анализ в управлении. - М.: Радио и связь, 2002. — 368 с.

4. Тихонов В.И. Статистическая радиотехника. – М.: Радио и связь, 1982. — 624 с.

5. Справочник по теории автоматического управления / Под ред. А.А. Красовского. – М.: Наука, 1987. — 712 с.

6. Сейдж Э., Дж. Мэлс. Теория оценивания и ее применение в связи и управлении. — М.: Связь, 1976. — 496.

7. Невельсон М., Хасьминский Р. Стохастическая аппроксимация и рекурентное оце-нивание — М.: Наука, 1972. — 232 с.

8. Саридис Дж. Самоорганизующиеся стохастические системы управления. - М.: Нау-ка, 1980. — 400 с.

9. Цыпкин Я.З. Основы теории обучающихся систем — М.: Наука, 1970. — 384 с.

10. Поповский В.В., Олейник В.Ф. Математические основы управления и адаптации в телекоммуникационных системах — Х.: СМИТ, 2011. — 362 с.

11. Математичні основи теорії телекомунікаційних систем/ За загальною ред. В.В. По-повського — Харків — Х.: СМІТ, 2006. — 564 с.

12. Popovskij V. Control and Adaptation in Telecommunication Systems: Mathematical Foundations (Lecture Notes in Electrical Engineering) // Publisher: Springer, 2011. – 187 p.

13. Тарков М.С. Нейкомпьютерные системы — М.: Б13, 2006. — 142 с.

13.

14. Осин А.В., Смольский С.М., Шелухин О.И Самоподобие и фракталы. Телекоммуникационные приложения – М.: Физматлит, 2008 - 368 c.

 








Дата добавления: 2016-06-24; просмотров: 948;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.013 сек.