Студопедия

Главная страница Случайная страница

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Постановка задачи оптимизации






МЕТОДЫ И ТЕОРИЯ ОПТИМИЗАЦИИ

ЛЕКЦИЯ 1. ПОСТАНОВКА ЗАДАЧИ ОПТИМИЗАЦИИ. МЕТОДЫ ОПТИМИЗАЦИИ. МЕТОДЫ СЛУЧАЙНОГО ПОИСКА И РЕ­ГУЛЯРНЫЕ МЕТОДЫ

 

Постановка задачи оптимизации

 

Методы параметрической оптимизации имеют важное значение в процессе проектирования технических систем, отвечающим заданным техническим требованиям. Степень соответствия реальной характе­ристики проектируемого объекта заданной определяется скалярной мерой ошибки, называемой целевой функцией (ЦФ). При этом опти­мальным считается такое решение задачи, которое соответствует мини­мальному значению данной функции.

Процесс уменьшения скалярной целевой функции F(x), характеризующей эффективность проектирования от начального значения до минимума называется оптимизацией.

При этом может достигаться локальный минимум, если изобра­жающая точка является лучшей среди соседних точек параметрического пространства, или глобальный оптимум, когда изображающая точка является действительно лучшей среди широкого множества рассмотрен­ных точек.

Различают две задачи: безусловной оптимизации

и условной оптимизации с ограничениями

А, В - векторные функции от вектора варьируемых параметров x и выходных характеристик у, например

B(x, y) = {b1(x, y), …, bN (x, y)}t.

bi (x, y) – скалярная нелинейная функция вектора х; х* - оптимальное значение вектора х.

 

 

1.2. Методы оптимизации. Методы случайного поиска и ре­гулярные методы

 

Различают методы безусловной оптимизации и методы условной оптимизации. Последние находят отражение в задачах математического программирования (линейное программирование, нелинейное программи­рование).

Методы решения задач безусловной оптимизации значительно лучше разработаны и теоретически обоснованы, чем методы условной оптимизации. Поэтому использование мощного аппарата безусловной оптимизации для решения задач условной оптимизации обусловило по­явление большой группы методов штрафов, сводящих задачу условной оптимизации к решению одной или нескольких безусловных задач:

Существует большое количество численных методов поиска экс­тремумов многопараметрических функций, которые можно объединить в две большие группы: методы случайного поиска; регулярные ме­тоды.

Методы случайного поиска наиболее универсальны, до 80 % задач многокритериальной оптимизации решают этим методом.

Они сводятся к построению последовательности , определяемой соотношением

 

где λ (К) – некоторая положительная скалярная величина;

ξ (К) = [ξ 1(К), …, ξ n(К)] – некоторая реализация n – мерного случайного фактора ξ. В качестве рабочего направления ξ (К) выбирается такое, чтобы выполнялось условие:

Методы случайного поиска возможно разделить на случайный поиск с обучением и случайный поиск без обучения.

Алгоритмы с самообучением используют информацию, получен­ную на предыдущих шагах поиска, для выбора на текущем шаге наиболее вероятного направления уменьшения F(x). В методах без самообучения область изменения вектора варьируемых параметров, а также закон распределения случайного вектора ξ не зави­сят от номера шага поиска.

Метод прост, но требует большого объема вычислений. Объем резко возрастает с увеличением числа переменных величин.

Регулярные методы: прямые методы поиска не использующие производные целевой функции; методы сопряженных направлений, не использующие производные целевых функций; градиентные методы первого и второго порядка; ньютоновские методы.

 

 

ЛЕКЦИЯ 2


Поделиться с друзьями:

mylektsii.su - Мои Лекции - 2015-2024 год. (0.007 сек.)Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав Пожаловаться на материал