Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Постановка задачи оптимизацииСтр 1 из 8Следующая ⇒
МЕТОДЫ И ТЕОРИЯ ОПТИМИЗАЦИИ ЛЕКЦИЯ 1. ПОСТАНОВКА ЗАДАЧИ ОПТИМИЗАЦИИ. МЕТОДЫ ОПТИМИЗАЦИИ. МЕТОДЫ СЛУЧАЙНОГО ПОИСКА И РЕГУЛЯРНЫЕ МЕТОДЫ
Постановка задачи оптимизации
Методы параметрической оптимизации имеют важное значение в процессе проектирования технических систем, отвечающим заданным техническим требованиям. Степень соответствия реальной характеристики проектируемого объекта заданной определяется скалярной мерой ошибки, называемой целевой функцией (ЦФ). При этом оптимальным считается такое решение задачи, которое соответствует минимальному значению данной функции. Процесс уменьшения скалярной целевой функции F(x), характеризующей эффективность проектирования от начального значения до минимума называется оптимизацией. При этом может достигаться локальный минимум, если изображающая точка является лучшей среди соседних точек параметрического пространства, или глобальный оптимум, когда изображающая точка является действительно лучшей среди широкого множества рассмотренных точек. Различают две задачи: безусловной оптимизации и условной оптимизации с ограничениями А, В - векторные функции от вектора варьируемых параметров x и выходных характеристик у, например B(x, y) = {b1(x, y), …, bN (x, y)}t. bi (x, y) – скалярная нелинейная функция вектора х; х* - оптимальное значение вектора х.
1.2. Методы оптимизации. Методы случайного поиска и регулярные методы
Различают методы безусловной оптимизации и методы условной оптимизации. Последние находят отражение в задачах математического программирования (линейное программирование, нелинейное программирование). Методы решения задач безусловной оптимизации значительно лучше разработаны и теоретически обоснованы, чем методы условной оптимизации. Поэтому использование мощного аппарата безусловной оптимизации для решения задач условной оптимизации обусловило появление большой группы методов штрафов, сводящих задачу условной оптимизации к решению одной или нескольких безусловных задач: Существует большое количество численных методов поиска экстремумов многопараметрических функций, которые можно объединить в две большие группы: методы случайного поиска; регулярные методы. Методы случайного поиска наиболее универсальны, до 80 % задач многокритериальной оптимизации решают этим методом. Они сводятся к построению последовательности , определяемой соотношением
где λ (К) – некоторая положительная скалярная величина; ξ (К) = [ξ 1(К), …, ξ n(К)] – некоторая реализация n – мерного случайного фактора ξ. В качестве рабочего направления ξ (К) выбирается такое, чтобы выполнялось условие: Методы случайного поиска возможно разделить на случайный поиск с обучением и случайный поиск без обучения. Алгоритмы с самообучением используют информацию, полученную на предыдущих шагах поиска, для выбора на текущем шаге наиболее вероятного направления уменьшения F(x). В методах без самообучения область изменения вектора варьируемых параметров, а также закон распределения случайного вектора ξ не зависят от номера шага поиска. Метод прост, но требует большого объема вычислений. Объем резко возрастает с увеличением числа переменных величин. Регулярные методы: прямые методы поиска не использующие производные целевой функции; методы сопряженных направлений, не использующие производные целевых функций; градиентные методы первого и второго порядка; ньютоновские методы.
ЛЕКЦИЯ 2
|