![]() Главная страница Случайная страница КАТЕГОРИИ: АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
многих переменных ⇐ ПредыдущаяСтр 2 из 2
В основу градиентных методов положены вычисление и анализ производных целевой функции. Поскольку в практических задачах найти значения производных аналитически как правило не удается, их вычисляют приближенно:
2.4.1 Метод координатного спуска Идея метода: движение от начальной точки по направлению одной из осей координат до момента начала возрастания целевой функции, переход к направлению другой оси и т.д., пока не будет достигнута точка, движение из которой по любой оси с минимально возможным шагом приводит к увеличению целевой функции. Основные этапы поиска min f (х 1, х 2 ,..., хn) методом координатного спуска: 1) выбор начального приближения 2) выбор направления поиска, т.е. номера i Î (1, 2,..., n) компоненты вектора (x 1, x 2 ..., xn), которая подлежит изменению; 3) вычисление значения частной производной целевой функции по выбранному аргументу 4) изменение значений х 1, х 2 ,..., хn в соответствии с выражением:
до тех пор, пока f (х 1(k +1), х 2(k +1),..., хn (k +1))< f (х 1(k), х 2(k),..., хn (k)); в противном случае производится возврат на п. 2) и выбор следующего направления поиска, при этом x i (0) = x i (k), i = 1, 2,... n (h - шаг поиска, sign (z) - знак выражения z); 5) если движение с шагом h в любом из n возможных направлений приво- дит к ситуации f (х 1(k+ 1), х 2(k+ 1),..., хn (k+ 1)) ³ f (х 1(k), х 2(k),..., хn (k)), то осуществляется дробление шага: h = h/p (p > 1) и вновь выполняется п. 4); 6) поиск считается законченным, когда значение h становится меньше заданной точности e.
2.4.2 Методы градиента
Определение: градиент функции f (x 1, x 2 ,..., xn) в точке (x 1(0), x 2(0),..., xn (0)) - это вектор, длина которого
Идея методов: каждая следующая точка поиска min f (x 1, x 2 ,..., xn) (каждый новый член минимизирующей последовательности) получается в результате перемещения из предыдущей точки по направлению антиградиента целевой функции. Если в результате этого перемещения наблюдается увеличение значения целевой функции, то значение рабочего шага поиска h уменьшается. Поиск прекращается, когда выполняется необходимое условие ext f (x 1, x 2 ,..., xn), например длина градиента становится меньше требуемой точности: либо меньше требуемой точности становится величина шага поиска: h < e. (2.6) Различают методы градиента с переменным шагом и с постоянным шагом. При использовании метода градиента с переменным шагом изменение значений x 1, x 2 ,..., xn производится согласно выражению:
Такой характер поиска
т.е. расстояние между точками (x 1(k), x 2(k),..., xn (k)) и (x 1(k+ 1), x 2(k+ 1),..., xn (k+ 1)) равно
следовательно величина шага поиска в данном случае постоянна и равна выбран- ному значению h. Если изменение аргументов целевой функции в соответствии с (2.8) приводит к увеличению ее значения, шаг поиска уменьшается. Останов поиска min f (x 1, x 2 ,..., xn) по методу градиента с постоянным шагом осуществляется при выполнении неравенства (2.6).
2.4.3 Метод наискорейшего спуска
Основные этапы поиска min f (x 1, x 2 ,..., xn) методом наискорейшего спуска: 1) выбор начального приближения (x 1(0), x 2 (0),..., xn (0)); 2) определение значений частных производных f (x 1, x 2 ,..., xn) в этой точке; 3) изменение значений xi, i =1, 2,..., n в соответствии с выражением (2.8) без пересчета частных производных до начала возрастания целевой функции; 4) если ситуация f (х 1(k +1), х 2(k +1),..., хn (k +1)) ³ f (х 1(k), х 2(k),..., хn (k)) возникает при k > 0, то начальным приближением становится предыдущая точка: xi (0) = xi (k), i =1, 2,..., n и вновь выполняются п.п. 2), 3); 5) если f (х 1(k +1), х 2(k +1),..., хn (k +1 ) ) ³ f (х 1(k), х 2(k),..., хn (k)) уже при k =0, то осуществляется дробление шага h = h/p (p > 1); при h ³ e (заданная точность) выполняется п. 3), иначе поиск заканчивается: xi *= xi (k), i =1, 2,..., n.
1) Нахождение локального экстремума целевой функции, а не глобального. Это недостаток абсолютного большинства методов решения оптимизационных задач. Его удается устранить, если можно обосновать выбор начального приближения, находящегося вблизи глобального экстремума. 2) Использование значений частных производных целевой функции. Это, с одной стороны, увеличивает объем вычислений (количество вычислений значений целевой функции), а с другой - увеличивает погрешность решения, т. к. производные чаще всего вычисляются через разностные соотношения. 3) “Застревание в овраге” целевой функции, т.е. в области значений
f (x 1, x 2 ,..., xn) почти не меняются. Градиентные методы с остановкой по условию (2.6) “застревают в овраге”, т.е. наблюдается иллюзия достижения минимума. Если же в качестве условия останова используется длина градиента, то поиск в “овраге” будет продолжаться бесконечно долго: значения частных производных целевой функции на “дне оврага” достаточно велики, но продвижения к точке минимума функции почти нет. Замечание: если результирующие точки поиска min f (x 1, x 2 ,..., xn) с различных, достаточно далеко отстоящих друг от друга начальных точек не совпадают, а значения функции в них близки, значит она имеет “овраг”, а если значения функции отличаются существенно, значит она имеет несколько экстремумов.
|