2. 4 Методы поиска экстремума функций многих переменных - shikardos.ru o_O
Главная
Поиск по ключевым словам:
страница 1
Похожие работы
Название работы Кол-во страниц Размер
§ Экстремумы, Наибольшее и наименьшее значения функций нескольких... 1 82.16kb.
Модели и методы оценки эффективности статистического поиска заданных... 1 250.35kb.
Методы криптоанализа хэш-функций 1 35.73kb.
Вариант 3 Часть 1 определите значение целочисленных переменных а 1 41.52kb.
Условия поиска информации (логические значения, операции, выражения) 1 36.09kb.
«Русские немцы» мы рекомендуем систему поиска в internet google 1 100.23kb.
Особенности поражений активными химическими и отравляющими веществами... 1 123.29kb.
Ответы к практической части зачета (Приложение1) «Исследование функций... 1 36.05kb.
Влияние морфологического анализа на качество информационного поиска 1 157.08kb.
Алгоритмы поиска. Линейный поиск. Двоичный поиск. Линейный поиск 4 1717.72kb.
Тема Функции государства 1 166.31kb.
Математика 11 класс Уравнения и неравенства с параметрами на егэ 1 108.7kb.
- 4 1234.94kb.
2. 4 Методы поиска экстремума функций многих переменных - страница №1/1



<== Возврат к содержанию раздела
2.4 Методы поиска экстремума функций многих переменных
Методы поиска экстремумов функций f (х1,...,хn) подразделяются на градиентные и безградиентные по следующему признаку: градиентные основаны на вычислении и анализе частных производных функции f (х1,...,хn), безградиентные не используют значений производных.

Будем рассматривать эти методы как методы поиска min f (x1,x2,...,xn). Вначале рассмотрим некоторые градиентные методы.



Замечание. В практических задачах найти значения производных целевых функций вида f (х1,...,хn) аналитически, как правило, не удается и их вычисляют приближенно:

.

Выбор величин приращений по координатам зависит от возможностей используемой ЭВМ и необходимой точности вычислений.


2.4.1 Метод координатного спуска

Идея метода: Движение от начальной точки по направлению одной из осей координат до момента начала возрастания целевой функции, переход к направлению другой оси и т.д., пока не будет достигнута точка, движение из которой по любой оси координат с минимально возможным шагом приводит

к увеличению значения целевой функции (рисунок 2.9).

Основные этапы поиска min f (х1,...,хn) методом координатного спуска:

1


Рисунок 2.9 Иллюстрация к методу

координатного спуска

) выбор начального приближения ;

2) выбор направления поиска, т.е. номера i(1,2,...,n) компоненты вектора (x1,x2,...,xn), которая будет измененяться;

3) вычисление значения производной целевой функции по выбранному аргументу (если , то с ростом xi значение f (х1, х2,..., хn) увеличивается, а если , то уменьшается);

4) изменение значений х1,х2,...,хn в соответствии с выражением



(2.3)

до тех пор, пока f (х1(k+1),х2(k+1),...,хn(k+1)) < f (х1(k),х2(k),...,хn(k)); в противном случае производится возврат на п. 2) и выбор следующего направления поиска, при этом x i (0)=x i(k), i=1,2,...n (h – шаг поиска, sign(z) – знак выражения (z);

5) если попытка движения с шагом h в любом из n возможных направлений приводит к ситуации f (х1(k+1),х2(k+1),...,хn(k+1))  f (х1(k),х2(k),...,хn(k)) , то осуществляется дробление шага: h = h/p (p > 1) и вновь выполняется п. 4);

6) поиск считается законченным, когда значение h становится меньше заданной точности  .


2.4.2 Методы градиента

Определение: Градиент функции f (x1,x2,...,xn) в точке (x1(0),x2(0),...,xn(0))  это вектор, длина которого

(2.4)

характеризует скорость возрастания функции в этой точке, а направление соответствует направлению быстрейшего возрастания функции. Антиградиент - это вектор такой же длины, направленный в противоположную сторону (рисунок 2.10).



Идея методов: Каждая следующая точка поиска min f (x1,x2,...,xn) (каждый новый член минимизирующей последовательности) получается в результате перемещения из предыдущей точки по направлению антиградиента целевой функции. Если в результате этого перемещения наблюдается увеличение значения целевой функции, то значение рабочего шага поиска h уменьшается. Поиск прекращается, когда выполняется необходимое условие ext f (x1,x2,...,xn), например длина градиента становится меньше требуемой точности:


Рисунок 2.10 Градиент и антиградиент

функции f (x1,x2)

, (2.5)

либо меньше требуемой точности становится величина шага поиска:



h   . (2.6)

Различают методы градиента с переменным шагом и с постоянным шагом (рисунок 2.11). При использовании метода градиента с переменным шагом изменение значений x1,x2,...,xn производится согласно выражению



, i=1,2,...,n , k=0,1,2…, (2.7)

а останов поиска - при выполнении неравенства (2.5). При возникновении ситуации f (х1(k+1),х2(k+1),...,хn(k+1))  f (х1(k), х2(k),..., хn(k)) значение h уменьшается,

например делится на число р > 1. Характер изменения значений x1,x2,...,xn

с


Рисунок 2.11 Иллюстрация к методам градиента



огласно (2.7) зависит от величины и знака соответствующих частных производных целевой функции. По мере приближения к точке min f (x1,x2,...,xn) абсолютные величины частных производных уменьшаются, следовательно и шаг поиска является переменным – уменьшается по мере приближения к искомой точке. Такой характер поиска требует иногда весьма значительных затрат времени.

Применение метода градиента с постоянным шагом позволяет сократить затраты времени, но требует несколько большего объема вычислений при изменении значений аргументов целевой функции. Его основное соотношение:



, i=1,2,...,n; k=0,1,2,... , (2.8)

т.е. расстояние между точками (x1(k),x2(k),...,xn(k)) и (x1(k+1),x2(k+1),...,xn(k+1)) равно



следовательно величина шага поиска в данном случае постоянна и равна выбранному значению h. Если изменение аргументов целевой функции в соответствии с (2.8) приводит к увеличению ее значения, шаг поиска уменьшается. Останов поиска min f (x1,x2,...,xn) по методу градиента с постоянным шагом осуществляется при выполнении неравенства (2.6).
2.4.3 Метод наискорейшего спуска
Так называют модификацию метода градиента с постоянным шагом, позволяющую сократить общий объем вычислений при некотором увеличении числа членов минимизирующей последовательности за счет меньшего количества вычислений частных производных целевой функции. При использовании этого метода аргументы целевой функции изменяются в соответствии с выражением (2.8), но значения ее производных не пересчитываются до тех пор, пока не сложится ситуация f (х1(k+1),х2(k+1),...,хn(k+1))  f (х1(k),х2(k),..., хn(k)) (рисунок 2.12). Дробление шага поиска производится, когда во вновь выбранном направлении (после пересчета значений частных производных) не удается сделать ни одного результативного шага, останов поиска – при выполнении неравенства (2.6).

О


Рисунок 2.12 Иллюстрация к методу

наискорейшего спуска
сновные этапы поиска min f (x1,x2,...,xn) методом наискорейшего спуска:

1) выбор начального приближения (x1(0),x2 (0),...,xn (0));

2) определение значений частных производных f (x1,x2,...,xn) в этой точке;

3) изменение значений xi, i=1,2,...,n в соответствии с выражением (2.8) до момента начала возрастания целевой функции без пересчета ее частных производных;

4) если ситуация f (х1(k+1),х2(k+1),...,хn(k+1))  f (х1(k),х2(k),...,хn(k)) возникает при k  0, то начальным приближением становится предыдущая точка: xi (0) = xi (k), i=1,2,...,n и вновь выполняются п.п. 2), 3);

5


Рисунок 2.13 Поиск локальных экстремумов

многоэкстремальной функции

) если f (х1(k+1),х2(k+1),...,хn(k+1))  f (х1(k),х2(k),...,хn(k)) уже при k = 0, то осуществляется дробление шага h=hp ( p > 1); при h   (заданная точность) выполняется п. 3), иначе поиск заканчивается, xi xi (k ), i=1,2,...,n .

Рассмотренные методы поиска экстремума функций многих переменных носят общее название: градиентные методы первого порядка (порядок метода равен наивысшему порядку производной целевой функции, участвующей в вычислениях). Им свойственны следующие общие недостатки:

1

Рисунок 2.14 Поиск минимума функции,

имеющей "овраг"

) Нахождение локального экстремума целевой функции, а не глобального (рисунок 2.13). Это недостаток абсолютного большинства методов решения оптимизационных задач. Его можно устранить, если удается обосновать выбор начального приближения, находящегося вблизи глобального экстремума.

2) Использование значений частных производных целевой функции. Это, с одной стороны, увеличивает объем вычислений (количество вычислений значений целевой функции), а с другой – увеличивает погрешность решения, т. к. производные чаще всего вычисляются через разностные отношения.

3) "Застревание в овраге" целевой функции, т.е. в области значений xi, i =1,2,...,n, в которой значения f (x1,x2,...,xn) почти не меняются (рисунок 2.14).

Градиентные методы с остановкой по условию (2.6) “застревают в овраге”, т.е. наблюдается иллюзия достижения минимума. Если же в качестве условия останова используется длина градиента, то поиск в “овраге” будет продолжаться бесконечно долго: значения частных производных целевой функции на “дне оврага” достаточно велики, но продвижения к точке минимума функции почти нет.



Замечание: Если результирующие точки поиска min f (x1,x2,...,xn) с различных, достаточно далеко отстоящих друг от друга начальных точек не совпадают, а значения функции в них близки, значит она имеет "овраг", а если значения функции отличаются существенно, значит она имеет несколько экстремумов.

Перейдем к рассмотрению бeзградиентных методов поиска min f (x1,x2,...,xn) (их также называют методами нулевого порядка). Можно выделить две группы этих методов. Первые требуют предварительного определения множества допустимых значений аргументов и используют стратегию его перебора (метод сеток). Общая схема вторых (методы случайных направлений и многогранника) предусматривает построение оптимизирующей последовательности значений аргументов целевой функции.


2.4.4 Метод сеток (сравнения значений функции на сетке значений

аргументов)


С

Рисунок 2.15 Иллюстрация к методу сеток



хему работы метода иллюстрирует рисунок 2.15. Отрезки [ai;bi], i=1,2,...,n, определяющие область поиска минимума функции f (x1,x2,...,xn), делятся на равные части длиной hi=(biai)/ni. Значения ni подбираются так, чтобы обеспечить одинаковый порядок чисел hi , i=1,2,...,n. Во всех "узлах" полученной сетки, т.е. в точках

(a1+ih1, a2+jh2 ,..., an+khn), i=0,1,...,n1, j=0,1,...,n2, ..., k=0,1,...,nn, вычисляются значения функции и выбирается "узел" сетки (x1*,x2*,...,xn*), которому соответствует минимальное значение. Если этот "узел" лежит на границе заданной области, то положение границ изменяется и описанная процедура повторяется до тех пор, пока он не станет внутренним. Если (заданной точности), то вокруг этого "узла" формируется новая область: ai=xi*hi, bi= xi*+hi, i=1,2,...,n, – вычисляются новые значения hi и т.д. В противном случае за точку минимума функции принимается (x1*,x2*,...,xn*).

Главной проблемой при использовании метода сравнения значений целевой функции на сетке значений аргументов является выбор значений ni, при которых, с одной стороны, исключается потеря точки экстремума между "узлами" слишком крупной сетки, а с другой - обеспечивается приемлемый объем вычислений. Применение этого метода связано с большим объемом вычислений, однако при правильном выборе значений ni он гарантирует нахождение глобального экстремума функции в заданной области.
2.4.5 Метод случайных направлений
С

Рисунок 2.16 Иллюстрация к методу

случайных направлений

лучайный выбор направления в системе координат x1,x2 обеспечивается использованием в качестве приращений значений аргументов (р1, р2 на рисунке 2.16) случайных чисел. Величина шага в выбранном таким образом направлении будет единичной, если разделить р1 и р2 на .

При поиске min f (x1,x2,...,xn) метод случайных направлений включает определение начальной точки поиска и величины рабочего шага h, выбор случайных чисел р1, р2,…, рn и изменение значений аргументов целевой функции по правилу:



, i=1,2,…n, k=0,1,… (2.9)

Если выполняется неравенство то движение в выбранном направлении с шагом h продолжается. Если неравенство не выполняется после второго, третьего и т.д. шагов, то определяется новое случайное направление и движение продолжается без изменения величины шага. Если неудачным оказывается первый же шаг в выбранном направлении, то путем изменения знаков чисел рi, i=1,2,...,n оно меняется на противоположное, а при повторении ситуации – на новое случайное направление. Если ситуация складывается после первого же шага в любом из заданного числа случайных направлений, то величина шага поиска h уменьшается. Для функции f (x1,x2) обычно достаточно перебрать четыре взаимно перпендикулярных направления:



Поиск закончится, когда значение h станет меньше заданной точности.

Характер движения от начальной точки к точке минимума функции при использовании метода случайных направлений не зависит от особенностей функции. Случайный выбор направления как правило не обеспечивает кратчайшего пути к искомой точке, но может привести к уменьшению общего объема расчетов за счет единственного вычисления целевой функции на каждом шаге поиска.
2.4.6 Метод многогранника
П

Рисунок 2.17 Иллюстрация к методу

многогранника
ри поиске минимума функции двух переменных метод предусматривает формирование на плоскости х1,х2 правильного треугольника и определение значений функции f (х1,х2) в точках плоскости, соответствующих его вершинам. Вершина, которой отвечает наибольшее значение функции (вершина 1 на рисунке 2.17) исключается, а новая образуется в результате симметричного отражения исключаемой через центр противоположной грани треугольника:,

, i(1,2,3).

Процесс перемещения треугольника по плоскости х12 путем изменения положения одной из его вершин продолжается до момента, когда значение функции во вновь образованной вершине оказывается наибольшим. В этом случае длина ребра треугольника уменьшается, причем неподвижной остается вершина (k), которой соответствует наименьшее значение функции:



, , , S >1.

Поиск прекращается в момент выполнения неравенства



.

За точку min f (x1,x2) принимается лучшая вершина последнего треугольника.

В случае поиска min f (x1,x2,...,xn) в n-мерном пространстве формируется выпуклый многогранник, имеющий (n+1) вершин и столько же граней. Если, то положение новой j-ой вершины определяется по правилу:

, i=1,2,...,n. (2.10)

В ситуации, когда вновь образованной вершине соответствует максимальное значение целевой функции, многогранник деформируется - положение j-ой вершины может быть определено по формуле:



, i=1,2,...,n, (2.11)

где k - вершина, которой соответствует наименьшее значение функции.

Поиск прекращается при выполнении неравенства:

, i=1,2,...,n. (2.12)

Применение метода многогранника, как и метода случайных направлений, связано с вычислением единственного значения целевой функции на каждом шаге поиска, но характер движения обычно обеспечивает более короткий путь и меньший объем вычислений. Доказано, что при использовании правильного многогранника достаточно малых размеров направление движения совпадает с направлением антиградиента целевой функции.

В заключение остановимся на методах поиска min f (x1,x2,...,xn) при наличии "оврагов", см. рисунок 2.14.

Причина образования "оврагов" функций многих переменных - неодинаковая чувствительность целевой функции к изменению различных аргументов (например, когда в качестве критерия оптимизации используются приведенные затраты на какое-либо мероприятие или прибыль от его реализации). Довольно часто в вычислительной практике приходится сталкиваться с разными пределами изменения различных аргументов f (х1,х2,...,хn), например x1[0,1;0,8], x2[100;1000]. Если при вычислении частных производных целевой функции использовать одинаковые значения хi, то ее чувствительность к изменению разных аргументов будет неодинаковой - возникнет ситуация, характерная для наличия "оврага".

Использовать различные значения хi неудобно, вместо этого рекомендуют применять процедуру нормирования аргументов целевой функции: , i=1,2,...,n, тогда , i=1,2,...,n. Такая замена позволяет вычислять частные производные функции f (х1,х2,...,хn) с одинаковыми приращениями zi , i=1,2,...,n и использовать в процессе поиска значения zi вместо xi, i=1,2,…,n, но перед вычислением значений функции необходимо выполнять обратную процедуру: , i=1,2,...,n.

Если нормирование значений аргументов не помогает избежать "оврага", для поиска min f (х12,...,хn) используются специальные методы.



М

Рисунок 2.18 Иллюстрация к методу

сопряженных градиентов

етод сопряженных градиентов
(рисунок 2.18). Это модификация метода градиента, позволяющая избежать "застревания в овраге" (в "правильном овраге", примером которого может служить эллипс с соотношением полуосей менее 1/50). Первый шаг делается в направлении антиградиента целевой функции, а второй и последующие – в направлении векторной суммы антиградиента в текущей точке и предыдущего направления. Для преодоления "застревания в овраге" через n шагов осуществляется обновление направления: делается шаг в направлении антиградиента целевой функции. Основное соотношение метода

, i=1,2,...,n, (2.13)

где ,



, k=0,1,...

При обновлении направления второе слагаемое в последней формуле зануляется. Дробление шага и останов осуществляется аналогично методу градиента с постоянным шагом.



Метод "шагов по оврагу" (рисунок 2.19). Последовательность действий при поиске минимума функции f (х12) следующая:

1) аргументы целевой функции разбиваются на две группы - существенно влияющие на ее изменение (х1) и мало влияющие (х2);

2

Рисунок 2.19 Иллюстрация к методу

"шагов по оврагу"
) из начальной точки производится поиск min f (x1,x2) любым методом – в результате получается точка , лежащая на дне "оврага";

3) путем изменения переменных, мало влияющих на изменение функции или случайным образом выбирается новая начальная точка , из которой производится поиск min f (x1,x2) и находится точка дна "оврага" ;

4) точки и соединяются прямой и в направлении уменьшения значения функции делается "шаг по оврагу" – в результате получается новая начальная точка ;

5) поиск min f (x1,x2) из точки даст следующую точку дна оврага и т.д. до тех пор, пока значение функции в точке не окажется больше, чем в точке ;



6) делается вывод, что точка минимума находится между и , поиск с точки повторяется с меньшим "шагом по оврагу", и т.д. пока этот шаг не станет меньше заданной точности.
<== Возврат к содержанию раздела