Важной характеристикой бесконечношаговых методов является сходимость.
Будем говорить, что метод (2.3) сходится, если хk® х* при k ® ¥,где х* – решение задачи (2.1). Если f(хk) ® f(х*), то иногда также говорят, что метод (2.3) сходится (по функции), при этом последовательность хk называют минимизирующей. Минимизирующая последовательность может и не сходиться к точке минимума. Так, для функции, график которой изображен на рис. 2.1, минимизирующая последовательность xk= k не сходится к точке минимума х* = 0.
В случае, когда точка минимума х* не единственна, под сходимостью метода понимается сходимость последовательности х* к множеству X* точек минимума функции f.
Эффективность сходящегося метода можно охарактеризовать с помощью понятия скорости сходимости.
Пусть хk® х* при k ® ¥. Говорят, что последовательность хkсходится к х* линейно (с линейной скоростью, со скоростью геометрической прогрессии), если существуют такие константы q Î (0, 1) и k0, что
при k ³ k0. (2.4)
Говорят, что хk сходится к х* сверхлинейно (со сверхлинейной скоростью), если
при k ® ¥. (2.5)
Наконец, говорят о квадратичной сходимости, если существуют такие константы С ³ 0 и k0, что
при k ³ k0. (2.6)
Установление факта сходимости и оценка скорости сходимости дают существенную информацию о выбранном методе минимизации. Прежде всего, требования, которые приходится накладывать на минимизируемую функцию, показывают область применимости метода. Анализ скорости сходимости дает полезную количественную и качественную характеристику изучаемого метода оптимизации. В то же время реальный процесс оптимизации не может быть бесконечношаговым.
При выборе подходящего метода решения реальных задач приходится во многом руководствоваться здравым смыслом, опытом, интуицией, а также результатами численных экспериментов.
Для задания конкретного вычислительного алгоритма бесконечно-шаговый метод необходимо дополнить условием остановки.
Условие остановки может определяться имеющимися в наличии вычислительными ресурсами. Например, может быть задано число вычислений предусмотренных алгоритмом характеристик минимизируемой функции f.
На практике часто используются следующие условия остановки:
, (2.7)
, (2.8)
, (2.9)
До начала вычислений выбирается одно из условий (2.7)-(2.9) и соответствующее ему малое положительное число ei. Вычисления прекращаются после (k+1)-го шага, если впервые оказывается выполненным выбранное условие остановки. На практике также используются критерии, состоящие в одновременном выполнении двух из условий (2.7)-(2.9) или всех трех условий.
Критерий (2.9) относится лишь к задачам безусловной оптимизации. Его выполнение означает, что в точке хk+1 с точностью e3 выполнено условие стационарности. В задаче условной оптимизации критерий (2.9) следует заменить на критерий «e-стационарности», соответствующий данной задаче.
Вместо критериев (2.7)-(2.9), основанных на понятии абсолютной погрешности, можно использовать аналогичные критерии, основанные на понятии относительной погрешности:
, (2.10)
, (2.11)
, (2.12)
Отметим, что выполнение указанных критериев и других подобных им эвристических условий остановки, вообще говоря, не гарантирует достижения необходимой точности решения задачи.
Многие методы минимизации относятся к числу методов спуска. В методах спуска направление движения к минимуму на каждом шаге выбирается из числа направлений убывания минимизируемой функции.
Говорят, что вектор h задает направление убывания функции f в точке x, если f(x + ah) < f(x) при всех достаточно малых a > 0. Сам вектор h также называют иногда направлением убывания. Множество всех направлений убывания функции f в точке х будем обозначать через U(х, f).
Таким образом, если любой достаточно малый сдвиг из х в направлении вектора h приводит к уменьшению значения функции f, то h Î U(x, f).
Заменив неравенство, фигурирующее в определении направления убывания, на противоположное, получим определение направления возрастания.
В дальнейшем нам понадобятся следующие достаточный и необходимый признаки направления убывания.
Лемма 2.1. Пусть функция f дифференцируема в точке х Î Rn. Если вектор h удовлетворяет условию
áf'(х),hñ < 0, (2.13)
то hÎ U(х, f). Если hÎ U(х, f), то
áf'(х),hñ £ 0, (2.14)
Геометрически условие (2.13) означает, что вектор h составляет тупой угол с градиентом f'(х).
Метод (2.3) называется методом спуска, если вектор hk задает направление убывания функции f в точке xk:
hkÎ U(хk, f), k = 0, 1, 2, ...,
а число ak положительно и таково, что
f(xk+1) < f(xk), k =0, 1, 2, ...
Простейшим примером метода спуска является градиентный метод, в котором hk = –f'(хk) (если f'(х)¹ 0, то –f'(х) Î U(х, f) в силу леммы 2.1).