Автор работы: Пользователь скрыл имя, 18 Февраля 2013 в 23:37, дипломная работа
В теории управления эти методы, как правило, являются вспомогательными.
Например, в теории адаптивных систем широко применяется процедура градиентного метода. В теории нейронных сетей при настройке нейронных моделей часто используются метод наискорейшего спуска, метод Ньютона, квазиньютоновские методы и метод сопряженных градиентов. Кроме этого, безусловная оптимизация используется при решении задач связанных с оптимизацией химико-технологических систем при оперативном управлении в АСУТП.
. (15)
Сравнение формул (14) и (15) показывает, что оценка скорости сходимости обоих методов практически совпадает. Наблюдается полное совпадение по скорости убывания значения функции, а скорость убывания модуля вектора ошибки |хi — х+| в простом градиентном методе даже несколько выше, так как имеет место неравенство
Однако в тех случаях, когда отсутствует априорная информация относительно минимизируемой функции F (х), метод наискорейшего спуска может оказаться предпочтительным, так как он гарантирует всегда ту же скорость сходимости, что и простой градиентный метод с оптимальным выбором шага α0, зависящего от параметров т и М.[1]
1.2.2 Метод Ньютона
Это итерационный численный метод нахождения корня (нуля) заданной функции. Метод был впервые предложен английским физиком, математиком и астрономом Исааком Ньютоном (1643—1727), под именем которого и обрёл свою известность. Поиск решения осуществляется путём построения последовательных приближений и основан на принципах простой итерации. Метод обладает квадратичной сходимостью. В случае решения задач оптимизации предполагается, что функция дважды непрерывно дифференцируема. Отыскание минимума функции производится при помощи отыскания стационарной точки, т.е. точки , удовлетворяющей уравнению , которое решается методом Ньютона.
Если – точка, полученная на k-м шаге, то функция аппроксимируется своим уравнением касательной:
а точка выбирается как пересечение этой прямой с осью , т.е.
Неудобство этого метода состоит в необходимости вычисления в каждой точке первой и второй производных. Значит, он применим лишь тогда, когда функция имеет достаточно простую аналитическую форму, чтобы производные могли быть вычислены в явном виде вручную.
Действительно, всякий раз,
когда решается новая задача, необходимо
выбрать две специфические
Когда начальная точка итераций достаточно близка к искомому минимуму, скорость сходимости метода Ньютона в общем случае квадратическая. Однако, глобальная сходимость метода Ньютона, вообще говоря, не гарантируется.
Хороший способ гарантировать
глобальную сходимость этого метода
состоит в комбинировании его
с другим методом для быстрого
получения хорошей
1.2.3 Метод сопряженных градиентов
Метод сопряженных
градиентов, предложенный Хестеном и
Штифелем в 1952г., является одним из эффективнейших
современных методов безусловно
Выведем основные расчетные соотношения метода сопряженных градиентов. Пусть требуется найти точку минимума x+ для квадратичной формы q(x), определяемой выражением
q(x)=
x*Ax+b*x+c,
где А – положительно определенная симметричная матрица. Зададимся точкой начального приближения х0 и построим первое приближение вида
x1
= x0 – α
где α0 - выбирается из равенства
q(x0 – α0s1)=
Обозначим через si вектор, определяющий направление движения на i-м шаге. В общем случае, если , то (i+1)-е приближение будем строить следующим образом:
(17)
где параметры 𝛼i и βji (j = 1, 2,…, i; i = 0, 1, 2,…) определяются из условия минимума:
. (18)
Если , то в соответствии с положительной определенностью матрицы А точка xi есть точка минимума функции и итерационная процедура считается законченной. Из равенства (16) и (17) легко привести рекуррентное соотношение для градиентов функции в последующих итерациях:
. (19)
Учитывая выражение функции q(x) и положительную определенность матрицы A преобразуем условие (18) к виду
Очевидно, что из условия следует , поэтому вышеприведенное условие можно представить в виде
(20)
Сопоставляя равенство (19) и тождество
которое следует из формулы (17), получим
Иначе говоря, при реализации итерационной процедуры (17) векторы градиентов в различных итерациях взаимно ортогональны. Это указывает на конечность данной процедуры, так как в n-мерном пространстве не может существовать более чем n взаимно ортогональных векторов, то есть итерационная процедура должна закончиться не более чем за n шагов. Условие (20) при j=1, 2,…,i можно так же представить в виде
Следовательно,
.
Это означает, что направление движения в различных итерациях процедуры (17) взаимно А-ортогональны.
Используя равенство (21), определим параметры и вектор Si+1:
Отсюда, используя формулу (19), получим выражение для искомых параметров:
Принимая во внимание условие ортогональности, окончательно получим:
(22)
Выражение для параметра а{ можно получить, подставляя формулы (17) и (19) в условие (20):
Следовательно,
(23)
Из формул (22) и (23) следует
Подставляя выражения (22), (23), (24) в формулу (17), получим окончательные соотношения для метода сопряженных градиентов:
xi+l = хi − αisi+1, i = 0,1,2,...,
где
(25)
Расчетные формулы (25) могут оказаться неудобными, так как для их использования требуется знание матрицы вторых производных А при вычислении аi. Учитывая выражение (18), можно представить формулы (25) в виде:
xi+l = хi − αisi+1, i = 0,1,2,...;
В эти формулы матрица А не входит, но при реализации рекуррентной последовательности требуется вычисление градиента функции q (x) и определение точки минимума функции q (х) в направлении si+1.
Из последних соотношений следует, что рассматриваемый метод может быть применен к функции произвольного типа. Анализ сходимости показывает, что метод сопряженных градиентов имеет примерно такую же широкую область сходимости, что и метод наискорейшего спуска, но скорость сходимости квадратичная. В случае применения метода к неквадратичным функциям целесообразно время от времени производить «обновление» метода, т. е. после ряда итераций (порядка п) в точке xk вновь выбирать .
Метод сопряженных градиентов относится к группе методов сопряженных направлений. Другие методы этой группы являются более сложными в реализации, но имеют повышенную скорость сходимости.
Все перечисленные
методы характеризуются одним существе
F (𝜆х1 + (1 — λ) х2) ≤ 𝜆F (х1) + (1 — 𝜆) F (х2), (26)
то любой локальный минимум одновременно является и глобальным. Однако часто на практике бывает трудно проверить справедливость выполнения условий (26), так как аналитический вид функции может быть очень сложным или вообще неизвестным.
Единственная возможность нахождения глобального экстремума заключается в применении вышеизложенных локальных методов при различных точках начального приближения х0. После проведения достаточного числа процедур поиска локальных минимумов следует выбрать точку с минимальным значением функции. [1]
1.2.4 Функция Розенброка
К настоящему времени известно огромное количество алгоритмов поиска экстремума, и поэтому весьма актуальна задача выбора подходящего для решения конкретной задачи. В общем случае критерий выбора представляет собой компромисс между точностью приближения к точке экстремума, затратами ресурсов ЭВМ для этой цели и простотой требуемых аналитических выкладок (от которой зависят затраты времени разработчика на отладку).
С целью сравнения
эффективности различных
Формула, определяющая функцию Розенброка:
Эта функция имеет крайне пологий изогнутый овраг, что сильно затрудняет поиск минимума (значение аргументов в точке минимума очевидны: x* =1, y* = 0 (при этом f(x*,y*) = 0 ). Благодаря "неприятным" для методов поиска экстремума особенностям функция Розенброка часто используется для испытания сходимости различных алгоритмов и для их сравнения. [3]
1.3 Постановка задачи
Изложенные методы оптимизации используются в идентификации, адаптивном управлении, при решении оптимальных задач динамики, при моделировании объектов управления. Поэтому дипломная работа должна быть полезна, и востребована для обучения и для наглядного исследования методов безусловной оптимизации. Это доказывает ее актуальность.
В работе предполагается создать лабораторный практикум по безусловной оптимизации для студентов технических вузов. В частности для СПбГТИ(ТУ). Лабораторный практикум содержит восемь вариантов, а значит, он может проводиться среди восьми человек, либо среди восьми бригад, содержащих не более трех человек. Длительность занятия составляет два академических часа. Студентам предоставляется возможность исследования работы методов безусловной оптимизации, таких как: простой градиентный метод, метод наискорейшего спуска, метод Ньютона, метод сопряженных градиентов.
2. МЕТОДИКА ПРОВЕДЕНИЯ ЛАБОРАТОРНОЙ РАБОТЫ
Для выполнения лабораторной работы созданы программы в пакете MATLAB, соответствующие каждому варианту.
Для примера выполнения практикума приводится подробный алгоритм работы на основе второго варианта.
Зададимся целевой функцией в виде суммы квадратичной и линейной формы f=x'ax+b'x
Таблица 1 – Варианты для квадратичной формы
№ |
Матрица кв.формы |
Вектор линейной формы |
Преобразование координат |
1 |
a= 0.77 0 0 0.77 |
b= 1 1 |
S= 0.05 1 0.3 0.1 |
2 |
a= 4 0 0 0.77 |
b= 1 1 |
S= 0.05 1 0.3 0.1 |
3 |
a= 1.25 0.65 0.65 1.25 |
b= 0.75 0.3 |
S= -0.5 1 -0.3 0.1 |
4 |
a= 1.5 0.65 0.65 1.5 |
b= 0.75 0.3 |
S= 0.05 1 0.3 0.1 |
5 |
a= 1.9 0.6 0.6 1.9 |
b= 0.65 0.4 |
S= -0.5 -1 -0.4 -0.1 |
6 |
a= 1.9 0.5 0.5 1.9 |
b= 0.7 0.4 |
S= -0.5 -1 -0.4 -0.1 |
7 |
a= 1.54 0.6 0.6 1.54 |
b= 0.7 0.4 |
S= 0.05 1 0.3 0.1 |
8 |
a= 1.3 0.4 0.4 1.3 |
b= 0.75 0.3 |
S= -0.05 1 -0.3 0.1 |
Информация о работе Исследование простого градиентного метода