![]()
|
|||
Метод покоординатного спуска (Гаусса—Зейделя)
Градиентные методы — численные методы решения с помощью градиента задач, сводящихся к нахождению экстремумов функции.
Постановка задачи решения системы уравнений в терминах методов оптимизации Задача решения системы уравнений:
с
или какой-либо другой возрастающей функции от абсолютных величин Для решения этой задачи итерационными методами начинают с произвольных значений или покоординатно:
которые сходятся к некоторому решению Различные методы отличаются выбором «направления» для очередного шага, то есть выбором отношений
Величина шага (расстояние, на которое надо передвинуться в заданном направлении в поисках экстремума) определяется значением параметра Градиентные методы Основная идея методов заключается в том, чтобы идти в направлении наискорейшего спуска, а это направление задаётся антиградиентом где · постоянной, в этом случае метод может расходиться; · дробным шагом, то есть длина шага в процессе спуска делится на некое число; · наискорейшим спуском: Метод наискорейшего спуска (метод градиента ) Выбирают Для аналитических функций
где все производные вычисляются при Алгоритм 1. Задаются начальное приближение и точность расчёта 2. Рассчитывают 3. Проверяют условие останова: · Если · Иначе Метод покоординатного спуска (Гаусса—Зейделя) Улучшает предыдущий метод за счёт того, что на очередной итерации спуск осуществляется постепенно вдоль каждой из координат, однако теперь необходимо вычислять новые Алгоритм 1. Задаются начальное приближение и точность расчёта 2. Рассчитывают 3. Проверяют условие остановки: · Если · Иначе Метод сопряжённых градиентов Метод сопряженных градиентов основывается на понятиях прямого метода многомерной оптимизации — метода сопряжённых направлений. Применение метода к квадратичным функциям в Алгоритм 1. Задаются начальным приближением и погрешностью: 2. Рассчитывают начальное направление: 3. · Если · Иначе · если · иначе
|
|||
|