Курсовая работа: Методи розв’язування одновимірних та багатовимірних нелінійних оптимізаційних задач та задач лінійного цілочислового програмування
Отже матриця Гессе матиме вигляд:
. А оскільки головні мінори додатні: , то матриця Гессе додатно визначена. Тобто достатні умови існування локального мінімуму виконані.
Так як цільова функція є опуклою, тобто це задача опуклого програмування, а функція є неперервно диференційованою в Rn , то якщо точка є точкою локального екстремуму, то вона буде і точкою глобального екстремуму для цієї задачі.
Отже можемо застосувати метод Ньютона. Послідовність точок, яка прямує до точки мінімуму функції згідно цього методу знаходиться за формулою: , де - обернена матриця Гессе.
.
Обиремо в допустимій області задачі довільну точку – початкове наближення. Нехай це буде точка .
Знайдемо градієнт цільової функції:і обчислимо його в точці : .
Знайдемо наступне наближення до оптимального розв’язку вихідної задачі: і обчислимо градієнт цільової функції в цій точці: . Рівність градієнта цільової функції нулю є необхідною умовою існування екстремуму функції багатьох змінних. Тобто оптимальний розв’язок задачі , причому .
Тепер розв’яжемо задачу мінімізації для функції , використовуючи метод найшвидшого спуску . Цей метод відноситься до градієнтних методів.
За даним методом будується послідовність точок , яка прямує до оптимального розв’язку задачі - . Від точки до точки рухаються в напрямі градієнта цільової функції, обчисленого в точці .
Широке застосування цього методу обумовлено тим, що в напряму антиградієнту — похідна функції за напрямом досягає найменшого значення.
Алгоритм методу найшвидшого спуску:
1. Обираємо довільну початкову точку , яка називається початковим наближенням розв’язку задачі , і покладаємо, що При цьому функція вважається опуклою і неперервно диференційованою в . Також обираємо точність обчислень .
2. Обчислюємо градієнт цільової функції . Якщо , то покладаємо і зупиняємо обчислення, інакше - переходимо до кроку 3.
3. Шукаємо наступне наближення за формулою: - для задачі мінімізації, а для задачі максимізації: . Число - параметр, який називається довжиною кроку в точці . Його обирають довільно, однак зазвичай, параметр обирається з умови, щоб в точці спостерігалося максимальне зменшення (збільшення) цільової функції .
4. Перевіряємо умову зупинки, а саме: . Якщо умова виконана, то покладаємо і зупиняємо обчислення, якщо ні, то переходимо до наступного кроку.
5. Покладаємо, що і переходимо до кроку 2.
Тепер перейдемо безпосередньо до нашого прикладу.
Оберемо спочатку точність обчислень . За початкове наближення як і в методі Ньютона візьмемо точку . З аналізу, проведеного в методі Ньютона, маємо що цільова функція є опуклою і неперервно диференційованою в Rn , отже даний метод застосовувати можна.
З методу Ньютона маємо, що градієнт цільової функції в точці буде рівним . Оскільки , то шукаємо наступне наближення розв’язку вихідної задачі:
.
Знайдемо : . Оскільки обирається з умови, щоб в точці спостерігалося максимальне зменшення , знайдемо похідну від цільової функції в точці і прирівняємо її до нуля.
Отже можемо тепер знайти координати точки : . Обчислимо значення цільової функції в цій точці: .
Перевіряємо умову зупинки:
отже шукаємо наступне наближення аналогічним чином.