Gradientní metody

Gradientové metody jsou numerické metody pro řešení úloh pomocí gradientu , které jsou redukovány na hledání extrémů funkce.

Sdělení problému řešení soustavy rovnic z hlediska optimalizačních metod

Úkol vyřešit soustavu rovnic :

(jeden)

c je ekvivalentní problému minimalizace funkce

(2)

nebo nějaká jiná rostoucí funkce absolutních hodnot reziduí (chyb) , . Problém nalezení minima (nebo maxima) funkce proměnných má sám o sobě velký praktický význam.

Chcete-li tento problém vyřešit pomocí iteračních metod , je třeba začít s libovolnými hodnotami a konstruovat postupné aproximace:

nebo souřadnicově:

(3)

které konvergují k nějakému řešení pro .

Různé metody se liší volbou „směru“ pro další krok, tedy volbou vztahů

.

Hodnota kroku (vzdálenost, kterou se má posunout daným směrem při hledání extrému) je určena hodnotou parametru, který minimalizuje hodnotu jako funkci . Tato funkce je obvykle aproximována její Taylorovou expanzí nebo interpolačním polynomem přes tři až pět vybraných hodnot . Poslední metoda je použitelná pro nalezení max a min tabulkové funkce .

Gradientní metody

Hlavní myšlenkou metod je jít ve směru nejstrmějšího sestupu a tento směr je dán anti-gradientem :

kde je vybráno:

Metoda nejstrmějšího sestupu ( metoda gradientu )

Vyberte , kde jsou všechny derivace počítány na a snižte délku kroku , jak se blížíte k minimu funkce .

Pro analytické funkce a malé hodnoty umožňuje Taylorova expanze zvolit optimální velikost kroku

(5)

kde se všechny deriváty počítají na . Vhodnější může být interpolace parabolické funkce .

Algoritmus
  1. Je nastavena počáteční aproximace a přesnost výpočtu
  2. Počítej kde
  3. Zkontrolujte stav zastavení:
    • Pokud ano, přejděte ke kroku 2.
    • Jinak přestaň.

Gauss-Seidelova metoda souřadnicového sestupu

Tato metoda je pojmenována analogicky s Gauss-Seidelovou metodou pro řešení soustavy lineárních rovnic. Vylepšuje předchozí metodu díky tomu, že při další iteraci se klesání provádí postupně po každé ze souřadnic, ale nyní je nutné jednou v jednom kroku vypočítat nové.

Algoritmus
  1. Je nastavena počáteční aproximace a přesnost výpočtu
  2. Počítej kde
  3. Zkontrolujte stav zastavení:
    • Pokud ano, přejděte ke kroku 2.
    • Jinak přestaň.

Metoda konjugovaného gradientu

Metoda konjugovaného gradientu je založena na konceptech přímé metody vícerozměrné optimalizace  - metodě konjugovaných směrů .

Použití metody na kvadratické funkce v určuje minimum v krocích.

Algoritmus
  1. Jsou dány počáteční aproximací a chybou:
  2. Vypočítejte směr startu:
    • Pokud nebo , tak přestaňte.
    • v opačném případě
      • pokud , přejděte na 3;
      • jinak přejděte na 2.

Viz také

Literatura

  • Akulich I.L. Matematické programování v příkladech a úlohách: Proc. příspěvek na studentské hospodářství. specialista. vysoké školy. - M .: Vyšší. škola, 1986.
  • Gill F., Murray W., Wright M. Praktická optimalizace. Za. z angličtiny. — M .: Mir, 1985.
  • Korshunov Yu.M., Korshunov Yu.M. Matematické základy kybernetiky. — M .: Energoatomizdat, 1972.
  • Maksimov Yu.A., Filipovskaya E.A. Algoritmy pro řešení problémů nelineárního programování. — M. : MEPhI, 1982.
  • Maksimov Yu.A. Algoritmy pro lineární a diskrétní programování. — M. : MEPhI, 1980.
  • Korn G., Korn T. Příručka matematiky pro vědce a inženýry. - M .: Nauka, 1970. - S. 575-576.