Regularizace ve statistice , strojové učení , teorie inverzních problémů je metoda přidání některých dalších omezení k podmínce, aby se vyřešil špatně položený problém nebo aby se zabránilo nadměrnému vybavení . Tyto informace často přicházejí ve formě penalizace za složitost modelu. Mohou to být například omezení hladkosti výsledné funkce nebo omezení normy vektorového prostoru .
Z Bayesovského hlediska mnoho regularizačních metod odpovídá přidání některých předchozích rozdělení k parametrům modelu.
Některé typy regularizace:
Overfitting se ve většině případů projevuje tím, že výsledné polynomy mají příliš velké koeficienty. V souladu s tím je nutné přidat penalizaci za příliš velké koeficienty k účelové funkci .
Neexistuje řešení pro vícekriteriální optimalizaci nebo optimalizaci, ve které je definičním oborem účelové funkce prostor, na kterém neexistuje lineární řád , nebo je obtížné jej zavést. Téměř vždy existují body v doméně funkce, která je optimalizována a které splňují omezení, ale hodnoty v bodech jsou nesrovnatelné. Chcete-li najít všechny body na Paretově křivce , použijte skalarizaci [1] . V optimalizaci je regularizace obecnou skalarizační technikou pro dvoukriteriální optimalizační problém [2] . Změnou parametru lambda - prvku, který musí být větší než nula v duálním kuželu, podle kterého je definováno pořadí - můžete získat různé body na Paretově křivce .
Strojové učení a dolování dat | |
---|---|
Úkoly | |
Učení s učitelem | |
shluková analýza | |
Redukce rozměrů | |
Strukturální prognózy | |
Detekce anomálií | |
Grafové pravděpodobnostní modely | |
Neuronové sítě | |
Posílení učení |
|
Teorie | |
Časopisy a konference |
|