EM-algorithm ( angl. Expectation-maximization (EM) algorithm ) je algoritmus používaný v matematické statistice k nalezení odhadů maximální věrohodnosti pro parametry pravděpodobnostních modelů v případě, kdy model závisí na nějakých skrytých proměnných . Každá iterace algoritmu se skládá ze dvou kroků. V E-kroku (očekávání) se vypočítá očekávaná hodnota věrohodnostní funkce , zatímco latentní proměnné jsou považovány za pozorovatelné . V M-kroku (maximalizace) se vypočítá odhad maximální věrohodnosti, čímž se zvýší očekávaná pravděpodobnost počítaná v E-kroku. Tato hodnota se pak použije pro E-krok v další iteraci. Algoritmus se provádí až do konvergence.
K oddělení směsi Gaussiánů se často používá EM algoritmus .
Nechť jsou některé z hodnot pozorovaných proměnných a jsou skryté proměnné. Společně tvoří kompletní datovou sadu. Obecně může existovat nějaká nápověda, která usnadní řešení problému, pokud je známa. Pokud například existuje směs distribucí , lze věrohodnostní funkci snadno vyjádřit pomocí parametrů jednotlivých distribucí směsi.
Předpokládejme, že se jedná o hustotu pravděpodobnosti (ve spojitém případě) nebo pravděpodobnostní funkci (v diskrétním případě) úplného souboru dat s parametry : Tuto funkci lze chápat jako pravděpodobnost celého modelu, pokud ji považujeme za funkce parametrů . Všimněte si, že podmíněné rozdělení skryté komponenty při určitém pozorování a pevné sadě parametrů lze vyjádřit následovně:
,pomocí rozšířeného Bayesova vzorce a vzorce celkové pravděpodobnosti . Potřebujeme tedy znát pouze rozložení pozorované složky pro pevný latent a pravděpodobnost latentních dat .
Algoritmus EM iterativně zlepšuje počáteční skóre výpočtem nových hodnot skóre a tak dále. V každém kroku se přechod do z provede následovně:
kde je očekávaný logaritmus pravděpodobnosti. Jinými slovy, nemůžeme okamžitě vypočítat přesnou pravděpodobnost, ale ze známých dat ( ) můžeme najít posteriori odhad pravděpodobností pro různé hodnoty latentních proměnných . Pro každou sadu hodnot a parametrů můžeme vypočítat očekávání pravděpodobnostní funkce pro tuto sadu . Závisí na předchozí hodnotě , protože tato hodnota ovlivňuje pravděpodobnosti latentních proměnných .
se počítá následovně:
to znamená, že se jedná o podmíněné očekávání pod podmínkou .
Jinými slovy, je hodnota, která maximalizuje (M) podmíněný průměr (E) logaritmické pravděpodobnosti pro dané hodnoty pozorovaných proměnných a předchozí hodnotu parametrů. Ve spojitém případě se hodnota vypočítá takto:
Za určitých okolností je vhodné uvažovat o EM algoritmu jako o dvou střídajících se maximalizačních krocích. [1] [2] Zvažte funkci:
kde q je rozdělení pravděpodobnosti nepozorovaných proměnných Z ; p Z | X ( · | x ; θ ) je podmíněné rozdělení nepozorovaných proměnných pro pevné pozorovatelné x a parametry θ ; H je entropie a D KL je Kullback-Leiblerova vzdálenost .
Potom lze kroky EM algoritmu reprezentovat jako:
E (očekávání) krok : Zvolte q pro maximalizaci F : M (aximizační) krok : Zvolte θ pro maximalizaci F :Strojové učení a dolování dat | |
---|---|
Úkoly | |
Učení s učitelem | |
shluková analýza | |
Redukce rozměrů | |
Strukturální prognózy | |
Detekce anomálií | |
Grafové pravděpodobnostní modely | |
Neuronové sítě | |
Posílení učení |
|
Teorie | |
Časopisy a konference |
|