Křížová entropie

V teorii informace zkřížená entropie mezi dvěma rozděleními pravděpodobnosti změří průměrný počet bitů požadovaných k identifikaci události ze souboru možností, pokud je použité schéma kódování založeno na daném rozdělení pravděpodobnosti namísto „pravdivého“ rozdělení .

Křížová entropie pro dvě distribuce a ve stejném pravděpodobnostním prostoru je definována takto:

,

kde je entropie a je vzdálenost Kullback-Leibler od do (také známá jako relativní entropie ).

Pro diskrétní a to znamená

Situace pro kontinuální distribuci je podobná:

Je třeba vzít v úvahu, že i přes formální analogii funkcionálů pro spojité a diskrétní případy mají různé vlastnosti a různé významy. Spojitý případ má stejná specifika jako pojem diferenciální entropie .

Pozn .: Zápis se někdy používá jak pro křížovou entropii, tak pro společnou entropii a .

Minimalizace křížové entropie

Minimalizace křížové entropie se často používá při optimalizaci a pro odhadování pravděpodobností vzácných událostí.


Viz také