Množství informací

Aktuální verze stránky ještě nebyla zkontrolována zkušenými přispěvateli a může se výrazně lišit od verze recenzované 8. října 2016; kontroly vyžadují 3 úpravy .

Množství informace v teorii informace je množství informace v jednom náhodném objektu relativně k jinému.

Dovolit a být náhodné proměnné definované na odpovídající soubory a . Pak je množství informace relativní k rozdílu mezi apriorními a aposteriorními entropiemi:

,

kde

je entropie a

- podmíněná entropie, v teorii přenosu informace charakterizuje šum v kanálu.

Vlastnosti entropie

Entropie má následující vlastnosti:

,

kde je počet prvků v množině .

, je-li jeden z prvků množiny realizován s pravděpodobností 1, respektive zbytek 0, vzhledem k tomu, že a .

Maximální hodnoty entropie je dosaženo, když všechny , tzn. všechny výsledky jsou stejně pravděpodobné.

Podmíněná entropie má následující vlastnosti:

,

V tomto případě , pokud je mapování jednohodnotové, tzn. .

Maximální hodnoty podmíněné entropie je dosaženo, když a jsou nezávislé náhodné proměnné.

Vlastnosti množství informací

Pokud jde o množství informací, vlastnosti jsou pravdivé:

jako důsledek Bayesovy věty . jestliže a jsou nezávislé náhodné proměnné.

Poslední vlastnost ukazuje, že množství informace se rovná informační entropii , pokud je složka ztráty informace (šum) nulová.

Literatura