Množství informace v teorii informace je množství informace v jednom náhodném objektu relativně k jinému.
Dovolit a být náhodné proměnné definované na odpovídající soubory a . Pak je množství informace relativní k rozdílu mezi apriorními a aposteriorními entropiemi:
,kde
je entropie a
- podmíněná entropie, v teorii přenosu informace charakterizuje šum v kanálu.
Entropie má následující vlastnosti:
,kde je počet prvků v množině .
, je-li jeden z prvků množiny realizován s pravděpodobností 1, respektive zbytek 0, vzhledem k tomu, že a .
Maximální hodnoty entropie je dosaženo, když všechny , tzn. všechny výsledky jsou stejně pravděpodobné.
Podmíněná entropie má následující vlastnosti:
,V tomto případě , pokud je mapování jednohodnotové, tzn. .
Maximální hodnoty podmíněné entropie je dosaženo, když a jsou nezávislé náhodné proměnné.
Pokud jde o množství informací, vlastnosti jsou pravdivé:
jako důsledek Bayesovy věty . jestliže a jsou nezávislé náhodné proměnné.Poslední vlastnost ukazuje, že množství informace se rovná informační entropii , pokud je složka ztráty informace (šum) nulová.