Diferenciální entropie

Aktuální verze stránky ještě nebyla zkontrolována zkušenými přispěvateli a může se výrazně lišit od verze recenzované 27. října 2016; kontroly vyžadují 70 úprav .

Diferenciální entropie  je funkcionál definovaný na množině absolutně spojitých rozdělení pravděpodobnosti , formální obdoba Shannonova konceptu informační entropie pro případ spojité náhodné veličiny . V teorii informace funkcionál heuristicky zavedl K. Shannon [1] , ale není autorem termínu „diferenciální entropie“. Samotný termín zavedl A. N. Kolmogorov spolu s I. M. Gelfandem a A. M. Yaglomem a zdůrazňuje, že tento pojem má jiný význam než entropiediskrétní distribuce. Získali také rigorózní odvození diferenciální entropie jako prvního členu asymptotického rozvoje entropie , ve kterém se projevuje závislost na rozdělení náhodné veličiny [2] [3] [4] . Pro spojitou náhodnou veličinu distribuovanou na ( ) je diferenciální entropie definována jako

,

kde  je hustota distribuce náhodné veličiny (nebo signálu ze spojitého zdroje jako náhodné veličiny). Volba základu logaritmu v tomto vzorci (musí být větší než 1) určuje měrnou jednotku pro odpovídající množství informace. Takže v teorii informace se často používá binární logaritmus , který odpovídá jednotce množství informace bit a funkcionál je interpretován jako průměrná informace spojitého zdroje. V matematické statistice se v definici diferenciální entropie z důvodů pohodlí obvykle používá přirozený logaritmus (odpovídající jednotka nat ), funkcionál je interpretován jako míra nejistoty spojitého rozdělení.

Diferenciální entropie je neinvariantní vzhledem k transformacím souřadnic náhodné veličiny a nemá nezávislý význam (má neinterpretovatelnou číselnou hodnotu). Navíc, pokud má náhodná veličina dimenzi, pak bude funkcionál diferenciální entropie z hlediska dimenze nesprávný, protože rozměrová veličina se objeví pod znaménkem logaritmu. Rozdíl mezi diferenciálními entropiemi dvou náhodných veličin distribuovaných na stejné množině je však správný, navíc bezrozměrná veličina a shoduje se s rozdílem jejich entropií. Protože entropie libovolné spojité náhodné veličiny je nekonečná, je při zohlednění rozdílu entropií nutné odhalit nejistotu pomocí asymptotického rozvoje [3] [4] [5] .

Schopnost vyjádřit diferenciální entropii v bitech (nebo jiných jednotkách) je tedy spíše libovolná: situace je zde podobná jako u měření teploty ve stupních Celsia , které, i když se shodují co do velikosti s kelviny , nejsou absolutní teplotní stupnicí , ale mají nějaký posun vzhledem k ní (podle Z tohoto důvodu může být diferenciální entropie, stejně jako teplota na Celsiově stupnici , záporná). Rozdíl je v tom, že v případě diferenciální entropie je tento posun nekonečný vzhledem k absolutní škále definované hodnotami entropie . Tito. nelze zvolit absolutní měřítko pro entropii spojitých rozdělení, ale pro porovnání entropií různých rozdělení lze použít diferenciální entropii.

V některých zdrojích [5] je diferenciální entropie distribuce interpretována jako její entropie vzhledem k entropii rovnoměrného rozdělení na intervalu jednotkové délky, protože toto rozdělení má nulovou diferenciální entropii. Je třeba poznamenat, že tento přístup není zcela správný, protože entropie ve spojitém případě závisí na tom, jak diskretizační krok směřuje k nule, když je interval rozdělen. Pouze v případě, že je uvažován stejný interval, lze předpokládat, že při výpočtu entropie je použita stejná diskretizace pro každé z rozdělení, pak se rozdíl entropie blíží ke konečné hranici. V obecném případě (pro libovolnou diskretizaci) nesměřuje rozdíl mezi entropiemi spojitých náhodných veličin k žádné hranici.

Podmíněná diferenciální entropie

Podmíněná diferenciální entropie pro množství v daném množství je dána následujícím vzorcem:

.

Nepodmíněné a podmíněné diferenciální entropie mohou být buď kladné nebo záporné a mohou se také rovnat nekonečnu . Tato okolnost také naznačuje, že diferenciální entropie (podmíněná a nepodmíněná) má trochu jiný význam než entropie , která je vždy nezáporná.

Pro diferenciální entropii platí rovnosti, podobně jako u entropie diskrétního zdroje :

(pro nezávislé zdroje - rovnost)

Příklady

V níže uvedených příkladech používá definice diferenciální entropie přirozený logaritmus, rozptyl distribuce.

. . .

Příklady s konkrétními měrnými jednotkami

Vezměme si kousky pro definitivnost . Takže základ logaritmu je 2.

Poznámky

  1. Shannon, 1963 , str. 296-300.
  2. Gelfand, 1958 , str. 300-320.
  3. 1 2 Kolmogorov, 1987 , s. 39-41.
  4. 1 2 Glushkov, 1974 , str. 583-585.
  5. 1 2 Tarasenko, 1963 , s. 74-77.

Literatura

Odkazy