Ve statistické termodynamice je Tsallisova entropie zobecněním standardní Boltzmann-Gibbsovy entropie navržené Constantinem Tsallisem [1] v roce 1988 pro případ neextenzivních (neaditivních) systémů. Jeho hypotéza je založena na předpokladu, že silná interakce v termodynamicky anomálním systému vede k novým stupňům volnosti, ke zcela jiné statistické fyzice jiného než Boltzmannova typu.
Dovolit být rozdělení pravděpodobnosti a být jakékoli opatření , pro které existuje absolutně spojitý s ohledem na funkci . Potom je Tsallisova entropie definována jako
Zejména pro diskrétní systém v jednom z dostupných stavů s rozdělením pravděpodobnosti ,
.V případě Lebesgueova opatření , tzn. kdy je spojitá distribuce s hustotou danou na množině ,
.V těchto vzorcích je to nějaká kladná konstanta, která určuje jednotku entropie a ve fyzikálních vzorcích slouží ke spojení dimenzí, jako je například Boltzmannova konstanta . Z hlediska problému optimalizace entropie je tato konstanta nevýznamná, proto se pro jednoduchost často předpokládá, že .
Parametrem je bezrozměrná hodnota ( ), která charakterizuje stupeň nerozsáhlosti (neaditivity) uvažovaného systému. V limitě v , Tsallisova entropie konverguje k Boltzmann-Gibbsově entropii . V , Tsallisova entropie je konkávní funkcionál rozdělení pravděpodobnosti a stejně jako běžná entropie dosahuje svého maxima při rovnoměrném rozdělení . Pro je funkcionál konvexní a dosahuje minima v případě rovnoměrného rozložení. Proto, abychom hledali rovnovážný stav izolovaného systému v , musí být Tsallisova entropie maximalizována a pro , musí být minimalizována [2] . Hodnota parametru je degenerovaný případ Tsallisovy entropie, kdy nezávisí na , ale závisí pouze na , tzn. na velikosti systému (od v diskrétním případě).
Ve spojitém případě je někdy požadováno, aby podpora náhodné veličiny byla bezrozměrná [3] . Tím je zajištěna správnost funkcionálu entropie z hlediska rozměru.
Historicky první výraz pro Tsallisovu entropii (přesněji pro její speciální případ na ) získali J. Havrda a F. Charvát [4] v roce 1967. Přitom u Tsallisovy entropie je speciální případ f - entropie [5] (pro f -entropie je hodnota opačná než Tsallisova entropie).
Tsallisovu entropii lze získat ze standardního vzorce pro Boltzmann-Gibbsovu entropii nahrazením funkce v něm použité funkcí
— tzv. q - deformovaný logaritmus nebo jednoduše q - logaritmus (v limitě při shodě s logaritmem) [6] . K. Tsallis použil [7] mírně odlišný vzorec pro q -logaritmus, který je zredukován na zde uvedený nahrazením parametru .
Jiný způsob [7] , jak získat Tsallisovu entropii, je založen na vztahu, který platí pro Boltzmannovu-Gibbsovu entropii :
.Je snadné vidět, že pokud nahradíme obyčejnou derivaci v tomto výrazu q - derivací (také známou jako Jacksonova derivace), dostaneme Tsallisovu entropii:
.Podobně pro spojitý případ:
.Nechť existují dva nezávislé systémy a , tzn. systémy takové, že v diskrétním případě je společná pravděpodobnost výskytu libovolných dvou stavů a v těchto systémech rovna součinu odpovídajících pravděpodobností:
,a spojitě je hustota společného rozdělení pravděpodobnosti rovna součinu odpovídajících hustot:
,kde , jsou rozsahy hodnot náhodné proměnné v systémech , resp.
Na rozdíl od Boltzmann-Gibbsovy entropie a Rényiho entropie nemá Tsallisova entropie obecně aditivitu a pro množinu systémů platí [7]
.Protože podmínkou aditivity pro entropii je
,odchylka parametru od charakterizuje neobšírnost (neaditivitu) systému. Entropie Tsallis je rozsáhlá pouze pro .
Spolu s Tsallisovou entropií se také uvažuje o rodině asymetrických Tsallisových mír divergence (divergence) mezi rozděleními pravděpodobnosti se společnou podporou. Pro dvě diskrétní rozdělení s pravděpodobnostmi a , , je Tsallisova divergence definována jako [8]
.Ve spojitém případě, pokud jsou rozdělení a dána hustotami a , v tomto pořadí, kde ,
.Na rozdíl od Tsallisovy entropie je Tsallisova divergence definována jako . Nevýznamná kladná konstanta v těchto vzorcích, stejně jako pro entropii, nastavuje jednotku měření divergence a je často vynechána (předpokládá se, že je rovna ). Tsallisova divergence je speciálním případem α-divergence [9] (až do nevýznamné konstanty) a stejně jako α-divergence je konvexní v obou argumentech pro všechny . Tsallisova divergence je také speciálním případem f- divergence .
Tsallisovu divergenci lze získat z Kullback-Leiblerova divergenčního vzorce nahrazením q -deformovaného logaritmu definovaného výše namísto funkce . V limitě v , Tsallisova divergence konverguje ke Kullback-Leiblerově divergenci .
Rényiho entropie a Tsallisova entropie jsou ekvivalentní [8] [10] až do monotónní transformace nezávislé na rozložení stavů systému. Totéž platí pro odpovídající odchylky. Uvažujme například Rényiho entropii pro systém s diskrétní sadou stavů :
, .Renyiho divergence pro diskrétní rozdělení s pravděpodobnostmi a , :
, .V těchto vzorcích má kladná konstanta stejný význam jako v Zallisově formalismu.
Je snadné to vidět
, ,kde je funkce
je definován na celé reálné ose a plynule narůstá (jak předpokládáme ). Výše uvedené vztahy platí i ve spojitém případě.
Navzdory přítomnosti tohoto spojení je třeba mít na paměti, že funkcionály ve formalismech Rényi a Tsallis mají různé vlastnosti: