Entropie (z jiného řeckého ἐν „in“ + τροπή „zvrat; transformace“) je termín široce používaný v přírodních a exaktních vědách (poprvé zaveden v rámci termodynamiky jako funkce stavu termodynamického systému ), označující míru nevratného rozptylu energie nebo zbytečnosti energie (protože ne všechnu energii systému lze využít k nějaké užitečné práci ). Pro pojem entropie v této části používají fyzici název termodynamická entropie ; termodynamická entropie se obvykle používá k popisu rovnovážných (vratných) procesů .
Ve statistické fyzice , entropie charakterizuje pravděpodobnost realizace nějakého makroskopického stavu . Kromě fyziky je termín široce používán v matematice: teorii informace a matematické statistice . V těchto oblastech poznání se entropie určuje statisticky a nazývá se statistická nebo informační entropie. Tato definice entropie je také známá jako Shannonova entropie (v matematice) a Boltzmann-Gibbsova entropie (ve fyzice).
Přestože jsou pojmy termodynamická a informační entropie zavedeny v rámci různých formalismů, mají společný fyzikální význam - logaritmus počtu dostupných mikrostavů systému . Vztah mezi těmito koncepty byl poprvé založen Ludwigem Boltzmannem . V nerovnovážných (nevratných) procesech slouží entropie také jako míra blízkosti stavu systému k rovnováze : čím větší je entropie, tím blíže je systém k rovnováze (ve stavu termodynamické rovnováhy je entropie systém je maximální).
Opakem entropie se nazývá negentropie nebo vzácněji extropie .
Pojem entropie poprvé představil Clausius v termodynamice v roce 1865 , aby definoval míru nevratného rozptylu energie , míru odchylky skutečného procesu od ideálního. Je definována jako součet redukovaných tepl, je stavovou funkcí a zůstává konstantní v uzavřených vratných procesech , zatímco v nevratných uzavřených procesech je jeho změna vždy pozitivní. V otevřeném systému může dojít k poklesu entropie uvažovaného systému v důsledku odebírání energie např. ve formě záření, zatímco celková entropie prostředí roste [1] .
Matematicky je entropie definována jako funkce stavu systému, definovaného až do libovolné konstanty. Rozdíl entropií ve dvou rovnovážných stavech 1 a 2 se podle definice rovná redukovanému množství tepla ( ), které musí být systému hlášeno, aby bylo převedeno ze stavu 1 do stavu 2 po jakékoli kvazistatické dráze . [2] :
. | (jeden) |
Protože je entropie definována až do libovolné aditivní konstanty, můžeme podmíněně vzít stav 1 jako počáteční a dát . Pak
, | (2) |
Zde je integrál považován za libovolný kvazistatický proces . Funkční diferenciál má tvar
. | (3) |
Entropie vytváří spojení mezi makro- a mikrostavy. Zvláštnost této charakteristiky spočívá v tom, že je to jediná funkce ve fyzice, která ukazuje směr procesů. Protože entropie je stavová funkce, nezávisí na tom, jak se provádí přechod z jednoho stavu systému do druhého, ale je určena pouze počátečním a konečným stavem systému.
Entropie jako fyzikální veličina se vyznačuje svou abstraktností, fyzikální význam entropie nevyplývá přímo z jejího matematického vyjádření a není přístupný prostému intuitivnímu vnímání.
Z fyzikálního hlediska entropie charakterizuje míru nevratnosti, neideálnosti reálného termodynamického procesu. Je to míra disipace (disipace) energie a také míra hodnocení energie z hlediska její vhodnosti (resp. účinnosti) využití pro přeměnu tepla na práci. [3] Poslední dvě tvrzení neplatí pro neobvyklé systémy se zápornou absolutní teplotou, ve kterých se teplo může samovolně zcela přeměnit na práci.
Pro entropii (častěji v matematice) existuje také název Shannonova informace nebo množství informací podle Shannona [4] .
Entropii lze interpretovat jako míru nejistoty (poruchy) nebo složitosti nějakého systému, například jakékoli zkušenosti (testu), která může mít různé výsledky, a tedy i množství informací [5] [6] . Jiným výkladem entropie je tedy informační kapacita systému. S tímto výkladem souvisí i skutečnost, že tvůrce konceptu entropie v teorii informace ( Claude Shannon ) chtěl tuto veličinu nejprve nazvat informací .
Pojem informační entropie se používá jak v teorii informace a matematické statistice , tak ve statistické fyzice ( Gibbsova entropie a její zjednodušená verze - Boltzmannova entropie ) [7] [8] . Matematický význam informační entropie je logaritmus počtu dostupných stavů systému (základ logaritmu může být různý, ale větší než 1, určuje jednotku entropie) [9] . Taková funkce počtu stavů poskytuje aditivní vlastnost entropie pro nezávislé systémy. Navíc, pokud se stavy liší ve stupni přístupnosti (tedy nejsou stejně pravděpodobné), je třeba chápat počet stavů systému jako jejich efektivní počet, který se určuje následovně.
Nechť jsou stavy systému stejně pravděpodobné a mají pravděpodobnost , pak počet stavů a . V případě různých pravděpodobností stavu zvažte váženou průměrnou hodnotu
kde je efektivní počet stavů. Z této interpretace přímo vyplývá výraz pro Shannonovu informační entropii :
Podobná interpretace platí také pro Renyiho entropii , což je jedno ze zobecnění konceptu informační entropie , ale v tomto případě je efektivní počet stavů systému definován jinak. Rényiho entropie odpovídá efektivnímu počtu stavů definovaných [10] jako vážený mocninný průměr s parametrem .
Je třeba poznamenat, že výklad Shannonova vzorce na základě váženého průměru není jeho opodstatněním. Přesné odvození tohoto vzorce lze získat z kombinatorických úvah pomocí Stirlingova asymptotického vzorce a spočívá ve skutečnosti, že kombinatorické rozdělení (to znamená počet způsobů, jakými může být realizováno) po logaritmu a normalizaci v limitě se shoduje s výrazem pro entropii ve tvaru, který navrhl Shannon [11] [12] .
Entropie, obvykle představená jako „míra neuspořádanosti nebo neurčitosti systému“, se často používá při úvahách o směru evolučních procesů. Z tohoto pohledu je biosféra superkomplexní samoorganizující se struktura, „živící se“ neomezenou entropií slunečního záření [13] [14] . Bakteriorhodopsin plní stejnou funkci jako chlorofyl (tunelový efekt) – zajišťuje přeměnu elektromagnetického záření na energii chemických vazeb. Pokud mluvíme o řádu, pak uspořádání uspořádání prvků fotosyntetického elektronového transportního řetězce zajišťuje fotosyntetická membrána (strukturní jednotka chloroplastů ), která určuje řízený přenos elektronů a protonů, vytváří a udržuje rozdíl v elektrochemické potenciály iontů, oddělující oxidované a redukované produkty a zabraňující jejich rekombinaci [15 ] .
Předpokládá se, že složitost organizace ovlivňuje udržitelnost různými způsoby v živé a neživé přírodě [16] [17] . V neživé přírodě vede nárůst složitosti ke snížení stability živé hmoty. Naproti tomu v živé přírodě jsou komplexní (sociální) organizace stabilnější (z hlediska schopnosti přežít) než stabilita každého prvku zvlášť. Například počet organismů sestávajících z malého počtu buněk (například komárů) je mnohem větší než počet organismů sestávajících z velkého počtu buněk (například sloni). To však nevypovídá nic o stabilitě související s elementární složkou. Pokud by si cytolog chtěl udělat statistiku a náhodně sesbíral sbírku buněk, našel by v ní nejvíce buněk patřících savcům. To naznačuje, že s komplikací živých organismů se výrazně zvyšuje stabilita jejich elementárních složek (buněk) [18] .
Analogicky se Shannonovou definicí entropie můžeme jako míru organizace uvažovat o kvantitě
kde je poměr počtu odkazů dostupných na prvek v daném okamžiku k počtu všech možných odkazů tohoto prvku. Zde, stejně jako v případě stanovení entropie informačního zdroje, je podmínka pravdivá, nicméně podmínka , která je splněna pro případ stanovení entropie, zde již nenastává a je nahrazena nerovností Pro prvek , který nemá spojení s žádným jiným prvkem, Naopak, když je prvek spojen se všemi ostatními prvky, a
Výraz pro míru relativní organizace je napsán takto:
Maximální organizace se nalézá vyrovnáním přes všechny nuly, výsledkem je systém rovnic:
Pro kteroukoli z těchto rovnic
Aby bylo dosaženo maximální organizace, měl by být poměr připojení roven (kde je Eulerovo číslo ),
Tato nestochastická interpretace organizace má také tu výhodu, že umožňuje vyvodit řadu zajímavých závěrů. Aby se ve stupni spojení zohlednila přítomnost spojení mezi dvěma prvky prostřednictvím mezilehlých prvků, bude nutné použít nikoli počet spojení vhodných pro prvek , ale počet, který je určen z výrazu
kde je stupeň příbuznosti (síla spojení) mezi prvky a V tomto případě to bude ve vzorci představovat relativní celkovou pevnost spojení (místo počtu spojení, jak tomu bylo dříve) pro prvek [19 ]
Výraz pro informační entropii lze odvodit na základě nějakého systému axiomů . Jedním z přístupů je následující systém axiomů, známý jako Khinchinův systém axiomů : [20] .
1 . Nechť je nějaký systém v každém z dostupných stavů s pravděpodobností , kde . Entropie je funkcí pouze pravděpodobností : . 2 . Pro libovolný systém , , kde je systém s rovnoměrným rozdělením pravděpodobnosti: . 3 . Pokud do systému přidáme stav , pak se entropie systému nezmění. 4 . Entropie množiny dvou systémů a má tvar , kde je podmíněná entropie zprůměrována přes soubor .Tato sada axiomů jednoznačně vede ke vzorci pro Shannonovu entropii.
Někteří autoři [21] upozorňují na nepřirozenost posledního Khinchinova axiomu. Požadavek aditivity entropie pro nezávislé systémy je skutečně jednodušší a zjevnější. Poslední axiom tedy může být nahrazen následující podmínkou.
4' . Entropie celku dvou nezávislých systémů a má tvar .Ukazuje se, že systém axiomů s bodem 4' vede nejen k Shannonově entropii, ale také k Rényiho entropii .
Kromě Rényiho entropie jsou známy i další zobecnění standardní Shannonovy entropie, např. třída f -entropií navržená [22] I. Chisarem v roce 1972. V roce 1971 také S. Arimoto navrhl [23] tzv. koncept f -entropie, který definuje jinou třídu funkcionálů . Dále je zvažován koncept I. Chisara . Pojem f -entropie souvisí [24] s pojmem f -divergence . Prvky těchto tříd tvoří párovou korespondenci a každý takový pár funkcionálů je určen nějakou konvexní funkcí v , splňující podmínku .
Pro danou funkci je f -entropie diskrétního rozdělení definována jako
Nejznámější speciální případy f -entropie jsou:
Shannonova entropie je jedinou aditivní entropií ve třídě f -entropie .
Pojem f -entropie je obecně definován následovně. Dovolit být rozdělení pravděpodobnosti a být jakékoli opatření , pro které existuje absolutně spojitý s ohledem na funkci . Pak
Spojité verze f -entropií však nemusí dávat smysl kvůli divergenci integrálu.
f -entropie je konkávní funkcionál rozdělení pravděpodobnosti.
Je vidět, že funkci lze specifikovat až do členu , kde je libovolná konstanta. Bez ohledu na volbu generuje funkce jedinou f - divergenční funkcionál . A f -entropický funkcionál se ukáže být definován až do libovolné aditivní konstanty, tzn. Volbou konstanty můžete nastavit referenční bod entropie. V tomto případě vyvstává následující nuance (charakterističtější pro spojitou verzi f - entropie ): in přestává být náhodné. Zejména v diskrétní verzi entropie musí být konstanta fixována na . Proto pro f -entropii, aby se nesnížila obecnost definice, lze výslovně specifikovat aditivní konstantu. Pokud je například Lebesgueova míra na , pak je hustota rozdělení pravděpodobnosti a
kde je libovolná konstanta.
Funkci lze také specifikovat až do libovolného kladného faktoru, jehož volba je ekvivalentní volbě měrné jednotky příslušné f -entropie nebo f -divergence .
Porovnáním výrazů pro f -entropii a f -divergenci v obecném tvaru můžeme napsat následující vztah, který je spojuje [25] :
kde je rovnoměrné rozložení . Pokud předpokládáme , že deriváty rozdělení s ohledem na míru jsou argumenty entropie a divergence , máme formální zápis
Toto spojení je zásadní a hraje důležitou roli nejen ve třídách f - entropie a f - divergence . Tento vztah tedy platí pro Rényiho entropii a divergenci a zejména pro Shannonovu entropii a Kullback-Leiblerovu divergenci . To je způsobeno tím, že podle obecně přijímané axiomatiky dosahuje entropie svého maxima na rovnoměrném rozdělení pravděpodobnosti.
Termodynamické potenciály | |
---|---|
Portál "Fyzika" |