Entropie

Aktuální verze stránky ještě nebyla zkontrolována zkušenými přispěvateli a může se výrazně lišit od verze recenzované 25. srpna 2022; ověření vyžaduje 41 úprav .

Entropie (z jiného řeckého ἐν  „in“ + τροπή „zvrat; transformace“) je termín  široce používaný v přírodních a exaktních vědách (poprvé zaveden v rámci termodynamiky jako funkce stavu termodynamického systému ), označující míru nevratného rozptylu energie nebo zbytečnosti energie (protože ne všechnu energii systému lze využít k nějaké užitečné práci ). Pro pojem entropie v této části používají fyzici název termodynamická entropie ; termodynamická entropie se obvykle používá k popisu rovnovážných (vratných) procesů .

Ve statistické fyzice , entropie charakterizuje pravděpodobnost realizace nějakého makroskopického stavu . Kromě fyziky je termín široce používán v matematice: teorii informace a matematické statistice . V těchto oblastech poznání se entropie určuje statisticky a nazývá se statistická nebo informační entropie. Tato definice entropie je také známá jako Shannonova entropie (v matematice) a Boltzmann-Gibbsova entropie (ve fyzice).

Přestože jsou pojmy termodynamická a informační entropie zavedeny v rámci různých formalismů, mají společný fyzikální význam - logaritmus počtu dostupných mikrostavů systému . Vztah mezi těmito koncepty byl poprvé založen Ludwigem Boltzmannem . V nerovnovážných (nevratných) procesech slouží entropie také jako míra blízkosti stavu systému k rovnováze : čím větší je entropie, tím blíže je systém k rovnováze (ve stavu termodynamické rovnováhy je entropie systém je maximální).

Opakem entropie se nazývá negentropie nebo vzácněji extropie .

Použití v různých oborech

V termodynamice

Pojem entropie poprvé představil Clausius v termodynamice v roce 1865 , aby definoval míru nevratného rozptylu energie , míru odchylky skutečného procesu od ideálního. Je definována jako součet redukovaných tepl, je stavovou funkcí a zůstává konstantní v uzavřených vratných procesech , zatímco v nevratných uzavřených procesech je jeho změna vždy pozitivní. V otevřeném systému může dojít k poklesu entropie uvažovaného systému v důsledku odebírání energie např. ve formě záření, zatímco celková entropie prostředí roste [1] .

Matematicky je entropie definována jako funkce stavu systému, definovaného až do libovolné konstanty. Rozdíl entropií ve dvou rovnovážných stavech 1 a 2 se podle definice rovná redukovanému množství tepla ( ), které musí být systému hlášeno, aby bylo převedeno ze stavu 1 do stavu 2 po jakékoli kvazistatické dráze . [2] :

. (jeden)

Protože je entropie definována až do libovolné aditivní konstanty, můžeme podmíněně vzít stav 1 jako počáteční a dát . Pak

, (2)

Zde je integrál považován za libovolný kvazistatický proces . Funkční diferenciál má tvar

. (3)

Entropie vytváří spojení mezi makro- a mikrostavy. Zvláštnost této charakteristiky spočívá v tom, že je to jediná funkce ve fyzice, která ukazuje směr procesů. Protože entropie je stavová funkce, nezávisí na tom, jak se provádí přechod z jednoho stavu systému do druhého, ale je určena pouze počátečním a konečným stavem systému.

Fyzikální význam entropie

Entropie jako fyzikální veličina se vyznačuje svou abstraktností, fyzikální význam entropie nevyplývá přímo z jejího matematického vyjádření a není přístupný prostému intuitivnímu vnímání.

Z fyzikálního hlediska entropie charakterizuje míru nevratnosti, neideálnosti reálného termodynamického procesu. Je to míra disipace (disipace) energie a také míra hodnocení energie z hlediska její vhodnosti (resp. účinnosti) využití pro přeměnu tepla na práci. [3] Poslední dvě tvrzení neplatí pro neobvyklé systémy se zápornou absolutní teplotou, ve kterých se teplo může samovolně zcela přeměnit na práci.

V teorii informace

Pro entropii (častěji v matematice) existuje také název Shannonova informace nebo množství informací podle Shannona [4] .

Entropii lze interpretovat jako míru nejistoty (poruchy) nebo složitosti nějakého systému, například jakékoli zkušenosti (testu), která může mít různé výsledky, a tedy i množství informací [5] [6] . Jiným výkladem entropie je tedy informační kapacita systému. S tímto výkladem souvisí i skutečnost, že tvůrce konceptu entropie v teorii informace ( Claude Shannon ) chtěl tuto veličinu nejprve nazvat informací .

Pojem informační entropie se používá jak v teorii informace a matematické statistice , tak ve statistické fyzice ( Gibbsova entropie a její zjednodušená verze - Boltzmannova entropie ) [7] [8] . Matematický význam informační entropie  je logaritmus počtu dostupných stavů systému (základ logaritmu může být různý, ale větší než 1, určuje jednotku entropie) [9] . Taková funkce počtu stavů poskytuje aditivní vlastnost entropie pro nezávislé systémy. Navíc, pokud se stavy liší ve stupni přístupnosti (tedy nejsou stejně pravděpodobné), je třeba chápat počet stavů systému jako jejich efektivní počet, který se určuje následovně.

Nechť jsou stavy systému stejně pravděpodobné a mají pravděpodobnost , pak počet stavů a ​​. V případě různých pravděpodobností stavu zvažte váženou průměrnou hodnotu

kde  je efektivní počet stavů. Z této interpretace přímo vyplývá výraz pro Shannonovu informační entropii :

Podobná interpretace platí také pro Renyiho entropii , což je jedno ze zobecnění konceptu informační entropie , ale v tomto případě je efektivní počet stavů systému definován jinak. Rényiho entropie odpovídá efektivnímu počtu stavů definovaných [10] jako vážený mocninný průměr s parametrem .

Je třeba poznamenat, že výklad Shannonova vzorce na základě váženého průměru není jeho opodstatněním. Přesné odvození tohoto vzorce lze získat z kombinatorických úvah pomocí Stirlingova asymptotického vzorce a spočívá ve skutečnosti, že kombinatorické rozdělení (to znamená počet způsobů, jakými může být realizováno) po logaritmu a normalizaci v limitě se shoduje s výrazem pro entropii ve tvaru, který navrhl Shannon [11] [12] .

V biologii

Entropie, obvykle představená jako „míra neuspořádanosti nebo neurčitosti systému“, se často používá při úvahách o směru evolučních procesů. Z tohoto pohledu je biosféra superkomplexní samoorganizující se struktura, „živící se“ neomezenou entropií slunečního záření [13] [14] . Bakteriorhodopsin plní stejnou funkci jako chlorofyl (tunelový efekt) – zajišťuje přeměnu elektromagnetického záření na energii chemických vazeb. Pokud mluvíme o řádu, pak uspořádání uspořádání prvků fotosyntetického elektronového transportního řetězce zajišťuje fotosyntetická membrána (strukturní jednotka chloroplastů ), která určuje řízený přenos elektronů a protonů, vytváří a udržuje rozdíl v elektrochemické potenciály iontů, oddělující oxidované a redukované produkty a zabraňující jejich rekombinaci [15 ] .

Předpokládá se, že složitost organizace ovlivňuje udržitelnost různými způsoby v živé a neživé přírodě [16] [17] . V neživé přírodě vede nárůst složitosti ke snížení stability živé hmoty. Naproti tomu v živé přírodě jsou komplexní (sociální) organizace stabilnější (z hlediska schopnosti přežít) než stabilita každého prvku zvlášť. Například počet organismů sestávajících z malého počtu buněk (například komárů) je mnohem větší než počet organismů sestávajících z velkého počtu buněk (například sloni). To však nevypovídá nic o stabilitě související s elementární složkou. Pokud by si cytolog chtěl udělat statistiku a náhodně sesbíral sbírku buněk, našel by v ní nejvíce buněk patřících savcům. To naznačuje, že s komplikací živých organismů se výrazně zvyšuje stabilita jejich elementárních složek (buněk) [18] .

Analogicky se Shannonovou definicí entropie můžeme jako míru organizace uvažovat o kvantitě

kde je poměr počtu odkazů dostupných na prvek v daném okamžiku k počtu všech možných odkazů tohoto prvku. Zde, stejně jako v případě stanovení entropie informačního zdroje, je podmínka pravdivá, nicméně podmínka , která je splněna pro případ stanovení entropie, zde již nenastává a je nahrazena nerovností Pro prvek , který nemá spojení s žádným jiným prvkem, Naopak, když je prvek spojen se všemi ostatními prvky, a

Výraz pro míru relativní organizace je napsán takto:

Maximální organizace se nalézá vyrovnáním přes všechny nuly, výsledkem je systém rovnic:

Pro kteroukoli z těchto rovnic

Aby bylo dosaženo maximální organizace, měl by být poměr připojení roven (kde je Eulerovo číslo ),

Tato nestochastická interpretace organizace má také tu výhodu, že umožňuje vyvodit řadu zajímavých závěrů. Aby se ve stupni spojení zohlednila přítomnost spojení mezi dvěma prvky prostřednictvím mezilehlých prvků, bude nutné použít nikoli počet spojení vhodných pro prvek , ale počet, který je určen z výrazu

kde je stupeň příbuznosti (síla spojení) mezi prvky a V tomto případě to bude ve vzorci představovat relativní celkovou pevnost spojení (místo počtu spojení, jak tomu bylo dříve) pro prvek [19 ]

Axiomatická definice entropie

Výraz pro informační entropii lze odvodit na základě nějakého systému axiomů . Jedním z přístupů je následující systém axiomů, známý jako Khinchinův systém axiomů : [20] .

1 . Nechť je nějaký systém v každém z dostupných stavů s pravděpodobností , kde . Entropie je funkcí pouze pravděpodobností : . 2 . Pro libovolný systém , , kde je systém s rovnoměrným rozdělením pravděpodobnosti: . 3 . Pokud do systému přidáme stav , pak se entropie systému nezmění. 4 . Entropie množiny dvou systémů a má tvar , kde je podmíněná entropie zprůměrována přes soubor .

Tato sada axiomů jednoznačně vede ke vzorci pro Shannonovu entropii.

Někteří autoři [21] upozorňují na nepřirozenost posledního Khinchinova axiomu. Požadavek aditivity entropie pro nezávislé systémy je skutečně jednodušší a zjevnější. Poslední axiom tedy může být nahrazen následující podmínkou.

4' . Entropie celku dvou nezávislých systémů a má tvar .

Ukazuje se, že systém axiomů s bodem 4' vede nejen k Shannonově entropii, ale také k Rényiho entropii .

f -entropie

Kromě Rényiho entropie jsou známy i další zobecnění standardní Shannonovy entropie, např. třída f -entropií navržená [22] I. Chisarem v roce 1972. V roce 1971 také S. Arimoto navrhl [23] tzv. koncept f -entropie, který definuje jinou třídu funkcionálů . Dále je zvažován koncept I. Chisara . Pojem f -entropie souvisí [24] s pojmem f -divergence . Prvky těchto tříd tvoří párovou korespondenci a každý takový pár funkcionálů je určen nějakou konvexní funkcí v , splňující podmínku .

Pro danou funkci je f -entropie diskrétního rozdělení definována jako

Nejznámější speciální případy f -entropie jsou:

Shannonova entropie je jedinou aditivní entropií ve třídě f -entropie .

Pojem f -entropie je obecně definován následovně. Dovolit být rozdělení pravděpodobnosti a být jakékoli opatření , pro které existuje absolutně spojitý s ohledem na funkci . Pak

Spojité verze f -entropií však nemusí dávat smysl kvůli divergenci integrálu.

f -entropie je konkávní funkcionál rozdělení pravděpodobnosti.

Je vidět, že funkci lze specifikovat až do členu , kde je libovolná konstanta. Bez ohledu na volbu generuje funkce jedinou f - divergenční funkcionál . A f -entropický funkcionál se ukáže být definován až do libovolné aditivní konstanty, tzn. Volbou konstanty můžete nastavit referenční bod entropie. V tomto případě vyvstává následující nuance (charakterističtější pro spojitou verzi f - entropie ): in přestává být náhodné. Zejména v diskrétní verzi entropie musí být konstanta fixována na . Proto pro f -entropii, aby se nesnížila obecnost definice, lze výslovně specifikovat aditivní konstantu. Pokud je například Lebesgueova míra na , pak je hustota rozdělení pravděpodobnosti a

kde je libovolná konstanta.

Funkci lze také specifikovat až do libovolného kladného faktoru, jehož volba je ekvivalentní volbě měrné jednotky příslušné f -entropie nebo f -divergence .

Porovnáním výrazů pro f -entropii a f -divergenci v obecném tvaru můžeme napsat následující vztah, který je spojuje [25] :

kde je rovnoměrné rozložení . Pokud předpokládáme , že deriváty rozdělení s ohledem na míru jsou argumenty entropie a divergence , máme formální zápis

Toto spojení je zásadní a hraje důležitou roli nejen ve třídách f - entropie a f - divergence . Tento vztah tedy platí pro Rényiho entropii a divergenci a zejména pro Shannonovu entropii a Kullback-Leiblerovu divergenci . To je způsobeno tím, že podle obecně přijímané axiomatiky dosahuje entropie svého maxima na rovnoměrném rozdělení pravděpodobnosti.

Viz také

Poznámky

  1. Zubarev D. N., Morozov V. G. Disipace energie // Fyzikální encyklopedie  : [v 5 svazcích] / Ch. vyd. A. M. Prochorov . - M .: Sovětská encyklopedie (sv. 1-2); Velká ruská encyklopedie (sv. 3-5), 1988-1999. — ISBN 5-85270-034-7 .
  2. Sivukhin D.V. Obecný kurz fyziky. - M. , 1979. - T. II. Termodynamika a molekulární fyzika. - S. 127.
  3. Shambadal P. Vývoj a aplikace entropie, 1967 , str. 61-64.
  4. Tsypkin Ya. Z., 1995 , s. 77.
  5. Zubarev D. N., Morozov V. G. Entropie // Fyzická encyklopedie  : [v 5 svazcích] / Ch. vyd. A. M. Prochorov . - M .: Sovětská encyklopedie (sv. 1-2); Velká ruská encyklopedie (sv. 3-5), 1988-1999. — ISBN 5-85270-034-7 .
  6. Entropie // Velká sovětská encyklopedie  : [ve 30 svazcích]  / kap. vyd. A. M. Prochorov . - 3. vyd. - M  .: Sovětská encyklopedie, 1969-1978.
  7. http://emf.pskgu.ru/ebooks/astros/0401_O.pdf
  8. http://profbeckman.narod.ru/poryadok/Doclad_poryadok.pdf
  9. Wentzel E. S., 1969 , s. 468-475.
  10. Zaripov R. G., 2005 , s. 13-22, 108-125.
  11. Janes E. T. O zdůvodnění metod maximální entropie // TIER. - 1982. - T. 70 , čís. 9 . - S. 33-51 .
  12. Kolmogorov, 1987 , s. 29-39.
  13. Rapaport A. - Matematické aspekty abstraktní analýzy systémů // Studie z obecné teorie systémů. M.: Pokrok. 1969. S. 83-105.
  14. N. N. Brushlinskaya, Faktorová invariance rovnic chemické kinetiky podél jednorozměrné množiny v prostoru parametrů, Uspekhi Mat. Nauk, 1975, svazek 30, číslo 6(186), 161–162.
  15. Kadoshnikov S.I. - Fotoelektrické a spektrální vlastnosti umělých chlorofyl-lipidových membrán.
  16. Uskov A.A., Kruglov V.V. - Stabilita velkých systémů.
  17. George J. Klir - Architektura řešení systémových problémů.
  18. G. Foerster - Biologická logika // "Problémy bioniky: Biologické prototypy a syntetické systémy", ed. "Mir", M., 1965.
  19. R. Boyell - Paměť se sémantickými vazbami // "Problémy bioniky: Biologické prototypy a syntetické systémy", ed. "Mir", M., 1965.
  20. Khinchin A. Ya Koncept entropie v teorii pravděpodobnosti  // Uspekhi matematicheskikh nauk. - 1953. - T. 8 , čís. 3(55) . - S. 3-20 .
  21. Plastino A., Plastino AR Tsallisova entropie a Jaynesova informační teorie Formalismus  // Brazilský žurnál fyziky. - 1999. - T. 29 , no. 1 . - S. 53 .
  22. Csiszár I. Třída míry informativnosti pozorovacích kanálů.  // Periodika Math. hungar. - 1972. - T. 2 . — S. 191–213 .
  23. Arimoto S. Informačně-teoretické úvahy o problémech odhadu  // Informace a řízení. - 1971. - T. 19 , no. 3 . — S. 181–194 .
  24. Csiszár I. Axiomatická charakteristika informačních měr.  // entropie. - 2008. - Vydání. 10 . - S. 261-273 .
  25. Cichocki A., Amari S.-I. Rodiny alfa-beta- a gama divergence: Flexibilní a robustní míry podobností.  // entropie. - 2010. - T. 12 , no. 6 . - S. 1532-1568 .

Literatura

Odkazy