Jazyková entropie

Entropie jazyka  je statistická funkce textu v určitém jazyce nebo jazyka samotného, ​​která určuje množství informací na jednotku textu.

Z matematického hlediska je entropie jazyka definována jako

kde  je zpráva,  je její entropie ,  je délka zprávy.

Podle Claude Shannona a Thomase Covera ( angl.  Thomas Cover ) je pro angličtinu tato hodnota mezi 1,3 a 2,3 bity na písmeno.

Literatura