Přesnost v informatice je míra detailu, obvykle měřená v bitech , ale někdy v desetinných číslicích . To souvisí s platnými číslicemi v matematice , což je počet číslic, které se používají pro hodnotu číselného výrazu.
Některé ze standardních přesných formátů jsou:
Z nich se formát s osmičkovou přesností stále používá jen zřídka. Formáty s jednoduchou a dvojitou přesností jsou nejrozšířenější a podporované téměř na všech platformách. Použití formátu s poloviční přesností je na vzestupu, zejména v oblasti strojového učení , protože mnoho algoritmů strojového učení je odolných vůči chybám. [jeden]
Slovníky a encyklopedie |
---|