Entropie

chaos | entropie | generátor | hash | mmBIP32-84 | transakce | blockchain | halving |


Entropie je míra „neuspořádanosti“ – respektive míra nejistoty nebo náhodnosti v sadě dat. Pro představu se jedná o měřítko toho, jak moc jsou data nepředvídatelná. V kontextu generovaných náhodných čísel nám entropie říká, jak (ne)rovnoměrně jsou ta čísla rozložena.

Informační nebo též shannonovská entropie je střední hodnota množství informace připadající na jeden symbol generovaný stochastickým zdrojem dat.
https://cs.wikipedia.org/…_entropie (wiki.cz)

Jak funguje vzorec pro výpočet entropie?

Vzorec pro výpočet entropie, který používáme, je známý jako Shannonova entropie. Představ si, že máš řadu čísel a chceš zjistit, jak moc jsou tato čísla náhodná. Postupujeme podle následujících kroků:

  1. Spočítáme frekvenci každého čísla:
    • Nejprve zjistíme, kolikrát se každé číslo v sadě objevuje. Například, pokud máš čísla [1, 2, 2, 3, 3, 3], číslo 1 se objevuje jednou, číslo 2 dvakrát a číslo 3 třikrát.
  2. Vypočítáme pravděpodobnost každého čísla:
    • Pravděpodobnost je frekvence čísla vydělená celkovým počtem čísel. Pokud máme 6 čísel, pak pravděpodobnost, že se objeví číslo 1, je 1/6, číslo 2 je 2/6 a číslo 3 je 3/6.
  3. Použijeme Shannonův vzorec pro výpočet míry entropie:
  1. px​ je pravděpodobnost každého čísla.
  2. součin nám říká, jak moc každé číslo přispívá k celkové entropii.
  3. Sečteme všechny tyto hodnoty a vynásobíme je -1 (protože log⁡2px\log_2 p_xlog2​px​ je záporné číslo).

Příklad:

Představ si, že máš čtyři čísla [1, 1, 2, 3]:

  1. Frekvence:
    • Číslo 1: 2krát
    • Číslo 2: 1krát
    • Číslo 3: 1krát
  2. Pravděpodobnosti:
    • p1=2/4=0.5p_1 = 2/4 = 0.5p1​=2/4=0.5
    • p2=1/4=0.25p_2 = 1/4 = 0.25p2​=1/4=0.25
    • p3=1/4=0.25p_3 = 1/4 = 0.25p3​=1/4=0.25
  3. Vzorec pro entropii:H=−(0.5log⁡20.5+0.25log⁡20.25+0.25log⁡20.25)H = – (0.5 \log_2 0.5 + 0.25 \log_2 0.25 + 0.25 \log_2 0.25)H=−(0.5log2​0.5+0.25log2​0.25+0.25log2​0.25)
    • log⁡20.5=−1\log_2 0.5 = -1log2​0.5=−1
    • log⁡20.25=−2\log_2 0.25 = -2log2​0.25=−2
    H=−(0.5×−1+0.25×−2+0.25×−2)H = – (0.5 \times -1 + 0.25 \times -2 + 0.25 \times -2)H=−(0.5×−1+0.25×−2+0.25×−2) H=−(−0.5−0.5−0.5)=1.5H = – (-0.5 – 0.5 – 0.5) = 1.5H=−(−0.5−0.5−0.5)=1.5

Takže entropie této sady čísel je 1.5. Vyšší hodnota entropie znamená větší náhodnost nebo nejistotu v datech.

Co nám entropie určuje?

Doufám, že to takto dává smysl! Entropie nám tedy pomáhá pochopit, jak moc náhodná nebo nepředvídatelná jsou naše data.