Entropia informațională
Entropia informațională măsoară incertitudinea asociată cu o variabilă aleatoare.
Această măsură indică și cantitatea de informație conținută într-un mesaj, exprimată de obicei în biți. Când este exprimată în biți, ea reprezintă lungimea minimă pe care trebuie să o aibă un mesaj pentru a comunica informația.
Conceptul a fost introdus de Claude Shannon în lucrarea sa din 1948 „O teorie matematică a comunicației”.
Exemplu:
Entropia unui mesaj aleator în limba engleză = 26 caractere (litere mici)
Probabilitatea literei p(a) = 1/26, p(b) = 1/26, ... p(z) = 1/26 => H(x) = 4.7 biți <= entropia maximă
Pe baza unor lucrări de beletristică poți observa frecvența fiecărei litere => modificare p(a), p(b), p(c), ... p(z) => H(X) = 2.62
Exerciții
Să se determine cantitatea medie de informație obținută în urma aruncării unui zar, când:
zarul este echilibrat
Formule folosite mai sus:
1) Formula logaritm
2) Proprietate logaritmi
3) formula de schimbare a bazei logaritmului
zarul prezintă următoarele probabilități de apariție a fețelor:
p(1)=1/2 ~50%
p(2)=1/4 ~25%
p(3)=1/8 ~12,5%
p(4)=1/16 ~ 6.25%
p(5)=1/32 ~3.125%
p(6)=1/32 ~3.125%
Incertitudinea s-a diminuat față de exemplul precendent.
Ce se întamplă când am un eveniment sigur, adică cu p(i) = 1?
Proprietăți:
Entropia informațională este maximă (nu e limitată superior) când nu am nici cea mai mică idee de ar putea să se întămple, probabilitatea evenimentelor este echiprobabilă (toate evenimentele au p(i) = 1/26 sau p(i) = 1/6)
Entropia informațională este minimă (0) atunci când evenimentul este sigur
Cantitataea de informație dintr-o imagine
Dimensiune imagine: 1,920 x 1,080 pixels (Full HD)
Imagine alb-negru => fiecare pixel are o valore din intervalul 0 - 255
Entropia unui pixel:
8 * 1920 * 1080 = 16 588 800 biți = 16,58 Megabiți ~ 2.07 Megabytes

Last updated