Entropi (informationsteori)

Från Rilpedia

Hoppa till: navigering, sök
Wikipedia_letter_w.pngTexten från svenska WikipediaWikipedialogo_12pt.gif
rpsv.header.diskuteraikon2.gif

Entropi definierades som ett begrepp inom informationsteorin av Claude Shannon 1948 för en informationskälla som genererar symboler. Baserat på sannolikheten för varje symbol definieras entropin över hela sannolikhetsfördelningen som:

H = - \sum_i p_i \log p_i \,

Begreppet definierades utifrån behovet att beräkna kapaciteten hos kommunikationskanaler, och grundar sig på stokastiska sannolikheter.

Definitionen är skapad som en analogi till den mikroskopiska definitionen av den termodynamiska storheten entropi.

Se även

Personliga verktyg