Bedingte Entropie

Aus testwiki
Version vom 23:56, 12. Jul. 2021 vo imported>SperaviriBot.
(Unterschiad) ← Nextejtane Version | Aktuelle Version (Unterschiad) | Neiare Version → (Unterschiad)
Zur Navigation springen Zur Suche springen

Vorlog:Dialekt-oben

Bedingte Entropie is in da Informationstheorie a Maß fia de „Ungewissheit“ iwan Weat vo oana Zuafoisvariablen X, de wo vableibt, nachdem as Ergebnis vo oana andan Zufoisvariablen Y bekannt wead. De bedingte Entropie wead H(X|Y) gschriem und hod oan Weat zwischen 0 und H(X), vo da urspringlichn Entropie von X. Sie wead in da gleichn Maßeinheit wia de Entropie gmessn.

Speziej hod sie an Weat 0, wenn aus Y da Weat vo X funktional bestimmt weadn ko und an Wert H(X), wenn X und Y stochastisch unabhängig san.

Definition

Wenn X a diskrete Zufoisvariable und M ia Weatevoarat is, d. h. M is a hextns obzejbore Menge mit P(XM)=1 (X soi jeds Element vo M mit ned negativa Woascheinlichkeit onehma), dann is de Entropie vo X duach

H(X):=xMP(X=x)logbP(X=x)

definiad, wo fia b tipischaweis de Weate 2 (Bit) oda e (Nat) fia de entsprechendn Einheitn ognumma wean.

Wenn owa A a Ereignis mit P(A)>0 is, dann definiad ma de bedingte Entropie vo X gegem A duach Ersetzn vo da Woarscheinlichkeit duach de bedingte Woarscheinlichkeit, d. h.

H(X|A):=xMP(X=x|A)logbP(X=x|A).

Etz sei Y a diskrete Zufoisvariable mit Weatevoarat L. Dann is de bedingte Entropie vo X gegem Y definiad ois gewichtetes Mittl der bedingten Entropien von X gegeben den Ereignissen Y=y für yL, d. h.

H(X|Y):=yL:P(Y=y)>0P(Y=y)H(X|Y=y).

Auf hehara Abstraktionsebene handeltsa si bei H(X) um an Erwortungswert vo da Informationsfunktion IX(x):=logbP(X=x|A) und bei H(X|Y) um de bedingte Erwortung vo da Informationsfunktion IX in Bezug af de vo Y afgspanntn σ-Algebra.[1]

Beleg

  1. Olav Kallenberg: Foundation's of Modern Probability. Springer, New York 2002, ISBN 0387953132, S. 220.