imported>Joachim Stiller |
imported>Michael.heinen-anders |
Zeile 1: |
Zeile 1: |
| '''Äquivokation''' (von [[lateinisch]] ''aequus'' ,gleich‘ und ''vocare'' ,rufen‘) ist die [[Information]], die bei der [[Datenübertragung|Übertragung]] über einen [[Kanal (Informationstheorie)|Kanal]] zwischen einer Informationsquelle ([[Absender|Sender]]) und einer [[Informationssenke]] ([[Empfänger (Information)|Empfänger]]) [[Informationsverlust|verloren]] geht. Der [[Terminus]] ist in diesem Zusammenhang als ''[[Informationsgehalt]]'' zu verstehen und geht auf die [[Informationstheorie]] von [[Claude Elwood Shannon|Claude Shannon]] zurück, welcher die Grundlagen für diese in den 1940er Jahren legte.<br/>
| | Du kannst wohl nicht anders, als per Copy & Paste Artikel aus Wikipedia zu übernehmen, Joachim Stiller. Anthroposophische Eigenständigkeit ist bei Dir nur im Bereich von Stilblüten vorhanden.--[[Benutzer:Michael.heinen-anders|Michael.heinen-anders]] ([[Benutzer Diskussion:Michael.heinen-anders|Diskussion]]) 20:17, 10. Aug. 2018 (UTC) |
| Der abstrakte Begriff eines „Informationskanals“ kann sich in praktischen Realisierungen über den Ort (z. B. eine [[Nachrichtenverbindung]] zwischen zwei Punkten; → ''[[Direktverbindung|PTP]]'') oder über die Zeit (z. B. in Form eines [[Datenspeicher]]s) erstrecken.
| |
| | |
| == Definition ==
| |
| [[Datei:Entroy XY.png|mini|Modell eines Kanals mit Quelle H(X) und Senke H(Y) und der Äquivokation H(X<nowiki>|</nowiki>Y)]]
| |
| Die mathematische Definition des Informationsgehalts ist eng an die [[Entropie (Informationstheorie)|Entropiefunktion]] <math>H(A)</math> gekoppelt, wobei die Zufallsvariable <math>A</math> die Menge aller möglichen Symbole im Übertragungskanal beschreibt. Eine Informationsquelle sendet nun, wie in rechter Abbildung dargestellt, <math>H(X)</math> über einen Kanal zur Informationssenke welche <math>H(Y)</math> empfängt. <math>Y</math> kann zu <math>X</math> zufolge einer am Kanal eingebrachten Fehlinformation <math>H(Y|X)</math> bzw. zufolge der am Kanal auftretenden Äquivokation <math>H(X|Y)</math> unterschiedlich sein. Die Schreibweise <math>H(A|B)</math> steht für die [[Bedingte Entropie|bedingte Entropie]] mit den beiden Zufallsvariablen <math>A, B</math>.
| |
| | |
| Als bedingte Entropiefunktion <math>H(X|Y)</math> lässt sich die Äquivokation, mit <math>I(X; Y)</math> der Transinformation zwischen Quelle und Senke, ausdrücken als:
| |
| | |
| :<math> H(X|Y) = H(X) - I(X; Y)</math>
| |
| | |
| Als eine [[Wahrscheinlichkeitsfunktion]] <math>P(.)</math> lässt sich die Äquivokation mit dem [[Logarithmus]] zur Basis 2 ausdrücken als:
| |
| | |
| :<math>-\sum_i \sum_j P(x_i,y_i) \log_2 P(x_i | y_j)</math>
| |
| | |
| == Siehe auch ==
| |
| * {{WikipediaDE|Äquivokation}}
| |
| | |
| == Literatur ==
| |
| *{{Literatur
| |
| |Autor = Jürgen Lindner
| |
| |Titel = Informationsübertragung
| |
| |Verlag = Springer Verlag | Ort = Berlin Heidelberg | Jahr = 2005 | Seiten = 313 | ISBN = 3-540-21400-3 }}
| |
| * Johann Blieberger, Bernd Burgstaller, Gerhard Helge Schildt:''Informatik''. Grundlagen, 4. Auflage, Springer Verlag, Wien GmbH, Wien 2002, ISBN 978-3-211-83710-8, S. 30–31.
| |
| * Hermann Rohling:''Einführung in die Informations- und Codierungstheorie''. B.G. Teubner, Stuttgart 1995, ISBN 978-3-519-06174-8, S. 42–50.
| |
| | |
| [[Kategorie:Informationstheorie]]
| |
| | |
| {{Wikipedia}}
| |