Äquivokation und Diskussion:Mittelstand: Unterschied zwischen den Seiten

Aus AnthroWiki
(Unterschied zwischen Seiten)
imported>Joachim Stiller
(Die Seite wurde neu angelegt: „'''Äquivokation''' (von lateinisch ''aequus'' ,gleich‘ und ''vocare'' ,rufen‘) ist die Information, die bei der Übertragung…“)
 
imported>Michael.heinen-anders
Keine Bearbeitungszusammenfassung
 
Zeile 1: Zeile 1:
'''Äquivokation''' (von [[lateinisch]] ''aequus'' ,gleich‘ und ''vocare'' ,rufen‘) ist die [[Information]], die bei der [[Datenübertragung|Übertragung]] über einen [[Kanal (Informationstheorie)|Kanal]] zwischen einer Informationsquelle ([[Absender|Sender]]) und einer [[Informationssenke]] ([[Empfänger (Information)|Empfänger]]) [[Informationsverlust|verloren]] geht. Der [[Terminus]] ist in diesem Zusammenhang als ''[[Informationsgehalt]]'' zu verstehen und geht auf die [[Informationstheorie]] von [[Claude Elwood Shannon|Claude Shannon]] zurück, welcher die Grundlagen für diese in den 1940er Jahren legte.<br/>
Du kannst wohl nicht anders, als per Copy & Paste Artikel aus Wikipedia zu übernehmen, Joachim Stiller. Anthroposophische Eigenständigkeit ist bei Dir nur im Bereich von Stilblüten vorhanden.--[[Benutzer:Michael.heinen-anders|Michael.heinen-anders]] ([[Benutzer Diskussion:Michael.heinen-anders|Diskussion]]) 20:17, 10. Aug. 2018 (UTC)
Der abstrakte Begriff eines „Informationskanals“ kann sich in praktischen Realisierungen über den Ort (z.&nbsp;B. eine [[Nachrichtenverbindung]] zwischen zwei Punkten; →&nbsp;''[[Direktverbindung|PTP]]'') oder über die Zeit (z.&nbsp;B. in Form eines [[Datenspeicher]]s) erstrecken.
 
== Definition ==
[[Datei:Entroy XY.png|mini|Modell eines Kanals mit Quelle H(X) und Senke H(Y) und der Äquivokation H(X<nowiki>|</nowiki>Y)]]
Die mathematische Definition des Informationsgehalts ist eng an die [[Entropie (Informationstheorie)|Entropiefunktion]] <math>H(A)</math> gekoppelt, wobei die Zufallsvariable <math>A</math> die Menge aller möglichen Symbole im Übertragungskanal beschreibt. Eine Informationsquelle sendet nun, wie in rechter Abbildung dargestellt, <math>H(X)</math> über einen Kanal zur Informationssenke welche <math>H(Y)</math> empfängt. <math>Y</math> kann zu <math>X</math> zufolge einer am Kanal eingebrachten Fehlinformation <math>H(Y|X)</math> bzw. zufolge der am Kanal auftretenden Äquivokation <math>H(X|Y)</math> unterschiedlich sein. Die Schreibweise <math>H(A|B)</math> steht für die [[Bedingte Entropie|bedingte Entropie]] mit den beiden Zufallsvariablen <math>A, B</math>.
 
Als bedingte Entropiefunktion <math>H(X|Y)</math> lässt sich die Äquivokation, mit <math>I(X; Y)</math> der Transinformation zwischen Quelle und Senke, ausdrücken als:
 
:<math> H(X|Y) = H(X) - I(X; Y)</math>
 
Als eine [[Wahrscheinlichkeitsfunktion]] <math>P(.)</math> lässt sich die Äquivokation mit dem [[Logarithmus]] zur Basis 2 ausdrücken als:
 
:<math>-\sum_i \sum_j P(x_i,y_i) \log_2 P(x_i | y_j)</math>
 
== Siehe auch ==
* {{WikipediaDE|Äquivokation}}
 
== Literatur ==
*{{Literatur
|Autor = Jürgen Lindner
|Titel = Informationsübertragung
|Verlag = Springer Verlag | Ort = Berlin Heidelberg | Jahr = 2005 | Seiten = 313 | ISBN = 3-540-21400-3 }}
* Johann Blieberger, Bernd Burgstaller, Gerhard Helge Schildt:''Informatik''. Grundlagen, 4. Auflage, Springer Verlag, Wien GmbH, Wien 2002, ISBN 978-3-211-83710-8, S. 30–31.
* Hermann Rohling:''Einführung in die Informations- und Codierungstheorie''. B.G. Teubner, Stuttgart 1995, ISBN 978-3-519-06174-8, S. 42–50.
 
[[Kategorie:Informationstheorie]]
 
{{Wikipedia}}

Version vom 10. August 2018, 22:17 Uhr

Du kannst wohl nicht anders, als per Copy & Paste Artikel aus Wikipedia zu übernehmen, Joachim Stiller. Anthroposophische Eigenständigkeit ist bei Dir nur im Bereich von Stilblüten vorhanden.--Michael.heinen-anders (Diskussion) 20:17, 10. Aug. 2018 (UTC)