Eine freie Initiative von Menschen bei anthrowiki.at, anthro.world, biodyn.wiki und steiner.wiki mit online Lesekreisen, Übungsgruppen, Vorträgen ... |
Wie Sie die Entwicklung von AnthroWiki durch Ihre Spende unterstützen können, erfahren Sie hier. |
Negentropie: Unterschied zwischen den Versionen
imported>Joachim Stiller |
|||
(23 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
'''Negentropie''' ist die Kurzbezeichnung für '''negative Entropie''' und ist ein Spezialfall der [[Transinformation|Synentropie]]. Allgemein ist die Negentropie definiert als [[Entropie]] mit negativem [[Vorzeichen (Zahl)|Vorzeichen]]. Sie kann interpretiert werden als ein Maß für die [[Empirische Standardabweichung|Abweichung]] einer [[Zufallsvariable]]n von der [[Gleichverteilung]]. Da die Entropie (Unordnung oder [[Zufälligkeit]]) einer gleichverteilten Zufallsfolge maximal ist, folgt, dass die Negentropie dieser Folge minimal wird. In der [[Entropie (Informationstheorie)|informationstheoretischen Interpretation der Entropie]] ist damit die Negentropie groß, wenn in einer [[Zeichenfolge]] viel [[Information]] steckt, und klein in einer zufälligen Zeichenfolge. | |||
== Definition == | |||
Negentropie wird unterschiedlich definiert. Die einfachste Definition (s. o.) lautet: ''Negentropie ist negative Entropie''. | |||
Eine weitere Definition definiert Negentropie <math>J</math> für eine [[diskret]]e [[Zufallsvariable]] <math>y</math> so, dass sie der [[Redundanz (Informationstheorie) #Redundanz eines Codes|Redundanz]]<ref>ISO/IEC DIS 2382-16</ref> entspricht: | |||
:<math>J(y) = H(y_{\text{gleich}}) - H(y)</math> | :<math>J(y) = H(y_{\text{gleich}}) - H(y)</math> | ||
mit | |||
* der Entropie <math>H(y)</math>; entscheidend ist, dass sie gemäß der o. g. Definition mit negativem Vorzeichen eingeht | |||
* einer [[Standardisierung (Statistik)|Normierung]] <math>H(y_{\text{gleich}})</math> einer gleichverteilten Variable <math>y_{\text{gleich}}</math> (mit der gleichen [[Korrelationsmatrix|Korrelations-]] und [[Kovarianzmatrix]] wie <math>y</math>). | |||
Durch geeignete Normierung kann man erreichen, dass die Negentropie der gleichverteilten Variable gleich Null ist: | |||
:<math>\Rightarrow J(y_{\text{gleich}}) = 0</math> | |||
== Interpretation und Sonstiges == | |||
Der Begriff negative Entropie wurde von [[Erwin Schrödinger]] in seinem Buch ''Was ist Leben'' geprägt bzw. von [[Ludwig Boltzmann|Boltzmann]] übernommen.<ref>Zitat: ''Übrigens ist die „negative Entropie“ gar nicht meine Erfindung. Sie ist nämlich der Begriff, um den sich Boltzmanns unabhängige Erörterung drehte.'' Quelle: Erwin Schrödinger ''Was ist Leben? – Die lebende Zelle mit den Augen des Physikers betrachtet.'' Piper Taschenbuch 1989, ISBN 978-3492211345, S. 130</ref> Er definiert Leben als etwas, das negative Entropie aufnimmt und speichert. Das bedeutet, dass Leben etwas sei, das Entropie exportiert und seine eigene Entropie niedrig hält: Negentropie-Import ist Entropie-Export. | |||
Auch wenn Schrödinger mit negativer Entropie [[freie Energie]] meinte, wie er in einer Fußnote schrieb, widerspricht das entgegen der oftmals vorgebrachten Auffassung nicht dem [[Zweiter Hauptsatz der Thermodynamik|Zweiten Hauptsatz der Thermodynamik]], da dieser Prozess unter Energiezufuhr (bei Pflanzen etwa durch das Sonnenlicht) stattfindet. | |||
[[w:Léon Brillouin|Léon Brillouin]] verkürzte die Bezeichnung später zu ''Negentropie'', um den Sachverhalt auf "positivere" Weise auszudrücken: Ein lebendiges System nimmt Negentropie auf und speichert sie. Organismen verändern sich negentropisch durch Energienutzung. Wegen des Energiebedarfs sind Organismen [[Offenes System|offene Systeme]].<ref>Brillouin, Leon: (1953) "Negentropy Principle of Information", ''J. of Applied Physics'', v. '''24(9)''', pp. 1152–1163</ref><ref>Léon Brillouin, ''La science et la théorie de l'information'', Masson, 1959</ref> | |||
Was die Verwendung in anderen Gebieten betrifft, scheint der Begriff der Negentropie nicht eindeutig definiert zu sein. | |||
Im Lexikon der Biologie wird Negentropie definiert als ''durchschnittlicher [[Informationsgehalt]] des Einzelzeichens innerhalb einer gegebenen [[Zeichenkette]]'',<ref>Lexikon der Biologie, Herder Verlag 1988</ref> womit ein Bezug zur [[Informationstheorie]] hergestellt wird. Dies entspricht auch dem oben genannten Beispiel für die Gleichverteilung, da bei einer „gleichverteilten“ Variable keine zusätzliche Information gegenüber einer „Gleichverteilung“ vorhanden ist. | |||
Etwas anders wird der Begriff von [[Soziologische Systemtheorie|soziologischen Systemtheoretikern]] definiert, nämlich als „Negation der Entropie“ bzw. als „Zunahme von [[Komplexität]]“. Damit ist Negentropie hier gleichbedeutend mit [[w:Sortierung|Ordnung]] oder [[Information]] und damit ein Kennzeichen der Entstehung oder Abgrenzung von [[System]]en. Eine weitere (freie) Übersetzung wäre: „Abwesenheit von (relativ vollständiger) Entropie“ oder auch entsprechend: „Abwesenheit von [[Chaos]]“. | |||
== Siehe auch == | == Siehe auch == | ||
* {{WikipediaDE|Negentropie}} | * {{WikipediaDE|Negentropie}} | ||
* {{WikipediaDE|Kurtosis}} | |||
== Literatur == | == Literatur == | ||
* Norbert Wiener, ''Cybernetics or Control and Communication in the Animal and the Machine'', Massachusetts, MIT Press 1948 | |||
* {{Literatur |Titel=Entropie für Ingenieure |Autor=Heinz Herwig, Tammo Wenterodt |Verlag=Springer Fachmedien |Ort=Wiesbaden |Auflage=1 |Datum=2012 |ISBN=978-3-8348-1714-3 |Kapitel=2.10.1 Negentropie}} | |||
== Einzelnachweise == | |||
== | |||
<references/> | <references/> | ||
[[Kategorie: | [[Kategorie:Philosophie der Physik]] | ||
[[Kategorie:Informationstheorie]] | |||
[[Kategorie:Negentropie|!]] | |||
[[Kategorie:Information]] | |||
{{Wikipedia}} |
Aktuelle Version vom 21. Januar 2024, 23:07 Uhr
Negentropie ist die Kurzbezeichnung für negative Entropie und ist ein Spezialfall der Synentropie. Allgemein ist die Negentropie definiert als Entropie mit negativem Vorzeichen. Sie kann interpretiert werden als ein Maß für die Abweichung einer Zufallsvariablen von der Gleichverteilung. Da die Entropie (Unordnung oder Zufälligkeit) einer gleichverteilten Zufallsfolge maximal ist, folgt, dass die Negentropie dieser Folge minimal wird. In der informationstheoretischen Interpretation der Entropie ist damit die Negentropie groß, wenn in einer Zeichenfolge viel Information steckt, und klein in einer zufälligen Zeichenfolge.
Definition
Negentropie wird unterschiedlich definiert. Die einfachste Definition (s. o.) lautet: Negentropie ist negative Entropie.
Eine weitere Definition definiert Negentropie für eine diskrete Zufallsvariable so, dass sie der Redundanz[1] entspricht:
mit
- der Entropie ; entscheidend ist, dass sie gemäß der o. g. Definition mit negativem Vorzeichen eingeht
- einer Normierung einer gleichverteilten Variable (mit der gleichen Korrelations- und Kovarianzmatrix wie ).
Durch geeignete Normierung kann man erreichen, dass die Negentropie der gleichverteilten Variable gleich Null ist:
Interpretation und Sonstiges
Der Begriff negative Entropie wurde von Erwin Schrödinger in seinem Buch Was ist Leben geprägt bzw. von Boltzmann übernommen.[2] Er definiert Leben als etwas, das negative Entropie aufnimmt und speichert. Das bedeutet, dass Leben etwas sei, das Entropie exportiert und seine eigene Entropie niedrig hält: Negentropie-Import ist Entropie-Export.
Auch wenn Schrödinger mit negativer Entropie freie Energie meinte, wie er in einer Fußnote schrieb, widerspricht das entgegen der oftmals vorgebrachten Auffassung nicht dem Zweiten Hauptsatz der Thermodynamik, da dieser Prozess unter Energiezufuhr (bei Pflanzen etwa durch das Sonnenlicht) stattfindet.
Léon Brillouin verkürzte die Bezeichnung später zu Negentropie, um den Sachverhalt auf "positivere" Weise auszudrücken: Ein lebendiges System nimmt Negentropie auf und speichert sie. Organismen verändern sich negentropisch durch Energienutzung. Wegen des Energiebedarfs sind Organismen offene Systeme.[3][4]
Was die Verwendung in anderen Gebieten betrifft, scheint der Begriff der Negentropie nicht eindeutig definiert zu sein.
Im Lexikon der Biologie wird Negentropie definiert als durchschnittlicher Informationsgehalt des Einzelzeichens innerhalb einer gegebenen Zeichenkette,[5] womit ein Bezug zur Informationstheorie hergestellt wird. Dies entspricht auch dem oben genannten Beispiel für die Gleichverteilung, da bei einer „gleichverteilten“ Variable keine zusätzliche Information gegenüber einer „Gleichverteilung“ vorhanden ist.
Etwas anders wird der Begriff von soziologischen Systemtheoretikern definiert, nämlich als „Negation der Entropie“ bzw. als „Zunahme von Komplexität“. Damit ist Negentropie hier gleichbedeutend mit Ordnung oder Information und damit ein Kennzeichen der Entstehung oder Abgrenzung von Systemen. Eine weitere (freie) Übersetzung wäre: „Abwesenheit von (relativ vollständiger) Entropie“ oder auch entsprechend: „Abwesenheit von Chaos“.
Siehe auch
- Negentropie - Artikel in der deutschen Wikipedia
- Kurtosis - Artikel in der deutschen Wikipedia
Literatur
- Norbert Wiener, Cybernetics or Control and Communication in the Animal and the Machine, Massachusetts, MIT Press 1948
- Heinz Herwig, Tammo Wenterodt: Entropie für Ingenieure. 1 Auflage. Springer Fachmedien, Wiesbaden 2012, ISBN 978-3-8348-1714-3, 2.10.1 Negentropie.
Einzelnachweise
- ↑ ISO/IEC DIS 2382-16
- ↑ Zitat: Übrigens ist die „negative Entropie“ gar nicht meine Erfindung. Sie ist nämlich der Begriff, um den sich Boltzmanns unabhängige Erörterung drehte. Quelle: Erwin Schrödinger Was ist Leben? – Die lebende Zelle mit den Augen des Physikers betrachtet. Piper Taschenbuch 1989, ISBN 978-3492211345, S. 130
- ↑ Brillouin, Leon: (1953) "Negentropy Principle of Information", J. of Applied Physics, v. 24(9), pp. 1152–1163
- ↑ Léon Brillouin, La science et la théorie de l'information, Masson, 1959
- ↑ Lexikon der Biologie, Herder Verlag 1988
Dieser Artikel basiert (teilweise) auf dem Artikel Negentropie aus der freien Enzyklopädie Wikipedia und steht unter der Lizenz Creative Commons Attribution/Share Alike. In Wikipedia ist eine Liste der Autoren verfügbar. |