Negentropie: Unterschied zwischen den Versionen

Aus AnthroWiki
imported>Joachim Stiller
 
(23 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
__NOTOC__
'''Negentropie''' ist die Kurzbezeichnung für '''negative Entropie''' und ist ein Spezialfall der [[Transinformation|Synentropie]]. Allgemein ist die Negentropie definiert als [[Entropie]] mit negativem [[Vorzeichen (Zahl)|Vorzeichen]]. Sie kann interpretiert werden als ein Maß für die [[Empirische Standardabweichung|Abweichung]] einer [[Zufallsvariable]]n von der [[Gleichverteilung]]. Da die Entropie (Unordnung oder [[Zufälligkeit]]) einer gleichverteilten Zufallsfolge maximal ist, folgt, dass die Negentropie dieser Folge minimal wird. In der [[Entropie (Informationstheorie)|informationstheoretischen Interpretation der Entropie]] ist damit die Negentropie groß, wenn in einer [[Zeichenfolge]] viel [[Information]] steckt, und klein in einer zufälligen Zeichenfolge.
Der Begriff '''negative Entropie''', später verkürzt zu '''Negentropie'''<ref>Der Physiker [[Wikipedia:Léon Brillouin|Léon Brillouin]] verkürzte die Bezeichnung später zu Negentropie, um den ganzen Sachverhalt auf "positivere" Weise auszudrücken.</ref>, wurde von dem [[Wikipedia:Österreich|österreichischen]] [[Wikipedia:Quantenphysik|Quantenphysik]]er [[Wikipedia:Erwin Schrödinger|Erwin Schrödinger]] in seinem wegweisenden Buch ''„Was ist Leben?“'' geprägt. [[Leben]] ist nach Schrödinger etwas, das negative [[Entropie]] aufnimmt bzw. - was gleichbedeutend ist - positive Entropie abgibt. [[Informationstheorie|Informationstheoretisch]] bedeutet das die beständige Aufnahme von [[Information]]. Die Negentropie ist groß, wenn eine Zeichenfolge viel Information enthält, bei einer zufälligen Zeichenfolge hingegen klein bzw. bei völliger [[Wikipedia:Gleichverteilung|Gleichverteilung]] 0 (die Entropie ist dann maximal). Sie wird daher auch definiert als „''durchschnittlicher Informationsgehalt des Einzelzeichens innerhalb einer gegebenen Zeichenmenge''“<ref>http://www.spektrum.de/lexikon/biologie/negentropie/45639</ref>. Die Negentropie ist groß, wenn eine Zeichenfolge viel Information enthält, bei einer zufälligen Zeichenfolge hingegen klein bzw. bei völliger [[Wikipedia:Gleichverteilung|Gleichverteilung]] 0 (die Entropie ist dann maximal). Die Negentropie <math>J</math> einer diskreten Zufallsvariable <math>y</math> wird daher auch über die [[Redundanz]] definiert<ref>ISO/IEC DIS 2382-16</ref>:
 
== Definition ==
Negentropie wird unterschiedlich definiert. Die einfachste Definition (s.&nbsp;o.) lautet: ''Negentropie ist negative Entropie''.
 
Eine weitere Definition definiert Negentropie <math>J</math> für eine [[diskret]]e [[Zufallsvariable]] <math>y</math> so, dass sie der [[Redundanz (Informationstheorie) #Redundanz eines Codes|Redundanz]]<ref>ISO/IEC DIS 2382-16</ref> entspricht:


:<math>J(y) = H(y_{\text{gleich}}) - H(y)</math>
:<math>J(y) = H(y_{\text{gleich}}) - H(y)</math>


Wesentlich ist dabei, dass die [[Entropie]] <math>H(y)</math> des Systems mit negativem Vorzeichen eingeht; der erste Term dient der Normierung und entspricht der vollständigen Gleichverteilung <math>y_{\text{gleich}}</math>.
mit
* der Entropie <math>H(y)</math>; entscheidend ist, dass sie gemäß der o.&nbsp;g. Definition mit negativem Vorzeichen eingeht
* einer [[Standardisierung (Statistik)|Normierung]] <math>H(y_{\text{gleich}})</math> einer gleichverteilten Variable <math>y_{\text{gleich}}</math> (mit der gleichen [[Korrelationsmatrix|Korrelations-]] und [[Kovarianzmatrix]] wie <math>y</math>).


[[Datei:Mischentropie.jpg|miniatur|250px|Die [[Wikipedia:Mischungsentropie|Mischungsentropie]]]]
Durch geeignete Normierung kann man erreichen, dass die Negentropie der gleichverteilten Variable gleich Null ist:
Oft wird die Negentropie auch als Maß für die [[Ordnung]] bzw. [[Komplexität]] eines [[System]]s interpretiert. Diese Definition ist jedoch problematisch und nur mit Vorsicht zu gebrauchen, da unser intuitiver Ordnungsbegriff in vielen Fällen nicht mit der statistischen Definition der Entropie übereinstimmt. Auch wurde bislang noch kein allgemeingültiger physikalischer Ordnungsbegriff formuliert. Eher lässt sich die Entropie als ''Maß für die Unwissenheit'' bzw. für den mangelnden [[Information]]sgehalt eines Systems auffassen. Das lässt am Beispiel der Mischungsentropie gut veranschaulichen. Im nebenstehenden Bild ist im linken Glas der Farbstoff noch nicht völlig gleichmäßig verteilt, die Entropie ist also kleiner als im rechten Glas, wo bereits eine vollständige Gleichverteilung des Farbstoffs stattgefunden hat. Schon rein anschaulich bietet uns das rechte Bild viel weniger Informationen als das wesentlich detailreichere linke Bild.


Für das [[Leben]] auf Erden ist essentiell, dass die [[Erde (Planet)|Erde]] von der [[Sonne]] ''Negentropie'' aufnimmt und [[Entropie]] an das Weltall abführt:
:<math>\Rightarrow J(y_{\text{gleich}}) = 0</math>


{{Zitat|Was die wenigsten Menschen wissen, ist, welche Beziehung wir zur
== Interpretation und Sonstiges ==
Sonne haben. Sie sagen, wir benötigen die Sonnenenergie, damit wir auf der
Der Begriff negative Entropie wurde von [[Erwin Schrödinger]] in seinem Buch ''Was ist Leben'' geprägt bzw. von [[Ludwig Boltzmann|Boltzmann]] übernommen.<ref>Zitat: ''Übrigens ist die „negative Entropie“ gar nicht meine Erfindung. Sie ist nämlich der Begriff, um den sich Boltzmanns unabhängige Erörterung drehte.'' Quelle: Erwin Schrödinger ''Was ist Leben? – Die lebende Zelle mit den Augen des Physikers betrachtet.'' Piper Taschenbuch 1989, ISBN 978-3492211345, S. 130</ref> Er definiert Leben als etwas, das negative Entropie aufnimmt und speichert. Das bedeutet, dass Leben etwas sei, das Entropie exportiert und seine eigene Entropie niedrig hält: Negentropie-Import ist Entropie-Export.
Erde leben können. Das ist im Grunde nicht ganz korrekt. Die ganze auf die
Erde eingestrahlte Sonnenenergie muss wieder entsorgt werden in den
Weltraum, sonst würden wir allmählich flüssig und gasförmig werden und
die Erde sich auflösen. Was wir eigentlich von der Sonnenenergie
aufnehmen, das ist nur der geordnete Teil, der über eine Richtung verfügt.
Mit anderen Worten ausgedrückt: Die Energie, welche uns die Sonne
zusendet, die ist geordneter als jene, die ungeordnet wieder in den Weltraum,
in den schwarzen Himmel zurückgesandt wird. Das Ganze kompensiert sich
wieder. Die Ordnungsfähigkeit, die Syntropie (die Negentropie), die Energie
als Ganzes bleibt auf der Erde zurück und ermöglicht eine wachsende
Entfaltung des Lebendigen.|[[Hans-Peter Dürr]]|''Es gibt keine Materie!'', S. 34}}


Aus [[anthroposophisch]]er Sicht hängt die Negentropie mit der Wirkung [[ätherisch]]er [[Bildekräfte]] zusammen.
Auch wenn Schrödinger mit negativer Entropie [[freie Energie]] meinte, wie er in einer Fußnote schrieb, widerspricht das entgegen der oftmals vorgebrachten Auffassung nicht dem [[Zweiter Hauptsatz der Thermodynamik|Zweiten Hauptsatz der Thermodynamik]], da dieser Prozess unter Energiezufuhr (bei Pflanzen etwa durch das Sonnenlicht) stattfindet.
 
[[w:Léon Brillouin|Léon Brillouin]] verkürzte die Bezeichnung später zu ''Negentropie'', um den Sachverhalt auf "positivere" Weise auszudrücken: Ein lebendiges System nimmt Negentropie auf und speichert sie. Organismen verändern sich negentropisch durch Energienutzung. Wegen des Energiebedarfs sind Organismen [[Offenes System|offene Systeme]].<ref>Brillouin, Leon: (1953) "Negentropy Principle of Information", ''J. of Applied Physics'', v. '''24(9)''', pp. 1152–1163</ref><ref>Léon Brillouin, ''La science et la théorie de l'information'', Masson, 1959</ref>
 
Was die Verwendung in anderen Gebieten betrifft, scheint der Begriff der Negentropie nicht eindeutig definiert zu sein.
 
Im Lexikon der Biologie wird Negentropie definiert als ''durchschnittlicher [[Informationsgehalt]] des Einzelzeichens innerhalb einer gegebenen [[Zeichenkette]]'',<ref>Lexikon der Biologie, Herder Verlag 1988</ref> womit ein Bezug zur [[Informationstheorie]] hergestellt wird. Dies entspricht auch dem oben genannten Beispiel für die Gleichverteilung, da bei einer „gleichverteilten“ Variable keine zusätzliche Information gegenüber einer „Gleichverteilung“ vorhanden ist.
 
Etwas anders wird der Begriff von [[Soziologische Systemtheorie|soziologischen Systemtheoretikern]] definiert, nämlich als „Negation der Entropie“ bzw. als „Zunahme von [[Komplexität]]“. Damit ist Negentropie hier gleichbedeutend mit [[w:Sortierung|Ordnung]] oder [[Information]] und damit ein Kennzeichen der Entstehung oder Abgrenzung von [[System]]en. Eine weitere (freie) Übersetzung wäre: „Abwesenheit von (relativ vollständiger) Entropie“ oder auch entsprechend: „Abwesenheit von [[Chaos]].


== Siehe auch ==
== Siehe auch ==
* {{WikipediaDE|Negentropie}}
* {{WikipediaDE|Negentropie}}
* {{WikipediaDE|Kurtosis}}


== Literatur ==
== Literatur ==
* Norbert Wiener, ''Cybernetics or Control and Communication in the Animal and the Machine'', Massachusetts, MIT Press 1948
* {{Literatur  |Titel=Entropie für Ingenieure |Autor=Heinz Herwig, Tammo Wenterodt |Verlag=Springer Fachmedien |Ort=Wiesbaden |Auflage=1 |Datum=2012 |ISBN=978-3-8348-1714-3 |Kapitel=2.10.1 Negentropie}}


* Erwin Schrödinger: ''Was ist Leben? - Die lebende Zelle mit den Augen des Physikers betrachtet'', Leo Lehnen Verlag (Sammlung Dalp), München, 1951, 2.Aufl.
== Einzelnachweise ==
* [[Hans-Peter Dürr]]: ''Es gibt keine Materie!'', Crotona 2012, ISBN 978-3861910282, eBook ASIN B0158VC54E
* [[Joachim Stiller]]: [http://joachimstiller.de/download/sonstiges_entropie.pdf Was ist Enthropie?] PDF
 
== Weblinks ==
 
* [http://www.chemie.de/lexikon/Negentropie.html Negentropie] auf [http://www.chemie.de chemie.de]
 
== Einzelanchweise ==
<references/>
<references/>


[[Kategorie:Thermodynamik]] [[Kategorie:Informationstheorie]] [[Kategorie:Information (Physik)]]
[[Kategorie:Philosophie der Physik]]
[[Kategorie:Informationstheorie]]
[[Kategorie:Negentropie|!]]
[[Kategorie:Information]]
{{Wikipedia}}

Aktuelle Version vom 21. Januar 2024, 23:07 Uhr

Negentropie ist die Kurzbezeichnung für negative Entropie und ist ein Spezialfall der Synentropie. Allgemein ist die Negentropie definiert als Entropie mit negativem Vorzeichen. Sie kann interpretiert werden als ein Maß für die Abweichung einer Zufallsvariablen von der Gleichverteilung. Da die Entropie (Unordnung oder Zufälligkeit) einer gleichverteilten Zufallsfolge maximal ist, folgt, dass die Negentropie dieser Folge minimal wird. In der informationstheoretischen Interpretation der Entropie ist damit die Negentropie groß, wenn in einer Zeichenfolge viel Information steckt, und klein in einer zufälligen Zeichenfolge.

Definition

Negentropie wird unterschiedlich definiert. Die einfachste Definition (s. o.) lautet: Negentropie ist negative Entropie.

Eine weitere Definition definiert Negentropie für eine diskrete Zufallsvariable so, dass sie der Redundanz[1] entspricht:

mit

  • der Entropie ; entscheidend ist, dass sie gemäß der o. g. Definition mit negativem Vorzeichen eingeht
  • einer Normierung einer gleichverteilten Variable (mit der gleichen Korrelations- und Kovarianzmatrix wie ).

Durch geeignete Normierung kann man erreichen, dass die Negentropie der gleichverteilten Variable gleich Null ist:

Interpretation und Sonstiges

Der Begriff negative Entropie wurde von Erwin Schrödinger in seinem Buch Was ist Leben geprägt bzw. von Boltzmann übernommen.[2] Er definiert Leben als etwas, das negative Entropie aufnimmt und speichert. Das bedeutet, dass Leben etwas sei, das Entropie exportiert und seine eigene Entropie niedrig hält: Negentropie-Import ist Entropie-Export.

Auch wenn Schrödinger mit negativer Entropie freie Energie meinte, wie er in einer Fußnote schrieb, widerspricht das entgegen der oftmals vorgebrachten Auffassung nicht dem Zweiten Hauptsatz der Thermodynamik, da dieser Prozess unter Energiezufuhr (bei Pflanzen etwa durch das Sonnenlicht) stattfindet.

Léon Brillouin verkürzte die Bezeichnung später zu Negentropie, um den Sachverhalt auf "positivere" Weise auszudrücken: Ein lebendiges System nimmt Negentropie auf und speichert sie. Organismen verändern sich negentropisch durch Energienutzung. Wegen des Energiebedarfs sind Organismen offene Systeme.[3][4]

Was die Verwendung in anderen Gebieten betrifft, scheint der Begriff der Negentropie nicht eindeutig definiert zu sein.

Im Lexikon der Biologie wird Negentropie definiert als durchschnittlicher Informationsgehalt des Einzelzeichens innerhalb einer gegebenen Zeichenkette,[5] womit ein Bezug zur Informationstheorie hergestellt wird. Dies entspricht auch dem oben genannten Beispiel für die Gleichverteilung, da bei einer „gleichverteilten“ Variable keine zusätzliche Information gegenüber einer „Gleichverteilung“ vorhanden ist.

Etwas anders wird der Begriff von soziologischen Systemtheoretikern definiert, nämlich als „Negation der Entropie“ bzw. als „Zunahme von Komplexität“. Damit ist Negentropie hier gleichbedeutend mit Ordnung oder Information und damit ein Kennzeichen der Entstehung oder Abgrenzung von Systemen. Eine weitere (freie) Übersetzung wäre: „Abwesenheit von (relativ vollständiger) Entropie“ oder auch entsprechend: „Abwesenheit von Chaos“.

Siehe auch

Literatur

  • Norbert Wiener, Cybernetics or Control and Communication in the Animal and the Machine, Massachusetts, MIT Press 1948
  •  Heinz Herwig, Tammo Wenterodt: Entropie für Ingenieure. 1 Auflage. Springer Fachmedien, Wiesbaden 2012, ISBN 978-3-8348-1714-3, 2.10.1 Negentropie.

Einzelnachweise

  1. ISO/IEC DIS 2382-16
  2. Zitat: Übrigens ist die „negative Entropie“ gar nicht meine Erfindung. Sie ist nämlich der Begriff, um den sich Boltzmanns unabhängige Erörterung drehte. Quelle: Erwin Schrödinger Was ist Leben? – Die lebende Zelle mit den Augen des Physikers betrachtet. Piper Taschenbuch 1989, ISBN 978-3492211345, S. 130
  3. Brillouin, Leon: (1953) "Negentropy Principle of Information", J. of Applied Physics, v. 24(9), pp. 1152–1163
  4. Léon Brillouin, La science et la théorie de l'information, Masson, 1959
  5. Lexikon der Biologie, Herder Verlag 1988
Dieser Artikel basiert (teilweise) auf dem Artikel Negentropie aus der freien Enzyklopädie Wikipedia und steht unter der Lizenz Creative Commons Attribution/Share Alike. In Wikipedia ist eine Liste der Autoren verfügbar.