Entropie und Richard Wagner: Unterschied zwischen den Seiten

Aus AnthroWiki
(Unterschied zwischen Seiten)
imported>Odyssee
 
imported>Joachim Stiller
(Weiterleitung nach Musik der Romantik erstellt)
 
Zeile 1: Zeile 1:
Die '''Entropie''' ({{ELSalt|ἐντροπία}}, ''entropía'', aus {{lang|el|εν}}- ''en-'' ‚ein-‘, ‚in-‘ und {{lang|el|τροπή}} ''tropē'' ‚Wendung‘, ‚Umwandlung‘) ist eine [[Wikipedia:Thermodynamik|thermodynamische]] [[Wikipedia:physik|physik]]alische [[Wikipedia:Zustandsgröße|Zustandsgröße]], die etwas über die [[Wikipedia:Wahrscheinlichkeit|Wahrscheinlichkeit]] und damit auch über die Richtung physikalischer Prozesse aussagt.
#REDIRECT [[Musik der Romantik]]
 
== Entropie und Zeit ==
Alle rein physikalischen Prozesse laufen so ab, dass dabei die Entropie des [[Universum]]s insgesamt gleich bleibt oder zunimmt. Damit wird zugleich die Richtung der [[Zeit]] festgelegt: Prozesse, bei denen die Entropie zunimmt, sind [[Wikipedia:Irreversibler Prozess|irreversibel]], d.h. ''nicht umkehrbar'', und das gilt für fast alle [[real]] vorkommenden physikalischen Vorgänge. Die [[Zukunft]] ist dadurch definiert, dass in ihr die Entropie größer ist als in der [[Vergangenheit]]. Nur reversible, d.h. umkehrbare Prozesse sind gleichsam ''zeitlos''.
 
== Entropie und die Vergänglichkeit der physischen Welt ==
Die Entropiezunahme resultiert aus der grundlegenden Tendenz der [[physisch]]en [[Wärme]], sich gleichmäßig im [[Raum]] zu verteilen. Aus [[Wikipedia:Statistische Physik|statistischen]] Gründen ist diese Gleichverteilung wesentlich wahrscheinlicher, als dass sich Wärme ''von selbst'' an einem bestimmten Ort konzentriert. Oder anders ausgedrückt: Wärme geht niemals ''von selbst'' von einem Körper niedriger Temperatur auf einen Körper höherer Temperatur über. Das ist die Grundaussage des [[Wikipedia:2. Hauptsatz der Thermodynamik|2. Hauptsatzes der Thermodynamik]].
 
Aufgrund der beständigen Entropiezunahme strebt die [[physische Welt]] unaufhaltsam einem Zustand der völligen Gleichverteilung zu, was letztlich den Zerfall aller geordneten [[Struktur]]en bedeutet.
 
== Physikalische Grundlagen ==
 
[[Datei:Carnotdiagramm_ideales_Gas.svg|thumb|300px|Der Carnot-Prozess: Die nutzbare Arbeit entspricht der Fläche zwischen den Kurven.]]
[[Datei:Entropie.png|miniatur|300px|Dem Gas steht nach dem Entfernen der Zwischenwand ein größerer Raum zur Verfügung. Es existieren nach der Expansion also mehr Mikrozustände und das System besitzt eine höhere Entropie.]]
 
Das Entropiekonzept entstand aus den Bemühungen, die Effizienz von [[Wikipedia:Wärmekraftmaschinen|Wärmekraftmaschinen]], namentlich von [[Wikipedia:Dampfmaschine|Dampfmaschine]]n zu verbessern. [[Wikipedia:1712|1712]] hatte [[Wikipedia:Thomas Newcomen|Thomas Newcomen]] die erste Dampfmaschine entwickelt, um Wasser aus einem Bergwerk zu pumpen. Die Maschine erfüllte zwar ihren Zweck, verbrauchte aber ungeheure Mengen an Brennstoff. [[Wikipedia:1764|1764]] gelang es [[Wikipedia:James Watt|James Watt]] ohne besondere thermodynamische Kenntnisse durch rein mechanische Verbesserungen den [[Wikipedia:Wirkungsgrad|Wirkungsgrad]] der Dampfmaschine auf über 1% mehr als zu verdoppeln. Der Zusammenhang zwischen Wärme und Energie bzw. nutzbarer Arbeit war damals noch völlig unklar; erst [[Wikipedia:1845|1845]] formulierte [[Wikipedia:Julius Robert von Mayer|Julius Robert von Mayer]] den [[Wikipedia:1. Hauptsatz der Thermodynamik|1. Hauptsatz der Thermodynamik]], wonach Wärme als eine Form der Energie anzusehen ist. [[Wikipedia:1824|1824]] veröffentlichte der junge französische Ingenieur [[Wikipedia:Nicolas Léonard Sadi Carnot|Sadi Carnot]] die nur 43 Seiten starke Schrift ''„Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance“'' („Betrachtungen über die bewegende Kraft des Feuers und die zur Entwicklung dieser Kraft geeigneten Maschinen“), in der er seine bahnbrechenden Ideen zur Verbesserung der Dampfmaschinen darlegte. Er beschreibt darin das Gedankenmodell einer idealen Wärmekraftmaschine, die [[Wikipedia:Carnot-Prozess|Carnot-Maschine]], die dadurch Arbeit leistet, dass Wärme in einem zyklischen Prozess von einer heißen Quelle zu einer kalten Senke fließt. Das Verhältnis der geleisteten mechanischen Arbeit ''ΔW'' zur umgesetzten Wärme ''ΔQ'' entspricht dabei dem Wirkungsgrad ''η'':
 
:<math> \eta = \frac{\Delta W}{\Delta Q} </math>
 
Carnot ließ sich dabei von der Arbeit seines Vaters über Wassermühlen inspirieren und betrachtete die Wärme in Analogie zum strömenden Wassser. Ähnlich dem Wasser könne Wärme umso mehr Arbeit leisten, je höher das Gefälle sei und insbesondere könne die Maschine grundsätzlich nicht mehr Arbeit leisten als Wärme zugeführt wurde. Damit war klar, dass die Maschine um so mehr leisten konnte, je höher die Eingangstemperatur und je kleiner die Ausgangstemperatur war. Die Maschine kann man sich dabei als Kolbenkraftmaschine vorstellen. Bei der isothermen Expansion wird dem System die Wärmemenge ''Q''<sub>1</sub> bei der hohen Temperatur ''T''<sub>1</sub> zugeführt, bei der Kompression (untere rote Linie im Diagramm) gibt es ''Q''<sub>2</sub> bei der niedrigeren ''T''<sub>2</sub> ab. Die Temperatur ist dabei die vom [[Wikipedia:absoluter Nullpunkt|absoluten Nullpunkt]] (−273,15&nbsp;[[Wikipedia:Grad Celsius|°C]]) gemessene [[Wikipedia:absolute Temperatur|absolute Temperatur]] in Grad [[Wikipedia:Kelvin|Kelvin]].
 
Den mathematischen Zusammenhang mit der Temperaturdifferenz formulierte allerdings erst der deutsche Physiker [[Wikipedia:Rudolf Clausius|Rudolf Clausius]] und führte dabei den Begriff der Entropie ein. Den Namen Entropie, der soviel wie ''Wandlungsgehalt'' bedeutet, prägte er dabei in Anlehung an das ähnlich lautende Wort ''Energie''. Clausius erkannte, dass im Falle eines reversiblen Prozesses, d.h. wenn keine Wärme durch Reibung  verloren geht, die reduzierte Wärme konstant <math>\frac {Q_1}{T_1} = \frac {Q_2}{T_2}</math> ist. Die maximal nutzbare mechanische Arbeit ergibt sich aus der Differenz der Wärmemengen:
 
:<math>A = Q_{\rm 1} - Q_{\rm 2} = Q_{\rm 1}\frac{T_{\rm 1} - T_{\rm 2} }{T_{\rm 1}} </math> und daraus der maximale Wirkungsgrad zu <math>\eta_\mathrm{max}=1-\frac{T_2}{T_1}\!\</math>.
 
Damit konnte Clausius die Entropie in differenzieller Form definieren als:
 
:<math> \frac {\delta Q}{T} = dS </math> mit <math>\qquad {\rm d}{S} \ge 0 \qquad</math>, bzw. <math>\Delta S = \int \frac{{\rm d}Q}{T}</math> und <math>\Delta S \ge 0</math>, wobei das Gleichheitszeichen nur für reversible Prozesse gilt.
 
So wurde es möglich, den Grad der Irreversibilität auch quantitativ zu erfassen. Die bei hoher Temperatur zugeführte Wärmemenge ist dabei höherwertig, d.h. mit geringerer Entropie belastet, als die bei geringerer Temperatur abgeführte Abwärme.
 
[[Datei:Boltzmann Ludwig Dibner coll SIL14-B5-06a.jpg |miniatur |left| Ludwig Boltzmann]]
 
Alle diese Ergebnisse wurden durch die phänomenologische Betrachtung makroskopischer Zustände gewonnen. Erst um [[Wikipedia:1880|1880]] stellte mit der von ihm und [[Wikipedia:James Clerk Maxwell|James Maxwell]] entwickelten [[Wikipedia:Statistische Physik|statistischen Physik]] den Zusammenhang zur mikroskopischen Ebene der elementaren Bausteine der [[Materie]] her. Ein [[Wikipedia:Mikrozustand|Mikrozustand]] ist dabei durch die Angabe aller Orte und Impulse der zum System zählenden Teilchen, also der [[Atom]]e oder [[Molekül]]e, bestimmt. Nach Boltzmann ist nun die  Entropie ein Maß für die Anzahl der Mikrozustände, durch die sich ein beobachteter Makrozustand des Systems realisieren kann. Je größer die Anzahl der Mikrozustände - die sog. ''thermodynamische Wahrscheinlichkeit'' bzw. das ''statistische Gewicht'' <math>W</math> - ist, durch die sich ein bestimmter Makrozustand verwirklichen kann, desto größer ist die Entropie. Der [[Wikipedia:Natürlicher Logarithmus|natürliche Logarithmus]] des statistischen Gewichts ''W'' multipliziert mit der allerdings erst [[Wikipedia:1900|1900]] von [[Wikipedia:Max Plank|Max Plank]] eingeführten<ref name="Planck1900">M. Planck: „''Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum''“, Verhandlungen der Deutschen Physikalischen Gesellschaft 2 (1900) Nr. 17, S. 245, Berlin (vorgetragen am 14. Dezember 1900) [http://www.webcitation.org/66kEnjanA Onlinedokument (deutsch, pdf)] archiviert vom [http://www.christoph.mettenheim.de/planck-energieverteilung.pdf Original] (PDF; 418&nbsp;kB) am 7.&nbsp;April 2012.</ref> und nach Boltzmann benannten [[Wikipedia:Boltzmann-Konstante|Boltzmann-Konstante]] <math>k_\mathrm{B} = 1{,}380\;6488\;(13) \cdot 10^{-23} \mathrm{J}/\mathrm{K}</math>, ergibt dabei die Entropie <math>S</math> des makroskopisch beobachteten Zustands:
 
:<math> S = k_B \cdot \ln W</math>
 
[[Datei:Mischentropie.jpg|miniatur|3000px|Die [[Wikipedia:Mischungsentropie|Mischungsentropie]]]]
Der logarithmische Zusammenhang ergibt sich daraus, dass bei zwei gegeben Systemen die Gesamtentropie ''S'' gleich der Summe der einzelnen Entropien ''S''<sub>1</sub>+''S''<sub>2</sub> ist, wohingegen die statistischen Gewichte ''W''<sub>1</sub> und ''W''<sub>2</sub> miteinander multipliziert werden müssen, weil ''jeder'' Mikrozustand des einen Systems mit ''jedem'' Mikrozustand des anderen System einen neuen Mikrozustand des neuen Gesamtsystems bildet. Die Zunahme der Entropie bedeutet dann den Übergang zu einem neuen Makrozustand, der über eine größere Anzahl möglicher Mikrozustände verfügt.
 
Populär wird die Entropie oft als ''Maß für die Unordnung'' eines Systems angesehen. Diese Definition ist jedoch nur mit Vorsicht zu gebrauchen, da unser intuitiver Ordnungsbegriff in vielen Fällen nicht mit der statistischen Definition der Entropie übereinstimmt. Eher lässt sich die Entropie als ''Maß für die Unwissenheit'' bzw. für den mangelnden [[Information]]sgehalt eines Systems auffassen. Das lässt am Beispiel der Mischungsentropie gut veranschaulichen. Im nebenstehenden Bild ist im linken Glas der Farbstoff noch nicht völlig gleichmäßig verteilt, die Entropie ist also kleiner als im rechten Glas, wo bereits eine vollständige Gleichverteilung des Farbstoffs stattgefunden hat. Schon rein anschaulich bietet uns das rechte Bild viel weniger Informationen als das wesentlich detailreichere linke Bild.
 
== Entropie und Information ==
 
[[Wikipedia:Claude Elwood Shannon|Claude Elwood Shannon]] definierte die Entropie im [[Wikipedia:Informationstheorie|informationstheoretischen]] Sinn analog zur [[Wikipedia:Statistische Thermodynamik|statistischen Thermodynamik]] als den mittleren [[Information]]sgehalt <math>I(p) = -\log_2 p</math> einer Zeichenkette. Die Entropie <math>H_1</math> eines Zeichens ist dann der [[Wikipedia:Erwartungswert|Erwartungswert]] des [[Wikipedia:Informationsgehalt|Informationsgehalt]]s:
 
: <math>H_1 = \sum_{z\in Z} p_z \cdot I(p_z) = - \sum_{z\in Z} p_z \cdot \log_2 p_z</math>
 
Genau besehen handelt es sich dabei, wenn man die Formeln mit denen von Boltzmann vergleicht, aufgrund des negativen Vorzeichens um die [[negative Entropie]] oder [[Negentropie]].
 
== Entropie und Leben ==
 
Das [[Leben]] kämpft beständig gegen den Zerfall der physischen Strukturen an. Rein physikalisch betrachtet bedeutet das, dass das Leben beständig die unvermeidlich zunehmende Entropie aus dem lebendigen [[System]] an die Umwelt abführt. Darauf hat schon der [[Wikipedia:Quantenphysik|Quantenphysik]]er [[Wikipedia:Erwin Schrödinger|Erwin Schrödinger]] in seinem Buch ''Was ist Leben?'' hingewiesen. Er prägte dafür den Begriff «[[negative Entropie]]». Leben ist demnach etwas, das negative Entropie aufnimmt bzw. - was gleichbedeutend ist - positive Entropie abgibt. [[Wikipedia:Informationstheorie|Informationstheoretisch]] bedeutet das die beständige Aufnahme von [[Information]]. Das ist aus [[anthroposophisch]]er Sicht identisch mit der Aufnahme [[ätherisch]]er [[Bildekräfte]], was in der Regel nur solchen Systemen möglich ist, die über einen eigenständigen [[Ätherleib]] verfügen und in diesem Sinn als eigenständige [[Lebewesen]] anzusehen sind.
 
== Siehe auch ==
 
* {{WikipediaDE|Entropie (Thermodynamik)}}
* {{WikipediaDE|Entropie (Informationstheorie)}}
 
== Anmerkungen ==
 
<references/>
 
== Literatur ==
 
* Erwin Schrödinger: ''Was ist Leben? - Die lebende Zelle mit den Augen des Physikers betrachtet'', Leo Lehnen Verlag (Sammlung Dalp), München, 1951, 2.Aufl.
 
[[Kategorie:Physik]] [[Kategorie:Wärme]] [[Kategorie:Thermodynamik]]

Version vom 7. Juli 2019, 10:25 Uhr

Weiterleitung nach: