Entropie

Aus AnthroWiki

Die Entropie (griech. ἐντροπία, entropía, aus εν- en- ‚ein-‘, ‚in-‘ und τροπή tropē ‚Wendung‘, ‚Umwandlung‘) ist eine thermodynamische physikalische Zustandsgröße, die etwas über die Wahrscheinlichkeit und damit auch über die Richtung physikalischer Prozesse aussagt.

Entropie und Zeit

Alle rein physikalischen Prozesse laufen so ab, dass dabei die Entropie des Universums insgesamt gleich bleibt oder zunimmt. Damit wird zugleich die Richtung der Zeit festgelegt: Prozesse, bei denen die Entropie zunimmt, sind irreversibel, d.h. nicht umkehrbar, und das gilt für fast alle real vorkommenden physikalischen Vorgänge. Die Zukunft ist dadurch definiert, dass in ihr die Entropie größer ist als in der Vergangenheit. Nur reversible, d.h. umkehrbare Prozesse sind gleichsam zeitlos.

Entropie und die Vergänglichkeit der physischen Welt

Die Entropiezunahme resultiert aus der grundlegenden Tendenz der physischen Wärme, sich gleichmäßig im Raum zu verteilen. Aus statistischen Gründen ist diese Gleichverteilung wesentlich wahrscheinlicher, als dass sich Wärme von selbst an einem bestimmten Ort konzentriert. Oder anders ausgedrückt: Wärme geht niemals von selbst von einem Körper niedriger Temperatur auf einen Körper höherer Temperatur über. Das ist die Grundaussage des 2. Hauptsatzes der Thermodynamik.

Aufgrund der beständigen Entropiezunahme strebt die physische Welt unaufhaltsam einem Zustand der völligen Gleichverteilung zu, was letztlich den Zerfall aller geordneten Strukturen bedeutet.

Physikalische Grundlagen

Der Carnot-Prozess: Die nutzbare Arbeit entspricht der Fläche zwischen den Kurven.
Dem Gas steht nach dem Entfernen der Zwischenwand ein größerer Raum zur Verfügung. Es existieren nach der Expansion also mehr Mikrozustände und das System besitzt eine höhere Entropie.

Das Entropiekonzept entstand aus den Bemühungen, die Effizienz von Wärmekraftmaschinen, namentlich von Dampfmaschinen zu verbessern. 1712 hatte Thomas Newcomen die erste Dampfmaschine entwickelt, um Wasser aus einem Bergwerk zu pumpen. Die Maschine erfüllte zwar ihren Zweck, verbrauchte aber ungeheure Mengen an Brennstoff. 1764 gelang es James Watt ohne besondere thermodynamische Kenntnisse durch rein mechanische Verbesserungen den Wirkungsgrad der Dampfmaschine auf über 1% mehr als zu verdoppeln. Der Zusammenhang zwischen Wärme und Energie bzw. nutzbarer Arbeit war damals noch völlig unklar; erst 1845 formulierte Julius Robert von Mayer den 1. Hauptsatz der Thermodynamik, wonach Wärme als eine Form der Energie anzusehen ist. 1824 veröffentlichte der junge französische Ingenieur Sadi Carnot die nur 43 Seiten starke Schrift „Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance“ („Betrachtungen über die bewegende Kraft des Feuers und die zur Entwicklung dieser Kraft geeigneten Maschinen“), in der er seine bahnbrechenden Ideen zur Verbesserung der Dampfmaschinen darlegte. Er beschreibt darin das Gedankenmodell einer idealen Wärmekraftmaschine, die Carnot-Maschine, die dadurch Arbeit leistet, dass Wärme in einem zyklischen Prozess von einer heißen Quelle zu einer kalten Senke fließt. Das Verhältnis der geleisteten mechanischen Arbeit ΔW zur umgesetzten Wärme ΔQ entspricht dabei dem Wirkungsgrad η:

Carnot ließ sich dabei von der Arbeit seines Vaters über Wassermühlen inspirieren und betrachtete die Wärme in Analogie zum strömenden Wassser. Ähnlich dem Wasser könne Wärme umso mehr Arbeit leisten, je höher das Gefälle sei und insbesondere könne die Maschine grundsätzlich nicht mehr Arbeit leisten als Wärme zugeführt wurde. Damit war klar, dass die Maschine um so mehr leisten konnte, je höher die Eingangstemperatur und je kleiner die Ausgangstemperatur war. Die Maschine kann man sich dabei als Kolbenkraftmaschine vorstellen. Bei der isothermen Expansion wird dem System die Wärmemenge Q1 bei der hohen Temperatur T1 zugeführt, bei der Kompression (untere rote Linie im Diagramm) gibt es Q2 bei der niedrigeren T2 ab. Die Temperatur ist dabei die vom absoluten Nullpunkt (−273,15 °C) gemessene absolute Temperatur in Grad Kelvin.

Den mathematischen Zusammenhang mit der Temperaturdifferenz formulierte allerdings erst der deutsche Physiker Rudolf Clausius und führte dabei den Begriff der Entropie ein. Den Namen Entropie, der soviel wie Wandlungsgehalt bedeutet, prägte er dabei in Anlehung an das ähnlich lautende Wort Energie. Clausius erkannte, dass im Falle eines reversiblen Prozesses, d.h. wenn keine Wärme durch Reibung verloren geht, die reduzierte Wärme konstant ist. Die maximal nutzbare mechanische Arbeit ergibt sich aus der Differenz der Wärmemengen:

und daraus der maximale Wirkungsgrad zu Fehler beim Parsen (Syntaxfehler): {\displaystyle \eta_\mathrm{max}=1-\frac{T_2}{T_1}\!\} .

Damit konnte Clausius die Entropie in differenzieller Form definieren als:

mit , bzw. und , wobei das Gleichheitszeichen nur für reversible Prozesse gilt.

So wurde es möglich, den Grad der Irreversibilität auch quantitativ zu erfassen. Die bei hoher Temperatur zugeführte Wärmemenge ist dabei höherwertig, d.h. mit geringerer Entropie belastet, als die bei geringerer Temperatur abgeführte Abwärme.

Ludwig Boltzmann

Alle diese Ergebnisse wurden durch die phänomenologische Betrachtung makroskopischer Zustände gewonnen. Erst um 1880 stellte mit der von ihm und James Maxwell entwickelten statistischen Physik den Zusammenhang zur mikroskopischen Ebene der elementaren Bausteine der Materie her. Ein Mikrozustand ist dabei durch die Angabe aller Orte und Impulse der zum System zählenden Teilchen, also der Atome oder Moleküle, bestimmt. Nach Boltzmann ist nun die Entropie ein Maß für die Anzahl der Mikrozustände, durch die sich ein beobachteter Makrozustand des Systems realisieren kann. Je größer die Anzahl der Mikrozustände - die sog. thermodynamische Wahrscheinlichkeit bzw. das statistische Gewicht - ist, durch die sich ein bestimmter Makrozustand verwirklichen kann, desto größer ist die Entropie. Der natürliche Logarithmus des statistischen Gewichts W multipliziert mit der allerdings erst 1900 von Max Plank eingeführten[1] und nach Boltzmann benannten Boltzmann-Konstante , ergibt dabei die Entropie des makroskopisch beobachteten Zustands:

Die Mischungsentropie

Der logarithmische Zusammenhang ergibt sich daraus, dass bei zwei gegeben Systemen die Gesamtentropie S gleich der Summe der einzelnen Entropien S1+S2 ist, wohingegen die statistischen Gewichte W1 und W2 miteinander multipliziert werden müssen, weil jeder Mikrozustand des einen Systems mit jedem Mikrozustand des anderen System einen neuen Mikrozustand des neuen Gesamtsystems bildet. Die Zunahme der Entropie bedeutet dann den Übergang zu einem neuen Makrozustand, der über eine größere Anzahl möglicher Mikrozustände verfügt.

Populär wird die Entropie oft als Maß für die Unordnung eines Systems angesehen. Diese Definition ist jedoch nur mit Vorsicht zu gebrauchen, da unser intuitiver Ordnungsbegriff in vielen Fällen nicht mit der statistischen Definition der Entropie übereinstimmt. Eher lässt sich die Entropie als Maß für die Unwissenheit bzw. für den mangelnden Informationsgehalt eines Systems auffassen. Das lässt am Beispiel der Mischungsentropie gut veranschaulichen. Im nebenstehenden Bild ist im linken Glas der Farbstoff noch nicht völlig gleichmäßig verteilt, die Entropie ist also kleiner als im rechten Glas, wo bereits eine vollständige Gleichverteilung des Farbstoffs stattgefunden hat. Schon rein anschaulich bietet uns das rechte Bild viel weniger Informationen als das wesentlich detailreichere linke Bild.

Entropie und Information

Claude Elwood Shannon definierte die Entropie im informationstheoretischen Sinn analog zur statistischen Thermodynamik als den mittleren Informationsgehalt einer Zeichenkette. Die Entropie eines Zeichens ist dann der Erwartungswert des Informationsgehalts:

Genau besehen handelt es sich dabei, wenn man die Formeln mit denen von Boltzmann vergleicht, aufgrund des negativen Vorzeichens um die negative Entropie oder Negentropie.

Entropie und Leben

Das Leben kämpft beständig gegen den Zerfall der physischen Strukturen an. Rein physikalisch betrachtet bedeutet das, dass das Leben beständig die unvermeidlich zunehmende Entropie aus dem lebendigen System an die Umwelt abführt. Darauf hat schon der Quantenphysiker Erwin Schrödinger in seinem Buch Was ist Leben? hingewiesen. Er prägte dafür den Begriff «negative Entropie». Leben ist demnach etwas, das negative Entropie aufnimmt bzw. - was gleichbedeutend ist - positive Entropie abgibt. Informationstheoretisch bedeutet das die beständige Aufnahme von Information. Das ist aus anthroposophischer Sicht identisch mit der Aufnahme ätherischer Bildekräfte, was in der Regel nur solchen Systemen möglich ist, die über einen eigenständigen Ätherleib verfügen und in diesem Sinn als eigenständige Lebewesen anzusehen sind.

Siehe auch

Anmerkungen

  1. M. Planck: „Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum“, Verhandlungen der Deutschen Physikalischen Gesellschaft 2 (1900) Nr. 17, S. 245, Berlin (vorgetragen am 14. Dezember 1900) Onlinedokument (deutsch, pdf) archiviert vom Original (PDF; 418 kB) am 7. April 2012.

Literatur

  • Erwin Schrödinger: Was ist Leben? - Die lebende Zelle mit den Augen des Physikers betrachtet, Leo Lehnen Verlag (Sammlung Dalp), München, 1951, 2.Aufl.