Entropie

Aus AnthroWiki
Die druckbare Version wird nicht mehr unterstützt und kann Darstellungsfehler aufweisen. Bitte aktualisiere deine Browser-Lesezeichen und verwende stattdessen die Standard-Druckfunktion des Browsers.
Nach Ludwig Boltzmann ist die makroskopisch messbare Entropie ein Maß für die Anzahl der Mikrozustände, durch die sich der beobachteter Makrozustand des Systems realisieren kann. Je größer die Zahl der möglichen Mikrozustände, desto größer ist auch die Entropie.

Die Entropie (griech. ἐντροπία, entropía, aus εν- en- ‚ein-‘, ‚in-‘ und τροπή tropē ‚Wendung‘, ‚Umwandlung‘; zu übersetzen etwa als „Wandlungsgehalt“) mit dem Formelzeichen ist eine thermodynamische physikalische Zustandsgröße, die etwas über die Wahrscheinlichkeit und damit auch über die Richtung physikalischer Prozesse aussagt. Der Begriff wird aber auch in der Informationstheorie als Maß für den mittleren Informationsgehalt einer Zeichenkette verwendet.

Entropie und Zeit

Alle rein physikalischen Prozesse laufen so ab, dass dabei die Entropie des Universums insgesamt gleich bleibt oder zunimmt. Damit wird zugleich die Richtung der Zeit festgelegt: Prozesse, bei denen die Entropie zunimmt, sind irreversibel, d.h. nicht umkehrbar, und das gilt für fast alle real vorkommenden physikalischen Vorgänge. Die Zukunft ist dadurch definiert, dass in ihr die Entropie größer ist als in der Vergangenheit. Nur reversible, d.h. umkehrbare Prozesse sind gleichsam zeitlos.

Entropie und die Vergänglichkeit der physischen Welt

Die Entropiezunahme resultiert aus der grundlegenden Tendenz der physischen Wärme, sich gleichmäßig im Raum zu verteilen. Aus statistischen Gründen ist diese Gleichverteilung wesentlich wahrscheinlicher, als dass sich Wärme von selbst an einem bestimmten Ort konzentriert. Oder anders ausgedrückt: Wärme geht niemals von selbst von einem Körper niedriger Temperatur auf einen Körper höherer Temperatur über. Das ist die Grundaussage des 2. Hauptsatzes der Thermodynamik.

Aufgrund der beständigen Entropiezunahme strebt die physische Welt unaufhaltsam einem Zustand der völligen Gleichverteilung zu, was letztlich den Zerfall aller geordneten Strukturen bedeutet.

Physikalische Grundlagen

Der Carnot-Prozess: Die nutzbare Arbeit entspricht der Fläche zwischen den Kurven.
T-S-Diagramm des reversiblen rechtslaufenden und damit als Wärmekraftmaschine arbeitenden Carnot-Prozesses. Der linksläufige Carnot-Prozess arbeitet entgegengesetzt als Wärmepumpe.
Dem Gas steht nach dem Entfernen der Zwischenwand ein größerer Raum zur Verfügung. Es existieren nach der Expansion also mehr Mikrozustände und das System besitzt eine höhere Entropie.

Das Entropiekonzept entstand aus den Bemühungen, die Effizienz von Wärmekraftmaschinen, namentlich von Dampfmaschinen zu verbessern. 1712 hatte Thomas Newcomen die erste Dampfmaschine entwickelt, um Wasser aus einem Bergwerk zu pumpen. Die Maschine erfüllte zwar ihren Zweck, verbrauchte aber ungeheure Mengen an Brennstoff. 1764 gelang es James Watt ohne besondere thermodynamische Kenntnisse durch rein mechanische Verbesserungen den Wirkungsgrad der Dampfmaschine auf über 1% mehr als zu verdoppeln. Der Zusammenhang zwischen Wärme und Energie bzw. nutzbarer Arbeit war damals noch völlig unklar; erst 1845 formulierte Julius Robert von Mayer den 1. Hauptsatz der Thermodynamik, wonach Wärme als eine Form der Energie anzusehen ist. 1824 veröffentlichte der junge französische Ingenieur Sadi Carnot die nur 43 Seiten starke Schrift „Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance“ („Betrachtungen über die bewegende Kraft des Feuers und die zur Entwicklung dieser Kraft geeigneten Maschinen“), in der er seine bahnbrechenden Ideen zur Verbesserung der Dampfmaschinen darlegte. Er beschreibt darin das Gedankenmodell einer idealen Wärmekraftmaschine, die Carnot-Maschine, die dadurch Arbeit leistet, dass Wärme in einem zyklischen Prozess von einer heißen Quelle zu einer kalten Senke fließt. Das Verhältnis der geleisteten mechanischen Arbeit ΔW zur umgesetzten Wärme ΔQ entspricht dabei dem Wirkungsgrad η:

Carnot ließ sich dabei von der Arbeit seines Vaters über Wassermühlen inspirieren und betrachtete die Wärme in Analogie zum strömenden Wassser. Ähnlich dem Wasser könne Wärme umso mehr Arbeit leisten, je höher das Gefälle sei und insbesondere könne die Maschine grundsätzlich nicht mehr Arbeit leisten als Wärme zugeführt wurde. Damit war klar, dass die Maschine um so mehr leisten konnte, je höher die Eingangstemperatur und je kleiner die Ausgangstemperatur war. Die Maschine kann man sich dabei als Kolbenkraftmaschine vorstellen. Der Carnot-Prozess umfasst zwei isothermen (T = const) und zwei isentropen (S = const) Zustandsänderungen, die im nebenstehenden T-S-Diagramm ein Rechteck bilden. Bei der isothermen Expansion wird dem System die Wärmemenge Q1 bei der hohen Temperatur T1 zugeführt, bei der Kompression (untere rote Linie im Diagramm) gibt es Q2 bei der niedrigeren T2 ab. Die Temperatur ist dabei die vom absoluten Nullpunkt (−273,15 °C) gemessene absolute Temperatur in Grad Kelvin.

Den mathematischen Zusammenhang mit der Temperaturdifferenz formulierte allerdings erst der deutsche Physiker Rudolf Clausius und führte dabei den Begriff der Entropie ein. Den Namen Entropie, der soviel wie Wandlungsgehalt bedeutet, prägte er dabei in Anlehung an das ähnlich lautende Wort Energie.

"Sucht man für S einen bezeichnenden Namen, so könnte man, ähnlich wie von der Grösse U gesagt ist, sie sei der Wärme- und Werkinhalt des Körpers, von der Grösse S sagen, sie sei der Verwandlungsinhalt des Körpers. Da ich es aber für besser halte, die Namen derartiger für die Wissenschaft wichtiger Grössen aus den alten Sprachen zu entnehmen, damit sie unverändert in allen neuen Sprachen angewandt werden können , so schlage ich vor, die Grösse S nach dem griechischen Worte ὴ τροπὴ, die Verwandlung, die Entropie des Körpers zu nennen. Das Wort Entropie habe ich absichtlich dem Worte Energie möglichst ähnlich gebildet, denn die beiden Grössen, welche durch diese Worte benannt werden sollen, sind ihren physikalischen Bedeutungen nach einander so nahe verwandt, dass eine gewisse Gleichartigkeit in der Benennung mir zweckmässig zu sein scheint." (Lit.: Clausius, S 34)

Clausius erkannte, dass im Falle eines reversiblen Prozesses, d.h. wenn keine Wärme durch Reibung verloren geht, die reduzierte Wärme konstant ist. Die maximal nutzbare mechanische Arbeit ergibt sich aus der Differenz der Wärmemengen:

und daraus der maximale Wirkungsgrad zu Fehler beim Parsen (Syntaxfehler): {\displaystyle \eta_\mathrm{max} = \frac{W}{Q_1} = 1-\frac{T_2}{T_1}\!\} .

Damit konnte Clausius die Entropie in differenzieller Form definieren als:

mit bzw. und , wobei das Gleichheitszeichen nur für reversible Prozesse gilt.

So wurde es möglich, den Grad der Irreversibilität auch quantitativ zu erfassen. Die bei hoher Temperatur zugeführte Wärmemenge ist dabei höherwertig, d.h. mit geringerer Entropie belastet, als die bei geringerer Temperatur abgeführte Abwärme.

Max Planck um 1930

Alle diese Ergebnisse wurden durch die phänomenologische Betrachtung makroskopischer Zustände gewonnen. Erst um 1880 stellte Ludwig Boltzmann mit der von ihm und James Maxwell entwickelten statistischen Physik den Zusammenhang zur mikroskopischen Ebene der elementaren Bausteine der Materie her. Ein Mikrozustand ist dabei durch die Angabe aller Orte und Impulse der zum System zählenden Teilchen, also der Atome oder Moleküle, bestimmt.

Nach Boltzmann ist die Entropie ein Maß für die Anzahl der Mikrozustände, durch die sich ein beobachteter Makrozustand des Systems realisieren kann. Je größer die Anzahl der Mikrozustände - die sog. thermodynamische Wahrscheinlichkeit bzw. das statistische Gewicht - ist, durch die sich ein bestimmter Makrozustand verwirklichen kann, desto wahrscheinlicher stellt er sich von selbst ein und desto größer ist auch die Entropie. Der natürliche Logarithmus des statistischen Gewichts W multipliziert mit der allerdings erst 1900 von Max Plank zur weiteren theoretischen Begründung seines Strahlungsgesetzes eingeführten[1] und nach Boltzmann benannten Boltzmann-Konstante , ergibt dabei die Entropie des makroskopisch beobachteten Zustands:

Die Mischungsentropie

Der logarithmische Zusammenhang ergibt sich daraus, dass bei zwei gegeben Systemen die Gesamtentropie S gleich der Summe der einzelnen Entropien S1+S2 ist, wohingegen die statistischen Gewichte W1 und W2 miteinander multipliziert werden müssen, weil jeder Mikrozustand des einen Systems mit jedem Mikrozustand des anderen System einen neuen Mikrozustand des neuen Gesamtsystems bildet. Die Zunahme der Entropie bedeutet dann den Übergang zu einem neuen Makrozustand, der über eine größere Anzahl möglicher Mikrozustände verfügt.

Populär wird die Entropie oft als Maß für die Unordnung eines Systems angesehen. Diese Definition ist jedoch nur mit Vorsicht zu gebrauchen, da unser intuitiver Ordnungsbegriff in vielen Fällen nicht mit der statistischen Definition der Entropie übereinstimmt. Eher lässt sich die Entropie als Maß für die Unwissenheit bzw. für den mangelnden Informationsgehalt eines Systems auffassen. Das lässt am Beispiel der Mischungsentropie gut veranschaulichen. Im nebenstehenden Bild ist im linken Glas der Farbstoff noch nicht völlig gleichmäßig verteilt, die Entropie ist also kleiner als im rechten Glas, wo bereits eine vollständige Gleichverteilung des Farbstoffs stattgefunden hat. Schon rein anschaulich bietet uns das rechte Bild viel weniger Informationen als das wesentlich detailreichere linke Bild.

Das Gibbsche Paradoxon und die Quantenmechanik

Werden zwei verschiedene Flüssigkeiten oder, wie im obigen Beispiel, eine Flüssigkeit und ein Farbstoff miteinander vermischt, so entsteht eine entsprechende Mischungsentropie. Grundsätzlich sollte das nach den von Boltzmann und Plank formulierten Gesetzen der klassischen statistischen Physik auch dann der Fall sein, wenn zwei gleiche Stoffe miteinander vermischt werden, wenn also beispielsweise Wasser mit Wasser gemischt wird, denn auch dabei sollte sich die Zahl der Mikrozustände entsprechend vergrößern. Tatsächlich tritt aber, wie Josiah Willard Gibbs erkannte, bei der Mischung gleicher Flüssigkeiten keine Mischungsentropie auf. Erklären lässt sich dieses Gibbsche Paradoxon erst durch die Quantenmechanik, nach der alle gleichartigen Elementarteilchen und die daraus aufgebauten Atome und Moleküle, die sich im gleichen Quantenzustand befinden, vollkommen identisch und damit ununterscheidbar sind. Durch die Vertauschung identischer Teilchen entsteht mithin kein neuer Mikrozustand und damit auch kein Entropiezuwachs. Das Phänomen belegt, dass Elementarteilchen, Atome und Moleküle keine Gegenstände sind, wie wir sie aus dem Alltag kennen, sondern gleichsam nur identische Repräsentanten der ihnen gemeinsam zugrunde liegenden Idee, die das eigentlich Wirkliche ist, während ihre zahllosen Repräsentanten bloße Erscheinungen mit geringerem Realitätsgehalt sind.

Entropie und Information

Claude Elwood Shannon definierte die Entropie im informationstheoretischen Sinn analog zur statistischen Thermodynamik als den mittleren Informationsgehalt einer Zeichenkette. Die Entropie eines Zeichens ist dann der Erwartungswert des Informationsgehalts:

Genau besehen handelt es sich dabei, wenn man die Formeln mit denen von Boltzmann vergleicht, aufgrund des negativen Vorzeichens um die negative Entropie oder Negentropie.

Entropie und Leben

Das Leben kämpft beständig gegen den Zerfall der physischen Strukturen an. Rein physikalisch betrachtet bedeutet das, dass das Leben beständig die unvermeidlich zunehmende Entropie aus dem lebendigen System an die Umwelt abführen muss. Darauf hatte schon der Quantenphysiker Erwin Schrödinger in seinem Buch Was ist Leben? hingewiesen. Er prägte dafür den Begriff «negative Entropie». Leben ist demnach etwas, das negative Entropie aufnimmt bzw. - was gleichbedeutend ist - positive Entropie abgibt. Informationstheoretisch bedeutet das die beständige Aufnahme von Information. Das ist aus anthroposophischer Sicht identisch mit der Aufnahme ätherischer Bildekräfte, was in der Regel nur solchen Systemen möglich ist, die über einen eigenständigen Ätherleib verfügen und in diesem Sinn als eigenständige Lebewesen anzusehen sind.

Siehe auch

Anmerkungen

  1. M. Planck: „Zur Theorie des Gesetzes der Energieverteilung im Normalspektrum“, Verhandlungen der Deutschen Physikalischen Gesellschaft 2 (1900) Nr. 17, S. 245, Berlin (vorgetragen am 14. Dezember 1900) Onlinedokument (deutsch, pdf) archiviert vom Original (PDF; 418 kB) am 7. April 2012.

Literatur

  • Rudolf Clausius: Abhandlung über die mechanische Wärmetheorie, Braunschweig 1864; ABHANDLUNG IX. Ueber verschiedene für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie, S 34 [1]
  • Erwin Schrödinger: Was ist Leben? - Die lebende Zelle mit den Augen des Physikers betrachtet, Leo Lehnen Verlag (Sammlung Dalp), München, 1951, 2.Aufl.