| Inhalt |
Entropie ist ein fundamentales Konzept der Physik, insbesondere der Thermodynamik, Informationstheorie und statistischen Mechanik. Allgemein misst Entropie die Unordnung, Zahl möglicher Mikrozustände oder den Informationsgehalt/Unsicherheit eines Systems.
ist die Entropie, die reversibel zu- oder abgeführte Wärme, die absolute Temperatur. Die Entropieänderung ist Wärmeaufnahme geteilt durch Temperatur.
Berechnet die Gesamtänderung der Entropie während eines reversiblen Prozesses.
ist Stoffmenge, die Gaskonstante, und die Volumina. Die Entropie wächst, wenn das Gas sich ausdehnt.
ist die Wärmekapazität bei konstantem Volumen. Berücksichtigt Temperatur- und Volumenänderung gleichzeitig.
Die Gesamtentropie eines abgeschlossenen Systems kann nie abnehmen; sie steigt oder bleibt konstant.
ist die Boltzmann-Konstante, die Anzahl der Mikrozustände. Je mehr mögliche Mikrozustände, desto größer die Entropie.
ist die Wahrscheinlichkeit für Mikrozustand . Misst die Unordnung eines probabilistischen Ensembles.
Für kontinuierlich verteilte Zustände, z.B. in Phasenräumen.
misst den mittleren Informationsgehalt (Unsicherheit) einer Quelle. Ein hochgradig zufälliges Signal hat hohe Entropie.
Kontinuierliche Variante. Nutzt oft zur Basis oder .
ist die Dichtematrix eines Quantenzustands. Misst die Unbestimmtheit oder Verschränkung in Quantensystemen.
sind stöchiometrische Koeffizienten, die molaren Entropien. Beschreibt die Entropieänderung einer chemischen Reaktion.
ist die Zustandssumme, , ist die mittlere Energie. Verbindet Entropie mit statistischer Energieverteilung.
ist die freie Energie. Die Entropie ist die negative Temperaturableitung des Potentials.
ist die Gibbs-Energie. Wichtig für chemische Gleichgewichte und Prozesse bei konstantem Druck.
| Inhalt |