Inhalt  |


Was ist Entropie? Liste aller Gleichungen mit Erklärungen

Entropie ist ein fundamentales Konzept der Physik, insbesondere der Thermodynamik, Informationstheorie und statistischen Mechanik. Allgemein misst Entropie die Unordnung, Zahl möglicher Mikrozustände oder den Informationsgehalt/Unsicherheit eines Systems.

Thermodynamik

1. Clausius-Definition

dS=δQrevT dS = \frac{\delta Q_\text{rev}}{T} SS ist die Entropie, δQrev\delta Q_\text{rev} die reversibel zu- oder abgeführte Wärme, TT die absolute Temperatur. Die Entropieänderung ist Wärmeaufnahme geteilt durch Temperatur.

2. Entropieänderung bei endlicher Wärmemenge

ΔS=ABδQrevT \Delta S = \int_{A}^{B} \frac{\delta Q_\text{rev}}{T} Berechnet die Gesamtänderung der Entropie während eines reversiblen Prozesses.

3. Entropie eines idealen Gases (isotherme Zustandsänderung)

ΔS=nRln(V2V1) \Delta S = nR \ln\left( \frac{V_2}{V_1} \right) nn ist Stoffmenge, RR die Gaskonstante, V1V_1 und V2V_2 die Volumina. Die Entropie wächst, wenn das Gas sich ausdehnt.

4. Entropie eines idealen Gases (allgemeine Form)

ΔS=nCVln(T2T1)+nRln(V2V1) \Delta S = n C_V \ln\left( \frac{T_2}{T_1} \right) + n R \ln\left( \frac{V_2}{V_1} \right) CVC_V ist die Wärmekapazität bei konstantem Volumen. Berücksichtigt Temperatur- und Volumenänderung gleichzeitig.

5. Zweiter Hauptsatz der Thermodynamik

ΔSgesamt0 \Delta S_\text{gesamt} \ge 0 Die Gesamtentropie eines abgeschlossenen Systems kann nie abnehmen; sie steigt oder bleibt konstant.

6. Boltzmann-Gleichung (statistische Mechanik)

S=kBlnΩ S = k_B \ln \Omega kBk_B ist die Boltzmann-Konstante, Ω\Omega die Anzahl der Mikrozustände. Je mehr mögliche Mikrozustände, desto größer die Entropie.

Statistische Mechanik (allgemeinere Form)

7. Gibbs-Entropie

S=kBipilnpi S = -k_B \sum_i p_i \ln p_i pip_i ist die Wahrscheinlichkeit für Mikrozustand ii. Misst die Unordnung eines probabilistischen Ensembles.

8. Kontinuierliche Gibbs-Entropie

S=kBp(x)lnp(x),dx S = -k_B \int p(x) \ln p(x), dx Für kontinuierlich verteilte Zustände, z.B. in Phasenräumen.

Informationstheorie

9. Shannon-Entropie

H=ipilog2pi H = - \sum_i p_i \log_2 p_i HH misst den mittleren Informationsgehalt (Unsicherheit) einer Quelle. Ein hochgradig zufälliges Signal hat hohe Entropie.

10. Differenzielle Shannon-Entropie

H=p(x)logp(x),dx H = - \int p(x) \log p(x), dx Kontinuierliche Variante. Nutzt oft log\log zur Basis 22 oder ee.

Quantenmechanik

11. Von-Neumann-Entropie

S=kB,Tr(ρlnρ) S = -k_B , \mathrm{Tr}(\rho \ln \rho) ρ\rho ist die Dichtematrix eines Quantenzustands. Misst die Unbestimmtheit oder Verschränkung in Quantensystemen.

Chemische Thermodynamik

12. Reaktionsentropie

ΔSReaktion=iνiSi \Delta S_\text{Reaktion} = \sum_i \nu_i S_i νi\nu_i sind stöchiometrische Koeffizienten, SiS_i die molaren Entropien. Beschreibt die Entropieänderung einer chemischen Reaktion.

Statistische Ensembles

13. Kanonisches Ensemble (Partitionfunktion)

S=kB(lnZ+βE) S = k_B \left( \ln Z + \beta E \right) ZZ ist die Zustandssumme, β=1kBT\beta = \frac{1}{k_B T}, EE ist die mittlere Energie. Verbindet Entropie mit statistischer Energieverteilung.

Thermodynamische Potentiale

14. Entropie aus Helmholtz-Freier Energie

S=(FT)V S = - \left( \frac{\partial F}{\partial T} \right)_V FF ist die freie Energie. Die Entropie ist die negative Temperaturableitung des Potentials.

15. Entropie aus Gibbs-Freier Energie

S=(GT)p S = - \left( \frac{\partial G}{\partial T} \right)_p GG ist die Gibbs-Energie. Wichtig für chemische Gleichgewichte und Prozesse bei konstantem Druck.



Inhalt  |