Entropie
Storyboard
Entropie ist der Teil der Energie in einem System, der nicht genutzt werden kann, um Arbeit zu verrichten. Aus mikroskopischer Sicht bezieht sie sich auf die Anzahl möglicher Konfigurationen, die das System annehmen kann. Eine größere Anzahl dieser Konfigurationen steht in Verbindung mit einer Zunahme der Unordnung im System und einer Abnahme der Wahrscheinlichkeit, dass das System in einen früheren Zustand zurückkehrt, wodurch die Möglichkeit der Reversibilität des Systems verringert wird.
ID:(1471, 0)
Mechanismen
Iframe
Die physikalische Entropie ist ein grundlegendes Konzept in der Thermodynamik und der statistischen Mechanik, das den Grad der Unordnung oder Zufälligkeit in einem System darstellt. Sie misst die Anzahl der spezifischen Anordnungen, in denen ein thermodynamisches System existieren kann, und spiegelt die Menge an Ungewissheit oder die Anzahl möglicher Mikrozustände wider, die einem gegebenen Makrozustand entsprechen. Entropie quantifiziert Unordnung, wobei eine höhere Entropie auf eine größere Unordnung hinweist. Laut dem zweiten Gesetz der Thermodynamik nimmt die Entropie eines isolierten Systems niemals ab, was bedeutet, dass natürliche Prozesse dazu tendieren, sich zu einem Zustand maximaler Entropie oder Unordnung zu bewegen. Die Entropie misst auch die Irreversibilität von Prozessen, wobei spontane Prozesse die Entropie des Universums erhöhen. Sie ist ein Schlüsselfaktor für die Bestimmung der Effizienz von Wärmekraftmaschinen und Kühlschränken, das Verständnis des Verhaltens biologischer Systeme und das Studium der Entwicklung des Universums. Im Wesentlichen ist die Entropie ein Maß für die Unvorhersehbarkeit und Energiedispersion in einem System und gibt Aufschluss über die natürliche Tendenz zur Unordnung und die Begrenzungen der Energieumwandlung.
Mechanismen
ID:(15246, 0)
Arten von Variablen
Beschreibung
Wenn wir die Gleichung von Differential ungenaue Arbeits ($\delta W$) mit die Mechanische Kraft ($F$) und der Zurückgelegter Weg ($dx$) betrachten:
$ \delta W = F dx $ |
in ihrer Form von die Druck ($p$) und der Volumen ($V$):
$ \delta W = p dV $ |
Spielt die Arbeit die Rolle eines Potenzials, während die Druck ($p$) als 'verallgemeinerte Kraft' fungiert und der Volumen ($V$) als der Pfad dient, eine Art 'unabhängige Variable'. Wenn wir diese Konzepte für die bisher besprochenen Parameter in einer Matrix organisieren, erhalten wir:
Thermodynamisches Potential | Generalisierte Kraft | Unabhängige Variable |
Extensiv | Intensiv | Extensiv |
$\delta W$ | $p$ | $dV$ |
$\delta Q$ | $T$ | $?$ |
In diesem Zusammenhang sehen wir, dass für die Zeile die Variation des Wärme ($\delta Q$) die Variable die Absolute Temperatur ($T$) vorhanden ist, aber uns eine extensiv unabhängige Variable fehlt. Diese nennen wir Entropie und bezeichnen sie mit dem Buchstaben $S$.
ID:(11183, 0)
Intensive und umfangreiche Variablen
Beschreibung
Es gibt Variablen, die mit Größen und andere, die mit Eigenschaften in Verbindung stehen.
• Die ersten werden als extensive Variablen bezeichnet, da sie proportional zur Menge der vorhandenen Substanz erweitert oder erhöht werden können. Beispiele für extensive Variablen sind Volumen, Masse, elektrische Ladung, Wärme usw.
• Die zweiten werden als intensive Variablen bezeichnet und repräsentieren Eigenschaften, die unabhängig von der Menge der Substanz sind. Diese Eigenschaften ändern sich nicht, wenn sich die Menge der Substanz ändert. Beispiele für intensive Variablen sind Dichte, Druck, Temperatur usw.
ID:(11182, 0)
Entropie und Phasenwechsel
Beschreibung
Wenn die Entropie in Abhängigkeit von der Temperatur geschätzt wird, kann Folgendes beobachtet werden:
• In jeder Phase (fest, flüssig, gasförmig) tendiert die Entropie dazu, mit steigender Temperatur leicht zu wachsen.
• Bei jedem Phasenübergang gibt es einen Sprung in der Entropie.
Dies kann wie folgt dargestellt werden:
Auf diese Weise kann die Entropie als ein Maß für die Freiheitsgrade eines Systems verstanden werden. Während sie in einer Phase allmählich zunimmt, weil nur wenige neue Freiheitsgrade freigesetzt werden, erfolgt bei Phasenübergängen ein deutlicher Anstieg. Ein Festkörper besteht aus vielen Bindungen, die die Bewegung der Atome einschränken. In einer Flüssigkeit gehen viele Bindungen verloren, wodurch neue Freiheiten entstehen, die relative Bewegungen ermöglichen und mit vielen neuen Freiheitsgraden verbunden sind. Schließlich gehen bei Übergang in den gasförmigen Zustand alle Bindungen verloren, und jedes Teilchen hat drei Freiheitsgrade. Bei weiter steigender Temperatur können die Teilchen rotieren und schwingen, was neue Freiheitsgrade und weitere Anstiege in der Entropie bedeutet.
ID:(11187, 0)
Entropie und Irreversibilität
Beschreibung
Wenn wir zwei identische Systeme betrachten, eines mit einer Temperatur $T_1$ und das andere mit einer Temperatur $T_2$, können ihre Entropien mithilfe der Gleichung berechnet werden, in der die Entropie ($S$), die Absolute Temperatur ($T$), die Kalorische Kapazität ($C$), die Basisentropie ($S_0$) und die Basistemperatur ($T_0$) vorkommen:
$ S = S_0 + C \log\left(\displaystyle\frac{ T }{ T_0 }\right)$ |
Daher lauten die Entropien:
$S_1 = S_0 + C\log\left(\displaystyle\frac{T_1}{T_0}\right)$
und
$S_2 = S_0 + C\log\left(\displaystyle\frac{T_2}{T_0}\right)$
Wenn beide Systeme gemischt werden, ergibt sich ihre Temperatur als Durchschnittstemperatur:
$T_m=\displaystyle\frac{1}{2}(T_1+T_2)$
Daher wird die Entropie des neuen Systems sein:
$S_{1+2}=2S_0+2C\log\left(\displaystyle\frac{T_m}{T_0}\right)=2S_0+2C\log\left(\displaystyle\frac{T_1+T_2}{2T_0}\right)$
Die Entropie des neuen Systems ist größer als die Summe der individuellen Entropien:
$\Delta S=2C\log\left(\displaystyle\frac{T_1+T_2}{2T_0}\right)-C\log\left(\displaystyle\frac{T_1}{T_0}\right)-C\log\left(\displaystyle\frac{T_2}{T_0}\right)$
Wenn wir $\Delta S/C$ als Funktion von $T_1/T_0$ und $T_2/T_0$ grafisch darstellen, erhalten wir folgende Abbildung:
$\Delta S/C$ ist nahezu null, wenn die Temperaturen sehr ähnlich sind ($T_1\sim T_2$). Wenn die Temperaturen jedoch unterschiedlich sind, wird die Entropie immer zunehmen. Wenn wir dies in anderen Systemen untersuchen, werden wir feststellen, dass immer dann, wenn eine irreversible Änderung auftritt, die Entropie zunimmt. Das Mischen ist irreversibel, was bedeutet, dass das System nicht ohne äußere Eingriffe in seinen Ausgangszustand zurückkehrt. Mit anderen Worten, das System wird sich nicht spontan in zwei Teilsysteme mit völlig unterschiedlichen Temperaturen aufteilen.
ID:(11186, 0)
Modell
Top
Parameter
Variablen
Berechnungen
Berechnungen
Berechnungen
Gleichungen
$ \delta Q = T dS $
dQ = T * dS
$ S = S_0 + C \log\left(\displaystyle\frac{ T }{ T_0 }\right)$
S = S_0 + C *log( T / T_0 )
ID:(15305, 0)
Zweiter Hauptsatz der Thermodynamik
Gleichung
Der Differential ungenau Wärme ($\delta Q$) ist gleich die Absolute Temperatur ($T$) mal die Entropievariation ($dS$):
$ \delta Q = T dS $ |
ID:(9639, 0)
Entropieberechnung
Gleichung
Die Entropie ($S$) ist eine Funktion von die Absolute Temperatur ($T$) mit die Basisentropie ($S_0$) und die Basistemperatur ($T_0$) gemäß:
$ S = S_0 + C \log\left(\displaystyle\frac{ T }{ T_0 }\right)$ |
Die Beziehung von die Variation des Wärme ($\delta Q$) zu die Absolute Temperatur ($T$) und die Entropievariation ($dS$) kann wie folgt ausgedrückt werden:
$ \delta Q = T dS $ |
Wenn dies in Verbindung mit der Beziehung zwischen die Variation des Wärme ($\Delta Q$), die Kalorische Kapazität ($C$) und die Temperaturschwankungen ($\Delta T$) gebracht wird:
$ \Delta Q = C \Delta T $ |
erhalten wir diese Beziehung im infinitesimalen Grenzwert, wobei gilt:
$\delta Q = C dT = T dS$
Nach der Integration gelangen wir zu folgender Gleichung:
$ S = S_0 + C \log\left(\displaystyle\frac{ T }{ T_0 }\right)$ |
mit der Bedingung, dass die Basisentropie ($S_0$) kleiner ist als die Basistemperatur ($T_0$).
ID:(11185, 0)