Distribuição e Entropia
Storyboard
Ao analisar a probabilidade de encontrar o sistema em um estado específico, observamos que a condição de equilíbrio ($\beta$) faz parte da estrutura da distribuição. Além disso, fica evidente que a função que melhor modela o sistema é o logaritmo do número de estados, o que está associado ao que chamaremos de entropia.
ID:(437, 0)
Formação de um máximo
Imagem
Quando multiplicamos o número de casos, obtemos uma função com um pico muito pronunciado.
O sistema tem uma probabilidade maior de ser encontrado na energia onde ocorre o pico da curva de probabilidade.
ID:(11543, 0)
Série de Taylor para o número de estados
Equação
Para estudar o comportamento da função do número de estados, podemos desenvolvê-la em torno do valor da energia no estado de equilíbrio $\bar{E}$. Se o fizermos no logaritmo do número de estados, obtemos
$\ln\Omega(E)=\ln\Omega(\bar{E})+\displaystyle\frac{\partial\ln\Omega}{\partial E}\eta+\displaystyle\frac{1}{2}\displaystyle\frac{\partial^2\ln\Omega}{\partial E^2}\eta^2\ldots$
onde $\eta=E-\bar{E}$. Usando para a definição de
$ k_B T \equiv\displaystyle\frac{1}{ \beta }$ |
e
$\lambda\equiv-\displaystyle\frac{\partial^2\ln\Omega}{\partial E^2}=-\displaystyle\frac{\partial\ln\beta}{\partial E}$
obtemos a expressão com :
$\ln\Omega(E)=\ln\Omega(\bar{E})+\beta\eta-\displaystyle\frac{1}{2}\lambda\eta^2\ldots$ |
ID:(3443, 0)
Forma da função de probabilidade
Equação
Se considerarmos a expansão do número de estados com :
$\ln\Omega(E)=\ln\Omega(\bar{E})+\beta\eta-\displaystyle\frac{1}{2}\lambda\eta^2\ldots$ |
podemos estimar o logaritmo da probabilidade:
$\ln P = \ln[\Omega(E)\Omega'(E')] = \ln\Omega(E) + \ln\Omega'(E') = \ln\Omega(\bar{E}) + \ln\Omega'(\bar{E'}) + (\beta - \beta')\eta - \frac{1}{2}(\lambda + \lambda')\eta^2\ldots$
Para o caso do estado de equilíbrio, ambos os betas são iguais, e a probabilidade de um dos sistemas ter uma energia $E$ é reduzida a uma distribuição gaussiana, que é expressa com da seguinte forma:
$P(E)=P(\bar{E})e^{-\lambda_0(E-\bar{E})^2/2}$ |
onde
$\lambda_0 = \lambda + \lambda'$
ID:(3444, 0)
Largura de distribuição
Equação
O fator que define a largura da curva de probabilidade é o fator quadrático na série de Taylor, que é expresso com da seguinte forma:
$\lambda_0\equiv-\displaystyle\frac{\partial^2\ln\Omega}{\partial E^2}=-\displaystyle\frac{\partial\ln\beta}{\partial E}$ |
Pode ser demonstrado que o número $\lambda$ introduzido é sempre positivo. Uma indicação disso vem da função do número de estados que já calculamos para o caso de partículas livres. Nesse caso, uma vez que o número de estados é proporcional à energia elevada à potência do número de graus de liberdade $f$, obtemos que com
$\Omega\sim E^f$
temos
$\lambda_0\equiv-\displaystyle\frac{\partial^2\ln\Omega}{\partial E^2}=-f\displaystyle\frac{\partial^2\ln E}{\partial E^2}=\displaystyle\frac{f}{E^2}$
.
ID:(11549, 0)
Definição de entropia com base em estados possíveis
Equação
O parâmetro-chave no estudo do equilíbrio é dado pelo logaritmo do número de estados, que com é expresso como:
$\beta(E)\equiv\displaystyle\frac{\partial\ln\Omega}{\partial E}$ |
O logaritmo natural do número de estados multiplicado pela constante de Boltzmann $k_B$ é definido como a entropia do sistema, que é expressa com da seguinte maneira:
$ S \equiv k_B \ln \Omega $ |
ID:(3439, 0)
Relação termodinâmica
Equação
A definição de $\beta$ encontra-se em
$\beta(E)\equiv\displaystyle\frac{\partial\ln\Omega}{\partial E}$ |
a da temperatura está em
$ k_B T \equiv\displaystyle\frac{1}{ \beta }$ |
e a da entropia em
$ S \equiv k_B \ln \Omega $ |
Essas definições nos levam a uma relação termodinâmica que indica como a temperatura $T$ se relaciona com :
$\displaystyle\frac{1}{T}=\displaystyle\frac{\partial S}{\partial E}$ |
ID:(3442, 0)
Entropia e sistema em equilíbrio
Equação
Com a definição de entropia como :
$ S \equiv k_B \ln \Omega $ |
e considerando que em equilíbrio isso é válido com :
$\displaystyle\frac{\partial\ln\Omega}{\partial E}-\displaystyle\frac{\partial\ln\Omega_h}{\partial E_h}=0$ |
concluímos que em equilíbrio, a energia $E$ deve sempre ser máxima com :
$ S + S_h =max$ |
ID:(3440, 0)
0
Video
Vídeo: Distribuição e Entropia