Entropia
Lord Kelvin
(1824-1907)
Rudolf Julius Emmanuel
Clausius (1822 - 1888)
Ludwig Eduard
Boltzmann
Max Karl Ernst Ludwig
Planck 1858-1947
1844-1906
Wassily Kandinsky
Substantivo feminino 1. FÍSICA
(termodinâmica) função que define o estado de desordem de um sistema; 2. valor que permite avaliar esse estado de desordem e que vai aumentando à medida que este evolui para um estado de equilíbrio; 3. medida de perda de informação numa mensagem ou sinal transmitido. Entropia
A entropia é uma função de estado
Num ciclo termodinâmico, a variação global de uma função de estado é igual a zero
Uma forma simplificada de enunciar a Segunda Lei da Termodinâmica para um sistema completamente isolado: "Todo sistema isolado tende a máxima desordem possível, isto é, a máxima Entropia compatível com seu estado termodinâmico, o estado final de máxima desordem corresponde ao
Equilíbrio Termodinâmico ".
Entropia
A variável de estado relacionada com o Segundo Princípio da Termodinâmica, é a entropia S
Os sistemas isolados tendem à desordem e a entropia é uma medida dessa desordem A ideia de entropia surgiu no seguimento de uma função criada pelo físico alemão Rudolf Clausius (1822-1888). Expressou a entropia em escala macroscópica pela primeira vez em 1865
Q H TH
=
QC
TC
A partir da equação que descreve a máquina de Carnot
Obteve a relação
QC
Q
= H
TC
TH
a razão Q/T tem um significado especial
Se dQr for o calor transferido quando o sistema segue uma trajetória reversível entre dois estados, a variação da entropia, independentemente da trajetória real seguida, é igual a
dQr dS =
T
f
dQr
ΔS = ∫
T
i
A variação da entropia é inversamente proporcional à temperatura.
Entropia: Processos Reversíveis
A entropia é constante em processos reversíveis.
• Def: ΔS = Δ Q / T
No ciclo de Carnot:
Δ Q > 0 adiciona a entropia
Δ Q < 0 diminui a entropia
ΣΔS=0
•