Entropia

L’entropia è una funzione di stato indicata con la lettera S la cui unità di misura è J/K.

Il nome entropia fu coniato nel 1865 dal fisico tedesco Clausius e deriva dal greco εν che significa dentro e τροπη che significa trasformazione.

L’entropia può essere definita secondo la termodinamica classica in sistemi all’equilibrio o secondo un approccio statistico. L’entropia svolge un ruolo centrale nello studio della termodinamica ed è stata introdotta attraverso il concetto di funzionamento del motore termico. 

L’argomento dell’entropia è stato sviluppato grazie ai preziosi contributi di Sadi Carnot, James Prescott Joule, William Thomson, Rudolf Clausius, e Max Planck.

L’entropia di sistema viene misurata in termini relativi in base ai cambiamenti che il sistema ha subito da uno stato iniziale a uno stato finale e quindi viene misurata in termini di ∆S

Da un punto di vista termodinamico la variazione di entropia per un processo reversibile viene definita come:

ΔS = Q/T

dove Q è il calore ceduto o acquistato dal sistema e T è la temperatura alla quale avviene il processo.

Se si ha un cambiamento di temperatura costituisce una buona approssimazione, per piccole variazioni, considerare una media piuttosto che utilizzare il calcolo integrale.

Si definisce isoentropico un processo in cui l’entropia del sistema rimane costante ovvero ΔS = 0. Nella realtà un processo isoentropico è un caso ideale in quanto nelle macchine in cui avvengono processi irreversibili l’entropia tende ad aumentare a seguito di fenomeni di attrito o reazioni chimiche.

Dagli studi sulle macchine termiche fu enunciato il Secondo Principio della Termidnamica che può essere esposto secondo diversi enunciati. Secondo Clausius “ E’ impossibile realizzare una trasformazione il cui unico risultato sia il passaggio di calore da un corpo ad una data temperatura ad un altro a temperatura maggiore”.

Ciò implica che senza l’apporto di lavoro esterno o di altre forze il calore passa dal corpo più caldo a quello più freddo fino al raggiungimento dell’equilibrio termico.

Per il sistema che assorbe calore Q > 0 e pertanto poiché la temperatura è espressa in gradi Kelvin e quindi non può essere negativa il rapporto Q/T è maggiore di zero.

In un processo spontaneo si verifica quindi che ΔS = Q/T > 0

Pertanto la variazione di entropia è sempre maggiore di zero o, al più, uguale a zero.

Secondo un’altra angolazione l’entropia viene correlata al grado di disordine. Questo concetto fu postulato per primo dal fisico austriaco Ludwig Boltzmann e portò alla interpretazione statistica dell’entropia.

Il concetto intuitivo di disordine, può essere trattato da un punto di vista matematico in termini di termodinamica statistica e viene definito come lo stato più probabile in cui può presentarsi un sistema.

Ad esempio, se un gas contenuto in un recipiente viene messo a contatto con un altro recipiente vuoto, esso tenderà ad occupare tutto lo spazio a sua disposizione perché questo è lo stato “più probabile” che esso può assumere: infatti è estremamente improbabile che le molecole gassose, animate da moti casuali, permangano nel primo contenitore o si addensino prevalentemente in uno dei due.

Il processo spontaneo è quindi quello che porta ad un aumento del disordine e quindi dell’entropia.

 

Avatar

Author: Chimicamo

Share This Post On