20.09.2019

Variazione dell'entropia in diversi processi di formula. Entropia. Il secondo principio della termodinamica. Macchine termiche e frigorifere. Ciclo di Carnot e sua efficacia


Il concetto di entropia è utilizzato in varie scienze: fisica, chimica, matematica, biologia, sociologia. La parola stessa deriva dal greco e significa "trasformazione, cambiamento". Che cos'è in parole semplici? Possiamo dire che questa è una misura del disordine, della casualità in qualsiasi sistema. Più basso è l'ordine, maggiore è il suo valore. Se i libri sono su uno scaffale, sono meno disordinati che se fossero in pila.

La definizione di questo termine dipende dall'ambito della sua applicazione. In termini generali, possiamo dire che questa è una misura del disordine e dell'irreversibile dissipazione di energia. Più un sistema è ordinato, più l'energia è concentrata. Ad esempio, se mettiamo un oggetto caldo in acqua fredda, si raffredderà gradualmente e l'acqua si scalderà. Nel secondo caso, l'entropia è maggiore.

Importante! L'entropia caratterizza il disordine. Più è grande, meno è ordinato il sistema.

Tutto può agire come un sistema. In fisica o chimica, questo è solitamente un gas, liquido, solido, un insieme di un certo numero di particelle. In informatica può essere un testo, in sociologia un gruppo di persone.

Il termine entropia

In fisica

Questo termine è usato in branche della fisica come la termodinamica e la fisica statistica. La termodinamica studia i metodi di trasferimento e trasformazione dell'energia. Si tratta di processi in cui può essere utilizzato il concetto di temperatura. È stato in termodinamica che questo concetto è stato utilizzato per la prima volta. È stato introdotto dallo scienziato tedesco Rudolf Clausius. La meccanica statistica studia il comportamento di sistemi di un numero finito di particelle, utilizzando per questo i metodi della teoria della probabilità.

In diversi rami della fisica, questo termine significa cose leggermente diverse. In termodinamica, questa è una caratteristica della dissipazione irreversibile di energia. In fisica statistica, questo valore indica la probabilità di qualche stato.

In termodinamica

L'entropia è l'unica quantità che mostra la direzione dei processi fisici. Cosa significa?

  • In un sistema isolato, cioè che non scambia né materia né energia con gli oggetti circostanti, i processi procedono sempre in modo tale da aumentare il disordine. Raggiunto un massimo, rimane costante. Questa è l'essenza della seconda legge della termodinamica.
  • I processi reversibili non cambiano il disordine.
  • I processi irreversibili procedono sempre in modo tale che il disordine aumenti.
    In un sistema aperto, questo valore può aumentare o rimanere costante e sono possibili tali processi in cui il disordine diminuisce. Cioè, con un intervento esterno, possiamo ridurre il disordine.

Qualsiasi sistema che sia in condizioni esterne costanti alla fine raggiunge uno stato di equilibrio e non può uscirne da solo. In questo caso, tutte le sue parti avranno la stessa temperatura. Questa è la legge zero della termodinamica.

In equilibrio, il disordine è il massimo. Ad esempio, c'è una nave divisa da una partizione. Da un lato c'è un gas, dall'altro - l'altro. Se la partizione viene rimossa, i gas si mescoleranno gradualmente e non si separeranno più da soli. Un tale stato sarà più disordinato dello stato in cui i gas sono stati separati.

In fisica, questa quantità è una funzione dello stato del sistema. Ciò significa che dipende dai parametri di sistema:

  • temperatura;
  • pressione;
  • volume;
  • Energia interna.

Nella meccanica statistica

Nella meccanica statistica, questo concetto è associato alla probabilità di ottenere un determinato stato. Ad esempio, per diversi oggetti o particelle, dipende dal numero di modi per disporli.

Esistono diverse definizioni per questa quantità. La definizione più semplice di Bolzamann. È uguale al logaritmo della probabilità di stato moltiplicato per la costante di Boltzmann: S=k*ln(W).

Video utile: cos'è l'entropia

Valore assoluto

L'entropia è un valore non negativo (maggiore o uguale a zero). Più la temperatura è vicina allo zero assoluto, più è vicina allo zero. Questa è la terza legge della termodinamica. È stato originariamente formulato da Max Planck nel 1911.

Inoltre, il terzo principio della termodinamica è chiamato il principio dell'inaccessibilità dello zero assoluto. Ciò significa che con qualsiasi processo associato a un cambiamento nel disordine, è impossibile raggiungere lo zero assoluto (0 K o -273,15 C). Ci si può avvicinare a questa temperatura solo indefinitamente. Gli scienziati hanno convenuto che a 0 K, il disordine è 0.

Importante! Il valore assoluto del disordine può essere calcolato come la variazione di energia a una data temperatura.

In termodinamica, il valore assoluto di solito non ha importanza, solo il suo cambiamento è importante. Tuttavia, si può trovare anche un valore assoluto. Viene calcolato secondo diverse formule per lo stato della materia solido, liquido e gassoso. Questo valore è misurato in J/K o J/gradi, cioè nelle stesse unità della capacità termica. È conveniente dividere questo valore per la massa o il numero di moli della sostanza. Pertanto, vengono utilizzate unità di J / (mol * K) o J / (mol * gradi), a seconda che la temperatura sia misurata in kelvin o gradi.

In chimica

Che cos'è, ad esempio, l'entropia in chimica? Questo concetto è utilizzato nella termodinamica chimica. È importante modificare questo valore. Se è positivo, il sistema diventa meno ordinato. Sapere questo è importante per determinare la direzione delle reazioni chimiche e modificare l'equilibrio chimico. Questo termine è associato al concetto di entalpia - energia che può essere convertita in calore ad una certa pressione costante.

Modificando il disturbo, si può determinare se la reazione può procedere spontaneamente. Questo non può essere fatto solo cambiando l'energia, poiché ci sono reazioni che avvengono con l'assorbimento del calore e reazioni che hanno luogo con il suo rilascio. Secondo la seconda legge della termodinamica, lo stato più disordinato è lo stato più stabile di un sistema chiuso. Inoltre, qualsiasi sistema chiuso tende allo stato meno ordinato. Pertanto, nei processi spontanei, il disordine aumenta.

Nella teoria dell'informazione

L'entropia dell'informazione caratterizza l'imprevedibilità di qualsiasi sistema. Ad esempio, potrebbe essere la probabilità che nel testo si verifichi un carattere dell'alfabeto. Inoltre, questa funzione è uguale alla quantità di informazioni che ricade su un carattere. Claude Shannon, lo scienziato che introdusse questo termine nella teoria dell'informazione, all'inizio volle anche chiamare questa quantità informazione.

Shannon ha suggerito che aumentando la quantità di informazioni, riduciamo l'incertezza. Semplificando il sistema, riduciamo anche l'incertezza.

Importante! Più un evento è prevedibile, meno informativo è e meno confusione.

Con l'aiuto di questa incertezza, è possibile prevedere eventi, ad esempio il risultato di alcuni esperimenti. Per questo, gli eventi sono divisi in parti separate e viene considerata l'incertezza per essi.

L'entropia dell'informazione è correlata al numero di stati disponibili. Maggiore è questo numero, maggiore è. Ad esempio, se giochiamo a scacchi secondo le regole, per una scacchiera questo valore sarà inferiore rispetto a quando riorganizziamo i pezzi in modo casuale. L'incertezza per una moneta che può cadere solo da una parte o dall'altra è inferiore a quella di un dado a 6 facce e ancora maggiore per un dado a 20 facce.

C'è anche l'entropia del linguaggio. Questo concetto si riferisce alla quantità di informazioni per unità di testo in questa lingua (un carattere) e si misura in bit per lettera. È diverso per le diverse lingue.

Nella lingua, alcuni caratteri compaiono più spesso, altri meno, e ci sono anche alcune combinazioni di caratteri che si verificano frequentemente. Analizzando la probabilità che si verifichi un particolare carattere, è possibile decodificare il testo cifrato. Il disturbo delle informazioni aiuta anche a stabilire la larghezza di banda necessaria per la trasmissione di messaggi crittografati.

Per l'analisi dei dati in vari campi, dalla medicina alla sociologia, viene utilizzata l'analisi dell'entropia dell'informazione. In parole povere, possiamo dire che analizzando l'aumento o la diminuzione del disordine, si possono stabilire relazioni tra i fenomeni.

Il concetto di "entropia dell'informazione" è utilizzato anche nella statistica matematica e nella fisica statistica. Queste scienze si occupano anche della probabilità di vari stati e utilizzano i metodi della teoria della probabilità.

In economia

In economia viene utilizzato il concetto di "coefficiente di entropia". È legato alla concentrazione dei venditori nel mercato. Maggiore è la concentrazione, minore è questo coefficiente o indice. Dipende dalla distribuzione delle quote tra le imprese nel mercato e maggiore è la differenza nella dimensione di queste azioni, maggiore è il coefficiente di entropia.

Se dividi questo indice per il numero di aziende sul mercato, ottieni un indicatore relativo. È indicato dalla lettera E. Il suo valore è compreso tra 0 e 1. Il valore di E=0 corrisponde al monopolio ed E=1 alla concorrenza perfetta.

Cosa dice wikipedia

Su Wikipedia puoi trovare diverse definizioni di questo concetto. La più generale è una misura della dissipazione irreversibile di energia, la deviazione di un processo reale da uno ideale. Inoltre su Wikipedia puoi trovare:

  • articoli su questo termine in termodinamica classica;
  • in ecologia biologica;
  • l'entropia dell'universo;
  • linguaggio;
  • differenziale;
  • topologico;
  • informativo.

Video utile: l'idea dell'entropia

Conclusione

Il termine "entropia" fu usato per la prima volta in termodinamica da Rudolf Clausius. Dalla fisica passò ad altre scienze. Questo concetto denota disordine, casualità, imprevedibilità ed è strettamente correlato alla probabilità. L'analisi dell'entropia aiuta a studiare i dati e trovare connessioni tra i fenomeni, determinare la direzione dei processi fisici e chimici.

  • 3.3. Rotazione di un corpo rigido attorno ad un asse fisso, suo momento d'inerzia ed energia cinetica.
  • 3.4. momento di impulso. Legge di conservazione del momento angolare. Il secondo principio della dinamica del moto rotatorio.
  • Lezione #4
  • 4.1. Descrizione del movimento di liquidi e gas. Viscosità di liquidi e gas.
  • 4.2. Equazione di continuità.
  • 4.3. L'equazione di Bernoulli e le sue conclusioni
  • Lezione #5
  • 5.1. Vibrazioni armoniche.
  • 5.2. Aggiunta di vibrazioni armoniche.
  • 5.3. Aggiunta di oscillazioni perpendicolari.
  • 5.4. Equazione differenziale delle oscillazioni.
  • 5.5. Rapporti energetici nei processi oscillatori.
  • 5.6. Oscillazioni di pendoli matematici e fisici
  • 5.7. Equazione delle vibrazioni forzate. Risonanza
  • Lezione #6
  • 6.1 Onde nei mezzi elastici e loro tipologie. Onde frontali, piane e sferiche.
  • 6.2. energia delle onde
  • 6.3. Onde elastiche in un solido
  • Lezione #7
  • 7.1. Le principali disposizioni del MK.
  • Stati aggregati della materia
  • 7.2. Leggi dei gas ideali sperimentate
  • Legge di Avogadro
  • 7.3. Equazione di stato dei gas ideali
  • 7.4. L'equazione di base della teoria cinetico-molecolare di un gas ideale.
  • 7.5. Legge di Maxwell per la distribuzione delle molecole sulle velocità.
  • 7.6. formula barometrica. Distribuzione di Boltzmann
  • Lezione #8
  • 8.2. Collisioni di molecole e fenomeni di trasporto in un gas ideale
  • 8.3. Numero medio di collisioni e cammino libero medio delle molecole
  • 8.4 Via libera media delle molecole
  • 8.5. Diffusione nei gas
  • 8.6. Viscosità dei gas
  • 8.7. Conducibilità termica dei gas
  • 8.8. Osmosi. Pressione osmotica
  • Lezione #9
  • 9.1 Distribuzione dell'energia sui gradi di libertà delle molecole
  • 9.2. Energia interna
  • 9.3. Il lavoro svolto da un gas mentre si espande
  • 9.4. Primo principio della termodinamica
  • 9.5. Capacità termica. Equazione di Mayer
  • 9.6. processo adiabatico
  • 9.7. Processo politropico
  • 9.8. Il principio di funzionamento di una macchina termica. Ciclo di Carnot e sua efficacia.
  • 9.9. Entropia. Il significato fisico dell'entropia. Entropia e probabilità.
  • 9.10. Il secondo principio della termodinamica e il suo significato statistico.
  • Lezione #10
  • 10.1. Gas reali, equazione di van der Waals.
  • L'equazione di van der Waals descrive bene il comportamento di un gas durante la liquefazione, ma non è adatta al processo di solidificazione.
  • 10.2 Caratteristiche e modelli di base degli stati aggregati e delle transizioni di fase.
  • Transizioni di fase del secondo tipo. elio liquido. Superfluidità
  • 10.3. Tensione superficiale di un liquido. Pressione di Laplace.
  • 10.4. Fenomeni capillari
  • 10.5. solidi
  • Difetti nei cristalli
  • Proprietà termiche dei cristalli
  • cristalli liquidi
  • Lezione #11
  • 11.1. Proprietà elettriche dei corpi. Carica elettrica. Legge di conservazione della carica
  • 11.2. La legge di Coulomb
  • 11.3. campo elettrostatico. Intensità del campo elettrico. linee di campo.
  • 11.4. dipolo elettrico
  • 11.5. Flusso del vettore di tensione. Teorema di Ostrogradsky-Gauss
  • 11.6. Il lavoro delle forze del campo elettrostatico sul movimento delle cariche.
  • 11.6. Potenziale. Differenza di potenziale. Potenziale di una carica puntiforme, dipolo, sfera.
  • 11.7. Relazione tra intensità e potenziale del campo elettrico
  • 11.8. Tipi di dielettrici. Polarizzazione dei dielettrici.
  • 11.9. Il teorema di Ostrogradsky-Gauss per un campo in un dielettrico. Relazione dei vettori - spostamento, - intensità e - polarizzazione
  • 11.10. Conduttori in un campo elettrostatico
  • 11.11. Conduttore in un campo elettrostatico esterno. Capacità elettrica
  • 11.12. Energia di un conduttore carico, un sistema di conduttori e un condensatore
  • Lezione #12
  • 12.1. Elettricità. Forza e densità di corrente.
  • 12.3. Legge di Ohm per una sezione omogenea di una catena. resistenza del conduttore.
  • 12.4. Legge di Ohm per una sezione disomogenea di una catena
  • 12.5. Legge Joule-Lenz. Lavoro e potenza attuale.
  • 12.6. Regole di Kirchhoff
  • Lezione #13
  • 13.1. Teoria classica della conducibilità elettrica dei metalli
  • 13.2. Emissione termoionica. Corrente elettrica nel vuoto.
  • 13.3. Corrente elettrica nei gas. Tipi di scarico del gas.
  • Scarico gas indipendente e sue tipologie
  • Lezione #14
  • 14.1. Un campo magnetico. Interazione magnetica delle correnti. Legge di Ampère. Vettore di induzione magnetica.
  • 14.2. Legge di Biot-Savart-Laplace. Campo magnetico di correnti rettilinee e circolari.
  • 14.3. Circolazione del vettore di induzione magnetica. Campo solenoide e toroide
  • 14.4. flusso magnetico. Teorema di Gauss
  • 14.5. Il lavoro di spostare un conduttore e un telaio con corrente in un campo magnetico
  • 14.6. L'azione di un campo magnetico su una carica in movimento. forza di Lorentz
  • 14.7. Campo magnetico nella materia. Magnetizzazione e intensità del campo magnetico.
  • 14.8. La legge corrente totale per un campo magnetico in questione
  • 14.9. Tipi di magneti
  • Lezione 15
  • 15.1. Il fenomeno dell'induzione elettromagnetica.
  • 15.2. Il fenomeno dell'autoinduzione
  • 15.3. Energia del campo magnetico
  • 15.4. La teoria elettromagnetica di Maxwell.
  • 1) La prima equazione di Maxwell
  • 2) Corrente di miscelazione. La seconda equazione di Maxwell
  • 3) La terza e la quarta equazione di Maxwell
  • 4) Sistema completo di equazioni di Maxwell in forma differenziale
  • 15.5. Corrente alternata
  • Lezione n. 16
  • 16.1. Leggi di base dell'ottica geometrica. Riflessione interna totale della luce.
  • 16.2. Riflessione e rifrazione della luce su una superficie sferica. Lenti a contatto.
  • 16.3. Grandezze fotometriche di base e loro unità
  • 17.1 Interferenza della luce. Coerenza e monocromaticità delle onde luminose. Lunghezza del percorso ottico e differenza del percorso ottico.
  • 17.2. Metodi per ottenere schemi di interferenza.
  • 17.3. Interferenza nei film sottili.
  • 17.4. Illuminismo dell'ottica
  • 17.5. Diffrazione della luce e condizioni per la sua osservazione. Principio di Huygens-Fresnel. Reticolo di diffrazione. Diffrazione su reticolo spaziale. Formula di Wulf-Braggs
  • 17.6. Diffrazione di Fresnel dagli ostacoli più semplici.
  • 17.7. Diffrazione in fasci paralleli (diffrazione di Fraunhofer)
  • 17.8. Diffrazione su reticoli spaziali. Formula di Wolfe-Braggs.
  • 17.9. polarizzazione della luce. Luce naturale e polarizzata.
  • 17.10. Polarizzazione della luce durante la riflessione e la rifrazione. Legge di Brewster.
  • 17.11 Polarizzazione alla birifrangenza.
  • 17.12. Rotazione del piano di polarizzazione.
  • 17.13. dispersione della luce. Assorbimento (assorbimento) della luce.
  • Lezione #18
  • 18.1. Natura quantistica della radiazione. Radiazione termica e sue caratteristiche. La legge di Kirchhoff. Leggi di Stefan-Boltzmann e Wien.
  • 18.2 Tipi di effetto fotoelettrico. Leggi dell'effetto fotoelettrico esterno. Equazione di Einstein per l'effetto fotoelettrico.
  • 18.3. Massa e quantità di moto di un fotone. Leggera pressione. Effetto Compton.
  • Lezione #19
  • 19.2 Spettro di riga dell'atomo di idrogeno.
  • 19.3. I postulati di Bohr. Esperimenti di Frank e Hertz.
  • Lezione #20
  • 20.1 Nucleo atomico.
  • 20.2 Forze nucleari.
  • 20.3 Energia di legame dei nuclei. difetto di massa.
  • 20.4 Reazioni di fissione nucleare.
  • 2.5 Fusione termonucleare.
  • 20.6 Radioattività. Legge del decadimento radioattivo.
  • Orario di lavoro autonomo
  • Orario delle lezioni di laboratorio e pratiche
  • Elenco di domande da preparare per il colloquio Meccanica
  • Formule
  • Definizioni
  • Domande per l'esame
  • Regole e disegno di esempio del lavoro di laboratorio
  • 9.9. Entropia. Il significato fisico dell'entropia. Entropia e probabilità.

    Considerando l'efficienza di una macchina termica funzionante secondo il ciclo di Carnot, si può notare che il rapporto tra la temperatura del frigorifero e la temperatura del riscaldatore è uguale al rapporto tra la quantità di calore ceduta dal fluido di lavoro e la frigorifero e la quantità di calore ricevuta dal riscaldatore. Ciò significa che per un motore termico ideale funzionante secondo il ciclo di Carnot vale anche la seguente relazione:
    . Atteggiamento Lorentz di nome calore ridotto . Per un processo elementare, il calore ridotto sarà uguale a . Ciò significa che durante l'attuazione del ciclo di Carnot (ed è un processo ciclico reversibile), il calore ridotto rimane invariato e si comporta in funzione dello stato, mentre, come è noto, la quantità di calore è funzione del processo .

    Utilizzando la prima legge della termodinamica per i processi reversibili,
    e dividendo entrambi i membri di questa equazione per la temperatura, otteniamo:

    (9-41)

    Esprimiamo dall'equazione di Mendeleev - Clapeyron
    , sostituisci nell'equazione (9-41) e ottieni:

    (9-42)

    Lo impariamo
    , ma
    , li sostituiamo nell'equazione (9-42) e otteniamo:

    (9-43)

    Il lato destro di questa uguaglianza è un differenziale totale, quindi, nei processi reversibili, anche il calore ridotto è un differenziale totale, che è un segno di una funzione di stato.

    La funzione di stato il cui differenziale è , è chiamato entropia e indicato S . Pertanto, l'entropia è una funzione di stato. Dopo l'introduzione dell'entropia, la formula (9-43) sarà simile a:

    , (9-44)

    dove dSè l'aumento di entropia. L'uguaglianza (9-44) è valida solo per i processi reversibili ed è conveniente per calcolare la variazione di entropia nei processi finiti:

    (9-45)

    Se il sistema esegue un processo circolare (ciclo) in modo reversibile, allora
    , e, quindi, S=0, allora S = cost.

    Esprimendo la quantità di calore in termini di incremento di entropia per un processo elementare, e sostituendola nell'equazione per la prima legge della termodinamica, otteniamo una nuova forma di scrittura di questa equazione, che di solito è chiamata identità termodinamica di base:

    (9-46)

    Pertanto, per calcolare la variazione di entropia nei processi reversibili, è conveniente utilizzare il calore ridotto.

    Nel caso di processi irreversibili di non equilibrio
    , e per i processi circolari irreversibili, Disuguaglianza di Clausius :

    (9-47)

    Considera cosa succede all'entropia in un sistema termodinamico isolato.

    In un sistema termodinamico isolato, con qualsiasi cambiamento reversibile di stato, la sua entropia non cambierà. Matematicamente, questo può essere scritto come segue: S = const.

    Consideriamo cosa succede all'entropia di un sistema termodinamico in un processo irreversibile. Supponiamo che il passaggio dallo stato 1 allo stato 2 lungo il percorso L 1 sia reversibile e dallo stato 2 allo stato 1 lungo il percorso L 2 sia irreversibile (Fig. 9.13).

    Allora vale la disuguaglianza di Clausius (9-47). Scriviamo un'espressione per il lato destro di questa disuguaglianza, corrispondente al nostro esempio:

    .

    Il primo termine in questa formula può essere sostituito da una variazione di entropia, poiché questo processo è reversibile. Quindi la disuguaglianza di Clausius può essere scritta come:

    .

    Da qui
    . Perché
    , quindi possiamo finalmente scrivere:

    (9-48)

    Se il sistema è isolato, allora
    e la disuguaglianza (9-48) sarà simile a:

    , (9-49)

    T o è l'entropia di un sistema isolato aumenta durante un processo irreversibile. La crescita dell'entropia non continua indefinitamente, ma fino a un certo valore massimo caratteristico di un dato stato del sistema. Questo valore massimo di entropia corrisponde allo stato di equilibrio termodinamico. La crescita dell'entropia durante i processi irreversibili in un sistema isolato significa che l'energia posseduta dal sistema diventa meno disponibile per la conversione in lavoro meccanico. In uno stato di equilibrio, quando l'entropia raggiunge il suo valore massimo, l'energia del sistema non può essere convertita in lavoro meccanico.

    Se il sistema non è isolato, l'entropia può sia diminuire che aumentare a seconda della direzione del trasferimento di calore.

    L'entropia, in funzione dello stato del sistema, può fungere da parametro di stato uguale a temperatura, pressione, volume. Raffigurando questo o quel processo sul diagramma (T, S), si può dare un'interpretazione matematica della quantità di calore, come l'area della figura sotto la curva che rappresenta il processo. La Figura 9.14 mostra un diagramma per un processo isotermico in entropia - coordinate di temperatura.

    L'entropia può essere espressa in termini di parametri dello stato del gas: temperatura, pressione, volume. Per fare ciò, dall'identità termodinamica di base (9-46) esprimiamo l'incremento di entropia:

    .

    Integriamo questa espressione e otteniamo:

    (9-50)

    La variazione di entropia può anche essere espressa in termini di un'altra coppia di parametri di stato: pressione e volume. Per fare ciò, è necessario esprimere le temperature degli stati iniziale e finale dall'equazione di stato di un gas ideale attraverso la pressione e il volume e sostituire in (9-50):

    (9-51)

    Con l'espansione isotermica del gas nel vuoto, T 1 = T 2, il che significa che il primo termine della formula (9-47) sarà posto a zero e la variazione di entropia sarà determinata solo dal secondo termine:

    (9-52)

    Nonostante il fatto che in molti casi sia conveniente utilizzare il calore ridotto per calcolare la variazione di entropia, è chiaro che il calore ridotto e l'entropia sono concetti diversi, non identici.

    Scopriamolo significato fisico dell'entropia . Per fare ciò utilizziamo la formula (9-52), per un processo isotermico in cui l'energia interna non cambia, e tutte le possibili variazioni delle caratteristiche sono dovute solo ad una variazione di volume. Consideriamo la relazione tra il volume occupato da un gas in uno stato di equilibrio e il numero di microstati spaziali delle particelle di gas. Il numero di microstati di particelle di gas, con l'aiuto dei quali viene realizzato un dato macrostato di un gas come sistema termodinamico, può essere calcolato come segue. Dividiamo l'intero volume in celle cubiche elementari con un lato di d ~ 10 -10 m (dell'ordine di grandezza del diametro effettivo della molecola). Il volume di tale cella sarà uguale a d 3 . Nel primo stato il gas occupa un volume V 1, quindi il numero di celle elementari, ovvero il numero di posti N 1 che le molecole possono occupare in questo stato sarà uguale a
    . Allo stesso modo, per il secondo stato con volume V 2 otteniamo
    . Va notato che il cambiamento nelle posizioni delle molecole corrisponde a un nuovo microstato. Non tutti i cambiamenti nel microstato porteranno a un cambiamento nel macrostato. Supponiamo che le molecole possano occupare N 1 posti, quindi lo scambio di posti di qualsiasi molecola in queste cellule N 1 non porterà a un nuovo macrostato. Tuttavia, la transizione delle molecole ad altre cellule porterà a un cambiamento nel macrostato del sistema. Il numero di microstati di un gas corrispondente a un dato macrostato può essere calcolato determinando il numero di modi in cui le particelle di questo gas possono essere disposte in celle unitarie. Per semplificare i calcoli, considera 1 mole di un gas ideale. Per 1 mole di un gas ideale, la formula (9-52) sarà simile a:

    (9-53)

    Il numero di microstati del sistema che occupano il volume V 1 sarà indicato con à 1 e determinato contando il numero di posizionamenti N A (numero di Avogadro) di molecole che sono contenute in 1 mole di gas, in N 1 cellule (posti):
    . Allo stesso modo, calcoliamo il numero di microstati à 2 del sistema che occupa il volume V 2:
    .

    Viene chiamato il numero di microstati Г i , con l'aiuto del quale è possibile realizzare l'i-esimo macrostato probabilità termodinamica questo stato macro. Probabilità termodinamica Г ≥ 1.

    Troviamo il rapporto G 2 / G 1:

    .

    Per i gas ideali, il numero di posti liberi è molto maggiore del numero di molecole, cioè N 1 >> N A e N 2 >> N A. . Quindi, tenendo conto dell'espressione dei numeri N 1 e N 2 attraverso i volumi corrispondenti, otteniamo:

    Da qui, possiamo esprimere il rapporto dei volumi attraverso il rapporto delle probabilità termodinamiche degli stati corrispondenti:

    (9-54)

    Sostituisci (9-54) in (9-53) e ottieni:
    . Dato che il rapporto tra la costante molare del gas e il numero di Avogadro è la costante di Boltzmann K, e anche il fatto che il logaritmo del rapporto di due quantità è uguale alla differenza tra i logaritmi di queste quantità, otteniamo:. Da ciò possiamo concludere che l'entropia dell'i-esimo stato S i è determinata dal logaritmo del numero di microstati attraverso i quali si realizza questo macrostato:

    (9-55)

    Viene chiamata la formula (9-55). formula di Boltzmann che per primo l'ha ricevuto e capito significato statistico dell'entropia , come funzioni di disordine . La formula di Boltzmann ha un significato più generale rispetto alla formula (9-53), ovvero può essere utilizzata non solo per i gas ideali e consente di rivelare il significato fisico dell'entropia. Più ordinato è il sistema, minore è il numero di microstati attraverso i quali si realizza il dato macrostato, minore è l'entropia del sistema. La crescita dell'entropia in un sistema isolato, dove si verificano processi irreversibili, significa il movimento del sistema nella direzione dello stato più probabile, che è lo stato di equilibrio. Si può dire così entropia è un misura del disordine sistemi; più disordine in esso, maggiore è l'entropia. Questo è significato fisico dell'entropia .

    §6 Entropia

    Solitamente, qualsiasi processo in cui un sistema passa da uno stato all'altro procede in modo tale che è impossibile eseguire questo processo nella direzione opposta in modo che il sistema attraversi gli stessi stati intermedi senza alcun cambiamento nei corpi circostanti. Ciò è dovuto al fatto che parte dell'energia viene dissipata nel processo, ad esempio a causa dell'attrito, della radiazione e così via. Quasi tutti i processi in natura sono irreversibili. In ogni processo, si perde un po' di energia. Per caratterizzare la dissipazione di energia viene introdotto il concetto di entropia. ( Il valore dell'entropia caratterizza lo stato termico del sistema e determina la probabilità dell'attuazione di questo stato del corpo. Più è probabile lo stato dato, maggiore è l'entropia.) Tutti i processi naturali sono accompagnati da un aumento dell'entropia. L'entropia rimane costante solo nel caso di un processo reversibile idealizzato che si verifica in un sistema chiuso, cioè in un sistema in cui non c'è scambio di energia con corpi esterni a questo sistema.

    Entropia e suo significato termodinamico:

    Entropia- questa è una tale funzione dello stato del sistema, la cui variazione infinitesimale in un processo reversibile è uguale al rapporto tra la quantità infinitamente piccola di calore introdotta in questo processo e la temperatura alla quale è stato introdotto.

    In un processo reversibile finale, la variazione di entropia può essere calcolata utilizzando la formula:

    dove l'integrale è preso dallo stato iniziale 1 del sistema allo stato finale 2.

    Poiché l'entropia è una funzione di stato, allora la proprietà dell'integraleè la sua indipendenza dalla forma del contorno (percorso) lungo il quale è calcolato, pertanto l'integrale è determinato solo dagli stati iniziale e finale del sistema.

    • In ogni processo reversibile di variazione dell'entropia è 0

    (1)

    • La termodinamica lo dimostraSsistema che effettua un ciclo irreversibile aumenta

    Δ S> 0 (2)

    Le espressioni (1) e (2) si applicano solo ai sistemi chiusi, ma se il sistema scambia calore con l'ambiente esterno, allora il suoSpuò comportarsi in qualsiasi modo.

    Le relazioni (1) e (2) possono essere rappresentate come la disuguaglianza di Clausius

    ∆S ≥ 0

    quelli. l'entropia di un sistema chiuso può aumentare (nel caso di processi irreversibili) o rimanere costante (nel caso di processi reversibili).

    Se il sistema effettua una transizione di equilibrio dallo stato 1 allo stato 2, l'entropia cambia

    dove dU e δAscritto per un processo specifico. Secondo questa formula, ΔSè determinato fino a una costante additiva. Non è l'entropia stessa ad avere un significato fisico, ma la differenza delle entropie. Troviamo la variazione di entropia nei processi di un gas ideale.

    quelli. l'entropia cambiaS Δ S 1→2 di un gas ideale durante il suo passaggio dallo stato 1 allo stato 2 non dipende dal tipo di processo.

    Perché per un processo adiabatico δQ = 0, quindi ∆ S= 0 => S= cost , cioè un processo reversibile adiabatico procede ad entropia costante. Pertanto, è chiamato isoentropico.

    In un processo isotermico (T= cost; T 1 = T 2 : )

    In un processo isocoro (V= cost; V 1 = V 2 ; )

    L'entropia ha la proprietà dell'additività: l'entropia del sistema è uguale alla somma delle entropie dei corpi inclusi nel sistema.S = S 1 + S 2 + S 3 + ... La differenza qualitativa tra il movimento termico delle molecole e altre forme di movimento è la sua casualità, il disordine. Pertanto, per caratterizzare il moto termico, è necessario introdurre una misura quantitativa del grado di disordine molecolare. Se consideriamo un dato stato macroscopico di un corpo con determinati valori medi dei parametri, allora è qualcosa di diverso da un continuo cambiamento di microstati vicini che differiscono tra loro nella distribuzione delle molecole in diverse parti del volume e in l'energia distribuita tra le molecole. Il numero di questi microstati in continua evoluzione caratterizza il grado di disordine dello stato macroscopico dell'intero sistema,wè chiamata probabilità termodinamica di un dato microstato. Probabilità termodinamicawgli stati del sistema sono il numero di modi in cui un dato stato di un sistema macroscopico può essere realizzato, o il numero di microstati che implementano un dato microstato (w≥ 1, e probabilità matematica ≤ 1 ).

    Abbiamo convenuto di prendere il logaritmo della sua probabilità, preso con il segno meno, come misura dell'imprevisto di un evento: l'imprevisto dello stato è uguale a =-

    Secondo Boltzmann, l'entropiaSi sistemi e la probabilità termodinamica sono correlati come segue:

    dove - Costante di Boltzmann (). Pertanto, l'entropia è determinata dal logaritmo del numero di stati con cui un dato microstato può essere realizzato. L'entropia può essere considerata come una misura della probabilità dello stato del sistema t/d. La formula di Boltzmann ci permette di dare all'entropia la seguente interpretazione statistica. L'entropia è una misura del disordine di un sistema. Infatti, maggiore è il numero di microstati che realizzano un dato microstato, maggiore è l'entropia. Nello stato di equilibrio del sistema - lo stato più probabile del sistema - il numero di microstati è massimo, mentre anche l'entropia è massima.

    Perché i processi reali sono irreversibili, quindi si può sostenere che tutti i processi in un sistema chiuso portano ad un aumento della sua entropia - il principio dell'aumento dell'entropia. Nell'interpretazione statistica dell'entropia, ciò significa che i processi in un sistema chiuso vanno nella direzione di aumentare il numero di microstati, in altre parole, da stati meno probabili a stati più probabili, fino a quando la probabilità dello stato diventa massima.

    §7 Il secondo principio della termodinamica

    La prima legge della termodinamica, esprimendo la legge di conservazione dell'energia e di trasformazione dell'energia, non permette di stabilire la direzione del flusso dei processi t/d. Inoltre, è possibile immaginare un insieme di processi che non si contraddiconoiol'inizio di m / d, in cui l'energia è immagazzinata, ma in natura non si realizza. Possibili formulazioni del secondo inizio t/d:

    1) la legge dell'aumento dell'entropia di un sistema chiuso durante processi irreversibili: qualsiasi processo irreversibile in un sistema chiuso avviene in modo tale che l'entropia del sistema aumenti ΔS≥ 0 (processo irreversibile) 2) ΔS≥ 0 (S= 0 per reversibile e ΔS≥ 0 per processo irreversibile)

    Nei processi che si verificano in un sistema chiuso, l'entropia non diminuisce.

    2) Dalla formula di Boltzmann S = , quindi, un aumento dell'entropia significa una transizione del sistema da uno stato meno probabile a uno più probabile.

    3) Secondo Kelvin: non è possibile un processo circolare, il cui unico risultato è la conversione del calore ricevuto dal riscaldatore in lavoro equivalente.

    4) Secondo Clausius: non è possibile un processo circolare, il cui unico risultato è il trasferimento di calore da un corpo meno riscaldato a uno più riscaldato.

    Per descrivere i sistemi t/d a 0 K si usa il teorema di Nernst-Planck (la terza legge di t/d): l'entropia di tutti i corpi in equilibrio tende a zero quando la temperatura si avvicina a 0 K

    Dal teorema Nernst-Planck lo segueC p= C v = 0 a 0 A

    §8 Macchine termiche e frigorifere.

    Ciclo di Carnot e sua efficacia

    Dalla formulazione della seconda legge di t / d secondo Kelvin, ne consegue che una macchina a moto perpetuo del secondo tipo è impossibile. (Una macchina a moto perpetuo è un motore a funzionamento periodico che funziona raffreddando una fonte di calore.)

    Termostato- si tratta di un sistema t/d in grado di scambiare calore con i corpi senza variare la temperatura.

    Il principio di funzionamento di un motore termico: da un termostato con una temperatura T 1 - riscaldatore, la quantità di calore viene sottratta per cicloQ 1 , e termostato con temperatura T 2 (T 2 < T 1) - frigorifero, la quantità di calore trasferita per cicloQ 2 , mentre si fa il lavoro MA = Q 1 - Q 2

    Processo o ciclo circolareè il processo in cui il sistema, dopo aver attraversato una serie di stati, ritorna al suo stato originario. Sul diagramma di stato, il ciclo è rappresentato da una curva chiusa. Il ciclo svolto da un gas ideale può essere suddiviso in processi di espansione (1-2) e compressione (2-1), il lavoro di espansione è positivo MA 1-2 > 0, perchéV 2 > V 1 , il lavoro di compressione è negativo MA 1-2 < 0, т.к. V 2 < V 1 . Pertanto, il lavoro svolto dal gas per ciclo è determinato dall'area coperta dalla curva 1-2-1 chiusa. Se il lavoro positivo viene svolto in un ciclo (il ciclo è in senso orario), allora il ciclo è chiamato diretto, se è un ciclo inverso (il ciclo avviene in senso antiorario).

    ciclo diretto utilizzato nei motori termici - motori azionati periodicamente che eseguono lavori a causa del calore ricevuto dall'esterno. Il ciclo inverso viene utilizzato nelle macchine frigorifere: installazioni periodiche in cui, a causa del lavoro di forze esterne, il calore viene trasferito a un corpo con una temperatura più elevata.

    Come risultato del processo circolare, il sistema torna al suo stato originale e, quindi, la variazione totale dell'energia interna è zero. QuindiІ inizio t/d per processo circolare

    Q= Δ u+ UN= UN,

    Cioè, il lavoro svolto per ciclo è uguale alla quantità di calore ricevuto dall'esterno, ma

    Q= Q 1 - Q 2

    Q 1 - quantità calore ricevuto dal sistema,

    Q 2 - quantità calore ceduto dal sistema.

    Efficienza termica per un processo circolare è uguale al rapporto tra il lavoro svolto dal sistema e la quantità di calore fornita al sistema:

    Per η = 1, la condizioneQ 2 = 0, cioè il motore termico deve avere una fonte di caloreQ 1 , ma ciò contraddice la seconda legge di t/d.

    Il processo inverso a quello che accade in un motore termico viene utilizzato in una macchina di refrigerazione.

    Da termostato con temperatura T 2 la quantità di calore viene sottrattaQ 2 e trasmessa al termostato con la temperaturaT 1 , quantità di caloreQ 1 .

    Q= Q 2 - Q 1 < 0, следовательно UN< 0.

    Senza fare lavoro, è impossibile prendere calore da un corpo meno riscaldato e donarlo a uno più caldo.

    Basandosi sulla seconda legge di t/d, Carnot ha dedotto un teorema.

    Teorema di Carnot: di tutti i motori termici funzionanti periodicamente con le stesse temperature del riscaldatore ( T 1) e frigoriferi ( T 2), la massima efficienza. dispone di macchine reversibili. KPD macchine reversibili a parità T 1 e T 2 sono uguali e non dipendono dalla natura del fluido di lavoro.

    Un corpo che lavora è un corpo che esegue un processo circolare e scambia energia con altri corpi.

    Il ciclo di Carnot è il ciclo reversibile più economico, composto da 2 isoterme e 2 adiabati.

    1-2-espansione isotermica a T 1 riscaldatore; il calore viene fornito al gasQ 1 e il lavoro è fatto

    2-3 - adiaba. espansione, il gas funzionaUN 2-3 >0 su corpi esterni.

    3-4 compressione isotermica a T 2 frigoriferi; il calore viene portato viaQ 2 e il lavoro è fatto;

    Compressione 4-1-adiabatica, si lavora sul gas Un 4-1 <0 внешними телами.

    In un processo isotermicou= const , quindi Q 1 = UN 12

    1

    Con espansione adiabaticaQ 2-3 = 0 e il gas funziona UN 23 fatto con energia interna A 23 = - u

    Quantità di caloreQ 2 , dato dal gas al frigorifero durante la compressione isotermica è uguale al lavoro di compressione MA 3-4

    2

    Lavoro di compressione adiabatica

    Lavoro svolto in un processo circolare

    UN = UN 12 + UN 23 + UN 34 + UN 41 = Q 1 + UN 23 - Q 2 - UN 23 = Q 1 - Q 2

    ed è uguale all'area della curva 1-2-3-4-1.

    Efficienza termica Ciclo di Carnot

    Dall'equazione adiabatica per i processi 2-3 e 3-4 otteniamo

    Quindi

    quelli. efficienza Il ciclo di Carnot è determinato solo dalle temperature del riscaldatore e del refrigeratore. Per aumentare l'efficienza bisogno di aumentare la differenza T 1 - T 2 .

    ******************************************************* ******************************************************

    L'entropia è un concetto che è stato introdotto in termodinamica. Con l'aiuto di questo valore, viene determinata la misura della dissipazione di energia. Qualsiasi sistema sperimenta il confronto che si pone tra calore e campo di forza. Un aumento della temperatura porta ad una diminuzione del grado di ordine. Per determinare la misura del disordine viene introdotta una grandezza chiamata entropia. Caratterizza il grado di scambio dei flussi di energia sia nei sistemi chiusi che aperti.

    La variazione di entropia nei circuiti isolati avviene nella direzione dell'aumento insieme alla crescita del calore. Questa misura del disordine raggiunge il suo massimo valore in uno stato caratterizzato dall'equilibrio termodinamico, che è il più caotico.

    Se il sistema è aperto e allo stesso tempo non in equilibrio, allora la variazione di entropia avviene nella direzione di diminuzione. Il valore di questa misura in questa variante è caratterizzato dalla formula. Per ottenerlo si effettua la somma di due grandezze:
    - il flusso di entropia, che si verifica per scambio di calore e sostanze con l'ambiente esterno;
    - l'entità del cambiamento nell'indicatore del movimento caotico all'interno del sistema.

    Il cambiamento di entropia si verifica in qualsiasi ambiente in cui avvengono processi biologici, chimici e fisici. Questo fenomeno si realizza con una certa velocità. La variazione di entropia può essere un valore positivo: in questo caso, c'è un afflusso di questo indicatore nel sistema dall'ambiente esterno. Ci sono casi in cui il valore che indica la variazione di entropia è definito con un segno meno. Un tale valore numerico indica un deflusso di entropia. Il sistema può essere in questo caso, la quantità di entropia prodotta è compensata dal deflusso di questo indicatore. Un esempio di tale situazione è lo stato Non è di equilibrio, ma allo stesso tempo stazionario. Qualsiasi organismo pompa entropia, che ha un valore negativo, dal suo ambiente. L'assegnazione di una misura di disordine da esso può anche superare l'importo del reddito.

    La produzione di entropia si verifica in qualsiasi sistema complesso. Nel processo di evoluzione, le informazioni vengono scambiate tra loro. Ad esempio, quando le informazioni sulla disposizione spaziale delle sue molecole vengono perse. C'è un processo di aumento dell'entropia. Se il liquido si congela, l'incertezza nella disposizione delle molecole diminuisce. In questo caso, l'entropia diminuisce. Il raffreddamento di un liquido provoca una diminuzione della sua energia interna. Tuttavia, quando la temperatura raggiunge un certo valore, nonostante la sottrazione di calore all'acqua, la temperatura della sostanza rimane invariata. Ciò significa che inizia il passaggio alla cristallizzazione. La variazione di entropia in un processo isotermico di questo tipo è accompagnata da una diminuzione della misura della casualità del sistema.

    Un metodo pratico che consente il calore di fusione di una sostanza consiste nell'eseguire un lavoro, il cui risultato è la costruzione di un diagramma di solidificazione. In altre parole, sulla base dei dati ottenuti a seguito dello studio, è possibile tracciare una curva che indicherà la dipendenza della temperatura di una sostanza dal tempo. In questo caso, le condizioni esterne devono rimanere invariate. È possibile determinare la variazione di entropia elaborando i dati di una rappresentazione grafica dei risultati dell'esperimento. Su tali curve c'è sempre una sezione in cui la linea ha uno spazio orizzontale. La temperatura corrispondente a questo segmento è la temperatura di solidificazione.

    Un cambiamento in una qualsiasi sostanza, accompagnato da un passaggio da un solido a un liquido a temperatura ambiente uguale e viceversa, è indicato come un cambiamento di fase del primo tipo. Questo cambia la densità del sistema, la sua e l'entropia.

    Entropia

    La variazione dell'entalpia del sistema non può servire come unico criterio per l'attuazione spontanea di una reazione chimica, poiché molti processi endotermici procedono spontaneamente. Un esempio di ciò è la dissoluzione di alcuni sali (ad esempio NH 4NO 3) in acqua, accompagnata da un notevole raffreddamento della soluzione. Occorre tener conto di un altro fattore che determina la capacità di passare spontaneamente da uno stato più ordinato a uno meno ordinato (più caotico).

    Entropia (S) è la funzione di stato termodinamico, che serve come misura del disordine (disordine) del sistema. La possibilità che si verifichino processi endotermici è dovuta ad una variazione dell'entropia, perché nei sistemi isolati l'entropia di un processo spontaneo aumenta Δ S > 0 (secondo principio della termodinamica).

    L. Boltzmann ha definito l'entropia come la probabilità termodinamica di uno stato (disordine) di un sistema w. Poiché il numero di particelle nel sistema è grande (il numero di Avogadro n A = 6.02∙10 23), allora l'entropia è proporzionale al logaritmo naturale della probabilità termodinamica dello stato del sistema w:

    La dimensione dell'entropia di 1 mole di una sostanza coincide con la dimensione della costante del gas R ed è uguale a J∙mol –1∙K –1. cambiamento di entropia *) nei processi irreversibili e reversibili è data dalle relazioni Δ S > Q / T e Δ S = Q / T. Ad esempio, la variazione dell'entropia di fusione è uguale al calore (entalpia) di fusione Δ S pl = Δ h per favore/ T pl Per una reazione chimica, la variazione di entropia è simile alla variazione di entalpia

    *) termine entropia fu introdotto da Clausius (1865) attraverso il rapporto Q/T (calore ridotto).

    Qui Δ S° corrisponde all'entropia dello stato standard. Le entropie standard delle sostanze semplici non sono uguali a zero. A differenza di altre funzioni termodinamiche, l'entropia di un corpo idealmente cristallino allo zero assoluto è zero (postulato di Planck), poiché w = 1.

    L'entropia di una sostanza o di un sistema di corpi a una certa temperatura è un valore assoluto. In tavola. 4.1 mostra le entropie standard S° alcune sostanze.

    Composto


    (J∙mol –1∙K –1)

    Composto


    (J∙mol –1∙K –1)

    C(t)diamante

    C(t)grafite

    iso-C 4H 10(g)

    Tabella 4.1.

    Entropie standard di alcune sostanze.

    Dal tavolo. 4.1 ne consegue che l'entropia dipende da:

    • Stato aggregato della materia. L'entropia aumenta durante il passaggio dallo stato solido a quello liquido e soprattutto allo stato gassoso (acqua, ghiaccio, vapore).
    • Composizione isotopica (H 2O e D 2O).
    • Peso molecolare dello stesso tipo di composti (CH 4, C 2H 6, n-C 4H 10).
    • Strutture molecolari (n-C 4H 10, iso-C 4H 10).
    • Struttura cristallina (allotropia) - diamante, grafite.

    Infine, fig. 4.3 illustra la dipendenza dell'entropia dalla temperatura.

    Di conseguenza, la tendenza del sistema al disordine si manifesta quanto più è alta la temperatura. Il prodotto della variazione dell'entropia del sistema per la temperatura TΔ S quantifica questa tendenza e viene chiamato fattore di entropia.

    Compiti e prove sull'argomento "Termodinamica chimica. Entropia"

    • Elementi chimici. Segni di elementi chimici - Concetti chimici iniziali e idee teoriche classi 8–9

      Lezioni: 3 Compiti: 9 Prove: 1