Entropie objektu je mírou množství energie, která není k dispozici pro vykonání práce. Entropie je také mírou počtu možných uspořádání, která mohou atomy v systému mít. V tomto smyslu je entropie mírou neurčitosti nebo náhodnosti. Čím vyšší je entropie objektu, tím větší je nejistota ohledně stavů atomů tvořících tento objekt, protože existuje více stavů, ze kterých se můžeme rozhodnout. Fyzikální zákon říká, že ke zmenšení entropie objektu nebo systému je zapotřebí práce; bez práce se entropie nikdy nemůže zmenšit - dalo by se říci, že vše pomalu přechází do neuspořádanosti (vyšší entropie).

Slovo entropie pochází ze studia tepla a energie z let 1850 až 1900. Ze studia entropie vzešly některé velmi užitečné matematické myšlenky týkající se pravděpodobnostních výpočtů. Tyto myšlenky se nyní používají v teorii informace, chemii a dalších oblastech studia.

Entropie je jednoduše kvantitativním měřítkem toho, co popisuje druhý termodynamický zákon: šíření energie, dokud není rovnoměrně rozložena. Význam entropie se v různých oborech liší. Může znamenat např:

  • V termodynamice — míru neuspořádanosti hmoty a nevratnosti procesů (např. zmražení, tání, tepelná výměna). Entropie systému se v přenosu tepla mění podle vztahu dS = δQ_rev / T pro vratné procesy; pro reálné (nevratné) procesy platí dS ≥ δQ / T. Jednotkou entropie je J·K⁻¹.
  • Ve statistické mechanice — počet mikrostavů odpovídajících jednomu makrostavu. Boltzmannův vztah S = k ln W vyjadřuje entropii S pomocí počtu možných uspořádání W a Boltzmannovy konstanty k (k ≈ 1,380649·10⁻²³ J·K⁻¹). Tento pohled ukazuje, proč makroskopické zákony termodynamiky plynou z pravděpodobnostních vlastností mikrosvěta.
  • V teorii informace — míru neurčitosti nebo množství informace potřebné k popisu náhodné proměnné. Shannonova entropie H = −∑ p_i log p_i měří průměrný počet bitů (nebo natů) potřebných k zakódování výsledku náhodného procesu. Existuje přímý vztah mezi Gibbsovou/termodynamickou entropií a Shannonovou entropií: S = −k ∑ p_i ln p_i.

Základní principy v termodynamice

Druhý termodynamický zákon říká, že v uzavřeném systému celková entropie neklesá; pro izolovaný systém buď zůstává konstantní (při ideálně vratném ději), nebo roste (při reálném, nevratném ději). Praktickým důsledkem je např. existence omezení účinnosti tepelných strojů (Carnotův cyklus), protože nelze přeměnit veškeré teplo na práci bez zvýšení entropie okolí.

Třetí zákon termodynamiky uvádí, že entropie dokonale křehkého (ideálního) krystalu při absolutní nule teploty se blíží k jedné konstantě (často definována jako nula). To omezuje možnost dosáhnout přesně absolutní nuly.

Statistická interpretace

V mikroskopickém (statistickém) pohledu je makroskopický stav charakterizovaný termodynamickými veličinami (T, p, V, S) a odpovídá velkému počtu možných mikrostavů (různá rozmístění částic a jejich rychlosti). Entropie měří přístupný objem fázového prostoru: čím více mikrostavů odpovídá danému makrostavu, tím vyšší entropie.

Boltzmannův konstantní vztah S = k ln W dává konkrétní kvantitativní spojení mezi počtem mikrostavů W a entropií S. U nerovnoměrně rozdělených pravděpodobností je vhodné použít Gibbsovu formu S = −k ∑ p_i ln p_i.

Entropie v teorii informace a technologie

Shannonova entropie popisuje nejmenší průměrný počet bitů potřebných pro kódování výsledků náhodného zdroje. Tento koncept je základem komprese dat, kryptografie a analýzy signálů. Z fyzikálního hlediska se tyto myšlenky prolínají s termodynamikou: např. Landauerovo pravidlo říká, že smazání jednoho bitu informace vyžaduje minimální uvolnění tepla kT ln 2 do okolí, což zvyšuje entropii. Tento vztah spojuje informační pojem "ztráta informace" s fyzikálním pojmem "zvýšení entropie".

Příklady a důsledky

  • Rozpuštění kostky ledu v teplé sklenici: teplo z okolí zvýší entropii systému (led + voda + okolí), i když molekulární uspořádání vody v ledě je více organizované než v kapalině.
  • Smíchání dvou plynů: i když chemické složení zůstane stejné, počet možných rozmístění molekul se zvýší, a tím roste entropie (entropie mísení).
  • Živá soustava může lokálně snižovat entropii (organizační procesy), ale tento pokles je vykoupen zvýšením entropie v okolí — tedy celková entropie izolovaného systému roste.

Praktické využití a význam

Entropie je užitečný koncept v mnoha oblastech: návrh tepelných strojů a chladicích zařízení, chemická termodynamika (určení směru reakcí a rovnováhy), statistická fyzika (popis fází a přechodů), teorie informace (komprese, přenos informace) a dokonce i v oblastech jako ekonomie nebo teorie složitých systémů, kde se používají analogie entropie pro měření neurčitosti a variability.

Stručné shrnutí: Entropie měří neuspořádanost a počet možných stavů systému. Termodynamicky omezuje přeměnu tepla na práci a vyjadřuje nevratnost procesů; statisticky souvisí s počtem mikrostavů; v teorii informace kvantifikuje neurčitost a množství informace. Všechny tyto pohledy jsou vzájemně provázané a doplňují naše chápání fyzikálních a informačních procesů.