Главная
Новости
Строительство
Ремонт
Дизайн и интерьер




01.08.2021


30.07.2021


30.07.2021


29.07.2021


28.07.2021





Яндекс.Метрика

Энтропия в классической термодинамике

04.03.2021

Термодинамическая энтропия S {displaystyle S} , часто именуемая просто энтропией, — физическая величина, используемая для описания термодинамической системы, одна из основных термодинамических величин; энтропия и температура — сопряжённые термодинамические величины, необходимые для описания термических свойств системы и тепловых процессов в ней. Энтропия является функцией состояния и широко используется в термодинамике, в том числе технической (анализ работы тепловых машин и холодильных установок) и химической (расчёт равновесий химических реакций).

Утверждение о существовании энтропии и перечисление её свойств составляют содержание второго и третьего начал термодинамики. Значимость данной величины для физики обусловлена тем, что наряду с температурой её используют для описания термических явлений и термических свойств макроскопических объектов. Качественные представления о термическом состоянии системы связаны с тепловыми ощущениями, выражаемыми понятиями «теплее», «холоднее», «нагрев», «охлаждение», «степень нагретости». К термическим относят свойства, характеризующие поведение вещества при его нагреве или охлаждении: термические коэффициенты, теплоёмкость и другие калорические коэффициенты, постоянную Кюри, показатели термостойкости, пределы огнестойкости и т. д.; примерами термических явлений служат термическое расширение, пироэлектричество, электрокалорический эффект, теплопроводность, изменение агрегатного состояния — кристаллизация и замерзание, плавление и таяние, испарение, кипение, сублимация (возгонка), конденсация и другие процессы.

Историческая справка

Понятие энтропии, её обозначение и название были введены Р. Клаузиусом (1865). Абстрактность этого понятия — одного из краеугольных камней термодинамики — и разнообразие подходов к обоснованию существования энтропии как термодинамической величины привели к появлению аксиоматики термодинамики.

Термодинамическая дефиниция энтропии

В термодинамике энтропию вводят, обосновывая её существование, перечисляя её свойства и строя для неё шкалу измерения на основании первого, второго и третьего начал термодинамики.

В термодинамических формализмах Клаузиуса и Каратеодори энтропию вводят одновременно с абсолютной термодинамической температурой. Математический аппарат термодинамики Гиббса основан на использовании энтропии в качестве независимой термодинамической переменной, тогда как температура — естественный кандидат на эту роль, вводится как функция внутренней энергии и энтропии. Наконец, в рациональной термодинамике энтропию выражают через внутреннюю энергию и температуру, которые рассматривают как основные неопределяемые переменные теории.

Энтропия простой системы

Первое начало (закон) термодинамики устанавливает связь между внутренней энергией, работой и теплотой: одна из этих физических величин задаётся с помощью двух других, которые, будучи исходными объектами теории, в рамках самой этой теории определены быть не могут просто потому, что не существует понятий более общих, под которые их можно было бы подвести. Термодинамика заимствует понятия энергии и работы из других разделов физики, тогда как определение количеству теплоты, наоборот, даётся только и именно в термодинамике. Согласно Клаузиусу теплоту Q {displaystyle Q} определяют через внутреннюю энергию U {displaystyle U} и работу W {displaystyle W} . При использовании термодинамического правила знаков математическое выражение для первого начала термодинамики в формулировке Клаузиуса имеет вид:


Первое начало в этой формулировке вводит теплоту как физическую характеристику процесса, поведение которой определяется законом сохранения энергии, но не определяет её как математический объект. Детализировать дефиницию теплоты проще всего для равновесного процесса, когда работу, а следовательно и теплоту, можно выразить через переменные состояния. Для бесконечно малого равновесного процесса в простой системе возможен единственный вид работы — работа расширения/сжатия W v {displaystyle W_{v}} :


где P {displaystyle P} — давление, V {displaystyle V} — объём; символ δ {displaystyle delta } означает, что соответствующая величина относится к бесконечно малому процессу. Таким образом, для первого начала термодинамики в формулировке Клаузиуса получаем:


где δ Q {displaystyle delta Q} — элементарная (бесконечно малая) теплота процесса.

Это выражение, определяющее элементарную теплоту как математический объект, есть линейная дифференциальная форма (форма Пфаффа) для двух независимых переменных. Для данной пфаффовой формы условие интегрируемости Эйлера не выполняется, то есть δ Q {displaystyle delta Q} есть функционал, а не полный дифференциал несуществующей функции Q ( U , V ) {displaystyle Q(U,V)} . Из теории дифференциальных форм известно, однако, что если выполняется условие Фробениуса, то пфаффова форма имеет интегрирующий множитель/делитель, превращающий эту форму в полный дифференциал и представляющий из себя функцию тех же независимых переменных, которые входят в форму Пфаффа. Пфаффовы формы, имеющие интегрирующий множитель/делитель называют голономными; пфаффова форма двух переменных всегда голономна (теорема Коши). Поэтому для простых равновесных систем существует функция состояния S ( U , V ) {displaystyle S(U,V)} , полный дифференциал которой равен


где

T = T ( U , V ) {displaystyle T=T(U,V)}

есть интегрирующий делитель для формы Пфаффа. Клаузиус назвал функцию состояния S {displaystyle S} энтропией (от греческого ἐντροπία — изменение, превращение, преобразование). Второе начало термодинамики утверждает, что энтропия существует для любых равновесных систем, а не только простых, и что интегрирующий делитель T {displaystyle T} есть абсолютная термодинамическая температура. Неравновесная термодинамика распространяет представление о локальной энтропии и локальной температуре на любые термодинамические системы.

Интегрирование уравнения для энтропии приводит к появлению в выражении для функции S ( U , V ) {displaystyle S(U,V)} произвольной постоянной, зависящей от выбора начальной точки отсчёта энтропии. Произвол в выборе начального состояния для энтропии устраняет третий закон термодинамики.

Энтропия закрытой системы в термодинамике Клаузиуса — Каратеодори

Традиционный подход к построению термодинамики (аксиоматика Клаузиуса — Каратеодори) основан на использовании представления о внутренней энергии как базовом понятии теории, заимствовании формул для вычисления термодинамической работы из механики и электродинамики сплошных сред, и первом начале термодинамики в формулировке Клаузиуса.

Помимо работы расширения/сжатия система может одновременно выполнять другие виды работ, например работу изменению площади поверхности раздела фаз, работу перемещения в поле тяготения, работу поляризации диэлектрика в электрическом поле и т. д. Объединяет все эти виды работ формальная структурная идентичность расчётных формул друг с другом и с выражением для работы расширения/сжатия:

где δ W i {displaystyle delta W_{i}} — элементарная работа i {displaystyle i} -го типа, x i {displaystyle x_{i}} — обобщённая координата, сопряжённая с обобщённой силой X i . {displaystyle X_{i}.} Каждой обобщённой координате соответствует своя обобщённая сила; физические переменные, соответствующие обобщённым координатам и силам, конкретизируют применительно к решаемой задаче.

Если однородная система одновременно совершает несколько различных видов работ, то они суммируются и полная работа системы δ W {displaystyle delta W} равна

а для первого начала термодинамики получаем соотношение:

которое как и в случае простой системы представляет собой форму Пфаффа. Следствием второго начала термодинамики в любой его формулировке является вывод о том, что пфаффова форма δ Q {displaystyle delta Q} при любом числе переменных всегда голономна и, следовательно, для любой закрытой термодинамической системы существуют энтропия


и абсолютная термодинамическая температура

T = T ( U , { x i } ) . {displaystyle T=T(U,{x_{i}}).}

Выражение { x i } {displaystyle {x_{i}}} есть сокращение для перечисления x 1 , x 2 , . . . , x i , . . . {displaystyle x_{1},x_{2},...,x_{i},...} переменных определённого типа, в данном случае — обобщённых координат.

Энтропия открытой системы

Принимая, что теплота и работа являются двумя единственно возможными формами передачи энергии, а изменение энергии, связанное с переносом вещества в открытой системе, есть составная часть общей работы, называемая химической работой (работой перераспределения масс веществ), в случае однородной открытой системы дифференциальную форму δ Q {displaystyle delta Q} для закрытой системы следует дополнить слагаемым, учитывающим элементарную химическую работу δ Z {displaystyle delta Z} :


где m j {displaystyle m_{j}} — масса j {displaystyle j} -го компонента, μ j {displaystyle mu _{j}} — химический потенциал этого компонента.

Пфаффова форма δ Q {displaystyle delta Q} для открытой однородной системы равна


Дальнейшие рассуждения о существовании энтропии

S = S ( U , { x i } , { m j } ) {displaystyle S=S(U,{x_{i}},{m_{j}})}

и абсолютной термодинамической температуры

T = T ( U , { x i } , { m j } ) {displaystyle T=T(U,{x_{i}},{m_{j}})}

для открытой системы ничем не отличаются от соображений, высказанных при рассмотрении закрытой системы, поэтому ниже перечислены причины, по которым открытые системы потребовали отдельного рассмотрения.

Первая из этих причин состоит в том, что использование в понятийном аппарате термодинамики химической работы как части общей работы делает неэквивалентными представления об адиабатной изоляции как накладывающей запрет на обмен веществом (то есть любая адиабатно изолированная система есть система закрытая или, говоря иначе, масса есть адиабатически заторможенная величина), и адиабатной изоляции как допускающей обмен энергией только в форме работы. Восстановить эквивалентность приведённых выше формулировок об адиабатной изоляции удаётся, если модифицировать дефиницию теплоты по Клаузиусу, добавив к теплоте и работе третью форму передачи энергии — энергию переноса массы Z {displaystyle Z} :


где δ Z {displaystyle delta Z} задаётся выражением для химической работы.

Вторая причина отдельного рассмотрения вопроса об энтропии открытых систем заключается в следующем. За исключением химического потенциала все входящие в пфаффову форму δ Q {displaystyle delta Q} для открытой системы переменные в рамках термодинамического формализма представляют собой неопределяемые величины, заимствуемые из других разделов физики, что подразумевает необязательность их описания в самой термодинамике. Химический потенциал вводится в термодинамике и либо должен быть отнесён к базовым неопределяемым понятиям, для которых возможно только пояснительное описание, либо же от термодинамики требуется точная дефиниция химического потенциала. Как неопределяемую величину химический потенциал можно вводить одновременно с температурой и энтропией (более, того П. А. Жилин считает такой подход единственно правильным), но традиционно химический потенциал предпочитают вводить в рассмотрение как вторичную переменную на основе предварительно сформированного представления об энтропии открытой системы. Для этого вслед за У. Гиббсом без доказательства принимают утверждение о существовании энтропии открытой системы


как функции состояния, при неизменности масс компонентов совпадающей с энтропией однородной закрытой системы. Из фундаментального уравнения Гиббса в дифференциальной форме


находим значения частных производных энтропии:

( ∂ S ∂ U ) { x i } , { m j } = 1 T , {displaystyle left({frac {partial S}{partial U}} ight)_{{x_{i}},{m_{j}}}={frac {1}{T}},} ( ∂ S ∂ x r ) U , { x i ≠ r } , { m j } = − X r T , {displaystyle left({frac {partial S}{partial x_{r}}} ight)_{U,{x_{i eq r}},{m_{j}}}=-{frac {X_{r}}{T}},} ( ∂ S ∂ V ) x i ≠ V , { m j } = P T . {displaystyle left({frac {partial S}{partial V}} ight)_{x_{i} eq V,{m_{j}}}={frac {P}{T}}.}

Химический потенциал k {displaystyle k} -го компонента выразим через частную производную энтропии по массе этого компонента:


Энтропия в термодинамике Гиббса

Построение теории на основе постулирования существования энтропии как функции состояния, в состав независимых переменных которой входят массы компонентов, составляет главное содержание термодинамики Гиббса, а способ, каким выполнено распространение термодинамики Клаузиуса на открытые системы, позволяет говорить об аксиоматике Гиббса. В термодинамике Гиббса вводят понятия компонента системы, фазы и многофазной гетерогенной системы, постулируют существование внутренней энергии U {displaystyle U} и энтропии S {displaystyle S} как аддитивных переменных состояния, постулируют связь этих величин с независимыми переменными состояния в виде фундаментальных уравнений Гиббса в энергетическом и энтропийном выражениях, постулируют аддитивность входящих в эти фундаментальные уравнения независимых переменных, постулируют, что T {displaystyle T} есть термодинамическая температура, вводят химический потенциал μ {displaystyle mu } и постулируют общее условие термодинамического равновесия в системе, рассматриваемое далее в числе свойств энтропии.

Обратите внимание, что содержательную дефиницию температуры по Гиббсу

можно, с другой стороны, рассматривать и как описательную дефиницию энтропии. А именно, энтропия в термодинамике Гиббса есть такая экстенсивная переменная состояния, что производная внутренней энергии по энтропии представляет собой интенсивную переменную состояния, обладающую всеми положенными термодинамической температуре свойствами.

Энтропия в рациональной термодинамике

Рациональная термодинамика не подразделяет термодинамику на равновесную и неравновесную; обе эти дисциплины рассматриваются как единая часть физики сплошных сред. Равновесная рациональная термодинамика есть результат применения общей теории к системам в состоянии равновесия. Исходные неопределяемые понятия теории — энергия E {displaystyle E} , объём V {displaystyle V} и число молей компонента n {displaystyle n} . По аналогии с давлением

P = − ∂ E ∂ V {displaystyle P=-{frac {partial E}{partial V}}}

при механическом равновесии имеющем одинаковое значение во всех частях системы, вводят химический потенциал μ {displaystyle mu }

μ ≡ ∂ E ∂ n , {displaystyle mu equiv {frac {partial E}{partial n}},}

как интенсивную величину, имеющую при химическом равновесии одно и то же значение во всех частях системы. Абсолютную термодинамическую температуру вводят посредством следующей аксиомы: существует интенсивная термодинамическая величина, температура

T = T ( E , V , n ) , {displaystyle T=T(E,V,n),}

которая характеризует степень нагретости тел и обладает следующими свойствами:

  • в выбранном за начало отсчёта состоянии температура равна нулю
T E = 0 = 0 {displaystyle T_{E=0}=0} ;
  • температура монотонно растёт с увеличением энергии системы
∂ T ∂ E > 0 {displaystyle {frac {partial T}{partial E}}>0} ;
  • при термодинамическом равновесии имеет одно и то же значение во всех частях системы.

Энтропию в рациональной термодинамике задают как аддитивную величину, равную

S ( E ) ≡ ∫ 0 E 1 T ( E ) d E . {displaystyle S(E)equiv int _{0}^{E}{frac {1}{T(E)}}dE.}

Свойства энтропии, вытекающие из этого определения:

S E = 0 = S T = 0 = 0 {displaystyle S_{E=0}=S_{T=0}=0} ; ∂ S ∂ E = 1 T > 0 {displaystyle {frac {partial S}{partial E}}={frac {1}{T}}>0} ;


∂ 2 S ∂ E 2 = − 1 T 2 C V < 0 {displaystyle {frac {partial ^{2}S}{partial E^{2}}}=-{frac {1}{T^{2}C_{V}}}<0} ;

где C V {displaystyle C_{V}} — теплоёмкость системы при постоянном объёме. Из определения энтропии и её свойств следует, что при условии постоянства энергии энтропия системы максимальна, когда все части системы имеют одинаковую температуру — вариационный принцип максимальности энтропии в состоянии равновесия. Таким образом, энтропия есть монотонная выпуклая функция энергии, достигающая максимума в состоянии термодинамического равновесия; состояние системы, принятое за начало шкалы отсчёта энергии, есть одновременно состояние для начальных точек отсчёта температуры и энтропии.

Свойства энтропии

Перечисление свойств энтропии дано применительно к термодинамике Гиббса; примеры, приводимые для иллюстрации перечисляемых свойств энтропии, относятся, как правило, к открытым однородным термодеформационным системам, для которых справедливо фундаментальное уравнение Гиббса в энтропийном выражении:

  • Энтропия в фундаментальном уравнении в энтропийном выражении есть однозначная дифференцируемая функция аддитивных независимых переменных с непрерывными первыми и кусочно-непрерывными вторыми производными.
  • Энтропия есть величина аддитивная, то есть энтропия термодинамической системы равна сумме энтропий всех её частей. Аддитивность энтропии позволяет распространить это понятие на термодинамические системы любой сложности.
Как следствие аддитивности получаем, что энтропия в фундаментальном уравнении в энтропийном выражении есть однородная функция первого порядка всех независимых переменных, то есть для λ > 0 {displaystyle lambda >0}


и для неё справедливо тождество (теорема) Эйлера:


  • Для однородной системы частная производная энтропии по внутренней энергии есть величина, обратная абсолютной термодинамической температуре (термодинамическая дефиниция температуры как следствие второго начала термодинамики):


В соответствии с теоремой об обратных величинах это определение совпадает с дефиницией равновесной температурой по Гиббсу:


  • Энтропия есть монотонная функция внутренней энергии U {displaystyle U} , то есть абсолютная термодинамическая температура не может менять свой знак. В шкале Кельвина абсолютная термодинамическая температура всегда положительна. Использование отрицательных по шкале Кельвина температур есть удобный математический приём описания неравновесных подсистем систем с особыми свойствами.
  • Энтропия есть величина полуограниченная. Традиционно принимают, что энтропия ограничена снизу, то есть для каждой термодинамической системы существует состояние с наименьшей энтропией.
  • Температура есть величина полуограниченная. Абсолютная температурная шкала Кельвина построена так, что
0 < T < ∞ . {displaystyle 0<T<infty .} Нуль и бесконечность допустимы в качестве пределов.
  • Для любой термодинамической системы состояния с наименьшей энтропией и наименьшей температурой совпадают (постулат Планка). С приближением температуры к абсолютному нулю энтропия перестаёт зависеть от температуры и приближается к определённому постоянному значению, которое можно положить равным нулю и принять за начало отсчёта энтропии, устранив тем самым упомянутый в разделе Энтропия простой системы произвол в выборе постоянной интегрирования для энтропии:


Согласно постулату Тиссы внутренняя энергия ограничена и эта граница соответствует абсолютному нулю температуры. Таким образом, состояние системы при абсолютном нуле температуры, когда все термодинамические величины, характеризующие равновесное состояние, перестают зависеть от температуры, наилучшим образом подходит в качестве стандартного состояния начала отсчёта основных термодинамических величин.
  • Энтропия изолированной системы в состоянии термодинамического равновесия имеет максимальное значение (постулат Гиббса), то есть для равновесия изолированной системы необходимо и достаточно, чтобы при всех возможных (не нарушающих постоянства внутренней энергии, обобщённых координат и масс компонентов) изменениях её состояния вариация энтропии Δ S {displaystyle Delta S} системы не была положительной:


Поскольку речь идёт об изолированной системе, внешнее воздействие на которую запрещено, понятие вариации в данном случае означает виртуальное изменение энтропии. Знак равенства в этом выражении относится к безразличному равновесию. Условие равновесия Гиббса вытекает из входящего в состав второго начала термодинамики постулата Клаузиуса о неубывании энтропии адиабатно изолированной системы
  • Энтропия в фундаментальном уравнении в энтропийном выражении есть характеристическая функция, то есть фундаментальное уравнение содержит все термодинамические сведения о данной системе.

Энтропия как характеристическая функция

Энтропия и теплота квазистатического (равновесного) процесса

Из выражения для первого начала в открытой однородной системе и дифференциальной формы фундаментального уравнения Гиббса для энтропии получаем выражение для элементарной теплоты равновесного (квазистатического) процесса:

(для простой равновесной системы это выражение непосредственно вытекает из дефиниции энтропии).

Данное соотношение, связывающее термодинамику Клаузиуса с термодинамикой Гиббса, представляет интерес для пользователей, которым требуется изложить материал из старой учебной и научной литературы с применением терминологии, либо вовсе не использующей понятие «теплота», либо использующей его как определяемое через энтропию и абсолютную температуру вторичное понятие.

Энтропия как характеристика изотермического процесса

Для равновесного изотермического процесса с нулевой работой интегрирование выражения для теплоты равновесного процесса даёт следующее выражение для изменения внутренней энергии:

Δ U   =   Q   +   W   =   T Δ S , {displaystyle Delta U~=~Q~+~W~=~TDelta S,}

то есть в любом равновесном изотермическом процессе с нулевой работой энергия расходуется на увеличение энтропии системы и выделяется при уменьшении энтропии. Преобразуем это уравнение к виду

S 2 − S 1   =   U 2 T − U 1 T {displaystyle S_{2}-S_{1}~=~{frac {U_{2}}{T}}-{frac {U_{1}}{T}}}

и назовём отношение U T {displaystyle {frac {U}{T}}} приведённой внутренней энергией. Отсюда вытекает следующая трактовка — одна из нескольких существующих — физического смысла энтропии: энтропия есть приведённая внутренняя энергия изотермической системы.

Рассмотрим в качестве примера фазовые переходы в воде при атмосферном давлении (см. рисунок). При таянии льда подводимая к системе энергия расходуется на увеличение энтропии системы вследствие изменения структуры H2O, тогда как температура системы лёд + вода остаётся близкой к 0 °C (273 К) до полного исчезновения льда. При замерзании воды имеет место обратная ситуация: энергия выделяется в окружающую среду при 0 °C. Нагрев воды, образовавшейся при таянии льда, ведёт к повышению температуры воды вплоть до её закипания при 100 °C (373 К). Кипение воды при постоянном давлении есть процесс изотермический: подводимая энергия расходуется на испарение воды и увеличение энтропии системы вода + водяной пар, тогда как температура остаётся близкой к 100 °C до полного исчезновения жидкой воды.

Статистическое определение энтропии: принцип Больцмана

В 1877 году Людвиг Больцман установил связь энтропии с вероятностью данного состояния. Позднее эту связь представил в виде формулы Макс Планк:

S = k ⋅ ln ⁡ ( Ω ) , {displaystyle S=kcdot ln(Omega ),}

где константа k = {displaystyle k=} 1,38⋅10−23 Дж/К названа Планком постоянной Больцмана, а Ω {displaystyle Omega } — статистический вес состояния, является числом возможных микросостояний (способов), с помощью которых можно составить данное макроскопическое состояние. Этот постулат, названный Альбертом Эйнштейном принципом Больцмана, положил начало статистической механике, которая описывает термодинамические системы, используя статистическое поведение составляющих их компонентов. Принцип Больцмана связывает микроскопические свойства системы ( Ω {displaystyle Omega } ) с одним из её термодинамических свойств ( S {displaystyle S} ).

Рассмотрим, например, идеальный газ в сосуде. Микросостояние определено как позиции и импульсы (моменты движения) каждого составляющего систему атома. Связность предъявляет к нам требования рассматривать только те микросостояния, для которых: (I) месторасположения всех частей расположены в рамках сосуда, (II) для получения общей энергии газа кинетические энергии атомов суммируются.

Согласно определению, энтропия является функцией состояния, то есть не зависит от способа достижения этого состояния, а определяется параметрами этого состояния. Так как Ω {displaystyle Omega } может быть только натуральным числом (1, 2, 3, …), то энтропия Больцмана должна быть неотрицательной — исходя из свойств логарифма.

Понимание энтропии как меры беспорядка

Существует мнение, что мы можем смотреть на энтропию и как на меру беспорядка в системе. В определённом смысле это может быть оправдано, потому что мы думаем об «упорядоченных» системах как о системах, имеющих очень малую возможность конфигурирования, а о «беспорядочных» системах как об имеющих очень много возможных состояний. Собственно, это просто переформулированное определение энтропии как числа микросостояний на данное макросостояние.

Рассмотрим, например, распределение молекул идеального газа. В случае идеального газа наиболее вероятным состоянием, соответствующим максимуму энтропии, будет равномерное распределение молекул. При этом реализуется и максимальный «беспорядок», так как при этом будут максимальные возможности конфигурирования.

Получившее повсеместное распространение понимание энтропии как меры беспорядка в термодинамической системе не является, тем не менее, общепринятым: «Тождественность энтропии с беспорядком не только никем никогда не была доказана и не только не может быть доказана в принципе, но и прямо противоречит реально наблюдаемым фактам…»; «…применительно к реальным системам энтропия не является мерой беспорядка»; «…в ходе роста энтропии Вселенной общая её (Вселенной) сложность растёт, однако для составляющих Вселенную реальных (под)систем энтропия мерой беспорядка/сложности не является».

Границы применимости понимания энтропии как меры беспорядка

Подобное определение беспорядка термодинамической системы как количества возможностей конфигурирования системы фактически дословно соответствует определению энтропии как числа микросостояний на данное макросостояние. Проблемы начинаются в двух случаях:

  • когда начинают смешивать различные понимания беспорядка, и энтропия становится мерой беспорядка вообще;
  • когда понятие энтропии применяется для систем, не являющихся термодинамическими.

В обоих этих случаях применение понятия термодинамической энтропии совершенно неправомерно.

Рассмотрим оба пункта подробнее.

Рассмотрим пример термодинамической системы — распределение молекул в поле тяготения. В этом случае наиболее вероятным распределением молекул будет распределение согласно барометрической формуле Больцмана. Другой пример — учёт электромагнитных сил взаимодействия между ионами. В этом случае наиболее вероятным состоянием, соответствующим минимуму свободной энергии, будет упорядоченное кристаллическое состояние, а совсем не «хаос», хотя в состоянии «хаоса» значение конфигурационной энтропии системы и ниже. (Термин «хаос» здесь понимается в смысле беспорядка — в наивном смысле. К хаосу в математическом смысле как сильно неустойчивой нелинейной системе это не имеет отношения, конечно.)

Рассмотрим случай с кристаллической решёткой более подробно. Кристаллическая решётка может быть и в равновесном, и в неравновесном состоянии, как и любая термодинамическая система. Скажем, возьмём следующую модель — совокупность взаимодействующих осцилляторов. Рассмотрим некоторое неравновесное состояние: все осцилляторы имеют одинаковое отклонение от положения равновесия. С течением времени эта система перейдёт в состояние ТД равновесия, в котором отклонения (в каждый момент времени) будут подчинены некоторому распределению типа Максвелла (только это распределение будет для отклонений, и оно будет зависеть от типа взаимодействия осцилляторов). В таком случае максимум энтропии будет действительно реализовывать максимум возможностей конфигурирования, то есть — беспорядок согласно вышеуказанному определению. Но данный «беспорядок» вовсе не соответствует «беспорядку» в каком-либо другом понимании, например, информационному. Такая же ситуация возникает и в примере с кристаллизацией переохлаждённой жидкости, в которой образование структур из «хаотичной» жидкости идёт параллельно с увеличением энтропии.

То есть при образовании кристалла из переохлаждённой жидкости энтропия увеличивается с одновременным ростом температуры. Если кристаллизация сопровождается отводом тепла из системы, то энтропия при этом уменьшится.

Это неверное понимание энтропии появилось во время развития теории информации, в связи с парадоксом термодинамики, связанным с мысленным экспериментом так называемый «демона Максвелла». Суть парадокса заключалась в том, что рассматривалось два сосуда с разными температурами, соединённых узкой трубкой с затворками, которыми управлял так называемый «демон». «Демон» мог измерять скорость отдельных летящих молекул, и таким образом избирательно пропускать более быстрые в сосуд с высокой температурой, а более медленные — в сосуд с низкой. Из этого мысленного эксперимента вытекало кажущееся противоречие со вторым началом термодинамики.

Парадокс может быть разрешён при помощи теории информации. Для измерения скорости молекулы «демон» должен был бы получить информацию о её скорости. Но всякое получение информации — материальный процесс, сопровождающийся возрастанием энтропии. Количественный анализ показал, что приращение энтропии при измерении превосходит по абсолютной величине уменьшение энтропии, вызванное перераспределением молекул «демоном».

Измерение энтропии

В реальных экспериментах очень трудно измерить энтропию системы. Техники измерения базируются на термодинамическом определении энтропии и требуют экстремально аккуратной калориметрии.

Для упрощения мы будем исследовать механическую систему, термодинамические состояния которой будут определены через её объём V {displaystyle V} и давление P {displaystyle P} . Для измерения энтропии определённого состояния мы должны сперва измерить теплоёмкость при постоянных объёме и давлении (обозначенную C V {displaystyle C_{V}} и C P {displaystyle C_{P}} соответственно), для успешного набора состояний между первоначальным состоянием и требуемым. Тепловые ёмкости связаны с энтропией S {displaystyle S} и с температурой T {displaystyle T} согласно формуле:

C X = T ( ∂ S ∂ T ) X , {displaystyle C_{X}=Tleft({frac {partial S}{partial T}} ight)_{X},}

где нижний индекс X {displaystyle X} относится к постоянным объёму и давлению. Мы можем проинтегрировать для получения изменения энтропии:

Δ S = ∫ C X T d T . {displaystyle Delta S=int {frac {C_{X}}{T}}dT.}

Таким образом, мы можем получить значение энтропии любого состояния ( P {displaystyle P} , V {displaystyle V} ) по отношению к первоначальному состоянию ( P 0 {displaystyle P_{0}} , V 0 {displaystyle V_{0}} ). Точная формула зависит от нашего выбора промежуточных состояний. Для примера, если первоначальное состояние имеет такое же давление, как и конечное состояние, то

S ( P , V ) = S ( P 0 , V 0 ) + ∫ T ( P 0 , V 0 ) T ( P , V ) C P ( P , V ( T , P ) ) T d T . {displaystyle S(P,V)=S(P_{0},V_{0})+int _{T(P_{0},V_{0})}^{T(P,V)}{frac {C_{P}(P,V(T,P))}{T}}dT.}

В добавление, если путь между первым и последним состояниями лежит сквозь любой фазовый переход первого рода, скрытая теплота, ассоциированная с переходом, должна также учитываться.

Энтропия первоначального состояния должна быть определена независимо. В идеальном варианте выбирается первоначальное состояние как состояние при экстремально высокой температуре, при которой система существует в виде газа. Энтропия в этом состоянии подобна энтропии классического идеального газа плюс взнос от молекулярных вращений и колебаний, которые могут быть определены спектроскопически.

Построение графика изменения энтропии

Следующее уравнение может быть использовано для построения графика изменения энтропии на диаграмме P − V {displaystyle P-V} для идеального газа:

S = n   ln ⁡ ( P C V V C P ) . {displaystyle S=n ln(P^{C_{V}}V^{C_{P}}).}

Здесь два замечания:

  • это не определение энтропии (но выведено из него для случая идеального газа);
  • предполагается, что C V {displaystyle C_{V}} и C P {displaystyle C_{P}} постоянные, что на самом деле не всегда так.

«Что такое энтропия?»

Что сложнее: паровоз или лошадь? Когда появились первые паровозы, путеец рассказал обратившимся к нему ошеломлённым крестьянам об устройстве и действии паровой машины и закончил объяснение вопросом: «Всё понятно?» — «Всё! Кроме того, где же внутри находится лошадь?» Крестьяне с детства знают лошадь, она для них в объяснении не нуждается. С научной точки зрения лошадь несравненно более сложна, чем тепловая машина, так что наука пыталась представить лошадь как тепловую машину, а не наоборот

Однозначного ответа на этот вопрос не существует по той простой причине, что разных энтропий много — представление об энтропии используется в различных научных дисциплинах: термодинамике, статистической физике, теории информации и др. Но и внутри каждой из перечисленных дисциплин единообразия также нет и в помине: в теории информации рассматривают энтропию Шеннона, энтропию Реньи, энтропию Чисара, энтропию Хаврда — Чарват — Дароши; статистическая физика оперирует энтропиями Больцмана, Гиббса, Цаллиса; существуют различные дефиниции термодинамической энтропии. Содержательная дефиниция той или иной конкретной энтропии зависит от аксиоматики системы построения/изложения, использующей эту энтропию. По указанной причине не существует универсальной дефиниции термодинамической энтропии, ибо для различных аксиоматических систем термодинамики ответ на вынесенный в заголовок вопрос будет различен.

Студенты, приступающие к изучению термодинамики, часто жалуются на непонятность энтропии, связанную с отсутствием наглядности (рисунок иллюстрирует относительность представлений людей о наглядности, понятности и простоте термодинамических систем).

Для описания термических явлений в физике вводят новые комплементарные (взаимодополняющие) физические величины — температуру и энтропию, — содержательные дефиниции которым не дают ни в механике, ни в электродинамике. В термодинамике Клаузиуса — Каратеодори энтропию вводят как приведённую внутреннюю энергию изотермической системы, то есть разность энтропий равна приведённой теплоте изотермического процесса.

В термодинамике Гиббса и в системе А. А. Гухмана энтропия представляет собой неопределяемое базовое понятие — таков в этих системах содержательный ответ на рассматриваемый вопрос. В термодинамической аксиоматике А. А. Гухмана и рациональной термодинамике в трактовке П. А. Жилина и температуру, и энтропию вводят как неопределяемые базовые переменные, несводимые к более простым. Пояснительное дополнение к дефиниции энтропии по Гухману разъясняет, что энтропия есть координата состояния при термическом взаимодействии (теплообмене), которое выражается в переносе энтропии от одного объекта к другому.

В рациональной термодинамике в трактовке школы Трусделла в качестве базовой термической переменной используют температуру T {displaystyle T} , то есть привычную и по этой причине всем понятную физическую величину. Энтропию S {displaystyle S} вводят как полезную вспомогательную функцию энергии E {displaystyle E} и температуры:

S ≡ ∫ 0 E 1 T d E , {displaystyle Sequiv int _{0}^{E}{frac {1}{T}}dE,}

но, в отличие от другой функции энергии и температуры, — теплоёмкости C {displaystyle C}

C ≡ ∂ E ∂ T , {displaystyle Cequiv {frac {partial E}{partial T}},}

в формулу, служащую дефиницией энтропии, входит не производная, а интеграл. Пояснительное дополнение к ответу, пригодное почти для любого способа изложения термодинамики, сообщает, что энтропия необходима для построения математического аппарата термодинамики и, следовательно, привлечение термодинамики к решению любой научной или практической задачи явно или неявно подразумевает использование энтропии. Польза, приносимая людям от обращения к термодинамике, есть польза от ввода энтропии в понятийный аппарат науки. Дополнительно к сказанному можно провести аналогию с теплоёмкостью: если для неизотермических процессов нагрева льда, жидкой воды и водяного пара затраты энергии равны произведению теплоёмкости на разность температур, то для изотермических процессов таяния и кипения затраты энергии равны произведению температуры на разность энтропий.

Понять энтропию и её значение для термодинамики означает, что необходимо знать происхождение этой величины, понимать её связи с другими термодинамическими переменными и уметь применять энтропию на практике.