Статистический смысл второго начала термодинамики

Для дальнейшего изложения нам необходимы понятия порядка, хаоса и энтропии.

Порядок, как следствие структуры пространства, определяет закономерность размещения частей материального мира. Структура – это объект, обладающий устойчивостью, “жесткостью”. Регулярные структуры (например, кристаллическая решетка) состоят из однородных элементов, нерегулярные – (например, живые организмы) состоят из разнородных клеток, расположенных по сложному плану. Структура имеет способность до какого-то предела сопротивляться внешним воздействиям, не изменяясь в целом. Если же такие изменения произошли, то это свидетельствует о гибели (разрушении) структуры.

Хаос– бесструктурная неупорядоченная форма существования вырожденной материи. Представление о хаосе как об абсолютном беспорядке неправильно, не бывает абсолютного беспорядка (как не бывает, например, абсолютной пустоты). Так, тепловая конвекция в атмосфере представляется хаотическим процессом, но этот хаотический процесс может быть строго описан математически, т.е. имеет внутренний порядок, пусть и весьма сложный. Таким образом, в определенном смысле хаос – это тоже структура и имеет смысл говорить о степени упорядоченности той или иной структуры (или о мере беспорядка).

Количественной мерой беспорядка в системе является энтропия S:

S = k lnW, (2.4.10)

 

где k – постоянная Больцмана, W–статистический вес (термодинамическая вероятность) системы. Статистический вес системы представляет собой число микросостояний, с помощью которых может реализоваться данное макросостояние системы.

Для пояснения понятия статистического веса, рассмотрим сосуд с газом, мысленно разделив его на две одинаковые части – правую и левую. Макросостояние системы (количество молекул в каждой половине) может быть достигнуто разными способами их распределения (различными микросостояниями). Так, в случае 24 молекул в сосуде, полное число способов распределения их по двум половинам сосуда равно 224=16777216, и только в двух случаях все молекулы оказываются сосредоточенными в одной из половин сосуда. Вероятность такого события равна ≈10–7.. Если в сосуде содержится 1020 молекул (4 см3 воздуха при нормальных условиях), то вероятность обсуждаемого события будет равна всего 10x, где х = 3×1019. Эта вероятность настолько мала, что ее можно практически считать равной нулю. В то же время вероятность равномерного распределения молекул по двум половинам сосуда равно примерно ½. Вероятность состояния оказывается тем больше, чем большим числом способов (микросостояний) оно может быть реализовано. Другими словами, вероятность состояния пропорциональна его статистическому весу. Равновесное состояние системы – это состояние, статистический вес которого максимален. Поскольку энтропия пропорциональна lnW, то равновесное состояние системы характеризуется максимальной энтропией, т.е. максимальным беспорядком.

Обратимся к природе необратимых процессов. Предположим, что вначале газ находился в левой половине сосуда, которая отделялась перегородкой от правой пустой половины. Если убрать перегородку, газ самопроизвольно распространится на весь сосуд. Этот процесс будет необратимым, поскольку вероятность того, что в результате теплового движения все молекулы соберутся в одной из половин сосуда, практически равна нулю. Сам по себе, без воздействия извне, газ не сможет снова сосредоточиться в левой половине сосуда. Таким образом, процесс распространения газа на весь сосуд оказывается необратимым вследствие того, что обратный процесс маловероятен. Этот вывод может быть распространен и на другие процессы. Всякий необратимый процесс – это такой процесс, обратный которому крайне маловероятен. Капля бензина растечется по поверхности лужи, колечко сигаретного дыма растает, температура холодного и нагретого помещений сравняется, если между ними открыть дверь, а если капнуть тушь в воду, то капелька растворится во всем объеме… Обратные процессы не будут наблюдаться никогда.

Порядок в системе (все молекулы слева) характеризуется минимальным статистическим весом и, следовательно, ее минимальной энтропией. В состоянии хаоса (молекулы вследствие теплового движения равномерно распределены по обеим половинам сосуда) энтропия системы максимальна. Второе начало термодинамики утверждает, что эволюция изолированных (т.е. предоставленных самим себе) систем идет от упорядоченного состояния к хаосу, т.е. с возрастанием энтропии. В обратимых процессах энтропия системы остается постоянной. Другими словами, энтропия изолированной системы не может убывать. Математически это может быть выражено неравенством Клаузиуса:

 

DS ≥ 0. (2.4.11)

 

В заключение этого вопроса необходимо подчеркнуть следующее. Энтропия отдельно взятого тела может уменьшаться, такое уменьшение не противоречит второму закону термодинамики, поскольку он справедлив только для замкнутых (или изолированных) систем. При совместном рассмотрении всех тел системы полное изменение энтропии либо положительно, либо равно нулю. Так, деятельность человека на Земле приводит к локальному уменьшению энтропии. Холодильники и тепловые насосы способны перекачивать тепло от холодного тела к горячему. Жизнь, как биологическое явление характеризуется процессами, уменьшающими локальную энтропию. Всюду, где происходит локальное увеличение упорядоченности, противоречащее беспорядку, происходит локальное уменьшение энтропии. Однако, полная система, включающая в себя первоисточник энергии – Солнце, характеризуется возрастанием суммарной энтропии.

Рост энтропии при переходе от порядка к хаосу является следствием перехода отдельных видов движения материи в тепловое движение (перехода отдельных видов энергии в теплоту). В открытых системах, которые могут обмениваться веществом и энергией с окружающей средой, энтропия может и возрастать и убывать (при этом возрастает энтропия окружающей среды). Таким образом, из хаоса может самопроизвольно возникнуть порядок. Более подробно этот вопрос будет рассмотрен в следующей главе.

Энтропия и информация

Основой любой системы управления в технике, обществе и живой природе является информация. Латинское слово “informatio” переводится как “изложение”, “разъяснение”, “осведомление”. Понимание природы информации основывается на фундаментальных законах естествознания.

Информация – это ограничение на число микросостояний системы, связанное с начальными условиями и внешними факторами. Количество информации можно оценить как уменьшение энтропии носителя информации.

Уменьшение энтропии реализуется в некоторой упорядоченности структур. В технике, например, информация кодируется последовательностью ферромагнитных ячеек с разной ориентацией магнитных моментов доменов на пленке, диске и т.д. В живой природе носителем информации, отражающим строение и особенности живых организмов, является молекула ДНК. Информация кодируется последовательностью нуклеотидов четырех типов – А, Т, Г и Ц. Последовательность нуклеотидов в ДНК определяет последовательность аминокислот в белках живых организмов.

Энтропия есть мера хаоса в системе, поэтому ее можно толковать как меру неполноты (неопределенности) информации о внутренней структуре системы при задании ее макроскопических параметров. Величина, равная энтропии с обратным знаком называется негэнтропией:

N = – S. (2.4.12)

 

Информация эквивалентна негэнтропии. Уменьшение информации о внутренней структуре системы соответствует росту энтропии системы и уменьшению негэнтропии.

Закон возрастания энтропии в замкнутых системах, отражающий стремление этих систем переходить в хаотическое, беспорядочное состояние, приводит к деградации информации. Практически все информационные процессы термодинамически необратимы.

В отличие от энтропии информация обладает качественным свойством – ценностью. Две цепочки нуклеотидов могут нести одинаковое количество информации и обладать одинаковой энтропией, но одна из этих цепочек может нести информацию о строении живого организма и обладать ценностью, а другая представлять собой случайное соединение нуклеотидов и быть “бессмысленной”. Биологическая эволюция сопровождается ростом ценности информации. С информационной точки зрения мутация – это сбой кодирования, при котором происходит утрата или перестройка части информации.

 








Дата добавления: 2016-01-26; просмотров: 1969;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.005 сек.