Космологические коаны. Путешествие в самое сердце физической реальности - Энтони Агирре Страница 49
Космологические коаны. Путешествие в самое сердце физической реальности - Энтони Агирре читать онлайн бесплатно
За чаем ты сообщаешь об этом своем наблюдении Драгпе, который слушает тебя очень внимательно. Некоторое время он молчит, а затем указывает на реку, горы, небо. «Да, — говорит он, — так оно и происходит со всем, что было создано в ту эпоху».
Откуда берутся информация, порядок и структура? Случайность, беспорядок и разрушение могут возникнуть просто и быстро: как мы видели, их может создать любой ребенок (и непременно создаст, если пустить его на кухню!). Но и порядок тоже возникает везде: образуются галактики, звезды и планеты, появляются горы и океаны. По крайней мере здесь, на Земле, образовались сложные экосистемы, возникла и развивается жизнь, создается множество ее видов. Мы, люди, продвинулись еще дальше и придумали языки, социальные структуры, всяческие теории, технологии и их продукты… и многое, многое другое. Но если все вещи подвержены самопроизвольному распаду, то как же объяснить то, что они существуют? Почему так грубо нарушается дух второго закона термодинамики, которому неукоснительно подчиняются все физические системы без исключения?
Как мы уже видели, информация о физическом микросостоянии системы сохраняется при унитарной физической эволюции и количественно определяется так называемой неопределенностью. Информация в этом смысле является обратной стороной неопределенности, и, желая быть точными, мы могли бы определить информацию I как разность между реальной неопределенностью R и максимальной возможной неопределенностью системы Rmax:
I = Rmax — R.
Если мы исходим из определения неопределенности, введенного Шенноном и Гиббсом (которую они назвали «энтропией»), то это уравнение является количественным выражением наших мыслей об информации в терминах знакомых нам битов, байтов и тому подобного. На самом деле Шеннон разработал это определение именно с целью количественной оценки объема информации, которую может передать цифровое или аналоговое устройство передачи данных.
Представьте себе, например, что имеются восемь протоков реки Лхаса. В каждом из них вода может течь или не течь; таким образом, мы можем представить любое состояние реки, используя строку типа YNNNYNYY, где Y означает, что вода в протоке есть, а N — что ее нет. По определению Шеннона[68], если бы мы не знали, есть ли в каком-либо конкретном протоке вода (и, следовательно, присвоили бы каждому протоку вероятность 50 % тому, что в нем течет вода), мы бы считали неопределенность равной R = 8 битов, что также является максимально возможным ее значением. А если бы мы знали со стопроцентной уверенностью, что в некоем конкретном протоке вода течет, то, исходя из этого же определения, неопределенность будет равна 7 бит, а информация 1 биту: I = Rmax — R = 1 бит. Точно такие же рассуждения показывают, что знание состояния n протоков представляет n битов информации. Мы вправе применить этот метод к любой системе, состояниям которой мы можем приписать вероятности, чтобы количественно оценить содержащуюся в ней информацию[69]. Таким образом, этот набор идей применим не только к битам в компьютере, но также и к атомам в газе, к молекулам в живой клетке и ко всем другим системам.
Мы можем сделать что-то похожее с беспорядком, который в определении Больцмана делит пространство возможностей на макросостояния и присваивает значение беспорядка исходя из того, сколько микросостояний в каждом макросостоянии. Давайте (так же, как мы присвоили вероятность P(s) микросостояниям) предположим, что мы приписали вероятность P(M) каждому макросостоянию M, которому соответствует значение беспорядка, связанное с количеством микросостояний, в нем содержащихся. Теперь мы можем через эти величины определить величину D, которая является своего рода взвешенной суммой по значениям беспорядка этих макросостояний[70]. Эта величина, как и энтропия Больцмана, при естественной динамике системы стремится к росту. Теперь мы можем определить порядок как разницу между этим беспорядком и его максимальным значением[71]:
O = Dmax — D.
В процессе эволюции системы порядок исчезает, так как макросостояния с высокой степенью беспорядка становятся все более и более вероятными. Кухня становится неубранной.
В этой формулировке информация, определенная на микроуровне, сохраняется. А порядок, который был определен на макроуровне, в процессе эволюции замкнутой системы уменьшается. И вот загадка: что бы мы ни обсуждали — создание порядка или увеличения информации, — физика всегда выносит определенный вердикт: этого случиться не может.
Однако информация и порядок все же возникают. Как?
Как говорится, если правила вам не нравятся, измените правила! Если ни информация, ни порядок не могут быть созданы в закрытой системе (то есть в системе с неизменным пространством состояний), в которой происходит унитарная эволюция, тогда, чтобы создать их в данной системе, нам придется изменить либо пространство состояний системы, либо закон, по которому происходит эволюция, либо и то, и другое. Но как?
Один из способов знаком нам достаточно хорошо. Предположим, у нас есть хороший изолированный ящик с нагретым газом внутри него. Система не может перейти в состояние, когда один угол ящика будет нагрет до высоких температур, а остальная часть ящика с газом сильно охладится: это нарушило бы второй закон, поскольку можно показать, что системы с более равномерно распределенной температурой являются более беспорядочными, чем системы, состоящие из нескольких подсистем с разными температурами. Но мы все-таки можем получить холодный ящик, положив его в холодильник и остудив! Это равносильно встраиванию нашей системы в гораздо большую упорядоченную систему. Такое охлаждение делает три вещи: уменьшает энергию ящика, понижает беспорядок и уменьшает неопределенность внутри него. В то же время оно добавляет энергию, неопределенность и беспорядок в других местах объединенной системы[72]; тем самым удовлетворяются закон сохранения энергии, унитарность и второй закон в общей системе.
Сущность термодинамики состоит именно в том, чтобы разъяснить в деталях, как это происходит. С конца девятнадцатого века в рамках термодинамики было получено большое количество теоретических и практических результатов, на основе которых возникло множество полезных устройств — таких как двигатели, холодильники и много чего еще. Охлаждая что-то, мы обычно не думаем, что «создаем информацию». Но если определять информацию как разницу между фактической неопределенностью системы и ее максимально возможной неопределенностью, то в положенном в морозильник буррито реально создадутся триллионы терабайт информации[73] (это не очень полезный тип информации, так как она определяется конкретным состоянием атомов буррито, а не, скажем, битами или словами; но определение количества информации отличается от определения ее качества или полезности).
Другой способ создания информации или порядка — увеличение пространства состояний системы, то есть увеличение Rmax или Dmax в выражениях,
Жалоба
Напишите нам, и мы в срочном порядке примем меры.