[325x400]
Давно известно, что многие физические законы обладают инвариантностью относительно замены времени t на -t - иными словами, имеет место T-симметрия. Однако в обыденной жизни мы сталкиваемся с тем, что у времени имеется выделенное направление, то есть события следуют одно за другим, и существует понятие причины и следствия. Это же проявляется и во многих экспериментах. Например, в термодинамике замкнутая система стремится занять состояние с максимальной энтропией (мера необратимого рассеивания энергии). Поэтому состояния меняются исключительно в сторону роста энтропии.
Для объяснения направления времени во Вселенной в целом Макконе воспользовался квантовой механикой и применил квантовый подход, аналогичный термодинамическому. Он использовал понятие так называемой информационной энтропии, которая является мерой хаотичности информации.
По словам Макконе, события, уменьшающие энтропию, вполне могут происходить, однако они не оставляют о себе информации и, следовательно, неотличимы от событий, которые никогда не происходили. Таким образом, заключает Макконе, направление движения времени есть суть направление увеличения информационной энтропии.
Следует подчеркнуть, что ряд ученых не согласен с выводами Макконе, однако они называют подход автора к проблеме новаторским. Об этом сообщает "Знание - Сила" со ссылкой на журнал Physical Review Letters.
Энтропия (от греч. ἐντροπία — поворот, превращение) — понятие, впервые введенное в термодинамике для определения меры необратимого рассеяния энергии. Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы.
Термодинамическая энтропия — функция состояния термодинамической системы.
Информационная энтропия — мера хаотичности информации, связана с вероятностью появления тех или иных символов при передаче сообщений.
Номера энтропии используются в математической теории метрических пространств для измерения размеров наборов (и, частично, фракталов).
Энтропия в теории управления — мера неопределенности состояния или поведения системы в данных условиях.
Энтропия (настольная игра) — одна из двух настольных игр, известных под именем Entropy, созданных Эриком Соломоном (Eric Solomon) в 1977 г. или Августином Каррено (Augustine Carreno) в 1994 г.
Энтропия (сеть) — децентрализованная пиринговая сеть, разработанная с целью быть стойкой к цензуре.
Энтропия в биологической экологии — единица измерения биологической вариативности.
Журнал «Энтропия» — международный междисциплинарный журнал на английском языке об исследованиях энтропии и информации.
[показать]