Физик представил первое математическое доказательство того, что мы живем в симуляции
В основе современной картины мира лежит Второй закон термодинамики. Он утверждает, что в любой изолированной физической системе энтропия — то есть мера беспорядка — со временем неизбежно возрастает. Материя стремится к распаду, тепло рассеивается, а структуры разрушаются. Однако при наблюдении за окружающим миром можно найти противоречия. Если Вселенная неуклонно движется к хаосу, каким образом в ней постоянно возникают и поддерживаются сложнейшие упорядоченные системы: от безупречной геометрии кристаллов до математически точных спиралей ДНК?
Ответ на этот вопрос предложил Мелвин Вопсон, физик из Портсмутского университета. Опираясь на теорию информации и данные эмпирических наблюдений, он сформулировал новый физический принцип — Второй закон инфодинамики. Это открытие не только объясняет скрытые механизмы эволюции, квантовой механики и космологии, но и предоставляет первое математически обоснованное подтверждение того, что наша реальность может функционировать по принципам вычислительной системы.
Разделение физики и информации
Для начала важно разделить два понятия: физическую энтропию и информационную энтропию.
Физическая энтропия описывает количество возможных микросостояний материальной системы — то, как атомы и молекулы могут распределяться в пространстве. Информационная энтропия, базирующаяся на теории Клода Шеннона, описывает количество данных, необходимых для полного описания этой системы. Каждое физическое состояние или событие несет в себе определенный объем информации, который можно измерить в битах.
Второй закон инфодинамики гласит: в отличие от физической энтропии, которая всегда растет, информационная энтропия систем со временем должна оставаться неизменной или уменьшаться. Достигая состояния равновесия, система стремится к минимально возможному значению информационной энтропии. Проще говоря, пока физический мир становится все более неупорядоченным, его информационное содержание становится все более лаконичным. Этот принцип оказался универсальным и экспериментально проверяемым на всех уровнях организации материи.
Механизм генетических мутаций
В традиционной биологии эволюция и генетические мутации считаются процессами, подверженными случайности. Ошибки при копировании ДНК или РНК происходят ненаправленно, а дальнейшую судьбу организма определяет естественный отбор.
Для проверки Второго закона инфодинамики исследователь обратился к генетике. В качестве модели был выбран РНК-геном вируса SARS-CoV-2. Геном вируса состоит из длинной последовательности четырех нуклеотидов (аденин, цитозин, гуанин, урацил). С точки зрения теории информации, каждый нуклеотид представляет собой символ, способный кодировать до двух бит данных. Исходный штамм вируса содержал 29 903 нуклеотида, формируя строго определенный объем информации.
Физик проанализировал базы данных, содержащие миллионы секвенированных геномов вируса, отслеживая, как менялась их структура с течением времени при возникновении новых вариантов. Анализ показал, что подавляющее большинство закрепляющихся мутаций происходило путем удаления нуклеотидов или таких одиночных замен, которые математически снижали общую информационную энтропию последовательности.
График, построенный на основе этих данных, продемонстрировал линейную зависимость: с увеличением количества мутаций с течением времени информационная емкость вируса последовательно падала. Биологическая структура физически избавлялась от избыточных данных. Это доказывает, что мутации на молекулярном уровне управляются не только случайностью, но и физическим законом, который заставляет систему минимизировать свой информационный объем.
Квантовая механика и заполнение орбит
Универсальность закона подтверждается и на субатомном уровне. В квантовой физике распределение электронов в атоме подчиняется принципу исключения Паули (два электрона не могут находиться в абсолютно одинаковом квантовом состоянии) и эмпирическому правилу Хунда. Правило Хунда гласит, что электроны заполняют свободные орбитали поодиночке и с параллельными спинами, прежде чем начать объединяться в пары.
Долгое время физика объясняла это исключительно тем, что электроны отталкиваются друг от друга, и такая конфигурация снижает общую энергию системы. Мелвин Вопсон подошел к проблеме иначе. Он перевел характеристики электронов (их спины) в информационные значения и рассчитал энтропию Шеннона для всех возможных комбинаций расположения электронов на орбиталях различных типов.
Математические расчеты показали бескомпромиссный результат во всех без исключения случаях. Из десятков возможных конфигураций та единственная, которая требуется правилом Хунда и реализуется в природе, всегда обладает самой низкой информационной энтропией. Атомы структурируют свои компоненты таким образом, чтобы их состояние описывалось минимальным количеством бит информации.
Математическая природа симметрии
Тот же принцип работает при формировании структур в макромире. В окружающей среде много примеров симметрии: формы кристаллов, строение биологических организмов, структура молекул графена и спиральные галактики. Вопрос о том, почему физический мир, стремящийся к термодинамическому хаосу, выбирает высокоупорядоченные симметричные формы, оставался открытым.
Исследователь применил информационный анализ к геометрическим фигурам. Асимметричный объект (например, произвольный треугольник с разными сторонами и углами) требует большого количества независимых параметров для своего точного описания. Его информационная энтропия высока. Идеально симметричный объект (равносторонний треугольник) полностью описывается минимальным набором данных, так как его стороны и углы идентичны.
Проанализировав различные геометрические формы, физик выявил строгую обратную зависимость: чем больше у объекта элементов симметрии (осей отражения или вращения), тем ниже его информационная энтропия. Симметрия доминирует во Вселенной не случайно. Природа вынуждена формировать симметричные структуры, потому что Второй закон инфодинамики требует постоянной минимизации информации в любых системах. Симметрия — это состояние с наименьшим возможным объемом данных.
Космологический баланс Вселенной
Самое масштабное применение Второго закона инфодинамики обнаруживается в космологии, где он решает проблему, известную как «энтропийный парадокс».
Согласно современным научным данным, Вселенная непрерывно расширяется. Так как она представляет собой замкнутую систему и не может обмениваться теплом с чем-либо за своими пределами, это расширение является адиабатическим. Первый закон термодинамики требует, чтобы общий баланс энергии в такой системе оставался неизменным.
Однако само расширение физического пространства постоянно создает новые потенциальные микросостояния для материи и излучения. Это означает, что термодинамическая (физическая) энтропия Вселенной непрерывно возрастает. Чтобы общий энтропийный бюджет Вселенной оставался в равновесии, как того требуют законы физики, какой-то другой параметр должен синхронно уменьшаться, компенсируя рост физического беспорядка.
Исследование показывает, что этим компенсирующим фактором является информационная энтропия. Снижение информационной емкости Вселенной — это не просто локальное явление, а строгая космологическая необходимость. Без непрерывного уменьшения объема информации Вселенная нарушила бы первый закон термодинамики при своем расширении.
Научные следствия и вычислительная гипотеза
Анализ показывает, что материя на всех уровнях — от базовых элементарных частиц и цепочек ДНК до планетарных орбит и галактик — подчиняется единому процессу отсечения избыточных данных. Все системы во Вселенной естественным образом оптимизируют свое информационное состояние.
Такое поведение физических систем полностью совпадает с механизмами сжатия и оптимизации данных, которые используются в компьютерных науках. Если рассматривать популярную в современной философии и физике гипотезу о том, что объективная реальность может представлять собой сверхсложную компьютерную симуляцию, то выводы Вопсона получают логическое объяснение.
Любая вычислительная система, генерирующая вселенную нашего масштаба и сложности, неизбежно столкнулась бы с экспоненциальным ростом требуемых мощностей. Для предотвращения перегрузки памяти и процессоров в архитектуру такой системы должен быть встроен базовый алгоритм сжатия, который постоянно минимизирует объем обрабатываемых и хранимых данных. Второй закон инфодинамики демонстрирует именно такие характеристики.
Более того, это открытие косвенно подтверждает принцип эквивалентности массы, энергии и информации. Если информация подчиняется строгим физическим и термодинамическим ограничениям наравне с энергией, значит, она перестает быть просто математической абстракцией, используемой для расчетов. Информация становится пятым состоянием материи, фундаментальной физической величиной, формирующей структуру нашего мира.
Пределы теории: научный скепсис
Тем не менее, несмотря на математическую стройность Второго закона инфодинамики, радикальные выводы Вопсона подвергаются обоснованной конструктивной критике со стороны академического сообщества.
Главная концептуальная проблема предложенной теории заключается в прямом физическом отождествлении абстрактной информационной энтропии Шеннона с реальной термодинамической массой и энергией. Фундаментальное стремление физических макро- и микросистем к оптимизации — например, классический принцип наименьшего действия Гамильтона — известно науке более двух столетий и абсолютно не требует обязательного наличия внешнего вычислительного алгоритма. Системная минимизация энергетических затрат неизбежно ведет к сопутствующей математической минимизации описывающих параметров, что с высокой долей вероятности является вторичным следствием классических законов, а не самостоятельной физической первопричиной.
Кроме того, прямой логический переход от наблюдаемой структурной эффективности к глобальному выводу о существовании искусственной космической симуляции представляет собой скорее смелое философское допущение, чем подтвержденный научный факт. До тех пор, пока физическая масса или энергия чистого бита информации не будет зафиксирована независимым прямым лабораторным экспериментом, концепция инфодинамики рискует остаться лишь интересной математической интерпретацией, описывающей давно известные природные явления через современную терминологию компьютерных наук.
Источник:AIP Advances













