того, что она существует только при «наличии» воспринимающего ее (сканирующего) субъекта, понимание того, что для человека мир таков, каким он его видит, широкое распространение в науке сегодня антропного принципа – эти итоги научной рефлексии свидетельствуют об истинности богословского утверждения: мир антропоцентричен, мир создан для человека. В антропоцентричном мире все существует для человека. Каждой вещи и явлению Замыслом Творца заданы определенная функция и смысл их существования для человека логосом, парадигмой вещи. Информация – это открытие существования «вещи» каждым субъектом. Логос – это Мысль Бога, информация – это мысль человека о Мысли Бога.
Христоцентричность мира указывает точно так же на субъективность символа: объект или знак не становятся символом, если их человек не видит таковыми. Субъективность информации и символа можно рассматривать в 2-х ракурсах:
1. Как осуществление заданной логосом, Промыслом Творца взаимосвязи мира и человека через информационные параметры среды;
2. Как зависимость информации от возможностей человека, способности конкретного субъекта к построению индивидуальной картины мира и нахождению смыслов существования.
5.3. Взаимосвязь информации и энергии
Выше рассматривалась взаимосвязь логоса сущности и энергии в богословском контексте. Существует ли и отрефлексирована ли наукой взаимосвязь информации и энергии?
Эту взаимосвязь отражает определение информации в области статистической термодинамики и теории вероятности как меры определенности и упорядоченности. Шеннон предложил формулу, определяющую количественную меру информации[175].
Статистическая мера количества информации отличается постоянным коэффициентом и обратным знаком от выраженной термодинамической энтропии. Информационные процессы существуют во взаимосвязи с веществом или энергией.
Сущность количественной характеристики информации, как меры упорядоченности, указывает на связь информации с физической энтропией. «Как энтропия, – писал Н. Винер[176], – есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации». И в случае определения меры физической энтропии, и при определении меры информации применяются законы случайных событий, описываемые теорией вероятности.
Мера организации и в физике, и в теории информации является вероятностно-статистической:
где: Р – вероятность состояния i элемента;
n – количество элементов множества;
Н – мера количества информации.
«Передаваемую сигналом информацию, – писал Н. Винер[177], – возможно толковать как отрицание ее энтропии, как отрицательный логарифм вероятности». Степень упорядоченности множества зависит от числа элементов множества или от длины алфавита символов (состояний) и измеряется числом этих состояний