А в изолированной системе может накапливаться информация компенсируя нарастание энтропии так, что суммарная энтропия 0?

мож такое могло бы быть критерием развития?
9 месяцев назад от снежана снежная

2 Ответы



0 голосов
Зависит от определения информации. В общем-то, можно определить информацию и так, что условная энтропия = информация. А в целом, энтропия - это есть количество информации, необходимое для физически полного определения системы. Так что рост энтропии с многих точек зрения = рост информации.
9 месяцев назад от Вячеслав Пысин
0 голосов
Связь информации и энтропии прослеживается только при передаче сигналов по сетям. Нарастание энтропии - увеличение упорядоченных сигналов, превратившихся в шум из за сбоев. Энтропия возросла, информация уменьшилась. Обратный процесс в замкнутой системе невозможен) Сами по себе сигналы не сложатся обратно в инфопакеты. Можно только снаружи догрузить пакеты данных, чтобы количество информации выросло, и посрезать шум, уменьшая энтропию.
9 месяцев назад от B.a.T[Dr.Chillout]

Связанные вопросы

1 ответ