А в изолированной системе может накапливаться информация компенсируя нарастание энтропии так, что суммарная энтропия 0?

мож такое могло бы быть критерием развития?
3 месяцев назад от снежана снежная

2 Ответы

0 голосов
Зависит от определения информации. В общем-то, можно определить информацию и так, что условная энтропия = информация. А в целом, энтропия - это есть количество информации, необходимое для физически полного определения системы. Так что рост энтропии с многих точек зрения = рост информации.
3 месяцев назад от Вячеслав Пысин
0 голосов
Связь информации и энтропии прослеживается только при передаче сигналов по сетям. Нарастание энтропии - увеличение упорядоченных сигналов, превратившихся в шум из за сбоев. Энтропия возросла, информация уменьшилась. Обратный процесс в замкнутой системе невозможен) Сами по себе сигналы не сложатся обратно в инфопакеты. Можно только снаружи догрузить пакеты данных, чтобы количество информации выросло, и посрезать шум, уменьшая энтропию.
3 месяцев назад от B.a.T[Dr.Chillout]

Связанные вопросы

2 ответов
8 года назад от Эвелина Джемакулова
1 ответ
1 ответ
6 года назад от EthanBloomer