Рассмотрим ещё в одном аспекте понятие энтропии. При эволюции любой системы в ней происходит обмен энергией, веществом и сведениями о ней (информация). Система может развиваться только благодаря циркуляции в ней информации. Если информация – функции состояния системы, то увеличение данных о системе уменьшает неопределенность её состояния.
По Шеннону (1947) под энтропией понимают, как и по Бриллюэну (1956), негэнтропию. Для нее был сформулирован принцип: с ростом информации о системе увеличению негэнтропия. В таком случае энтропия – мера недостатка информации. Так в кристаллическом состоянии при температуре T ≈ 0 количество информации о теле максимально.
Вообще же информация J = k·log2 A и эта величина может не совпадать с S = SH, а k – может и не равняться постоянной Больцмана. Здесь А – число микросостояний, позволяющих получить данное макросостояние.
В формуле J = k·log 2 A обычно логарифм для удобства берут при основании 2, поскольку выбирают решение «да» или «нет» – то есть двоичное – бинарное. Связано это с тем, что в ЭВМ двоичное исчисление.
Количество информации измеряют в битах. Когда путник подходит к развилке двух дорог и не знает, на какой из них находится нужный ему объект, то информация о том, куда ему поворачивать, соответствует одному биту. Для развития клетки организма необходимо, чтобы она получала информацию от зародышевой клетки. Как происходит этот процесс – не вполне ясно.
Итак, энтропия имеет термодинамическое, вероятностное и информационное определение.
Поможем написать любую работу на аналогичную тему