Поведение системы определяет информация. Информация - это то, что несет отпечаток факта или события, которое произошло или должно произойти. Количественное выражение переменных обозначается как информация. Содержание информации предельно важно. Степенью содержания информации является ее энтропия. Информация понижает энтропию и повышает организацию системы.
Более высокая организация системы связана с более низкой вероятностью случайных процессов. Степень информации - ее энтропия .
Физический процесс, содержащий переносимую информацию называется сигналом. Он связан с материальным объектом или процессом. Сигнал, в котором обычно закодирована информация - это материальный переносчик информации.
m
J = ∑ pi * log2pi ,
i=1
где i - число элементов, составляющих сообщение; pi - вероятность осуществления этих элементов; log2 - логарифм по основанию 2, который наилучшим образом характеризует двойственную логику мышления (быть-не быть, да-нет).
Сигналы подразделяются на непрерывные и дискретные (прерывистые), но дискретные лишь частный случай непрерывных.
* *
* * * *
* * * *
* * * *
* * * * -
* * * *
* * * *
* * * * * * *
* * * * *
t
дискретный сигнал
*
* *
* *
* *
* *
* *
* *
* * * *
* t
непрерывный сигнал
Системы могут быть замкнутые, относительно изолированные и открытые. Большая часть живых объектов принадлежит к системам открытого типа.
Стационарное состояние - это типичное состояние систем. Оно характеризуется динамическим состоянием системы, при котором она за данный период времени получает и отдает одинаковое количество вещества и энергии. Поэтому общее количество вещества и энергии в системе не меняется.
Итак мы рассмотрели основные парадигмы которыми руководствуются физики и биофизики в изучении и объяснении процессов, происходящих в окружающем нас мире.
Закрытая система
dC ------- = 0 dt Smax |
S - термодинамическая энтропия; J - информационная энтропия; C - концентрация; S - энтропия |
Открытая система
Вход |
dC ------- = 0 dt S = const max=doutS + dinS |
Выход |
Поможем написать любую работу на аналогичную тему