Описанный подход к измерению информации, позволяя сравнительно хорошо решать некоторые проблемы технических систем связи, не решает многих проблем, связанных с описанием информационных процессов в более сложных системах. Покажем это на примере.
Человек (потребитель информации), находящийся далеко от дома, имеет канал связи с ограниченными возможностями (1 сообщение в день). Потребитель получает информацию о том, что для него на входе канала есть два сообщения: одно больше, другое меньше, и надо выбрать, какое он желает получить первым. Можно ожидать, что человек захочет получить сначала бόльшее сообщение. Сообщение оказывается таким: «Кошка родила». Количество полученной информации, исходя из 5 бит на букву, составит 55 бит. На следующий день поступает более короткая информация (35 бит): «Умер дед». Можно представить, насколько негативно отнесётся наш пользователь к такой системе оценки информации. А если вторым сообщением окажется: «Идёт цунами» (50 бит), то наш герой к моменту получения информации, может уже вообще распрощаться с жизнью.
Пример показывает, что информация, измеренная рассмотренным вероятностным (статистическим) методом, явно нуждается в дополнительных характеристиках. Такими характеристиками можно считать смысл информации, её ценность, полезность, важностью и т.д. В связи с этим имеются попытки разработать новые методы количественной оценки информации, учитывающие указанные свойства. А информация, которую мы измеряли в наших примерах с помощью вероятностного метода, получила название статистической информации.
Статистическая информация, по сути дела, является величиной, оценивающей только количество передаваемых сигналов. На вопросы, что означают эти сигналы, какой смысл они несут для принимающей системы, статистическая информация ответа не даёт.
Информацию, которая представляла бы собой оценку смысла поступающих сигналов предложено называть семантической информацией. Эта информация должна указывать, каким природным объектам или явлениям соответствует та или иная комбинация поступающих сигналов. Как, например, можно узнать, что одному комплексу сигналов, поступающих в мозг животного, соответствует образ хищника, а другому комплексу сигналов соответствует образ пищи.
Вопрос о методе оценки информации с точки зрения её смысла оказался весьма сложным и не разрешённым до настоящего времени. Многими авторами предложены различные формулы для вычисления семантической информации. Нот все эти формулы либо не выдерживают критики, либо являются трудными для понимания принципов их построения и практического использования.
Однако и семантическая информация совместно со статистической ещё не обеспечивают полноты описания информационного взаимодействия, поскольку соотнесение сигналов с каким-либо объектом ещё не даёт возможность оценить ценность или полезность данного объекта для воспринимающей системы. Нужен информационный показатель, который позволял бы оценивать получаемую информацию с точки зрения её практической значимости, полезности или вредности. Такой показатель предложено называть прагматической информацией. Для измерения этой информации также предлагаются различные формулы, авторы которых отмечают, что в ряде конкретных случаев прагматическую информацию трудно отличить от семантической информации.
Одной из наиболее удачных и понятных является формула, предложенная А.А. Харкевичем в 1960 г. :
IП = log (р1/ р0), (9.7)
где IП – ценность информации (или прагматическая информация),
р0 – вероятность достижения цели до получения информации,
р1 – вероятность достижения цели после получения информации.
В этой формуле хорошо видно, что ценность имеется, если (р1> р0). Если же вероятность р1 после получения информации остаётся без изменений (р1= р0), то ценность полученной информации равна нулю ( log 1 = 0). А если вероятность достижения цели после получения информации ещё и уменьшилась (р1< р0), то мы имеем отрицательную прагматическую информацию (логарифм числа, меньшего единицы, всегда отрицателен). Можно сказать, что мы в этом случае получили то, что называется дезинформацией, которую, оказывается, тоже можно измерить.
Хорошо было бы, если кто-нибудь ещё и объяснил, как определить р1 и р0? В указанном источнике такого объяснения не даётся.
Как видим, в теории информации существуют проблемы, которые ещё не решены, а некоторые, возможно, ещё и не сформулированы. Читатель может заняться решением этих проблем, да и всех остальных, упомянутых в этой книге.
Поможем написать любую работу на аналогичную тему