О структуре информации

Шолохов Виталий
 
ИНФОРМАТИКА - отрасль науки, изучающая структуру и общие свойства научной информации, а также вопросы, связанные с ее сбором, хранением, поиском, переработкой, преобразованием, распространением и использованием в различных сферах человеческой деятельности. (Советский энциклопедический словарь, 1981 г.).

Известно (см. Урсул А.Д. "Отражение и информация", Изд-во
"Мысль", 1973), что развитие теории информации стимулировалось потребностями связи. Однако, распространение АСУ повысило внимание специалистов к основному понятию, связанному с информацией, - с понятием структуры знаний. Действительно, это есть основное понятие в то время, как количество информации – прототип понятия пропускная способность канала - уже есть интегральная характеристика. Сразу же стоит подчеркнуть, что любая структура - это модель реальности. И что среди моделей - самая адекватная объекту познания есть модель диалектического противоречия. Однако вопрос структуры диалектического противоречия (борьбы) разработан пока мало.

1. Энтропия в квантовой статистике

В квантовой статистике определено понятия "статистического веса". Натуральный логарифм от него и есть величина энтропии:

sigma = Ln (delta Г)

Выражение статистического веса (delta Г) через объем фазового пространства, то есть, произведение S импульсов (P) и S координат (Q), деленное на квант действия, позволяет записать формулу энтропии в виде:

                (delta P)*(delta Q)
sigma= Ln-----------------------------
                (2*pi*h)**S

где: S - число степеней свободы системы;
h - квантовое число;
pi- число 3.14 ...
Размерность действия - эрг*сек.
Представление энтропии в форме, которая соответствует формализму квантовой статистики, позволяет установить ряд новых свойств информации.
Если изменить единицу действия в а раз (метод Ландау), то

(delta P)*(delta Q) = (a**S)*(delta p)*(delta q)

Ln((delta P)*(delta Q)) = S*Lna + Ln((delta p)*(delta q))

Если a>1, то энтропия в новых переменных (p,q) становится меньше на величину S*Lna, что означает появление информации как раз на эту же величину. Это значит, что введение нового более крупного масштаба порождает информацию. (Отсюда польза классификаций, однако, изменению масштаба есть предел - область определения переменных). Для того, чтобы найти все возможные измения структуры описания, порождающие информацию, продифференцируем по времени формулу энтропии:

 d(sigma)/dt = d((Ln(delta Г))/dt =[d(delta Г)/dt]/(delta Г)

                d((delta P)*(delta Q))/dt    S*d(2*pi*h)/dt
 d(sigma)/dt = ----------------------------- - ---------------
                (delta P)*(delta Q)            2*pi*h

Второе вычитаемое правой строны равно нулю, так как h есть константа.
Энтропия в квантовой статистике является безразмерной величиной. В то же время по К.Шеннону информация была определена как отрицательное приращение энтропии, определенной с присущей ей размерностью. Квантовая статистика позволила нам установить, что эта размерность совпадает с размерностью действия. Поэтому более корректно написать, что объем фазового пространства равен:

(delta P)*(delta Q)*эрг*сек.

Размерность эрг есть [кГ*сек*м].
Размерность кГ есть [кг*м/сек**2].
Отсюда размерность действия эрг*сек есть [кг*(м**2)/сек].
Поэтому приращение энтропии должно представляться в виде суммы двух частей: первая часть относится к структуре описания системы, а вторая - к структуре размерности:

                d(delta P)/dt         d(delta Q)/dt
d(sigma)/dt = --------------- + ---------------- +
                delta P                delta Q

                delta m**2      delta кг      delta сек
S(------------------ + ------------ - ----------------)
                m**2        кг                сек

Размерность P есть [кг*м/сек].
Размерность Q есть [м].
Однако фазовое пространство может быть описано и другим "языком", а не только импульсами и координатами. Необходимо только, чтобы объем его имел размерность действия. В частности фазовое пространство может быть описано в терминах работы и времени. (Такое представление характерно для проблем каналов связи.) Тогда информация возникает от произведенной работы над системой и времени, необходимого для этого. Увеличение информации связано с изменением потенциала системы (объекта) проделать работу.

Еще вариант описания: сила*расстояние*время.

Что касается второй части изменения энтропии, связанной с размерностью, то информация возникает при уменьшении размерности описания системы (объекта), с уменьшением массы системы (объекта) - физическая суть этого пока не установлена. Информация убывает со временем - это известное явление "старения" информации. Информация имеет три компоненты: материальную, пространственную и временную. В приведенном описаниии заложено неявное предположение, что координаты описания выбраны ортогональными. Реально это не так. Поэтому размерность S вынести в общем случае за скобку нельзя. В результате в описании фазового пространства возникнут произведения вида:

(м1**2)*(м2**2)* ...

Эти произведения можно записать в другом порядке:

(м1*м2)*(м2*м1)*...

Такую запись можно интерпретировать как связь м1 с м2 и наоборот м2 с м1. Если значения м1 и м2 появляются во времени случайно, то м1*м2 можно интерпретировать как корреляцию м1 и м2. Наличие корреляционной связи (зависимости между переменными) математически ведет к уменьшению энтропии, так как м1*м2 меньше, чем [м1]*[м2]. Значит установление связи между переменными есть получение информации.
Обратим внимание: S -число степеней свободы. Размерность пространства - 3. Но S может быть больше 3. Одним из направлений увеличения числа степеней свободы является учет рефлексий (отражений) второго, третьего и т.д. порядков. Вопрос: в чем особенность рефлексий более высокого порядка?
Возможный ответ качественного порядка можно найти в статье журнала НТИ, сер.2, N12, 1985 г. (информационные системы) "Об "интеллектуальности" автоматизированных фактографических ИПС". Авторы: Б,В,Кристальский, В.Г.Войскунский, А.А.Раскина, И.С.Сидоров, В.И.Шарыгин. На стр. 8 написано: "когда требуется хранение некоторых знаний, полученных в результате логической обработки и обобщения отдельных фактов, "язык отношений" оказывается недостаточно "технологичным"."
Читая книгу (Роман Павлович Поплавский, ТЕРМОДИНАМИКА НФОРМАЦИОННЫХ ПРОЦЕССОЫ, М.,НАУКА, Главная редакция физико-математической литературы,1981 г.), можно сделать следующие выводы:
1) имеет место различие в размерности энтропии и количества информации; так на стр.66 есть ссылка на книгу Шамбадам П., Развитие и приложение понятия энтропии,Пер. с франц. В.Т.Хозяинова,М.,НАУКА, 1967 г.: "Безразмерной энтропией часто пользуются в статистической физике".
2) на стр.61 читаем: "... понимание статистической энтропии в процессе управления служит мерой УПОРЯДОЧЕНИЯ системы и называется негэнтропийным эффектом".
Так как это утверждение дается в ракурсе поиска связи энтропии, информации и негэнтропии то УПОРЯДОЧЕНИЕ является у автора синонимом информации. Возникает вопрос всякое ли упорядочение дает информацию?
Напомним, что процесс управления включает первичный информационный процесс - процесс физического измерения и собственно управления (например, механизмом вдвигающим заслонку в случае обнаружения молекулы со скоростью ниже средней - известная модель Демона Максвелла).
Изобразим СВЯЗЬ скорости X молекул и положения заслонки на рисунке:

 Заслонка---------
       ¦      ¦
___¦___¦_________
      ¦ 0    Vср V
 Рис.
 
Эта СВЯЗЬ является прямым следствием связи скоростей двух молекул - одна молекула случайная, а вторая - эталонная и движется со скоростью Vср.
Измерение есть КОРРЕЛЯЦИЯ со шкалой измерений (в данном случае - со шкалой скоростей).

2000