СИНЕРГЕТИКА И ИНФОРМАЦИЯ
Д.С. Чернавский

Слово - "синергетика" в переводе с греческого означает "совместное действие". Предложил этот термин профессор Штудгартского университета Герман Хакен в 1978г. По существу синергетика состоит из математических моделей явлений самоорганизации. Таким образом история повторилась: сама наука появилась раньше чем "слово" ее обозначающее. Тем не менее это "слово" тоже сыграло положительную роль в интеграции наук (как ценная условная информация). В данном случае интеграция произошла на более высоком профессиональном уровне, поскольку человек, не владеющий математикой, синергетиком считаться не может. Сейчас слова "синергетика" и "самоорганизация" часто выступают как синонимы

Глава 1.
ОСНОВНЫЕ ПОНЯТИЯ ДИНАМИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ

Сейчас имеется несколько (даже много) определений понятия "информация" и ни одно из них не является общепринятым. Это естественно, поскольку общепризнанные определения появляются в науке, когда она становится классической и перестает развиваться. О науке об информации этого, к счастью, сказать нельзя.
Нужно ли вообще определять это понятие? Вопрос не праздный, поскольку многие ученые придерживаются мнения о том, что "информация есть информация и ничто другое и этого достаточно". Действительно, до недавнего времени слово "информация" использовалось в обыденной жизни и в практических задачах (шифровка, связь и т.д.). Там было достаточно понимание о чем идет речь на интуитивном или сугубо прикладном уровне.

В последнее время стало ясно, что информация играет в науке фундаментальную роль. Возникла потребность понять, что же это такое? Попытки связать информацию с привычными понятиями материя или энергия успехом не увенчались. Стало ясно, "информация есть информация, а не материя и не энергия". (Н.Винер [1]). Отрицание не может претендовать на роль определения, вместе с тем в данном случае оно существенно, ибо указывает на отсутствие вещественного (и/или полевого) происхождения информации. Попытки связать информацию с энтропией тоже оказались безуспешными, хотя они продолжаются до сих пор (подробнее мы это вопрос обсудим позже). Поэтому вопрос об определении понятия "информация" остается открытым.

В книге И.В. Мелик-Гайказян [2] собрана коллекция определений слова "информация", которая обсуждалась в [3], ниже мы будем следовать этим работам.

  1.1 Определения понятия "информация  
  • "информация есть знания, переданные кем-то другим или приобретенные путем собственного исследования или изучения" [4];
  • "информация - это сведения, содержащиеся в данном сообщении и рассматриваемые как объект передачи, хранения и обработки" [5];
  • "информация в обыденном смысле - это сведения, известия, в научно-технических приложениях - то, что имеет на себе сигнал" [6].

Наряду с этими и подобными им определениями заметна тенденция связывать информацию со степенью упорядоченности той системы, которая получает информацию:

  • "информация означает порядок, коммуникация есть создание порядка из беспорядка или по крайней мере увеличение степени той упорядоченности, которая существовала до получения сообщения" [7]

Приводимые ниже определения в известной мере повторяются.

  • "информация - это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств" [8];
  • "информация...- одно из свойств предметов, явлений, процессов объективной действительности, созданных человеком управляющих машин, заключающееся в способности воспринимать внутреннее состояние и воздействие окружающей среды и сохранять определенное время результаты его; передавать сведения о внутреннем состоянии и накопленные данные другим предметам, явлениям и процессам" [9];
  • "информация - объективное содержание связи между взаимодействующими материальными объектами, проявляющееся в изменении состояний этих объектов" [10];
  • "информация есть текущие данные о переменных величинах в некоей области деятельности, систематизированные сведения относительно основных причинных связей, которые содержатся в знании как понятии более общего класса, по отношению к которому информация является подчиненной" [4];
  • "информация есть знание о каком-то особом событии, случае или о чем-либо подобном" [4];
  • "информацией являются все те данные о внешнем мире, которые мы получаем как путем непосредственного воздействия на наши органы чувств окружающих предметов и явлений, так и опосредованным путем через книги, газеты, рассказы других людей" [11];
  • "информацией называется всякое сообщение или передача сведений о чем-либо, что заранее не было известно" [12].

Среди философов популярны дефиниции, содержащие термин "отражение":

  • "информация в самом общем случае - это разнообразие, которое один объект содержит о другом, это взаимное, относительное разнообразие. С позиций теории отражения информация может быть представлена как отраженное разнообразие, как разнообразие, которое отражающий объект содержит об отраженном" [13];
  • "информация есть отражение в сознании людей объективных причинно-следственных связей в окружающем нас реальном мире" [14];
  • "информация - это содержание процессов отражения" [15];
  • "информация не тождественна отражению, а есть лишь его инвариантная часть, поддающаяся определению, объективированию, передаче" [16].
  • "информация - это философская категория, рассматриваемая наряду с такими, как пространство, время, материя. В самом общем виде информацию можно представить как сообщение, т.е. форму связи между источником, передающим сообщение и приемником, его принимающим" [17].

Определения такого типа можно суммировать в виде утверждения:

  • "информация есть отражение отображения наших соображений".

Такого определения в литературе нет. По стилю оно соответствует творениям Кузьмы Пруткова (например, его миниатюре "Спор древне-греческих ученых о прекрасном"). Тем не менее, по глубине и смыслу (если кто либо попытается его в нем найти), оно не уступает приведенным выше.
В философском энциклопедическом словаре (1983 г.) приведено: "Информация (от лат. informatio - ознакомление, разъяснение, представление, понятие) 1) сообщение, осведомление о положении дел, сведения о чем-либо, передаваемые людьми; 2) уменьшаемая, снимаемая неопределенность в результате получения сообщений; 3) сообщение, неразрывно связанное с управлением, сигналы в единстве синтаксических, семантических и прагматических характеристик; 4) передача, отражение разнообразия в любых объектах и процессах (неживой и живой природы)" [18].

В "Философской энциклопедии (1970 г.) во втором томе читаем: "Информация (от латинского informatio - осведомление) - см. Теория информации [19]. А в пятом томе в статье "Теория информации" вместо дефиниций приводятся различные представления о количественной оценке информации. Дефиниции того, что собственно значит термин "информация" просто не дается. Аналогичная ситуация с перекрестными ссылками в энциклопедии описана польским сатириком Станиславом Леммом по поводу определения понятия "сепульки".

В связи с трудностями философского определения понятия "информация" возникло убеждение в том, что оно не может быть отнесено к разряду философских категорий с заменой ею отражения (П. Копнин [20].

Особое место в коллекции определений занимают утверждения о том, что информация - это алгоритм:

  • "информация... есть план строения клетки и, следовательно, всего организма" [21]. Модификация этого определения содержится в работе Э. Янча,

трактовавшего информацию как "инструкцию" к самоорганизации в процессе эволюции биологических структур [22].
В работе В. Корогодина [23] приводятся определения:

  • "информация есть некий алгоритм" "совокупность приемов, правил или сведений, необходимых для построения оператора, будем называть информацией". Под словом "оператор" здесь понимается некое стороннее воздействие на систему, изменяющее спонтанный ход событий.

Большое число похожих и непохожих друг на друга определений понятия "информация" означает, что общепринятого определения ещё нет. Более того, нет даже четкого понимания сути этого явления, хотя потребность в нем уже назрела.

Сейчас область применимости информационного подхода существенно расширилась. Понятие "информация" используется при исследовании практически всех процессов самоорганизации (в частности биологической эволюции). При этом актуальным становится вопрос о возниковении информации и эволюции её ценности. Здесь без определения понятий уже не обойтись.

Выбор определения зависит от аппарата исследования, иными словами, определение должно быть конструктивным, то есть пригодным для использования в рамках аппарата. Мы будем использовать аппарат теории динамических систем, поскольку именно он лежит в основе науки о самоорганизации (то есть синергетики).
Этим условиям в наибольшей степени удовлетворяет определение информации, предложенное Генри Кастлером [24].
· Информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных.

Здесь слово "случайный" выделено, поскольку оно относится к процессу (способу) выбора и потому сужает область применимости определения. Вообще говоря. выбор может быть и не случайным (подсказанным), в этом случае говорят о рецепции информации. Случайный выбор соответствует генерации (то есть спонтанному возникновению) информации.

Поэтому слово "случайный" мы в определении информации опустим, но учтем его при обсуждении процессов генерации и рецепции.
Слово "запомненный" тоже выделено, поскольку в дальнейшем будет играть очень важную роль. Оно относится к фиксации информации. Вообще говоря выбор может и не запоминаться (то есть тут же забываться). Такой выбор будем называть микроинформацией. Запомненный выбор (в отличие от незапоминаемого) будем называть макроинформацией .

Во всех информационных процессах используется макроинформация (запоминаемая). Микроинформация используется главным образом в теор-физических спекуляциях по поводу "демона Максвелла" (о чем пойдет речь позже).

Поэтому далее под информацией мы будем понимать только запоминаемую информацию и приставку "макро" опустим.
Слова "возможных и равноправных" означают, что варианты выбора принадлежат одному множеству и априорные различия между ними не велики. В идеале варианты могут быть полностью равноправны и равновероятны, но могут и отличаться. В этом случае слово "равноправные" означает, что априорные вероятности различных выборов - величины одного порядка.

С учетом сказанного примем определение информации в виде:
· Информация есть запомненный выбор одного
варианта из нескольких возможных и равноправных. (Q)
Далее мы будем использовать это определение и ссылаться на него как на дефиницию (Q). Мы не настаиваем на оригинальности этого определения, более того, считаем, что по духу и смыслу оно принадлежит Г. Кастлеру (откуда и обозначение: Q - Quastler)
Определение (Q) отличается от предыдущих в следующем.

  • Во-первых оно четко, понятно и широко используется в естественных науках. Конструктивность его проверена на многих примерах [25-28]. Это определение не противоречит предыдущим, когда речь идет о реальных задачах. Так, определение информации как инструкции или оператора в конкретных случаях сводится к указанию, какой именно выбор следует сделать в том или ином случае.
  • Во-вторых согласно этому определению информация предстаёт как нечто конкретное и "приземленное", ощущение чего-то "сверхестественного и романтического в нем отсутствует, исчезает ореол "божественного". Можно считать это недостатком определения, поскольку именно это ощущение привлекает многих людей и вдохновляет их на подвиги (научные, не научные и лже-научные).
    Тем не менее, мы надеемся показать, что именно это определение позволяет понять такие тонкие явления как возникновение жизни и механизмы мышления с естественно-научной точки зрения. Иными словами - построить мост между естественными науками и гуманитарными.
  • В-третьих определение (Q) допускает введение меры - количества информации ( о чем пойдет речь позже).
    Подчеркнем еще одну особенность определения (Q).
    Слово "выбор" - отглагольное существительное. Его можно понимать в двух смыслах: как процесс и как результат процесса. Разница примерно такая же, как между судопроизводством и приговором суда. В определении Кастлера выбор понимается, как результат процесса, но не как сам процесс. Именно в этом смысле (то есть как "приговор") оно конструктивно и именно в этом смысле оно используется в реальных задачах.

Слово "процесс" в естественных науках прочно занято, оно означает изменение системы во времени (то есть "движение" её), которое в общем случае ещё не известно чекончится и кончится ли вообще. Согласно определению (Q) при этом информация еще отсутствует. Однако, информация как результат выбора не мыслима без прцесса выбора, как приговор не мыслим без суда. Отнюдь не любой процесс заканчивается выбором, Последнее возможно лишь в процессах определенного класса. Поэтому целесообразно ввести понятие "Информационный процесс", свойства которого мы обсудим позже.

В заключение этого раздела отметим, что в реальных задачах, как правило фигурирует не просто информация, а ценная или осмысленная информация (пока мы употребляем эти термины, апеллируя к интуиции читателя, определим их позже). Часто это упускают из внимания, полагая, что не ценная информация - вообще не информация. Последнее ведет к недоразумениям.

1.1.1. Количество информации

Эта величина была введена в 1948 году Клодом Шенноном [29] на примере текстового сообщения. Количество информации в сообщении, содержащем N символов IN, по Шеннону равно;

(1.1)

где M - число букв в алфавите, pi - частота встречаемости i-ой буквы в языке, на котором написано сообщение, знак " - " перед всей правой частью формулы (1.2) поставлен для того, чтобы Ii была положительной, несмотря на то, что logq pi < 0 ( pi < 1) . Двоичные логарифмы выбраны для удобства. При однократном бросании монеты М=2 ("орел" или "решка"), N = 1 и pi =1/2. При этом получаем минимальное количеств информации (I=1), которое называется "бит". Иногда в (1.1) используются натуральные логарифмы. Тогда единица информации называется "нат" и связана с битом соотношением: 1 бит = 1,44 ната.

Приведенные формулы позволили определять пропускную способность каналов связи, что послужило основанием для улучшения методов кодирования и декодирования сообщений, выбора помехоустойчивых кодов, словом, для разработки основ теории связи.

В этом примере текст можно рассматривать как результат выбора определенного варианта расстановки букв.
В общем случае, когда делается выбор одного варианта из n возможных (реализующихся с априорной вероятностью pi i=1,2,...n), количество информации выражается формулой:

; i=1,2, ... n.
(1.2)

Если все варианты равновероятны, то есть pi =1/n , то:
I= log2 n (1,3)

В частном случае сообщения из N букв из бинарного алфавита (М=2) число вариантов равно: n = 2N , количество информации I= N, что совпадает с формулой (1.1).
На этом примере удобно пояснить, что означает слово "равноправные" в определении (Q). Представим, что в тексте имеются символы, которые в алфавите вообще не содержатся (не "буквы"). Априорная вероятность такового считается очень малой ( pn+1 << 1/n) и в сумме (1,2) не учитывается, поскольку он выпадает из рассматриваемого множества.

Отметим, что формула (1,2) отражает количество информации, но не ценность её.

Поясним это на примере. Количество информации в сообщении, определяемое формулой Шеннона, не зависит от того или иного сочетания букв: можно сделать сообщение бессмысленным, переставив буквы. В этом случае ценность информации исчезнет, а количество информации останется прежним. Из этого примера следует, что подменять определение информации (с учетом всех её качеств) определением количества информации нельзя.

Исторически сложилось так, что определение количества информации бвло предложено раньше, чем определение самой информации. Для решения ряда практических задач это было полезно. Однако, в дальнейшем подмена понятий часто приводила к недоразумениям.

Обсудим в связи с количеством информации ещё два понятия: "Информационная тара" (термин введен В.И. Корогодиным [23]) и "Информационная ёмкость". Первый связан с мощностью множества, из которого выбираются варианты. Второй используется для физических систем, способных хранить информацию. По смыслу они близки друг другу.
Поясним смысл их на примере текста. Если любое сочетание букв в тексте является ценным, то количество ценной информации совпадает с полным количеством, но не может превышать его. Это значит, что любая передача сигналов и/или запоминающее устройство может содержать какое то количество ценной (или осмысленной) информации (не больше, чем (1,2) но может содержать и меньшее или не содержать вовсе. В этой связи количество информации в (1,2) можно назвать информационной тарой. Это понятие играет существенную роль при рецепции информации и/или при обработке её (в частности при перекодировке).

Приведем пример. Имеется текст на русском языке, содержащий Nr букв кирилицы (алфавит содержит 32 буквы). Перевод его на английский содержит Na букв латинского алфавита (26 букв). Русский текст - результат выбора определенного варианта из nr возможных (число вариантов порядка 32 в степени Nr ). Английский перевод - выбор определенного расположения латинских букв, который предопределен русским текстом (рецепция информации). Число вариантрв в английском текста порядка 26 в степени Na Количество ценной информации одинаково (если смысл не искажен), а количество информации различно.

Ниже, на примерах мы увидим, что процессы генерации, рецепции и обработки ценной информации сопровождаются "переливанием" информации из одной тары в другую. При этом, как правило. количество информации уменьшается, но количество ценной информации сохраняется. Иногда "информационные тары" столь различны. что можно говорить об информациях разного типа. Этот термин мы также будем применять к информациям, имеющим одинаковый смысл и ценность, но сильно различающихся количественно, то есть помещенных в разные тары.

В заключение раздела отметим, что сам Шеннон не разделял понятия информация и количество информации, хотя и чувствовал. что это к добру не приведет.
"Очень редко, - писал Шеннон, - удается открыть одновременно несколько тайн природы одним и тем же ключом. Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи нескольких магических слов, таких как информация, энтропия, избыточность... нельзя решить всех нерешенных проблем"[29].

1.1.2 Ценность информации.

Ранее эпитеты "ценная", "осмысленная" употреблялись без определения, в расчете на интуицию. В действительности эти понятия являются центральными в современной информатике. Уместно сделать ряд замечаний.
Ценность информации зависит от цели, которую преследует рецептор.
Известны несколько способов количественного определения ценности. Все они основаны на представлении о цели, достижению которой способствует полученная информация. Чем в большей мере информация помогает достижению цели, тем более ценной она считается.
1. Если цель наверняка достижима и притом несколькими путями, то возможно определение ценности (V) по уменьшению материальных или временных затрат, благодаря использованию информации. Так, например, сочетание хороших предметного и алфавитного каталогов библиотеки, наличие библиографических справочников сокращают время на составление списка литературы по конкретному интересующему нас вопросу.
Этот метод определения ценности предложен Стратоновичем [30].
2. Если достижение цели не обязательно, но вероятно, то используется один из следующих критериев:

а) мерой ценности, предложенной М.М.Бонгартом [31] и А.А.Харкевичем [32], является:

V = log2 (P/p),
(1.3)

где p - вероятность достижения цели до получения информации, а P - после.
Априорная вероятность p зависит от информационной тары или. что то-же, полного количества информации I в (1,2): p = 2-I . Так, если до получения информации все варианты равновероятны, то p = 1/n (где: n - число вариантов, а I = log2 n).
Апостериорная вероятность Р может быть как больше, так и меньше р. В последнем случае ценность отрицательна и такая информация называется дезинформацией. Примером последней может служить указатель на разветвлении дорог, который по каким то причинам повернут в другую сторону. Таким образом вероятность Р находится в пределах 0 < Р <1, и, соответственно, - <V< Vmax
б) мерой ценности, предложенной В.И.Корогодиным [23], является величина

V = (P-p) / (1-p)
(1.4)

Она обладает теми же свойствами, что ценность (1,3), но изменяется от 0 до 1.
Мы далее будем использовать ценность, определенную в (1,4) поскольку оно удобнее и более популярно.
ii) Согласно (1.3) ценность информации зависит от величины p - вероятности достижения цели до получения информации, то есть, от того, какой предварительной (априорной) информацией он уже располагает рецептор. Предварительная осведомленность называется тезаурусом. Если таковая отсутствует, то априорная вероятность во всех вариантах одинакова и равна p=1/n (где n - число вариантов). В этом случае величина p играет роль нормировочного множителя. Если при этом, после получения информации цель достигается наверняка (P=1), то ценность этой информации максимальна и равна V= Vmax =log2 n, т.е. совпадает с максимальным количеством информации в данном множестве (в данной таре). Это совпадение не случайно, именно для этого была выбрана форма (1.3), при этом ценность информации можно понимать как количество ценной информации.

iii) Количество информации, имеющий нулевую ценность, как правило, не мало по сравнению с количеством информации, имеющих хоть какую-то ценность (положительную или отрицательную). Например: пусть цель - узнать прогноз погоды, а по радио (или телевизору) передают : кто выиграл в футбол, кто в теннис, что случилось в Санта-Барбаре и т.д. Для Вас все это имеет нулевую ценность, хотя для другого, возможно, ценна наоборот именно эта информация.
Отсюда следует, что ценность информации субъективна.

Существует информация которая , на первый взгляд, ни для кого и никогда не может стать ценной. Пример: в тексте наборщик переставил буквы так, что текст потерял всякий смысл. Количество информации сохранилось, но ценность его для кого бы то ни было, стала равна нулю.
Так появляется понятие "осмысленность". В отличие от "ценности" это понятие претендует на объективность, что основано на следующем положении: в информационной таре, куда вмещена данная информация, можно выделить определенное количество информации, которая никогда ни для кого ни для какой -либо цели не понадобится. Тогда эту информацию называют лишенной смысла. Объективность критерия основана на утверждениях : "ни для кого, никогда, ни для какой цели".
Утверждение сильное, абсолютное и, как таковое, конечно, не верное. Так, в приведенном примере можно сказать, что абракадабра, которую сотворил наборщик содержит ценную информацию для психиатора, цель которого - поставить наборщику диагноз. Поэтому утверждение "ни для кого" следует принимать: ни для кого среди людей, которых интересует смысл текста и ничего более. Однако, и в этом случае осмысленность текста зависит от тезауруса. Так, например, наборщик набрал слова "трах-тибидох-тах-тах". На первый взгляд это бессмыслица, однако, люди сведующие знают, что смысл в этих словах есть, поскольку именно с их помощью старик Хаттабыч творил чудеса.
Мы остановились на этом вопросе столь подробно по следующим причинам.
Во-первых в традиционной информатике, основанной на математической теории связи, не существует и не обсуждаются вопросы о возникновении ценной информации и ее эволюции. Ценность информации обсуждается в предположении о том, что цель задана извне. Вопрос о спонтанном возникновении цели внутри самой системы там не ставится.
Сейчас в связи с развитием науки о самоорганизации (синергетики) именно эти вопросы стали актуальными, особенно в проблеме биологической эволюции. Именно они являются предметом динамической теории информации.
При этом, как будет показано позже, ценность информации эволюционирует: не ценная информация становится ценной, бессмысленная - осмысленной и наоборот.
Во-вторых, люди невольно отождествляют просто информацию с ценной и (или осмысленной), что приводит к недоразумениям. Эта тенденция проявляется в коллекции определений информации.
Действительно, если отождествить понятия информация и ценная информация, то дать объективное и конструктивное определение такому феномену, в принципе невозможно. Напротив, разделив эти понятия, можно дать конструктивное определение каждому из них, оговорив меру условности и субъективности.

1.2. Рецепция и генерация информации.

Рецепция информации - выбор, продиктованный свыше, т.е. по указанию кого- либо или чего - либо. Иными словами, речь идет о выборе, сделанном на основании информации, которую данный человек (или система) принимает (название происходит от recept - принимать).
На языке теории динамических систем рецепция информации означает перевод системы в одно определенное состояние независимо от того, в каком состоянии она находилась раньше. В современных технических устройствах рецепция, как правило, осуществляется с помощью электрического или светового импульсов. Во всех случаях энергия импульса должна быть больше барьера между состояниями.
В теории динамических систем такое переключение за счет сторонних сил называется силовым. Наряду с ним существует и используется другой способ переключения - параметрический. Суть последнего в том, что на некоторое (конечное) время параметры системы изменяются настолько, что она становится моностабильной (то есть одно из состояний становится неустойчивым, а затем исчезает). Независимо от того, в каком состоянии находилась система, она попадает в оставшееся устойчивое состояние. После этого параметрам возвращают их прежние значения, система становится бистабильной, но остается в новом состоянии.
Параметрическое переключение, как и силовое, является рецепцией информации; отличаются лишь механизмы переключения, то есть рецепции. В современной электронике применяется преимущественно рецепция информации за счет силового переключения. В биологических системах, напротив, преимущественно используется параметрическое переключение. Последнее может быть достигнуто неспецифическими факторами (изменением температуры, рН и др.). Иными словами, неспецифические факторы могут играть роль переключателей - носителей рецептируемой информации.
Генерация информации - выбор. сделанный случайно, без подсказки извне.
В обоих случаях, как рецепции, так и генерации, способность воспринимать или генерировать зависит от информации, которую уже содержит рецептор или генератор.
В связи с этим уместно обсудить иерархию уровней информации в развивающихся системах.

1.2.1. Иерархия информационных уровней

Сперва приведем пример. Учась говорить, ребенок рецептирует информацию об языке от своего окружения, преимущественно от родителей. Овладев языком и грамотностью молодой человек оказывается перед выбором свой будущей специальности. Сделав свой выбор и овладев специальностью, человек в дальнейшем может неоднократно выбирать, в каком направлении приложить усилия. При этом новые выборы возможны только на основе прежних, более ранних, так как делаются человеком, владеющим не только языком, но и специальностью. Каждый выбор делается либо случайно, либо под влиянием внешних событий, которые часто, на первый взгляд, не относятся к делу.
Ценная информация, которой мы пользуемся повседневно и которую порой генерируем, принадлежит верхнему уровню. Для ее восприятия или генерации необходимо владеть языком (хотя бы одним) и знаниями (например, математикой, информатикой и т.д., в зависимости от профессии), т.е. обладать тезаурусом.
Каждый раз выбор делается с целью, которая ставится в данный момент, она и определяет ценность информации. Однако, все промежуточные, сиюминутные цели подчинены одной главной цели.
Какова она? Иными словами, какова цель жизни и в чем счастье?
Этим вопросам посвящены тома художественной и философской литературы. Мы тоже обсудим их, но позже, когда речь пойдет о возникновении жизни и появлению у живых существ способности к целеполаганию.

Возвращаясь к вопросу об иерархии информаций, отметим , что тезаурус - информация, содержащаяся в системе на данном уровне, необходимая для рецепции (или генерации) информации на следующем уровне.
Поясним сказанное на языке теории динамических систем. При этом придется использовать понятия и термины, смысл которых будет пояснен в следующей главе. Тем не менее. считаем это целесообразным ради слитности изложения.
В развивающейся системе необходимость выбора возникает, когда она приходит в неустойчивое состояние, т.е. находится в точке бифуркации (для определенности будем считать эту бифуркацию I-ым уровнем). Выбор делается из множества различных вариантов, мощность и характер которого определяется типом бифуркации. В простейшем случае выбор делается из двух вариантов.

После сделанного выбора система развивается устойчиво вплоть до следующей бифуркации. Здесь снова делается выбор, но уже из другого множества вариантов (II-ой уровень). Это множество зависит от результата первого выбора. Если система в своем развитии ещё не дошла до первого этапа. то вопрос о выборе варианта на втором этапе вообще теряет смысл. Иными словами, информация первого уровня является тезаурусом для второго и всех последующих уровней.
Отсюда ясно, какую роль играет тезаурус в процессе генерации ценной информации. Без него отсутствует множество, из которого надлежит сделать выбор. Выбор из любого другого множества будет иметь нулевую ценность.
Несколько сложнее обстоит дело в случае рецепции информации. В простейшем случае информация, поступающая извне, определена на том же множестве вариантов, из которого делается выбор. Именно так обстоит дело в упомянутом выше примере рецепции языка от родителей. Необходимый для этого тезаурус у ребенка присутствует от рождения.

На более высоких уровнях информация, поступающая со стороны, имеет отношение ко всем уровням, а не к данному. Тезаурус необходим для того, чтобы выделить из неё ценную информацию, относящуюся к данному уровню. Для иллюстрации этого приведем пример, (заимствован у Ю.М. Шрейдера, цитируется по [31]).
"Имеется второй том "Курса высшей математики" В.И.Смирнова. Эта книга содержит богатую информацию. Какова ее ценность? В ответ приходится спросить - для кого? Для дошкольника ценность этой информации нулевая, так как он не обладает достаточной подготовкой, достаточным уровнем рецепции и не в состоянии эту информацию воспринять. Для профессора математики ценность тоже нулевая, так как он все это хорошо знает. Максимальной ценностью эта информация обладает для студентов того курса, которым книга предназначена, - поскольку речь идет об очень хорошем учебнике".
В этом примере множество, на котором сформулирован курс высшей математики, , к уровню дошкольника не относится, поскольку он ещё не дорос до этого. Что касается профессора, то в примере Шрейдера он знает всё, и никаких целей перед собой уже не ставит. Поэтому любая информация, в том числе и учебник Смирнова, имеет для него нулевую ценность.

Особого внимания заслуживает ситуация, когда множество вариантов на следующем уровне ещё не сформировано, хотя цель уже поставлена. Именно так обстоит дело, когда речь идет об исследовании и описании нового явления. Тогда поступающая извне информация не помогает сделать выбор (поскольку выбирать ещё не из чего), но может помочь сформировать нужное множество. В упомянутом примере этому соответствует четвертый участник - ученый. В отличие от первых трех (дошкольник, студент, профессор), он не только знает учебник, но и может ставить вопросы, ответы на которые в учебниках отсутствуют. Из разговоров с коллегами и чтения книг ученый получает большое количество посторонней информации, которая относится к другим задачам. При достаточном тезаурусе ученый может рецептировать эту информацию, переработать её и сформулировать нужное множество, содержащее всего два варианта, таких, что выбор одного из них приближает к достижению цели. В науке это называется постановкой вопроса. Когда вопрос поставлен (множество сформулировано), та же посторонняя информация может помочь выбрать вариант, то есть генерировать ценную информацию. Из этого примера видно, что рецепция и генерация информации тесно связаны друг с другом. Позже мы рассмотрим этот вопрос детальнее на примере игры в рулетку.

1.2.2. Условная и безусловная информация

Объект, зафиксировавший ту или иную информацию, является ее носителем. Информация, не будучи "ни материей, ни энергией", может существовать только в зафиксированном состоянии. При этом способы фиксации (записи) могут быть условными, не имеющими отношения к семантике. Отсюда возникает необходимость деления информации на условную и безусловную. Пример условной информации - код, которым пользуются, чтобы зашифровать сообщение. Кодом называется соответствие между условными символами и реальными предметами (и/или действиями). Выбор варианта кода производится случайно и запоминается как передающей, так и принимающей стороной. Ценной кодовая информация может быть только если ею владеет несколько объектов (человек), то есть эта информация связана с коллективным поведением (общественной деятельностью).

Условной является также информация, содержащаяся в алфавите и словарном запасе языка.
Кодовой является и условная генетическая информация, о которой речь пойдет в 4-ой главе. Генетику удается свести к формальному описанию явлений в терминах языка, причем весьма жесткого и закрытого. В словаре этого языка не происходит изменений, ибо любые изменения словаря приводят к летальному исходу для носителя информации. Замечательно, что в отличие от обычных языков (специалисты насчитывают 3000 различных разговорных языков!) генетический код един. Его структура одинакова как для человека, так и для растений.

Безусловной является информация о реально происходящих событиях. Она не нуждается в согласовании и может рецептироваться информационной системой даже без участия человека. Эта информация не возникает случайно, ибо она рецептируется из окружающей действительности.
Например, утверждение о том, что в такое-то время в таком-то месте произошло землетрясение является безусловной информацией. В основе самого события - случайность, выбор, но зафиксировано оно с помощью сейсмографов многими сейсмостанциями Земли вполне закономерно (приборы настроены на запись колебаний почвы). Наблюдатели узнают о событии из сейсмограмм. Рецепция события таким образом не содержит элемента случайности.
Для пояснения сказанного приведем еще один пример. Допустим, что один астроном открыл, наблюдая, новую звезду - это безусловная информация. Другой астроном ничего не открывал, но придумал для нее название - это генерация условной информации. Часто бывает так, что второй оказывается более популярен и именно ему приписывается честь открытия.

Сообщения могут содержать как условную, так и безусловную информацию, разделить их не всегда просто. Здесь играют роль следующие обстоятельства.
Первое. Условная информация имеет тенденцию к унификации, что естественно, поскольку при этом возрастают ее ценность и эффективность. Эта тенденция более выражена на нижних уровнях как эволюционно более древних. Так, например, математический формализм унифицирован на нижних уровнях иерархической информационной лестницы.
Второе. Унифицированная условная информация часто воспринимается как безусловная. Так, унифицированная на нижнем уровне математика, включающая арифметику, создает мнение о том, что "иначе не может быть". Однако унификация математического аппарата произошла в результате эволюции. При этом были в употреблении варианты, отличающиеся от современного.

На более высоких уровнях существует несколько различных вариантов описания одних и тех же объектов: континуальное описание, динамические уравнения, вероятностные модели, клеточные автоматы и т.д. Во многих случаях вопрос о предпочтении того или иного варианта остается открытым. Поэтому выбор математического аппарата - акт генерации ценной условной информации.
В принципе математика - аксиоматизированная область знаний, что делает ее единой наукой, имеющей свою логическую структуру. Идеал языка такой науки - это система правил оперирования со значками. Чтобы задать "исчисление", необходимо составить алфавит первичных элементов - знаков, задать начальные слова исчисления, построить правила получения новых слов. Математическая мысль и система кодов неразделимы. Символы имеют для математика принципиальное значение. Так, методологические установки Гильберта согласно Клини основаны на том, что символы сами по себе являются окончательными предметами и не должны использоваться для обозначения чего-либо, отличного от них самих.

Математическое знание содержится в кратких высказываниях - математических структурах. Возникает вопрос: содержат ли новую информацию доказательства теорем? Вопрос не тривиален. С одной стороны, доказательство теорем приводится как классический пример творчества (то есть генерации информации). С другой стороны, теорема - следствие аксиом и, следовательно, не содержит новой (по сравнению с аксиомами) информации. Доказательство теоремы есть извлечение ценной информации из аксиом, то есть рецепция. Тем не менее, творческий элемент при доказательстве теорем, конечно, присутствует. Он связан с выбором пути доказательства. Как правило теорема может быть доказана несколькими способами. Выбор наиболее простого и доступного пути - генерация ценной информации.
Третье. Наиболее интересным и острым остается вопрос об условности (или безусловности) информации в естественных науках. Принято думать, что, изучая природу, мы рецептируем безусловную, вполне объективную информацию. Это действительно так, если речь идет об экспериментальных качественных результатах.
Например, информация о том, что одноименные заряды отталкиваются, а разноименные притягиваются, является безусловной. Математическое описание этого явления в виде закона Кулона было сформулировано на определенном языке (векторной алгебре). Выбор языка (кода) всегда условен. Можно было бы описать это явление на языке дискретных множеств или игр автоматов. Поэтому выбор математического языка - пример генерации условной информации.
Научное творчество в области естественных наук содержит два необходимых элемента: рецепцию безусловной информации от природы и генерацию условной (теоретической) информации. Успех зависит от того, в какой мере выбранный алгоритм описания уже принят в научном сообществе, то есть от тезауруса этого сообщества.

1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации.

Начиная с работ по классической теории информации, установилась традиция связывать информацию с термодинамической величиной - энтропией. Начало этой традиции было положено Н. Винером, увидевшем действительно бросающееся в глаза сходство формул Шеннона для количества информации I и формулы Больцмана для энтропии S. Различие в размерности устранялось выбором единиц измерения I, которое можно измерять и в энтропийных единицах.
В дальнейшем появилось слово "негоэнтропия" и утверждение: "информация есть негоэнтропия" Эти слова многократно повторялись в научных статьях, книгах и даже в учебниках. У людей, занимающихся конкретными проблемами информатики эти слова вызывали (и продолжают вызывать) недоумение и раздражение (внутренний дискомфорт), потому, что "что-то в здесь не так".

В этом разделе мы обсудим что именно "не так" и почему.
Согласно определению (Q) информация есть запомненный выбор (т.е. макроинформация).
На физическом языке "запомнить", то есть зафиксировать информацию, означает привести систему в определенное устойчивое состояние. Ясно, что таких состояний должно быть не меньше двух. Каждое из них должно быть достаточно устойчивым, в противном случае система может самопроизвольно выйти из того или иного состояния, что равносильно исчезновению информации.

Простейшая запоминающая система содержит всего два устойчивых состояния и называется триггер (переключатель). Этот элемент играет важную роль во всех информационных системах.
В электронике в качестве запоминающего триггера используют магнитные домены (размеры порядка микрон), а также электрические и светочувствительные ячейки (тоже микронных размеров).

Свойством запоминания могут обладать только макроскопические системы, состоящие из многих атомов. Запомнить что-либо, располагая одним атомом, невозможно, поскольку атом может находиться лишь в одном устойчивом (основном) состоянии. То же относится и к простейшим молекулам. Наименьшая по своим размерам самая простая система, которая может запомнить один вариант из двух возможных, это молекула, способная находиться в двух различных изомерных состояниях при условии, что спонтанный переход из одной формы в другую может происходить так редко, что его вероятностью практически можно пренебречь. Примером таких молекул могут служить оптические изомеры, обладающие "левой" или "правой" киральностью, различающейся по способности содержащих их растворов вращать вправо или влево плоскость поляризации света, пропускаемого через растворы. К таким оптическим изомерам относятся сахара и аминокислоты, содержащие десять-двадцать атомов.
Молекулярными триггерами могут служить макромолекулы (в частности, белковые молекулы), способные существовать в нескольких (по крайней мере двух) конформационных состояниях.

Системы более высокого иерархического уровня, такие как клетка, популяция, организм, мозг, разумеется, тоже могут быть запоминающими. Механизм запоминания при этом не всегда сводится к генетическому (то есть макромолекулярному). Например, клетка (в частности, нервная), способная функционировать в двух и более устойчивых состояниях, уже является запоминающим устройством. Тоже можно сказать о популяции и организме. Механизм запоминания в нервных сетях (в частности, в мозге) имеет свои особенности, которые мы обсудим позже.
Важную роль играет время запоминания. В устойчивых динамических системах оно формально бесконечно. Переключить триггер из одного состояния в другое можно лишь за счет стороннего сигнала, что равносильно рецепции (см. выше). В реальности возможно спонтанное переключение (т.е. забывание исходного состояния) за счет случайных флюктуаций. Вероятность спонтанного переключения в единицу времени зависит от величины флюктуаций и высоты барьера F# между состояниями. В термодинамически равновесных (по микроскопическим степеням свободы) условиях эта вероятность равна:

Где: 1013 сек-1 - частота тепловых флюктуаций. Время запоминания Т= 1/W. При F# порядка 1.5 эВ время Т= 3·105 лет, что практически можно считать бесконечным.
Мы остановились на этом столь подробно, чтобы продемонстрировать:
Во-первых, макроинформация может содержаться только в макрообъектах.
Во-вторых, граница между макро и микро объектами проходит на уровне макомолекул, размеры которых порядка нанометров (10-9 метра или 10-7 сантиметра). Современная наноэлектроника подбирается к этой границе.

Наряду с макроинформацией выше упоминалось о микроинформации, которой соответствует выбор принципиально не запоминаемой. Примером последнего может служить выбор одного микросостояния идеального газа в состоянии термодинамического равновесия. Выбор микросостояния означает, что нам удалось в определенный момент времени t изменить координаты и скорости всех молекул с определенной точностью. Разумеется, это возможно лишь умозрительно, но и в этом случае выбранное состояние тут же (за время t~10-13 сек) , будет забыто, то есть сменится другим микросостоянием, выбранным по закону случая. Это свойство - забывать предыдущее микросостояние - является фундаментальным для эргодических систем. в которых средние по времени совпадают со средними по ансамблю. Именно оно понимается под словами "молекулярный хаос" и именно оно лежит в основе термодинамики.
Количество микроинформации в данном примере велико, согласно (1.3) оно равно:

Imicro=log2n=-log2W,
(1.5)

где, nmicro число микросостояний , W=1/nmicro - вероятность случайно выбрать какое-либо одно из них. Количество макроинформации в том же примере, напротив мало; именно Imаcro= log2 nmаcro = 0, поскольку макросостояние равновесного газа единственно, то есть nmаcro = 1.
Разумеется, макроинформация не может быть ни ценной ни смысловой и вообще не может использоваться, как информация в реальной жизни. Тем не менее она широко обсуждается и является источником многих недоразумений.
Причину тому следующий:
Во-первых, формула (1.5) следующая из формулы Шеннона, очень похожа на формулу Больцмана для энтропии
.

(1, 6)

Где k=1,38 10-23 Дж/град. - постоянная Больцмана.
Поэтому микроинформация и энтропия пропорциональны друг другу:

(1.7)

В действительности формула (1.7) представляет собой связь между энтропией и микроинформационной емкостью (или "тарой"), поскольку сравниваются энтропия до измерения (S(t)) и количество микроинформации после измерения I(t+t).
Можно , (только умозрительно) оценить энтропию сразу после измерения, то есть до того как наблюденное состояние разрушится (т.е. в течение t @ 10-13 сек). С точки зрения термодинамики нахождение макросистемы в одном микросостоянии - колоссальная флюктуация. Энтропия ее много меньше равновесной энтропии S (до измерения). Именно:

S(t+t)=k ln W(t1t+t)
(1.8)

где W(t1t+t) - условная вероятность того, что в момент t+t будет наблюдено то же макросостояние, которое реализовалась в момент t. Ясно, что W(t1t+t)=1 и S(t+t)=0.
Отсюда следует, что в результате измерения энергия уменьшалась на величину
DS=S(t+t)-S(t)=-S(t)
Количество информации до измерения, когда выбор еще не сделан Imicro(t)=0 , поэтому прирост количества макроинформации D Imicro=+ Imicro
Отсюда делается вывод:

(1.9)

Интерпретация выражения (1.9) такова: при увеличении информации о системе ее энтропия уменьшается. Отсюда же происходит крылатое выражение "информация есть негоэнтропия".
Во-вторых микроинформацию и энтропию связывает еще "демон" Максвелла.
Демон впервые появился более ста лет тому назад (в 1871 г.) в книге К. Максвелла "Теория теплоты", как парадокс, демонстрирующий возможность арушения второго начала термодинамики.
Напомним суть дела. Имеются два сосуда с газом при исходно одинаковой абсолютной температуре Т. Они разделены перегородкой, в которой имеется отверстие с заслонкой. Заслонкой управляет "демон", он фиксирует скорости и в одну сторону пропускает только быстрые молекулы, а в другую - только медленные. В результате через некоторое время в одном сосуде температура повышается, а в другом - понижается. Таким образом, тепло переходит от холодного тела к более теплому без совершения работы (на первый взгляд) - второе начало нарушается и энтропия уменьшается.

Разрешение парадокса было предложено известным физиком, много сделавшем дл развития теории конденсированных сред, Леоном Бриллюеном . Он показал, что даже демон бесплатно ничего не делает (так уж устроен наш мир). Для фиксации скорости молекулы, т.е. получению информации, демону нужно заплатить энергией, не меньшей, чем энергия теплового кванта kT (при комнатной температуре Т=300оК, kT= 0,025 эВ). Энергия kT/1,44 - минимальная цена одного бита микроинформации (1,44 - коэффициент перехода от натуральных логарифмов к двоичным). После этого стало ясно, что демон совершает работу и как раз такую, которая необходима для охлаждения одого тела и нагревания другого. По существу любой домашний холодильник работает как демон и за это тоже нужно платить.
При этом демон получает информацию равную уменьшению энтропии. Так возникло утверждение: "информация есть негоэнтропия". Приставку "микро" при этом по недосмотру опустили, а зря, поскольку именно это привело к серьезным недоразумениям.
Разрешение парадокса всегда вдохновляет. Поэтому среди физиков - последователей Бриллюена - демон и слово "негоэнтропия", как синоним информации, стали часто употребляться - возник миф о негоэнтропии.

Справедливости ради, следует заметить, что Бриллюэн различал свободную информацию (не давая ей, к сожалению, четкого определения) и связанную информацию, возникающую, когда возможные случаи "могут быть представлены как микросостояния физической системы". И далее: "Только связанная информация будет представляться связанной с энтропией". Отсюда ясно, что, во-первых, на деле Бриллюэн не приписывал любой информации свойства негэнтропии, а во-вторых, ограничивал свое рассмотрение только той частью информации, которая связана с микросостояниями. Так что к недоразумению привели не сам Бриллюен, а его эпигоны.
После этих разъяснений формализм Бриллюэна выглядит очень просто и результаты расчетов соответствуют (1,9).
Реально ни физического, ни информационного содержания термин "негэнтропия" не имеет (он от "демона"). Что же касается той информации, которой занимался Бриллюэн, то сам он называл ее "связанной"; в отечественной литературе принят термин "микроинформация".

Микроинформация существенно отличается от макроинформации, поскольку она не имеет важного для информации свойства фиксируемости, ибо незапоминаема.
Макроинформация существенно отличается от микроинформации не только качественно, но и количественно. Это ясно, если вернуться от энтропийных к обычным единицам измерения информации - битам.

Iмикро = - (DS/k)log2e = - 1,44 DS/k
(1.12)

Iмикро - огромное число, ибо k = 1,38 Ч10-23 Дж/К (DS < 0) ,
Iмaкро << - (DS/k)log2e
Причина этого неравенства в том, что запоминание - процесс макроскопический и диссипативный, он сопровождается большим изменением энтропии.
Количественное различие ясно из следующих соображений.
Формула (1.3) справедлива как для микро-, так и для макроинформации, но существенно различны числа возможных вариантов n . В случае макроинформации n - число устойчивых состояний системы, оно, как правило, невелико. В случае микроинформации n - полное число микросостояний, (неустойчивых, то есть микроскопических) - оно огромно.

Яркий пример тому приведен в книге Блюменфельда "проблемы Биофизики" [25]. Показано, что вся информация, заключенная в человеке (включая ДНК, белки, а также мысли, как тайные, так и явные), будучи выраженной в энтропийных единицах, соответствует энтропии испарения одного пол-литра кипяченой воды (на самом деле, не так уж важно, чего именно)
Всякий раз, когда в акте творчества создается новая ценная информация, мы имеем дело с макроинформацией. Из книг, лекций, природы мы рецептируем макроинформацию. Вообще в реальной жизни, в частности, в биологии всегда используется макроинформация, которую мы в предыдущих и в последующих разделах называем просто информацией.

Любое изменение макроинформации, увеличение или уменьшение, сопровождается ростом энтропии, что естественно, поскольку эти процессы необратимы. Количественной связи между изменениями макроинформации и физической энтропии не существует. Энергетическая цена макроинформации, конечно, существует, она определяется энергией, диссипирующей в процессе запоминания и зависит от конкретных условий, в частности от времени на которое информацию нужно запомнить, то есть от свойств ячейки памяти. Эта энергия, приходящаяся на один бит информации, заведомо (и много) больше кТ/1,44 - энергии одного бита микроинформации.
Таким образом, слово негоэнтропия - появилось в результате непониманя роли условия запоминания информации. Слово негоэнтропия - пример условной информации, которая в действительности не ускорила, а, напротив, затруднило исследование информационных процессов, то есть оказалась на деле дезинформацией. Именно от этого предостерегал Шеннон, слова которого мы уже приводили выше.
В заключение раздела обсудим ещё одно недоразумение, связанное с понятием "порядок". Часто можно встретить утверждение о том. что информация - мера упорядоченности, оно фигурирует даже в коллекции определений.

Это утверждение воспринимается как объективное (безусловное). На самом деле требуется уточнить. какая именно информация (ценная или нет, условная или безусловная) имеется в виду. Надо уточнить также, что понимается под словом "порядок". Без этих уточнений утверждение теряет смысл.
В действительности в приведенном утверждении неявно предполагается, что информация ценная, но в этом случае она наверняка условная, ибо зависит от цели.
Понятие "порядок" тоже целесообразно. Так, если цель - прогноз, то упорядоченными следует считать системы, развивающиеся устойчиво и допускающие предсказание результатов. Именно в этом смысле в физике хаотические системы считаются беспорядочными и энтропия здесь выступает как мера беспорядка.
В более общем случае, когда преследуются иные цели, меняется и смысл слова "порядок".
Для иллюстрации приведем пример из жизни.

Пусть некто (писатель или ученый) пишет книгу. Для этой цели он расположил материалы в определенном порядке: рукопись - на столе, черновики - под столом, статьи и книги - на стуле и диване. В кабинет входит жена и приходит в ужас, поскольку у неё другие цели и другое представление о порядке. Представьте, что ученый отлучился на время, а когда вернулся жена встретила его радостными словами: "я, наконец-то навела порядок в твоем кабинете". Представить состояние ученого в этот момент уже не трудно.
Из этого примера следует, что порядок - понятие условное в той же мере, как и ценная информация.
Утверждение: "Ценная информация есть мера условного порядка" имеет четкий смысл, оно правильно и. более того, банально. Отсюда ясно, что искать объективную меру объективного порядка бессмысленно, ни того, ни другого просто не существует.
В действительности проблема порядка и хаоса имеет много аспектов и к ней мы ещё вернемся в гл. 7.
В заключение главы отметим, что:
Все (или почти все) определения, приведенные в "коллекции" имеют смысл и относятся к разным сторонам информационного процесса.
Объединить эти определения, увидеть общую картину информационного процесса и понять суть феномена информации позволяет теория динамических систем, или, что то же, синергетика.
Это не случайно, развивающиеся сложные системы имеют много аспектов. В гуманитарных науках это свойство предстоит как многоликий образ - термин яркий эмоциональный, метафорический, но не четкий. В синергетике то же предстоит вполне конкретно, как мультистационарность [27] или, что то же, многовариантность [34], многомодальность [35], В синергетике эти понятия формулируются четко и конструктивно, так, что с ними можно работать

Глава 2. УСТОЙЧИВОСТЬ ДИНАМИЧЕСКИХ СИСТЕМ И ПРОБЛЕМА НЕОБРАТИМОСТИ.

Одна из особенностей нелинейной динамики открытых неравновесных систем (синергетики) состоит в том, что она имеет дело с неожиданными событиями. Эти события проявляют себя как качественные скачкообразные изменения состояния системы или режима ее развития в ответ на монотонное и медленное изменение параметров. При анализе всякий раз выясняется, что причиной неожиданности оказывается неустойчивость.

2.1. Динамические уравнения и фазовые портреты нелинейных систем:

В этом разделе мы приведем основные сведения и поясним понятия теории динамических систем (или, что то же , качественной теории дифференциальных уравнений). Полное изложение можно найти в соответствующих математических учебниках [1-5]. Популярное изложение содержится в книгах [6 - 9]
Теория динамических систем, основана на дифференциальных уравнениях вида:
dui/dt = (1/ti) Fi(u1 , u2, ...un) , (2.1)
где ui - динамические переменные, например, концентрации реагирующих веществ, Fi(ui) - нелинейные функции, описывающие их взаимодействие. ti - характерные времена изменения переменных ui , i = 1, 2, ... n.
Уравнения (2.1) являются динамическими, то есть при задании конкретного вида функции Fi их решения, вообще говоря, однозначно определяются начальными условиями Казалось бы в такой ситуации ничего неожиданного быть не должно. Тем не менее характерные для синергетики неожиданности здесь возникают, когда решения динамических уравнений теряют устойчивость.

Анализ устойчивости уравнений движения (изменения), а также устойчивости стационарных состояний основан на исследовании поведения малых отклонений от соответствующего решения . Покажем это на примере стационарных состояний системы частиц (точек).
Стационарными называются состояния, соответствующие таким значениям переменных u1 , u2, ...un , при которых все функции Fi(u1 , u2, ... un) равны нулю. При этом значения ui не меняются со временем, так как все производные (см. 2.1) также равны нулю. Однако малые отклонения от стационарных значений dui изменяются со временем, и их изменение можно описать системой линейных дифференциальных уравнений:

(2.2)
где: при uj = `uj , `uj - стационарные значения переменных.

Решения системы (2.2) имеют вид:

(2.3)

Здесь коэффициенты ei i определяются из условий:

(2.4)

Откуда следует, что они пропорциональные начальным отклонениям, (e ~ du(0)) и малы в меру малости последних. Величины li - числа, которые являются решениями алгебраического уравнения: det| ai,j - dij li| = 0, где dij - символ Кронекера такой, что dij = 0 , если i № j и dij = 1 при i = j. Величины li играют важную роль в теории устойчивости, их называют числами Ляпунова.
Если числа Ляпунова отрицательны, то все dui(t) убывают со временем, поэтому состояние устойчиво. В этом случае система стремится обратно к стационарному состоянию, даже, если ее немного отклонить от него. Если хотя бы одно из чисел Ляпунова положительно, то состояние неустойчиво.
В общем случае числа Ляпунова могут быть комплексными. Устойчивость определяется тогда знаком действительной части. Если среди чисел Ляпунова имеются равные нулю или чисто мнимые, то стационарное состояние называется нейтральным; при отклонении от него не появляются ни возвращающие, ни отклоняющие силы.
Анализ неустойчивых движений основан на том же принципе: определяется временнaя зависимость малых отклонений от заданной траектории. Используются линейные по отклонениям уравнения (высшими степенями dui(t) пренебрегают), решения которых имеют вид:

(2.5)

Числа Ляпунова при этом уже не постоянны, а зависят от времени. Траектория является неустойчивой, если среди чисел li(t) имеются такие, вещественные части которых положительны в достаточно большом интервале времени Dt, таком. что Dt l(t) >> 1.
Подчеркнем важное свойство: числа Ляпунова являются характеристическими (или собственными) числами системы; они не зависят от начальных условий. Таким образом, устойчивость (или неустойчивость) - внутреннее свойство исследуемой системы, а не результат внешнего воздействия. Особенность его в том, что проявляется оно только при наличии малых внешних воздействий.
Эта особенность привела к важным методологическим последствиям. Сейчас приходится пересматривать и подвергать ревизии некоторые, казалось бы установившиеся в физике понятия. Обсудим три примера.

Рассмотрим понятие абсолютно изолированной системы. Сейчас ясно, что его можно (и то не всегда) ввести лишь как предел неизолированной системы при стремлении к нулю величины внешнего воздействия. Для устойчивых систем такой предел существует и, следовательно, понятие остается в силе. В неустойчивых системах такой предел, вообще говоря, не существует. Действительно, предел величины du(t) = eЧ еlt (где l > 0) при e ® 0 и t ® µ зависит от порядка стремления аргументов к своим пределам. Формально величину e (которая отражает меру внешних воздействий) и время t можно считать независимыми. Однако, как мы убедились на конкретном примере, уже при сравнительно небольших временах фактор еlt возрастает столь сильно, что компенсировать его уменьшением e - задача абсурдная. Суть дела здесь в том, что экспоненциальная зависимость (explt) очень сильна, конкурировать с ней практически невозможно. Поэтому для неустойчивых систем понятие "абсолютно изолированная система" теряет смысл; можно говорить об относительно изолированной системе.

В связи с явлением неустойчивости возникает необходимость пересмотреть такие понятия как "бесконечно малое" и "бесконечно большое". Ясно, что при небольших временах (таких, что t"1/Rel ) и Dx<<1, то есть отклонения малы, и возмущением можно пренебречь. При этом динамическим расчетам можно доверять даже в случае их неустойчивости. Время t"1/Rel называется интервалом предсказуемости (или горизонтом прогнозирования).

Ясно также, что при больших временах (таких, что Rel·t =100 - 1000) отклонение Dx(t) станет большим при любых реальных возмущениях Действительно, для того, чтобы пренебречь возмущениями в этом случае необходимо изолировать систему с точностью до , что невозможно.
Здесь не обсуждалось, какую размерность имеют величины Dx(t) и Dx0 и в каких единицах они измерены. В данном случае это и не важно. Дело в том, что любые физические величины (длины, массы, временные интервалы, числа частиц и т. д.) в нашем мире ограничены, то есть выражаются числами в интервале от 10-100 до 10+100 . Большие (или меньшие) числа могут появиться лишь как результат расчета, в котором фигурирует экспоненциальная (или более мощная ) функция. В связи с этим Эдваром Каснером было введено новое понятие "гугол" - столь большое число (больше 10+100 ), которое не может соответствовать никакой физической величине (см. [10])

Возмущение является физической величиной. Отсюда следует, что начальное отклонение не может быть меньше 10-100 , в то время как величина Rel·t вполне может стать больше 100. Обратный "гугол" , хотя формально является конечной величиной, реально должна рассматриваться как бесконечно малая. В частности, вопрос: как ведет себя функция внутри интервала порядка обратный гугол, лишен смысла. Функцию на таком интервале следует заменить числом (средним по интервалу), поскольку более детальное её поведение принципиально не наблюдаемо. Это утверждение. хотя и негативно, играет важную практическую роль. что мы продемонстрируем позже.
Требует ревизии и понятие "причины" [11,12]. Обычно под причиной понимают начальные условия (или импульсные внешние воздействия), которые в соответствии с динамикой системы приводят к определенному результату, т.е. - следствию. На этом языке слово "вскрыть причинно-следственные связи" означают "понять динамику промежуточных процессов". При этом негласно предполагают, что причины и следствия соизмеримы. Для устойчивых (или нейтральных) процессов это всегда имеет место. В неустойчивых процессах ситуация иная: очень малая величина приводит к следствию, которое по масштабам с причиной не соизмеримо. Обычно в таких случаях говорят, что причиной явилась неустойчивость, а не малое начальное воздействие. При этом, однако, происходит весьма существенный сдвиг понятий: в качестве причины фигурирует внутреннее свойство системы, а не внешнее воздействие.

Поясним сказанное на житейском примере. Рассмотрим два случая. В первом хрустальная ваза стоит на середине стола (состояние устойчиво). Прошел некто и неловким движением столкнул вазу со стола - она разбилась. В чем причина столь печального события, или, другими словами, кто виноват? Ясно, что виноват "некто" а причина - его неловкое движение.
Рассмотрим другой случай: ваза стоит на краю стола так, что чуть не падает (состояние, близкое к неустойчивому). Пролетела муха - ваза разбилась. В этом случае муху не обвиняют, а говорят, что причина события в неустойчивом положении вазы. Виноват тот, кто ее поставил (так, чтобы никто не был виноват, в жизни обычно не бывает). Забегая несколько вперед, отметим, что в основе утверждения "событие произошло случайно" (то есть без видимой причины) также лежит неустойчивость динамических процессов.
В общем случае выход из неустойчивого состояния возможен в разные стороны. Так, шарик, движущийся по водоразделу, может свалиться как вправо, так и влево. Направление зависит от начального возмущения.

В отсутствии выделенного направления принимается, что малые возмущения равновероятны. Здесь мы впервые употребляем слово "вероятность". В устойчивых динамических системах оно не употребляется и, более того, не имеет смысла. В неустойчивых системах, напротив, достоверные предсказания не имеют смысла, и можно говорить лишь о вероятности того или иного результата. Таким образом, неустойчивость является тем свойством, которое позволяет ввести в динамическую теорию понятие "вероятность".
Из изложенного следует, что устойчивость (неустойчивость) - не просто одно из свойств динамической системы. Это свойство существенно расширяет и изменяет аксиоматику динамических систем и позволяет взглянуть на мир с иной точки зрения. Ярким следствием неустойчивости является "динамический хаос".
Вернемся к системе уравнений (2.1).

При исследовании открытых систем, способных к самоорганизации, в качестве динамических переменных ui выступают самые различные величины: потенциалы и токи в физике, концентрации различных веществ в химии, численности организмов разных видов в биологии и экологии. Число переменных в реальных системах достаточно велико. Исследовать свойства многомерных систем сложно.

На помощь приходят методы редукции, т. е. сведения системы уравнений, содержащих большое число дифференциальных уравнений (и, следовательно, переменных) к более простой системе из меньшего числа уравнений. Редуцированную систему уравнений называют базовой. От неё требуется:
Во-первых, чтобы она описывала основные черты рассматриваемого явления.
Во- вторых, чтобы она содержала минимальное число переменных и параметров.
В-третьих, чтобы она была "грубой" в смысле Андронова. Последнее означает, что при малом изменении параметров и слабом расширении базовой системы (то есть добавлении высших производных и/или новых членов с малыми коэфициентами), решения должны меняться мало.

В химической кинетике редукция кинетических уравнений использовалась давно и известна как метод стационарных концентраций. Он основан на временной иерархии процессов. Последнее означает, что характерные времена ti в (2.1) существенно различны и их можно разделить на три группы. К первой относятся процессы, времена которых совпадают с характерными временами интересующего нас явления. Ко второй относятся медленные (по сравнению с первыми) процессы и к третьей - быстрые.
Например, если нас интересуют изменения системы, происходящие за 1-10 минут, то процессы, протекающие за секунды и доли секунд считаются быстрыми, а процессы, для которых требуются часы и сутки - медленными. Иная градация возникает, если нас интересуют секундные изменения; тогда минутные процессы мы уже отнесем к медленным.

Разбив реакции на такие группы, мы можем заметить следующее:

  1. Все медленно и очень медленно изменяющиеся концентрации мы просто можем считать постоянными и равными их начальным значениям.
  2. В быстрых и очень быстрых реакциях успевают установиться стационарные концентрации.

Другими словами, между соответствующими концентрациями быстро установятся определенные соотношения и при изменении одной из них другие почти мгновенно к ней подстроятся. В этом случае часть дифференциальных уравнений можно заменить алгебраическими соотношениями и система упростится.
В результате останутся лишь процессы, имеющие примерно одинаковые скорости; их, как правило, не много. Замену дифференциальных уравнений алгебраическими называют иногда принципом стационарных концентраций.
Строгое математическое обоснование такой процедуры было дано А.Н.Тихоновым [13] . Мы не будем здесь приводить доказательство этой теоремы, ограничимся лишь примером.
Пусть среди n компонентов процесса имеется такой (концентрацию его обозначим u1), который очень быстро образуется, но очень быстро расходуется. Тогда уравнение для него можно записать в виде:

где А = 1/ t1 >>1 (2.6)

Учитывая, что за времена порядка t1 все концентрации, кроме u1, изменяются слабо и считая их постоянными, можно найти стационарную концентрацию `u1 из условия:

(2.7)

Используя (2.7) можно выразить `u1 через другие переменные и таким образом сократить число дифференциальных уравнений.
На первый взгляд это может показаться парадоксальным. Действительно, приравнивая нулю функцию F(ui,) мы как бы считаем, что скорость изменения u1 равна нулю, хотя с другой стороны именно она пропорциональна большой величина А.
Не трудно убедиться, однако, что парадокса тут нет, если стационарное состояние уравнения (2.6) устойчиво. Последнее является необходимым условием теоремы Тихонова, если оно не соблюдается, то использовать метод стационарных концентраций нельзя.
Для демонстрации этого рассмотрим решение уравнения (2.6), в случае малых отклонений u1 от стационарного значения. В данном случае выражение (2.3) принимает вид:

где ;
(2.8)

Устойчивость решения уравнения (2.6) означает, что частная производная в (2.8) отрицательна. Число Ляпунова при этом тоже отрицательно и очень велико (поскольку А>>1). Это обстоятельство обеспечивает быстрое установление стационарного значения концентрации u1 , что и является основным утверждением теоремы Тихонова.
При моделировании конкретных сложных систем (например, экологических) сначала исследуют базовую модель и затем её расширяют до полной, которая называется имитационной. Последняя дает те же результаты, что и базовая, но кроме того позволяет описать поведение "деталей", то есть тех быстрых переменных, которые в базовой модели не фигурируют.
Во многих и очень важных случаях базовая модель содержит всего два уравнения. Для исследования их используется наглядный метод построения так называемого фазового портрета.
Поясним его смысл на примере двух уравнений для переменных x и y.

(2.9)

P(x,y) и Q(x,y) известные и в общем случае нелинейные функции своих переменных.
На рисунке 2.1 приведена плоскость (x,y). Каждая точка на этой плоскости дает информацию о состоянии системы (2.9) и потому называется изображающей точкой.
Пусть в начальный момент t=0 переменные x и y равны x=x1 ; y=y1 . Вычислим их приращения за малый интервал времени Dt. Эти приращения отложены на рисунке (2.1). Там же приведен вектор смещения изображающей точки. Аналогично можно вычислить смещение в следующий интервал времени. Повторяя процедуру можно получить ломаную линию, которая при Dt®0 переходит в плавную кривую, именуемую траекторией системы. Движение изображающей точки по траектории дает представление о развитии процесса во времени, даже если точное решение системы (2.9) не известно или не может быть выражено в аналитической форме. Именно в этом заключается ценность фазового портрета.

Для упрощения расчетов удобно провести две линии P(x,y)=0 и Q(x,y)=0. На первой приращение Dx=0, то есть траектории на ней вертикальны. На второй приращения Dy =0, то есть траектории на ней горизонтальны. Эти линии называются главными изоклинами. Точки их пересечения соответствуют стационарны состояниям, поскольку при этом оба приращения равны нулю.

На этом примере удобно проиллюстрировать теорему Тихонова и прояснить некоторые математические тонкости. Последние заключаются в следующем:
i) Полная система уравнений содержит n переменных и требует задания стольких же начальных условий. В редуцированной системе число переменных и начальных условий меньше, то есть часть условий оказываются лишними.
ii) При редукции нарушаются аналитические свойства решения полной системы.
Поясним это на примере редукции системы (2.9) в случае когда tx >> ty . Cогласно теореме Тихонова систему (2.9) можно редуцировать до одного уравнения:

(2. 10)

где зависимость y(x) - решение алгебраического уравнения Q(x,y) =0.
На рисунке 2.1, б приведен фазовый портрет системы (2.9) при tx >> ty. Видно, что траектории во всех точках, кроме лежащих на изоклине горизонталей, практически вертикальны, поскольку Dy >> Dx. Поэтому изображающая точка очень быстро, за время ty, попадает на изоклину горизонталей и затем медленно движется к стационарному состоянию согласно (2.10). Формально траектория плавная, но на ней имеется очень крутой поворот в точке(x1 , y2). Уравнение (2.10) этот крутой поворот не описывает, с чем и связано нарушение аналитических свойств решения полной системы (2.9).

Начальное значение переменной y1 в уравнении (2.10) не фигурирует, важно лишь значение x1 . Любое другое значение y, лежащее на вертикали x=x1 приводит к тому же результату. Иными словами, редуцированная система забывает о начальном значении y.
Таким образом редуцированная система правильно описывает процесс на
ограниченном, но наиболее важном для данной задачи, временном интервале.
Информационные аспекты редукции (и теоремы Тихонова) в следующем. При редукции сложной системы количество информации сокращается, сохраняется только ценная информация, а не ценная забывается.

Мы остановились на этом примере столь детально, поскольку редукция сложных систем играет очень важную роль при описании и исследовании процессов самоорганизации.
Как упоминалось, редукция основана на временной иерархии. Возникает вопрос: в каких случаях она имеет место и почему. В неживой природе она имеет место далеко не всегда. Так, например, при горении водорода образуется много промежуточных продуктов и времена их взаимопревращений примерно одного порядка. В процессах самоорганизации в живой природе, напротив, временная организация наблюдается практически всегда. Тому есть причины. Дело в том, что задачи моделирования и самоуправления во многом сходны и временная иерархия необходима и для того и для другого.
Отсюда следует на первый взгляд парадоксальный вывод: построение математических моделей живых самоорганизующихся систем - задача более простая, чем моделирование процессов в неживой природе, хотя и последнее интересно и важно. Возможно, именно с этим связаны успехи синергетики в биологии, экологии и социальных науках.
Стационарные состояния динамической системы могут быть разного типа. Их классификацию удобно привести на примере системы (2.9),

  1. Устойчивый узел - так называется стационарное состояние в случае, если траектории упираются в точку, то есть приближаются к ней апериодически. При этом в линейном приближении вблизи точки все числа Ляпунова вещественны и отрицательны.
  2. Устойчивый фокус - в этом случае траектории имеют вид свертывающихся спиралей и изображающая точка приближается к стационару, совершая затухающие колебания. При этом числа Ляпунова комплексны; реальная часть их отрицательна, а мнимая равна частоте колебаний.
  3. Центр - в этом случае траектория представляет собой замкнутые кривые. Числа Ляпунова при этом чисто мнимые. В системе происходят незатухающие колебания амплитуда которых зависит от начальных условий (но не от параметров системы). Частота (т.е. мнимая часть числа Ляпунова) напротив, определяется внутренними свойствами системы.
    Состояние "центр" нейтрально, то есть ни устойчиво, ни неустойчиво.
  4. Неустойчивый фокус - в этом случае траектории - раскручивающиеся спирали. Числа Ляпунова определенные в линейном приближении комплексны, и реальная часть их положительна.
    В реальных системах, как правило, раскручивание спирали ограничивается нелинейными членами. Тогда раскручивающаяся спираль навивается на замкнутую траекторию изнутри. Другие траектории, стремящиеся к неустойчивому фокусу из одаленных областей фазового пространства, навиваются на замкнутую траекторию снаружи. Эта замкнутая траектория называется предельным циклом (или циклом Пуанкаре). Движение точки по предельному циклу описывает периодический процесс. В отличие от центра, в данном случае амплитуда и период определенный внутренними свойствами системы и не зависит от начальных условий.
  5. Седло - неустойчивое состояние в котором, хотя бы одно из чисел Ляпунова положительно. На фазовом портрете системы типа 2.2 через седло проходит только две особых линии. Одна из них такова, что изображающие точки движутся по ней к седлу и упираются в него. Эта линия называется сепаратрисой. Другая такова, что точки движутся от седла в разные стороны. Остальные траектории "обтекают" седло (в ту или иную сторону) и не попадают в него. Примером может служить движение шарика в потенциальном поле имеющем форму седла ( или перевала) - отсюда и происхождение названия - седло.

Точки типы "седла" с необходимостью возникают в бистабильных системах, где имеется два разных центра притяжения (типа устойчивого узла или фокуса). Линия, проходящая через седло разделяет области притяжения устойчивых точек - отсюда ясно и ее название - сепаритриса, то есть разделяющая.
Конкретные примеры таких систем мы приведем ниже. Отметим, что в гамильтоновых системах могут существовать только особые точки типа седла и центра. Другие стационарные состояния в них невозможны.
Продемонстрируем метод построения фазового портрета на ряде конкретных примеров.
Рассмотрим бистабильную колебательную систему вида:

(2.11)

Она описывает движение шарика массы m в потенциальном поле V(x) при наличии трения (коэфициент трения - g)

(2.12)

Первый член левой части (2.11) - сила инерции, второй - сила трения, пропорциональная скорости.
Потенциал V(x) представлен на рисунке 2.2.
Видно, что имеются две лунки, в которых может находиться шарик и барьер между ними. Если кинетическая энергия шарика достаточно велика, то он может колебаться между лунками.
Для построения фазового портрета системы (2.11) удобно её представить в виде двух уравнений для координаты x и импульса р.

(2.13)
где обозначено:

Фазовый портрет системы (2.13) приведен на рисунке 2.3.
Пересечение изоклин - стационарные состояния - расположены в точках: x=1 , x=-1 и x=0. Средняя из них - седловая. Таким образом, система бистабильна и выбор конечного состояния зависит от начального положения изображающей точки. Траектории - спирали. Сепаратрисы, будучи сами траекториями, тоже имеют спиральную форму, они изображены на рисунке жирными линиями. Слои между сепаратрисами - области притяжения устойчивых состояний. Толщина слоев зависит от коэффициента трения g, спирали сгущаются при уменьшении последнего.

Уравнение (2.11) качественно описывает игру в "орлянку", то есть вращение подброшенной в воздух монеты и последующее падение её. Два стационарных состояния соответствуют "орлу" или "решке". Трение монеты о воздух очень мало и сепаратрисы плотно заполняют фазовое пространство. Малое, но конечное изменение начального условия или малое внешнее воздействие может перебросить точку в соседний слой, что приводит к изменению выбора системой конечного состояния, то есть к генерации информации.

Физический смысл описанного прост: если шарик имеет вначале достаточно большую кинетическую энергию, то до остановки он совершит так много колебаний, что предугадать результат очень сложно. Если начальные условия заданы на сепаратрисе, то это вообще невозможно.
В отсутствии трения (g=0), спирали замыкаются и устойчивые фокусы превращаются в центры, то есть нейтральные состояния (числа Ляпунова при этом чисто мнимые). Уравнения (2.13) при этом описывают незатухающие колебаня. При малых амплитудах - колебания вокруг стационарной точки (либо x = +1, либо x=-1). При больших амплитудах - это колебания вокруг обеих точек.
Положение изображающей точки на плоскости (x,p) определяет как координату(x), так и импульс (р). Угол между линией, направленной из начала координат к изображающей точке, и абсциссой представляет собой фазу колебаний. Отсюда происходит название - фазовая плоскость.
В отсутствии трения (g=0) решение уравнения ((2.11) существенно упрощается. Тому есть причина, причем фундаментальная - закон сохранения энергии. Полная энергия, то есть сумма кинетической и потенциальной энерги

(2. 14)

не изменяется со временем. Величина Н называется гамильтонианом, а соответствуюшие системы - гамильтоновыми. Используется и другое название - консервативные системы. Этим подчеркивается, что некая величина, в данном случае энергия, сохраняется.
В общем случае, при наличии трения энергия (2.14) не сохраняется, точнее, она рассеивается, диссипирует, переходит в тепло. Такие системы называются диссипативными, происхождение термина очевидно.
При очень сильной диссипации ( ) в уравнении (2.11) можно пренебречь силой инерции и представить его в виде:

(2.15)

Оно описывает движение легкого шарика в потенциальном поле V(x) в очень вязкой жидкости. Оно же описывает простейшую запоминающую ячейку - триггерный элемент.
В настоящее время термин "диссипативные системы" очень популярен поэтому его уместно обсудить более детально.
Существующая в теории динамических систем терминология заимствована из механики, где такие понятия как энергия, импульс, диссипация имеют четкий смысл. Там же, в механике, квантовой механике, теории поля и т. п. ( то есть в "фундаментальных" науках) рассматриваются преимущественно гамильтоновы системы. Тому есть причины:
Во-первых, закон сохранения энергии действительно фундаментальный. Он действительно соблюдается в каждом отдельном акте взаимодействия элементарных частиц и физических полей. В более сложных процессах происходит диссипация энергии и эту проблему мы рассмотрим позже.
Во-вторых, методы исследования гамильтоновых систем детально разработаны.

В реальной жизни, и в частности, в процессах, связанных с информацией, приходится иметь дело с диссипативными системами. Таким образом, область применимости гамильтоновых систем в реальной жизни крайне узка.
Мы остановились на этом вопросе, поскольку до сих пор не прекращаются попытки построить "фундаментальную биологию" или "фундаментальную информатику" по образу и подобию гамильтоновой механики. Из изложенного следует, что попытки уложить реальную жизнь в прокрустово ложе гамильтоновых систем обречены на неудачу.
Рассмотрим фазовый портрет еще одной системы, имеющей отношение к информации и, в частности, к процессу генерации информации в биологических системах (возникновению единого генетического кода) [7,8,14]. Система состоит из двух уравнений

du1 /dt = u1 - u1 u2 - а1 u12 du2 /dt = u2 - u1 u2 - а2 u22
(2.16)

Обсудим сперва свойства системы (2.16) в симметричном случае. когда а1 =а2=а. Фазовый портрет её представлен на рисунке 2.4.
Изоклины вертикалей (Du1 = 0) определяются из условия F1( u1, u2 ) = u1 - u1 u2 - а u12 = 0 и соответствуют линиям u1 = 0 и u2 = 1 - а u1 . Изоклины горизонталей (Du2 = 0) определяются из условия u2 - u1 u2 - а u22 = 0 и соответствуют линиям u2 = 0 и u1= 1 - аu2.
(см.рис.2.4). Система имеет четыре стационарных состояния. Первое расположено при u1 = u2 = 0 и неустойчиво. Оба числа Ляпунова положительны и равны l1,2 =+1. Такая точка называется неустойчивым узлом.

Второе расположено на биссектрисе u1 = u2 = (1 + а)-1 и тоже неустойчиво (типа седла). Имеются два устойчивых состояния (типа узла): при u1 = 1/а (u2 = 0) и при u2 = 1/а ( u1 =0); в них оба числа Ляпунова отрицательны. Вся плоскость разделяется сепаратрисой на две области; в каждой из них траектории стремятся к соответствующему устойчивому состоянию. В нашем случае в силу симметрии системы она совпадает с биссектрисой.
Эта модель позволяет проследить процесс рецепции информации и возникновение (генерацию) ее. Так, если в силу внешних причин начальные условия не симметричны, то система приходит к определенному стационарному состоянию - это рецепция информации.
Если заранее выбор не предопределен, то есть начальные условия симметричны и заданы на сепаратрисе, то система сама, по воле случая, выбирает одно из стационарных состояний - это генерация информации. Ниже мы вернемся к этой системе и обсудим ее более детально.
В случае, когда коэффициенты а1 и а2 не одинаковы (например, 1> а2 >а1 ) симметрия нарушается, но качественные свойства системы сохраняются: имеются две области притяжения, они различны, но сопоставимы. Фазовый портрет представлен на рисунке 2.5.

2.2. Хаотические состояния, необратимость и рост энтропии.

Мы уже обсуждали вопрос о связи информации и необратимости, имеющий принципиальное значение. В идеально обратимом мире информация не может возникнуть, поскольку любой выбор не может быть запомнен, ( запоминание возможно лишь в диссипативных системах). Поэтому необратимость в нашем мире играет существенную конструктивную роль. Однако, в фундаментальных законах классической и квантовой физики время входит обратимо, так, что замена скоростей частиц на обратные эквивалентна повороту стрелы времени (т.е. замене t ® - t). Иными словами, в гамильтоновых системах явление необратимости не может иметь места.

В науке этот вопрос возник в очень острой форме на рубеже XIX и XX столетий. История вопроса поучительна и трагична. Людвиг Больцман был первым, кто попытался решить эту проблему. Он поставил цель: "вывести" законы термодинамики из уравнений Ньютона. Для этого рассмотрел систему из многих шаров, движущихся по ограниченной плоскости (биллиард Больцмана) и упруго соударяющихся друг с другом. Проведя, казалось бы, естественное усреднение, Больцман получил результаты, носящие его имя:
(1) закон возрастания энтропии (так называемая Н-теорема Больцмана),
(2) соотношение между энтропией и вероятностью:

S = k ln W, (2.17)

где k = 1.38*10-16 эрг/град. - постоянная Больцмана и W - вероятность застать систему в определенном состоянии, где скорости и координаты шаров имеют определенное значение,
Эти результаты вошли в "золотой фонд" современной физики. Вместе с тем корректность расчетов Больцмана вызвала сомнение. Друг и постоянный оппонент Больцмана - математик Цермелло - возразил: изначальные уравнения симметричны во времени, а результат (возрастание энтропии) явно не симметричен. Такого не может быть, если все промежуточные вычисления математически корректны; следовательно, где-то допущена ошибка.
Больцман не смог ответить и застрелился.

Следующим был замечательный физик Эренфест. Он сформулировал проблему максимально четко, но ответа дать не смог и застрелился.
Идея ответа была найдена молодым физиком Н.С. Крыловым в 1948 г [15]; он вскоре умер.
В нашем изложении эта история выглядит трагикомически. В действительности решение покончить с жизнью человек принимает в состоянии эмоциональной неуравновешенности и неустойчивости. Искать непосредственную причину такого выбора бессмысленно. Важен другой вопрос: какие обстоятельства привели человека в неустойчивое состояние?

Что касается Людвига Больцмана ответ ясен. В научной среде его результаты встретили серьезное сопротивление. Попросту. он был подвергнут травле. В этом принимали участие не только друг Больцмана Цермелло (со стороны друзей это, как раз, часто случается), но и крупные, казалось бы объективные, ученые. Так, Пуанкаре "открыто рекомендовал не изучать труды Больцмана. поскольку они противоречили его, Пуанкаре, выводам" (цитируется по [9]). Удивительно и поучительно почему Пуанкаре, один из основоположников теории устойчивости, не смог понять результатов Больцмана и связать их с неустойчивостью (что впоследствии сделал Н.С. Крылов). Дело в том. что для Пуанкаре (как и для многих представителей французской школы математиков) принцип детерминизма был святыней. Он не мог даже допустить мысли о возможной ревизии понятий "причина" и "следствие". Этот эпизод - пример тому, как даже великий ум, будучи в плену сложившихся представлений, не может оценить значение своих же собственных результатов.

Что касается Эренфеста, то здесь дело в другом. Главной причиной самоубийства, повидимому, послужили трагические обстоятельства семейного плана. Хотя. и в этом случае сознание неспособности решить поставленную задачу, возможно, играло важную роль.
Что касается Н.С. Крылова, то его ранняя кончина казалась естественной: слабое здоровье, усугубленное тяготами военных лет. Однако. и его научный путь не был усеян розами. Коллеги Н.С. Крылова отнеслись к его идее с настороженностью и поставили вопрос: Откуда берутся малые случайные возмущения? По отношению к неустойчивым процессам такой вопрос, как мы теперь знаем, не корректен и лишен смысла, однако, тогда он казался естественным. Ими же (коллегами) был подсказан ответ: случайные возмущения следуют из соотношения неопределенности (т.е. из квантовой механики). Крылов, под давление общественности. согласился с этим ответом (хотя. внутренне, повидимому, был не удовлетворен им). Вскоре выяснилось. что такой ответ не верен. поскольку в квантовой механике проблема необратимости времени стоит не менее остро. чем в классической (подробнее мы обсудим её позже). В результате в памяти физиков Н.С. Крылов остался, как человек, который пытался проблему необратимости в классике решить за счет квантовой механики, в чем был не прав. Повлияли-ли научные дискуссии на судьбу Н.С. Крылова - судить не будем, важно. что его идеи не были забыты.
Далее события развивались менее драматично. В работах Колмогорова [16], Синая и Амосова [17,18,19] идеи Крылова были оформлены математически корректно. Сейчас результаты известны как теорема Синая . Изложим суть дела.
В механике обратимость во времени означает следующее.

Пусть тело (например, шар в биллиарде Больцмана) в начальный момент (t=0) имеет координаты x0 и скорость v0 и далее движется в соответствии с законами механики. Если в момент времени t1 изменить знак скорости, то по прошествии того же времени t1 тело вернется в точку x0 и будет иметь скорость, равную - v0. (далее такой процесс будем называть обратимым). Этот результат связан с инвариантностью уравнений по отношению к инверсии времени (о чем уже шла речь выше). Это же свойство обеспечивает сохранение энергии в классической механике.
Если такую процедуру провести со всеми шарами биллиарда Больцмана, то все они вернутся на исходные места (хотя и будут иметь противоположные скорости).
В частности, если вначале (t=0) все шары были сконцентрированы в малой части доступного пространства, то после описанной процедуры они должны собраться там же.
Этот результат означает, что энтропии начального и конечного состояний должны быть одинаковы и, следовательно, энтропия в динамических процессах не может возрастать (что и составляло суть возражений Цермелло).
Ясно, с другой стороны, что молекулы газа ведут себя иначе и никогда не собираются обратно. При расширении газа энтропия возрастает и не может затем уменьшиться, даже если изменить знаки скоростей.

В чем здесь дело? Утверждать, что уравнения движения механики не применимы к шарам нельзя; траектории шаров должны им подчиняться (и реально подчиняются).
Для решения парадокса было привлечено понятие устойчивости; в этом и заключалась идея Крылова.
В задаче Больцмана, следует задаться вопросом: устойчиво ли движение шаров в биллиарде? Если оно устойчиво, то Цермелло и Пуанкаре правы , и результаты Больцмана не корректны. Если оно неустойчиво, то это обстоятельство и является "причиной" необратимости процесса. Тогда строгие математические расчеты механических траекторий не могут описать реальный процесс; необходим другой подход, другой метод расчета, который позволил бы получить устойчивые результаты. Метод усреднения, который использовал Больцман, позволяет получить устойчивые результаты для средних величин и потому является конструктивным и в этом смысле корректным. Он вполне оправдан в случае, когда траектории шаров неустойчивы.

Рассмотрим, устойчивы ли траектории шаров в биллиарде Больцмана. Движения шаров между соударениями нейтральны, поэтому неустойчивость может возникнуть лишь при соударении шаров. Задачу можно упростить и рассмотреть многократное отражение материальной точки от выпуклой поверхности кривизны R (R=2r, где r - радиус шара). Для этого представим, что точка находится в ограниченном пространстве, в котором хотя бы одна из отражающих поверхностей выпукла (схема процесса приведена на рис. 2.6). Эта задача была поставлена и решена Л.Г. Синаем, и рисунок 2.6 носит название "биллиард Синая".
Не будем детально излагать теорему Синая, лишь на примере поясним суть дела. Рассмотрим угловые отклонения возмущенной траектории от исходной до и после соударения.
Траектория шара представляет собой ломаную линию. Точки излома соответствуют отражениям шара от стенки, плоской или выпуклой. В обоих случаях угол падения bi равен углу отражения.
Зададимся вопросом: устойчиво ли это движение и каковы числа Ляпунова траектории . Для этой цели проанализируем угловые отклонения. Рассмотрим два прямолинейных участка до и после отражения от выпуклой стенки (i-ый и i+1-ый).
Сравним две траектории, одна из которых на i-ом участке отклонена от другой на малый угол ai <<1, и вычислим угол отклонения ai+1 на следующем участке. Он равен:

(2.18)

где: li -длина пробега.
Вывод рекуррентного соотношения (2.18) легко провести, используя рис. 2.6 и сведения из школьного курса геометрии.
Из (2.18) следует, что угловое отклонение возрастает при каждом отражении от выпуклой стенки. Используя соотношение (2.18), можно угловое отклонение am после m-ого соударения выразить через начальное угловое отклонение a0

(2.19)

где: a0 -начальное отклонение (при t=0); n- число соударений за единицу времени ( m=nt); черта над логарифмом означает усреднение по числу соударений Из (2.19) следует, что движение шара в биллиарде Синая неустойчиво, числа Ляпунова положительны и равны


(2.20)

Этот вывод справедлив по отношению к любой траектории, в которой имеет место соударение с выпуклой поверхностью. Более того, этот вывод сохраняется и для обратного процесса, поэтому систему можно считать глобально неустойчивой.
Рассмотрим структуру фазового пространства системы. Имеется четыре динамических переменных: две координаты x и y и два импульса px и py . Закон сохранения энергии накладывает ограничение:

(2.21)

где p0 - абсолютная величина начального импульса. Поэтому изображающая точка движется в трехмерном пространстве, включающем координатную плоскость и, например, импульс px .
Стационарные состояния располагаются на плоскости (x,y), px =0, py =0 (и, следовательно, p0 =0) и соответствуют исходно покоящемуся шару. При ненулевом значении p0 стационарные состояния недостижимы, так что изображающая точка движется в слое трехмерного пространства, ограниченном значениями px =±p0 . При отражении от плоской границы "с" импульс px сохраняется, при отражениях от "а" и "b" меняется его знак, но не величина. При отражении от выпуклой поверхности "d" изменяется величина px . Проекция траектории на плоскость (x,y) представляется ломаной линией, равномерно заполняющей все координатное пространство. Проекция траектории на ось px представляет собой скачкообразный дрейф, также равномерно заполняющий весь доступный интервал (-p0,+p0).

Рассмотрим ансамбль аналогичных систем, в которых начальные условия отличаются, но слабо. В фазовом пространстве он представляется группой изображающих точек, которые в начале находятся в малой области e ( e - мера различия начальных условий). Окружим область всюду выпуклой поверхностью (как это показано на рис 2.7а). С течением времени в силу глобальной неустойчивости точки будут разбегаться друг от друга и в конце концов равномерно и случайно заполнят все доступное пространство. Выберем промежуточный момент времени и снова окружим все точки всюду выпуклой поверхностью. Объм окруженной области Г(t) будет больше начального Г(0) и с течением времени будет возрастать, пока не охватит все пространство. Величина S , равная:

/Г0 (2.22)

называется энтропией Синая. (Здесь: Г0 - элементарная ячейка фазового пространства, в классической физике эта величина условна, в квантовой механике она ограничена соотношением неопределенности и равна Г0 = h3n , где h - постоянная Планка и n - число частиц) Рост энтропии связан просто с увеличением фазового объема Г(t), обусловленного глобальной неустойчивостью.

Системы с такими свойствами называются эргодическими. Свойство эргодичности лежит в основе современной термодинамики. Ранее оно вводилось постулативно и называлось эргодической гипотезой (или гипотезой о микрохаосе ), которую теперь можно считать не гипотезой, а следствием теоремы Синая.
В случае, когда выпуклая поверхность заменена плоской (т.е. R®Ґ), число Ляпунова согласно (6) равно нулю, то есть система устойчива. Абсолютная величина импульса px сохраняется при любом соударении. Изображающая точка движется только в двух плоскостях: px = +px(0) и px =-px(0), и перескакивает с одной на другую при отражениях от стенок "а" и"b". Плоскость (x,y) заполняется траекторией равномерно, но не хаотично.
Ансамбль изображающих точек не расплывается, так что энтропия Синая со временем не возрастает. Такая система не является эргодической.
В связи с этим уместно упомянуть еще об одном парадоксе классической механики.
Согласно теореме Лиувилля объем области, занятой ансамблем в динамических гамильтоновых системах не может изменяться со временем. Это утверждение справедливо по отношению к устойчивым системам, где изображающие точки не разбегаются.

При глобальной неустойчивости возникает вопрос , что понимать под "объемом области". Например, можно окружить ансамбль точек не всюду выпуклой поверхностью так, что объем внутренней области будет сохраняться даже в случае разбегания точек, так, как это показано на рис. 2.7б При этом теорема Лиувилля формально соблюдается, однако вычислить вероятность нахождения системы в данной точке фазового пространства невозможно. При построении лиувиллевского объема фазовое пространство оказывается сильно расслоенным, так, что толщина слоёв меньше. чем обратный гугол Введение всюду выпуклой поверхности равносильно сглаживанию, то есть замене изрезанной функции её средним значением. При этом вероятности нахождения системы в любой точке, окруженной выпуклой оболочкой, одинаковы. Это позволяет перейти от динамического описания эргодических систем к статистическому.

Таким образом, подход Синая можно рассматривать как пример конструктивного использования понятия "обратный гугол".
Можно показать, что в случае термодинамически равновесного идеального газа (содержащего много частиц (т.е. "шаров")) энтропия Синая совпадает с энтропией Больцмана, то есть с физической энтропией. Действительно, термодинамически равновесное состояние представляет собой совокупность микросостояний, каждое из которых неустойчиво и через короткое время заменяется другим. При этом величина Г(t) в (2.22) равна Гmax т.е. максимально доступному фазовому объему. Вероятность обнаружить систему в каком либо одном микросостоянии (т.е. величина W в (2.17)) равна отношению: Гmax / Г0 . Откуда следует, что выражения (2.17) и (2.22) в этом случае совпадают.
С механической точки зрения равновесное макросостояние вообще не является состоянием, и описывать его в терминах механики бессмысленно. Однако, средние характеристики его со временем не изменяются, то есть стационарны и устойчивы. К таковым относятся: средняя кинетическая энергия частиц (температура), средний импульс, передаваемый в единицу времени единице поверхности при соударениях со стенкой (давление) и усредненное по ансамблю распределение частиц по энергиям. Это распределение было получено Больцманом. Вывод его можно найти во многих руководствах (см. например, [20]).
Энтропия в свете изложенного представляет собой не более чем удобную, хотя и условную, меру вероятности. В принципе можно было бы вообще обойтись без этого понятия и оперировать вероятностями. Однако это неудобно, поскольку вероятности, как правило, очень малы (меньше чем обратный "гугол" , а энтропия (в силу логарифмической зависимости ) выражается разумным числом). Утверждение о том, что энтропия может только увеличиваться, означает, что в глобально неустойчивых процессах изображающие точки разбегаются друг от друга независимо от того, рассматриваем ли мы процесс в прямом или обратном направлении времени.
В заключение уместно сделать ряд замечаний.

i) Эргодичность является следствием глобальной неустойчивости, возникающей при взаимодействии частиц, но не связана с числом частиц.
Действительно, в биллиарде Синая имеется только одна частица, и ее траектория с течением времени равномерно заполняет все доступное фазовое пространство (т.е. система эргодична). В биллиарде Больцмана достаточно нескольких шаров для того, чтобы (в силу неустойчивости их соударений) заполнить все доступное фазовое пространство. При этом распределение их по энергиям подчиняется закону Больцмана.
С другой стороны, в системах, содержащих много частиц, но движущихся устойчиво, эргодичность не имеет места. Примером может служить солнечная система, в которой имеются десятки тел (планет, спутников и т.д.), поведение которых отнюдь не хаотично.
Мы остановились на этом, поскольку во многих руководствах утверждается, что большое число частиц является необходимым и достаточным условием эргодичности, что в свете изложенного, неверно.

ii) В задачах Больцмана и Синая рассмотрены взаимодействия с так называемым "жестким кором". Принято, что взаимодействие отсутствует, если расстояние между шарами больше двух радиусов шаров. Сближение шаров на расстояние, меньшее удвоенного радиуса, исключается. Такому взаимодействию соответствует потенциал в виде бесконечной стенки на расстоянии двух радиусов. При этом параметр - радиус взаимодействия - имеет четкий смысл. При взаимодействии реальных частиц (атомов и/или молекул) ситуация иная. На малых расстояниях преобладают силы отталкивания, на больших - притяжения. Если потенциал отталкивающих сил U(r) зависит от расстояния r достаточно резко (например, U(r)"1/rn , n >2), то можно ввести "эффективный радиус", и в этом случае результаты Синая сохраняются.
Если же имеет место дальнодействие (то есть потенциал U(r)"1/r), то эффективный радиус становится бесконечным (R®Ґ). Тогда, согласно (6), число l стремится к нулю , то есть движение частиц устойчиво по Ляпунову .

Гравитационные силы являются дальнодействующими, что и объясняет отсутствие хаоса в планетарной системе. Электрические силы также являются дальнодействующими. Поэтому электронно-ионная плазма, строго говоря, не является эргодической системой. Она не является и динамической, поскольку при взаимодействии ионов присутствуют помимо электростатических другие, короткодействующие силы. Поэтому электронно-ионня плазма, практически, не бывает термодинамически равновесной.
Столь подробное рассмотрение сделано с целью подчеркнуть, что термодинамическое равновесие реализуется отнюдь не всегда, а только в глобально неустойчивых системах (или подсистемах).
iii) Устойчивость макроскопических состояний и неустойчивость микроскопических связаны друг с другом. Действительно, условием устойчивости макросостояний является затухание флуктуаций. С другой стороны, любое микросостояние - это флуктуация на фоне макросостояния. Затухание флуктуации означает разрушение микросостояния, что происходит за счет его неустойчивости.

Таким образом, глобальная неустойчивость микросостояний (микроскопический хаос) оказывается необходимым условием макропорядка.
iv) В эргодических системах неустойчивы движения как в прямом, так и в обратном направлении. Это значит, что при обращении знака времени изображающая точка не вернется в исходное положение, а будет "дрейфовать" в фазовом пространстве так, как, если бы знак времени не был изменен. Иными словами, повернуть процесс вспять (или, что то же, изменить знак времени) в глобально неустойчивых системах невозможно.
Это замечание связано с проблемой "стрелы времени". Суть проблемы в следующем. В физике, благодаря успехам теории относительности, принято думать, что пространственные координаты и время в значительной мере равноправны .
С другой стороны, обратимость в пространстве возможна (всегда можно вернуться в исходную точку пространства), но обратимость во времени невозможна (помолодеть нельзя).
Отличие связано со свойством неустойчивости, которое характеризует нарастание отклонений со временем.
v) В рассмотренных системах (задача Больцмана, биллиард Синая) все числа Ляпунова одинаковы (точнее одного порядка). В реальных (в частности, открытых ) системах это не так.
Число показателей Ляпунова равно числу динамических переменных и очень велико. Среди них имеются как положительные, так и отрицательные. Можно преобразовать динамические переменные (ввести так называемое конфигурационное фазовое пространство) так, что в определенной части нового фазового пространства движения будут устойчивы, а в другой части - глобально неустойчивы. Точнее: изображающая точка в многомерном фазовом пространстве всегда движется по одной траектории. Речь идет о том, что проекция этой траектории на первое подпространство устойчива, а проекция на второе - неустойчива. Тогда в первом подпространстве можно (и нужно) использовать законы механики, а во втором - термодинамики.

В макроскопических машинах (например, паровых) разделение фазового пространства на динамическую и статистическую части очевидно: в котле - термодинамика, в механической части (поршень, рычаги и т.п.) - механика. Поэтому вопрос о критериях разделения был не актуален и долгое время вообще не обсуждался. В молекулярных конструкциях (т.е. в биологических "машинах") такое разделение не тривиально и вопрос о критериях актуален [12]. Из изложенного следует, что таким критерием должно служить наличие (или отсутствие) глобальной неустойчивости.

В связи с развитием вычислительной техники появилось новое направление - молекуулярная динамика [21,22]. Цель его - описание поведения ансамбля частиц, исходя из первых принципов, то есть законов Ньютона. Взаимодействие частиц описывается потенциалом (как правило - Ленарда-Джонса). Практически этот метод используется при теоретическом исследовании поведения сложных молекул (в частности биологических). Однако, его можно использовать и для решения вопроса о росте энтропии в биллиарде Больцмана. Для этого достаточно выбрать форму потенциала, соответствующую упругому соударению жестких шаров. Такие расчеты проводились неоднократно [23]. Число частиц в ансамбле выбиралось порядка 100, что, правда, не существенно. Расчеты проводились в ограниченном пространстве с отражающими стенками. Начальные условия задаювались в виде набора координат и импульсов частиц, далее компьютер вычислял их траектории. Результаты таковы:
Траектории шаров не воспроизводимы, то есть имеет место глобальная неустойчивость - хаос. Средние значения, напротив, устойчивы. Обратимость в механическом смысле не имеет места, то есть при обращении знака времени (инверсии скоростей) частицы не движутся по прежним траекториям и не собираются в исходном месте.
Распределение частиц по скоростям устанавливается достаточно быстро (через 10 соударений) и соответствует максвелловскому не зависимо от начальных условий.

Таким образом, основные результаты термодинамики можно получить без использования второго начала, как дополнителного постулата. Понятие энтропия при этом можно ввести, но можно и не вводить и вообще не упоминать о нем.
Разумеется, точность машинного расчета не абсолютна и ошибки заведомо больше, чем обратный гугол. В частности, инверсию скоростей компьютер тоже делает с ошибкой. Однако, именно такой "неточный" расчет приводит к правильным результатам, адекватно описывающим действительность. В этой связи второе начало можно сформулировать в следующем, несколько парадоксальном, виде:
В расчетах динамических систем необходимо делать ошибки, в этом (и только в этом) случае мы получим результат, правильно описывающий реальные процессы (в том числе необратимые).

При численных расчетах это условие соблюдается автоматически. Абсолютно точные теоремы (типа теорем об обратимости и теоремы Лиувилля) в случае неустойчивых систем приводят к результатам, не соответствующим действительности. В устойчивых системах малые ошибки роли не играют и оба подхода приводят к одинаковым результатам.
В принципе численные расчеты можно проводить и в системах, содержащих большое число частиц (порядка числа Авогадро), но практически это невозможно, да и не нужно. Проще использовать аппарат термодинамики.
Расчеты в рамках молекулярной динамики - пример редукции необратимых явлений к набору элементарных актов, описываемых фундаментальными законами физики.
В связи с этим уместно обсудить вопрос о тождественности частиц, который является одним из фундаментальных, как в квантовой, так и классической физике.
В квантовой механике тождественность понимается как абсолютная и фактически это свойство постулируется. При отказе от абсолютной тождественности нарушается принцип симметрии (в частности, принцип Паули) со всеми вытекающими последствиями.

В классике, напротив, абсолютная тождественность появляется как нечто выходящее за рамки общих случаев (событие меры ноль). Любое свойство объекта (его масса, размеры и т.д.) в общем случае может изменяться непрерывно. В классической макро-физике ни среди природных объектов, ни среди предметов, созданных человеком, не может быть двух абсолютно одинаковых, даже если эти объекты созданы в одинаковых условиях. Они отличаются хотя бы тем, что на каждый предмет можно поставить инвентарный номер и эти номера будут различными. Одинаковыми (или тождественными) можно считать объекты, если в данном процессе (или в имитации этого процесса, проводимых с определенной целью) малые различия роли не играют и на результатах не сказываются.
Иными словами, тождественность в классической физике понятие условное и не абсолютное.

С другой стороны, в учебниках по статистической физике при выводе распределения Больцмана используется утверждение о том, что состояния, полученных перестановкой одинаковых частиц следует считать одним состоянием [20]. При этом "одинаковость" частиц понимается как абсолютная тождественность.
Это же утверждение лежит в основе парадокса Гиббса. Напомним кратко в чем его суть.
Рассмотрим два одинаковых сосуда, разделенных перегородкой, в каждом из которых имеется газ с одинаковыми объемом V, давлением Р, температурой Т и энтропией S .
Молекулы газа в них могут быть либо абсолютно одинаковыми (тождественными), либо отличаться (но очень мало, например, иметь разные массы, отличающиеся на величину, меньшую точности эксперимента).

При удалении перегородки молекулы газа перемешиваются.
Если молекулы тождественны, то смешение в рамках термодинамического подхода не приведет к изменению состояния и полная энтропия S = 2S не изменится.
Если молекулы различаются сколь угодно мало, то в результате смешения энтропия каждого газа увеличивается вдвое и полный прирост энтропии равен: DS = 2S.
Этот прирост не зависит от меры различия начальных газов и остается даже если различие стремится к нулю; в чем и состоит парадокс Гиббса.
В качестве "разрешения" парадокса Гиббса приводят следующий аргумент: молекулы (или атомы) - объекты квантовые и, следовательно, являются либо абсолютно тождественными, либо отличаются на конечную величину. Примером могут служить изотопы одного и того же элемента.
Эта аргументация удовлетворяет отнюдь не всех, поэтому обсуждение парадокса Гиббса продолжается.
Причина здесь в следующем.

Можно представить себе ансамбль из классических объектов ("частиц", например бильярдных шаров), которые наверняка не будут тождественными. Для определенности можно эти объекты пронумеровать или покрасить в разные цвета (например "красный" и "черный").
В принципе можно даже реализовать такой ансамбль в натуре и уж наверняка можно провести расчет его поведения на компьютере в рамках "молекулярной динамики".
Возникает вопрос: будет ли в таком ансамбле заведомо не тождественных частиц устанавливаться распределение Больцмана и будет ли иметь место парадокс Гиббса.
В работе [24] был проведен численный эксперимент в рамках молекулярной динамики. Целью эксперимента было установить, насколько распределение частиц по скоростям соответствует распределению Максвелла-Больцмана. Этот эксперимент показал, что достаточно быстро в ансамбле заведомо не тождественных частиц устанавливается распределение практически неотличимое от больцмановского.

Это значит, что распределение Больцмана устанавливается вне зависимости от того, тождественны частицы или нет.
Численный эксперимент по смешению газов не проводился, однако его результаты очевидны.
Разумеется, при удалении стенки частицы начнут перемешиваться - это объективный факт, не зависящий от того, тождественные частицы или нет. Число возможных микросостояний системы при этом тоже увеличится. Например, состояние в котором левая половина почти пуста, а все частицы сосредоточены в правой до удаления заслонки невозможен по условиям задачи. После удаления перегородки оно в принципе возможно, но крайне маловероятно.

Перед подсчетом энтропии исходного (до удаления заслонки) и конечного (после удаления и перемешивания) состояний уместно сделать ряд замечаний.

  1. В классической формальной термодинамике энтропия как функция состояния выражается через макроскопические переменные, такие как: давление, температура, объем и концентрации компонентов (если их несколько).
  2. В статистической физике энтропия определяется как логарифм числа возможных микросостояний. В равновесных эргодических системах это определение приводит к тем же

результатам, что и формальная термодинамика.
Рассмотрим парадокс Гиббса с формально термодинамической точки зрения. При этом необходимо ввести понятие "концентрация". В нашем случае, когда свойства всех частиц различны, ввести это понятие можно лишь условно.

Обсудим несколько вариантов.

  1. Будем считать, что, не смотря на малые различия, все частицы одинаковы. Тогда концентрация С - число частиц в единице объема. Эта концентрация, равно как и другие макрохарактеристики не изменяется при удалении заслонки. Энтропия как функция состояния тоже не изменяется.
  2. Разделим все частицы на два сорта: "легкие" (масса которых меньше некоторой средней величины "m") и "тяжелые". Разумеется, такое разделение, равно как и выбор массы m условен, поскольку различия очень малы.

Тогда необходимо ввести две концентрации "легких" частиц (С1) и "тяжелых" (С2).

В случае, если в начале в разных отсеках частицы смешаны равномерно и концентрации их одинаковы, то после удаления заслонки концентрации не изменятся (хотя сам процесс перемешивания конечно произойдет). Энтропия системы в этом случае не изменится.
Пусть в начале "легкие" и "тяжелые" разделены так, что концентрации их в левом ящике С1=0; С2 =С и в правом С1 =С; С2= 0.. Тогда после удаления заслонки концентрации легких и тяжелых частиц будет вдвое меньше. (а занимаемые ими объемы - вдвое больше).
Энтропия системы увеличивается на величину DS = 2 k ln n , (где n - число молекул газа), которая и является энтропией смешения.

Отсюда следует, что энтропия смешения - понятие условное (равно как и энтропия в целом).
Условность всегда субъективна и всегда дискретна. Вопрос о том, где поставить условную границу в случае, когда реальные различия стремятся к нулю лишен смысла. Условную границу можно либо ставить, либо не ставить и решение в этом случае дискретно по постановке задачи.
Критерием условного разделения является его конструктивность или, что то же, целесообразность.
Каждое понятие (тождественность, энтропия и т.д.) вводятся для того, чтобы описывать реальные процессы - в этом и состоит цель их введения. В зависимости от этой цели можно в наборе объектов, свойства которых меняются непрерывно, ввести границу и считать объекты слева и справа от нее одинаковыми. При этом единственным условием является физически реализуемая возможность отнести каждый объект к одному из условно выделяемых классов.
Поясним сказанное на примерах.

  • Рассмотрим процесс разделения изотопов урана (U235 U238). В диффузионном методе разделения используются летучее соединение UF6 При этом изотопы рассматриваются как различные атомы. Критерий различия в данном случае прост и вполне физически реализуем: кусок чистого U235 критической массы (порядка 1 кг) взрывается; такой же кусок U238 - не взрывается. Это связано с различием свойств ядер изотопов, которые не малы.
    В разделительных машинах энтропия смешения изотопов обязательно учитывается. Более того, принцип минимума энтропии смешения лежит в основе конструкции этой машины.
  • Рассмотрим теперь процесс восстановления урана из UF6 . В данном случае цель - получение металлического урана. В этом процессе химическое различие изотопов урана пренебрежимо мало. При расчете оптимальных параметров химического процесса эти различия не учитываются, то есть различные изотопы считаются тождественными, учитывать эти различия в данном случае не целесообразно.
  • Рассмотрим ансамбль классических нелинейных автоколебательных систем - генераторов, связанных друг с другом. Параметры их (и собственные частоты) в общем случае различаются, хотя и слабо.
    Пусть наша цель - создать систему, в которой генераторы работают синхронно. Тогда параметры генераторов подбираются так, чтобы произошел захват частот. После этого, генераторы, попавшие в полосу захвата, работают на одной общей частоте и в этом смысле ведут себя как тождественные объекты. Генераторы, не попавшие в полосу захвата, работают на другой частоте и рассматриваются как "другие" (не тождественные первым) объекты.
    Критерием разделения в данном случае служит полоса захвата частот. Если цель - испытывать каждый генератор в отдельности (вне связи с другими), разделять их на группы бессмысленно. В этом случае они все рассматриваются как одинаковые (стандартные или тождественные, если, конечно, их параметры не выходят за рамки допустимых по стандарту).
  • Рассмотрим в качестве примера игру в биллиард.
    Согласно одним из правил, выигрывает тот, кто закатил большее количество шаров в лузы, неважно каких именно в какие именно. При этом все шары считаются одинаковыми (тождественными).

Существуют другие правила, согласно которым выигрывает тот, кто забил определенные шары в определенные лузы. В этом случае шары (и лунки) уже не тождественны. Отличия их должны быть физически детектируемы так, чтобы каждый игрок мог объективно оценить какой именно шар попал в данную лузу (для чего шары нумеруются, раскрашиваются в разные цвета и т.д.). С другой стороны, эти отличия не должны влиять на основные (с точки зрения игры) свойства шаров: их размеры, массу, упругость. В этом смысле они должны быть одинаковыми.

Таким образом, понятие тождественности объектов в классической физике условно. То же относится и к понятию "энтропия", в частности, энтропии смешения.
В свете этого, парадокс Гиббса - результат недоразумений, связанный с попыткой придать условному понятию безусловный (объективный) смысл.
В квантовой механике согласно [25], критерием тождественности двух объектов (состояний) является способность их к резонансному взаимодействию. Так, объекты можно считать одинаковыми (тождественными), если собственные функции системы являются симметричная и антисимметричня суперпозиции функций отдельных объектов. Последнее зависит не только от свойств самих объектов, но и от взаимодействия между ними. такая ситуация очень близка к случаю синхронизации классических осцилляторов, рассмотренному выше. (см. пример 3). В целом ситуация в квантовой механике заслуживает специального и более подробного рассмотрения. Здесь мы этого касаться не будем. .

Рассмотрим парадокс Гиббса с позиции теории глобально неустойчивых (эргодических) динамических систем. Здесь энтропия определена как логарифм фазового объема внутри всюду выпуклой области, охватывающей изображения точек ансамбля системы. Возникает вопрос, насколько условно это определение и как проявляется эта условность в парадоксе Гиббса.

Примем, что все частицы в левом отсеке имеют отрицательные значения пространственной координаты Х, а в правом - положительные.
Рассмотрим вариант (i), в котором все частицы считаются одинаковыми. Тогда в фазовом пространстве всей системы изображающие ансамбль точки распределены равномерно. Всюду выпуклая огибающая охватывает все пространство. Объем внутри нее максимален и при удалении заслонки не увеличивается. Перемешивание сводится к тому, что внутри этого объема изображающие точки перемешиваются и заполняют имеющиеся там пустоты. На величине объема выпуклой оболочки это не сказывается, поскольку исходное состояние является равновесным.

Рассмотрим вариант (ii), в котором частицы считаются различными. Здесь возможны два случая:
В первом различные частицы в начале присутствуют как в левом. так и в правом отсеках. Тогда после удаления заслонки происходит то же самое, что и в предыдущем варианте. Энтропия при этом не возрастает.
Во втором в исходном состоянии одни частицы находятся только в левом отсеке, а другие - только в правом. Это значит, что часть фазового пространства (именно та, где координата Х "легких" частиц положительна, а "тяжелых" - отрицательна) пуста.
При построении оболочки эта часть должна быть исключена. После удаления заслонки эта часть фазового пространства заполняется, оболочка "раздувается" и объем внутри нее увеличивается. Прирост логарифма объема соответствует энтропии смешения.

Отсюда видно, что условность разделения частиц на "легкие" и "тяжелые" проявляется в условности процедуры построения всюду выпуклой оболочки. Речь идет о том, должна ли эта оболочка охватывать область, заведомо пустую в рамках варианта (ii) во стором случае, или заведомо заполненную в рамках варианта (i).
Отметим, что при построении всюду выпуклой оболочки всегда приходиться охватывать пустые области и именно этим обеспечивается рост энтропии в неравновесных процессах. Поэтому некоторая условность этой процедуры имеет место всегда, а не только в случае парадокса Гиббса.
Оправданием и критерием целесообразности этой условности служит конструктивность использования условного понятия в конкретных процессах.
В заключение раздела подчеркнем главные выводы.

Неустойчивость - явление. которое возникает в рамках динамических уравнений, но приводит к тому, что они перестают быть полными. Неустойчивость можно констатировать (то есть вычислить числа Ляпунова) в рамках динамики, но предсказать результат процесса при этом невозможно.
Перед нами пример того, что в рамках любого алгоритма, включающего хотя бы арифметику, можно сформулировать задачу. которая не будет иметь решения. Это - парафраз теоремы Гёйделя, о которой все слышали, но мало кто думал, что она может иметь практическое применение.
Дополнительное утверждение, которое нужно сделать по отношению к глобально неустойчивым (хаотическим) системам, хорошо известно; оно состоит в следующем: по неустойчивым состояниям (микросостояниям) необходимо усреднить и далее работать со средними характеристиками. Последние, как упоминалось, устойчивы в ту же меру, в какую микросостояния неустойчивы. По существу это дополнение является основой второго начала термодинамики.
Дополнительная аксиома нуждается во введении дополнительного понятия. Это понятие - энтропия, как мера множества микросостояний - было введено и сейчас описать явления в неживой природе минуя это понятие, невозможно.

В действительности энтропия была введена много раньше (в начале прошлого века), просто как величина, удобная для расчетов паровых машин. Физический смысл её тогда был не ясен и поэтому энтропия воспринималась как нечто не от мира сего (некий фетиш). Склонность фетишизировать это понятие сохранилась и до сих пор, хотя сейчас ситуация существенно прояснилась.

Теория динамического хаоса не исчерпывается задачей о бильярде. Хаос может возникать и в диссипативных (не гамильтоновых) динамических системах и там он имеет свои особенности [26]. Сейчас найден целый класс динамических систем, в которых хаотический режим возникает лишь в некоторых областях фазового пространства. Такие области называют странными аттракторами [27]. Фазовые траектории входят в эти области (откуда и термин "аттрактор"), но не выходят из них, а запутываются внутри (откуда и эпитет "странный"). Одним из первых обнаружил странный аттрактор Эдвард Лоренц в 1961 г. (см. [27], стр. 88).
Странные аттракторы можно рассматривать как стационарные состояния, но не стянутые к одной точке, а размазанные по области фазового пространства. В природе такие системы распространены гораздо шире, чем это можно было бы предположить.

2. 3 Проблема необратимости в квантовой механике.

Квантовая механика основана на двух постулатах. Первым постулатом является уравнение Шредингера:

(2,23)

где h - постоянная Планка, H - оператор Гамильтона, Y - волновая функция системы.
Второй постулат представляет собой плотность вероятности обнаружить частицу в заданной точке х. (или частицы в точках x1 , x2 , ... xn , здесь и далее х - многомерный вектор).

(2.24)

где тильда означает комплексное сопряжение.
Известно, что эти постулаты в рамках современной квантовой механики не совместимы [28,29]. Дело в том, что при фиксации частицы волновая функция стягивается в точку, то есть плотность вероятности превращается в d(x) - функцию:

(2,25)

Этот процесс называется редукцией пакета.
Известно, что редукция пакета не может быть описана в рамках уравнения Шредингера, даже если в гамильтониан включить всю систему вместе с измерительным прибором. Эта проблема известна как "парадокс измерения". Суть дела в том, что редукция пакета - процесс необратимый во времени. Энтропия в течение этого процесса возрастает, что, согласно теореме фон Нёймана [29] невозможно.

При изложении основ квантовой механики обычно говорят, что из- мерительный прибор - система классичеcкая. Встаёт вопрос: при каких условиях и почему квантово-механическое описание теряет силу и должно быть заменено классическим. Одним из главных этапов этой проблемы является вопрос о росте энтропии в гамильтоновых квантово-механических системах.

В классической физике, как было показано выше, причиной необратимости является глобальная неустойчивость динамических процессов, то есть возникновения динамического хаоса. Попытки осуществить аналогичную программу в квантовой механике натолкнулись на трудности. Выяснилось, что замкнутые квантово-механические системы динамически устойчивы. Это значит, что при малом изменении начальных условий эти девиации со временем не нарастают. Интегральная мера начальных отклонений остается постоянной и не увеличивается со временем. Это утверждение известно как теорема Вигнера [28].
Численные методы исследования хаотизации некоторых квантово-механических систем [30] не дали определенного ответа и вопрос остается открытым.
В этом разделе мы проведем анализ параметрической устойчивости квантово-механических систем. Мы покажем, что при определенных условиях квантово-механическая система становится параметрически неустойчивой, что приводит к возрастанию наблюдаемой энтропии. Систему, удовлетворяющую этим условиям можо назвать классическим прибором.

2.3.1. Динамическая и параметрическая устойчивость квантово-механических систем.

Рассмотрим финитную систему. Оператор Гамильтона обозначим , где индекс n соответствует определенному набору параметров. Далее будем считать, что при изменении индекса n параметры гамильтониана меняются мало, так, что они близки друг к другу при всех значениях индекса n. Меру близости мы обсудим позже.
Собственные функции удовлетворяют уравнению:

(2.26)

Здесь и далее индекс "i" нумеруется в порядке возрастания энергии. Развитие во времени любого состояния y(x,t) , не являющегося собственным, описывается уравнением:

где (2,27)
       

(здесь и далее положено )
Матрица плотности в энергетическом представлении равна произ- ведению амплитуд плотности

вероятности застать систему в i -ом состоянии.

(2,28)
отсюда: (2,29)

Диагональные элементы матрицы плотности представляют собой вероятность застать систему в состоянии с энергией , то есть они связаны с энергетическим спектром нестационарного состояния Y(x,t). Последний характеризуется средней энергией `Е и полушириной (то есть дисперсией) DЕ.
В структурно неустойчивых системах энергетический спектр сильно изрезан (то есть при изменении индекса i на единицу величина меняется в меру самой себя), но, будучи усреднен по индексу n, становится плавной. Величины Е и DЕ, будучи усредненными по i, от индекса n не зависят.
В этом представлении энтропия равна:

(2,30)

где k - постоянная Больцмана.
Это выражение является обобщением классического представления энтропии как

S = k
(2,31)

где wi - априорная вероятность застать систему в i-ом микроскопическом состоянии.
Выражение (2,30) переходит в (2,31), если сумма недиагональных членов равна нулю. Поэтому задача сводится к выяснению поведения недиагональных элементов матрицы плотности со временем.
Рассмотрим специальный класс систем, удовлетворяющих следующим условиям.
(1) Энергетический спектр системы достаточно плотен, то есть расстояния между соседними уровнями малы:

(2.32)

Величины масштаба e0 = <<1 будем считать малыми

(2)При изменении параметров энергетические уровни сдвигаются мало, то есть:

(2.33)

Величины масштаба того же порядка, что и e0 Это означает, что в ансамбле похожих, но не тождественных систем, отличающихся параметрами, сами параметры отличны лишь в меру e1. Отсюда следует, что и энергетическое воздействие на систему, связанное с изменением параметров, мало в ту же меру.
(3) Собственные функции при изменении параметров изменяются сильно, так, что при :

(2.34)

При этом и коэффициенты разложения любой функции Y (х,0) по собственным функциям n - ого и m -ого гамильтонианов также отличаются сильно.

(2.35)

Отсюда следует, что близкие по значению коэффициенты такие, что:

(2.36)

соответствуют разным значениям энергии, таким, что:

(2.37)

Системы, удовлетворяющие перечисленным свойствам, будем называть параметрически (или структурно) неустойчивыми. Термин оправдан тем, что при малом ( в меру e) и случайном изменении параметров, коэффициенты разложения меняются тоже случайно, но сильно.
Примером таких систем могут служить спиновое стекло. Оно состоит из n атомов, каждый из которых может находиться в двух состояниях ("спин вверх" и "спин вниз"). Число возможных различных состояний системы равно: N = 2n , таково же и число уровней системы. Взаимодействие между атомами снимает вырождение и образуется зона ширины D. Далее будем считать, что , то есть нестационарная функция Y(x,t) может быть разложена по собственным функциям гамильтониана спинового стекла. Расстояние между уровнями в зоне порядка:

и, следовательно: (2.38)

При n > 1000 величина e0 настолько мала, что ее мы будем считать аналогом бесконечно малого (то есть величиной типа "обратный гугол"). То же можно сказать и о возмущениях масштаба e1.
Обсудим вопрос о динамической устойчивости.
Рассмотрим ансамбль тождественных систем, параметры которых одинаковы. При этом индекс n можно опустить. Сравним развитие во времени двух нестационарных функций, которые вначале отличаются слабо, так, что:

(2.39)

Изменение функций Y1(х,t) и Y2(x,t) во времени описывается выражениями (2.27), где коэффициенты и различны. Из (2.38) и (2.27) следует, что разности коэффициентов подчиняются условию:

(2.40)

где: N - эффективное число уровней.
Интегральная мера девиации в момент времени t равна:

(2.41)

Она не зависит от времени и всегда мала.
Таким образом, по интегральным критериям квантово-механические системы динамически устойчивы. Приведенные расчеты можно рассматривать как иллюстрацию теоремы Вигнера [28]. Причина устойчивости в том, что фазовое пространство квантово-механических систем разделено на слои, соответствующие энергетическим уровням. При развитии системы во времени эти слои не перемешиваются.
Рассмотрим теперь ансамбль сходных, но не тождественных систем, параметры которых отличаются в меру e1 " e0 так, что энергетические уровни в них перемешиваются. Сравним, как развивается во времени изначально одинаковая волновая функция Y(х,0) в двух системах (n=1,2).

(2.42)

Их разность, то есть девиация функции в момент t, равна:

(2.43)

Здесь мы учли, что согласно свойству (2) и условию (2.33), собственные значения Еi ,соответствующие разным значениям индекса n различны лишь в меру e1 (в то время как коэффициенты Сi различаются сильно), Малым различием собственных энергий мы пренебрегли.
При t = 0 Y(1) = Y(2) = Y(x,t=0). Отсюда:

(2.44)

хотя сами функции и коэффициенты Сi , согласно (3), отличаются сильно.
Интегральная мера девиации равна:

 
(2.45)

Здесь обозначено и учтено, что при t = 0 согласно (2.44):

(2.46)

Из (2.44) и (2.46) следует, что при t " (DE)-1 каждый член суммы в (2.45) не мал. Компенсация членов в сумме (2.45) также невозможна, поскольку временной фактор не зависит от индекса n (n=1,2), а остальные величины зависят от параметров гамильтониана и меняются при их изменении согласно условию (3) достаточно сильно.
Таким образом, интегральная девиация растет со временем и за конечное время (порядка обратной дисперсии спектра исходного состояния DE) достигает значения порядка единицы. Полуширину спектра DE можно считать аналогом числа Ляпунова.
Важно, что здесь, как и в классической физике, развитие системы во времени и сам факт неустойчивости определяется внутренними свойствами системы, а не внешними воздействиями.

2.3.3. Наблюдаемые величины в структурно неустойчивых квантово-механических системах (см. [31]).

Обычно под наблюдаемым значением оператора понимают его среднее по ансамблю. При этом не оговаривают в какой мере системы ансамбля одинаковы. В случае структурно устойчивых систем этот вопрос и не встаёт; системы можно считать тождественными. Однако, если системы структурно неустойчивы, то есть обладают свойствами (1), (2), (3), , необходимо дополнить эту процедуру условием усреднения по ансамблю одинаковых, но не абсолютно тождественных систем. Тогда неблюдаемое значение какого либо оператора следует представить в виде:

(2.47)

Такая процедура уже предлагалась и обсуждалась ранее в [32].
Если оператор не зависит от времени явно, то его наблюдаемое значение будет зависеть от времени в силу изменения во времени нестационарной функции Y (x,t). Тогда:

(2.48)
где:

Представим (2.48) в виде:

(2.49)

Первый член - сумма диагональных элементов, она не зависит от времени. Второй член - сумма недиагональных членов, которая зависит от времени. Рассмотрим оба члена отдельно в случае, когда система структурно неустойчива.
В первом члене обе величины: и - сильно изрезанные функции как индекса n так и i. Однако, после усреднения по n в соответствии с (2.47) они стеновятся гладкими функциями индекса i.
Примем, что при усреднении по n величины и статистически независимы. Смысл и роль этого, как увидим важного, положения мы обсудим позже. Тогда:

(2.50)

где: и - усредненные по n , уже гладкие функции индекса i. После этого первый член в (2 .49) можно представить в виде интеграла:

(2.51)

где W(E) - энергетический спектр системы и O(E) - наблюдаемое значение оператора О в состоянии с энергией Е.
Действуя аналогично, представим второй член в (2.49) в виде:

(2.52)

,

 


где: и Оi,j - усредненные по n значения недиагональных членов и

Интеграл (2.51) представляет собой вклад в наблюдаемую величину диагональных членов, который мы обозначим: ; от времени он не зависит.
Интеграл (2.52) - вклад недиагональных членов, который мы обозначим как: ; он обладает следующими свойствами:
1). убывает со временем (с характерным временем порядка: Dt "(DE)-1 ). Действительно, подынтегральная величина - плавная функция энергий Еi и Ej , которая велика в интервале и мала вне его. Экспоненциальный фактор с ростом времени t (при t>DE) становится сильно изрезанным и знакопеременным, что и приводит к убыванию интеграла..
2). Величина исчезает при DЕ®0. Действительно, при DЕ=0 исходное состояние является собственным и недиагональные члены отсутствуют.
3). В случае, когда коэффициенты С(Е) имеют полюсной характер, то есть:

(2.53)

итеграл в (2.52) убывает со временем экспоненциально:

=
(2.54)

В целом наблюдаемое значение оператора равно:

(2.55)

где последний член убывает со временем. В частном, но распространенном случае (2.53):

(2.56)

Эти соображения можно применить к энтропии в формуле (2.30), считая, что оператор О = -k{ rlnr}i,j .
Используя (2.56) можно записать энтропию S в виде:

(2.57)

или, в случае (2.53) в виде:

(2.58)

В данном случае при t=0 энтропия равна нулю, поскольку исходное состояние является чистым. Это означает, что:

(2.59)

C учетом (2.59) выражение (2.58) можно представить в виде:

(2.60)

Уместно сделать ряд замечаний.
(i). Величина Sdiag , представленная в виде суммы, равна:

(2.61)

Она представляет собой классическое выражение для энтропии в термодинамически равновесной системе. Второй член в (2.58) соответствует сумме недиагональных членов. По знаку он противоположен первому. Таким образом, (2.60) описывает процесс возрастания наблюдаемой энтропии при развитии исходно чистого состояния.
Тот же результат можно получить используя вместо процедуры (2.30) другой метод сглаживания.
Разобьем все величины, имеющие индекс i или j на группы по n членов. Выберем числа n большими по сравнению с единицей, но малыми по сравнению с полным числом членов в сумме (n << N= 1/ e ). При этом величины энергий в группе маняются слабо, так, что их можно внутри группы считать одинаковыми. Проведем усреднение внутри группы, то есть представим, например:

(2.64)

Здесь большие индексы нумеруют группы; их число меньше чем число индексов i, но все же больше, чем "гугол". В (2.64) уже учтено, что в пределах группы корреляции отсутствуют, поскольку они появляются на более высоком порядке (большем, чем "гугол"). После этого можно провести все вычисления, заменяя малые индексы бльшими, и получить тот же результат.
(ii). Согласно теореме фон Неймана [29] в квантово-механических системах энтропия не может изменяться со временем. Если исходное состояние чистое, то энтропия всегда равна нулю. Это значит, что при любом конкретном наборе параметров (то есть при заданном значении n) второй член всегда компенсирует первый. Это значит также, что если при вычислении энтропии провести сперва суммирование по i и j, то, согласно теореме фон Нёймана, мы должны получить ноль и последующее усреднение по n не должно изменить этого результата. Это значит, что предположение о статистической независимости величин и в (2.30) формально не корректно. Возникает парадокс, аналогичный тому, который мы обсуждали выше: формально корректные вычисления приводят к неверному (не соответствующему действительности) результату, а приближенные - к правильному.
Разрешение парадокса. как и ранее, связано с использованием понятия "гугол". В структурно неустойчивых системах величины и представляют собой весьма нерегулярные функции дискретных индексов. Эти функции случайны, поскольку случайны изменения параметров при сдвиге n на единицу. При усреднении по n, в предположении (2.52), эти функции не только сглаживаются, но и исчезают дальние корреляции между ними. Именно это позволяет получить результат (2.60).
Теорема фон Немана в квантовой механике - аналог теоремы Лиувилля в классике. Сглаживание сильно изрезанных функции в (2.52) - аналог введения синаевского фазового объема. В обоих случаях речь идет о пренебрежениями корреляциями высокого порядка (именно, порядка "гугол"). Обе процедуры формально не корректны (то есть не соответствуют современной математической аксиоматике), но правильны (то есть соответствует реальной действительности). В то же время теоремы Лиувилля и фон Неймана формально корректны, но не правильны, в том смысле, что не описывают наблюдаемого роста энтропии.
(iii). В простейших квантово-механических системах (атомы, простые молекулы и т.д.) разность уровней не мала. При этом малые изменения параметров не ведут к перемешиванию уровней. Свойства (1) - (3) в них не имеют места, то есть, они структурно устойчивы. Операция усреднения по n в этом случае равносильна умножению на единицу. Энергетический спектр остается дискретным и корреляции величин и сохраняются. Энтропия при этом не растет, что соответствует действительности.
То же относится и к коллективным регулярным системам (например, кристаллам), в которых энергетический спектр хотя и плотный, но условия (1) - (3) не выполняются. Однако, и в этих случаях используют термодинамический подход. При этом полагают, что образец помещен в "термостат". О последнем по умолчанию предполагают, что в нем соблюдены условия, необходимые и достаточные для роста энтропии.
(iv). В практических задачах часто используется предположение о том, что недиагональные элементы матрицы плотности исчезают со временем порядка времени расплывания пакета t (t " DЕ-1 ). Из изложенного выше следует, что это оправдано, но лишь при соблюдении условий (1) - (3), их и следует рассматривать, как условия применимости термодинамического подхода к квантово-механическим системам.

В заключение этого раздела уместно сделать ряд замечаний.
I. Физической причиной возрастания энтропии и необратимости процессов во времени является неустойчивость динамических систем (как классических, так и квантовых). Однако, для корректного математического описания неустойчивых процессов необходимо дополнить математическую аксиоматику утверждением:
Корреляции высокого порядка между случайными величинами (именно: порядка "гугол", то есть 10100 и выше) должны быть признаны отсутствующими, даже если они возникают в аналитических расчетах.
Основанием для этого можно считать следующее:

Во-первых такие корреляции физически не реализуемы, то есть их в принципе невозможно ни наблюдать ни проверить.
Во-вторых в этом и только в этом случае расчеты ведут к наблюдаемым результатам, то есть описывают необратимые во времени процессы. Отметим, что при этом формализм гамильтоновых систем уже не обеспечивает автоматического сохранения энергии (поскольку энергия и время - сопряженные переменные). Этот закон необходимо учитывать как дополнительное условие с помощью метода множителей Лагранжа (что, собственно и делается во всех учебниках по статистической физике).
В-третьих это правило уже давно используется на интуитивном уровне при решении конкретных задач.
1. Отметим, что возрастание энтропии - одна из проблем парадокса измерения. Другая проблема заключается в описании редукции пакета, то есть автолокализации волновой функции частицы в малой пространственной области. Для этого регистрирующий прибор должен обладать дополнительными свойствами: энергия локализованного состояния должна быть ниже энергии исходного, а процесс локализации - сопровождаться выделением продуктов, уносящих избыток энергии (фотонов, фононов и т.п.). Для регистрации необходимо, чтобы эти продукты не возвращались обратно. Именно на этом этапе важен вопрос о возрастании энтропии, вопрос о "стреле времени" и переходе свободной энергии в связанную.
Сам процесс автолокализации требует специального рассмотрения.

2.4. Распределенные динамические системы

В разделе 2.1 были изложены элементы теории так называемых "точечных" динамических систем, состоящих из обыкновенных дифференциальных уравнений типа (2.1). Они описывают развитие процессов во времена, но не в пространстве. Вместе с тем, в синергетике многие явления развиваются как во времени так и в пространстве. Речь идет о таких, популярных ныне, явлениях, как: образование диссипативных структур, границ между доменами, автоволнах и т.п. В этих процессах динамические переменные, будь то заряды, концентрации или численности живых организмов, могут перемещаться в пространстве за счет диффузии и миграции. Для описания их развиты специальные методы. Знакомство с ними полезно (и даже необходимо) для понимания сути явлений. В этом разделе мы изложим эти методы, по возможности просто и доступно. Иными словами, этот раздел (так же как и 2.1) адресуется людям. не имеющим специального математического образования, но владеющим элементами математики.
В простейшем, но достаточно общем случае поток (частиц, организмов и т.д.) j пропорционален градиенту переменных, а изменение их в данной точке пространства пропорционально дивергенции потока. Поэтому изменение DUi за интервал времени Dt за счет пространственных эффектов равно:

(2. 65)

Уравнение (2.1) с учетом пространственных эффектов принимает вид

 

(2.66)

Здесь величины Di называют коэффициентами диффузии, хотя (2.66) справедливо и в случае миграции и других процессов распространения в пространстве без выделенного направления. Величина - оператор Лапласа.
Уравнение (2.66) называется уравнением реакции с диффузией, поскольку впервые они появились в химической кинетике. В этом случае функции F1(u1, u2 ... un) описывают химические реакции в данной точке х, а переменные ui - концентрации веществ, участвующих в реакции, величины ti - характерные времена реакций.
В случае, когда реакция происходит в ограниченном пространстве размеров L, то кроме начальных условий необходимо задать граничные.
Если все компоненты быстро перемешиваются, концентрации ui(x,t) одинаковы внутри реактора, то есть не зависит от пространственных координат (x, y, z). Тогда Dui=0 и (2.66) переходит в (2.1). В этом случае говорят, что реакции в пространстве протекает так же как в любой течке, и системы типа (2.1) называют точечными или системами с полным перемешиванием. То же имеет место и в случае, когда коэффициенты диффузии велики, так что длины диффузии li больше или порядка размеров реактора L:

При этом перемешивание осуществляется автоматически.
В общем случая когда li<L системы (2.6) называются распределенными.
Уравнения (2.66) описывают многие важные явления самоорганизации: образование фронтов, бегущих импульсов (в частности нервных), спиральных волн (в частности в реакторах Белаусова -Жабатинского), диситативных структур и другие процессы в активных средах. Мы приведем два примера: образование фронта и дисипативных структур и на них поясним методы исследования распределенных систем типа (2.66).

2.4.1. Образование фронта:

Рассмотрим уравнение, в которых нелинейный член соответствует бистабильной системе (2.15); а все состояния развиваются в одном направлении x (т.е. )

(2.67)

Здесь уже выбраны соответствующие масштабы u и x, при которых коэффициенты и D=1. Уравнение (2.67) исследовалось в работе Колмлглрова и Пискунова еще в 1937г. [33] и считается одним из первых примеров пространственно временной самоорганизации. Оно описывает распространение пожара в степени, горения бикфордова шнура, волны возбуждения в активной среде, волны перекристаллизации, а также образование границ между двумя фазами..
Введем атомодельную переменную:
h= x ± Vt
где V - скорость движения фронта.
Тогда (2.67) можно представить в форме:

(2.68)

По форме (2.68) совпадает с (2.15), если положить hєt и считать V=g коэффициентом трения, который в данном случае может принимать как положительные значения (нормальное трение, ведущее к затуханию), так и отрицательные ("трение", ведущее к раскачке).
Однако формальное сходство не позволяет автоматически перенести результаты параграфа (2.1) на данный случай.
Имеется принципиальные различия, смысл которых сводится к формулировке начальных и граничных условий. Так, если переменную h отождествить со временем t (h=t), то уравнение (2.68) можно записать в виде

(2.69)

 

По виду (2.69) аналогично системе (2.13), но отличается от нее знаком правой части. В системе (2.69) имеется три стационарных точки: Фокус при u=V , p=0, (устойчивый или неустойчивый в зависимости от знака V). Два седла при р=0 и u=±1.
При V=0 фокус превращается в центр, а сепаратрисы седел замыкаются: выходящая из точки u=-1 входит в точку u=+1 и наоборот. Такие сепаратрисы называются гетероклиническими траекториями. Этот случай представлен на фазовом портрете рисунка 2.8.
Для выбора траектории необходимо задать начальные условия, то есть значения u(t=0) и р(t=0). В частности можно выбрать условия, лежащие на гетероклинике.
Такая постановка называется задачей Коши.

С другой стороны, если h отождествить с пространственной переменной x (что имеет место при V =0), то необходимо поставить два граничных условия при x=+Ґ и x=-Ґ. Такая постановка называется задачей Дирихле. В реальных приложениях эти условия соответствуют разным стационарным значениям на разных сторонах пространства, например: U(x®-Ґ)=-1, U(x®+Ґ)=+1. Именно при таких условиях образуется фронт.
При V=0 уравнение:

(2.70)

решается точно и решение имеет вид:

(2.71)

Выражение (2.71) описывает переходную область, т. е. профиль фронта. Так, при переменная U практически постоянна и равна u =1 при и u=+1 при . Это решение соответствует гетероклинической траектории (т.е. сепаратрисе) на фазовом портрете 2.8.
На этом примере видно принципиальное отличие задачи Коши от задачи Дирихле.
Основная цель задачи Коши - предсказать будущее, если известно настоящее (т.е. начальное условие). Именно поэтому аргументом в задачах Коши является время t, поскольку в противном случае понятие "будущее" и "настоящее" теряет смысл.
Понятие устойчивости также имеет смысл только в задачах Коши, но не Дирихле. Движение по неустойчивым траекториям (в частности по сепартрисе, т.е. гетероклинике) в задачах Коши не реализуется.

В задачах Дирихле аргументом является пространственная переменная и это тоже принципиально. Основная цель задач Дирихле не предсказать будущее, а вичислить распределение переменных ui в пространстве, если известно, что на границах эти переменные (или их пространственные производные) зафиксированы и не зависят от времени. Иными словами, задача Дирихле - вычислить стационарное распределение в пространстве. Анализ устойчивости этого распределения выходит за рамки задач Дирихле. Само понятие устойчивости в задачах Дирихле теряет смысл, поскольку оба направления в пространстве (х®-Ґ и х®+Ґ) равноправны. Неустойчивые (с точки зрения Коши) траектории, в задаче Дирихле соответствуют вполне реальному распределению, как это и имеет место в нашем случае.

Для пояснения посмотрим на задачу Дирихле с точки зрения задачи Коши (т.е. заменим х®t, но условия оставим в виде U(t®-Ґ)=-1; U(t®+Ґ). Первое значит, что когда-то давным давно величина U была равна минус единице. Второе значит, что в отдаленном будущем мы твердо знаем, и абсолютно уверены, что U будет равно единице. Это условие носит теленомический характер, поскольку опирается на точное знание будущего. При такой постановке мы можем смело двигаться по траектории, удовлетворяющей этим условиям, не заботясь о том устойчива ли она.
В распределенных системах (2.65) мы имеем дело со смешанной постановкой, где участвуют и условия типа Коши, и условия типа Дирихле. Как они сочетаются мы покажем на втором примере.

2.4.2. Диссипативные структуры.

Образование диссипативных структур было замечено уже давно на примере так называемых ячеек Бенара [34]. Оно заключается в следующем. На плоской сковороде подогревается масло. Казалось бы все условия постоянны и слой масла должен нагреваться равномерно. Однако, при достаточно интенсивном подогреве в масле появляется пространственная структура из чередующихся потоков, направленных врех и вниз.
Аналогичное явление наблюдается в биологии при морфогенезе. В среде, изначально равномерной, "вдруг" возникает периодические структуры. Они играют очень важную роль, дают разметку пространственного расположения будущих органов. В простейшем, но не самом важном, примере диссипативные структуры различают положение полос на теле зебры и тигра.
Суть процесса была выяснена в работе Тюринга в 1952 г. [35]. Там же была предложена математическая модель, ставшая базовой для последующих исследований.
Темин - диссипативные структуры - был предложен Пригожиным [36], который использовал модификацию модели Тюринга, известную сейчас как "Брюсселятор" [36]. Модель имеет вид:

(2.72)
 

Соответствующая "Брюсселятору" точечная (не распределительная) система имеет вид:

 
(2.73)

Уравнения (2.73) соответствуют некоторой гипотетической химической реакции. Компонента u1 образуется за счет автокатализа (член ) и способствует образованию u2 (член Bu1). Компонента u2 подавляет образование как u1 (член - (В+1) u1) так и само себя (член - u12 u2), она называется ингибитор.
Диссипативные структуры образуются в случае если длина диффузия ингибитера больше чем активатора, то есть при D2>D1.
Фазовый портрет системы (2.73) приведен на рисунке (2.9).
Видно, что имеется единственное стационарное состояние при u1=А и u2 = В/А. При В >А. это состояние - устойчивый фокус. Как увидим ниже, это свойство точечной системы (2.73) является необходимым условием (вместе с условием D2 >D1 ) образования диссипативных структур в распределенной системе (2.82).
Рассмотрим поведение системы (2.72) на конечном отрезке длины L. Примем, что границы отрезка не проницаемы, чему соответствуют граничные условия вида:

; при x=0 и x=L (2.74)

(что соответствует постановке задачи Дирихле). Начальные условия, то есть функции u1(x,t=0) и u2 (x,t=0) будем считать произвольными.
Метод автомодельной переменной в данном случае не эффективен, поскольку пространство ограничено.
Здесь используется другой метод -разложение переменных u1 и u2 по пространственным гармоникам. Продемонстрируем его на примере, когда функции u1 и u2 мало отличаются от стационарных значений.
Обозначим:
x= u1(x,t)-A; h= u2 (x,t)- A/B ; x,h<<1.
В линейном по x и h приближении (2.72) имеет вид:

 
(2.75)

Решения x(х1t), h(x1t) будем искать в виде, удовлетворяющем граничным условиям (2.74):

 
(2.76)

, где (n=0,1,2 ...) волновое число, оно связано с длиной стоячей волны n -ой гармоники: lт соотношением: . Целочисленность n означает, что на отрезке L укладывается целое число полуволн.
Функции xn(t) и hn(t) (так называемые гармоники) удовлетворяют дифференциальным уравнениям:

 
(2.77)

Эти уравнения уже не содержат производных по пространственныой координате x и по форме являются точечными.
Исследование их на устойчивость можно провести стандартными методами и найти числа Ляпунова lт , которые зависят от параметров А, В, D1, D2 и волнового числа kn2. На рисунке 2.10 представлена зависимость вещественной части чисел Ляпунова от kn2. Эта зависимость называется дисперсионной диаграммой. При k2=0 числа Ляпунова l0 совпадают с таковыми для точечонй системы (2.73). Как упоминалось, стационарное состояние это системы - устойчива фокус. Это значит, что числа Ляпунова комплексны и сопряжены, то есть реальные части их одинаковы и отрицательны, что и представлено на рисунке 2.10. С увеличением kn2 фокус переходит в устойчивый узел, при этом числа Ляпунова становятся вещественными и отрицательными.

При некотрых, (бифуракционных) значениях параметров А, В, , D1, D2 верхняя ветвь параболы Rel(k2) касается абсциссы, и даже слегка выходит в верхнюю полуплоскость. При этом в интервале (kmin2, kmax2) одно из чисел Ляпунова становится положительным, а стационарное состояние - седлом.
Если в этот интервал попадает одно из дискретных, разрешенных граничными условиями значений kn2, амплитуда соответсвующей моды начинает расти со временем. Это явление называется неустойчивостью Тюринга (или бифуркацией Тюринга).

Подчеркнем особенности этой бифуркации.
Во-первых она имеет место только в распределенных в пространстве системах. При этом нарушается исходная однородность и сама собой возникает структура.
Во-вторых, образуется вполне определения структура (т.е. предопределено значение kn2 и, следовательно пространственный период. Последний зависит от параметров системы(включая размеры), но не зависит от начальных условий.
В-третьих, вблизи бифуркации Тюринга учет нелинейных членов приводит к стабилизации структуры. При этом структура остается плавной (гармонической), со вполне определенной амплитудой, зависящей от тех же параметров.
Таким образом, в системе имеется только одно устойчивое стационарное состояние (один аттрактор) свойства которого предопределены параметрами, но не начальными условиями.

Подчеркнем: выбор диссипативной структуры (либо случайный, либо за счет начальных условий) в системах типа (2.72) невозможен, поскольку она единственна.
Мы остановимся на этом столь детально, поскольку слова "диссипативные структуры" сейчас употребляются очень часто, как к месту так и всуе. В действительности область применимости гармоничных диссипативных структур ограничена. Так при D2>>D1 образуются так называемые контрастные структуры, которые иногда также называются диссипативными, хотя и условно, поскольку по свойствам и методам исследования они сильно отличаются от описанных выше.
В этом случае сперва исследуются стационарные распределения (при ). При этом (2.72) переходит в систему обыкновенных дифференциальных уравнений (по координате x), которое решается в рамках задачи Дирихле. Затем исследуется устойчивость найденных решений в рамках задачи Коши Свойства контрастных структур принципиально отличается от описанных выше.

Так могут образовываться ступенчатые и пичковые структуры и даже уединенные пички. Положение пичка уже не определяется параметрами, а зависит от начальных условий. Если последние задаются в виде малых случайных отклонений от однородных распределений, то выбор положения пичка происходит случайно. Если начальное возмущение не мало, то расположение пичков им и определяется. Так, например, если начальное возмущение локализовано на одном из концов отрезка, то возбуждается волна перестройки, которая оставляет за собой регулярную пичковую структуру [37].
Подробное описание этих явлений можно найти в [8].

Очень интересные явления происходят в системах с режимом обостренияни [38]. При этом в определенный точке сама собой собирается (кумулируется) почти вся энергия изначально распределенная в широком интервале пространства. Это явление уже никак не относится к диссипативным структурам.
Другой круг явлений тоже очень важных, связан с образованием автоволн в активной среде. Под автовненами понимается не только "волны" но и отдельные импульсы, которые распространяются без затухания (за счет подпитки из среды). К таковым относятся нервные импульсы. Они описываются распределенными моделями Хочкина-Хаксли, или более простой (базовой) моделью Физхью-Наумо [39].

В двумерной среде образуются спиральные волны. Из них наиболее исследованы нелинейные волны в реакторе Белаусова-Жаботиского [40].
Все упомянутые явления описываются моделями типа (2.65). Методы исследования их также сходны и совпадают с изложенными выше.. Разным явлениям соответствуют разные виды нелинейных функций Fi(u1,u2...) и разное число переменных ui (и уравнений). Впрочем, в большинстве случаев оказывается достаточным всего два базовых уравнения.

Перечисленные выше модели используются для описания широкого круга явлений в различных областях естествознания: биологии, физике, химии и смешанных науках. Можно сказать, что эти модели являются математической основой описания процессов самоорганизации в природе.
Это не значит, что другие математические методы (как то "игры автоматов" или "математические грамматики") не используются для тех же целей. Они используются и иногда с успехом. Однако, при этом оказывается, что они представляютс собой частые (предельные) случаи теории динамических систем.


2.5 Что такое самоорганизация, синергетика и кибернетика.

До сих пор слово "самоорганизация" мы употребляли на интуитивном уровне. Сейчас уместно обсудить, что оно означает, как произошло, и какую роль сыграло в науке.
По звучанию и смыслу самоорганизация - процесс, в котором происходит нечто не тривиальное, причем происходит само собой, без видимых причин и внешнего вмешательства.
Предметом науки о самоорганизации является перечисленные выше явления, включая автоколебания, динамический хаос и процессы в распределенных системах.
Из изложенного выше следует, что содержательная работа в этом направлении проводилась и раньше, задолго до появления слова, то есть в данном случае "слово" было не "вначале", а "после".
Выше мы уже приводили пример: один астроном открыл звезду, другой - предложил название, при этом честь открытия приписали второму. На самом деле это не так глупо, как кажется.

Поясним это на нашем примере. Слово "самоорганизация" объединило ученых разных специальностей.. Если это считать цельно, то слово "самоорганизация" (как условная информация), как оказалось, имеет высокую ценность. Без этого "слова" междисциплинарное направление не было бы поддержано (в частности финансами), не собирались бы конференции и в целом процесс интеграции наук был бы замедлен.
Эта история - пример того, сколь важную роль играет условная информация в науке и жизни.
Наряду с "самоорганизацией" сейчас популярны слова "кибернетика" и "синергетика". Возникает вопрос: чем они отличаются друг от друга и от "самоорганизации".

В действительности эти направления в большой степени пересекаются. Тем не менее есть отличия.

Кибернетика - наука об управлении - появилась как обобщение опыта управления в технике. Отсюда были заимствованы такие понятия, как положительная и отрицательная обратная связь. Благодаря усилиям доктора Эшби (медика по образованию) эти понятия были внедрены в медицину и на их основе создана концепция гомеостаза. Явления, составляющие суть самоорганизации естественно вписывались в эту концепцию и были восприняты с энтузиазмом. Примерно тогда же доктор Эшби выдвинул лозунг (или парадигму): в кибернетике математический аппарат вторичен. Иными словами, кибернетиком может считаться человек, не владеющий математикой.
На первых порах эта идея сильно расширила круг кибернетиков и способствовала ее популярности. Однако, вскоре выяснилось, что доктор Эшби оказал науке медвежью услугу. В кибернетику ринулись толпы людей, которые не владели не только математикой, но и никакой другой наукой. Был утерян критерий уровня науки кибернетики, ее рейтинг и популярность понизились.

На смену ей пришла синергетика. По существу предметом синергетики служат те же явления, что и в самоорганизации и кибернетике. Главное отличие в том, что в синергетике владение математическим аппаратом (теорией динамических систем, математическим моделированием) считается необходимым условием.

Слово - "синергетика" в переводе с греческого означает "совместное действие". Предложил этот термин профессор Штудгартского университета Герман Хакен в 1978г. По существу синергетика состоит из математических моделей явлений самоорганизации. Таким образом история повторилась: сама наука появилась раньше чем "слово" ее обозначающее. Тем не менее это "слово" тоже сыграло положительную роль в интеграции наук (как ценная условная информация).
В данном случае интеграция произошла на более высоком профессиональном уровне, поскольку человек, не владеющий математикой, синергетиком считаться не может. Сейчас слова "синергетика" и "самоорганизация" часто выступают как синонимы.

В заключении этого раздела уместно обсудить вопрос: почему математическое моделирование (или, что тоже, теория динамических систем) является необходимым элементом таких междисциплинарных наук как синергетика и самоорганизация. Этот вопрос важен поскольку имеет методологическое значение.

Причин тому несколько:

Во-первых, многие из явлений, происходящих в различных областях (физики, химии, биологии) описываются одинаковыми базовыми моделями. Их фазовые портреты тоже одинаковы, что позволяет увидеть общие во множестве, казалось бы различных, явлений. Более того удается уловить общее даже в случае, когда явления с внешнего взгляда различны, как например, ход часов и колебания численности популяций в экологии. При вербальном описании явлений тоже можно уловить некоторую аналогию, но увидеть столь глубоко они простираются уже нельзя.

Во-вторых, в математике разработаны методы упрощения систем уравнений. Они позволяют описать суть явления максимально просто, отделив его от второстепенных и несущественных подробностей. Такие модели называются базовыми. Сформулированы требования, которым должны удовлетворять базовые модели. Главные из них - грубость (термин предложен Андроновым) или, что то же, структурная устойчивость (термин предложен французским математиком Рене Томом).

Понятие "грубить модели" (не смотря на внешнюю непривлекательность) играет существенную роль. Означает оно следующее: любые малые искажение грубой модели не могут существенно изменить и результаты. Под малыми искажениями понимаются:
1) увеличение числа динамичных переменных или, что тоже, добавление производных более высокого порядка, но с малым коэффициентом.
2) добавление членов более высокой степени, но с малым коэффициентом.
При моделировании реальных процессов всегда встает вопрос: все ли учтено, не упущен ли какой-нибудь малый фактор. Заранее ясно, что упущен, поскольку жизнь разнообразна, и всего учесть невозможно. Но если так, то почему простые уравнения описывают действительность.
Этот вопрос задавал себе Эйнштейн и даже он, великий ученый, не мог дать на него ответы. Тем не менее ответ прост: если модель достаточно груба то малые факторы не искажают ее результатов. Такой модели можно доверить в том, что она будет описывать реальность. Справедливо и обратное: если модель негруба, то она не может описать действительность.

Синергетик должен уметь оценивать грубость модели.

В сущности то же относится и к вербальным моделям, они тоже могут быть грубыми и не грубыми. Однако, оценить это свойство на вербальном уровне практически невозможно. Отсюда ясна причина, по которой мы уделили столько места описанию математических методов. С нашей точки зрения это тот минимум, который необходим и доступен для понимания сути процессов самоорганизации и синергетики. Мы постарались изложить этот минимум в достаточно простой форме, доступной для понимания даже современным школьникам.

Кроме того по нашему мнению математические методы теории динамических систем сами по себе достаточно красивы и могут доставить чисто эстетическое удовольствие.
Отсюда следует также, что универсальный язык ученых (естественников и гумманитариев) обязательно будет включать язык теории динамических систем.
Синергетика, как наука, имеет еще одну особенность.

В точных науках формулируются аксиомы и доказываются теоремы. В физике аксиомы - базовые уравнения движения, такие, как: уравнения Ньютона, Максвелла, Эйнштейна, квантовая механика и т.д. Считается, что формулировка аксиом - удел гениев; удел других ("обычных" учёных - решение уравнений применительно к конкретным задачам. Для большинства физиков основная задача - решать уже известные уравнения, а не создавать новые.

В синергетике часто приходится создавать модели явлений заново, "вывести" их из первых принципов практически невозможно Иными словами, синергетика - наука о том, как создавать модели, а не только их исследовать и решать. Этому же посвящена и теория катастроф [41], которую можно считать разделом синергетики.

ВЕРНУТЬСЯ В РАЗДЕЛ
ВЕРНУТЬСЯ НА ГЛАВНУЮ СТРАНИЦУ
САЙТА С.П. КУРДЮМОВА "СИНЕРГЕТИКА"
Hosted by uCoz