Во втором модуле наш гость – доктор Лиз Бредли, профессор информатики, электротехники и инженерии компьютерных систем в University of Colorado Boulder. Она давно член внешнего факультета института Санта-Фе. Она исследует нелинейную динамику, искусственный интеллект и некоторые комбинации этих предметов. Итак, Лиз, у меня есть для вас пара вопросов. В нашем курсе мы немного изучили нелинейную динамику и хаос и я бы хотела, чтобы вы взялись за пару вещей. Так, сначала, могли бы вы привести пример как вы использовали инструменты нелинейной динамики и хаоса в ваших собственных исследованиях чтобы понять сложные системы? Конечно, Мелани. Одна из систем, которую большинство из нас чаще всего использует и никогда не думает, что она нелинейная, динамическая, и уж тем более, хаотическая, это компьютер. Вот вы ребята, все используете компьютер прямо сейчас, чтобы смотреть эти лекции. Внутри компьютера, который вы используете, целая куча транзисторов и тому подобных вещей. Большинство из которых – нелинейные. И они, конечно, динамические, потому что компьютер не находится в одном и том же состоянии. Объекты внутри компьютера движутся. Есть электроны, движущиеся сквозь металл и кремний и это нелинейная динамическая система. Много лет назад компьютеры были очень простыми. И очень предсказуемыми, в том смысле, что если разработчики что-то делали, они получали ожидаемый эффект . Но это прекратилось около десяти лет назад. Системы стали такими запутанными, или комплексными, я полагаю, что нововведения, которые явно должны были работать принесли отрицательный эффект. И они должны были отозвать целую кучу микросхем, а это очень дорого. Поэтому нас заинтересовало как об этом думать и мы пришли к мнению, что хорошо, компьютер это нелинейная динамическая система, что было в некотором смысле ересью в компьютерном сообществе, потому что они думали как... Хорошо. Думали об этом как о случайных процессах. Они думали о них как случайных системах и математика, которую они привыкли использовать для моделей неявно делала предположение о линейности и неизменности во времени. Но система не линейна и не инвариантна. То что находится внутри них меняется со временем. Мы думали об этом и решили, что это это будет хорошая идея – использовать инструменты нелинейной динамики, чтобы понять компьютеры. И мы сделали это и это неплохо сработало. Мы могли узнать, например, показатель Ляпунова (Lyapunov exponent)… Ваши студенты о нем уже знают? – О, нет. – Ок. Итак, скорость с которой чувствительные…, с которой малые возмущения растут. Показатель Ляпунова это величина, которая параметризует чувствительные зависимости от начальных условий. И положительный показатель Ляпунова говорит, что небольшие изменения растут. Мы могли измерить показатель Ляпунова для программ, запущенных на компьютерах и показать, например, что если вы запускаете одну и ту же программу на двух разных компьютерах, то на одном производительность меняется хаотично, а на другом, производительность меняется циклично. Это не значит, что результаты будут хаотичными. Результаты будут одинаковыми. Речь идет о производительности. Так, те из вас, кто знает больше о компьютерах, способ, которым компьютер использует свою память, способ, которым компьютер использует свои процессорные модули, меняется в зависимости от того, как эти детали созданы. Для тех из вас, кто инженер – это довольно очевидно. Но никто еще не думал об этом, используя инструменты нелинейной динамики, а это действительно помогает компьютерному сообществу придти к лучшему пониманию. Есть еще другая проблема, если вернуться к слову «ересь». Люди в сообществе, опять же, привыкли к линейным, не меняющимся во времени инструменам, которые легко использовать. Это хорошая причина – они простые. Но, если система, которую вы собираетесь анализировать не поддается такого рода анализу, это намного сложнее. Теперь... вы оказываетесь в положении, когда вы приходите в чужое сообщество и говорите «То что вы делаете – неправильно». Такое никогда не приветствуется. Более того, математика, которую вы предлагаете, тяжела в изучении и не всегда работает. Так что мы не смогли распространить эту работу в литературе сообщества компьютерных систем так как мы бы этого хотели. Но это проблема разных подходов в разных областях. – Да, когда вы говорите, что использование памяти, например, хаотично вы имеете в виду, что оно определенно чувствительно к начальным условиям? – Да. Если вы запустите программу дважды и посмотрите на графике как использовалась память с течением времени, это будет выглядеть по-разному от запуска к запуску. – И что меняется в начальных условиях? – О… если вы подумаете о компьютере, то переменная, описывающая состояние компьютера, это содержимое каждого регистра, каждой ячейки памяти и есть другие вещи происходящие в вашем компьютере. Так прямо сейчас, когда вы смотрите эту лекцию, у вас, вероятно, запущен браузер, и, наверно, другие штуки работают, и какие-то программы в фоновом режиме меняют содержимое этих ячеек памяти. Это небольшие изменения. «Эффект бабочки». – И вы смогли доказать, что то, что вы видите хаотично? – О, да. Абсолютно. – Ок. И как вы это сделали? – Мы измерили показатель Ляпунова. Мы рассчитали его по данным временных рядов и он был положительным. А потом мы делали всякое другое – то что юристы называют «юридической экспертизой» – мы простучали результат со всех сторон, чтобы убедиться, в нем нет дыр. Мы делали аналогичное в нелинейной динамике, поэтому я на самом деле верю в результаты. – …Ок… – Но нет доказательств. В хаосе вообще нет никаких доказательств. Это данные эксперимента. Может быть, когда мы бросили наблюдать процесс стал периодическим. – В нашем классе мы изучали логистическое отображение и мы видели удвоение периода на пути к хаосу. Вы видели что-то подобное в ваших данных? – Мы не исследовали бифуркации. Это достаточно сложно сделать даже когда у вас всего один параметр. Но если проводить параллели, то параметром бифуркации для нас является код программы. Так если измените код, вы запустите другое приложение, это – причина бифуркации. Если характеристики нашего компьютера: Intel Core 7, бла-бла-бла… Мы запускаем одну программу – период, и запускаем другую программу – хаос. Параметр бифуркации – это код, который вы запускаете, и оборудование, на котором код запускается. И нет никакого способа плавно их изменить, подобно тому как можно плавно менять R в Logistic Map. – Хмм. Действительно. Это интересно. – Да, это совсем по-другому. – Хорошо, тогда разрешите мне переключиться на другой вопрос. Что по вашему мнению сейчас является наиболее захватывающим направлением в области динамики? Какие есть нерешенные проблемы? Их много. Одна из действительно интересных в последнее время понять формирование и роль так называемых Лагранжевых когерентных структур. Tom Peacock из MIT работает над этим и он говорит, что – вот аналогия, которую он использует, чтобы описать их: Представьте себе толпу на вокзале. Некоторые люди прибывают, некоторые уезжают. И они перемещаются вперед-назад между разными платформами. В результате хаос, но есть структура. Так, если вы остановите запись, сделанную в Токийском метро, то вы увидите это скопление людей и затем все они уезжают. В это время происходит сдвиг – это проявляющаяся вещь – смещение структуры границ между группами людей и людей с разными целями. И эти границы, эти границы групп людей и есть то, что называют Лагранжевыми когерентными структурами. И он говорит, что они неосязаемы, они нематериальны, их нельзя обнаружить если пассажиры перестанут двигаться. Но они достаточно реальны, чтобы заниматься ими математически. – Можно ли это понять так, что это влияет на линию поведения… – Да, абсолютно. Например, Том проделал некоторую работу и другие работали с Лагранжевыми когерентными структурами в заливе Монтерей. И если ими считать границы между группами всяких омываемых течением объектов, то результаты связаны с перемещением загрязняющих веществ. Так Лагранжева когерентная структура является водоразделом, отделяющим разные части воды в заливе Монтерей и загрязнители не могут его пересечь. И некоторые из них прекрасны. Том наблюдал в Австралии явление, называемое Morning Glory Cloud, я очень рекомендую погуглить если вы этого не видели. Это великолепно. Лагарнжева когерентная структура, формируется в облаках, я думаю, где-то над серединой Австралии. Сложная система – это система с большим количеством переменных состояния и они связаны, иначе эти вещи были бы довольно скучными. Часто они связаны нелинейно, иногда они связаны связаны адаптивно, то есть способ связи меняется с течением времени. И… это своего рода установки. И что делает это интересным, по крайней мере для меня, это то, что у вам все может, конечно, идти в любых направлениях и все случайно, но то что по-настоящему интересно мне и, я думаю, многим исследователям сложности, что запускает у этих сущностей такое поведение, которое занимает только подмножество пространства событий. Мы называем это «эффект системы» (Emergency), например. Мы могли бы называть это «сокращением размерности». Возвращясь к компьютеру, представьте, что у него миллиард переменных состояния, или похожее, громадное число переменных. Но он не путешествует по всему этому пространству с миллиардом измерений. Мы обнаружили, что он путешествует только в подпространстве, примерно, из 12 измерений. И это удивительно. То же происходит в птичьих стаях, если подумать об этом. Можно представить это так: любая птица может быть где угодно, но они так не делают. Они путешествуют вместе. Есть некоторые размерности, есть некое пропавшее знание о том, что птицы как-то сгруппированы, и если его измерить, использовать теорию информации. Не знаю занимались вы этим в вашем курсе? – Да – – Хорошо. Итак, теория информации Шеннона. Вы можете думать о том какая информация есть в системе. Что вам нужно знать, чтобы рассказать о происходящем. И если бы каждая птица могла быть где угодно, то вам было бы нужно больше информации чтобы рассказать про стаю, чем в случае когда они летят клином. Это способ теории информации думать подобных вещах. Всё это неотъемлемая часть сложности, я полагаю.