Jim Crutchfield é o nosso convidado surpresa para esta unidade. Ele é Professor de Física na Universidade de Caifórnia em Davis e Director do Centro de Ciência da Complexidade. É também professor externo no Instituto de Santa Fé. Jim é um dos pioneiros na área da teoria do caos e tem trabalhado desde há muitos anos numa série de tópicos de investigação em complexidade, especialmente no que diz respeito ao processamento de informação em sistemas complexos. Bem-vindo, Jim. - Olá, Melanie, como estás ? - Bem, obrigada. Deixa-me perguntar-te: qual é o papel que tu achas que o conceito de informação tem na compreensão de sistemas complexos? - Bom, a resposta simples e curta é que se trata de um conceito chave. Um dos papéis importantes que desempenha é o de ser, num certo sentido, um substituto para as quantidades em que estamos interessados. O contraste ou paralelo seria na física, em que aquela espécie de objecto dominante ou conceito ou entidade em que estamos interessados é a energia. E existem, certamente, muitas e bem sucedidas aplicações da física mais ou menos tradicional, digamos, da física das transições de fase, a sistemas complexos. Mas, muitos dos sistemas complexos, se pensarmos em redes sociais ou sistemas desenhados pelo homem, como a internet, não têm necessariamente uma noção apropriada de energia, e por isso a informação aparece, de algum modo, para tentar descrever como é um sistema complexo. Várias formas de processamento e armazenamento de informação podem estar associadas ao modo como um sistema está organizado. Por isso, trata-se de um conceito chave. A noção original de Shanonn de informação como grau de surpresa, grau de imprevisibilidade de um sistema, ou quão aleatório é um sistema, precisa de ser alargada e é por isso que grande parte do meu trabalho se tem focado em tentar mostrar que existem muitos tipos distintos de informação, não apenas a informação de Shanonn, a qual, no contexto da teoria da comunicação, é um grau de surpresa. Então, falemos de um exemplo particular. Nós falámos, por exemplo, acerca das colónias de formigas. Como é que achas que a informação se encaixaria aqui e quais são os tipos diferentes de informação? Bem, a abordagem básica que usamos é começar com a visão de Shanonn de considerar qualquer tipo de processo ou sistema natural ou sistema desenhado, como um canal de comunicação. Agora, esse conceito pode ser aplicado de muitas, muitas formas diferentes. Assim, ao nível mais geral, podemos pensar em qualquer processo temporal como um canal de comunicação que comunica o passado para o futuro. E podemos aplicar essa visão de comunicação a uma colónia de formigas. Existem muitos níveis diferentes aos quais se pode aplicar. Por isso existe uma noção de organização do ninho e que tipo de informação social ou mesmo arquitectural está construída na organização social ou na própria estrutura do ninho, e todas estas coisas expressam, todas estas espécies de organização expressam um certo resumo do comportamento passado das formigas que é importante para que elas sobrevivam e, portanto, vivam no futuro. Podíamos também aproximarmo-nos um pouco e perguntar o que é que está a ser comunicado como é que essa colónia se organiza em torno de certas tarefas. Este seria um nível mais individual. Talvez surja uma fonte de alimento a uma certa distância do ninho. Como é que isso é comunicado? Como é que as diferentes populações de formigas trabalhadoras obreiras e recolectoras variam ao longo do tempo em resposta a diferentes recursos disponíveis? E podemos também falar disto em termos de informação. Quanto muda a estrutura de informação da colónia em resposta a esta à vinda desta informação do exterior, quanta memória existe, etc? Então, a informação é uma coisa real no sentido em que a massa energia são coisas reais? É o mesmo tipo de quantidade física? Estamos ainda a trabalhar nisso. Basicamente, sim. Talvez ajude voltar quatro ou cinco centenas de anos atrás, até às primeiras discussões sobre o que era a energia nos fundamentos da física. Nos séculos XVI e XVII havia muita discussão acerca de saber se a energia dependia (a energia cinética) da velocidade de um objecto ou do quadrado da velocidade. E, podemos ver isso como uma confusão, na altura, entre momento e energia cinética. E eu penso que, num certo sentido, estamos nesse mesmo período a tentar perceber primeiro, em tudo isto, que não existe uma noção única de informação. Existem diferentes tipos de informação que têm significados diferentes em diferentes situações. Só vendo... É útil? Sim, existem muitas aplicações disso. Já conseguimos mostrar que o armazenamento e processamento de informação são relevantes para descrever como aparecem propriedades emergentes e como podem quantificá-las em sistemas de formação de padrões ou sistemas dinâmicos não lineares. Portanto, existem muitas áreas da física-matemática em dinâmica não linear onde o conceito é extremamente útil e, é de esperar que o campo de aplicações cresça e que, à medida que tal aconteça, a nossa noção de informação e os tipos de informação enriqueçam. Então, neste curso, falámos acerca da definir complexidade e de como tal é difícil. Já que existem definições diferentes , como é que a informação se ajusta à tua definição particular de complexidade? Como sou uma pessoa pouco complicada, do meu ponto de vista elas são essencialmente sinónimas. Mas a informação de Shanonn, não. - Bem, okay, seja Certo. Existe a definição matemática de informação de Shanonn, a qual, dito em termos simples, nos diz quanta informação existe na corrente de acontecimentos probabilísticos. Matematicamente é apenas quão plana é a distribuição de probabilidade, quão uniforme é nos acontecimentos. A mesma estrutura matemática é usada muitas e muitas vezes, mas a distribuição que estamos a descrever muda dependendo do contexto da aplicação e, por exemplo, podemos falar acerca da informação de Shanonn na arquitectura causal de um sistema, que mede a quantidade de memória armazenada, e não quão difícil de prever é esse sistema. Com arquitectura causal, queres dizer o ``que causa o quê no sistema"? Sim. Quantos graus de liberdade activos. Se olhar para um fluido turbulento ou se o motor do meu carro estiver a ``engasgar-se", quantos graus de liberdade existem? Quanto de um estado instantâneo de um sistema está a armazenar informação passada? Onde se localiza a informação armazenada? Ainda usamos a mesma forma matemática da função de informação de Shannon, mas aplicada a uma distribuição diferente e, por isso, o significado desse tipo de informação difere da sua noção original de quanta informação produz uma fonte de informação por unidade de tempo. O.K. Então, deixa-me perguntar-te o seguinte. Eu sei que tiveste muita influência na área da teoria do caos e sistemas dinâmicos, no passado. Como é que isso te levou ao pela informação e processamento de informação? - Bem, na história da física não linear e dinâmica não linear, um dos primeiros passos importantes foi dado pelo matemático russo Andrey Kolmogorov e pleo seu aluno Yakov Sinai. Eles foram buscar a noção de informação que Shannon tinha introduzido em meados dos anos 40 e aplicaram-na a sistemas dinâmicos não lineares. Aquilo que os interessava era: se tivermos dois sistemas dinâmicos diferentes, que sabemos intuitivamente ser caóticos ou, mais ou menos imprevisíveis, mas com graus diferentes, como quantificá-los. Eles foram buscar a noção de informação de Shanonn, usando o seu conceito de taxa de entropia da fonte e introduziram o que agora se chama entropia Kolmogorov-Sinai. Portanto, se eu tiver um sistema caótico não linear, um conjunto de equações diferenciais determinísticas, posso agora medir esta taxa de produção de informação e dizer que um sistema é mais caótico e mais difícil de prever que outro. Assim, a resposta directa e histórica é que, ao estudar sistemas dinâmicos não lineares, em particular aqueles que são caóticos a informação tem uma longa história , com meio século, no modo básico como entendemos a produção de informação em sistemas naturais. - O.K. Em que é que estás a trabalhar agora? Qual é a coisa mais te entusiasma, que merece a tua atenção? - Eu fiz um paralelo com a informação que conheço - o sentido de informação - com o antigo período de tentar perceber o que era a energia, por isso eu diria que a coisa mais interessante agora é perguntar se existe uma relação fundamental, num sistema natural que tem diferentes tipos de energia e se comporta ao longo tempo e de que modo isso se relaciona com a produção de informação do sistema - informação e armazenamento; assim, a questão aqui é se há limites fundamentais à quantidade de processamento de informação que podemos extrair de um sistema natural, ou de um sistema desenhado, como um computador, e quanta dissipação de energia é necessária. Trata-se de um área nova chamada termodinâmica da informação. Estamos a tentar perceber a relação directa entre energia e informação. - Interessante. Falámos com a Liz Bradley na última unidade. Ela falou acerca de olhar para os computadores como sistemas dinâmicos e medi-los nesses termos. Isso está relacionado com o tipo de coisas que estás a fazer? - Sim, bem, a Liz e eu estamos, na verdade, a pensar em pegar nalgumas das nossas medidas de armazenamento e processamento de informação e aplicá-las a tipos simples de circuitos lógicos e à sua implementação física e ver se existe alguma relação entre o grau de processamento informação e a dissipação de energia. As ideias básicas remontam a Rolf Landauer na IBM Reserarch. Rolf faleceu há pouco e tinha esta noção, agora consagrada no Princípio de Landauer, que diz que por cada bit de manipulação lógica que um sistema faz, é necessário dissipar uma quantidade de energia que é proporcional ao número de bits, o número de escolhas que o sistema tem de fazer nas suas operações lógicas, e conjecturou que este é um limite fundamental. Está-se agora a testar a sua ideia. Uma área que está agora a ser revisitada é a noção de demónio de Maxwell. Maxwell introduziu o seu pequeno demónio inteligente para separar moléculas lentas e rápidas em dois lados diferentes de uma caixa, aumentando assim o diferencial de temperatura e permitindo a extracção de trabalho. E assim, existe uma noção de quão inteligente é o demónio pela quantidade de trabalho extraído. Voltando a isto, temos uma espécie de um sistema protótipo que nos permite falar acerca de inteligência ou processamento de informação, por um lado dissipação de energia e extracção de trabalho, por outro. O.K., é muito interessante. Uma última pergunta. Muitos estudantes têm-nos perguntado como é que alguém se inicia na investigação em sistemas complexos, não havendo um curso de sistemas complexos na maioria das universidades. O que recomendarias aos estudantes que estão mesmo interessados em ingressar nesta área? - Bem, penso que deveriam assistir ao teu curso "online". E eu estou também a colocar o meu curso e suspeito que, dadas as conversas exactamente acerca deste tópico de cursos abertos massivos online (MOOCs) possa ser cada vez mais fácil fazê-lo. É um bocado difícil. Existem certas áreas básicas que eu penso que deveriam ser estudadas e eu tenho a minha lista favorita -- física -estatítstica, teoria da informação, teoria de dinâmica não linear computacional . Eu dei uma lista como essa, excepto que a minha incluía evolução de aprendizagem e aprendizagem. Certo. Eu vejo isso aplicações de coisas básicas. Mas tens razão -- outros tipos de sistemas, certamente outras questões acerca de armazenamento e processamento de informação, mesmo de disispação de enrgia, aplicam-se tamém a sistemas ecológicos e de aprendizagem, sistemas adaptativos e sistemas evolutivos. Portanto estas deveriam constituir um itinerário básico para sistemas complexos. Esperemos que no futuro, embora eu pense que ainda não exista, como salientaste, venha a existir uma universidade que dê um passo em frente e permita algo como um programa de estudos graduados em sistemas complexos, para o que será preciso ser-se um pouco aventureiro. Não há falta de monografias de investigação popular e semi-popular por aí, por isso talvez o teu curso possa dar uma lista de recursos desse tipo, mas, ainda temos de juntar estas coisas. Certo. Está bem. Muito obrigada. Foi muito bom. Gostei muito. - Tive todo o gosto em ajudar. O.K.