Entonces, Jim Crutchfield ocupa el sitio de invitado para esta unidad. Es profesor de Física en la Universidad de California en Davis y director del Centro de la ciencia de la complejidad. También es un profesor externo en el Santa Fe Institute. Jim es uno de los pioneros en el campo de la Teoría del Caos, y ha investigado durante muchos años en una variedad de temas sobre Complejidad, especialmente en lo relacionado con el procesamiento de la información en sistemas complejos. ¡Bienvenido, Jim! Hola, ¿cómo estás? ¡Bien! Voy a preguntarte tan sólo cuál crees que es el rol de la información para entender a los Sistemas Complejos. Bueno, la respuesta corta y sencilla es que definitivamente es un concepto clave. Uno de los roles importantes que asume es que, en algún sentido, reemplaza a las cantidades en las que estamos interesados. El contraste o paralelo que usaría es en Física, donde esa clase de objeto dominante o concepto o entidad en la que estamos interesados es la energía. Y por cierto hay numerosas aplicaciones exitosas de física más o menos tradicional, como la física de transiciones de fase a los sistemas complejos. Pero muchos de estos sistemas complejos si pensamos en redes sociales o sistemas diseñados por el hombre como la Intenet, no tienen necesariamente una noción apropiada de energía, así que la información de muchas maneras la sustituye al tratar de describir como es un sistema complejo. Diferentes tipos de sistemas de procesamiento de la información y almacenamiento pueden asociarse a la forma en que se organiza un sistema. Así que es un concepto fundamental. Por cierto, la noción original de Shannon de la información como un grado de sorpresa, del grado de impredecibilidad de un sistema, cuán aleatorio es, necesita ser ampliado: eso es sin duda el foco de mucho de mi trabajo, es tratar de delinear que existen muchos tipos de información, no solo la de Shannon. que es, en el contexto de la teoría de la comunicación, un grado de sorpresa. Hablemos de un ejemplo particular. Hemos hablado, por ejemplo, de colonias de hormigas. Cómo piensas que la información encajaría allí, y cuales serían los diferentes tipos de información. El enfoque básico que usamos es comenzar con la perspectiva de Shannon de todo tipo de proceso o sistema natural o diseñado como un canal de comunicación. Ahora bien, este concepto puede aplicarse de muchas, muchas maneras diferentes. Así que en el sentido más general podemos pensar de cualquier proceso temporal como un canal de comunicación que comunica el pasado con el futuro. y podemos aplicar esa imagen de comunicación a una colonia de hormigas. Y hay muchos niveles en los que se puede aplicar hay una noción de la organización del nido qué tipo de información social y hasta de arquitectura de la información está construida como parte de la organización social o de la propia estructura del nido. Y todas esas cosas expresan - - todos esos tipos de organizaciones expresan un cierto sumario del comportamiento pasado de las hormigas que les es importante para sobrevir y por consiguiente vivir en el futuro. Podemos también acercarnos un poco y preguntarnos que es lo que está siendo comunicado y cómo es que la colonia se organiza alrededor de ciertas actividades. Así que sería un nivel más individual. Quizás aparece una fuente de comida a cierta distancia del nido. ¿Cómo se comunica esto? ¿Cómo varían las diferentes poblaciones de obreras y recolectoras a lo largo del tiempo en respuesta a los distintos recursos disponibles? Y podemos también hablar de ello en términos de información cuánto cambia la estructura de información de la colonia en base a esta nueva información externa. cuánta memoria existe, etc. Así que, ¿es la información algo real, en el sentido en que la masa y la energía son cosas reales? ¿Es el mismo tipo de cantidad física? Estamos todavía trabajando en ello. Básicamente, sí. No deja de ayudar el retroceder cuatrocientos o quinientos años a las primeras discusiones elementales de qué era la energía en los fundamentos de la física. En los siglos XVI y XVII, hubo muchas discusiones sobre si la energía (la energía cinética) dependía de la velocidad de un objeto o del cuadrado de la velocidad. Y en ese entonces, podemos ver que había una confusión entre el impulso y la energía cinética. Creo que es así, en cierto sentido estamos en el mismo período tratando de entender que, antes que nada, no hay una noción unitaria de información. Hay distintos tipos de información que tienen distintas contextos diferentes en situaciones diferentes. El movimiento se demuestra andando: ¿es útil? Si, hay muchas aplicaciones de esto. Hemos podido demostrar que el almacenamiento y procesamiento de información es relevante para describir como aparecen las propiedades emergentes y podemos llegar a resultados cuantitativos en sistemas de formación de patrones o sistemas dinámicos no lineales. Así que hay muchos ruedos en la física matemática en la dinámica no lineal donde el concepto es extremadamente útil. y esperamos que crezca la variedad de aplicaciones y cuando vaya sucediendo nuestra noción de información y de los tipos de información se verá enriquecida. Hemos hablado sobre definir la complejidad en este curso, de que es una cosa difícil de conseguir. Y la gente tiene distintas definiciones, así que: ¿cómo encaja la información en tu definición particular de complejidad? A riesgo de sonar un poco simple, desde mi punto de vista son esencialmente sinónimos. Pero no la información de Shannon. Bueno, vale, entonces... Correcto. Está la definición matemática de la información de Shannon, que es, para decirlo de la manera más simple, decir cuánta información hay en la corriente de eventos probabilíticos. Matemáticamente, es justamente cuán plana es la distribución de probabilidad, cuán uniforme es sobre los eventos. Esta misma estructura matemática es reutilizada una y otra vez, pero la distribución que estamos describiendo cambia con el contexto de aplicación y por ejemplo puedes hablar de la información de Shannon en la arquitectura causal de un sistema, y esto mide la cantidad de memoria almacenada, no cuán difícil es predecir el sistema. Por arquitectura causal quieres decir algo así como ¿qué causa qué en el sistema? Exacto. Cuantos grados de libertad activos hay en el sistema. Si miro un fluido turbulento o el motor de mi coche está en ralentí inestable, ¿cuántos grados de libertad activos hay? ¿Cuánto del estado instantáneo del sistema está almacenando la información pasada? ¿Dónde reside el almacenamiento de información? Y aún necesitamos usar la misma forma matemática, la función de información de Shannon, pero se aplica a una distribución diferente y por consiguiente el significado de este tipo de información difiere de su noción original de cuanta información produce una fuente de información por unidad de tiempo. Vale, me gustaría preguntarte: se que has tenido mucha influencia en el campo de la Teoría de Caos y la Dinámica en el pasado. ¿Cómo te ha conducido a tu interés actual en la información y el procesamiento de la información? En la historia de la física y la dinámica no lineales uno de los pasos pioneros más importantes lo dio el matemático ruso Andrey Kolmogorov y su alumno Yakov Sinai. Ellos tomaron prestada la noción de información que presentó Shannon a mediados de los años 40 para aplicarla a los sistemas dinámicos no lineales. Estaban interesados en lo siguiente: si tienes dos sistemas dinámicos diferentes sabían intuitivamente si eran caóticos o, en diferentes grados, más o menos impredecibles, pero no pudieron ser cuantitativos hasta que tomaron prestada la noción de información de Shannon tomando su concepto de tasa de entropía de la fuente y encontraron lo que ahora conocemos como entropía de Kolmogorov-Sinai, así que si tengo un sistema no lineal caótico un conjunto determinista de ecuaciones diferenciales, y puedo medir esta tasa de producción de información. y puedo decir que un sistema es más caótico y más difícil de predecir que el otro. La respuesta histórica directa es, al estudiar los sistemas dinámicos no lineales, en particular los que son caóticos la información tiene una larga (medio siglo) historia en la manera fundamental en la que entendemos la producción de información en los sistemas naturales Vale. ¿En qué estás trabajando ahora? ¿Cuál es lo que más te entusiasma que haya atrapado tu atención? He contrastando la búsqueda de sentido actual de qué es la información con el período anterior de tratar de entender qué es la energía así que diría que lo más interesante que podemos preguntar es: ¿hay una relación fundamental en un sistema natural que tiene diferentes tipos de energía en su comportamiento a lo largo del tiempo, y como se relaciona con la producción y almacenamiento de información del sistema? La pregunta aquí es: ¿hay límites fundamentales en la cantidad de procesamiento de información que puedes extraer de un sistema natural, o de un sistema diseñado como un ordenador y cuánta disipación de energía se requiere? Hay un nuevo campo ahora llamado "termodinámica de la información" que trata de entender la relación directa entre energía y la información. Interesante. Hablamos con Liz Bradley en la última unidad. Nos habló acerca de mirar a los ordenadores como sistemas dinámicos y medirlos. ¿Se relaciona esto con el tipo de cosas que estas mirando? Si, Liz y yo estamos hablando de usar algunas de nuestras métricas de procesamiento y almacenamiento de información y aplicarlas a tipos sencillos de circuitos lógicos y a su implementación física y ver si hay alguna relación con el grado de procesamiento de información y la disipación de energía. Queremos volver a algunas ideas básicas de Rolf Landauer, de IBM Research. Rolf acaba de fallecer. Él tenía esta noción ahora consagrada en el "principio de Landauer" que dice que por cada bit de manipulación lógica realizada por un sistema tienes que disipar una cantidad de energía proporcional al número de bits KT log el número de opciones que el sistema tiene que tomar, [K es el número de Boltzmann] el número de sus operaciones lógicas, y él postulaba que es un límite fundamental así que la gente está ahora verificando esta idea. Una arena que está siendo ahora revisada es la del demonio de Maxwell. Maxwell presentó a su pequeño demonio sagaz para ordenar moléculas rápidas y lentas en lados diferentes de una caja, aumentando así la diferencia de temperatura y permitiendo que se extrajera trabajo. Así que hay una noción de cuán inteligente debe ser el demonio para extraer cuánto trabajo. Revisando eso, que es como un sistema prototípico que nos deja hablar de inteligencia o procesamiento de la información por un lado y por el otro de disipación de enegía y extracción de trabajo, Vale, muy interesante. Una última pregunta: muchos estudiantes se preguntan como ingresar al campo de los Sistemas Complejos y no hay una maestría sobre sistemas complejos en la mayoría de las universidades. ¿Qué recomiendas a los que están realmente interesados en comenzar a trabajar en este campo? Bueno, creo que debería tomar tu curso en línea. Y también estoy por sacar mi propio curso y, sospecho, por lo que estamos charlando este tema de los cursos abiertos masivos en línea (MOOCs) que va a ser cada vez más sencillo hacerlo, es un poco duro, ¿sabes?, hay ciertas áreas básicas que creo que debieran estudiarse, tengo mi propia lista de favoritos física estadística, teoría de la información, computación dinámica no lineal. Di una lista como esa pero la mía incluía aprendizaje evolución y aprendizaje. Correcto, los veo como aplicaciones de los fundamentos pero tienes razón, otros tipos de sistemas, por cierto y otras preguntas sobre el procesamiento y almacenamiento de información hasta la disipación de energía son de aplicación a los sistemas ecológicos y de aprendizaje a los sistemas adaptativos y también a los sistemas evolutivos. Así que esos también constituyen algunos de los fundamentos del itinerario de los sistemas complejos. Con suerte, en el futuro, aunque todavía no se ha hecho, como has señalado alguna universidad dará un paso adelante para permitir algo así como una maestría en sistemas complejos y como resultado tienes que ser un poco aventurero No faltan libros monógráficos de investigación populares y semi-populares así que quizás puedas dar una lista de recursos como estos pero aún así tenemos que forjar De acuerdo Perfecto. Muchas gracias. Ha sido fantástico y realmente te lo agradezco. Seguro, encantado de poder ayudar. Vale