Mi nombre es Seth Lloyd, soy profesor de ingeniería mecánica cuántica en el MIT y soy miembro adjunto de la facultad del Instituto Santa Fé. Y estoy aquí para hablarles sobre información y teoría de la información. No es ningún secreto que el mundo está repleto de información, y que estamos en medio de una revolución en el procesamiento de información, basada en computadoras ultrarápidas y medios de comunicación de banda ancha, teléfonos inteligentes y todas estas cosas. Pero, ¿qué es la información? ¿Cómo la describimos? y ¿cómo podemos tratarla matemática y científicamente? Hay una cita famosa de Gregory Bateson que dice "¿Qué es la información?" Entonces es "la diferencia que hace la diferencia"? ¿Qué significa esto? de hecho, no tengo idea de lo que significa. "La diferencia que hace la diferencia". Es demasiado difícil para mí. Pero empecemos por la idea de diferencia. Que, de alguna manera, la información, que sólo viene del latín "informar", "cambiar la forma de" que la información se relaciona con lo que nos hace ser nosotros. ¿Qué me hace ser yo? algo como la información genética en mi ADN, o el color de mi camisa o mi falta de cabello. Esto es una forma que yo tengo. Entonces, ¿qué es la información? Una buena manera de pensar sobre esto es ¿cómo medimos la información? ¿Se puede medir la información? ¿cuáles son sus unidades? Una buena manera de pensar en esto es en términos de energía. La energía es un concepto antiguo, que viene de Aristóteles. Energon Energon es el trabajo interno. Ergon es el trabajo, también significa "un trabajador" y energon es trabajo que de alguna manera está dentro de alguna cosa Hace algunos años, cuando era un estudiante de posgrado, asistí a la primera escuela de verano del Instituto Santa Fé, en 1988, donde solía ir al bar El Farol, un antro local. Ahí estaba una noche, tomando unos aperitivos, cuando empecé a platicar con la persona que estaba a mi lado. Era una persona cuyo trabajo era ir a la casa de la gente a limpiar sus cristales de vibraciones dañinas. Y me dijo que las vibraciones en los cristales tienen cantidades tremendas de energía y que esta energía es, por naturaleza, buena y positiva, pero que a veces los cristales absorben energía negativa de las visitas, y que entonces él lleva a cabo ceremonias que incluyen energías de delfines y seres angelicales para remover las vibraciones dañinas de los cristales. Entonces le dije "Oye, sabes, de hecho yo soy físico y es verdad que hay energía en las vibraciones de los cristales, pero esa energía es muy muy pequeña. De hecho es mucho menor que la cantidad de energía en este pedazo de queso" Y entonces me dijo cuánto dinero ganaba invocando energías de delfines y seres angelicales y entonces tuve que callarme porque él ganaba mucho más que yo como posdoc en Los Álamos. Entonces... Pero una de las cosas más importantes sobre la energía es que la podemos medir. Los grandes avances en el estudio de la energía ocurrieron en el siglo 19, cuando la gente se dio cuenta de que el calor era una forma de energía, que se puede convertir en trabajo, y que se podía medir la cantidad de energía en forma de calor, se podía medir la energía en forma de trabajo, indepen- dientemente de si era energía angelical o si provenía de los delfines o los cristales originalmente. Y lo mismo es cierto para la información. Entonces pensamos que la información es muy importante. Es aquello que obtenemos en nuestros iPhones, es lo que tú me dices a mí, lo que yo te digo a tí; es algo que hace una diferencia para nosotros, pero si intentamos medir la información, entonces habremos logrado algo importante. Y de hecho, esto es bien conocido, hay una unidad para la información. El bit. El bit es una unidad de información, que significa "dígito binario", según lo propuso John Tukey en IBM y después retomado por Claude Shannon, quien fue el fundador de la teoría de la información moderna. Y la idea es que el bit es una medida de diferencia. Un bit mide la diferencia entre dos posibilidades, conocidas ampliamente como 0 y 1, pero que podrían ser cualquier par de posibilidades: verdadero y falso, sí y no, calor y frío... si tú dices que algunas cosas son muy calientes y otras muy frías, lo cual muestra que la información será a menudo aproximada. Y la forma en la que funciona esa revolución del procesamiento de información de la que somos parte es que las computadoras, que son dispositivos que procesan la información, descomponen la información en sus partes más pequeñas, los bits, y luego reacomodan esos bits. Entonces, por ejemplo, 0 pasa a 1 y 1 pasa a 0, eso es un reacomodo de un bit. O en el caso de la lógica, se llama un NO Entonces NO verdadero es falso y NO falso es verdadero. Entonces, si tenemos esta noción binaria de información, podemos hablar tanto de la unidad fundamental de la información, el bit, como del procesamiento de información. Y en el fondo, esta revolución en el procesamiento de información en la que estamos participando viene de descomponer la información en sus partes más pequeñas, los bits, y después reacomodar esos bits de forma sistemática. De hecho, si observamos nuestro cerebro, que está procesando información, nuestras neuronas son células que toman información de muchas otras neuronas y después deciden si pasan de un estado inactivo, que llamamos 0, a uno activo, que llamamos 1. Y después, este bit de información, este 1, este estado activo, es procesado y propagado electromagnéticamente a otras neuronas, que a su vez disparan por su parte, y todo lo que está sucediendo dentro de nuestra cabeza es simplemente este reacomodo, procesamiento y transmisión de bits. Y eso es todo lo que está sucediendo dentro de tu PC, tu Mac, tu iPod, tu iPhone o lo que sea que hace tu dispositivo para procesar información. Y de este hallazgo central, que hay una unidad de información, que podemos medir la información, obtenemos toda la teoría de la información y toda la computación. Entonces, déjenme describir cómo funciona todo esto con mayor detalle.