Hay otro sentido en el que este slogan es verdadero el de que todos los sistemas físicos contienen informacion ejemplos específicos de esto; Interruptor abierto o cerrado contiene informacion presencia o no de un fotón -partícula de luz-, contiene información fotón polarizado horizontal o vertical contiene información pero el descubrimiento, de que todos los sistemas físicos contienen información es un descubrimiento muy antiguo Si tenemos un sistema físico con n bits, eso implica que tiene dos a la n que representaré como mayúscula ( porque n mayúscula es mayor que n minúscula) tien dos a la N estados posibles Conversamente, un sistema con N estados puede ser usado para representar logaritmo base dos de N bits El logaritmo es básicamente el numero de bits necesarios para representarlo por ejemplo, is N es igual a ocho, el logaritmo base 2 es igual a tres es el número de bits que necesito para escribir ocho como ocho es igual a 1 0 0 0, es solamente el numero de ceros en los bits asi, cuando tenemos un sistema que no solo tiene dos, cuatro u ocho estados o dies y seis o mil veinte y cuatro estados sigue representando información si tengo un sistema que tiene tres estados por ejemplo: si, no y quizás, entonces representa log base 2 de tres que es igual a uno y algo mas bits es entre log base 2 de dos que es igual a un bit y log base 2 de cuatro que es igual a dos bits así, algo co tres estados diferentes no es binario, sinó terciario por lo que tiene un número de bits entre uno y dos esta observación de que un sistema físico que tiene un numero diferente de estados distintos puede registrar una cierta cantidad de información es algo que se descubrió en el siglo 19 físicos como Maxwell y Boltzman en Viena Maxwell en Cambridge y Gibbs en Yale descubrieron la cantidad llamada entropía Que es entropía? Entropía es algo que interfiere con la capacidad de hacer trabajo es una medida de desorden o de aleatoreidad La forma en que se llegó al concepto de entropía en el siglo 19, fue buscando como la energía podía convertirse a otras formas de energía éstos científicos y otros, tenían interes en la conversión de calor a trabajo Hay un resultado famosos llamado la segunda ley de la termodinámica Esta ley básicamente expresa que la entropía se incrementa o tiende a incrementarse pero que es la entropía? En el siglo 19 estos científicos sabían que la energía y el calor eran energía cinética. La energía microscópica de moléculas en movimiento. moléculas que al rebotar unas con otras tenían una cantidad de energía cinética la energía de movimiento que podíamos identificarla como energía térmica la energía de todas las moléculas individuales de un gas, como el de este cuarto hay una cierta cantidad de energía que se puede medir y tambien sabían que era posible transformar esta energía en trabajo, usando -por ejemplo- la máquina de vapor Si tenemos un pistón en un cilindro, aquí están todas las moléculas de vapor rebotando de ida y vuela, y al mover el pistón, gradualmente se ralentizan su energía dismiunuye al convertirse en trabajo en la máquina de vapor pero no toda la energía se puede convertir en trabajo Porqué? Es porque esas moléculas que rebotan unas con otras tienen un grado de desorden y, ese grado de desorden no se puede decrementar aún despues de que el pistón se mueve, las moléculas tienen que moverse y tienen un grado de desorden así que no es posible extraer toda la energía cinética de esas moléculas Estos ""muchachos" siendo "muchachos" (incidentalmente; en éstas lecturas uso el término "muchachos"para referirme no solo a hombres, sinó tambien a partículas o a mujeres) éstos muchachos se dieron cuenta de que querían una fórmula para la entropía, para describir esa cantidad que no se decrementaba nunca Ellos decían: sea N igual al número de estados o configuraciones posibles O como Boltzman les llamaba "Complexiones" de las moléculas de un gas si definían la cantidad S como igual al logaritmo de N, podemos observar que es la cantidad de información que está contenida en las moléculas del gas solo al contasr el número posible de estados, configuraciones o complexiones esta cantidad aquí, el logaritmo de N es el número de bits requerido para etiquetar cada una de las complexiones diferentes o estaedos de las moléculas del gas y si se define S como proporcional a ésto, se definió k que ahora es llamada la constante de Boltzman si se define S como k log N entonces esta es la cantidad de entropía la cantidad termodinámica que previene a las máquinas térmicas de obtener toda la energía de las moléculas esa cantidad es tan famosa que aparece en la tumba de Boltzman El murió por propia mano en 1906 después de una visita a U.S.A. No se si hay una correlación con ésto pero en aquellos días, si alguien tenía una fórmula famosa, la ponían en su tumba hay una historia interesante acerca de que la constante k en la tumba de Boltzman fue en realidad del famoso físico Max Planck y que originalmente fué llamada la constante de Planck pero Planck ya tenía otra constante llamada con su nombre, h, la cual vamos a encontrar de nuevo porque gobierna la conducta cuántica de las cosas entonces aparentemente la gente decidió llamar k la constante de Boltzman Que pensaría Boltzman si supiera que en su tumba está la constante de otro? posiblemente esté inquieto en su tumba...