Por supuesto, tenemos un modelo en NetLogo para ilustrar nuestra máquina de juego. Esta fue amablemente escrita por nuestro TA, John Balwit. Si le doy click en “reset”, muestra la máquina de juego, y tenemos nuestras tres ventanas con nuestras frutas Y puedo escoger el número de jugadas que quiero. Voy a escoger una para empezar y voy a dar click en “Levanta la palanca N veces”. La palanca es levantada una vez, y tenemos un nuevo microestado’; si la jalamos de nuevo, ¡oh! tenemos tres de la misma, ¡mucha suerte! Ok. Podemos escoger el macroestado que estemos interesados. Lo voy a especificar como tres del mismo tipo. Ok. y, puedo preguntar cuántos veces podría esperar ver esto en, 1000 jugadas. Bueno, podemos investigarlo, voy a hacerlo escribiendo una nota. Ok. Mi nota va a decir, “Probabilidad de ver el macroestado ‘tres del mismo tipo’”, podemos decir que hay 5 microestados que fueron incluidos en ese macroestado, es decir, cereza-cereza-cereza, limón- limón- limón, etc,etc, y que fueron 125 posible microestados; entonces, la probabilidad será 5 dividido por 125, lo ponemos todo en una línea 5 dividido por 125, que es igual a .04. Esta es la probililidad si jalamos la palanca una vez que veríamos tres del mismo tipo: 4%. Entonces, el número de veces que esperamos ver nuestro macroestado en 1000 jugadas, va a ser igual a la probabilidad de una jugada multiplicada por el número de jugadas, que es igual a 40. Vamos a ver si nos acercamos a lo que es esperado. Por supuesto, hay algo de azar... Voy a reiniciar, y jalar la palanca 1000 veces. Si adelantamos un poco quizá… y vamos a ver… va más despacio cuando le toca el premio: podemos ver el premio. Y, puedes ver que aquí nuestro número de veces que nuestro macroestado es visto -tres del mismo tipo- .Y aquí es el número de veces que nuestro no-macroestado, que es el microestado "ganador" y el macroestado "perdedor", y estamos verificando nuestra teoría experimentalmente, que dice que esperamos ver cerca de 40 veces; bueno 46. Por supuesto, si corremos otra vez y otra vez, y tomamos el promedio sería cerca de 40. Podrás usar esto para resolver parte de los problemas de tarea que incluyen otros macroestados, que veremos un poco más tarde. Ahora, vamos a retomar nuestra discusión de entropía y mecánica estadística. Si recuerdas nuestro modelo de dos gases en NetLogo, donde teníamos dos cuartos, uno que contenía las partículas lentas y el otro que contenía las partículas rápidas y cuando abrimos el orificio, se comenzaban a mezclar De manera que teniamos al principio, y esto al final, y decíamos que la entropía aquí era menor que la entropía aquí, es decir que por la segunda ley de la termodinámica, la entropía incrementaba. En nuestro nuevo lenguaje de microestados y macroestados, podremos decir que, microestado del sistema es las posiciones y la velocidad de cada partícula, que es como la posición y la identidad de cada una de las frutas en la máquina de juego. Aquí, tenemos un macroestado, todas las moléculas que se mueven rápido a la derecha, y todas las partículas lentas en la izquierda; y aquí tenemos otro tipo de macroestado, partículas rápidas y lentas que están completamente mezcladas. Si lo consideras, nuestro macroestado a la izquierda corresponde a menos posible microestados que el macroestado a la derecha. Esto es, hay más maneras que diferentes partículas puedan ser arregladas, en términos de la posición y velocidad, para crear un macroestado de partículas completamente mezcladas -rápidas y lentas-, que maneras en las que podrías crear este más ordenado macroestado. Aquí, en este lado, por supuesto, hay muchas maneras diferentes en las que partículas azules podrían estar individualmente arregladas, y las partículas rojas podrían estar individualmente arregladas de manera que todas las partículas rápidas estén a la derecha y que las partículas lentas estén a la izquierda. Es sólo que hay menos de estos arreglos que de los arreglos en donde todas estan mezcladas. Hay muchos lugares diferentes donde esta esta pequeña partícula podría estar o esta pequeña partícula azul podría estar, de manera que todas estén mezcladas. Y eso es cierto para todas nuestras partículas. Entonces, la noción en mecánica estadística de entropía alta y baja, corresponde muy bien con nuestra noción intuitiva de estados “más desordenados” y “más ordenados” Esto nos da una nueva manera de explicar la segunda ley de termodinámica. Primero, en nuestra original descripción decimos que en un sistema aislado, entropía siempre incrementa hasta que alcanza un valor máximo, pero ahora, podemos ver la versión de mecánica estadística de la segunda ley, que dice que en un sistema aislado, el sistema siempre progresa al macroestado que corresponde al máximo número de microestados. La definición de Boltzmann de entropía es convenientemente grabada en su tumba en Viena. De manera que nadie pueda olvidarla. Su definición dice que la entropía S de un macroestado es el número k multiplicado por el logaritmo natural, es decir “log”, o logaritmo natural del número W de microestados que corresponden a ese macroestado. Bueno, k, es llamada la constante de Boltzmann. Esta constante y el logaritmo son solo para poner la entropía en unidades particulares. Entonces, puedes verla como S es igual a W. La entropía de Boltzmann es igual o es proporcional, en algun sentido, al número de microestados de corresponden al macroestado. Entonces, entropía es una medida del macroestado y mide cuántos microestados corresponden a ese macroestado. La idea general es que, mientras más microestados dan lugar a un macroestado, ese macroestado es más probable. Entonces, nuestra máquina, el macroestado “perder” era mucho era mucho más probable que el macroestado “ganar” y vimos que hay más microestados que corresponden al macroestado “perder” que al macroestado “ganar”. Intuitivamente, alta entropía solo significa un macroestado más probable. O, que en nuestro ejemplo del gas, es mucho más probable que, si la puerta está abierta aquí, las moléculas se mezclaran que ellas solo se o el sistema se re-arreglará en el estado en que todas las moléculas rápidas estén a la derecha y que todas las moléculas lentas estén a la izquierda. Es mucho más probable que se mezclen y estén en este estado, que en este estado. Entonces, podemos decir que este estado tiene mayor entropía que este otro. Ahora podemos, hacer una versión final de la ley de la termodinámica, usando nuestros términos de mecánica estadística, y podemos decir, que un sistema aislado, el sistema tenderá a cambiar al estado más probable. Bueno, esto puede parecer una tautología, pero es una de las ideas más profundas en física y da significado a la noción de tiempo. Encontrarás algunas lecturas opcionales en nuestra página de Materiales del Curso, que profundizan en esta idea con más profundidad que del que tenemos timepo en este curso.