hola esta es la sección 3e y vamos a entrar en detalles en una de las aplicaciones más conocidas de las matrices y del álgebra de matrices; algo que se llama Cadenas de Markov; Markov, dicho sea de paso, fue un probabilítico ruso del siglo XIX y su nombre es aún común en nuestros días encontrarlo por todas partes en estadísticas y en la literatura sobre probabilidades una Cadena de Markov es simplemente una secuencia de vectores, a veces llamados vectores de estado, se especifican esos vectores de acuerdo a un criterio de probabilidad; veamos algo de la notación, entonces tenemos una secuencia de lo que llamamos vectores de estado de las Cadenas de Markov, dicho sea de paso, estos vectores se llaman vectores de estado debido a que uno de los objetivos típicos de las Cadenas de Markov es modelar un proceso que cambia dinámicamente a lo largo del tiempo, i.e, vamos a relacionar los estados al tiempo 0, tiempo 1, tiempo 2 y así sucesivamente para todo el proceso dinámico además de esto, cada vector es en un sentido matemático lo que se denomina como un vector de probabilidad; i.e., la suma de los componentes es igual a 1, entonces por ejemplo el vector, digamos X .5 .5 en R2, cuando sumamos esos componentes nos da 1, eso es lo que se llama el vector de probabilidad y la razón por la que traigamos estos vectores de probabilidad acá, es debido a que vamos a describir este cambio dinámico a lo largo del tiempo a través de un mecanismo probabilístico en particular ese mecanismo o ese motor si lo quieren ver así, para definir a las Cadenas de Markov, vamos a actualizarlo a través de la multiplicación de matrices, en forma más específica por la multiplicación de lo que se llama una matriz estocástica vamos a ver algunos de los detalles matemáticos detrás de las cadenas de Markov; una vez más una Cadena de Markov es una secuencia de vectores, nos vamos a referir a esos vectores como vectores de estado, debido a que describen los estados de un proceso dinámico a lo largo del tiempo, en un sentido matemático estos vectores son vectores de probabilidad, en otras palabras la suma de sus componentes es igual a 1 Cómo definimos esta tendencia que va de estado a estado en una Cadena de Markov? vamos a comenzar con algo que se llama la condición de Markov, lo que vamos a hacer en otras palabras es agregar un estado del tiempo, digamos k, tenemos el vector Xk, para determinar el siguiente paso de nuestro sistema, el próximo vector, en otras palabras la secuencia, multiplicamos ese vector actual a la izquierda por una matriz P y esa matriz es lo que llamamos una matriz estocástica y lo que eso significa es que las columnas de la matriz P son vectores de probabilidad, en otras palabras, la suma de los componentes para cada columna es igual a 1 en forma respectiva, acá tenemos un ejemplo simple de una matriz estocástica, noten que la suma de los componentes de 1 es 1 y la suma de los componentes de la columna 2 es también igual a 1 es válido acá en la definición de esta Cadena de Markov, la condición de Markov, pueden notar que una de las consecuencias de esa condición de Markov es la siguiente y es algo que podemos llamar el supuesto del modelo, para nuestra Cadena de Markov y es que cada vector, por la definición de acá, en nuestra secuencia depende únicamente del estado previo, podemos decir que este proceso dinámico tiene una memoria de corto plazo, en otras palabras vamos a estar mirando al estado previo y multiplicar por esta matriz P, la matriz estocástica y así establecemos cual es el siguiente paso en la Cadena