Posgrado

PosgradoProbabilidad y estadísticaProcesos estocásticos


Cadenas de Markov


Una cadena de Markov es un sistema matemático que experimenta transiciones de un estado a otro de acuerdo con ciertas reglas probabilísticas. La característica única de una cadena de Markov es que el estado futuro depende solo del estado actual, no de la secuencia de eventos anteriores.

Introducción a las cadenas de Markov

Considere un ejemplo simple como el clima: si conoce el clima de hoy, puede predecir el clima de mañana, sin necesidad de saber el clima pasado mañana. Este es un ejemplo clásico de la propiedad de Markov, que establece que el sistema es "sin memoria". Las cadenas de Markov esencialmente modelan situaciones donde esta propiedad es verdadera.

Conceptos básicos

Antes de profundizar en las cadenas de Markov, definamos algunos términos básicos:

  • Estado: Una descripción del estado del sistema de Markov en cualquier momento.
  • Transición: El proceso de moverse de un estado a otro en una cadena de Markov.
  • Probabilidad de Transición: La probabilidad de moverse de un estado a otro.

Representación matemática

Una cadena de Markov se representa por una matriz llamada matriz de transición. Cada elemento de la matriz representa la probabilidad de moverse de un estado a otro. Veamos un ejemplo:

P = | 0.7 0.3 | | 0.4 0.6 |

En esta matriz, 0.7 es la probabilidad de permanecer en el estado 1, y 0.3 es la probabilidad de moverse del estado 1 al estado 2.

Ejemplo visual

El siguiente diagrama muestra una cadena de Markov simple con dos estados:

S1 S2 0.3 0.4

En este ejemplo, la flecha que va de S1 a S2 tiene una probabilidad de transición de 0.3, lo que significa que hay un 30% de probabilidad de pasar del estado 1 al estado 2.

Tipos de cadenas de Markov

Principalmente hay dos tipos de cadenas de Markov:

  • Cadena de Markov de tiempo discreto: Este proceso avanza en pasos o estados discretos.
  • Cadena de Markov de tiempo continuo: Los cambios (transiciones) pueden ocurrir en cualquier momento.

Distribución estable

La cadena de Markov puede alcanzar un punto donde las probabilidades de estar en cada estado se vuelven estables. Esto se llama distribución estacionaria. Se puede calcular resolviendo la siguiente ecuación:

πP = π

Aquí, π denota el vector de distribución estacionaria, y P es la matriz de transición.

Ejemplo de texto

Supongamos que eres un ingeniero de aprendizaje automático trabajando en un sistema de recomendación para una plataforma de streaming. Te encuentras con dos estados que representan acciones de usuario: “mirando” y “navegando”. El usuario puede cambiar entre estos estados basándose en ciertas probabilidades. Usando una matriz de transición, representas estas probabilidades de la siguiente manera:

P = | 0.8 0.2 | | 0.5 0.5 |

Después de varias iteraciones, encuentras que la distribución de probabilidades no cambia. Esta distribución estable te ayuda a entender el comportamiento del usuario a lo largo del tiempo.

Aplicaciones de las cadenas de Markov

Las cadenas de Markov son utilizadas en una variedad de campos, incluyendo:

  • Economía: Modelado de precios de acciones y tendencias económicas.
  • Biología: Simulación de dinámicas poblacionales.
  • Teoría de colas: Modelado de sistemas con líneas de servicio.
  • Algoritmos computacionales: como el algoritmo PageRank de Google.

Ejemplos en teoría de colas

Imagina una cola de servidor único donde los clientes llegan al azar. El sistema puede ser modelado usando una cadena de Markov, donde los estados representan el número de clientes en el sistema. Las probabilidades de transición se basan en las tasas de llegada y servicio.

Por ejemplo, considere un supermercado con un mostrador de pago. Los clientes llegan a intervalos aleatorios, y el tiempo que lleva atender a cada cliente varía. Los tiempos de llegada y servicio forman la base de las probabilidades de transición, y la longitud de la cola representa los diferentes estados de la cadena de Markov.

Resolviendo cadenas de Markov

Resolver una cadena de Markov normalmente implica encontrar la distribución estacionaria. Esto generalmente se hace de una de dos maneras:

  • Iteración: Multiplicando la distribución inicial por la matriz de transición hasta que se vuelva estacionaria.
  • Solución directa: Usar álgebra lineal para resolver πP = π, con restricciones adicionales como que π suma 1.

Cálculo de ejemplo

Vamos a resolver la cadena de Markov usando recursión. Supongamos que tenemos una distribución de estado inicial: [1, 0]. Con una matriz de transición:

P = | 0.9 0.1 | | 0.2 0.8 |

Nuestra distribución inicial dice que comenzamos en el estado 1 con certeza. Después de una transición, la distribución se convierte en:

[1, 0] * | 0.9 0.1 | = | 0.9 0.1 |

Repetir estas multiplicaciones eventualmente dará la distribución estacionaria.

Conclusión

Las cadenas de Markov son herramientas poderosas en probabilidad y estadística para modelar procesos aleatorios. Son particularmente útiles cuando el sistema exhibe propiedades de Markov, donde el siguiente estado depende solo del estado actual y, por lo tanto, resume todo lo que necesitas saber sobre el pasado. Comprender los conceptos básicos de las cadenas de Markov te ayudará a abordar una amplia variedad de problemas en ciencia e ingeniería.

Los temas bajo cadenas de Markov, tales como tipos, aplicaciones y soluciones, son muy amplios, y el estudio continuo puede sentar una base sólida para temas avanzados en procesos estocásticos.


Posgrado → 5.3.1


U
username
0%
completado en Posgrado


Comentarios