Doutorado → Probabilidade e Estatística → Processos estocásticos ↓
Cadeias de Markov
Cadeias de Markov são um conceito essencial no estudo de processos estocásticos, um ramo da probabilidade e estatística. Nomeadas em homenagem ao matemático russo Andrey Markov, as cadeias de Markov são usadas para descrever sistemas que passam de um estado para outro de forma probabilística.
Introdução aos processos estocásticos
Antes de nos aprofundarmos em cadeias de Markov, vamos discutir brevemente o que são processos estocásticos. Um processo estocástico é essencialmente uma coleção de variáveis aleatórias indexadas por um parâmetro, que geralmente representa o tempo. Esses processos são usados para modelar sistemas que evoluem ao longo do tempo de maneira probabilística. Cada valor ou estado do sistema não é completamente determinado por nenhuma equação conhecida, mas sim de forma probabilística.
Entendendo as cadeias de Markov
Uma cadeia de Markov é um tipo específico de processo estocástico onde o estado futuro do processo depende apenas do estado atual, não da sequência de eventos anteriores. Esta propriedade é chamada de propriedade "sem memória", formalmente conhecida como propriedade de Markov. Em termos simples, significa que o processo não tem memória de onde estava antes.
Cadeia de Markov em tempo discreto
A forma mais comum de cadeias de Markov são as cadeias de Markov em tempo discreto. Esses sistemas passam por estados em intervalos de tempo discretos fixos. A cada passo, o sistema pode permanecer no mesmo estado ou mover-se para um estado diferente com uma certa probabilidade.
Localização de estados
O conjunto de todos os possíveis estados de uma cadeia de Markov é chamado de "espaço de estados." Por exemplo, se estivermos modelando condições climáticas como estados, os possíveis estados podem ser "ensolarado", "chuvoso" e "nublado".
Matriz de transição
As probabilidades de mover-se de um estado para outro são representadas em uma matriz chamada de "matriz de transição". Se houver n
estados no espaço de estados, a matriz de transição será uma matriz n × n
em que os elementos na linha i
e coluna j
representam a probabilidade de passar do estado i
para o estado j
. Um exemplo de uma matriz de transição para um modelo climático simples com três estados pode ser assim:
P = [ [0.7, 0.2, 0.1], [0.3, 0.4, 0.3], [0.2, 0.1, 0.7] ]
Certifique-se de que cada linha da matriz de transição some 1, uma vez que cada linha representa o conjunto completo de estados possíveis para os quais o sistema pode transitar a partir do estado atual.
Exemplo: Modelo climático
Vamos considerar uma cadeia de Markov simples que descreve mudanças climáticas:
- Condições: "ensolarado", "nublado", "chuvoso"
- Matriz de Transição:
P = [ [0.6, 0.3, 0.1], [0.2, 0.5, 0.3], [0.3, 0.3, 0.4] ]
Esta matriz descreve o seguinte sistema: se hoje está ensolarado, há 60% de chance de que estará ensolarado amanhã, 30% de chance de que estará nublado e 10% de chance de que choverá.
Propriedades das cadeias de Markov
Aqui estão algumas propriedades-chave para entender melhor a dinâmica das cadeias de Markov:
Imutabilidade
Uma cadeia de Markov é dita ser irreversível se for possível ir de qualquer estado para qualquer estado. Isso significa que há uma probabilidade diferente de zero de transitar de um estado para outro, seja diretamente ou através de outros estados.
Sequestro
Um estado em uma cadeia de Markov tem um período se ele retorna a esse estado em um número finito de etapas; o período é o maior divisor comum do número de etapas no qual o estado retorna a si mesmo.
Recorrência e transitoriedade
Se a probabilidade de que o processo eventualmente retornará ao mesmo estado for 1, o estado é chamado de recorrente. Se a probabilidade for inferior a 1, o estado é chamado de transitório.
Distribuição estável
Uma distribuição estacionária é uma distribuição de probabilidade que permanece inalterada à medida que o processo evolui. Para uma cadeia de Markov com uma matriz de transição P
, um vetor π
é uma distribuição estacionária se:
πP = π
Usando mais cálculos e a matriz de transição dada, você pode encontrar a distribuição estacionária para o processo estocástico.
Cadeias de Markov em tempo contínuo
Enquanto focamos em cadeias de Markov em tempo discreto, onde o sistema transita em momentos discretos idênticos, o tempo também pode ser contínuo. Em cadeias de Markov em tempo contínuo, a transição pode ocorrer em qualquer momento contínuo.
Métricas de taxa de transição
Em vez de matrizes de transição, as cadeias de Markov em tempo contínuo usam matrizes de taxa de transição, frequentemente denotadas por Q
, onde cada entrada qij
representa a taxa de transição do estado i
para o estado j
.
Conclusão
As cadeias de Markov fornecem uma estrutura poderosa para modelar e analisar sistemas que passam por transições entre estados ao longo do tempo. Com suas amplas aplicações em vários campos, como economia, genética e teoria dos jogos, as cadeias de Markov se tornaram um tópico fundamental em probabilidade e estatística.