Pós-graduação

Pós-graduaçãoProbabilidade e estatísticaInferência estatística


Métodos bayesianos


Introdução

Os métodos bayesianos desempenham um papel fascinante na inferência estatística, fornecendo um quadro para o raciocínio sobre a incerteza. Esta abordagem é baseada no teorema de Bayes, nomeado em homenagem ao estatístico e teólogo do século XVIII, Reverendo Thomas Bayes. Ao contrário das estatísticas frequentistas, que utilizam probabilidade apenas para se referir a frequências de longo prazo, as estatísticas bayesianas permitem que probabilidades expressem seu nível de crença ou certeza sobre um evento.

Teorema de Bayes

A base da inferência bayesiana é o teorema de Bayes, que é expresso matematicamente da seguinte forma:

P(H|E) = (P(E|H) * P(H)) / P(E)

Esta fórmula pode ser desmembrada em seus componentes:

  • P(H|E): Probabilidade posterior. A probabilidade da hipótese H com base na evidência observada E
  • P(E|H): Probabilidade. A probabilidade de observar a evidência E dada a hipótese H ser verdadeira.
  • P(H): Probabilidade a priori. O grau inicial de crença na hipótese H antes de observar E
  • P(E): Verossimilhança marginal. A probabilidade geral da evidência sob todas as hipóteses possíveis.

Exemplo básico: lançar uma moeda

Considere um exemplo simples onde queremos saber se uma moeda está viciada para "cara". Observamos dez lançamentos de moeda, dos quais sete são "cara". Queremos encontrar a probabilidade de a moeda estar viciada usando uma estrutura bayesiana.

Exemplo

Seja H a hipótese de que a moeda está inclinada para "cara", e E a evidência de que "cara" ocorre sete vezes em dez lançamentos. Agora, precisamos especificar:

  • P(H): Nossa crença a priori sobre a moeda estar viciada. Suponha que acreditamos que toda moeda tem 50% de chance de estar viciada. Assim, P(H) = 0.5.
  • P(E|H): a probabilidade de observar sete "cara" sob a hipótese. Se estiver viciada, assuma P(E|H) = 0.9.
  • P(E): A verossimilhança marginal pode ser calculada considerando todas as hipóteses. Para simplificar, digamos que P(E) = 0.5.

Agora aplique o teorema de Bayes:

P(H|E) = (0.9 * 0.5) / 0.5 = 0.9

Portanto, há uma forte possibilidade de que a moeda esteja viciada.

Priors

A probabilidade a priori P(H) comunica a crença inicial antes de observar a evidência. Na análise bayesiana, a escolha do a priori pode afetar significativamente o resultado final, especialmente em tamanhos de dados pequenos. As priors podem ser informativas ou não-informativas.

Preferências informativas

O conhecimento a priori informativo consiste em conhecimento específico e prévio sobre o parâmetro de interesse. No exemplo da moeda, se experimentos anteriores mostram que a moeda cai em "cara" com 70% de probabilidade, esta informação guiará nossa seleção a priori.

Preferências não-informativas

Previsões não-informativas ou fracas não fornecem informações específicas sobre a hipótese, refletindo frequentemente um estado de relativa ignorância. Alternativas comuns incluem distribuições uniformes onde todos os resultados são igualmente prováveis.

Posterior

Uma vez que a evidência é levada em consideração através do teorema de Bayes, obtemos a probabilidade posterior, P(H|E), que incorpora todas as nossas informações sobre a hipótese — o a priori e os dados combinados. A probabilidade posterior é o aspecto mais importante da inferência bayesiana, pois representa como nosso entendimento de uma hipótese é modificado por novos dados.

Verossimilhança

A probabilidade é um componente fundamental dos cálculos bayesianos. Mede a probabilidade de que os dados observados ocorram sob diferentes hipóteses. Matematicamente, a verossimilhança, P(E|H), avalia a compatibilidade entre os dados e a hipótese.

Verossimilhança marginal

A verossimilhança marginal, P(E), garante que as probabilidades posteriores somem 1. Envolve somar as probabilidades em todas as hipóteses. Na prática, calcular a verossimilhança marginal pode ser complicado, especialmente em modelos com muitos parâmetros.

Exemplo avançado: teste de doenças

Suponha que um teste médico verifica uma doença com as seguintes características:

  • A sensibilidade deste teste é de 95%, o que significa que identifica corretamente 95% dos pacientes que sofrem da doença.
  • A especificidade deste teste é de 90%, o que significa que identifica corretamente 90% dos pacientes saudáveis.
  • 1% da população tem esta doença.

Exemplo

Seja H o evento de que o paciente tenha a doença, e E o resultado positivo do teste.

  • P(H) = 0.01 (probabilidade a priori de ter a doença)
  • P(E|H) = 0.95 (probabilidade de testar positivo se estiver doente)

Para calcular a probabilidade geral de um teste positivo, P(E), considere tanto os resultados verdadeiros quanto os falsos positivos:

P(E) = P(E|H) * P(H) + P(E|H') * P(H')
P(E) = 0.95 * 0.01 + 0.1 * 0.99 = 0.1045

Finalmente, use o teorema de Bayes para encontrar a posterior:

P(H|E) = (0.95 * 0.01) / 0.1045 ≈ 0.091

Apesar de um teste positivo, a probabilidade de ter a doença com base neste resultado é de apenas 9,1%.

Atualizando crenças

A inferência bayesiana é um processo iterativo. À medida que mais evidências são coletadas, você atualiza continuamente suas crenças usando o teorema de Bayes. Cada nova peça de evidência atua como uma probabilidade que modifica suas crenças anteriores para formar crenças subsequentes. Com o tempo, esse processo refina nosso entendimento e melhora a tomada de decisões.

Priors conjugados

Em muitos casos, escolher um prior conjugado simplifica o cálculo. Um prior conjugado é aquele que, quando usado como prior, produz uma distribuição posterior da mesma família, simplificando assim a solução analítica. Por exemplo, em probabilidades binomiais, a distribuição beta como prior resultará em uma distribuição posterior beta - portanto, o tipo de distribuição permanece constante.

Aplicação

Os métodos bayesianos têm extensas aplicações em diversas áreas. Algumas das mais notáveis são:

  • Medicina: Para diagnosticar doenças, os métodos bayesianos equilibram informações anteriores sobre a prevalência de uma doença com evidências de testes diagnósticos.
  • Finanças: Modelos bayesianos são usados para prever preços de ações, incorporando dados históricos e previsões de especialistas.
  • Aprendizado de máquina: Técnicas bayesianas alimentam modelos de probabilidade para tarefas como classificação, clustering e regressão.
  • Processamento de linguagem natural: A inferência bayesiana estende modelos como modelos de tópicos para identificar padrões em dados textuais.

Desafios

Embora poderosos, os métodos bayesianos também apresentam desafios. Modelos complexos muitas vezes exigem recursos computacionais significativos. Pode ser difícil calcular a distribuição posterior analiticamente, exigindo técnicas de aproximação como Cadeia de Markov Monte Carlo (MCMC).

Conclusão

Os métodos bayesianos fornecem um quadro flexível e consistente para a inferência estatística. Ao combinar crenças anteriores com novas evidências, a inferência bayesiana refina o entendimento de uma maneira lógica e intuitiva. Apesar dos desafios de cálculo em uma ampla gama de situações, seus princípios brilham em muitas aplicações do mundo real, tornando-se inestimáveis no kit de ferramentas do estatístico.


Pós-graduação → 5.2.3


U
username
0%
concluído em Pós-graduação


Comentários