Pós-graduação → Probabilidade e estatística → Inferência estatística ↓
Métodos bayesianos
Introdução
Os métodos bayesianos desempenham um papel fascinante na inferência estatística, fornecendo um quadro para o raciocínio sobre a incerteza. Esta abordagem é baseada no teorema de Bayes, nomeado em homenagem ao estatístico e teólogo do século XVIII, Reverendo Thomas Bayes. Ao contrário das estatísticas frequentistas, que utilizam probabilidade apenas para se referir a frequências de longo prazo, as estatísticas bayesianas permitem que probabilidades expressem seu nível de crença ou certeza sobre um evento.
Teorema de Bayes
A base da inferência bayesiana é o teorema de Bayes, que é expresso matematicamente da seguinte forma:
P(H|E) = (P(E|H) * P(H)) / P(E)
Esta fórmula pode ser desmembrada em seus componentes:
P(H|E)
: Probabilidade posterior. A probabilidade da hipóteseH
com base na evidência observadaE
P(E|H)
: Probabilidade. A probabilidade de observar a evidênciaE
dada a hipóteseH
ser verdadeira.P(H)
: Probabilidade a priori. O grau inicial de crença na hipóteseH
antes de observarE
P(E)
: Verossimilhança marginal. A probabilidade geral da evidência sob todas as hipóteses possíveis.
Exemplo básico: lançar uma moeda
Considere um exemplo simples onde queremos saber se uma moeda está viciada para "cara". Observamos dez lançamentos de moeda, dos quais sete são "cara". Queremos encontrar a probabilidade de a moeda estar viciada usando uma estrutura bayesiana.
Exemplo
Seja H
a hipótese de que a moeda está inclinada para "cara", e E
a evidência de que "cara" ocorre sete vezes em dez lançamentos. Agora, precisamos especificar:
P(H)
: Nossa crença a priori sobre a moeda estar viciada. Suponha que acreditamos que toda moeda tem 50% de chance de estar viciada. Assim,P(H) = 0.5
.P(E|H)
: a probabilidade de observar sete "cara" sob a hipótese. Se estiver viciada, assumaP(E|H) = 0.9
.P(E)
: A verossimilhança marginal pode ser calculada considerando todas as hipóteses. Para simplificar, digamos queP(E) = 0.5
.
Agora aplique o teorema de Bayes:
P(H|E) = (0.9 * 0.5) / 0.5 = 0.9
Portanto, há uma forte possibilidade de que a moeda esteja viciada.
Priors
A probabilidade a priori P(H)
comunica a crença inicial antes de observar a evidência. Na análise bayesiana, a escolha do a priori pode afetar significativamente o resultado final, especialmente em tamanhos de dados pequenos. As priors podem ser informativas ou não-informativas.
Preferências informativas
O conhecimento a priori informativo consiste em conhecimento específico e prévio sobre o parâmetro de interesse. No exemplo da moeda, se experimentos anteriores mostram que a moeda cai em "cara" com 70% de probabilidade, esta informação guiará nossa seleção a priori.
Preferências não-informativas
Previsões não-informativas ou fracas não fornecem informações específicas sobre a hipótese, refletindo frequentemente um estado de relativa ignorância. Alternativas comuns incluem distribuições uniformes onde todos os resultados são igualmente prováveis.
Posterior
Uma vez que a evidência é levada em consideração através do teorema de Bayes, obtemos a probabilidade posterior, P(H|E)
, que incorpora todas as nossas informações sobre a hipótese — o a priori e os dados combinados. A probabilidade posterior é o aspecto mais importante da inferência bayesiana, pois representa como nosso entendimento de uma hipótese é modificado por novos dados.
Verossimilhança
A probabilidade é um componente fundamental dos cálculos bayesianos. Mede a probabilidade de que os dados observados ocorram sob diferentes hipóteses. Matematicamente, a verossimilhança, P(E|H)
, avalia a compatibilidade entre os dados e a hipótese.
Verossimilhança marginal
A verossimilhança marginal, P(E)
, garante que as probabilidades posteriores somem 1. Envolve somar as probabilidades em todas as hipóteses. Na prática, calcular a verossimilhança marginal pode ser complicado, especialmente em modelos com muitos parâmetros.
Exemplo avançado: teste de doenças
Suponha que um teste médico verifica uma doença com as seguintes características:
- A sensibilidade deste teste é de 95%, o que significa que identifica corretamente 95% dos pacientes que sofrem da doença.
- A especificidade deste teste é de 90%, o que significa que identifica corretamente 90% dos pacientes saudáveis.
- 1% da população tem esta doença.
Exemplo
Seja H
o evento de que o paciente tenha a doença, e E
o resultado positivo do teste.
P(H) = 0.01
(probabilidade a priori de ter a doença)P(E|H) = 0.95
(probabilidade de testar positivo se estiver doente)
Para calcular a probabilidade geral de um teste positivo, P(E)
, considere tanto os resultados verdadeiros quanto os falsos positivos:
P(E) = P(E|H) * P(H) + P(E|H') * P(H')
P(E) = 0.95 * 0.01 + 0.1 * 0.99 = 0.1045
Finalmente, use o teorema de Bayes para encontrar a posterior:
P(H|E) = (0.95 * 0.01) / 0.1045 ≈ 0.091
Apesar de um teste positivo, a probabilidade de ter a doença com base neste resultado é de apenas 9,1%.
Atualizando crenças
A inferência bayesiana é um processo iterativo. À medida que mais evidências são coletadas, você atualiza continuamente suas crenças usando o teorema de Bayes. Cada nova peça de evidência atua como uma probabilidade que modifica suas crenças anteriores para formar crenças subsequentes. Com o tempo, esse processo refina nosso entendimento e melhora a tomada de decisões.
Priors conjugados
Em muitos casos, escolher um prior conjugado simplifica o cálculo. Um prior conjugado é aquele que, quando usado como prior, produz uma distribuição posterior da mesma família, simplificando assim a solução analítica. Por exemplo, em probabilidades binomiais, a distribuição beta como prior resultará em uma distribuição posterior beta - portanto, o tipo de distribuição permanece constante.
Aplicação
Os métodos bayesianos têm extensas aplicações em diversas áreas. Algumas das mais notáveis são:
- Medicina: Para diagnosticar doenças, os métodos bayesianos equilibram informações anteriores sobre a prevalência de uma doença com evidências de testes diagnósticos.
- Finanças: Modelos bayesianos são usados para prever preços de ações, incorporando dados históricos e previsões de especialistas.
- Aprendizado de máquina: Técnicas bayesianas alimentam modelos de probabilidade para tarefas como classificação, clustering e regressão.
- Processamento de linguagem natural: A inferência bayesiana estende modelos como modelos de tópicos para identificar padrões em dados textuais.
Desafios
Embora poderosos, os métodos bayesianos também apresentam desafios. Modelos complexos muitas vezes exigem recursos computacionais significativos. Pode ser difícil calcular a distribuição posterior analiticamente, exigindo técnicas de aproximação como Cadeia de Markov Monte Carlo (MCMC).
Conclusão
Os métodos bayesianos fornecem um quadro flexível e consistente para a inferência estatística. Ao combinar crenças anteriores com novas evidências, a inferência bayesiana refina o entendimento de uma maneira lógica e intuitiva. Apesar dos desafios de cálculo em uma ampla gama de situações, seus princípios brilham em muitas aplicações do mundo real, tornando-se inestimáveis no kit de ferramentas do estatístico.