Posgrado → Probabilidad y estadística → Inferencia estadística ↓
Métodos bayesianos
Introducción
Los métodos bayesianos juegan un papel fascinante en la inferencia estadística, proporcionando un marco para razonar sobre la incertidumbre. Este enfoque se basa en el teorema de Bayes, que lleva el nombre del estadístico y teólogo del siglo XVIII, el reverendo Thomas Bayes. A diferencia de la estadística frecuentista, que utiliza la probabilidad solo para referirse a las frecuencias a largo plazo, la estadística bayesiana permite que las probabilidades expresen el nivel de creencia o certeza de uno sobre un evento.
El teorema de Bayes
La base de la inferencia bayesiana es el teorema de Bayes, que se expresa matemáticamente de la siguiente manera:
P(H|E) = (P(E|H) * P(H)) / P(E)
Esta fórmula se puede desglosar en sus componentes:
P(H|E)
: Probabilidad posterior. La probabilidad de la hipótesisH
basada en la evidencia observadaE
P(E|H)
: Probabilidad. La probabilidad de observar la evidenciaE
dado que se verifica la hipótesisH
.P(H)
: Probabilidad a priori. El grado inicial de creencia en la hipótesisH
antes de observarE
P(E)
: Verosimilitud marginal. La probabilidad total de la evidencia bajo todas las hipótesis posibles.
Ejemplo básico: lanzar una moneda
Consideremos un ejemplo simple donde queremos saber si una moneda está sesgada hacia caras. Observamos diez lanzamientos de monedas, de los cuales siete son caras. Queremos encontrar la probabilidad de que la moneda esté sesgada usando un marco bayesiano.
Ejemplo
Sea H
la hipótesis de que la moneda está inclinada hacia caras, y E
la evidencia de que ocurre cara siete veces de diez lanzamientos. Ahora, necesitamos especificar:
P(H)
: Nuestra creencia inicial acerca de que la moneda está sesgada. Supongamos que creemos que cada moneda tiene un 50% de probabilidad de estar sesgada. Por tanto,P(H) = 0.5
.P(E|H)
: la probabilidad de observar siete caras bajo la hipótesis. Si esto está sesgado, suponga queP(E|H) = 0.9
.P(E)
: La verosimilitud marginal se puede calcular considerando todas las hipótesis. Por simplicidad, digamos queP(E) = 0.5
.
Ahora aplique el teorema de Bayes:
P(H|E) = (0.9 * 0.5) / 0.5 = 0.9
Por lo tanto, hay una fuerte posibilidad de que la moneda esté sesgada.
Prios
La probabilidad a priori P(H)
comunica la creencia inicial antes de observar la evidencia. En el análisis bayesiano, la elección del a priori puede afectar enormemente al resultado final, especialmente con tamaños de datos pequeños. Los a priori pueden ser informativos o no informativos.
Preferencias informativas
El conocimiento a priori informativo consiste en conocimiento específico y previo sobre el parámetro de interés. En el ejemplo de la moneda, si experimentos previos muestran que la moneda cae caras con una probabilidad del 70%, esta información guiará nuestra selección a priori.
Preferencias no informativas
Las previsiones no informativas o débiles no proporcionan mucha información específica sobre la hipótesis, reflejando a menudo un estado de relativa ignorancia. Las alternativas comunes incluyen distribuciones uniformes donde todos los resultados son igualmente probables.
Posterior
Una vez que se tiene en cuenta la evidencia mediante el teorema de Bayes, obtenemos la probabilidad posterior, code{P(H|E)}, que incorpora toda nuestra información sobre la hipótesis: el a priori y los datos combinados. La probabilidad posterior es el aspecto más importante de la inferencia bayesiana, ya que representa cómo nuestra comprensión de una hipótesis es modificada por los nuevos datos.
Probabilidad
La probabilidad es un componente central de los cálculos bayesianos. Mide cuán probables son los datos observados bajo diferentes hipótesis. Matemáticamente, la verosimilitud, code{P(E|H)}, evalúa la compatibilidad entre los datos y la hipótesis.
Verosimilitud marginal
La verosimilitud marginal, code{P(E)}, asegura que las probabilidades posteriores sumen hasta 1. Involucra sumar las probabilidades a lo largo de todas las hipótesis. En la práctica, calcular la verosimilitud marginal puede ser complicado, especialmente en modelos con muchos parámetros.
Ejemplo avanzado: prueba de enfermedades
Supongamos que una prueba médica verifica una enfermedad con las siguientes características:
- La sensibilidad de esta prueba es 95%, lo que significa que identifica correctamente al 95% de los pacientes que sufren la enfermedad.
- La especificidad de esta prueba es 90%, lo que significa que identifica correctamente al 90% de los pacientes sanos.
- El 1% de la población tiene esta enfermedad.
Ejemplo
Sea H
el evento de que el paciente contraiga la enfermedad, y E
sea el resultado positivo de la prueba.
P(H) = 0.01
(probabilidad a priori de tener la enfermedad)P(E|H) = 0.95
(probabilidad de dar positivo si está enfermo)
Para calcular la probabilidad total de un resultado positivo, code{P(E)}, considere tanto los resultados verdaderos como los falsos positivos:
P(E) = P(E|H) * P(H) + P(E|H') * P(H')
P(E) = 0.95 * 0.01 + 0.1 * 0.99 = 0.1045
Finalmente, use el teorema de Bayes para encontrar el posterior:
P(H|E) = (0.95 * 0.01) / 0.1045 ≈ 0.091
A pesar de un resultado positivo, la probabilidad de tener la enfermedad según este resultado es solo del 9.1%.
Actualización de creencias
La inferencia bayesiana es un proceso iterativo. A medida que se recopilan más pruebas, se actualizan continuamente tus creencias usando el teorema de Bayes. Cada nueva pieza de evidencia actúa como una probabilidad que modifica tus creencias anteriores para formar creencias posteriores. Con el tiempo, este proceso refina nuestra comprensión y mejora la toma de decisiones.
Prios conjugados
En muchos casos, elegir un a priori conjugado simplifica el cálculo. Un a priori conjugado es aquel que, cuando se usa como un a priori, produce una distribución posterior de la misma familia, simplificando así la solución analítica. Por ejemplo, en probabilidades binomiales, la distribución beta como prior generará una distribución posterior beta, por lo que el tipo de distribución permanece constante.
Aplicación
Los métodos bayesianos tienen aplicaciones extensas en una variedad de campos. Algunos de los más notables son:
- Medicina: Para diagnosticar enfermedades, los métodos bayesianos equilibran la información previa sobre la prevalencia de una enfermedad con pruebas de diagnóstico.
- Finanzas: Los modelos bayesianos se utilizan para predecir precios de acciones, incorporando tanto datos históricos como pronósticos de expertos.
- Aprendizaje automático: Las técnicas bayesianas impulsan modelos de probabilidad para tareas como clasificación, agrupamiento y regresión.
- Procesamiento de lenguaje natural: La inferencia bayesiana amplía modelos como los modelos de tópicos para identificar patrones en datos de texto.
Desafíos
Aunque poderosos, los métodos bayesianos también presentan desafíos. Los modelos complejos a menudo requieren recursos computacionales significativos. Puede ser difícil calcular analíticamente la distribución posterior, requiriendo técnicas de aproximación como Markov Chain Monte Carlo (MCMC).
Conclusión
Los métodos bayesianos proporcionan un marco flexible y coherente para la inferencia estadística. Al combinar creencias previas con nueva evidencia, la inferencia bayesiana refina la comprensión de una manera lógica e intuitiva. A pesar de los desafíos de cálculo en una amplia gama de situaciones, sus principios brillan en muchas aplicaciones del mundo real, haciéndola invaluable en la caja de herramientas del estadístico.