Doutorado → Probabilidade e Estatística ↓
Teoria da probabilidade
A teoria da probabilidade é um ramo fundamental da matemática que lida com a análise de eventos aleatórios. O aspecto central da teoria da probabilidade é o estudo da incerteza e a quantificação da aleatoriedade através do uso de probabilidades matemáticas. Este campo de estudo é essencial para entender conceitos em várias áreas como estatística, finanças, jogos de azar, ciência e engenharia, onde os resultados não podem ser determinados com certeza.
Noções básicas
A teoria da probabilidade começa definindo alguns conceitos fundamentais que são importantes para o entendimento do assunto. Estes incluem:
Experimento aleatório
Um experimento aleatório é uma ação ou processo que resulta em um ou mais resultados possíveis. Por exemplo, lançar uma moeda é um experimento aleatório onde os resultados possíveis são "cara" ou "coroa".
Espaço amostral
O espaço amostral, frequentemente denotado como S
, é o conjunto de todos os resultados possíveis de um experimento aleatório. Para o exemplo de lançar uma moeda, o espaço amostral é S = { text{"Cara"}, text{"Coroa"} }
.
Eventos
Um evento é um subconjunto do espaço amostral. Ele representa a ocorrência de um ou mais resultados. Por exemplo, quando um dado de seis lados é lançado, um evento pode ser lançar um número par, que é o conjunto E = { 2, 4, 6 }
.
Probabilidade
A probabilidade é uma medida da chance de ocorrência de um evento. Ela é medida como um número entre 0 e 1, onde 0 representa impossibilidade e 1 representa certeza. A probabilidade de um evento E
é representada como P(E)
.
Compreendendo a probabilidade através de exemplos
Para entender melhor o conceito de probabilidade, vamos examinar alguns exemplos de cálculo de probabilidade:
Exemplo 1: Lançamento de uma moeda justa
Suponha que tenhamos uma moeda justa, o que significa que a probabilidade de obter cara é igual à probabilidade de obter coroa. Podemos calcular a probabilidade de cada resultado da seguinte forma.
Espaço Amostral, S = { "Cara", "Coroa" }
Probabilidade de obter cara, P(text{"Cara"}) = frac{1}{2}
Probabilidade de obter coroa, P(text{"Coroa"}) = frac{1}{2}
Exemplo 2: Lançamento de um dado de seis lados
Considere um dado normal de seis lados. Cada face mostra um número de 1 a 6. A probabilidade de qualquer número específico aparecer pode ser calculada.
Espaço Amostral, S = { 1, 2, 3, 4, 5, 6 }
Probabilidade de obter 3, P(3) = frac{1}{6}
Probabilidade de obter um número par, P({ 2, 4, 6 }) = frac{3}{6} = frac{1}{2}
Leis da probabilidade
A teoria da probabilidade é regida por um conjunto de regras fundamentais ou axiomas formulados pelo matemático russo Andrey Kolmogorov. Aqui estão as principais regras:
Axioma 1: Não negatividade
A probabilidade de qualquer evento é não-negativa.
P(E) ≥ 0
Axioma 2: Generalização
A probabilidade de que pelo menos um resultado de um experimento aleatório ocorra é 1. Ou seja, a probabilidade do espaço amostral inteiro é 1.
P(S) = 1
Axioma 3: Aditividade
Para quaisquer dois eventos mutuamente exclusivos, a probabilidade de ocorrência de um dos eventos é igual à soma de suas probabilidades individuais.
Se E1 ∩ E2 = ∅, então P(E1 ∪ E2) = P(E1) + P(E2)
Ilustrando a probabilidade com um diagrama de Venn
Diagramas de Venn são úteis para representar eventos e suas probabilidades, especialmente quando se tenta entender relações complexas de probabilidade, como conjunção e interseção de eventos.
Neste diagrama de Venn, o evento E1
é representado pelo círculo azul e o evento E2
pelo círculo vermelho. A região de sobreposição representa a interseção dos eventos E1
e E2
. Esta interseção é importante para entender a probabilidade de dois eventos ocorrerem simultaneamente.
Probabilidade condicional e independência
A probabilidade condicional e independência são conceitos importantes na teoria da probabilidade. Eles ajudam a avaliar o relacionamento entre diferentes eventos.
Probabilidade condicional
A probabilidade condicional é a probabilidade de um evento ocorrer, dado que outro evento ocorreu. Se A
e B
são dois eventos do espaço amostral, então a probabilidade condicional de A
dado B
é escrita como P(A|B)
P(A|B) = frac{P(A ∩ B)}{P(B)}, quad text{se} P(B) > 0
Por exemplo, se uma carta é tirada de um baralho padrão de 52 cartas, encontre a probabilidade de que seja um ás, dado que seja uma carta de copas.
P(text{Ás} | text{Copas}) = frac{text{Probabilidade de Ás de Copas}}{text{Probabilidade de Copas}} = frac{1/52}{13/52} = frac{1}{13}
Independência de eventos
Dois eventos A
e B
são independentes se a ocorrência de um não afeta a probabilidade de ocorrência do outro. Matematicamente, A
e B
são independentes se:
P(A ∩ B) = P(A) * P(B)
Por exemplo, quando dois dados diferentes são lançados, o resultado de um dado não afeta o resultado do outro dado. Portanto, os eventos são independentes.
Teorema de Bayes
O teorema de Bayes é um dos resultados mais importantes na teoria da probabilidade. Ele descreve a probabilidade de um evento com base em conhecimentos prévios de condições que podem estar relacionadas ao evento.
P(A|B) = frac{P(B|A) cdot P(A)}{P(B)}
O teorema de Bayes permite atualizar probabilidades com base em novas evidências. Por exemplo, se um teste médico é positivo para uma doença, o teorema de Bayes pode ser usado para revisar a probabilidade de que uma pessoa tenha a doença, levando em consideração a precisão do teste.
Variáveis aleatórias
Na teoria da probabilidade, uma variável aleatória é uma variável cujos possíveis valores são os resultados de um evento aleatório. Existem dois tipos de variáveis aleatórias: discretas e contínuas.
Variável aleatória discreta
Uma variável aleatória discreta é aquela que pode assumir um conjunto finito ou infinitamente contável de valores. Exemplos incluem o resultado de lançar um dado ou a soma dos resultados ao lançar dois dados.
Variável aleatória contínua
Uma variável aleatória contínua, por outro lado, pode assumir um conjunto infinito de valores, frequentemente formando um contínuo ou envolvendo medições que fazem parte da linha dos números reais. Um exemplo envolve a mensuração da altura em um grupo de pessoas.
Distribuições de probabilidade
Distribuições de probabilidade descrevem como probabilidades são distribuídas sobre os valores de uma variável aleatória. Dependendo do tipo de variável aleatória, elas são classificadas em dois tipos: distribuições de probabilidade discretas e distribuições de probabilidade contínuas.
Distribuições de probabilidade discretas
Distribuições de probabilidade discretas são caracterizadas pela função de massa de probabilidade (PMF), que atribui uma probabilidade a cada valor possível da variável aleatória.
Um exemplo comum disso é a distribuição binomial, que descreve o número de sucessos em um determinado número de testes de Bernoulli independentes.
P(X = k) = binom{n}{k} p^k (1-p)^{nk}
onde n
é o número de tentativas, p
é a probabilidade de sucesso em cada tentativa e k
é o número de sucessos.
Distribuições de probabilidade contínuas
Distribuições de probabilidade contínuas são caracterizadas por uma função de densidade de probabilidade (PDF). O exemplo mais famoso é a distribuição normal, ou curva em forma de sino.
f(x) = frac{1}{sigma sqrt{2pi}} e^{-frac{1}{2}(frac{x-mu}{sigma})^2}
onde mu
é a média e sigma
é o desvio padrão.
Valor esperado e variância
O valor esperado é o valor médio a longo prazo das repetições do experimento que representa. Ele é frequentemente referido como a média.
E(X) = sum_{i} x_i P(x_i), quad text{para discretas} E(X) = int_{-infty}^{infty} xf(x) dx, quad text{para contínuas}
A variância mede a dispersão dos valores de uma variável aleatória. É o valor esperado do desvio quadrado de uma variável aleatória em relação à sua média.
Var(X) = E[(X - E[X])^2] = sum_{i} (x_i - E[X])^2 P(x_i)
A variância mede quanta variabilidade existe em uma distribuição em torno da média.
Lei dos grandes números e teorema do limite central
A lei dos grandes números e o teorema do limite central são dois conceitos importantes que tratam do comportamento das probabilidades no contexto de grandes conjuntos de dados.
Lei dos grandes números
A lei dos grandes números afirma que à medida que o número de tentativas de um processo aleatório aumenta, a probabilidade experimental tenderá a se aproximar da probabilidade teórica (verdadeira).
Teorema do limite central
O Teorema do Limite Central afirma que a distribuição das médias amostrais de um grande número de variáveis independentes e identicamente distribuídas será aproximadamente normal, independentemente da forma da distribuição original.
Conclusão
A teoria da probabilidade fornece uma estrutura abrangente para raciocinar sobre aleatoriedade e incerteza. Ela está na base de muitas aplicações do mundo real em que os resultados são inerentemente imprevisíveis. O campo auxilia no processo de tomada de decisão sob circunstâncias incertas e forma a base essencial para o desenvolvimento de métodos estatísticos usados para interpretar dados.