Докторантура → Вероятность и статистика ↓
Теория вероятностей
Теория вероятностей — это фундаментальная ветвь математики, которая занимается анализом случайных событий. Основной аспект теории вероятностей — это изучение неопределенности и количественная оценка случайности с использованием математических вероятностей. Эта область знаний необходима для понимания концепций в различных областях, таких как статистика, финансы, азартные игры, наука и инженерия, где результаты нельзя определить с уверенностью.
Основные понятия
Теория вероятностей начинается с определения некоторых фундаментальных концепций, которые важны для понимания предмета. Это включает в себя:
Случайный эксперимент
Случайный эксперимент — это действие или процесс, который приводит к одному или нескольким возможным результатам. Например, подбрасывание монеты — это случайный эксперимент, где возможные результаты — это "орел" или "решка".
Пространство выборки
Пространство выборки, часто обозначаемое как S
, — это набор всех возможных результатов случайного эксперимента. Для примера подбрасывания монеты пространство выборки будет S = { text{"Орел"}, text{"Решка"} }
.
События
Событие — это подмножество пространства выборки. Оно представляет собой наступление одного или нескольких результатов. Например, при броске кубика с шестью гранями событием может быть выпадение четного числа, что составляет множество E = { 2, 4, 6 }
.
Вероятность
Вероятность — это мера вероятности наступления события. Она измеряется как число от 0 до 1, где 0 представляет невозможное событие, а 1 — достоверное. Вероятность события E
обозначается как P(E)
.
Понимание вероятности через примеры
Чтобы лучше понять концепцию вероятности, рассмотрим несколько примеров расчета вероятности:
Пример 1: Подбрасывание честной монеты
Предположим, у нас есть честная монета, что означает, что вероятность выпадения орла равна вероятности выпадения решки. Мы можем рассчитать вероятность каждого результата следующим образом.
Пространство выборки, S = { "Орел", "Решка" }
Вероятность выпадения орла, P(text{"Орел"}) = frac{1}{2}
Вероятность выпадения решки, P(text{"Решка"}) = frac{1}{2}
Пример 2: Бросок кубика с шестью гранями
Рассмотрим обычный кубик с шестью гранями. Каждая грань показывает число от 1 до 6. Вероятность выпадения любого заданного числа можно рассчитать.
Пространство выборки, S = { 1, 2, 3, 4, 5, 6 }
Вероятность выпадения 3, P(3) = frac{1}{6}
Вероятность выпадения четного числа, P({ 2, 4, 6 }) = frac{3}{6} = frac{1}{2}
Законы вероятности
Теория вероятностей регулируется набором фундаментальных правил или аксиом, сформулированных русским математиком Андреем Колмогоровым. Вот основные правила:
Аксиома 1: Ненегативность
Вероятность любого события неотрицательна.
P(E) ≥ 0
Аксиома 2: Обобщение
Вероятность, что произойдет хотя бы один результат случайного эксперимента, равна 1. То есть вероятность всего пространства выборки равна 1.
P(S) = 1
Аксиома 3: Аддитивность
Для любых двух взаимоисключающих событий вероятность наступления хотя бы одного из них равна сумме их индивидуальных вероятностей.
Если E1 ∩ E2 = ∅, то P(E1 ∪ E2) = P(E1) + P(E2)
Иллюстрация вероятности с помощью диаграммы Венна
Диаграммы Венна полезны для представления событий и их вероятностей, особенно при попытке понять сложные вероятностные отношения, такие как совместное и пересечение событий.
На этой диаграмме Венна событие E1
представлено синим кругом, а событие E2
— красным кругом. Перекрывающийся регион представляет пересечение событий E1
и E2
. Это пересечение важно для понимания вероятности одновременного наступления двух событий.
Условная вероятность и независимость
Условная вероятность и независимость — важные концепции в теории вероятностей. Они помогают оценивать взаимосвязь между различными событиями.
Условная вероятность
Условная вероятность — это вероятность наступления события с учетом того, что другое событие уже произошло. Если A
и B
— два события из пространства выборки, то условная вероятность A
при условии B
записывается как P(A|B)
P(A|B) = frac{P(A ∩ B)}{P(B)}, quad text{если} P(B) > 0
Например, если карту вытаскивают из стандартной колоды в 52 карты, найдите вероятность того, что это туз, при условии, что это карта червей.
P(text{Туз} | text{Черви}) = frac{text{Вероятность Туза Червей}}{text{Вероятность Червей}} = frac{1/52}{13/52} = frac{1}{13}
Независимость событий
Два события A
и B
считаются независимыми, если возникновение одного не влияет на вероятность наступления другого. Математически, A
и B
независимы, если:
P(A ∩ B) = P(A) * P(B)
Например, когда бросают два разных кубика, исход одного не влияет на исход второго. Следовательно, события независимы.
Теорема Байеса
Теорема Байеса — один из наиболее важных результатов теории вероятностей. Она описывает вероятность события на основе априорной информации о условиях, которые могут быть связаны с этим событием.
P(A|B) = frac{P(B|A) cdot P(A)}{P(B)}
Теорема Байеса позволяет обновлять вероятности на основе новых данных. Например, если медицинский тест показывает положительный результат на определенное заболевание, теорема Байеса может быть использована для уточнения вероятности того, что человек имеет это заболевание, с учетом точности теста.
Случайные величины
В теории вероятностей случайная величина — это величина, возможные значения которой являются результатами случайного события. Существует два типа случайных величин: дискретные и непрерывные.
Дискретная случайная величина
Дискретная случайная величина — это величина, которая может принимать конечное или счетно бесконечное множество значений. Примеры включают исход броска кубика или сумму исходов при броске двух кубиков.
Непрерывная случайная величина
Непрерывная случайная величина, напротив, может принимать бесконечное множество значений, часто формируя континуум или содержание измерений, которые формируют часть действительной числовой линии. Примером является измерение роста в группе людей.
Распределения вероятностей
Распределения вероятностей описывают, как вероятности распределяются по значениям случайной величины. В зависимости от типа случайной величины они классифицируются на два типа: распределения дискретных вероятностей и распределения непрерывных вероятностей.
Распределения дискретных вероятностей
Распределения дискретных вероятностей характеризуются функцией распределения вероятностей (PMF), которая назначает вероятность каждому возможному значению случайной величины.
Одним из распространенных примеров этого является биномиальное распределение, которое описывает количество успехов в заданном числе независимых испытаний Бернулли.
P(X = k) = binom{n}{k} p^k (1-p)^{nk}
где n
— это число испытаний, p
— вероятность успеха в каждом испытании, а k
— это количество успехов.
Распределения непрерывных вероятностей
Распределения непрерывных вероятностей характеризуются функцией плотности вероятности (PDF). Наиболее известным примером является нормальное распределение, или колоколообразная кривая.
f(x) = frac{1}{sigma sqrt{2pi}} e^{-frac{1}{2}(frac{x-mu}{sigma})^2}
где mu
— это среднее значение, а sigma
— стандартное отклонение.
Математическое ожидание и дисперсия
Математическое ожидание — это долгосрочное среднее значение повторений эксперимента, которое оно представляет. Его часто называют средним.
E(X) = sum_{i} x_i P(x_i), quad text{для дискретного} E(X) = int_{-infty}^{infty} xf(x) dx, quad text{для непрерывного}
Дисперсия измеряет разброс значений случайной величины. Это математическое ожидание квадратного отклонения случайной величины от ее среднего.
Var(X) = E[(X - E[X])^2] = sum_{i} (x_i - E[X])^2 P(x_i)
Дисперсия измеряет, насколько изменчивость существует в распределении вокруг среднего.
Закон больших чисел и центральная предельная теорема
Закон больших чисел и центральная предельная теорема — это две важные концепции, которые касаются поведения вероятностей в контексте больших наборов данных.
Закон больших чисел
Закон больших чисел гласит, что по мере увеличения числа испытаний случайного процесса экспериментальная вероятность будет стремиться к теоретической (истинной) вероятности.
Центральная предельная теорема
Центральная предельная теорема утверждает, что распределение средних выборок большого числа независимых, одинаково распределенных переменных будет приблизительно нормальным, независимо от формы исходного распределения.
Заключение
Теория вероятностей предоставляет всеобъемлющую основу для рассуждений о случайности и неопределенности. Она лежит в основе многих реальных приложений, где результаты по своей природе непредсказуемы. Эта область способствует процессам принятия решений в условиях неопределенности и формирует основную основу для разработки статистических методов, используемых для интерпретации данных.