Условные вероятности и независимость событий. Формула полной вероятности
1. Понятие условной вероятности.При анализе различных явлений часто возникает вопрос следующего рода: как влияет на возможность осуществления некоторого события B наступление некоторого другого события A? В некоторых случаях ответ очевиден, например, если A и B несовместные события, т. е. то наступление события A исключает возможность наступления события B. В общем же случае ответ на этот вопрос даётся в терминах понятия условной вероятности. Чтобы подойти к определению этого нового понятия, рассмотрим следующий пример.
Изурны, содержащей 7 белых и 3 чёрных шара, по схеме выбора без возвращения последовательно извлекаются два шара. Пусть событие A означает, что первый шар – белый, а B – второй шар тоже белый. Наконец, введём событие С = A B = {оба шара белые}. Вычислим вероятности этих событий.
При вычислении вероятности события С воспользуемся классическим определением вероятности. В рассматриваемом случае общее число исходов эксперимента а число благоприятных (для события С) исходов поэтому по формуле (1.6)[1]
Ясно, что Вероятность же события B зависит от того, какой шар выбран первым. Если наступило событие , то в урне осталось 6 белых и 3 чёрных шара, поэтому вероятность вынуть белый шар во второй раз равна ; эта вероятность обозначается и называется условной вероятностью события B при условии, что наступило. Мы видим, что
Но в то же время С = A B, поэтому предыдущее равенство можно записать в виде
(1 )
или
(2)
Равенство (2) положено в основу общего определения условной вероятности (здесь, конечно, должно выполняться условие ). Формула же (1) определяет правило умножения вероятностей.Оно формулируется так:
вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое событие произошло.
Это правило допускает обобщение и на большее число событий. Например, для трёх событий и оно имеет вид:
Здесь называют безусловной вероятностью, а и – условными вероятностями.
Пример 1.На некотором предприятии изделий признаются пригодными (пригодность конкретного изделия – это событие A); из каждой сотни годных изделий в среднем 75 оказываются первого сорта (то, что изделие первого сорта – это событие B). Найти вероятность того, что случайно взятое изделие окажется первого сорта (оно должно быть одновременно и пригодным, и первого сорта).
В силу условия задачи
поэтому по правилу умножения (1)
Пример 2.Ребёнок,играя десятью кубиками с буквами М, М, Т, Т, А, А, А, К, И, Е, сложил слово «МАТЕМАТИКА». Какова вероятность такого события (обозначим его ), если считать, что ребёнок неграмотный и складывает кубики в случайном порядке?
Р е ш е н и е. Введём события М, Т, А, К, И, Е, обозначающие выбор соответствующей буквы. Тогда по правилу умножения и по классическому определению вероятности имеем:
Эта вероятность ничтожно мала, поэтому событие практически невозможно! Если же оно осуществилось, то следует считать гипотезу о неграмотности ребёнка неверной. Детальнее вопросы проверки различных статистических гипотез будут обсуждаться позднее.
Пример 3.Приведём ещё одно решение задачи о ключах(см. пример 1.7). По правилу умножения и по классическому определению вероятности можем записать следующую цепочку равенств:
Естественно, результат получился тот же.
2. Независимость событий.С условной вероятностью связано одно из важнейших понятий ТВ – понятие независимости случайных событий. Естественно считать, что событие B не зависит от события A, если наступление события A никак не влияет на вероятность осуществления события B, т. е. условная вероятность события B при условии, что наступило, равна безусловной вероятности события B:
(3)
Если имеет место (3), то из (1) следует равенство
(4)
Это равенство симметрично относительно событий A и B, поэтому, если B не зависит от A, то и A не зависит от B, т. е. независимость двух событий есть свойство взаимное. Равенство (4) и принимается за определение независимости событий A и B.
Смысл определения независимости заключается в том, что если произошло одно из независимых событий, то это никак не влияет на вероятность осуществления другого события. При этом, если A и B независимы, то также независимы A и , и B, и .
Обычно независимость событий ясна из физической сущности анализируемого явления. Например, при повторных бросаниях монеты выпадение герба и решётки в разных бросаниях будут независимыми событиями. С помощью равенства (4) обычно вычисляют вероятность одновременного осуществления независимых событий A и B, зная вероятности и .
Пример 4.Два стрелка делают по одному выстрелу, каждый по своей мишени. Вероятность поражения цели 1-м стрелком (событие ) равна 0,7, а вторым (событие ) – 0,9. Найти вероятности следующих событий: A={обе цели поражены}, B={ни одна из целей не поражена}, С ={поражена только одна цель}.
Р е ш е н и е. Естественно считать, что в данном случаесобытия и независимы. Поэтому, так как то
Обратим внимание на то, что события A, B и С образуют полную систему, так как они попарно несовместны и сумма их вероятностей равна единице.
Пример 5.Из колоды в 36 карт наугад вынимается карта. Рассмотрим события A={вынута «пика»} и B={ вынута «дама»}. Будут ли эти события независимыми? Здесь событие AB означает, что вынута «дама пик». По классическому определению вероятности имеем:
следовательно, выполняется равенство (4), и потому события независимы.
Понятие независимости распространяется на случай нескольких событий. События называются взаимно независимыми (или независимыми в совокупности, или просто независимыми), если для всех комбинаций индексов выполняются равенства
Если эти равенства выполняются только при r = 2, то события называют попарно независимыми. Отметим, что из попарной независимости не следует независимость в совокупности, как показывает следующий пример.
Пример 6.На плоскость бросается тетраэдр, грани которого окрашены так: три грани – одним цветом, соответственно, красным (К), белым (Б) и чёрным (Ч), а четвёртая – всеми тремя. Исходом опыта считается нижняя выпавшая грань. Пусть события К, Б и Ч состоят в том, что на выпавшейграни присутствует соответствующий цвет. Тогда
Таким образом, в данном случае события К, Б и Ч попарно независимы, но не являются независимыми в совокупности.
3. Формула полной вероятности.Вомногих случаяхвероятности случайных событий могут быть вычислены с помощью, так называемой, формулы полной вероятности. Пусть события (все ) образуют полную систему. Тогда любое событие можно представить в виде следующей суммы несовместных событий
.
Отсюда
,
и по формуле (1)
(5)
Равенство (5) и есть знаменитая формула полной вероятности.События обычно называют гипотезами. Таким образом,
если известны вероятности гипотез и условные вероятности события при различных гипотезах, то по формуле (5) можно вычислить безусловную вероятность этого события.
Если в равенстве
вероятность заменить по формуле (5), то получим ещё одну важную формулу ТВ – формулу Байеса:
(6)
Эта формула позволяет пересчитывать априорные (т. е. до опыта) вероятности гипотез после того, как произошло событие ( называют апостериорными, т. е. после опыта, вероятностями гипотез).
Рассмотрим несколько иллюстративных примеров на применение формулы полной вероятности.
Пример 7.Имеются две урны:в 1-й– 2 белых и 1 чёрный шар, во 2-й – 1 белый и 1чёрный шар. Из случайно выбранной урны наугад вынимается шар. Найти вероятность события A = {вынут белый шар}.
Р е ш е н и е. Здесь две гипотезы: – выбрана 1-я урна и – выбрана 2-я урна и, по условию, = Далее, по классической схеме,
Следовательно, по формуле (5)
Пример 8.Изурны, содержащей М белых и N – М чёрных шаров, по схеме случайного выбора без возвращения последовательно извлекают двашара. Введём события A = {1-й шар – белый} и В = {2-й шар – белый}. Вычислить вероятность
Р е ш е н и е. Здесь в качестве полной системы естественно взять события A и . По классической схеме имеем
Поэтому по формуле (5)
т. е. Аналогично можно установить, что вынимая последовательно без возвращения шары, мы будем иметь одну и ту же вероятность вынуть белый шар на любом шаге. Тем самым, при жеребьёвке шансы всех участников одинаковы независимо от того, в какой очерёдности они тянут жребий.
Пример 9.Пусть имеются две урны с N шарами в каждой, при этом в 1-й урне белых шаров, а во 2-й – белых шаров. Из случайно выбранной урны вынимается (с возвращением) n шаров. Рассмотрим событие A = {все вынутые шары – белые}. Здесь две гипотезы: – выбрана 1-я урна и – выбрана 2-я урна и, по условию, их априорные вероятности равны: = Далее по классической схеме находим условные вероятности:
Формулы Байеса (6) дают нам апостериорные вероятности:
Если то при
Но это означает, что выбор шаров наверняка был произведён из первой урны. Таким образом, знание исхода A такого эксперимента даёт возможность существенно скорректировать априорные сведения о гипотезах и .
4. Схема Бернулли.Важную роль в различных задачах ТВ играют схемы повторных независимых испытаний (т. е. когда вероятность того или иного исхода в каждом из них не зависит от исходов остальных испытаний, и испытания проводятся в неизменных условиях). Если в каждом испытании может наступить или не наступить некоторое событие A (обычно наступление A называют условно «успехом» (У), а наступление противоположного события – «неуспехом» (Н)), и если вероятность «успеха» в каждом испытании одна и та же, то такая схема называется схемой Бернулли[2]. Обычно обозначают и при этом предполагают, что
Примерами схемы Бернулли являются: стрельба по мишени (здесь испытание – отдельный выстрел), подбрасывание монеты или игральной кости (испытание – отдельное бросание), испытание электрических лампочек на длительность горения и т. д.
Для n испытаний схемы Бернулли элементарными событиями являются комбинации длины n из букв У и Н: =УУН…ННУ. Обозначим событие, состоящее в том, что в этих испытаниях произошло ровно m «успехов». Поскольку испытания независимы, то вероятность каждой благоприятной (для события ) комбинации равна а число всех таких комбинаций равно (столькими способами можно зафиксировать те места в комбинации , на которых должны стоять буквы У), следовательно,
(7)
Мы пришли к уже встречавшемуся нам в схеме случайного выбора с возвращением (см. (1.8)) биномиальному распределению, так чтопримером схемы Бернулли является любая выборка с возвращением.
Схема Бернулли будет неоднократно встречаться нам в последующем изложении теории, в примерах и задачах.
Обобщением схемы Бернулли является полиномиальная схема, когда при каждом испытании возможно появление одного из k попарно несовместных исходов . Пусть (эти вероятности от испытания к испытанию не меняются). В этой схеме обычно интересуются вероятностью того, что в n испытаниях каждый из исходов произойдёт заданное число раз, скажем, при этом эти числа должны удовлетворять условию Вероятность такого события вычисляется по формуле
(8)
Набор чисел (8) называют полиномиальным распределением. При k = 2 это распределение сводится к биномиальному распределению.
При n подбрасываниях игральной кости мы имеем полиномиальную схему с k = 6 исходами и Если теперь «укрупнить» элементарные события, например, различать в каждом испытании только «6» и «не 6», то получим схему Бернулли с
[1] Нумерация формул и примеров в каждом параграфе своя, при ссылке на формулу (пример) другого параграфа добавляется номер этого параграфа.
[2] Якоб Бернулли (1654 – 1705) – выдающийся швейцарский математик, один из основоположников теории вероятностей, впервые изучавший такую схему.
<== предыдущая лекция | | | следующая лекция ==> |
ЭМБРИОНАЛЬНЫЙ ПЕРИОД | | | Антропогенные воздействия на гидросферу и литосферу |
Дата добавления: 2015-09-23; просмотров: 1512;