Условные вероятности и независимость событий. Формула полной вероятности

1. Понятие условной вероятности.При анализе различных явлений часто возникает вопрос следующего рода: как влияет на возможность осуществления некоторого события B наступление некоторого другого события A? В некоторых случаях ответ очевиден, например, если A и B несовместные события, т. е. то наступление события A исключает возможность наступления события B. В общем же случае ответ на этот вопрос даётся в терминах понятия условной вероятности. Чтобы подойти к определению этого нового понятия, рассмотрим следующий пример.

Изурны, содержащей 7 белых и 3 чёрных шара, по схеме выбора без возвращения последовательно извлекаются два шара. Пусть событие A означает, что первый шар – белый, а B – второй шар тоже белый. Наконец, введём событие С = A B = {оба шара белые}. Вычислим вероятности этих событий.

При вычислении вероятности события С воспользуемся классическим определением вероятности. В рассматриваемом случае общее число исходов эксперимента а число благоприятных (для события С) исходов поэтому по формуле (1.6)[1]

Ясно, что Вероятность же события B зависит от того, какой шар выбран первым. Если наступило событие , то в урне осталось 6 белых и 3 чёрных шара, поэтому вероятность вынуть белый шар во второй раз равна ; эта вероятность обозначается и называется условной вероятностью события B при условии, что наступило. Мы видим, что

 

Но в то же время С = A B, поэтому предыдущее равенство можно записать в виде

(1 )

или

(2)

 

Равенство (2) положено в основу общего определения условной вероятности (здесь, конечно, должно выполняться условие ). Формула же (1) определяет правило умножения вероятностей.Оно формулируется так:

вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое событие произошло.

Это правило допускает обобщение и на большее число событий. Например, для трёх событий и оно имеет вид:

 

 

Здесь называют безусловной вероятностью, а и – условными вероятностями.

Пример 1.На некотором предприятии изделий признаются пригодными (пригодность конкретного изделия – это событие A); из каждой сотни годных изделий в среднем 75 оказываются первого сорта (то, что изделие первого сорта – это событие B). Найти вероятность того, что случайно взятое изделие окажется первого сорта (оно должно быть одновременно и пригодным, и первого сорта).

В силу условия задачи

поэтому по правилу умножения (1)

 

Пример 2.Ребёнок,играя десятью кубиками с буквами М, М, Т, Т, А, А, А, К, И, Е, сложил слово «МАТЕМАТИКА». Какова вероятность такого события (обозначим его ), если считать, что ребёнок неграмотный и складывает кубики в случайном порядке?

Р е ш е н и е. Введём события М, Т, А, К, И, Е, обозначающие выбор соответствующей буквы. Тогда по правилу умножения и по классическому определению вероятности имеем:

 

 

Эта вероятность ничтожно мала, поэтому событие практически невозможно! Если же оно осуществилось, то следует считать гипотезу о неграмотности ребёнка неверной. Детальнее вопросы проверки различных статистических гипотез будут обсуждаться позднее.

Пример 3.Приведём ещё одно решение задачи о ключах(см. пример 1.7). По правилу умножения и по классическому определению вероятности можем записать следующую цепочку равенств:

 

 

Естественно, результат получился тот же.

 

2. Независимость событий.С условной вероятностью связано одно из важнейших понятий ТВ – понятие независимости случайных событий. Естественно считать, что событие B не зависит от события A, если наступление события A никак не влияет на вероятность осуществления события B, т. е. условная вероятность события B при условии, что наступило, равна безусловной вероятности события B:

 

(3)

 

Если имеет место (3), то из (1) следует равенство

 

(4)

Это равенство симметрично относительно событий A и B, поэтому, если B не зависит от A, то и A не зависит от B, т. е. независимость двух событий есть свойство взаимное. Равенство (4) и принимается за определение независимости событий A и B.

Смысл определения независимости заключается в том, что если произошло одно из независимых событий, то это никак не влияет на вероятность осуществления другого события. При этом, если A и B независимы, то также независимы A и , и B, и .

Обычно независимость событий ясна из физической сущности анализируемого явления. Например, при повторных бросаниях монеты выпадение герба и решётки в разных бросаниях будут независимыми событиями. С помощью равенства (4) обычно вычисляют вероятность одновременного осуществления независимых событий A и B, зная вероятности и .

Пример 4.Два стрелка делают по одному выстрелу, каждый по своей мишени. Вероятность поражения цели 1-м стрелком (событие ) равна 0,7, а вторым (событие ) – 0,9. Найти вероятности следующих событий: A={обе цели поражены}, B={ни одна из целей не поражена}, С ={поражена только одна цель}.

Р е ш е н и е. Естественно считать, что в данном случаесобытия и независимы. Поэтому, так как то

 

 

Обратим внимание на то, что события A, B и С образуют полную систему, так как они попарно несовместны и сумма их вероятностей равна единице.

Пример 5.Из колоды в 36 карт наугад вынимается карта. Рассмотрим события A={вынута «пика»} и B={ вынута «дама»}. Будут ли эти события независимыми? Здесь событие AB означает, что вынута «дама пик». По классическому определению вероятности имеем:

 

 

следовательно, выполняется равенство (4), и потому события независимы.

Понятие независимости распространяется на случай нескольких событий. События называются взаимно независимыми (или независимыми в совокупности, или просто независимыми), если для всех комбинаций индексов выполняются равенства

 

Если эти равенства выполняются только при r = 2, то события называют попарно независимыми. Отметим, что из попарной независимости не следует независимость в совокупности, как показывает следующий пример.

Пример 6.На плоскость бросается тетраэдр, грани которого окрашены так: три грани – одним цветом, соответственно, красным (К), белым (Б) и чёрным (Ч), а четвёртая – всеми тремя. Исходом опыта считается нижняя выпавшая грань. Пусть события К, Б и Ч состоят в том, что на выпавшейграни присутствует соответствующий цвет. Тогда

 

 

Таким образом, в данном случае события К, Б и Ч попарно независимы, но не являются независимыми в совокупности.

 

3. Формула полной вероятности.Вомногих случаяхвероятности случайных событий могут быть вычислены с помощью, так называемой, формулы полной вероятности. Пусть события (все ) образуют полную систему. Тогда любое событие можно представить в виде следующей суммы несовместных событий

.

Отсюда

,

и по формуле (1)

(5)

 

Равенство (5) и есть знаменитая формула полной вероятности.События обычно называют гипотезами. Таким образом,

если известны вероятности гипотез и условные вероятности события при различных гипотезах, то по формуле (5) можно вычислить безусловную вероятность этого события.

Если в равенстве

 

вероятность заменить по формуле (5), то получим ещё одну важную формулу ТВ – формулу Байеса:

(6)

 

Эта формула позволяет пересчитывать априорные (т. е. до опыта) вероятности гипотез после того, как произошло событие ( называют апостериорными, т. е. после опыта, вероятностями гипотез).

 

Рассмотрим несколько иллюстративных примеров на применение формулы полной вероятности.

Пример 7.Имеются две урны:в 1-й– 2 белых и 1 чёрный шар, во 2-й – 1 белый и 1чёрный шар. Из случайно выбранной урны наугад вынимается шар. Найти вероятность события A = {вынут белый шар}.

Р е ш е н и е. Здесь две гипотезы: – выбрана 1-я урна и – выбрана 2-я урна и, по условию, = Далее, по классической схеме,

 

 

Следовательно, по формуле (5)

 

Пример 8.Изурны, содержащей М белых и N М чёрных шаров, по схеме случайного выбора без возвращения последовательно извлекают двашара. Введём события A = {1-й шар – белый} и В = {2-й шар – белый}. Вычислить вероятность

Р е ш е н и е. Здесь в качестве полной системы естественно взять события A и . По классической схеме имеем

 

 

Поэтому по формуле (5)

 

 

т. е. Аналогично можно установить, что вынимая последовательно без возвращения шары, мы будем иметь одну и ту же вероятность вынуть белый шар на любом шаге. Тем самым, при жеребьёвке шансы всех участников одинаковы независимо от того, в какой очерёдности они тянут жребий.

Пример 9.Пусть имеются две урны с N шарами в каждой, при этом в 1-й урне белых шаров, а во 2-й – белых шаров. Из случайно выбранной урны вынимается (с возвращением) n шаров. Рассмотрим событие A = {все вынутые шары – белые}. Здесь две гипотезы: – выбрана 1-я урна и – выбрана 2-я урна и, по условию, их априорные вероятности равны: = Далее по классической схеме находим условные вероятности:

 

Формулы Байеса (6) дают нам апостериорные вероятности:

 

 

Если то при

 

Но это означает, что выбор шаров наверняка был произведён из первой урны. Таким образом, знание исхода A такого эксперимента даёт возможность существенно скорректировать априорные сведения о гипотезах и .

 

4. Схема Бернулли.Важную роль в различных задачах ТВ играют схемы повторных независимых испытаний (т. е. когда вероятность того или иного исхода в каждом из них не зависит от исходов остальных испытаний, и испытания проводятся в неизменных условиях). Если в каждом испытании может наступить или не наступить некоторое событие A (обычно наступление A называют условно «успехом» (У), а наступление противоположного события – «неуспехом» (Н)), и если вероятность «успеха» в каждом испытании одна и та же, то такая схема называется схемой Бернулли[2]. Обычно обозначают и при этом предполагают, что

Примерами схемы Бернулли являются: стрельба по мишени (здесь испытание – отдельный выстрел), подбрасывание монеты или игральной кости (испытание – отдельное бросание), испытание электрических лампочек на длительность горения и т. д.

Для n испытаний схемы Бернулли элементарными событиями являются комбинации длины n из букв У и Н: =УУН…ННУ. Обозначим событие, состоящее в том, что в этих испытаниях произошло ровно m «успехов». Поскольку испытания независимы, то вероятность каждой благоприятной (для события ) комбинации равна а число всех таких комбинаций равно (столькими способами можно зафиксировать те места в комбинации , на которых должны стоять буквы У), следовательно,

 

(7)

Мы пришли к уже встречавшемуся нам в схеме случайного выбора с возвращением (см. (1.8)) биномиальному распределению, так чтопримером схемы Бернулли является любая выборка с возвращением.

Схема Бернулли будет неоднократно встречаться нам в последующем изложении теории, в примерах и задачах.

Обобщением схемы Бернулли является полиномиальная схема, когда при каждом испытании возможно появление одного из k попарно несовместных исходов . Пусть (эти вероятности от испытания к испытанию не меняются). В этой схеме обычно интересуются вероятностью того, что в n испытаниях каждый из исходов произойдёт заданное число раз, скажем, при этом эти числа должны удовлетворять условию Вероятность такого события вычисляется по формуле

(8)

 

Набор чисел (8) называют полиномиальным распределением. При k = 2 это распределение сводится к биномиальному распределению.

При n подбрасываниях игральной кости мы имеем полиномиальную схему с k = 6 исходами и Если теперь «укрупнить» элементарные события, например, различать в каждом испытании только «6» и «не 6», то получим схему Бернулли с

 

 


[1] Нумерация формул и примеров в каждом параграфе своя, при ссылке на формулу (пример) другого параграфа добавляется номер этого параграфа.

[2] Якоб Бернулли (1654 – 1705) – выдающийся швейцарский математик, один из основоположников теории вероятностей, впервые изучавший такую схему.


<== предыдущая лекция | следующая лекция ==>
ЭМБРИОНАЛЬНЫЙ ПЕРИОД | Антропогенные воздействия на гидросферу и литосферу




Дата добавления: 2015-09-23; просмотров: 1508;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.046 сек.