3. Теоремы сложения событий. 

Теорема 1. если события А и В несовместны то Р(А+В)=Р(А)+Р(В). док-во: пусть n испытание событию А благоприятствуют m исход. Событию В благоприятствует k исход. Т.к. события А и В несовместны то произведение событий А и В не благоприятствует ни один из исходов испытания, т.е. появлению события А+В благоприятствует m+k исходы, тогда: Р(А+В)= (m+k)/n = m/n+k/n= Р(А)+Р(В). следствие1: если события А1,А2,…Аn попарно несовместимы, то вероятность суммы событий равна сумме вероятностей этих событий. Следствие2: если события А1,А2,…Аn составляют полную группу событий то сумма вероятностей этих событий равна 1. Р(А1)+Р(А2)+… +Р(Аn)=1; А1+А2+…+Аn=U. Следствие3: Р(`А)=1-Р(А). Р(А) вероятность события А. док-во: если события А и В совместны то вероятность суммы событий Р(А+В)= Р(А)+Р(В)-Р(А*В).

Зависимые и независимые события. Условная вероятность. Теория умножения вероятностей.

Два события А и В называются независимыми если вероятность появ-ия одного из них не зависит от появления или непоявления другого события. События А и В называются зависимыми если Р появ-ия одного из них зависит от появления или непоявления другого события. События А1,А2,…Аn наз-ся независимыми в совокупности если одно из них и произвольная комбинация остальных яв-ся независимыми. Несколько событий наз-ся попарно независимыми если независимы попарно события. Независимость в совокупности сильнее попарной независимости. условной вероятностью события А при условии что событие В произошло обозначается след образом РВ(А) или Р(А|В).если события независимы то имеем РВ(А) =Р(А). вероятность события наз-ся безусловной если появ-ие события А накладывается только одно ограничение комплекс условий. Св-ва усл. вероятности: 1°: РВ(А) ³0; 2°: РВ(U)=1; 3°: РA(А)=1; 4°: РВ(А1+A2)= РВ(А1)+ РВ(А2).

Теорема1: если события А и В – независимы то справедливо след формула Р(А*В)= Р(А)*Р(В). общее кол-во исходов испытания при которых соб.А может появ-ся, а может не появ-ся. Кол-во благоприятсвующих событию А исходов:

n  -A;   m  -B                          P(A)=n1/n

n1-A;   m1-B                          P(B)=m1/m

n*m=A*B

n1*m1 – A*B –кол-во исходов исп-ия благоприят. появ. А и В тогда вероятность Р(А*В)= n1*m1/ n*m=

n1/n * m1/m= P(A)*P(B).

следствие: 1.теорему можно распространить на конечное число попарно независимых событий.

Теорема2: если А и В зависимы то Р(А*В)= Р(А)* РА(В). док-во: n – общее число исходов испытания при которых соб. А может появ-ся может и нет. n1- число исходов исп. благоприят. появ. А. n2- число исходов исп. благоприят. появ. В. при условии что соб. А произошло, т.е. совместному появ-ию соб. А и В, тогда вероятность определяем Р(А*В)= n2/n= n2/n1*n1/n= P(A)* PA(B). Из этой формулы имеем PA(B) = Р(А*В) / Р(А). это выражение можно взять  за определение условной вероятности события.

Теорема3: вероятность появления хотя бы одного из событий независимых в совокупности равна разности  между 1 и произведением вероятностей противоположных событий. Док-во: А1,А2,…Аn- независимы в совокупности тогда `А1,`А2…`Аn – также независимы в совокупности. Пусть соб.А состоит в появ-ии хотя бы одного из событий независимых в совок-ти. Тогда можем записать А+`А1*`А2*…*`Аn=U. Р(А)+ Р(А1,`А2..`Аn)=1

 Р(А)=1- Р(А1,`А2..`Аn). следстивие если событие А1,А2,…Аn зависимы то Р(А1*А2*…*Аn) = Р(А1)*РА1(А2)*РА1*А2(А3)*…*РА1*А2…Аn-1(An).

Hosted by uCoz