|
Лекция 27.
|
|
Математическое ожидание M биномиального распределения равно:
M = n · p,
где n число испытаний, p вероятность появления события A.
Среднеквадратичное отклонение σ:
σ = sqrt(n · p · (1 p)).
Пример 1. Вычислить вероятность того, что событие, имеющее вероятность p = 0.5, в n = 10 испытаниях произойдет m = 1 раз. Имеем: C101 = 10, и далее: P1 = 10 · 0.51 · (1 0.5)10 1 = 10 · 0.510 = 0.0098. Как видим, вероятность наступления этого события достаточно мала. Объясняется это, во-первых, тем, что абсолютно не ясно, произойдет ли событие или нет, поскольку вероятность равна 0.5 и шансы здесь «50 на 50»; а во-вторых, требуется исчислить то, что событие произойдет именно один раз (не больше и не меньше) из десяти.
Пример 2. Вычислить вероятность того, что событие, имеющее вероятность p = 0.5, в n = 10 испытаниях произойдет m = 2 раза. Имеем: C102 = 45, и далее: P2 = 45 · 0.52 · (1 0.5)10 2 = 45 · 0.510 = 0.044. Вероятность наступления этого события стала больше!
Пример 3. Увеличим вероятность наступления самого события. Сделаем его более вероятным. Вычислить вероятность того, что событие, имеющее вероятность p = 0.8, в n = 10 испытаниях произойдет m = 1 раз. Имеем: C101 = 10, и далее: P1 = 10 · 0.81 · (1 0.8)10 1 = 10 · 0.81 · 0.29 = 0.000004. Вероятность стала меньше, чем в первом примере! Ответ, на первый взгляд, кажется странным, но поскольку событие имеет достаточно большую вероятность, вряд ли оно произойдет только один раз. Более вероятно, что оно произойдет большее, чем один, количество раз. Действительно, подсчитывая P0, P1, P2, P3, , P10 (вероятность того, что событие в n = 10 испытаниях произойдет 0, 1, 2, 3, , 10 раз), мы увидим:
C100 = 1,
C101 = 10,
C102 = 45,
C103 = 120,
C104 = 210,
C105 = 252,
C106 = 210,
C107 = 120,
C108 = 45,
C109 = 10,
C1010 = 1;
P0 = 1 · 0.80 · (1 0.8)10 0 = 1 · 1 · 0.210 = 0.0000
;
P1 = 10 · 0.81 · (1 0.8)10 1 = 10 · 0.81 · 0.29 = 0.0000
;
P2 = 45 · 0.82 · (1 0.8)10 2 = 45 · 0.82 · 0.28 = 0.0000
;
P3 = 120 · 0.83 · (1 0.8)10 3 = 120 · 0.83 · 0.27 = 0.0008
;
P4 = 210 · 0.84 · (1 0.8)10 4 = 210 · 0.84 · 0.26 = 0.0055
;
P5 = 252 · 0.85 · (1 0.8)10 5 = 252 · 0.85 · 0.25 = 0.0264
;
P6 = 210 · 0.86 · (1 0.8)10 6 = 210 · 0.86 · 0.24 = 0.0881
;
P7 = 120 · 0.87 · (1 0.8)10 7 = 120 · 0.87 · 0.23 = 0.2013
;
P8 = 45 · 0.88 · (1 0.8)10 8 = 45 · 0.88 · 0.22 = 0.3020
(самая большая вероятность!);
P9 = 10 · 0.89 · (1 0.8)10 9 = 10 · 0.89 · 0.21 = 0.2684
;
P10 = 1 · 0.810 · (1 0.8)10 10 = 1 · 0.810 · 0.20 = 0.1074
Разумеется, P0 + P1 + P2 + P3 + P4 + P5 + P6 + P7 + P8 + P9 + P10 = 1.
Если изобразить величины P0, P1, P2, P3, , P10, которые мы подсчитали в примере 3, на графике, то окажется, что их распределение имеет вид, близкий к нормальному закону распределения (см. рис. 27.1) (см. лекцию 25. Моделирование нормально распределенных случайных величин).
Рис. 27.1. Вид биномиального распределения вероятностей для различных m при p = 0.8, n = 10 |
Биномиальный закон переходит в нормальный, если вероятности появления и непоявления события A примерно одинаковы, то есть, условно можно записать: p ≈ (1 p). Для примера возьмем n = 10 и p = 0.5 (то есть p = 1 p = 0.5).
Содержательно к такой задаче мы придем, если, например, захотим теоретически посчитать, сколько будет мальчиков и сколько девочек из 10 родившихся в роддоме в один день детей. Точнее, считать будем не мальчиков и девочек, а вероятность, что родятся только мальчики, что родится 1 мальчик и 9 девочек, что родится 2 мальчика и 8 девочек и так далее. Примем для простоты, что вероятность рождения мальчика и девочки одинакова и равна 0.5 (но на самом деле, если честно, это не так, см. курс «Моделирование систем искусственного интеллекта»).
Ясно, что распределение будет симметричное, так как вероятность рождения 3 мальчиков и 7 девочек равна вероятности рождения 7 мальчиков и 3 девочек. Наибольшая вероятность рождения будет у 5 мальчиков и 5 девочек. Эта вероятность равна 0.25, кстати, не такая уж она и большая по абсолютной величине. Далее, вероятность того, что родится сразу 10 или 9 мальчиков намного меньше, чем вероятность того, что родится 5 ± 1 мальчик из 10 детей. Как раз биномиальное распределение нам поможет сделать этот расчет. Итак.
C100 = 1,
C101 = 10,
C102 = 45,
C103 = 120,
C104 = 210,
C105 = 252,
C106 = 210,
C107 = 120,
C108 = 45,
C109 = 10,
C1010 = 1;
P0 = 1 · 0.50 · (1 0.5)10 0 = 1 · 1 · 0.510 = 0.000977
;
P1 = 10 · 0.51 · (1 0.5)10 1 = 10 · 0.510 = 0.009766
;
P2 = 45 · 0.52 · (1 0.5)10 2 = 45 · 0.510 = 0.043945
;
P3 = 120 · 0.53 · (1 0.5)10 3 = 120 · 0.510 = 0.117188
;
P4 = 210 · 0.54 · (1 0.5)10 4 = 210 · 0.510 = 0.205078
;
P5 = 252 · 0.55 · (1 0.5)10 5 = 252 · 0.510 = 0.246094
;
P6 = 210 · 0.56 · (1 0.5)10 6 = 210 · 0.510 = 0.205078
;
P7 = 120 · 0.57 · (1 0.5)10 7 = 120 · 0.510 = 0.117188
;
P8 = 45 · 0.58 · (1 0.5)10 8 = 45 · 0.510 = 0.043945
;
P9 = 10 · 0.59 · (1 0.5)10 9 = 10 · 0.510 = 0.009766
;
P10 = 1 · 0.510 · (1 0.5)10 10 = 1 · 0.510 = 0.000977
Разумеется, P0 + P1 + P2 + P3 + P4 + P5 + P6 + P7 + P8 + P9 + P10 = 1.
Отразим на графике величины P0, P1, P2, P3, , P10 (см. рис. 27.2).
Рис. 27.2. График биномиального распределения при параметрах p = 0.5 и n = 10, приближающих его к нормальному закону |
Итак, при условиях m ≈ n/2 и p ≈ 1 p или p ≈ 0.5 вместо биномиального распределения можно использовать нормальное. При больших значениях n график сдвигается вправо и становится все более пологим, так как математическое ожидание и дисперсия возрастают с увеличением n: M = n · p, D = n · p · (1 p).
Кстати, биномиальный закон стремится к нормальному и при увеличении n, что вполне естественно, согласно центральной предельной теореме (см. лекцию 34. Фиксация и обработка статистических результатов).
Теперь рассмотрим, как изменится биномиальный закон в случае, когда p ≠ q, то есть p > 0. В этом случае применить гипотезу о нормальности распределения нельзя, и биномиальное распределение переходит в распределение Пуассона.
Распределение Пуассона это частный случай биномиального распределения (при n >> 0 и при p > 0 (редкие события)).
Из математики известна формула, позволяющая примерно подсчитать значение любого члена биномиального распределения:
где a = n · p параметр Пуассона (математическое ожидание), а дисперсия равна математическому ожиданию. Приведем математические выкладки, поясняющие этот переход. Биномиальный закон распределения
Pm = Cnm · pm · (1 p)n m
может быть написан, если положить p = a/n, в виде
или
Так как p очень мало, то следует принимать во внимание только числа m, малые по сравнению с n. Произведение
весьма близко к единице. Это же относится к величине
Величина
очень близка к ea. Отсюда получаем формулу:
Пример. В ящике находится n = 100 деталей, как качественных, так и бракованных. Вероятность достать бракованное изделие составляет p = 0.01. Допустим, что мы вынимаем изделие, определяем, бракованное оно или нет, и кладем его обратно. Поступая таким образом, получилось, что из 100 изделий, которые мы перебрали, два оказались бракованными. Какова вероятность этого?
По биномиальному распределению получаем:
По распределению Пуассона получаем:
Как видно, величины получились близкими, поэтому в случае редких событий вполне допустимо применять закон Пуассона, тем более что он требует меньших вычислительных затрат.
Покажем графически вид закона Пуассона. Возьмем для примера параметры p = 0.05, n = 10. Тогда:
C100 = 1,
C101 = 10,
C102 = 45,
C103 = 120,
C104 = 210,
C105 = 252,
C106 = 210,
C107 = 120,
C108 = 45,
C109 = 10,
C1010 = 1;
P0 = 1 · 0.050 · (1 0.05)10 0 = 1 · 1 · 0.9510 = 0.5987
;
P1 = 10 · 0.051 · (1 0.05)10 1 = 10 · 0.051 · 0.959 = 0.3151
;
P2 = 45 · 0.052 · (1 0.05)10 2 = 45 · 0.052 · 0.958 = 0.0746
;
P3 = 120 · 0.053 · (1 0.05)10 3 = 120 · 0.053 · 0.957 = 0.0105
;
P4 = 210 · 0.054 · (1 0.05)10 4 = 210 · 0.054 · 0.956 = 0.00096
;
P5 = 252 · 0.055 · (1 0.05)10 5 = 252 · 0.055 · 0.955 = 0.00006
;
P6 = 210 · 0.056 · (1 0.05)10 6 = 210 · 0.056 · 0.954 = 0.0000
;
P7 = 120 · 0.057 · (1 0.05)10 7 = 120 · 0.057 · 0.953 = 0.0000
;
P8 = 45 · 0.058 · (1 0.05)10 8 = 45 · 0.058 · 0.952 = 0.0000
;
P9 = 10 · 0.059 · (1 0.05)10 9 = 10 · 0.059 · 0.951 = 0.0000
;
P10 = 1 · 0.0510 · (1 0.05)10 10 = 1 · 0.0510 · 0.950 = 0.0000
Разумеется, P0 + P1 + P2 + P3 + P4 + P5 + P6 + P7 + P8 + P9 + P10 = 1.
Рис. 27.3. График распределения Пуассона при p = 0.05 и n = 10 |
При n > ∞ распределение Пуассона переходит в нормальный закон, согласно центральной предельной теореме (см. лекцию 34. Фиксация и обработка статистических результатов).
Лекция 26. Моделирование системы случайных | Лекция 28. Поток случайных событий | ||||||||||||||||
|