Загрузил klyuev.dm1t

Бидерман. Элементы теории вероятностей. Хаб., 2017

реклама
В. И. Бидерман
ЭЛЕМЕНТЫ
ТЕОРИИ
ВЕРОЯТНОСТЕЙ
Хабаровск 2017
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ
Федеральное государственное бюджетное образовательное учреждение
высшего образования
«Тихоокеанский государственный университет»
В. И. Бидерман
Элементы
теории вероятностей
Утверждено издательско-библиотечным советом университета
в качестве учебного пособия
Хабаровск
Издательство ТОГУ
2017
УДК 519.21(07)
ББК 22.171
Б 597
Р е ц е н з е н т ы:
Кафедра «Высшая математика» ДВГУПС (завкафедрой
д-р физ.-мат. наук, доц. П. В. Виноградова);
Е. А. Мясников, канд. физ.-мат. наук, доц. кафедры М и ММЭ ХГАУиП.
Н а у ч н ы й р е д а к т о р канд. физ.-мат. наук, доц. В. Я. Прудников
Бидерман, В. И.
Б597 Элементы теории вероятностей : учебное пособие / В. И. Бидерман;
[науч. ред. В. Я. Прудников]. − Хабаровск : Изд-во Тихоокеан. гос.
ун-та, 2017. − 232 с.
ISBN 978-5-7389-2152-0
Пособие соответствует федеральному государственному образовательному
стандарту в области математики для технических специальностей и технических и экономических направлений бакалавриата и предназначено для студентов университета дневной, заочной и дистанционной форм обучения.
Рассматриваются классические разделы теории вероятностей. Пособие содержит большое количество задач, иллюстрирующих изучаемые темы.
УДК 519.21(07)
ББК 22.171
c Бидерман В. И., 2017
ISBN 978-5-7389-2152-0
c Тихоокеанский государственный
университет, 2017
Оглавление
Предисловие . . . . . . . . . . . . . . . . . . .
1 Элементы комбинаторики
1.1 Операции над множествами . . . . . . . .
1.2 Правило суммы . . . . . . . . . . . . . . .
1.3 Правило произведения . . . . . . . . . . .
1.4 Понятие факториала . . . . . . . . . . . .
1.5 Перестановки . . . . . . . . . . . . . . . .
1.6 Размещения без повторения . . . . . . . .
1.7 Перестановки с повторениями двух типов
1.8 Сочетания без повторения . . . . . . . . .
1.9 Размещения с повторением . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Введение в теорию вероятностей
2.1 Понятие события. Классификация событий . .
2.2 Классическое определение вероятности . . . .
2.3 Статистистическое определение вероятности .
2.4 Геометрическое определение вероятности . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
.
.
.
.
.
.
.
.
.
5
5
8
9
11
12
12
13
14
15
.
.
.
.
18
18
20
26
28
3 Алгебра событий
3.1 Сложение вероятностей событий . . . . . . . . . . . . . . . .
3.2 Умножение вероятностей событий . . . . . . . . . . . . . . .
3.3 Примеры применения алгебры событий . . . . . . . . . . . .
3.3.1 Связь между вероятностями противоположных событий
3.3.2 Вероятность работы схем теории надёжности . . . . .
3.4 Формула полной вероятности . . . . . . . . . . . . . . . . . .
3.5 Формула Байеса . . . . . . . . . . . . . . . . . . . . . . . . .
34
34
37
41
41
44
46
50
4 Схема Бернулли
4.1 Формула Бернулли . . . . . . . . . . . . . . . . . . . . . .
4.2 Формула Пуассона . . . . . . . . . . . . . . . . . . . . . .
4.3 Локальная и интегральная теоремы Лапласа . . . . . . .
4.4 Вероятность отклонения относительной частоты события
от постоянной вероятности в независимых испытаниях .
4.5 Наивероятнейшее число наступлений события
в схеме независимых испытаний . . . . . . . . . . . . . .
. .
. .
. .
54
54
56
60
. .
65
. .
67
3
5 Дискретные случайные величины
5.1 Понятие случайной величины . . . . . . . . . . . . . . . . . .
5.2 Закон распределения дискретной случайной величины . . .
5.2.1 Определение закона распределения дискретной случайной величины . . . . . . . . . . . . . . . . . . . . .
5.2.2 Табличное задание закона распределения . . . . . . .
5.2.3 Графическое задание закона распределения . . . . . .
5.3 Функция распределения дискретной случайной величины
и её свойства . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.1 Определение функции распределения дискретной
случайной величины . . . . . . . . . . . . . . . . . . .
5.3.2 Свойства функции распределения . . . . . . . . . . .
5.4 Числовые характеристики дискретной случайной величины
5.4.1 Математическое ожидание распределения дискретной
случайной величины . . . . . . . . . . . . . . . . . . .
5.4.2 Вероятностный смысл математического ожидания . .
5.4.3 Понятие индикатора события . . . . . . . . . . . . . .
5.4.4 Свойства математического ожидания . . . . . . . . .
5.4.5 Мода дискретной случайной величины . . . . . . . . .
5.4.6 Дисперсия дискретной случайной величины . . . . . .
5.4.7 Свойства дисперсии . . . . . . . . . . . . . . . . . . .
5.4.8 Среднее квадратическое отклонение . . . . . . . . . .
5.5 Одинаково распределённые независимые случайные
величины . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.6 Примеры распределений дискретных случайных величин . .
5.6.1 Биномиальное распределение вероятностей . . . . . .
5.6.2 Распределение Пуассона . . . . . . . . . . . . . . . . .
6 Непрерывные случайные величины
6.1 Определение непрерывной случайной величины . . . . . . .
6.2 Плотность распределения вероятностей непрерывной
случайной величины и её свойства . . . . . . . . . . . . . . .
6.3 Числовые характеристики непрерывной случайной
величины . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.1 Математическое ожидание непрерывной случайной величины . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.2 Дисперсия непрерывной случайной величины . . . . .
6.4 Равномерное распределение . . . . . . . . . . . . . . . . . . .
6.4.1 Определение и график функции плотности
равномерного распределения . . . . . . . . . . . . . .
4
70
70
71
71
72
77
78
78
82
83
83
87
88
89
91
93
97
98
102
103
103
108
112
112
115
119
119
123
126
126
6.4.2
6.4.3
6.4.4
6.4.5
Интегральная функция равномерного распределения 126
Математическое ожидание равномерного распределения127
Дисперсия равномерного распределения . . . . . . . . 127
Среднее квадратическое отклонение равномерного распределения . . . . . . . . . . . . . . . . . . . . . . . . 128
6.5 Нормальное распределение . . . . . . . . . . . . . . . . . . . 130
6.5.1 Определение и график функции плотности
нормального распределения . . . . . . . . . . . . . . . 130
6.5.2 Нормированное нормальное распределение . . . . . . 133
6.5.3 Интегральная функция нормального распределения . 134
6.5.4 Математическое ожидание нормального распределения 137
6.5.5 Дисперсия нормального распределения . . . . . . . . 137
6.5.6 Среднее квадратическое отклонение нормального
распределения . . . . . . . . . . . . . . . . . . . . . . 138
6.5.7 Вероятность попадания нормально распределённой
случайной величины в заданный интервал . . . . . . 139
6.5.8 Вероятность отклонения нормально распределённой
случайной величины от её центра рассеивания . . . . 140
6.5.9 Правило трёх сигм . . . . . . . . . . . . . . . . . . . . 141
6.5.10 Примеры решения задач, связанных с нормальным
распределением . . . . . . . . . . . . . . . . . . . . . . 142
6.5.11 О роли нормального закона в теории вероятностей и
её приложениях . . . . . . . . . . . . . . . . . . . . . . 147
6.6 Показательное распределение . . . . . . . . . . . . . . . . . . 149
6.6.1 Определение и график функции плотности
показательного распределения . . . . . . . . . . . . . 149
6.6.2 Интегральная функция показательного распределения 149
6.6.3 Математическое ожидание показательного распределения . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
6.6.4 Медиана показательного распределения . . . . . . . . 152
6.6.5 Дисперсия показательного распределения . . . . . . . 153
6.6.6 Среднее квадратическое отклонение показательного распределения . . . . . . . . . . . . . . . . . . . . . . . . 154
6.6.7 Вероятность попадания показательно распределённой
случайной величины в заданный интервал . . . . . . 154
6.6.8 Понятие о роли показательного распределения в теории надёжности . . . . . . . . . . . . . . . . . . . . . . 155
6.7 Понятие о моментах . . . . . . . . . . . . . . . . . . . . . . . 160
5
7 Закон больших чисел
7.1 Неравенство Маркова . . . . . . .
7.2 Неравенство Бьенеме − Чебышёва
7.3 Теорема Чебышёва . . . . . . . . .
7.4 Теорема Бернулли . . . . . . . . .
7.5 Сходимость по вероятности . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
170
170
172
175
179
181
8 Двумерные случайные величины
8.1 Понятие двумерной случайной величины . . . . . . . . . . .
8.2 Дискретные двумерные случайные величины . . . . . . . . .
8.2.1 Закон распределения дискретной двумерной случайной величины . . . . . . . . . . . . . . . . . . . . . . .
8.2.2 Функция распределения дискретной двумерной случайной величины . . . . . . . . . . . . . . . . . . . . .
8.3 Понятие независимости случайных величин . . . . . . . . . .
8.4 Условное распределение вероятностей . . . . . . . . . . . . .
8.5 Условное математическое ожидание . . . . . . . . . . . . . .
8.6 Функции, уравнения и линии регрессии . . . . . . . . . . . .
8.7 Общая характеристика зависимости случайных величин . .
8.8 Вывод уравнения линейной регрессии . . . . . . . . . . . . .
8.9 Свойства ковариации . . . . . . . . . . . . . . . . . . . . . .
8.10 Свойства коэффициента корреляции . . . . . . . . . . . . . .
8.11 Понятие корреляции случайных событий . . . . . . . . . . .
183
183
184
Заключение . . . . . . . . . . . . . . . . . . .
222
184
188
195
199
203
204
208
210
213
216
220
Библиографический список . . . . . . . . . . . . 223
Приложение 1 . . . . . . . . . . . . . . . . . . 225
Приложение 2 . . . . . . . . . . . . . . . . . . 226
Предметный указатель . . . . . . . . . . . . . 227
6
Предисловие
В условиях, когда при переходе на бакалавриат резко уменьшается количество аудиторных часов как лекционных, так и практических, а содержание курса математики при этом меняется незначительно, становится невозможным традиционное чтение лекций, при котором только при помощи
мела и тряпки или их современных заменителей: фломастера и губки −
можно довести до слушателя это самое содержание.
Если к исчезновению аудиторных часов ещё добавить проблемы школьной математики, выпавшие на долю практически каждого из решивших
стать бакалаврами или специалистами, то остаётся только надеяться, что
данное пособие в виде курса лекций совместно со временем, проведённым
студентом на лекциях и практических занятиях в учебных аудиториях,
поможет ему не только выполнить тот объём самостоятельной работы, который свалится на его голову, но и поможет ему найти дорогу от школьной
математики к математике высшей.
Настоящее пособие предназначено для студентов технических специальностей и технических, а также экономических направлений бакалавриата.
Пособие посвящено классическим темам теории вероятностей: алгебре
событий и случайным величинам. В качестве введения включены элементы комбинаторики, необходимой для изучения алгебры событий. Пособие
состоит из восьми глав, в которых рассматриваются вопросы теории и большое количество задач, иллюстрирующих эту теорию.
Причиной написания данного пособия, помимо вышеуказанных, является попытка за счёт использования логических конструкций и большего
внимания к деталям сделать решение задач теории вероятности доступным
не только студентам-отличникам, но и всем тем, кто в силу лаконичности
изложения не может разобраться в классической литературе по теории вероятностей.
При написании пособия автор пользовался классическими учебниками теории вероятностей и литературой по истории теории вероятностей.
Информацию об этих источниках можно найти как в библиографическом
списке, так и в сносках в конце страниц.
Как любое учебное пособие, это пособие имеет свои достоинства и свои
недостатки. Но автор надеется, что достоинства окажут большее влияние,
чем недостатки, и среди читателей найдутся те, для кого чтение предлагаемого пособия станет первым, но не последним шагом в мир теории вероятностей. И, в конечном итоге, они смогут читать классическую литературу по теории вероятностей, обратив своё внимание на библиографический
список литературы, который поможет им найти дорогу в этот мир.
7
Элементы комбинаторики
1
На зачёте по комбинаторике.
Сколькими способами могут зайти в аудиторию
пять студентов?
Ответ студента: Существует пять способов: через
дверь, окно, подкоп, люк в потолке и пролом стены.
Из математического фольклора1
Комбинаторикой называется раздел математики, изучающий соединения между элементами конечных множеств с количественной точки зрения.
Название комбинаторика происходит от латинского слова combina, что
в переводе на русский означает − сочетать, соединять.
В математику его ввёл В. Лейбниц2 , опубликовав в 1666 году «Рассуждения о комбинаторном искусстве».
Знание комбинаторики необходимо там, где приходится иметь дело с
конечными множествами. Так, в частности, в задачах теории вероятности
и математической статистики, которые в курсе математики являются следующим объектом изучения, предполагается умение решать задачи комбинаторики.
В дальнейшем нам понадобятся следующие
1.1
Операции над множествами
Определение 1.1. Объединением элементов двух множеств A и
B называется множество всех элементов этих множеств, каждый из
которых является элементом A или элементом B, или принадлежит и
тому, и другому множеству одновременно.
Обозначается объединение множеств следующим образом:
A ∪ B = {x : x ∈ A или x ∈ B или x ∈ A и B}.
Если множество A является кругом, а множество B квадратом, то графически объединение множеств A ∪ B можно изобразить (рис. 1.1) так:
1
Правильный ответ можно найти на странице 12.
См. Гнеденко Б. В. Курс теории вероятностей. М. : Наука, 1988. С. 85.
Лейбниц Готфрид Вильгельм (нем. Gottfried Wilhelm von Leibniz, 1646 - 1716) − немецкий
философ, логик, математик, механик, физик, юрист, историк, дипломат, изобретатель и языковед.
Наряду с И. Ньютоном основоположник математического анализа. Создатель комбинаторики как
науки, заложил основы математической логики. (См. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyre\T2A\cyrishrt\T2A\cyrb\T2A\cyrn\T2A\cyri\
T2A\cyrc,_\T2A\CYRG\T2A\cyro\T2A\cyrt\T2A\cyrf\T2A\cyrr\T2A\cyri\T2A\cyrd_\T2A\CYRV\T2A\
cyri\T2A\cyrl\T2A\cyrsftsn\T2A\cyrg\T2A\cyre\T2A\cyrl\T2A\cyrsftsn\T2A\cyrm (дата обращения: 12.06.2016)).
2
8
A
A∪B
B
Рис. 1.1
Например, если множество A состоит из тех, кто знает английский язык,
а множество B − из тех, кто знает немецкий язык, то объединение A ∪ B
включает как тех, кто знает только английский или только немецкий, так
и тех, кто знает оба эти языка.
Определение 1.2. Объединение элементов множеств A и B, не имеющих общих элементов, называется суммой множеств и обозначается
A + B = {x : x ∈ A или x ∈ B}.
A
A+B
B
Рис. 1.2
На рис. 1.2 в виде круга A и квадрата B показано объединение множеств,
не имеющих общих элементов.
Так, если элементами множества A являются знающие только английский язык, а элементами множества B − знающие только немецкий, то
суммой множеств A + B является множество знающих только один иностранный язык.
Определение 1.3. Пересечением множеств элементов A и B называется множество всех общих элементов этих множеств.
A ∩ B = {x : x ∈ A и x ∈ B}.
Если множество A является кругом, а множество B − квадратом, то
пересечение этих множеств изображено на рис. 1.3 в виде незакрашенного
множества клеток внутри множества, окрашенного в серый цвет.
В приведённом примере со знанием языков пересечением множеств является множество людей, знающих одновременно английский и немецкий
языки.
9
A
A∩B
B
Рис. 1.3
Определение 1.4. Произведением множеств элементов A и B
называется множество всех пар элементов (a; b), в которых a ∈ A, b ∈
B, то есть
AB = {(a; b) : a ∈ A, b ∈ B}.
Если, например, элементами множества A являются знающие только
английский язык, а элементами множества B − знающие только немецкий, то можно образовать произведение множеств AB как множество пар,
в каждой из которых один знает только английский, а другой − только
немецкий.
Определение 1.5. Разностью множеств элементов A и B называется множество тех элементов множества A, которые не являются
элементами множества B, то есть
A \ B = {a : a ∈ A, a ∈
/ B}.
Пусть множество A (рис. 1.4) есть серый круг, а множество B − белый
квадрат, тогда разность множеств A \ B выглядит как три четверти серого
круга.
A
A\B
B
Рис. 1.4
В примере с языками разность множеств представляет множество знающих английский язык, но не знающих немецкий.
Предположим, что Ω − представляет универсальное множество всех
изучаемых элементов, а ∅ − пустое множество, то есть множество не
содержащее ни одного элемента. С помощью этих множеств можно дать
следующее
Определение 1.6. Дополнением множества A (до универсального
множества Ω) называется множество всех элементов универсального
10
множества, которые не принадлежат множеству A, то есть
Ā = {x : x ∈ Ω, x ∈
/ A}.
Например, в ситуации с языками Ā − множество людей, незнающих
английский, а B̄ − множество людей, незнающих немецкий.
Сформулируем несколько следствий из приведённых определений.
Следствие 1.1. A + B = (A ∪ B) \ (A ∩ B).
Следствие 1.2. A + Ā = Ω; A ∩ Ā = ∅.
Следствие 1.3. A \ B = A ∩ B̄.
Замечание 1.1. В дальнейшем нам понадобятся такие неопределяемые
понятия как опыт или эксперимент.
Под опытом или экспериментом будем понимать некоторую воспроизводимую совокупность физических условий, на фоне которых наступает изучаемое явление, фиксируется тот или иной результат.
Опыт или эксперимент представляют некоторое универсальное множество Ω, элементами которого являются исходы опыта ω (или исходы эксперимента ω). При этом исходы будут делиться на благоприятные исходы
и неблагоприятные исходы. Благоприятные исходы будут образовывать
изучаемые события, которые будут обозначаться прописными буквами латинского алфавита: A, B, C, . . . Таким образом, событие A можно определить как подмножество исходов ω некоторого опыта Ω, то есть
A = {ω} ⊆ Ω.
С помощью данных определений и следствий обратимся к изучению
комбинаторики, в основе которой лежат два правила − правило суммы и
правило произведения.
1.2
Правило суммы
Теорема 1.1. Правило суммы. Если элементы множества A можно
выбрать m способами, а элементы другого множества B можно выбрать n способами, то элементы множества «A или B», то есть суммы
множеств A + B, можно выбрать m + n способами.
Данное утверждение настолько очевидно, что не нуждается в доказательстве.
Задача 1.1. На столе лежат две коробки с карандашами. В первой
коробке лежат 5 карандашей, а во второй коробке − 4 карандаша. Сколько
существует способов взять один карандаш со стола?
Решение. Событие A − со стола взят один карандаш может произойти
с помощью одного из двух событий:
11
1) событие A1 − из первой коробки взят один карандаш;
2) событие A2 − из второй коробки взят один карандаш.
Так как невозможно взять один карандаш одновременно из двух коробок, то событие со стола взят один карандаш эквивалентно тому, что из
первой коробки взят один карандаш ИЛИ из второй коробки взят один
карандаш. Формально это можно записать так:
A = A1 + A2 .
Так как событие из первой коробки взят один карандаш можно выполнить n1 = 5 способами, а событие из второй коробки взят один карандаш
− n2 = 4 способами, то согласно правилу суммы 1.1 событие со стола взят
один карандаш можно выполнить
NA = n1 + n2
способами. Поэтому NA = 5 + 4 = 9.
Итак, один карандаш со стола можно взять 9 способами .
1.3
Правило произведения
Теорема 1.2. Правило произведения. Если элементы множества A
можно выбрать m способами и если после такого выбора элементы множества B можно выбрать n способами, то элементы произведения множеств AB можно выбрать m · n способами.
Д о к а з а т е л ь с т в о. Так как произведение множеств по
определению (1.4) есть множество пар, то для каждого первого элемента
пары, выбранного с помощью m способов, можно подобрать второй элемент
n способами, поэтому множество пар будет содержать m · n элементов.
Задача 1.2. На столе лежат две коробки с карандашами. В первой
коробке лежат 5 синих карандашей, а во второй коробке − 4 красных
карандаша. Сколько существует способов взять два разноцветных карандаша со стола?
Решение. Событие B − со стола взяты два разноцветных карандаша
может произойти с помощью одного из двух событий:
1) событие B1 − из первой коробки взят один синий карандаш;
2) событие B2 − из второй коробки взят один красный карандаш.
Событие со стола взяты два разноцветных карандаша эквивалентно тому, что из первой коробки взят один синий карандаш И из второй коробки
взят один красный карандаш. То есть, фактически образуется множество
пар (c; к). Формально это можно записать так:
B = B1 B2 .
12
Так как событие из первой коробки взят один синий карандаш можно
выполнить n1 = 5 способами, а событие из второй коробки взят один
красный карандаш − n2 = 4 способами, то согласно правилу произведения
1.2 событие со стола взяты два разноцветных карандаша можно выполнить
NB = n1 · n2
способами. Поэтому NB = 5 · 4 = 20. Таким образом,
два разноцветных карандаша со стола можно взять 20 способами .
Замечание 1.2. О знании языка при решении задач комбинаторики. Объединяя правила суммы и произведения, можно сформулировать
общее правило, опирающееся на конструкции языка, связанные с использованием союзов «и» и «или».
Если предложение о некотором событии можно переформулировать
с помощью союзов «и» и «или», связывающих соответствующие микрособытия, то общее число исходов изучаемого события равно линейной
комбинации числа исходов полученных микрособытий. При этом в составленной линейной комбинации числа исходов союзам «и» соответствует умножение, а союзам «или» − сложение.
Задача 1.3. В магазине лежат 5 книг автора A, 4 книги автора B и 3
книги автора C. Кроме этого, 6 сборников (BC) состоят из произведений
авторов B и C, и 4 сборника (AC) содержат произведения авторов A и
B. Сколько существует вариантов купить по одному произведению всех
трёх авторов?
Решение. Введём обозначения событий, связанных с условием задачи.
Событие D − купить по одному произведению всех трёх авторов;
Событие A − купить одно произведение автора A;
Событие B − купить одно произведение автора B;
Событие C − купить одно произведение автора C;
Событие AC − купить сборник AC;
Событие BC − купить сборник BC.
Рассмотрим подробное текстовое решение задачи:
Купить по одному произведению всех трёх авторов это эквивалентно тому, что: купить одно произведение автора A и купить одно произведение
автора B и купить одно произведение автора C или купить одно произведение автора A и купить сборник BC или купить одно произведение
автора B и купить сборник AC.
Перепишем это решение в символьном виде:
D=A и B и C или A и BC или B и AC.
13
Далее воспользуемся замечанием 1.2, сопоставив каждому событию число его исходов:
ND = nA · nB · nC + nA · nBC + nB · nAC .
Теперь остаётся подставить численные значения соответствующих исходов:
ND = 5 · 4 · 3 + 5 · 6 + 4 · 4 ⇒ ND = 106.
Выходит, что существует
106 вариантов купить по одному произведению всех трёх авторов .
В дальнейшем нам понадобится одно техническое понятие из мира вычислений целых неотрицательных чисел.
1.4
Понятие факториала
Определение 1.7. Факториалом1 натурального числа n называется произведение всех натуральных чисел от единицы до n включительно.
То есть,
n! = 1 · 2 · 3 · . . . (n − 1) · n.
(Читается: «эн факториал»). По определению полагают, что 0! = 1.
Так, например, 3! = 1 · 2 · 3, то есть 3! = 6, а 5! = 1 · 2 · 3 · 4 · 5 ⇒ 5! = 120.
Можно заметить, что, зная то, что 3! = 6, 5! можно вычислить проще:
5! = 3! · 4 · 5, что позволяет значительно уменьшить объём вычислений.
4!
Задача 1.4. Сократите дробь .
7!
4!
4!
1
Решение. Так как 7! = 4! · 5 · 6 · 7, то
=
=
.
7! 4! · 5 · 6 · 7 210
4!
1
Следовательно,
=
.
7! 210
Правила суммы и произведения являются общими правилами решения
задач комбинаторики. С их помощью можно решать самые различные задачи. Но существует целый ряд задач, которые встречаются настолько часто, что есть смысл свести их решение к формулам2 .
1
Факториал (от фр. factor − множитель, производного от лат. factor − производящий) Символ
факториала в 1808 году ввёл в математику К. Крамп (см. Глейзер Г. И. История математики в школе:
IX-X кл. Пособие для учителей М. : Просвещение, 1983. С. 214).
Крамп Кристиан (Кретьен) (фр. Christian Kramp, 1760-1826) − французский математик. Автор работ по теории чисел, геометрии, математической кристаллографии, алгебре и механике. (см. Википедия
[Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRK\T2A\cyrr\T2A\cyra\T2A\
cyrm\T2A\cyrp,_\T2A\CYRK\T2A\cyrr\T2A\cyri\T2A\cyrs\T2A\cyrt\T2A\cyri\T2A\cyra\T2A\cyrn
(дата обращения: 12.06.2016)).
2
У формул, правда, тоже есть серьёзная проблема: их надо знать и помнить. Поэтому наряду с ними
там, где есть смысл, будет рассматриваться и второй вариант решения, опирающийся на замечание
1.2.
14
1.5
Перестановки
Определение 1.8. Перестановками1 во множестве из n элементов называются комбинации между всеми элементами множества,
отличающиеся друг от друга порядком входящих в них элементов.
Перестановки обозначаются символом Pn . Также обозначается и число
перестановок, для которого справедлива
Теорема 1.3. ∀ n Pn = n!
Д о к а з а т е л ь с т в о. Представим коробку, содержащую
n горизонтальных ячеек. Заполнив её разноцветными шариками, можно
получить пример перестановки во множестве из n разноцветных шариков.
Рассмотрим процесс построения перестановки (или заполнения коробки).
Заполнить коробку − это совершить такое событие A, которое состоит
из следующих событий:
A1 : положить в коробку первый шарик. Число способов nA1 = n; и
A2 : положить в коробку второй шарик. Число способов nA2 = n − 1; и
A3 : положить в коробку третий шарик. Число способов nA3 = n − 2; и
........................................................................и
An−1 : положить в коробку предпоследний шарик. Число способов nAn−1 = 2;
и
An : положить в коробку последний шарик. Число способов nAn = 1.
Таким образом, A = A1 и A2 и A3 и . . . An−1 и An .
Согласно принципу произведения 1.2
Pn = NA = n · (n − 1) · (n − 2) · . . . 2 · 1 ⇒ Pn = n!
Замечание 1.3. С помощью этой теоремы можно интерпретировать,
почему 0! = 1: Множество, состоящее из нулевого числа элементов, есть
пустое множество ∅. А оно является упорядоченным единственным образом.
Перестановки являются частным случаем следующего типа комбинаций.
1.6
Размещения без повторения
Определение 1.9. Размещениями без повторения2 называются
комбинации выбора k различных элементов во множестве из n элемен1
Перестановки (от лат. permutatio) ввёл в 1656 году в «Теории и практике арифметики»
(Arithmeticae theoria et praxis) А. Таке.
Таке Андре (Tacquet, Andrе, 1612-1660) − фламандский математик. 10 его произведений выдержали с 1654 по 2014 год 330 переизданий, его имя присвоено одному из лунных кратеров (см.
История математики с древнейших времен до начала XIX столетия : В 3 т. Т. 2 / Под ред. А.
П. Юшкевича. М. : Наука, 1970. С. 83, а также Википедия [Электронный ресурс] : URL : http:
//www.worldcat.org/identities/lccn-n86-864683/ (дата обращения: 12.06.2016)).
2
Размещения без повторения впервые рассмотрел в арифметике на иврите в 1321 году Леви бен
Гершом, а затем в 1705 году Яков Бернулли в его работе «Искусство предположений» (лат. Ars
15
тов, отличающиеся друг от друга по составу и порядку входящих в них
элементов. Размещения без повторения обозначаются символом Akn . Также
обозначается и их число, для которого справедлива
n!
Теорема 1.4. Akn =
(n − k)!
Д о к а з а т е л ь с т в о. Доказательство этой теоремы полностью
повторяет процесс доказательства теоремы 1.3, отличие состоит только в
том, что в коробочку надо положить не n шаров, а k шаров. Поэтому
Akn = NA = n · (n − 1) · (n − 2) · . . . (n − (k − 1)).
А так как
n! = n · (n − 1) · (n − 2) · . . . (n − k + 1)(n − k) · (n − k − 1) · . . . 2 · 1, то
n!
n!
. Поэтому Akn =
.
n · (n − 1) · (n − 2) · . . . (n − k + 1) =
(n − k)!
(n − k)!
n!
n!
Следствие 1.4. Pn = Ann =
=
= n!
(n − n)!
0!
В предыдущих случаях перестановки касались различных элементов.
Но так бывает не всегда.
1.7
Перестановки с повторениями двух типов
Теорема 1.5. Если во множестве из n элементов существуют две группы одинаковых элементов, содержащие соответственно n1 и n2 элементов, то число перестановок в этом множестве
P (n1 , n2 ) =
n!
n1 !n2 !
(n = n1 + n2 ).
Д о к а з а т е л ь с т в о. Число элементов в каждой перестановке
равно n = n1 + n2 . Если бы все элементы во множестве были бы различными, то число перестановок Pn = n! Но из-за того, что некоторые элементы
совпадают, получится меньшее число перестановок. Так, в первой из групп
существует n1 ! перестановок, но так как они все одинаковые, то они ничего
conjectandi), опубликованной после его смерти в 1713 году (см. Гнеденко Б.В. Курс теории... С. 85.).
Леви бен Гершом (лат. Gersonides, 1288-1344) − средневековый еврейский учёныйуниверсал: философ, математик, астроном. (см. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyre\T2A\cyrv\T2A\cyri_\T2A\cyrb\T2A\
cyre\T2A\cyrn_\T2A\CYRG\T2A\cyre\T2A\cyrr\T2A\cyrsh\T2A\cyro\T2A\cyrm
(дата
обращения:
12.06.2016)).
Бернулли Якоб (нем. Jakob Bernoulli, 1655-1705) − швейцарский математик. Один из основателей теории вероятностей, математического анализа и вариационного исчисления. Иностранный
член Парижской и Берлинской академий наук (см. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRI\T2A\cyrs\T2A\cyrt\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\
cyrya_\T2A\cyrt\T2A\cyre\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\cyri_\T2A\cyrv\T2A\cyre\T2A\cyrr\
T2A\cyro\T2A\cyrya\T2A\cyrt\T2A\cyrn\T2A\cyro\T2A\cyrs\T2A\cyrt\T2A\cyre\T2A\cyrishrt
(дата обращения: 12.06.2016)).
16
не меняют. Точно также ничего не меняют и n2 ! перестановок во второй
группе.
Так как перестановки в первой и второй группе не зависят друг от друга,
то по правилу произведения 1.2 элементы этих групп можно переставить
n1 !n2 ! способами, при этом перестановка останется неизменной. Следовательно, число различных перестановок с повторениями, которые можно
выполнить с элементами данного множества при условии, что n = n1 + n2 ,
n!
P (n1 , n2 ) =
n1 !n2 !
Помимо множеств, состоящих из различных элементов, интерес представляют и множества, состоящие из одинаковых элементов, в которых
порядок расположения элементов в комбинациях роли не играет.
1.8
Сочетания без повторения
Определение 1.10. Сочетаниями1 без повторения называются комбинации выбора k одинаковых элементов во множестве из n элементов,
отличающиеся друг от друга только по составу входящих в них элементов.
Сочетания без повторения обозначаются символом Cnk . Также обозначается и число сочетаний, для которого справедлива
n!
Теорема 1.6. Cnk =
n!(n − k)!
1
Впервые сочетания определил Тарталья. Масссовое применение сочетания получили после того
m
как
в1654 году Б. Паскаль, а затем в 1806 году Л. Эйлер ввели обозначения Cn (от фр. combinasion)
n
и
соответственно (см. Гнеденко Б. В. Курс теории... С. 83).
k
Тарталья Никколо Фонтана (итал. Tartaglia Niccolо Fontana , 1499-1557) − итальянский математик
(см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRT\T2A\cyra\
T2A\cyrr\T2A\cyrt\T2A\cyra\T2A\cyrl\T2A\cyrsftsn\T2A\cyrya,_\T2A\CYRN\T2A\cyri\T2A\cyrk\
T2A\cyrk\T2A\cyro\T2A\cyrl\T2A\cyro (дата обращения: 12.06.2016)).
Паскаль Блез (фр. Pascal Blaise, 1623-1662) − французский математик, механик, физик,
литератор и философ. Классик французской литературы, один из основателей математического анализа, теории вероятностей и проективной геометрии, создатель первых образцов счётной
техники, автор основного закона гидростатики. (см. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRP\T2A\cyra\T2A\cyrs\T2A\cyrk\T2A\cyra\T2A\cyrl\T2A\
cyrsftsn,_\T2A\CYRB\T2A\cyrl\T2A\cyre\T2A\cyrz (дата обращения: 12.06.2016)).
Эйлер Леонард (нем. Euler Leonhard, 1707-1783) − швейцарский, немецкий и российский математик и механик, внёсший фундаментальный вклад в развитие этих наук (а также физики, астрономии
и ряда прикладных наук). Автор более чем 850 работ по математическому анализу, дифференциальной геометрии, теории чисел, приближённым вычислениям, небесной механике, математической
физике, оптике, баллистике, кораблестроению, теории музыки и другим областям. Он глубоко изучал
медицину, химию, ботанику, воздухоплавание, теорию музыки, множество европейских и древних
языков. Академик Петербургской, Берлинской, Туринской, Лиссабонской и Базельской академий
наук, иностранный член Парижской академии наук (см. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYREREV\T2A\cyrishrt\T2A\cyrl\T2A\cyre\T2A\cyrr,_\T2A\
CYRL\T2A\cyre\T2A\cyro\T2A\cyrn\T2A\cyra\T2A\cyrr\T2A\cyrd (дата обращения: 12.06.2016)).
17
Д о к а з а т е л ь с т в о. Выбирая k одинаковых элементов во
множестве из n элементов, можно заметить, что одновременно происходит
процесс «невыбора» других n − k элементов, которые также можно считать одинаковыми. Поэтому множество из n элементов разбивается на две
группы одинаковых элементов, состоящие из n1 = n и n2 = n−k элементов.
Следовательно, число сочетаний выбора k элементов из n без повторения совпадает с числом перестановок во множестве из двух типов элементов. А значит их число
n!
n!
=
Cnk = P (n1 , n2 ) =
n1 !n2 ! n!(n − k)!
Что и требовалось доказать.
Замечание 1.4. Заметим, что данную формулу можно доказать и
другим способом. Для этого выберем сначала все группы, содержащие k
элементов, не учитывая порядок входящих в них элементов. Таких групп
наберётся Cnk . Затем в каждой такой группе рассмотрим всевозможные перестановки. Общее число перестановок в каждой группе составляет Pk = k!
Тогда общее число комбинаций выбора и упорядочения равно произведению Cnk Pk . Которое по определению совпадает с числом размещения k элементов без повторения во множестве из n элементов. Поэтому Akn = Cnk Pk ,
Akn
n!
k
а значит Cn =
. То есть, Cnk =
.
Pk
n!(n − k)!
Приведём без доказательства некоторые свойства сочетаний.
Свойство 1.1. Cnk = Cnn−k .
Свойство 1.2. Cn0 = Cnn = 1.
Свойство 1.3. Cn1 = Cnn−1 .
В ряде задач важную роль играют
1.9
Размещения с повторением
Определение 1.11. Размещениями с повторением называются комбинации выбора k элементов во множестве элементов из n видов, отличающиеся друг от друга по составу и порядку входящих в них элементов.
Размещения с повторением обозначаются символом Ākn . Для них справедлива следующая теорема.
Теорема 1.7. Ākn = nk .
Д о к а з а т е л ь с т в о. Доказательство теоремы полностью повторяет доказательство теоремы 1.3 о перестановках. Отличие заключается
только в том, что каждый выбор совершается из n элементов множества,
18
поскольку допускает повторения. Поэтому выбирая первый элемент, И второй элемент, И третий элемент, И . . . , И k-й элемент, согласно принципу
произведения мы умножаем n
· · · · n}, что согласно известному из сред| · n{z
k
ней школы правилу сокращённого умножения приводит к возведению n в
степень с показателем k.
Задача 1.5. Номер телефона состоит из 11 цифр. Человек забыл три
последние цифры. Сколько неудачных попыток он может совершить, набирая нужный номер?
Решение. Каждая цифра номера определяет отдельный вид. Общее их
число n = 10. Длина комбинации, то есть нужного «слова» k = 3. Поэтому
Ā310 = 103 . То есть всего он может выполнить 1000 попыток. Но так как
одна удачная, то неудачных будет 999.
Возможен и второй вариант решения без формулы, но использующий
её доказательство и замечание 1.2.
Событие A : забыть последние три цифры. Это означает:
событие A1 : забыть первую цифру; И
событие A2 : забыть вторую цифру; И
событие A3 : забыть третью цифру.
Следовательно, A =A1 И A2 И A3 .
Так как каждая из трёх забытых позиций номера допускает 10 вариантов,
то используя замечание 1.2, сопоставим каждому событию число n = 10.
NA = 10 · 10 · 10 ⇒ NA = 103 ⇒ NA = 1000.
Далее следует учесть, что среди этих попыток есть одна удачная. При самом несчастливом варианте она будет последней. Поэтому
человек может совершить 999 неудачных попыток.
Замечание 1.5. В заключение темы следует заметить, что искусство
комбинаторики пригодилось не только в математике. С помощью математики оно сформировалось и нашло применение в музыкальной науке и
практике XVII-XVIII веков. Теоретические построения «Ars combinatoria»
поначалу были лишь опосредовано связаны с музыкальной практикой. Это
объяснялось не только общим характером музыкальной науки, которая была словесно-числовым осмыслением музыкального бытия, но и происхождением музыкального учения об «Ars combinatoria»: его логическая основа
была взята из математики. Две основные категории этого учения − пермутации и комбинации − также были введены в обиход математиками XVII
века, а словосочетание «Ars combinatoria» послужило в 1666 году заглавием диссертации Лейбница.
Как в математике, так и в музыкальной теории пермутация обозначала
19
перестановку элементов: abcd, abdc, adbc,... а комбинация − замену одних
элементов другими, аналогичными по функции: abcd, aPcd, aPcd.
Авторы трактатов рассматривали возможности пермутаций и комбинаций применительно к самому разному музыкальному материалу. В качестве переставляемых и взаимозаменяемых элементов комбинаторной конструкции мыслились: отдельные тоны в составе формул аккомпанемента;
сами эти формулы в их последовательности или же фигурации в составе
пассажей; мотивы в составе голосов контрапунктической ткани; отклонения в родственные тональности в пределах периода и многое другое1 .
1
Лебедева А. В. Ars combinatoria и музыкальная практика XVIII века : автореферат дис. ... кандидата искусствоведения/ Рос. акад. музыки им. Гнесиных. М., 2002. С. 4.
20
2
Введение в теорию вероятностей
Всегда имеется несколько способов
объяснения явлений, и из них мы
предпочтём наименее невероятное.
Бертран Рассел
2.1
Понятие события. Классификация событий
В предыдущей главе было определено понятие опыта (эксперимента) как
воспроизводимой совокупности физических условий, на фоне которых наступает некоторое изучаемое явление или фиксируется тот или иной результат.
Каждый опыт состоит из исходов опыта, на фоне которых происходит
изучаемое явление, которое в дальнейшем будет называться событие.
Событие, связанное с одним исходом, называется элементарным событием, а событие, связанное со множеством исходов, − составным
событием.
При этом все события можно разбить на три группы: достоверные,
невозможные и случайные.
Определение 2.1. Событие, которое при одних и тех же физических
условиях наступает всегда, называется достоверным событием.
Например, согласно календарю можно утверждать, что наступление после зимы весны является достоверным событием1 .
Определение 2.2. Событие, которое при одних и тех же физических
условиях не происходит никогда, называется невозможным событием.
Любой представитель общества защиты животных скажет, что событие
«на Северном полюсе гуляет верблюд» является невозможным событием.
Определение 2.3. Событие, которое при одних и тех же физических
условиях может произойти или не произойти, называется случайным
событием.
Так, например, при вашем участии в розыгрыше любой корректно устроенной лотереи кто-нибудь выигрывает. Но событие, при котором эту
лотерею выиграете вы, к сожалению для вас, является случайным событием.
В дальнейшем нас будут интересовать только случайные события, так
как теория вероятностей является разделом математики, который изу1
При этом, несмотря на то, что днём наступления весны является 1 марта, фактическое наступление
весны именно первого марта не является достоверным событием.
21
чает закономерности, возникающие при изучении массовых случайных
событий.
Как и в предыдущей главе, множество всех исходов опыта будем называть пространством элементарных исходов опыта Ω. Соответственно
исходы опыта ω являются его элементами: ω ∈ Ω. При этом исходы, составляющие изучаемое событие, являются его благоприятными исходами.
Если Ω состоит из конечного или сравнимого с натуральным рядом множества исходов, то оно называется дискретным пространством исходов опыта, иначе оно называется непрерывным пространством
исходов опыта.
Пространства исходов, связанные с подбрасыванием монеты или игральной кости, являются дискретными пространствами. А пространство множества осадков, выпадавших с первого по тридцать первое июля 1950 года,
является примером непрерывного пространства.
Заметим, что понятие Ω не является однозначным понятием. Так в случае подбрасывания монеты при исследовании выпадания чётного и нечётного числа очков возможны два определения:
Ω1 = {«1», «2», «3», «4», «5», «6»}
(2.1)
Ω2 = {«нечётное число очков», «чётное число очков»}.
(2.2)
и
Определение 2.4. Два события называются несовместными, если
их одновременное наступление является невозможным событием.
Так при подбрасывании монеты одновременное выпадение герба и решётки1 является невозможным событием2 .
Определение 2.5. Два события называются равновозможными,
если связанные с ними исходы являются симметричными относительно
их геометрических и физических свойств.
Например, выпадение «герба» и «решётки» при подбрасывании монеты
или одной из цифр при подбрасывании игральной кости являются событиями равновозможными, так как предполагается, что и монета и кость
сделаны из однородных материалов, имеют постоянную плотность этих материалов и являются геометрически правильными телами.
Определение 2.6. Несовместные и равновозможные события образу1
В XIV-XVI веках на одной из сторон монеты изображалась решётка, которая привела к современному жаргонному слову решка (см. Фëдорова T. JI., Щеглова О. А. Этимологический словарь русского
языка. М. : Ладком, 2012. С. 371).
2
Различают попарно несовместные или несовместные в совокупности события. Несовместные в
совокупности события одновременно являются и попарно несовместными. Обратное отношение может
не выполняться. Так попарная несовместность первого и третьего событий, а также первого и третьего
не влечёт за собой несовместность второго и третьего событий.
22
ют полную группу событий опыта, если в данном опыте невозможно
наступление другого события, отличного от данных.
При подбрасывании игральной кости события выпадения числа очков:
«1», «2», «3», «4», «5», «6» образуют полную группу исходов опыта, так как
эти события не только равновозможны и несовместны, но и невозможным
событием является наступление иного, кроме этих, события при подбрасывании кости.
Определение 2.7. Два события, образующие полную группу событий
опыта, называются противоположными событиями.
При подбрасывании одной монеты события: выпадение «герба» и выпадение «решётки» являются противоположными событиями.
Если обозначить через A некоторое событие, то событие, ему противоположное, обозначается через Ā. Сумма противоположных событий совпадает с Ω, а их пересечение пусто, то есть
A ∩ Ā = ∅.
A + Ā = Ω,
2.2
Классическое определение вероятности
Вопрос: Какова вероятность, выйдя из
дома, встретить слона?
Ответ: 0,5. Так как вы его встретите
или не встретите.
Из математического фольклора
При рассмотрении случайных событий возникает вопрос о степени возможности этих событий, а также о сравнении этих степеней возможности
для разных событий. Логично связать степень возможности с числом, которое становится больше, если увеличивается возможность наступления
события. Это число и называется вероятностью события1 .
Но чтобы что-то сравнивать, нужно найти единицу сравнения. Такой
единицей может быть вероятность достоверного события, которую можно
считать равной единице. Так как невозможное событие является противоположным достоверному, то его вероятность логично принять равной нулю.
Таким образом, диапазон распределения вероятностей случайных событий
совпадает с промежутком от нуля до единицы2 .
1
Не надо только путать это понятие вероятности события с бытовым понятием, очень часто используемым в повседневном общении и даже неоднократно воспетым: по теории вероятностей после
радостей − неприятности.
2
Первой книгой, в которой рассказывалось об этом была «Книга об азартных играх» (Liber de ludo
aleae), написанная в 1564 году Д. Кардано.
Кардано Джироламо (лат. Cardanus Hieronymus , итал. Cardano Girolamo, 1501-1576) − итальянский математик, инженер, философ, медик и астролог. В его честь названы открытые Сципионом
23
Для любого события A его вероятность P (A) удовлетворяет двойному
неравенству1
0 ≤ P (A) ≤ 1.
Предположим, что пространство некоторого опыта Ω состоит из n исходов, образующих его полную группу. И в этом опыте на фоне m исходов
наступает случайное событие A. Тогда имеет место следующее
Определение 2.8. Классическое определение вероятности2
Вероятностью события A называется отношение числа благоприятных данному событию m исходов опыта к числу n всех его исходов.
То есть,
m
P (A) =
.
n
Задача 2.1. Найдите вероятность выпадения нечётного числа очков
при одном подбрасывании игральной кости.
Решение
Вариант 1. Рассмотрим пространство исходов Ω1 (см. 2.1). Так как его
исходы несовместны и равновозможны, то они образуют полную группу из
n = 6 исходов. При этом интересующее нас событие A − «выпало нечётное
число очков» − может наступить три раза. То есть, благоприятное число
исходов m = 3. Поэтому, согласно классическому определению,
3
1
⇒ P (A) = или P (A) = 0, 5.
6
2
Вариант 2. Рассмотрим пространство исходов Ω2 (см. 8.5). В данном случае исходы опыта также несовместны и равновозможны. Поэтому они также образуют полную группу из n = 2 исходов. А интересующее нас событие
A − «выпало нечётное число очков» − может наступить один раз. А значит, благоприятное число исходов m = 1. Таким образом, из классического
определения следует, что
P (A) =
P (A) =
1
или P (A) = 0, 5.
2
При подбрасывании игральной кости один раз вероятность
выпадания нечётного числа очков равна 0,5.
дель Ферро формулы решения кубического уравнения (Кардано был их первым публикатором),
карданов подвес и карданный вал (см. [17, с. 40-41], а также Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRK\T2A\cyra\T2A\cyrr\T2A\cyrd\T2A\cyra\T2A\cyrn\T2A\
cyro,_\T2A\CYRD\T2A\cyrzh\T2A\cyre\T2A\cyrr\T2A\cyro\T2A\cyrl\T2A\cyra\T2A\cyrm\T2A\cyro
(дата обращения: 12.06.2016)).
1
Из знания этого факта следует, что, имея право на любую ошибку в вычислениях, связанную как
с расчётами, так и с отсутствием знаний, никто не имеет право выдавать за вероятность события число,
не попавшее в данный промежуток. Так как в этом случае он признаётся в том, что ничего не знает
о теории вероятностей.
2
Это определение впервые было дано Я. Бернулли в четвёртой части его работы «Искусство предположений» (см. Бернулли Я. О законе больших чисел. М. : Наука, 1986. С. 24).
24
Задача 2.2. В коробке лежат 10 лампочек из них 3 бракованные.
Найдите вероятность выбрать случайным образом одну стандартную
лампочку.
Решение. Обозначим событие − выбрать одну стандартную лампочку
− через A. Далее определим число n всех исходов и число m благоприятных исходов.
Взять одну произвольную лампочку можно десятью способами1 , поэтому общее число исходов n = 10. Так как стандартных лампочек семь, то
выбрать из них одну можно семью способами. Следовательно, число благоприятных исходов m = 7.
7
Следовательно, согласно определению 2.8, P (A) = . То есть,
10
вероятность выбрать случайным образом одну
стандартную лампочку равна 0,7.
Задача 2.3. В коробке лежат 10 лампочек, из них 3 бракованные.
Найдите вероятность выбрать случайным образом две стандартные лампочки.
Решение. Обозначим событие − выбрать две стандартные лампочки
− через B. Далее определим число n всех исходов и число m благоприятных исходов.
Так как при выборе двух произвольных лампочек, порядок выбора не
играет роли, то при общем числе элементов n = 10 выбор k = 2 элементов
2
определяется числом сочетаний C10 . В силу того, что стандартных лампочек семь, а выбираются две из них также без учёта порядка, то число
2
благоприятных исходов m = C7 .
2
C7
Поэтому согласно определению 2.8 P (B) = 2 . Применяя формулу
C10
n!
, получим
сочетаний Cnk =
k!(n − k)!
2
C7
7! · 2! · 8!
6·7
7
7
=
=
⇒ P (B) = .
2 =
2! · 5! · 10! 9 · 10 15
15
C10
(Здесь 10! = 8! · 9 · 10; 7! = 5! · 6 · 7.)
Таким образом,
1
«Красиво» с помощью формулы это означает, что из 10 одинаковых элементов нужно выбрать
один, не обращая внимания на порядок (ведь при выборе одного элемента порядок устанавливается
единственным образом). Поэтому при общем числе элементов n = 10 выбор k = 1 элементов опреде1
ляется числом сочетаний C10
= 10.
25
вероятность выбрать случайным образом две
7
стандартные лампочки равна .
15
Задача 2.4. В коробке лежат 10 лампочек, из них 3 бракованные.
Найдите вероятность выбрать случайным образом четыре лампочки, из
которых три стандартные.
Решение. Обозначим событие − выбрать случайным образом четыре
лампочки, из которых три стандартные − через C. Далее определим
число N всех исходов выбора четырёх произвольных лампочек из десяти.
Так как лампочки при таком выборе не отличаются друг от друга, то
их выбор определяется с помощью сочетаний N = C104 .
Определим число M благоприятных исходов. Выбрать четыре лампочки, из которых три стандартные, это значит: выбрать три стандартные
лампочки из семи стандартных и выбрать одну нестандартную из трёх
нестандартных. Поэтому событие C является произведением событий C1
− выбрать три стандартные лампочки из семи стандартных и C2 −
выбрать одну нестандартную из трёх нестандартных: C = C1 и C2 .
Следовательно, согласно правилу произведения (см. 1.2) из комбинаторики,
M = MC1 · MC2 .
3
1
При этом MC1 = C7 , а MC2 = C3 .
Так как, согласно классическому определению вероятности, P (C) =
то
3
M
,
N
1
MC1 · MC2
C ·C
⇒ P (C) = 7 4 3 .
P (C) =
N
C10
Теперь остаётся только выполнить арифметические преобразования согласно 2.3:
3
1
C7 · C3
7! · 3! · 4! · 6!
2! · 3 · 4 · 5 · 6 1
=
=
=
C104
3! · 4! · 1! · 2! · 10!
2! · 8 · 9 · 10
2
(здесь использовано то, что: 6! = 2! · 3 · 4 · 5 · 6 и 10! = 7! · 8 · 9 · 10.)
1
Таким образом, P (C) = . А это означает, что
2
вероятность выбрать случайным образом четыре лампоч.
ки, из которых три стандартные, равна 0,5
Задачи 2.2−2.4 являются частными случаями общей задачи о выборе
Задача 2.5. В коробке лежат L элементов, из которых K «хорошие».
Какова вероятность вытащить l элементов, из которых k элементов
являются «хорошими»?
26
Решение. Общее число n вариантов выбора l произвольных элементов
из L определяется с помощью формулы сочетаний 2.3: n = CLl .
Событие D − вытащить l элементов, из которых k элементов являются «хорошими» означает: вытащить k «хороших» элементов из K
«хороших» и вытащить l − k «нехороших» элементов из L − K «нехороших» элементов. Поэтому событие C является произведением этих
событий, которые можно назвать событиями C1 и C2 сооответственно. А
общее число исходов D будет определяться с помощью правила произведения (см. 1.2):
l−k
mD = mD1 · mD2 ⇒ mD = CKk · CL−K
.
Если обозначить интересующее нас событие как E, то из классического
m
определения вероятности 2.8 следует, что его вероятность P (E) = C .
n
Следовательно,
l−k
CKk · CL−K
P (E) =
.
(2.3)
CLl
Замечание 2.1. Следует обратить внимание на то, что в формуле
(2.3) заложена возможность проверки правильности расчётов. Так и в числителе, и в знаменателе выбор происходит из одного числа элементов L,
которые в числителе образуют сумму K + (L − K) = L. Точно также, и
в числителе, и в знаменателе выбирается одно и тоже число элементов l,
которые в числителе образуют сумму k + (l − k) = l.
Чтобы эта проверка имела место и в задаче 2.3, нужно обратить внимание на то, что когда выбираются элементы только одного типа (а в задаче происходит выбор только стандартных лампочек), то автоматически
выбирается нуль элементов другого типа (то есть в данной задаче нестандартных лампочек).
Для этого формулу расчёта вероятности P (B) нужно переписать так:
2
2
0
C7
C7 · C3
.
2 =
C10
C102
Теперь и в числителе и знаменателе описаны одни и те же процессы:
7 + 3 = 10; 2 + 0 = 2.
Задача 2.6. Найдите ошибку, допущенную при «решении» следующей
задачи: Брошены две игральные кости. Найдите вероятность того, что
сумма выпавших очков равна 4.
«Решение». Пусть событие A − сумма выпавших очков равна 4. Пространство элементарных исходов Ω состоит из двух исходов (n = 2): «сумма
27
выпавших очков равна 4» и «сумма выпавших очков не равна 4». Число
1
благоприятных событию A исходов m = 1. Поэтому P (A) = .
2
В данном «решении» предполагается, что исходы опыта равновозможны
(иначе невозможно воспользоваться классическим определением). На самом деле исходы «сумма выпавших очков равна 4» и «сумма выпавших
очков не равна 4» не являются равновозможными.
Рассмотрим, как же решается эта задача. Пространство элементарных
исходов Ω содержит 36 равновозможных исходов, так как подбросить две
кости, это значит: «подбросить первую кость» и «подбросить вторую кость».
На каждой из костей шесть граней, поэтому возможно выпадение любого
из шести чисел. Следовательно можно составить 36 пар чисел, в которых
первым элементом является число выпавших очков на первой кости, а вторым − число очков, выпавших на второй кости. Таким образом, n = 36.
Существует только три исхода, благоприятных событию A: (1; 3), (3; 1),
(2; 2). (В каждой из пар сумма чисел равна 4). То есть, m = 3. Поэтому
3
P (A) = . В результате,
36
1
вероятность того, что сумма выпавших очков равна 4, равна
.
12
Замечание 2.2. Классическое определение вероятности предполагает
несколько ограничений, накладываемых на изучаемые события.
Во-первых, конечное число исходов опыта является очень сильным ограничением, не позволяя определить вероятности событий, связанных с
бесконечным числом исходов опыта.
Во-вторых, условие равновозможности исходов, связанное с симметрией
физических и геометрических условий опыта, оказывается трудновыполнимым при рассмотрении реальных объектов1 .
В-третьих, невозможно представить результаты опыта в виде совокупности элементарных исходов.
При практическом изучении случайных событий учёт этих ограничений
не позволяет решать все задачи, как это хотелось бы в идеале. Эти недостатки привели к появлению новых определений вероятности.
1
Однако польским математикам удалось «обмануть» нестандартность монет. Для этого они предложили в ситуации, в которой выпадает серия герб-решётка, запоминать герб, а в серии решётка-герб
запоминать решётка. В сериях герб-герб и решётка-решётка ничего не запоминать. При таком выборе при любом подбрасывании любых монет вы имеете дело с идеальной монетой (см. Штейнгауз Г.
Задачи и размышления. М. : Мир, 1974. С. 42).
28
2.3
Статистистическое определение вероятности
Допустим, что в некотором опыте, состоящем из n однотипных исходов,
изучается случайное событие A.
Определение 2.9. Отношение числа появлений m события A к общему числу исходов n называется относительной частотой события
A.
Если обозначить относительную частоту события A через Wn (A), то из
определения вытекает, что
Wn (A) =
m
n
.
(2.4)
Так как 0 ≤ m ≤ n, то 0 ≤ Wn (A) ≤ 1.
Из формулы (2.4) вытекает
Следствие 2.1. Число появлений события A равно его относительной
частоте, умноженной на число испытаний, то есть
m = Wn (A) · n.
(2.5)
Задача 2.7. По данным шведской статистики1 , относительная частота рождаемости с 1751 по 1760 год по годам характеризуется следующими числами
1751
1752
1753
1754
1755
1756
1757
1758
1759
1760
0,0384 0,0358 0,0359 0,037 0,0373 0,036 0,0326 0,0334 0,0335 0,0355
Определите коэффициент рождаемости в данном десятилетии.
Решение. Так как относительная частота равна сумме этих чисел, делённых на 10, то число Wn (A) = 0, 0355 можно принять за приблизительное значение коэффициента рождаемости.
В опыте с массовым числом исходов одного и того же типа при числе
исходов n → ∞ относительная частота события Wn (A) → p, где p − некоторое постоянное число. При этом чем больше n, тем меньше относительная
частота отклоняется от этого числа.
Определение 2.10. Статистическое определение вероятности
Почти достоверный предел p = lim Wn (A) называется статистиn→∞
ческой вероятностью2 события A.
1
(См. Википедия [Электронный ресурс] : URL : http://svspb.net/sverige/demografija-shvecii.
php (дата обращения: 12.06.2016)).
2
Определение статистической вероятности было дано Р. Мизесом в 1919 году (см. Хинчин А. Я.
Учение Мизеса о вероятностях и принципы физической статистики. // Успехи физических наук. −
1929. − Т. IX. Вып. 2 С. 143).
фон Мизес Рихард Эдлер (нем. Richard Edler von Mises, 1883-1953) − математик и механик; работы посвящены аэродинамике, прикладной механике, механике жидкостей, аэронавтике,
29
То есть при очень больших n относительная частота события A приближённо совпадает с его статистической вероятностью.
В силу этого совпадения имеет смысл следующее
Определение 2.11. Средним числом появления события A в n
испытаниях называется число
µ = np.
Замечание 2.3. Следует заметить, что при увеличении числа исходов
опыта n статистическая вероятность приближается к вероятности в смысле
классического определения не с полной достоверностью, а с большей вероятностью. И эта вероятность тем больше, чем большее число исходов опыта.
Подробнее об этом рассказывается далее, в последней главе.
Введя понятие статистической вероятности события, можно получить
возможность приписать определённые вероятности, заключённые между
нулём и единицей, не только событиям, для которых можно определить
классическую вероятность, но и тем событиям, для которых эти условия
не применимы. Достаточно, чтобы проводимый опыт обладал свойством
устойчивости относительных частот, то есть мог бы быть неограниченно
воспроизводимым в практически одинаковых физических условиях.
Задача 2.8. В результате работы отдела технического контроля
было обнаружено, что при изучении партии из 200 деталей 188 деталей оказались стандартными. Какова вероятность того, что взятая деталь оказывается стандартной? Какое число деталей может оказаться
стандартным, если исследовать партию из 600 деталей?
Решение. Согласно статистическому определению вероятности
p=
188
⇒ p = 0, 94.
200
На практике, при определении статистической вероятности, часто используют процентное соотношение и говорят, что вероятность равна 94%.
Отсюда следует, что среднее число стандартных деталей в партии из 600
деталей примерно равно
µ = 600 · 0, 94 ⇒ µ = 564.
p = 94%; µ = 564 .
статистике и теории вероятностей. Ввёл в общее употребление интегралы Стилтьеса и первым
разъяснил роль теории марковских цепей в физике (см. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRM\T2A\cyri\T2A\cyrz\T2A\cyre\T2A\cyrs,_\T2A\CYRR\
T2A\cyri\T2A\cyrh\T2A\cyra\T2A\cyrr\T2A\cyrd_\T2A\CYREREV\T2A\cyrd\T2A\cyrl\T2A\cyre\T2A\
cyrr_\T2A\cyrf\T2A\cyro\T2A\cyrn(дата обращения: 12.06.2016)).
30
Замечание 2.4. Принципиальным отличием классического и статистического определения вероятности является тот факт, что классическая
вероятность является теоретической вероятностью, определяя вероятность события ещё до того, как это событие произошло.
Статистическая вероятность является практической (эмпирической)
вероятностью, так как определяется уже после опыта, в котором произошло изучаемое событие, исходя из накопленного известного статистического материала.
Замечание 2.5. Для определения статистической вероятности события
A требуется:
во-первых, возможность, хотя бы принципиально, производить неограниченное число испытаний, в каждом из которых событие A наступает или
не наступает;
во-вторых, устойчивость относительных частот появления A в различных сериях достаточно большого числа испытаний.
Недостатком статистического определения является неоднозначность статистической вероятности. Так, например, в задаче 2.7 в качестве вероятности события можно принять не только 0, 481, но и 0,49; 0,48 и так далее.
2.4
Геометрическое определение вероятности
Так как классическое определение вероятности невозможно применить
к опыту с бесконечным числом исходов, то в этом случае используют следующий подход к изучаемому событию.
Предположим, что пространство элементарных исходов опыта Ω является множеством точек, которое можно изобразить в виде ограниченного
множества точек D, расположенного на прямой, на плоскости или в пространстве. Так как изучаемое событие A как множество благоприятных
ему исходов опыта является подмножеством Ω, то его можно изобразить в
виде множества G, являющегося подмножеством множества D.
Если определить меру S соответствующего ограниченного множества
точек прямой, плоскости, пространства как его длину, площадь, объём, то
имеет место
Определение 2.12. Геометрическое определение вероятности
Геометрической вероятностью1 события A называется отноше1
Определение геометрической вероятности в 1740 году ввёл Т. Симпсон в своей работе «Природа и законы случая» (A treatise on the nature and laws of change) (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRS\T2A\cyri\T2A\cyrm\T2A\cyrp\
T2A\cyrs\T2A\cyro\T2A\cyrn,_\T2A\CYRT\T2A\cyro\T2A\cyrm\T2A\cyra\T2A\cyrs (дата обращения:
12.06.2016)).
Симпсон Томас (англ. Simpson Thomas, 1710-1761) − английский математик. Автор формулы Симп-
31
ние меры множества G к мере множества D, то есть
P (A) =
SG
SD
.
(2.6)
Замечание 2.6. Следует заметить, что данное определение предполагает следующие ограничения для любой точки, принадлежащей множеству
D:
во-первых, каждая точка множества G может быть расположенной
в любой точке множества D;
во-вторых, вероятность принадлежности точки множеству G пропорциональна мере SG и не зависит от расположения множества G во множестве
D.
Задача 2.9. Расстояние от пункта А до В автобус проходит за
2 минуты, а пешеход − за 15 минут. Интервал движения автобусов
25 минут. Вы подходите в случайный момент времени к пункту A и
отправляетесь в B пешком. Найдите вероятность того, что в пути
вас догонит очередной автобус.
Решение. Допустим, что чёрный прямоугольник изображает множество D длина которого SD = 25 единиц (рис. 2.1).
D
G
Рис. 2.1
А серый прямоугольник изображает множество G, длина которого определяется тем, что пешеход может сесть в автобус. Поэтому его длина есть
длина отрезка времени не большего, чем SG = 15 − 2 = 13 единиц (этот
отрезок находится на промежутке времени (10; 23)).
Если событие A − «в пути вас догонит очередной автобус», то согласно геометрическому определению вероятности вероятность этого события
можно вычислить как отношение длин серого и чёрного прямоугольников
13
P (A) = .
25
Следовательно,
вероятность того, что в пути вас догонит очередной автобус, равна 0, 52 .
сона для приближённого вычисления интегралов (см. там же).
32
Задача 2.10. Задача о встрече1 . Два человека условились встретиться в определенном месте между 12 и 13 часами дня. Пришедший
первым ожидает второго в течение четверти часа, после чего уходит.
Найдите вероятность того, что встреча состоится, если каждый человек выбирает момент своего прихода (в промежутке от 12 до 13 часов)
случайным образом.
Решение. Допустим, что множество D есть серый квадрат со стороной
единица (рис. 2.2).
Каждая точка квадрата с координатами (x; y) (0 ≤ x ≤ 1; 0 ≤ y ≤ 1)
определяет время прихода каждого из пришедших в пределах этого часа в
часах.
Они встретятся, если для времени встречи будет выполняться одно из
двух неравенств:
1
1
x−y ≤ ; y−x≤ ,
4
4
что эквивалентно неравенству
1
|x − y| ≤ .
4
y
1
3
4
1
4
0
1
4
3
4
1
x Рис. 2.2
Следовательно, множество встречи G определяется чёрным шестиугольником, ограниченным прямыми
y = 0; y = x − 0, 25; x = 1; y = 1; y = x + 0, 25; x = 0.
Площадь G удобнее вычислить как разность площади квадрата и двух
серых треугольников, вырезанных из квадрата шестиугольником:
SG = 1 − 2 ·
1
7
· (1 − 0, 25)2 . ⇒ SG = .
2
16
1
Задача впервые была опубликована в 1886 году в книге «Выбор и шанс» (Choice and chance)
В. Витворта и после этого включалась в большинство учебников по теории вероятности.
Витворт В. А. (Whitworth William Allen, 1840-1905) − английский математик и священник англиканской церкви (см. [13, c. 408], а также Википедия [Электронный ресурс] : URL : https://en.
wikipedia.org/wiki/William_Allen_Whitworth (дата обращения: 12.06.2016)).
33
Если определить эту случайную встречу как событие B, то согласно геометрическому определению вероятности вероятность этого события можно
вычислить как отношение площадей длин чёрного многоугольника и серо7
го квадрата P (B) =
: 1. В итоге имеем, что
16
вероятность того, что встреча произойдёт, равна 0, 4375 .
Cледующая задача на эту тему является одной из первых в истории
теории вероятностей.
Задача 2.11. Игла Бюффона1 . На плоскости заданы параллельные
прямые, находящиеся друг от друга на расстоянии 2a. Случайным образом на плоскость бросается игла, длина которой 2l, при этом l < a.
Найдите вероятность того, что игла пересечёт одну из прямых.
Решение. Для того чтобы определить, пересекает игла одну из прямых
или нет, нужно определить те параметры иглы, которые отвечают за её
местоположение на плоскости. Этими параметрами могут быть «расстояние от центра иглы до ближайшей прямой» и «угол поворота относительно
ближайшей прямой2 ».
Свяжем с этими прямыми систему координат, привязав к нижней прямой горизонтальную ось, направление на которой будет связано с углом
поворота иглы, который обозначим через α. Вертикальную ось, на которой
определяется расстояние до нижней прямой, обозначим через y. Расстояние от центра иглы до ближайшей прямой также обозначим y (рис. 2.3).
y
2a
l
y
l
α
α Рис. 2.3
Очевидно, что положение центра иглы y меняется от 0 до a, а угол поворота иглы меняется3 от 0 до π.
1
В поисках значения числа π Бюффон рассмотрел данную задачу. Его решение было приведено
в эссе «Опыт нравственной арифметики » (Essai d0 arithmetique morale), в его «Всеобщей и частной
истории» (Histoire naturelle, generale er particuliere) в 1777 году.
Граф де Бюффон Жорж-Луи Леклерк (фр. Georges-Louis Leclerc, Comte de Buffon, 17071788) − французский натуралист, биолог, математик, естествоиспытатель и писатель XVIII века
(см. Гнеденко Б.В. Курс теории... С. 406, а также Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyryu\T2A\cyrf\T2A\cyrf\T2A\cyro\T2A\cyrn,_\
T2A\CYRZH\T2A\cyro\T2A\cyrr\T2A\cyrzh-\T2A\CYRL\T2A\cyru\T2A\cyri_\T2A\CYRL\T2A\cyre\T2A\
cyrk\T2A\cyrl\T2A\cyre\T2A\cyrr\T2A\cyrk_\T2A\cyrd\T2A\cyre(дата обращения: 12.06.2016)).
2
Поскольку игла образует с прямой острый и тупой углы, то на прямой нужно выбрать направление,
а далее под углом подразумевать «угол между прямой и направлением».
3
При этом местоположение центра иглы не зависит от угла её поворота относительно ближайшей
прямой.
34
Множество всевозможных положений иглы можно описать с помощью
прямоугольника
П = {(α, y) : 0 ≤ α ≤ π, 0 ≤ y ≤ a}.
Игла будет пересекать ближайшую прямую, если расстояние от её центра до ближайшей прямой1 y ≤ l sin α.
На рис. 2.4 площадь, ограниченная кривой y = l sin α, окрашена в серый
цвет.
y
a
π
0
Величина этой площади
Zπ
S=
2
αРис. 2.4
l sin αdα.
0
Вычислим этот интеграл
Zπ
π
l sin αdα = −l cos α
= −l(cos π − cos 0) = 2l.
0
0
Следовательно, S = 2l.
Если вероятность того, что игла пересечёт одну из прямых, определить
как событие C, то согласно геометрическому определению вероятности вероятность этого события можно вычислить как отношение вычисленной
площади S к площади чёрного прямоугольника
2l
.
P (C) =
aπ
Таким образом получаем, что
вероятность того, что игла пересечёт
2l
одну из прямых, равна
.
aπ
Замечание 2.7. Геометрическое определение вероятности также имеет
свои недостатки, одним из которых является следующий:
Известно, что в случае классического определения вероятность достоверного или невозможного событий равна единице, соответственно нулю.
При этом справедливы обратные утверждения: если вероятность события равна единице, то событие достоверно и если вероятность события
равна нулю, то событие невозможно.
1
Если на рис. 2.3 мысленно опустить перпендикуляр на пунктир, то получится прямоугольный
треугольник, в котором вертикальный катет будет равен y = l sin α.
2
cos π = −1, cos 0 = 1.
35
А в случае геометрического определения вероятности обратные утверждения не имеют места. Так, например, вероятность попадания брошенной
точки в одну определенную точку области G равна нулю, однако это событие может произойти, и, следовательно, не является невозможным.
В 1933 году А. Н. Колмогоров1 дал аксиоматическое определение вероятности, для которого все рассмотренные выше определения являются частными случаями. Но рассмотрение этого вопроса выходит за рамки программы данного курса.
1
Колмогоров Андрей Николаевич (1903-1987) − советский математик, один из крупнейших
математиков ХХ века. Один из основоположников современной теории вероятностей, Автор основополагающих результатов в топологии, геометрии, математической логике, классической механике,
теории турбулентности, теории сложности алгоритмов, теории информации, теории функций, теории
тригонометрических рядов, теории меры, теории приближения функций, теории множеств, теории
дифференциальных уравнений, теории динамических систем, функциональном анализе и в ряде
других областей математики и её приложений, а также новаторских работ по философии, истории,
методологии науки и преподаванию математики, статистической физике. Иностранный член 14
Академий и математических обществ (см. Википедия [Электронный ресурс] : URL : https://ru.
wikipedia.org/wiki/\T2A\CYRK\T2A\cyro\T2A\cyrl\T2A\cyrm\T2A\cyro\T2A\cyrg\T2A\cyro\T2A\
cyrr\T2A\cyro\T2A\cyrv,_\T2A\CYRA\T2A\cyrn\T2A\cyrd\T2A\cyrr\T2A\cyre\T2A\cyrishrt_\T2A\
CYRN\T2A\cyri\T2A\cyrk\T2A\cyro\T2A\cyrl\T2A\cyra\T2A\cyre\T2A\cyrv\T2A\cyri\T2A\cyrch
(дата обращения: 12.06.2016)).
36
3
Алгебра событий
Играя против начинающего шахматиста
и против чемпиона, выиграть две партии
подряд вероятнее по схеме «чемпион − новичок − чемпион» или по схеме «новичок
− чемпион − новичок»?
Ф. Мостеллер
3.1
Сложение вероятностей событий
Теорема 3.1. Вероятность суммы двух несовместных событий равна
сумме их вероятностей.
То есть,
P (A + B) = P (A) + P (B), если AB = ∅.
Д о к а з а т е л ь с т в о. Допустим, что n есть число всевозможных
исходов опыта, в котором m1 раз наступает событие A и m2 раз наступает
событие B. Так как события A и B несовместны, то наступление одного из
них исключает наступление другого (см. определение 2.4). Поэтому число
благоприятных исходов опыта, в которых наступит событие A + B, равно
m1 + m2 .
Следовательно, из классического определения вероятности следует, что
P (A + B) =
m1 + m2
m
m
= 1 + 2 = P (A) + P (B).
n
n
n
Задача 3.1. В коробке лежат 5 красных, 3 белых и два синих шара
одного и того же радиуса. Какова вероятность вытащить из коробки
случайным образом цветной шар?
Решение. Предположим, что событие A − «вынимание красного шара
из коробки», а событие B − «вынимание синего шара из коробки». Так как
в один момент времени можно вытащить только красный или только синий
шар, то событие «вытащить цветной шар» является суммой несовместных
событий A и B. Поэтому его можно обозначить как A + B. Общее число
способов взять один шар из коробки n = 5 + 3 + 2, то есть n = 10. Из этих
способов благоприятными для A будут m1 = 5 способов, а благоприятными
для B − m2 = 2 способа. Следовательно,
P (A) =
5
2
; P (B) = .
10
10
37
А так как P (A + B) = P (A) + P (B), то P (A + B) = 0, 5 + 0, 2 = 0, 7.
Таким образом,
вероятность взять цветной шар из коробки равна 0,7 .
Из теоремы 3.1 вытекает
Следствие 3.1. Вероятность суммы конечного числа попарно несовместных событий равна сумме их вероятностей.
То есть, ∀ i 6= j : Ai Aj = ∅,
P (A1 + A2 + · · · + An ) = P (A1 ) + P (A2 ) + · · · + P (An ).
Теорема 3.2. Вероятность суммы событий, образующих полную группу, равна единице.
Д о к а з а т е л ь с т в о. Если события A1 , A2 , · · · , An образуют
полную группу событий опыта, то их сумма A1 + A2 + · · · + An = Ω, то есть
совпадает со всем пространством элементарных исходов опыта. Поэтому
P (A1 + A2 + · · · + An ) = 1.
А так как события полной группы попарно несовместны, то в силу следствия 3.1
P (A1 ) + P (A2 ) + · · · + P (An ) = 1.
Следствие 3.2. Из определения 2.7 вытекает, что Сумма вероятностей противоположных событий равна единице1 :
P (A) + P (Ā) = 1.
Так как противоположные события образую полную группу, то к ним
применима теорема 3.2.
Задача 3.2. Вероятность выигрыша в лотерее 0, 01. Найдите вероятность проигрыша в этой лотерее.
Решение. События A − «выигрыш в лотерее» и B − «проигрыш в лотерее» являются противоположными событиями. Поэтому B = Ā. А так
как P (A) = 0, 01, то
P (Ā) = 1 − P (A) ⇒ P (Ā) = 1 − 0, 01 ⇒ P (Ā) = 0, 99.
Следовательно, вероятность проигрыша в лотерее равна 0,99 .
1
Впервые это правило было установлено Я. Бернулли и Н. Бернулли (см. Гнеденко Б. В. Курс
теории... С. 409).
Бернулли Николай (Никола) (нем. Bernoulli Nikolaus II., 1695-1726) − сын Иоганна Бернулли,
швейцарский математик, философ, юрист; профессор математики Петербургской академии наук
(1725). Основные работы в области дифференциальных уравнений и механики. (см. Википедия
[Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyre\T2A\cyrr\T2A\
cyrn\T2A\cyru\T2A\cyrl\T2A\cyrl\T2A\cyri,_\T2A\CYRN\T2A\cyri\T2A\cyrk\T2A\cyro\T2A\cyrl\
T2A\cyra\T2A\cyrishrt (дата обращения: 12.06.2016)).
38
Теорема 3.3. Вероятность суммы двух совместных событий равна
сумме их вероятностей без учёта вероятности произведения этих событий1 .
То есть,
P (A + B) = P (A) + P (B) − P (AB), если AB 6= ∅.
Д о к а з а т е л ь с т в о. Заметим, что для совместных событий
их сумма является объединением множеств благоприятных исходов, соответствующих событиям A и B.
A
A∩B
B
Рис. 3.1
Поэтому P (A + B) = P (A ∪ B).
Допустим, что события A и B совместны, тогда существуют благоприятные исходы опыта, которые одновременно являются благоприятными как
для A, так и для B (множество этих исходов не закрашено на рисунке 3.1).
Пусть число таких исходов m1 , а число исходов, благоприятных событиям A и B, равно соответственно mA и mB . Тогда в объединении событий
A ∪ B в числе соответствующих благоприятных исходов m дважды учитывается число m1 : первый раз в числе исходов, благоприятных A, а второй
раз в числе исходов, благоприятных B. Следовательно, один раз это число
нужно вычесть из общей суммы:
m = mA + mB − m1 .
Тогда
P (A ∪ B) =
mA + mB − m1
m
m
m
= A + B − 1 = P (A) + P (B) − P (AB).
n
n
n
n
1
Первая точная формулировка этой теоремы была дана Т. Байесом в работе под названием
«Опыт решения задач по теории вероятностей покойного достопочтенного мистера Байеса, члена
Королевского общества. Сообщено мистером Прайсом в письме Джону Кентону 23 декабря 1763 года»
(An Essay towards solving a Problem in the Doctrine of Chanses/ By the late Rev. Mr. Bayes, F.R.S.
communicated by Mr. Price, in Letter to John Canton, A.M. F. R. S. Dec. 23, 1763). Работа была зачитана
на заседании Лондонского королевского общества 27 декабря 1763 года.
Байес Томас (англ. Bayes Reverend Thomas, 1702-1761) − английский математик и пресвитерианский священник, член Лондонского королевского общества (см. Гнеденко Б. В. Курс теории... С. 410,
а также Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\
cyra\T2A\cyrishrt\T2A\cyre\T2A\cyrs,_\T2A\CYRT\T2A\cyro\T2A\cyrm\T2A\cyra\T2A\cyrs (дата
обращения: 12.06.2016), https://en.wikipedia.org/wiki/An_Essay_towards_solving_a_Problem_in_
the_Doctrine_of_Chances (дата обращения: 12.06.2016)).
39
Таким образом, действительно
P (A + B) = P (A) + P (B) − P (AB).
Так как вопрос определения вероятности произведения P (AB) событий
A и B остаётся открытым, то решение задач отложим на некоторое время,
связанное с изучением следующего параграфа.
3.2
Умножение вероятностей событий
Определение 3.1. Вероятность события A при условии, что произошло событие B, называется условной вероятностью события A и
обозначается PB (A).
Замечание 3.1. При определении условной вероятности PB (A) наступления события A предполагается, что перед появлением события A уже
наступило событие B. То есть PB (A) есть вероятность «при условии», в
отличие от вероятности P (A), которую можно назвать «безусловной вероятностью».
Задача 3.3. В урне находятся 6 белых и 4 чёрных шара. Сравните
вероятности следующих событий:
1) событие A − «извлечение из урны белого шара»;
2) событие A1 − «извлечение из урны белого шара после удаления из урны
белого шара» (событие B);
3) событие A2 − «извлечение из урны белого шара после удаления из урны
чёрного шара» (событие C).
Решение.
6
= 0, 6.
1) P (A) =
10
2) Так как из урны извлекли белый шар, то в ней осталось 9 шаров, из
5
которых 5 белых. Поэтому P (A1 ) = PB (A) = ≈ 0, 56.
9
3) Поскольку из урны извлекли чёрный шар, то в ней осталось 9 шаров, из
6
которых 6 белых. Поэтому P (A2 ) = PC (A) = ≈ 0, 67.
9
Таким образом1 , PB (A) < P (A) < PC (A) .
Теорема 3.4. Вероятность произведения двух событий A и B равна произведению вероятности одного события на условную вероятность
второго события, при условии, что первое событие произошло2 . То есть,
P (AB) = P (A)PA (B).
1
То есть, условная вероятность события может быть как больше, так и меньше его безусловной
вероятности.
2
Теорема впервые была доказана А. де Муавром в его «Доктрине шансов» (The Doctrine of Chance:
A method of calculating the probabilities of events in play) в 1718 году.
40
Д о к а з а т е л ь с т в о. Предположим, что всё пространство
элементарных равновозможных исходов опыта Ω состоит из n исходов, из
которых m исходов являются благоприятными для A, а k исходов − благоприятными для произведения событий AB (естественно, что k ≤ m ≤ n).
Следовательно,
m
k
P (A) = , P (AB) = .
n
n
Так как событие A наступило раньше, чем событие B, то из m благоприятных для него исходов можно выделить k исходов, которые являются
благоприятными для события B. А это означает, что
PA (B) =
k
.
m
k
m k
=
· , то P (AB) = P (A)PA (B).
n
n m
Следствие 3.3. Для любых двух событий A и B справедливо равенство
P (A)PA (B) = P (A)PB (A).
Так как
В силу того, что AB = BA, получаем P (AB) = P (BA) = P (B)PB (A).
Задача 3.4. В урне находятся 6 белых и 4 чёрных шара. Какова вероятность вытащить случайным образом два разноцветных шара, если
первый из них − белый.
Решение. Так как первый из вытащенных шаров белый, то событие A −
«вынимание из урны белого шара». Последующее событие B − «вынимание
из урны чёрного шара» − зависит от предыдущего события. Поэтому вероятность события AB − «вынимание из урны двух разноцветных шаров»
− согласно теореме 3.4
P (AB) = P (A)PA (B).
6
3
4
3 4
4
= , а PA (B) = , то P (AB) = · = .
10 5
9
5 9 15
вероятность вытащить два разноцветных шара, из
Таким образом, которых первый является белым, приблизительно
равна 0, 27.
Так как P (A) =
де Муавр Абрахам (фр. и англ. Abraham de Moivre, 1667-1754) − английский математик. Основные
работы в математическом анализе и теории вероятности. Член Лондонского королевского общества,
Парижской и Берлинской академий наук. (см. Гнеденко Б. В. Курс теории... С. 410, а также Википедия
[Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRM\T2A\cyru\T2A\cyra\T2A\
cyrv\T2A\cyrr,_\T2A\CYRA\T2A\cyrb\T2A\cyrr\T2A\cyra\T2A\cyrh\T2A\cyra\T2A\cyrm_\T2A\cyrd\
T2A\cyre (дата обращения: 12.06.2016)).
41
Задача 3.5. Студент пришёл на экзамен, успев выучить только 15
вопросов из 20 вопросов программы. Билет содержал три вопроса программы. Какова вероятность того, что студент вытянул билет, в котором он знает1 ответ на все вопросы?
Решение. Предположим, что событие A − «студент знает ответ на все
три вопроса»; событие A1 − «студент знает ответ на первый вопрос»; событие A2 − «студент знает ответ на второй вопрос»; событие A3 − «студент
знает ответ на третий вопрос». Так как события A1 , A2 и A3 − зависимые,
то событие A = A1 и (A2 /A1 ) и (A3 /A1 A2 ). Найдём вероятности этих
событий:
14
13
15
P (A1 ) = ; PA1 (A2 ) = ; PA1 A2 (A3 ) = .
20
19
18
Следовательно,
P (A) =
15 14 13
91
·
·
⇒ P (A) =
≈ 0, 399.
20 19 18
228
Таким образом,
вероятность вытащить билет со всеми известными вопросами равна 0, 4 .
Замечание 3.2. Заметим, что эту задачу можно было решить, не используя понятие условной вероятности. Общее число вариантов n составления билета из трёх произвольных вопросов не зависит от порядка расположения вопросов в билете. Поэтому n = C203 . Так как в билете все вопросы
оказались знакомыми студенту, то они выбирались из 15. Поэтому m = C153 .
Следовательно,
C153
m
15! · 3! · 17! 15 · 14 · 13
P (A) =
⇒ P (A) = 3 =
=
≈ 0, 399.
n
C20
3! · 12! · 20! 20 · 19 · 18
Задача 3.6. В центральном офисе предприятия 20% работающих получают высокую заработную плату. Также известно, что 40% работающих в офисе − женщины, а 6% работающих − женщины, получающие
высокую заработную плату. Можно ли утверждать, что в офисе существует дискриминация женщин в оплате труда?
Решение. Переформулируем вопрос данной задачи: «Чему равна вероятность того, что случайно выбранный работник является женщиной,
имеющей высокую зарплату?»
Допустим, что событие A − «случайно выбранный работник имеет высокую зарплату», а событие B − «случайно выбранный работник − женщи1
На самом деле за этим знанием стоит та случайность, при помощи которой преподаватель составил
этот билет.
42
на». Тогда событие AB − «случайно выбранный работник является женщиной с высокой заработной платой». С учётом этих обозначений
PB (A) =
0, 06
P (AB)
⇒ PB (A) =
= 0, 15.
P (B)
0, 4
Так как среднее число получающих высокую зарплату 0, 21>0, 15, то
можно утверждать, что
в офисе существует дискриминация женщин в оплате труда .
Определение 3.2. Два события A и B называются независимыми1 , если вероятность каждого из них не зависит от наступления или
ненаступления другого из этих событий.
P (A) = PB (A) = PB (Ā).
P (B) = PA (B) = PA (B̄).
Из данного определения согласно теореме 3.4 следует
Теорема 3.5. Вероятность совместного наступления двух независимых событий A и B равна произведению вероятностей этих событий.
То есть,
P (AB) = P (A)P (B).
Задача 3.7. При страховании жизни для расчетов употребляются
таблицы, которые дают среднее распределение по годам смертных случаев некоторой совокупности лиц одинакового возраста:
Возраст 10
20 30 40 50 60 70 80 90
Число 1000 961 897 823 728 538 380 140 13
(из 1000 детей, достигших 10-летнего возраста, до 90 лет доживают
13).
Пусть в данный момент в некоторой семье мужу 30 лет, а жене − 20.
Найдите вероятность того, что оба будут живы через 50 лет.
Решение. Пусть событие A − «муж жив через 50 лет», а событие B −
«жена жива через 50 лет». Тогда событие AB − «муж и жена живы через
50 лет». Так как события A и B не зависят друг от друга, то согласно
теореме 3.5 P (AB) = P (A)P (B).
Из таблицы следует, что из 897 человек, доживших до 30 лет, 140 дожи140
ли до 80. Поэтому P (A) =
. А так как из 961 человека, дожившего до 20
897
1
Определение независимости событий дано А. де Муавром в вышеуказанной работе (см. сноску на
с. 37).
43
380
140
. Поэтому P (AB) =
·
961
897
380
муж и жена будут живы через 50 лет с вероятностью,
. Таким образом,
приблизительно равной 0, 06.
961
лет, до 70 доживают 380 человек, то P (B) =
Определение 3.3. События называются независимыми в совокупности, если каждое из них и любое произведение остальных являются независимыми друг от друга.
Из данного определения вытекает
Следствие 3.4. События, независимые в совокупности, являются
попарно независимыми событиями.
Обратный факт, очевидно, является неверным. Если первое из событий
не зависит от второго, а второе не зависит от третьего, то это не означает,
что первое и третье события являются независимыми событиями.
Следствие 3.5. Вероятность произведения конечного числа независимых в совокупности событий равна произведению вероятностей этих
событий. То есть,
P (A1 A2 . . . An ) = P (A1 ) · P (A2 ) · . . . P (An ).
3.3
3.3.1
Примеры применения алгебры событий
Связь между вероятностями противоположных событий
Существует большое количество задач, в которых поиск вероятности
«прямого» события A целесообразнее заменить поиском противоположного события Ā, используя следствие 3.2. Из этого следствия вытекают два
взаимосвязанных факта:
P (A) = 1 − P (Ā) и P (Ā) = 1 − P (A).
Рассмотрим следующую задачу:
Задача 3.8. События A1 , A2 , . . . , An , вероятности которых соответственно равны p1 , p2 , . . . , pn , образуют полную группу событий, независимых в совокупности. Найдите вероятность наступления хотя бы
одного события из этой группы.
Решение. Событие A − «наступит хотя бы одно событие из этой группы» можно переформулировать следующим образом: «наступит только одно событие из этой группы» или «наступят два события из этой группы»
или «наступят три события из этой группы» или . . . или «наступят все
события из этой группы одновременно».
44
Определение вероятностей всех этих несовместных между собой событий (а следовательно и их суммы) не представляет проблем в смысле создания алгоритма действий, но вызывает большие сомнения в необходимости
этих действий.
Событие A содержит все исходы пространства элементарных событий Ω,
кроме одного события: «не наступит ни одно из этих событий». Это событие
является противоположным событию A. Так как все события данной группы независимы в совокупности, то согласно определению 3.2 и противоположные им события Ā1 , Ā2 , . . . , Ān также независимы в совокупности.
Событие Ā − «не наступит ни одно из этих событий» − эквивалентно
тому, что наступит событие Ā1 и Ā2 и . . . и Ān . Тогда, согласно следствию
3.5,
P (Ā) = P (Ā1 ) · P (Ā2 ) · . . . P (Ān ).
Так как
P (Ā1 ) = 1 − p1 ; P (Ā2 ) = 1 − p2 ; . . . P (Ān ) = 1 − p1 ,
то
P (Ā) = (1 − p1 )(1 − p2 ) . . . (1 − pn ).
Следовательно, вероятность наступления хотя бы одного события из
этой группы
P (A) = 1 − (1 − p1 )(1 − p2 ) . . . (1 − pn ) .
Замечание 3.3. Следует заметить, что для любого n вероятность события «хотя бы один...» через вероятность противоположного события вычисляется по одному и тому же алгоритму.
Из решения задачи 3.8 вытекает
Следствие 3.6. Если события A1 , A2 , . . . , An имеют одинаковую вероятность, равную p, то вероятность появления хотя бы одного из этих
событий
P (A) = 1 − q n , где q = 1 − p.
Задача 3.9. Вероятность получить справку в одном из трёх отделов солидного государственного учреждения за 10 минут до обеденного
перерыва соответственно равна для первого 0, 3, для второго 0, 5, для
третьего 0, 4. Какова вероятность того, что вы получите справку хотя
бы в одном из этих отделов в указанное время?
Решение. Событие A − «вы получите справку хотя бы в одном из трёх
отделов». Ему противоположным является событие Ā − «вы не получите
справку ни в одном из трёх отделов». Событие Ā является произведением
трёх несовместных событий Ā1 , Ā2 и Ā3 , каждое из которых соответствует
45
тому, что «вы не получите справку соответственно в первом, втором и третьем отделах».
Так как P (A1 ) = 0, 3, P (A2 ) = 0, 5, P (A3 ) = 0, 4, то
P (Ā1 ) = 1−0, 3 = 0, 7, P (Ā2 ) = 1−0, 5 = 0, 5, P (Ā3 ) = 1−0, 4 = 0, 6. Тогда
P (Ā) = 0, 7 · 0, 5 · 0, 6 ⇒ P (Ā) = 0, 21. Поэтому P (A) = 1 − 0, 21 = 0, 79.
Таким образом,
вероятность того, что вы получите справку хотя бы
в одном из этих отделов в указанное время, равна 0, 79.
Задача 3.10. Вероятность безотказности станков первого завода
при включении равна 0,7, второго − 0,8, третьего − 0,75. Включили по
одному станку каждого завода. Какова вероятность того, что работает:
а) только один станок;
б) не более одного станка;
в) хотя бы один станок.
Решение. Определим следующие события: A1 − «работает станок первого завода»; A2 − «работает станок второго завода»; A3 − «работает станок третьего завода». События Ā1 , Ā2 , Ā3 определяют соответственно отказы станков первого, второго и третьего заводов.
а) Пусть событие A − «работает только один станок». Данное событие
можно представить с помощью союзов «и» и «или» следующим образом:
«работает только один станок» = «работает станок первого завода»
и «не работает станок второго завода» и «не работает станок третьего завода» или «не работает станок первого завода» и «работает
станок второго завода» и «не работает станок третьего завода» или
«не работает станок первого завода» и «не работает станок второго
завода» и « работает станок третьего завода»
В краткой форме это выглядит так:
A = A1 и Ā2 и Ā3 или Ā1 и A2 и Ā3 или Ā1 и Ā2 и A3 .
Следовательно,
P (A) = P (A1 ) · P (Ā2 ) · P (Ā3 ) + P (Ā1 ) · P (A2 ) · P (Ā3 ) + P (Ā1 ) · P (Ā2 ) · P (A3 ).
Так как
P (Ā1 ) = 1 − 0, 7 = 0, 3; P (Ā2 ) = 1 − 0, 8 = 0, 2; P̄ (A3 ) = 1 − 0, 75 = 0, 25,
то
P (A) = 0, 7 · 0, 2 · 0, 25 + 0, 3 · 0, 8 · 0, 25 + 0, 3 · 0, 2 · 0, 75 ⇒ P (A) = 0, 14.
б) Пусть событие B − «работает не более одного станка». Это событие можно представить как «работает нуль станков» или «работает один станок».
Так как вероятность события «работает один станок» определена в задании
а), то найдём вероятность события «работает нуль станков». Обозначим
46
это событие B1 . Оно означает, что «не работает станок первого завода» и
«не работает станок второго завода» и «не работает станок третьего
завода».
Поэтому его вероятность
P (B1 ) = P (Ā1 ) · P (Ā2 ) · P (Ā3 ) ⇒ P (B1 ) = 0, 3 · 0, 2 · 0, 25 ⇒ P (B1 ) = 0, 015.
В силу того, что B = A или B1 ,
P (B) = P (A) + P (B1 ) ⇒ P (B) = 0, 14 + 0, 015 = 0, 155 ≈ 0, 16.
в) Допустим, что событие C − «работает только хотя бы один станок». Из
задачи 3.8 следует, что P (C) = 1 − P (C̄), где C̄ − противоположное C
событие − «не работает ни один станок». Так как C̄ совпадает с событием
B1 из задания б), то P (C̄) = P (B1 ) = 0, 015. Поэтому P (C) = 1 − 0, 015 =
0, 985.
a) вероятность, что работает только один станок, равна 0, 14;
б) вероятность, что работает не более одного станка, равна 0, 16;
в) вероятность, что работает хотя бы один станок, равна 0, 99.
3.3.2
Вероятность работы схем теории надёжности
В теории надёжности работа эксплуатируемых систем определяется схемами соединения звеньев системы. При этом основными структурами в любой схеме являются параллельное и последовательное соединение звеньев.
Рассмотрим две основные задачи.
Задача 3.11. Найдите вероятность работы схемы при последовательном соединении двух элементов (рис. 3.2), если даны вероятности
работы каждого элемента.
p1
p2
Рис. 3.2
Решение. Событие R − «схема работает» − эквивалентно событию «Работает первый элемент» (событие R1 ) и «работает второй элемент» (событие R2 ). Поэтому
P (R) = P (R1 )P (R2 ).
Следовательно, вероятность работы схемы равна p1 p2 .
Задача 3.12. Найдите вероятность работы схемы при параллельном соединении двух элементов (рис. 3.3), если даны вероятности работы каждого элемента.
Решение. Событие S − «схема работает» − эквивалентно событию «Работает первый элемент» (событие S1 ) и «не работает второй элемент» (событие S̄2 ) или «не работает первый элемент» (событие S̄1 ) и «работает
47
второй элемент» (событие S2 ) или «работает первый элемент» (событие
S1 ) и « работает второй элемент» (событие S2 ).
p1
p2
Рис. 3.3
В компактном виде это можно записать так:
S = S1 и S̄2 или S̄1 и S2 или S1 и S2 .
Так как событие S является очень громоздким, попробуем рассмотреть
противоположное событие S̄ − «схема не работает».
Событие S̄ − «схема не работает» − эквивалентно произведению двух
независимых событий: «не работает первый элемент» (событие S̄1 ) и «не
работает второй элемент» (событие S̄2 ).
В компактном виде это имеет следующий вид: S̄ = S̄1 и S̄2 .
Следовательно,
P (S̄) = P (S̄1 )P (S̄2 ).
Так как P (S̄1 ) = 1 − p1 , а P (S̄2 ) = 1 − p2 , то вероятность того, что схема
не работает
P (S̄) = (1 − p1 )(1 − p2 ).
Учитывая P (S) = 1 − P (S̄), получаем
вероятность работы схемы равна 1 − (1 − p1 )(1 − p2 ).
Замечание 3.4. Если q1 = 1 − p1 , а q2 = 1 − p2 , то вероятность работы
схемы при параллельном соединении P (S) = 1 − q1 q2 .
Замечание 3.5. Из решений задач 3.11 и 3.12 вытекает, что при последовательном соединении легче найти вероятность того, что схема работает.
При параллельном же соединении проще искать вероятность того, что схема не работает.
Задача 3.13. Найдите вероятность работы схемы (рис. 3.4), если
даны вероятности работы каждого элемента.
Решение. Пусть событие D − «схема работает».
A
C
0, 8
0, 6
B
0, 7
0, 9
0, 6
0, 8
Рис. 3.4
48
Чтобы найти вероятность данного события, представим данную схему в
виде последовательно соединенных блоков A, B, C (рис. 3.5).
A
B
C
Рис. 3.5
Как следует из решения задачи 3.11
P (D) = P (A)P (B)P (C).
(3.1)
Чтобы найти вероятности P (A) и P (C), используем алгоритм задачи
3.12 и найдем вероятности противоположных событий Ā и C̄.
В блоке A вероятности работы элементов p1 = 0, 8, p2 = 0, 7, p3 = 0, 6.
Соответственно вероятности отказа этих элементов q1 = 0, 2, q2 = 0, 3,
q3 = 0, 4.
Следовательно,
P (Ā) = 0, 2 · 0, 3 · 0, 4 = 0, 024 ⇒ P (A) = 1 − 0, 024 = 0, 976.
В блоке C вероятности работы элементов p5 = 0, 6, p6 = 0, 8.
Соответственно, вероятности отказа этих элементов q5 = 0, 4, q2 = 0, 2.
Поэтому,
P (C̄) = 0, 4 · 0, 2 = 0, 08 ⇒ P (A) = 1 − 0, 08 = 0, 92.
Подставляя полученные значения в (3.1), находим
P (D) = 0, 976 · 0, 9 · 0, 92 ⇒ P (D) = 0, 8.
Таким образом, вероятность работы схемы равна 0, 8.
3.4
Формула полной вероятности
Предположим, что события H1 , H2 , . . . , Hn образуют полную группу
несовместных событий, при этом известны вероятности наступления каждого из этих событий: P (H1 ), P (H2 ), . . . , P (Hn ). Далее эти события будем
называть гипотезами. Допустим также, что на фоне только одного из этих
событий наступает интересующее нас событие A, и известны его условные
вероятности PH1 (A), PH2 (A), . . . , PHn (A). Тогда вероятность наступления
этого события определяется в следующей теореме.
Теорема 3.6. (Формула полной вероятности1 ). Вероятность события A, которое может наступить только при условии наступления
1
Формула полной вероятности была впервые сформулирована П. Лапласом в его работе «Опыт
философии теории вероятностей» (A Philosophical Essay on Probabilities) в 1814 году (математики
использовали формулу и до Лапласа, но точной формулировки её дать не могли).
де Лаплас Пьер-Симон, (фр. de Laplace Pierre-Simon, 1749-1827) − маркиз, французский математик,
49
одной из гипотез, образующих полную группу, равна скалярному произведению вектора вероятностей гипотез на вектор условных вероятностей
данного события. То есть,
P (A) = P (H1 )PH1 (A) + P (H2 )PH2 (A) + · · · + P (Hn )PHn (A),
если
P (H1 ) + P (H2 ) + · · · + P (Hn ) = 1.
Или в компактной форме
P (A) =
n
X
P (Hi )PHi (A), если
i=1
n
X
P (Hi ) = 1.
i=1
Д о к а з а т е л ь с т в о. Так как событие A наступает на
фоне только одного из несовместных событий H1 , H2 , . . . , Hn , то его можно
представить в виде
A = H1 A + H2 A + . . . , Hn A.
При этом события H1 A, H2 A, . . . , Hn A также являются несовместными событиями. Поэтому, согласно следствию 3.1,
P (A) = P (H1 A) + P (H2 A) + . . . , P (Hn A).
Для каждого из слагаемых из теоремы 3.4 следует, что
P (H1 A) = P (H1 )PH1 (A); P (H2 A) = P (H2 )PH2 (A); . . .
P (Hn A) = P (Hn )PHn (A).
Следовательно,
P (A) = P (H1 )PH1 (A) + P (H2 )PH2 (A) + · · · + P (Hn )PHn (A).
Задача 3.14. На складе в пяти ящиках лежат детали первого завода, в трёх ящиках − детали второго завода и в двух ящиках − детали
третьего завода. Для деталей первого завода вероятность вытащить
из ящика стандартную деталь равна 0,8. Для деталей второго завода −
0, 7. А для деталей третьего завода − 0, 9. Какова вероятность случайным образом взять одну стандартную деталь на этом складе?
механик, физик и астроном; известен работами в области небесной механики, дифференциальных уравнений, один из создателей теории вероятностей. Иностранный член шести академий наук и королевского общества. (cм. Гнеденко Б. В. Курс теории... С. 411, а также Википедия [Электронный ресурс] : URL:
https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyra\T2A\cyrp\T2A\cyrl\T2A\cyra\T2A\cyrs,_\
T2A\CYRP\T2A\cyrsftsn\T2A\cyre\T2A\cyrr-\T2A\CYRS\T2A\cyri\T2A\cyrm\T2A\cyro\T2A\cyrn,
https://en.wikipedia.org/wiki/Pierre-Simon_Laplace (дата обращения: 12.06.2016)).
50
Решение. Взятая деталь может оказаться деталью одного из трёх заводов. Поэтому существуют три независимые гипотезы: H1 − «деталь изготовлена на первом заводе», H2 − «деталь изготовлена на втором заводе»,
H3 − «деталь изготовлена на третьем заводе». Вероятность взять деталь
первого завода определяется тем, что она может быть в одном из m = 5
5
ящиков при общем количестве ящиков n = 10. Поэтому P (H1 ) =
= 0, 5.
10
2
3
= 0, 3, а P (H3 ) =
= 0, 2. Так как вероятность
Аналогично P (H2 ) =
10
10
того, что взятая из ящика первого завода деталь окажется стандартной,
равна 0, 8, то условная вероятность PH1 (A) = 0, 8. Соответственно
PH2 (A) = 0, 7, а PH3 (A) = 0, 9.
Подставляя эти данные в формулу полной вероятности, имеем:
P (A) = 0, 5 · 0, 8 + 0, 3 · 0, 7 + 0, 2 · 0, 9 ⇒ P (A) = 0, 79.
Таким образом,
вероятность случайным образом взять одну стандартную
деталь на этом складе равна 0, 79.
Замечание 3.6. Следует заметить, что решение подобных задач можно получить, пользуясь только комбинаторными правилами сложения. Из
правил вытекает, что если условие задачи переформулировать для
событий с помощью союзов «и» «или», а затем, взяв вероятности
событий, поставить между ними соответственно знаки умножения и сложения, то получим нужный результат.
Рассмотрим решение последней задачи, пользуясь эти алгоритмом.
Событие «взять стандартную деталь» можно переформулировать так: «подойти к ящикам первого завода» и «взять стандартную деталь первого
завода», или «подойти к ящикам второго завода» и «взять стандартную деталь второго завода», или «подойти к ящикам третьего завода»
и «взять стандартную деталь третьего завода». Далее, используя соответствующие обозначения перепишем этот текст кратко:
A = H1 и (A/H1 ) или H2 и (A/H2 ) или H3 и (A/H3 ).
«Повесим» вероятности на события и расставим соответствующие знаки
умножения и сложения:
P (A) = P (H1 )PH1 (A) + P (H2 )PH2 (A) + P (H3 )PH3 (A).
Таким образом, мы получили формулу полной вероятности в случае трёх
гипотез, используя только русский язык и правила комбинаторики1 .
Задача 3.15. В первой урне 5 белых и 6 чёрных шаров, а во второй
− 4 белых и 8 чёрных. Из первой урны случайным образом вынимают два
1
Можно заметить, что самым сложным в этом решении является переформулировка условия задачи
в виде текста с помощью союзов «и» и «или». Всё остальное происходит автоматически.
51
шара и опускают во вторую урну. После этого из второй урны так же
случайно вынимают 4 шара. Найти вероятность того, что:
а) из второй урны вытащили 4 белых шара;
б) только один шар белый.
Решение. Так как неизвестно какие шары доставали из первой урны,
то существуют три гипотезы:
H1 − «из первой урны достали и положили во вторую два белых шара».
Во второй урне теперь лежат 6 белых и 8 чёрных шаров.
C52
P (H1 ) = 2 ;
C11
H2 − «из первой урны достали и положили во вторую два чёрных шара».
Во второй урне теперь лежат 4 белых и 10 чёрных шаров.
C62
P (H2 ) = 2 .
C11
H3 − «из первой урны достали и положили во вторую разноцветные шары».
Во второй урне теперь лежат 5 белых и 9 чёрных шаров.
C51 · C61
P (H3 ) =
.
C112
а) Пусть событие A − «из второй урны вытащили 4 белых шара». Согласно
формуле полной вероятности 3.6 его вероятность можно представить
P (A) = P (H1 )PH1 (A) + P (H2 )PH2 (A) + P (H3 )PH3 (A).
C44
C54
C64
PH1 (A) = 4 ; PH2 (A) = 4 ; PH3 (A) = 4 .
C14
C14
C14
C52 · C64 + C62 · C44 + C51 · C61 · C54
P (A) =
=
C112 · C144
10 · 15 + 15 · 1 + 5 · 6 · 5
63
=
=
≈ 0, 006.
55 · 11 · 91
11011
б) Событие B − «из второй урны вытащили только один шар белый» означает, что «из второй урны вытащили один белый шар и три чёрных
шара». Согласно формуле полной вероятности 3.6 его вероятность можно
представить
P (B) = P (H1 )PH1 (B) + P (H2 )PH2 (B) + P (H3 )PH3 (B).
PH1 (B) =
C61 · C83
C41 · C103
C51 · C93
;
P
(B)
=
;
P
(B)
=
.
H2
H3
C144
C144
C144
52
C52 · C61 · C83 + C62 · C41 · C103 + C51 · C61 · C51 · C93
=
P (B) =
C112 · C144
10 · 6 · 56 + 15 · 4 · 105 + 5 · 6 · 5 · 84 22260
=
=
≈ 0, 44.
55 · 1001
50055
а) вероятность того, что из второй урны вытащили 4 белых шара,
равна 0, 006;
б) вероятность того, что из второй урны вытащили 4 шара,
из которых один белый, равна 0, 44.
3.5
Формула Байеса
Следствием теорем 3.4 и 3.6 является теорема гипотез или формула
Байеса1 .
Как и в предыдущем параграфе, предположим, что до наступления опыта можно выдвинуть гипотезы H1 , H2 , . . . , Hn , образующие полную группу
несовместных событий. Допустим также, что до проведения опыта известны предполагаемые вероятности2 этих гипотез: P (H1 ), P (H2 ), . . . , P (Hn ),
n
X
P (Hi ) = 1.
для которых
i=1
Теорема 3.7. (Теорема гипотез) Пусть проведен опыт, в котором
заранее известны предполагаемые вероятности гипотез H1 , H2 , . . . , Hn ,
образующих полную группу несовместных событий. Если в результате
опыта произошло событие A, для которого известны условные вероятности PH1 (A), PH2 (A), . . . , PHn (A), то для каждой из гипотез Hi можно
определить условную вероятность PA (Hi ) (i = 1, 2 . . . , n), то есть
∀ i = 1, n PA (Hi ) =
где
P (A) =
n
X
PHi (A)
P (A)
P (Hi )PHi (A), если
i=1
n
X
,
P (Hi ) = 1.
i=1
Д о к а з а т е л ь с т в о. Найдём условную вероятность PH1 (A):
P (AH1 ) = P (A)PA (H1 ) = P (H1 )PH1 (A).
1
Теорема впервые была сформулирована П. Лапласом в упомянутом выше «Опыте философии
теории вероятностей» (см. сноску на с. 46). Лаплас назвал полученную формулу формулой Байеса,
P (AB)
так как в работе Байеса (см. с. 36 в качестве одного из следствий было получено отношение
.
P (A)
В работах Байеса формула появится не могла, так как он не знал формулу полной вероятности (см.
Гнеденко Б. В. Курс теории... С. 411).
2
Такие вероятности называют априорными или теоретическими вероятностями.
53
Далее, отбросим левую часть двойного равенства:
P (A)PA (H1 ) = P (H1 )PH1 (A)
и разделим обе части равенства на P (A) (предполагая, что P (A) 6= 0):
PA (H1 ) =
P (H1 )PH1 (A)
.
P (A)
Затем заменим P (A) с помощью формулы полной вероятности (см. 3.6):
P (H1 )PH1 (A)
PA (H1 ) = P
.
n
P (Hi )PHi (A)
i=1
Так как этот процесс имеет место для любого целого числа i, пробегающего диапазон от 1 до n, то получаем, что
P (Hi )PHi (A)
(i = 1, n).
PA (Hi ) = P
n
P (Hi )PHi (A)
(3.2)
i=1
Формула (3.2) называется формулой Байеса. Она даёт возможность пересчитывать вероятности гипотез1 в свете информации о том, что в изучаемом опыте событие A наступило.
Задача 3.16. При отклонении прибора от нормального режима работы сигнализатор C1 срабатывает с вероятностью 0, 85, а сигнализатор C2 срабатывает с вероятностью 0, 9. Прибор снабжается сигнализаторами C1 или C2 с вероятностью соответственно 0, 6 и 0, 4. Прибор
отклонился от нормального режима. Что вероятнее: прибор снабжён
сигнализатором C1 или C2 ?
Решение. Существует только две гипотезы: H1 − «в приборе установлен сигнализатор C1 » и H2 − «в приборе установлен сигнализатор C2 ».
Эти гипотезы являются независимыми событиями, образующими полную
группу исходов опыта. Предполагаемые заранее вероятности этих гипотез
P (H1 ) = 0, 6 и P (H2 ) = 0, 4. Изучаемым событием является событие A −
«прибор отклонился от нормального режима работы». Для этого события
известны условные вероятности: PH1 (A) = 0, 85 и PH2 (A) = 0, 9. Известно,
что событие A произошло. Требуется найти вероятности событий H1 /A −
«аварийный прибор снабжён сигнализатором C1 » и H2 /A − «аварийный
прибор снабжён сигнализатором C2 . Используя формулу полной вероятности, найдём вероятность того, что «прибор отклонился от нормального
1
Новые условные вероятности гипотез называются апостериорными вероятностями.
54
режима работы».
P (A) = P (H1 )PH1 (A)+P (H2 )PH2 (A) ⇒ P (A) = 0, 6·0, 85+0, 4·0, 9 = 0, 87.
Последовательно применяя формулу Байеса (3.2), получим
PA (H1 ) =
P (H1 )PH1 (A)
0, 6 · 0, 85
⇒ PA (H1 ) =
⇒ PA (H1 ) ≈ 0, 59.
P (A)
0, 87
PA (H2 ) =
P (H2 )PH2 (A)
0, 4 · 0, 9
⇒ PA (H2 ) =
⇒ PA (H2 ) ≈ 0, 41.
P (A)
0, 87
Так как PA (H1 ) > PA (H2 ), то
вероятнее, что прибор снабжён сигнализатором C1 .
Замечание 3.7. Заметим, что до испытания вероятность гипотезы H1
была равна 0, 6, а после опыта вероятность этой гипотезы (точнее условная вероятность) изменилась и стала равна 0, 59. Следовательно, использование формулы Байеса (3.2) позволило переоценить вероятность данной
гипотезы.
Следующая задача1 связана со статистикой, психологией и криминалом.
Задача 3.17. Ночью таксист совершил наезд и скрылся с места проишествия. В городе работают две компании такси, «Зелёная» и «Синяя».
По данным полиции обе компании имеют одинаковое число машин, но
«Зелёные» такси были до этого связаны с 75% происшествий. На месте
происшествия оказался свидетель, который опознал такси как «Синее».
Судебная экспертиза проверила надёжность свидетеля в ночных условиях и установила, что свидетель правильно опознаёт каждый из двух
цветов в 80% случаев и неправильно − в 20% случаев.
Какова вероятность того, что такси, совершившее наезд, было «Синим», а не «Зелёным»?
Решение. Существуют две гипотезы: H1 − «наезд совершило «Зелёное»
такси» и H2 − «наезд совершило «Синее» такси». Эти гипотезы являются
независимыми событиями, образующими полную группу исходов опыта.
Предполагаемые заранее вероятности этих гипотез связаны со статистикой происшествий, ведущейся в полиции: P (H1 ) = 0, 75 и P (H2 ) = 0, 25.
Изучаемым событием является событие A − «свидетель увидел наезд».
Для этого события известны условные вероятности: в случае, если он не
увидел «Зелёное» такси» PH1 (A) = 0, 2, и, если он видел «Синее» такси
PH2 (A) = 0, 8. Известно, что событие A произошло.
Требуется найти вероятность того, что увиденный наезд был совершён
1
См. Канеман Д. Думай медленно... решай быстро. М. : Аст, 2014. С. 220.
55
«Синим» такси, то есть, вероятность события H2 /A.
Используя формулу полной вероятности (теорема 3.6), найдём вероятность того, что «свидетель увидел наезд».
P (A) = P (H1 )PH1 (A)+P (H2 )PH2 (A) ⇒ P (A) = 0, 75·0, 2+0, 25·0, 8 = 0, 35.
Применяя формулу Байеса (3.2), получим
PA (H2 ) =
P (H2 )PH2 (A)
0, 25 · 0, 8
⇒ PA (H2 ) =
⇒ PA (H2 ) ≈ 0, 57.
P (A)
0, 35
Таким образом1 ,
достоверность того, что увиденный наезд был
.
совершён именно «Синим» такси, равна 57%
1
Интересно, читая условия задачи с полицейской статистикой, вы бы поверили, учитывая репутацию
«Зелёной» компании, что наезд могло совершить «Синее» такси? Мораль этой задачи: не надо делать
поспешных выводов.
56
4
Схема Бернулли
Догадкам не место в тех вещах,
где можно достигнуть полной
достоверности.
Первое правило Я. Бернулли
Определение 4.1. Опыт, состоящий из n независмых испытаний, в
каждом из которых событие A наступает с постоянной вероятностью
p, называется схемой независимых испытаний с двумя исходами
или схемой Бернулли.
Целью опыта является определение вероятности того, что событие
A наступит k раз.
Замечание 4.1. Так как вероятность наступления события A в каждом из испытаний равна p, то вероятность ненаступления данного события
в каждом испытании равна q = 1 − p, а значит, является величиной постоянной. Можно также заметить, что наступление события A k раз в n
независимых испытаниях эквивалентно ненаступлению этого события n−k
раз.
4.1
Формула Бернулли
Теорема 4.1. Пусть в схеме из n независимых испытаний событие A
наступает в каждом из них с постоянной вероятностью p. Тогда вероятность того, что событие A наступит k раз, определяется формулой
Pn (k) = Cnk pk q n−k , где q = 1 − p.
(4.1)
Д о к а з а т е л ь с т в о. Рассмотрим ситуацию, в которой интересующее нас событие A в серии из n независимых испытаний наступает
k раз и не наступает n − k раз. Поскольку порядок в тех испытаниях, в
которых событие A происходит или не происходит, не играет роли, то мы
имеем дело с сочетаниями. Очевидно, что число таких ситуаций равно Cnk .
С точки зрения вероятностей все эти ситуации одинаковы, так как каждая из них наступает с вероятностью pk q n−k .
Поскольку все ситуации несовместны, то по теореме сложения вероятностей несовместных событий (cм. следствие 3.1) вероятность суммы
всех подобных ситуаций равна сумме вероятностей этих ситуаций.
Но так как вероятности-слагаемые равны между собой, то определяемая
вероятность равна произведению числа ситуаций Cnk на вероятность одной
ситуации pk q n−k .
57
В итоге, имеем Pn (k) = Cnk pk q n−k . Что и требовалось доказать.
Эта формула называется формулой Бернулли1 .
Задача 4.1. Тест состоит из 10 вопросов и включает 4 варианта ответа на каждый вопрос. Один из ответов является верным, а остальные
− нет. Какова вероятность случайно дать правильный ответ:
а) на один вопрос;
б) на два вопроса;
в) на три вопроса;
г) не более, чем на два вопроса;
д) менее, чем на два вопроса;
е) более, чем на два вопроса;
ж) не менее, чем на два вопроса?
Решение. Так как вероятность ответа на каждый из вопросов является
постоянной для этого теста, и ответ на каждый из вопросов не зависит от
ответов на другие вопросы, то решение данной задачи связано с формулой
Бернулли (4.1).
Вероятность правильного ответа на один вопрос p = 0, 25, соответственно вероятность не ответить на вопрос q = 0, 75. Эти числа, а также общее
число вопросов n = 10, являются для всех подвопросов задачи постоянными величинами.
а) Здесь k = 1, поэтому согласно формуле Бернулли (4.1) имеем
1
P10 (1) = C10
· (0, 25)1 · (0, 75)10−1 ⇒
⇒ P10 (1) = 10 · 0, 25 · (0, 75)9 ⇒ P10 (1) ≈ 0, 188.
б) Здесь k = 2, поэтому
2
P10 (2) = C10
· (0, 25)2 · (0, 75)10−2 ⇒
9 · 10
⇒ P10 (2) =
· (0, 25)2 · (0, 75)8 ⇒ P10 (1) ≈ 0, 282.
2
в) Здесь k = 3, поэтому
3
P10 (3) = C10
· (0, 25)3 · (0, 75)10−3 ⇒
8 · 9 · 10
· (0, 25)3 · (0, 75)7 ⇒ P10 (1) ≈ 0, 25.
⇒ P10 (3) =
2·3
г) Ответить на не более, чем два вопроса, это означает ответить на 0 вопросов, или ответить на 1 вопрос или ответить на 2 вопроса. Поэтому
P10 (k ≤ 2) = P10 (0) + P10 (1) + P10 (2).
1
Формула была получена Я. Бернулли в его работе «Искусство предположений» (лат. Ars
conjectandi). Сама работа была опубликована в 1713 году (см. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRI\T2A\cyrs\T2A\cyrt\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\
cyrya_\T2A\cyrt\T2A\cyre\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\cyri_\T2A\cyrv\T2A\cyre\T2A\cyrr\
T2A\cyro\T2A\cyrya\T2A\cyrt\T2A\cyrn\T2A\cyro\T2A\cyrs\T2A\cyrt\T2A\cyre\T2A\cyrishrt
(дата обращения: 12.06.2016)).
58
0
Вычислим P10 (0) = C10
· (0, 25)0 · (0, 75)10−0 ⇒
⇒ P10 (0) = 1 · (0, 25)0 · (0, 75)10 ⇒ P10 (0) ≈ 0, 056.
Подставляя найденное число, а также результаты, полученные в а) и б),
имеем
⇒ P10 (k ≤ 2) = 0, 056 + 0, 188 + 0, 282 ⇒ P10 (k ≤ 2) ≈ 0, 526.
д) Ответить менее, чем на два вопроса, это означает ответить на 0 вопросов, или ответить на 1 вопрос. Поэтому
P10 (k < 2) = P10 (0) + P10 (1).
Подставляя результаты, полученные в г) и а), имеем
⇒ P10 (k < 2) = 0, 056 + 0, 188 ⇒ P10 (k < 2) ≈ 0, 244.
е) Ответить более, чем на два вопроса, это означает ответить на 3 вопроса,
или ответить на 4 вопроса, или ответить на 5 вопросов, и так далее, пока
не ответишь на все 10 вопросов.
Естественно, решать таким способом задачу затруднительно, поэтому
нужно определить событие, противоположное данному.
Так как
P10 (k > 2) + P10 (k ≤ 2) = 1, то P10 (k > 2) = 1 − P10 (k ≤ 2).
Учитывая результат, полученный в пункте г), получаем
P10 (k > 2) = 1 − 0, 526 ⇒ P10 (k > 2) ≈ 0, 474.
ж) Аналогично можно ответить и на данный вопрос. Имеем
P10 (k ≥ 2) + P10 (k < 2) = 1.
Поэтому
P10 (k ≥ 2) = 1 − P10 (k < 2).
Подставляя результат, полученный в пункте д), находим
P10 (k ≥ 2) = 1 − 0, 244 ⇒ P10 (k > 2) ≈ 0, 756.
4.2
Формула Пуассона
Теорема 4.2. Пусть в схеме n независимых испытаний событие A наступает в каждом из них с вероятностью p, где n → ∞, а p → 0 таким
образом, что произведение λ = np является постоянным числом. Тогда
вероятность того, что событие A наступит k раз
P (k) = lim
n→∞
λk
k!
e−λ .
Д о к а з а т е л ь с т в о. Предположим, что n конечное число, а
событие A в серии независимых испытаний наступило k раз. Поэтому мы
59
можем применить формулу Бернулли (4.1).
Pn (k) = Cnk pk q n−k
(q = 1 − p).
Преобразуем сомножители правой части.
k
λ
λ
λk
k
Так как λ = np, то p = ⇒ p =
= k.
n
n
n
n−k n −k
λ
λ
λ
Следовательно, q k = 1 −
= 1−
1−
.
n
n
n
n!
Далее, преобразуем первый сомножитель Cnk =
, точнее, завиk!(n − k)!
сящие от n элементы числителя и знаменателя:
n(n − 1)(n − 2) . . . (n − (k − 1))(n − k)(n − k + 1) . . . 2 · 1
n!
=
=
(n − k)!
(n − k)(n − k + 1) . . . 2 · 1
= n(n − 1)(n − 2) . . . (n − (k − 1)).
После этих преобразований
n −k
λk n(n − 1)(n − 2) . . . (n − (k − 1))
λ
λ
Pn (k) =
· 1−
1−
·
.
k!
nk
n
n
Выпишем вторую дробь-сомножитель представления Pn (k) и почленно
поделим каждый сомножитель числителя на n:
n − (k − 1)
n(n − 1)(n − 2) . . . (n − (k − 1)) n n − 1 n − 2
=
·
·
.
.
.
=
nk
n
n
n
n
1
2
k−1
=1· 1−
· 1−
··· 1 −
.
n
n
n
Возвращая новое произведение вместо дроби, имеем
n −k
λk
1
2
k−1
λ
λ
Pn (k) =
· 1−
· 1−
··· 1 −
· 1−
1−
.
k!
n
n
n
n
n
Далее, заставив n стремиться к бесконечности1 , найдём lim Pn (k), учиn→∞
тывая при этом, что константу можно вынести за знак предела:
n −k
λk
1
2
k−1
λ
λ
lim Pn (k) =
· lim 1 −
· 1−
··· 1 −
· 1−
1−
.
n→∞
k! n→∞
n
n
n
n
n
Предполагая, что предел каждого сомножителя является конечным, используем тот факт, что предел произведения равен произведению пределов:
n −k
1
2
k−1
λ
λ
lim 1 −
· 1−
··· 1 −
· 1−
1−
=
n→∞
n
n
n
n
n
1
Так как при этом λ остаётся постоянным, то p → 0.
60
= lim
n→∞
n
−k
1
2
k−1
λ
λ
1−
· lim 1 −
. . . lim 1 −
· lim 1 −
· lim 1 −
.
n→∞
n→∞
n→∞
n n→∞
n
n
n
n
Очевидно, что первые k − 1 и последний пределы равны единице.
n
λ
Что же касается предела lim 1 −
, то он связан с неопределённостью
n→∞
n
типа (1)∞ , то есть, со вторым «замечательным» пределом
n
1
lim 1 +
= e.
n→∞
n
Поэтому, учитывая свойства показательных выражений, а также предела
от непрерывной функции, имеем
n
n
−λ
− nλ !−λ
·(−λ)
λ
λ
λ
= lim 1 −
= e−λ .
= lim 1 −
lim 1 −
n→∞
n→∞
n→∞
n
n
n
λk −λ
Таким образом, действительно lim Pn (k) = e .
n→∞
k!
В практических расчётах используют приближённую формулу, которая
называется формулой Пуассона1 :
λk −λ
∼
e .
Pn (k) =
k!
(4.2)
Замечание 4.2. В силу малости p формулу Пуассона (4.2) иногда называют формулой редких событий.
На практике установлено, что формулу целесообразно применять при
выполнении условий: p < 0, 1 и λ < 9 (или pqn ≤ 10).
Задача 4.2. Завод отправил на базу 5000 доброкачественных изделий.
Вероятность того, что в пути изделие повредится, равно 0,0002. Найдите вероятность того, что на базу прибудут 3 негодных изделия.
Решение. В данной задаче повреждение одного изделия не зависит
от повреждения другого изделия. А так как для каждого изделия вероятность повреждения p = 0, 0002 не меняется, то эта задача решается по
схеме независимых испытаний. Но ввиду того, что 0, 0002 < 0, 1, а n = 5000
достаточно большое число, решение этой задачи по формуле Бернулли (4.1)
1
Формула была получена Д. Пуассоном в его мемуаре «Исследования о вероятностях приговоров
в уголовных и гражданских делах» (Recherches sur la probabilite des jugements en matiere criminelle et
en matiere civile), опубликованном в 1837 году (cм. Гнеденко Б. В. Из истории науки о случайном. М.
: Знание, 1981. С. 42).
Пуассон Дени Симеон (фр. Siméon Denis Poisson, 1781-1840) − французский математик, механик
и физик (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRP\
T2A\cyru\T2A\cyra\T2A\cyrs\T2A\cyrs\T2A\cyro\T2A\cyrn,_\T2A\CYRS\T2A\cyri\T2A\cyrm\T2A\
cyre\T2A\cyro\T2A\cyrn_\T2A\CYRD\T2A\cyre\T2A\cyrn\T2A\cyri (дата обращения: 12.06.2016)).
61
не представляется возможным.
Поэтому можно попробовать, найти приближённое решение. Для этого
по формуле λ = np вычислим λ = 5000 · 0, 0002 ⇒ λ = 1.
Так как λ < 10, то условие задачи удовлетворяет формуле Пуассона (4.1).
13 · e−1
1
P5000 (3) ≈
⇒ P5000 (3) ≈
⇒ P5000 (3) ≈ 0, 06.
3!
6e
Задача 4.3. В работе службы скорой помощи районного центра происходит три вызова в час. Определите вероятность
а) хотя бы одного вызова за один час;
б) пяти вызовов за 2 часа.
Решение. Поскольку потенциальных клиентов1 у службы скорой помощи в районе неизмеримо больше, чем реальных клиентов, то вероятность k
вызовов вычисляется по формуле Пуассона (4.2), в которой λ − показатель
интенсивности: показывает число вызовов в час.
Поскольку определить буквально вероятность «хотя бы одного вызова»
невозможно, то найдём вероятность противоположного события: «нуль вызовов в час». То есть, имеем λ = 3, k = 0. Поэтому
30 · e−3
1
P (0) ≈
⇒ P (0) ≈ 3 ⇒ P (0) ≈ 0, 0498.
0!
e
Следовательно, вероятность искомого события определяется
P = 1 − P (0) ⇒ P = 1 − 0, 0498 ⇒ P = 0, 9502.
б) Эта задача связана с так называемым простейшим потоком событий, который вычисляется по изменённой формуле Пуассона:
(λt)k −(λt)
∼
Pn (k, t) =
e
.
k!
(4.3)
В нашем случае λ = 3, t = 2, k = 5. Поэтому
(3 · 2)5 −3·2
65
·e
⇒ P (5, 2) ≈
· e−6 ⇒ P (5, 2) ≈ 0, 1606.
P (5, 2) ≈
5!
120
Задача 4.4. В городке 1000 домов, каждый из которых застрахован
от пожара в некоторой страховой компании на сумму 1000000 рублей.
Страховой взнос за год составляет 2000 рублей. Для данного городка вероятность пожара в течение года оценивается в 0,003. Какова вероятность того, что в течение года страховая компания потерпит убытки?
Решение. Страховая компания собирает в городке со всех домов общий
взнос в 2000000 рублей. Следовательно, если сгорят за год не менее, чем
три дома, то компания потерпит убытки.
Вычислим параметр λ = 1000 · 0, 0003 ⇒ λ = 3. Так λ = 3 < 10,
1
К сожалению.
62
p = 0, 003 < 0, 1, а n = 1000 достаточно большое число, то можно применить изменённую формулу Пуассона (4.3).
Прежде, чем ответить на главный вопрос, вычислим предварительно
вероятности менее печальных событий: «не сгорит ни один дом», «сгорит
один дом», «сгорят два дома».
30 · e−3
1
P1000 (0) ≈
⇒ P (0) ≈ 3 ⇒ P (0) ≈ 0, 0498.
0!
e
1
−3
3 ·e
3
P1000 (1) ≈
⇒ P (0) ≈ 3 ⇒ P (0) ≈ 0, 1494.
1!
e
2
−3
3 ·e
9
P1000 (2) ≈
⇒ P (0) ≈ 3 ⇒ P (0) ≈ 0, 2241.
2!
2e
Зная эти вероятности, найдём вероятность события, противоположного
искомому: Ā =«сгорят менее трёх домов».
P (Ā) = 0, 0498 + 0, 1494 + 0, 2241 ⇒ P (Ā) = 0, 4233.
Если событие Ā =«сгорят не менее чем три дома», то так как
P (A) + P (Ā) = 1,
имеем P (A) = 1 − 0, 4233 ⇒ P (Ā) = 0, 5767.
вероятность того, что страховая компания в течение
Таким образом, года потерпит убытки, составляет 0, 5767.
4.3
Локальная и интегральная теоремы Лапласа
Если же при достаточно большом n условия формулы Пуассона (4.2) не
выполняются, следует обратиться к локальной теореме Муавра-Лапласа.
Для её формулировки понадобится следующее
Определение 4.2. Функция
x2
1 −2
ϕ(x) = √ e
.
2π
называется функцией Гаусса1 .
Функцию Гаусса в табличном виде можно найти во всех справочниках и
учебниках, имеющих отношение к теории вероятностей и математической
1
Гаусс Иоганн Карл Фридрих (нем. Gauβ Johann Carl Friedrich, 1777−1855, Гёттинген) −
немецкий математик, механик, физик, астроном и геодезист. Один из величайших математиков
всех времён, «король математиков Европы». Иностранный член Шведской и Российской Академий
наук, и английского Королевского общества. (см. Википедия [Электронный ресурс] : URL : https:
//ru.wikipedia.org/wiki/\T2A\CYRG\T2A\cyra\T2A\cyru\T2A\cyrs\T2A\cyrs,_\T2A\CYRK\T2A\
cyra\T2A\cyrr\T2A\cyrl_\T2A\CYRF\T2A\cyrr\T2A\cyri\T2A\cyrd\T2A\cyrr\T2A\cyri\T2A\cyrh
(дата обращения: 12.06.2016)).
63
статистике1 . Но для того, чтобы пользоваться её таблицей, нужно знать
следующие
Свойства функции Гаусса
1. Функция является чётной, то есть
ϕ(−x) = ϕ(x)
(4.4)
x → ∞, то ϕ(x) → 0.
(4.5)
2. Если2
Теорема 4.3. Локальная теорема Муавра-Лапласа3 . Если в схеме
n независимых испытаний событие A наступает в каждом из них с вероятностью p, где 0 < p < 1, а n → ∞, то вероятность того, что
событие A наступит k раз
P (k) = lim √
n→∞
k − np
ϕ(x), где x = √
.
npq
npq
1
(Здесь, как и ранее, q = 1 − p.) В практических расчётах используют
приближённую формулу, которая называется локальной формулой Лапласа:
k − np
1
ϕ(x), где x = √
(q = 1 − p).
(4.6)
Pn (k) ∼
= √
npq
npq
Замечание 4.3. Следует заметить, что чем ближе значения вероятностей p и q к 0, 5, тем точнее формула. А при p, близких к 0 или 1 локальная
формула Муавра-Лапласа (4.6) даёт большую погрешность, если сравнивать с результатами, полученным с помощью формулы Бернулли (4.1).
Являясь «конкурентом» формулы Пуассона (4.2), локальная формула
применяется обычно при npq > 10.
Задача 4.5. В честь праздника состоялся массовый забег на дистанцию 10 км. В забеге приняли участие 250 человек. Обычно в забегах такого типа из каждых десяти участников 8 доходят до финиша. Какова
вероятность того, что до финиша добежали 200 человек?
Решение. Так как вероятность добежать до финиша для каждого участника есть число постоянное, то перед нами схема Бернулли (см. определение 4.1) при большом числе испытаний. В силу того, что p = 0, 8 > 0, 1,
1
В частности, её можно найти в прил. 1.
Как видно из таблицы значений функции Гаусса, при x ≥ 4 ϕ(x) практически равна нулю.
3
Впервые теорема была опубликована А. де Муавром в работе «Аналитические этюды» (Miscellanea
Analytica) в 1730 году. В 1812 году П. Лаплас, обобщив результат Муавра, опубликовал теорему в
«Аналитической теории вероятностей» (Theorie analytique des probabilites) (см. Майстров Л. И. Теория вероятностей. Исторический очерк. М. : Наука, 1967. С. 174, Гнеденко Б. В. Из истории науки... С. 34, Википедия [Электронный ресурс] : URL : https://en.wikipedia.org/wiki/De_Moivre\
T2A\textendashLaplace_theorem (дата обращения: 12.06.2016)).
2
64
вероятность можно вычислить с помощью локальной формулы МуавраЛапласа (4.6).
Определим q = 1 − 0, 8 ⇒ q = 0, 2. По условию n = 250, а k = 200.
200 − 250 · 0, 8
Следовательно, аргумент функции Гаусса x = √
⇒ x = 0.
250 · 0, 8 · 0, 2
Из таблицы значений функции Гаусса (прил. 1) или с помощью калькулятора находим ϕ(0) = 0, 3989.
1
· 0, 3989 ⇒ P250 (200) ≈ 0, 063.
Таким образом, P250 (200) ≈ √
250 · 0, 8 · 0, 2
Поэтому,
вероятность того, что 200 человек добежали до финиша,
равна 0, 063.
Далее возникает вопрос, как определять вероятность того, что в схеме
независимых испытаний событие A наступает k раз, при этом значения
k ∈ [k1 ; k2 ]?
Если n не велико, а число значений, попавших в диапазон мало, то,
используя несовместность событий «k = k1 », «k = k1 + 1», ..., «k = k2 »,
можно там, где применимы формулы Бернулли (4.1) и Пуассона (4.2), воспользоваться ими.
Там же, где это невозможно, обращаются к интегральной теореме Лапласа. Прежде, чем её сформулировать, рассмотрим следующее
Определение 4.3. Функция
1
Φ(x) = √
2π
Zx
t2
e− 2 dt
0
называется интегральной функцией Лапласа.
Точно так же, как и функцию Гаусса, интегральную функцию Лапласа
можно найти в табличном виде во всех справочниках и учебниках, имеющих отношение к теории вероятностей и математической статистике1 . Но
для того, чтобы пользоваться таблицей функции, нужно знать следующие
Свойства интегральной функции Лапласа
1. Функция является нечётной, то есть
Φ(−x) = −Φ(x)
(4.7)
x → ∞, то Φ(x) → 0, 5.
(4.8)
2. Если2
1
В частности, её можно найти в прил. 2.
Как видно из таблицы значений интегральной функции Лапласа, при x ≥ 4 Φ(x) практически
равна 0, 5.
2
65
Теорема 4.4. Интегральная теорема Лапласа1 . Если в схеме n
независимых испытаний событие A наступает в каждом из них с вероятностью p, где 0 < p < 1, а n → ∞, то вероятность того, что событие
A наступит от k1 до k2 раз
k1 − np
k2 − np
P (k1 ; k2 ) = lim (Φ(x2 ) − Φ(x1 )), где x1 = √
, x2 = √
.
n→∞
npq
npq
(Здесь, как и ранее, q = 1 − p.)
На практике используют приближённую формулу:
k1 − np
k2 − np
Pn (k1 ; k2 ) = Φ(x2 ) − Φ(x1 ), где x1 = √
, x2 = √
,
npq
npq
(4.9)
(q = 1 − p).
Задача 4.6. В условиях задачи 4.5 определите вероятность того,
что до финиша добежали от 180 до 210 человек.
Решение. Как и задача 4.5, эта задача посвящена схеме Бернулли (см.
определение 4.1). Правда, воспользоваться локальной формулой МуавраЛапласа (4.6), находя для каждого k от 180 до 210 вероятность, проблематично. Поэтому воспользуемся интегральной формулой Лапласа (4.9).
Зная, что n = 250; p = 0, 8; q = 0, 2; k1 = 180, а k2 = 210, вычислим соответствующие значения аргумента для интегральной функции Лапласа.
180 − 250 · 0, 8
−20
x1 = √
⇒ x1 =
⇒ x1 = −3, 162;
6, 3246
250 · 0, 8 · 0, 2
10
210 − 250 · 0, 8
⇒ x2 =
⇒ x2 = 1, 581.
x2 = √
6, 3246
250 · 0, 8 · 0, 2
Подставляя найденные значения аргумента в формулу (4.9), воспользуемся таблицей значений интегральной функции Лапласа (прил. 2):
Φ(1, 1581)−Φ(−3, 162) = Φ(1, 1581)+Φ(3, 162) = 0, 3761+0, 4993 = 0, 8754.
Следовательно,
вероятность того, что до финиша добежали от 180 до 210
человек, равна 0, 8754.
Задача 4.7. Театр, вмещающий 800 человек, имеет два разных входа, каждым из которых может воспользоваться любой зритель с одинаковой вероятностью. Около каждого входа есть свой гардероб. Сколько
мест должен иметь гардероб театра, чтобы в дни аншлага с вероятностью 0,9 любой зритель имел возможность сдать свои вещи в тот
1
Теорема носит имя П. Лапласа, хотя первым её сформулировал А. де Муавр в работе «Аналитические этюды». П. Лаплас, уточнив интегральную теорему Муавра с целью выяснения величины
ошибки при её практическом использовании, опубликовал теорему в «Аналитической теории вероятностей» (см. Гнеденко Б. В. Из истории науки... С. 34).
66
гардероб, который находится при том входе, в который он вошёл в театр?
Решение. Так как общее число независимых испытаний в данном случае совпадает с числом зрителей, то n = 800.
Поскольку число входов равно двум, а в каждый из них любой из зрителей может войти с одной и той же вероятностью, то p = 0, 5. Поэтому
q = 0, 5.
Очевидно, что число зрителей, которые могут посетить театр, колеблется в диапазоне от k1 до k2 , где k1 − наименьшее число зрителей, пришедших
в один из дней в театр, а k2 − наибольшее число зрителей, посетивших театр в какой-либо из дней.
Оценивая ситуацию реально, можно предположить, что k1 = 0. Задача
состоит в том, чтобы найти k2 .
Воспользуемся приближённой формулой (4.9).
В нашем случае
np = 800 · 0, 5 ⇒ np = 400,
а
p
√
√
√
√
npq = 400 · 0, 5 ⇒ npq = 200 ⇒ npq ≈ 14, 14.
Подставим все данные в формулу
0 − 400
k2 − 400
−Φ
.
P800 (0; k2 ) = Φ
14, 14
14, 14
Из условия задачи
P800 (0; k2 ) = 0, 9,
получаем уравнение
k2 − 400
0 − 400
Φ
−Φ
= 0, 9.
14, 14
14, 14
Так как
0 − 400
Φ
= Φ(−28, 29),
14, 14
то, учитывая нечётность интегральной функции Лапласа, из таблицы ёе
значений (прил. 2) находим
Φ(28, 29) = 0, 5.
Подставляя это значение в составленное уравнение
k2 − 400
Φ
− (−0, 5) = 0, 9,
14, 14
Получаем новое уравнение
k2 − 400
Φ
= 0, 4.
14, 14
Из таблицы значений интегральной функции Лапласа (прил. 2), зная зна67
чение функции в точке x
Φ(x) = 0, 4,
найдём соответствующее значение1
x = 1, 28.
Следовательно,
k2 − 400
= 1, 28.
14, 14
Тогда
k2 = 1, 28 · 14, 4 + 400 ⇒ k2 = 418, 1.
Таким образом. можно сделать вывод о том, что
в гардеробе должно быть примерно 419 мест.
4.4
Вероятность отклонения относительной частоты события
от постоянной вероятности в независимых испытаниях
Теорема 4.5. Если в схеме n независимых испытаний событие A наm
ступает в каждом из них с вероятностью p, где 0 < p < 1, а
−
n
относительная частота события A, то для любого заданного числа ε > 0
r n
m
P
−p <ε ∼
.
= 2Φ ε
n
pq
(Здесь, как и ранее, q = 1 − p.)
Д о к а з а т е л ь с т в о. Преобразуем неравенство
m
− p < ε,
n
«подогнав» его под условия интегральной теоремы Лапласа (см. 4.4).
Раскрывая модуль, получим двойное неравенство
m
−ε <
− p < ε,
n
Затем, умножим все части неравенства на n:
−εn < m − np < εn.
√
Далее, разделим все части неравенства на npq:
εn
m − np
εn
−√
< √
<√
.
npq
npq
npq
Сократив числитель и знаменатель левой и правой дробей на
1
√
n:
На самом деле Φ(1, 28) = 0, 3997, но различие в 0, 0003 незначительно, поэтому им можно пренебречь.
68
√
√
ε n
ε n m − np
<√
,
−√ < √
pq
npq
npq
введём обозначения:
√
√
ε n
ε n
x1 = − √ ; x2 = √ .
pq
pq
√
√ √ r √ ε n m − np ε n
ε n
ε n
n
P −√ ≤ √
≤ √
=Φ √
− Φ −√
= 2Φ ε
.
pq
npq
pq
pq
pq
pq
Что и требовалось доказать.
Задача 4.8. Вероятность появления события в каждом из независимых испытаний равна 0,5. Сколько нужно провести испытаний n, чтобы
с вероятностью γ = 0, 7698 можно было ожидать, что относительная
частота появления события ε отклонится от его вероятности по абсолютной величине не более чем на 0,02.
Решение. Согласно условию задачи p = 0, 5, q = 0, 5. То есть, мы имеем дело со схемой Бернулли (см. определение 4.1).
Согласно теореме 4.5
r m
n
− p < ε ≈ 2Φ ε
.
P
n
pq
r n
По условию задачи ε = 0, 02, p = q = 0, 5, а 2Φ ε
= 0, 7698.
pq
√ r
n
n
0, 7698
То есть, Φ 0, 02 ·
=
⇒ Φ 0, 02 ·
= 0, 3849.
0, 5 · 0, 5
2
0, 5
Согласно таблицам интегральной функции Лапласа (прил. 2)
Φ(x) = 0, 3849, если x = 1, 2.
Таким образом,
√
√
√
√
n
1, 2 √
= 1, 2 ⇒ 2 n =
0, 02 ·
n ⇒ 2 n = 60 ⇒ n = 30 ⇒ n = 900.
0, 5
0, 02
для выполнения условий задачи нужно провести 900
испытаний.
Задача 4.9. Вероятность выхода устройства из строя во время
проведения эксперимента, целью которого является определение надежности устройства в работе, равна 0,2. Было проверено 625 устройств.
Чему равна вероятность, того, что абсолютная величина отклонения
относительной частоты выхода из строя устройств от вероятности
p=0,2 не превысит 0,02?
Решение. По условию задачи n = 625, p = 0, 2, ε = 0, 02.
Так как q = 1 − p, то q = 0, 8. Тогда аргумент интегральной функции
Следовательно,
69
Лапласа в теореме 4.5
r
r
r
r
25
n
625
n
n
= 0, 02 ·
⇒ε
= 0, 02 ·
⇒ε
= 1, 25.
ε
pq
0, 2 · 0, 8
pq
0, 4
pq
Из таблиц интегральной функции Лапласа (прил. 2) следует, что
Φ(1, 25) = 0, 3944.
Поэтому,
m искомая вероятность
m
P
− 0, 2 < 0, 02 ≈ 2 · 0, 3944 ⇒ P
− 0, 2 < 0, 02 ≈ 0, 7888.
625
625
вероятность, того, что абсолютная величина отклонения относительной частоты выхода из строя устройств
В итоге имеем, что
от вероятности p=0,2 не превысит 0,02 приблизительно равна 0,7888.
4.5
Наивероятнейшее число наступлений события
в схеме независимых испытаний
Пусть в схеме n независимых испытаний событие A наступает в каждом
из них с постоянной вероятностью p. Тогда имеет место следующее
Определение 4.4. Число k называется наивероятнейшим числом
наступления события A в схеме независимых испытаний, если вероятность того, что событие A наступит k раз, не меньше вероятности
остальных возможных исходов опыта.
Теорема 4.6. Пусть в схеме n независимых испытаний событие A
наступает в каждом из них с вероятностью p. Тогда для наивероятнейшего числа k наступлений события A справедливо двойное неравенство:
np − q ≤ k ≤ np + p (q = 1 − p).
(4.10)
Д о к а з а т е л ь с т в о. Предположим, что k − наивероятнейшее
число в схеме Бернулли (см. определение 4.1) при общем числе испытаний
n. Тогда, согласно определению 4.4, k удовлетворяет следующей системе
неравенств:
(
Pn (k) ≥ Pn (k − 1),
Pn (k) ≥ Pn (k + 1).
Согласно формуле Бернулли (4.1) имеем
n!
pk q n−k ;
Pn (k) =
k!(n − k)!
n!
Pn (k − 1) =
pk−1 q n−k+1 ;
(k − 1)!(n − k + 1)!
70
n!
pk+1 q n−k−1 ;
(k + 1)!(n − k − 1)!
Подставляя данные представления в систему, получаем

n!
n!
k n−k


≥
pk−1 q n−k+1 ,
 k!(n − k)! p q
(k − 1)!(n − k + 1)!
n!
n!



pk q n−k ≥
pk+1 q n−k−1 .
k!(n − k)!
(k + 1)!(n − k − 1)!
Сократив обе части первого неравенства системы на
n!
pk−1 q n−k ,
(k − 1)!(n − k)!
получим
p
q
≥
.
k
n−k+1
Далее, подставляя q = 1 − p и домножая обе части неравенства на
k(n − k + 1),
имеем
(n − k + 1)p ≥ k(1 − p) ⇒ np − pk + p ≥ k − pk.
В результате, после приведения подобных получаем, что
k ≤ np + p.
Проделаем аналогичные действия со вторым неравенством системы.
Для этого сократим обе части второго неравенства системы на
n!
pk q n−k−1 ,
k!(n − k − 1)!
и получим
q
p
≥
.
n−k
k+1
Далее, домножая обе части неравенства на
Pn (k + 1) =
(n − k)(k + 1),
имеем
q(k + 1)p ≥ p(n − k) ⇒ qk + pk ≥ pn − pk.
Прибавляя к обеим частям неравенства pk и вычитая q, получим
qk + pk ≥ pn − q ⇒ (p + q)k ≥ pn − q.
Так как p + q = 1, то в итоге имеем
k ≥ pn − q.
Таким образом, действительно имеет место двойное неравенство
np − q ≤ k ≤ np + p.
71
Задача 4.10. В результате каждого визита страхового агента договор заключается с вероятностью 0,1. Найти наивероятнейшее число
заключенных договоров после 25 визитов.
Решение. По условию задачи n = 25, p = 0, 1. Тогда q = 1 − 0, 1, то
есть, q = 0, 9.
Согласно теореме 4.6 25 · 0, 1 − 0, 9 ≤ k ≤ 25 · 0, 1 + 0, 1. После вычислений
имеем интервал 1, 6 ≤ k ≤ 2, 6. Так как искомое число является целым, то
им может быть только k = 2.
наивероятнейшее число заключенных договоров после
Следовательно,
25 визитов равно двум.
72
Дискретные случайные величины
5
Если не знаешь, как поступить,
Очень полезно кинуть монетку.
Иэн Бэнкс
5.1
Понятие случайной величины
Когда подбрасывается игральная кость, то появляются случайные числа
1, 2, 3, 4, 5, 6. При этом определить, какое именно появится число, заранее
невозможно.
Точно также невозможно определить, сколько человек зайдёт в течение
часа в ближайший магазин, или сколько вызовов в течение этого часа поступит на городскую станцию скорой помощи1 .
Но при всей случайности исходов, образующих полную группу этих
опытов-наблюдений, с ними связана одна закономерность. Каждый из этих
опытов определяет (одну или несколько) случайную величину, принимающую числовые значения, связанные с исходами, каждому из которых соответствует определённая вероятность.
Пусть Ω = {ω} − пространство элементарных событий некоторого опыта, а X = {x} − конечное (или сравнимое с множеством натуральных
чисел2 ) числовое множество.
Определение 5.1. Функция, отображающая пространство Ω в множество X, называется дискретной случайной величиной3 .
Определённая таким образом дискретная случайная величина обозначается X = X(ω).
Рассмотрим несколько примеров:
1. Опыт с подбрасыванием игральной кости. Пространство Ω определяют
события «выпало 1 очко», «выпали 2 очка», ..., «выпали 6 очков». Если
задать множество X, состоящее из первых 6 чисел натурального ряда, то
можно определить случайную величину X = X(ω) как «число очков, вы1
Конечно, хотелось бы, чтобы их вообще не было, но об этом можно только мечтать.
Такое множество называется cчётным множеством, то есть множеством, каждому элементу которого можно единственным образом поставить во взаимно однозначное соответствие натуральное
число.
3
Понятие случайной величины без введения термина впервые встречается в 1832 году в работе
С. Д. Пуассона «О вероятности средних результатов наблюдений» как «некоторой вещи, способной
принимать значения a1 , a2 , . . . an с соответствующими вероятностями» (см. Гнеденко Б. В. Из истории
науки... С. 42).
Понятие случайной величины в современном смысле в 1909 году ввёл К. Пирсон в своей работе
«О новом методе определения корреляции» (On a New Method of Determining Correlation) (см. Earliest
Known Uses of Some of the Words of Mathematics (V) [Электронный ресурс] : URL : http://jeff560.
tripod.com/v.html (дата обращения: 12.06.2016)).
2
73
павших при однократном подбрасывании кости».
2. Опыт с магазином. Событием ω является посещение магазина очередным
покупателем. Каждому такому событию можно поставить в соответствие
число покупателей, оказавшихся в магазине в данный час. Таким образом,
случайная величина Y = Y (ω) − «число покупателей в магазине в течение
часа».
3. Опыт с последовательным подбрасыванием n монет. Событиями являются выпадение герба или решётки. Можно определить несколько случайных величин на множестве этих событий: случайная величина Z = Z(ω) −
«число выпадений герба», случайная величина T = T (ω) − «число выпадений решётки», случайная величина V = V (ω) − «число серий выпадения
двух гербов подряд».
Далее возникает вопрос о способах задания дискретной случайной величины.
Если задавать случайную величину перечислением множества её значений, то может оказаться, что у разных случайных величин могут оказаться
одинаковые множества значений. Например, при подбрасывании одной монеты множество значений случайной величины X − «число выпадений
герба» состоит из двух чисел {0, 1}. Точно также, при рождении одного
ребёнка в родильном доме случайная величина Y − «число родившихся
мальчиков» тоже состоит из двух чисел {0, 1}. Но эти случайные величины
отличаются друг от друга, так как событиям из областей их определения
соответствуют разные вероятности. В случае с монетой вероятность каждого события равна 0, 5, а, согласно статистике, вероятность рождения мальчика 0, 515 (соответственно нерождения 0, 485).
Следовательно, для задания случайной величины недостаточно задать
только множество её значений. Необходимо также определить вероятности
событий, связанных с этими значениями.
5.2
5.2.1
Закон распределения дискретной случайной величины
Определение закона распределения дискретной случайной величины
Предположим, что X = X(ω) − дискретная случайная величина, единственными значениями которой являются числа
x1 , x2 , . . . , xn .
Так как каждое из этих значений является образом некоторого события:
x1 = X(ω1 ), x2 = X(ω2 ), . . . , xn = X(ωn ),
то вероятности P (ωi ) определяют вероятности1 P (ωi : X = xi ), которые
1
То есть вероятности событий, заключающихся в том, что случайная величина X принимает значение xi .
74
для краткости обозначим через
pi = P (X = xi ), (i = 1, n).
Поскольку для каждого ωi существует только одно значение xi = X(ωi ),
то события X = x1 , X = x2 , ..., X = xn образуют полную группу событий
опыта. Поэтому сумма вероятностей этих событий равна единице:
p1 + p2 + · · · + pn = 1.
(5.1)
Замечание 5.1. Если множество значений дискретной случайной величины X сравнимо с множеством натуральных чисел, то есть является
бесконечным множеством, то числовой ряд
∞
X
pn = p1 + p2 + · · · + pn + . . .
n=1
сходится, а его сумма равна единице.
Определение 5.2. Отображение, при котором каждому возможному значению дискретной случайной величины соответствует вероятность события, при котором случайная величина принимает это значение, называется законом распределения дискретной случайной
величины.
Так как закон распределения является числовой функцией, то его можно
задать в виде таблицы, или графика, или аналитически с помощью некоторой формулы. Рассмотрим первые два из этих способов.
5.2.2
Табличное задание закона распределения
При табличном задании значения случайной величины упорядочивают
по возрастанию, записывая в первой строке таблицы, а соответствующие
значения вероятностей располагают во второй её строке:
X x1 x2 . . .
p p 1 p2 . . .
xn−1 xn
pn−1 pn
(5.2)
Критерием правильности составления закона распределения является
условие (5.1).
Задача 5.1. Дан закон распределения дискретной случайной величины
δ
δ 2 5 8
11
p 0,46 ? 0,11 0,14
Найдите неизвестную вероятность.
Решение. Так как таблица представляет закон распределения дискретной случайной величины δ, то сумма вероятностей во второй строке должна
75
быть равна единице.
Пусть неизвестная вероятность равна p.
Тогда,
0, 46 + p + 0, 11 + 0, 14 = 1.
Следовательно, p = 1 − 0, 46 − 0, 11 − 0, 14 ⇒ p = 0, 29.
Задача 5.2. Делопроизводитель написал три письма и подписал три
конверта. Затем, произвольным образом, разложил письма по конвертам и отправил. Случайная величина X − число адресатов, получивших
свои письма. Составьте закон распределения X.
Решение. Разложить три письма по конвертам с адресами можно следующим образом:
положить в один из конвертов первое письмо, и положить в один из
оставшихся конвертов второе письмо и положить в один из оставшихся после этих действий конвертов третье письмо1 .
Так как положить первое письмо в конверт можно тремя способами и
положить второе письмо (после того, как в один из конвертов положено
первое) можно только двумя способами и положить третье письмо (после того, как в в двух конвертах уже лежат письма) можно только одним
способом, то общее число способов, согласно принципу произведения,
n = 3 · 2 · 1! ⇒ n = 6.
Случайная величина X может принимать четыре значения:
1) X = 0, если ни один из адресатов не получил своё письмо.
2) X = 1, если только один из адресатов получил своё письмо.
3) X = 2, если только два адресата получили свои письма.
4) X = 3, если все адресаты получили свои письма.
Рассмотрим каждое из этих событий отдельно:
Первое из событий X = 0 может наступить в двух случаях:
а) первый получит письмо, адресованное второму, второй − третьему, третий − первому;
б) первый получит письмо, адресованное третьему, второй − первому, третий − второму.
2
1
Поэтому, p({X=0} = ⇒ p({X=0} = .
6
3
Второе из событий X = 1 может наступить в трёх случаях:
а) первый получит письмо, адресованное ему, второй − третьему, третий
− второму;
б) первый получит письмо, адресованное третьему, второй − своё, третий
− первому;
1
Другое решение заключается в том, чтобы увидеть, что это задача на перестановки из трёх
элементов, а значит, n = 3! ⇒ n = 6.
76
в) первый получит письмо, адресованное второму, второй − первому, третий − своё.
3
1
Поэтому, p({X=1} = ⇒ p({X=1} = .
6
2
Третье из событий X = 2 не наступит никогда,
следовательно, p({X=2} = 0.
Так как четвёртое событие X = 3 может наступить только в одном слу1
чае, то p({X=1} = .
6
1
1
1
В силу того, что + + 0 + = 1, можно утверждать, что закон
3
2
6
распределения дискретной случайной величины X имеет следующий вид:
X
0 1 2 3
1 1
1
p
0
3 2
6
Задача 5.3. В магазине имеется 10 автомобилей определённой марки. Среди них 6 чёрного цвета, 3 серого и 1 белого. Представители фирмы обратились в магазин с предложением о продаже им 3 автомобилей
этой марки, безразлично какого цвета. Случайная величина Y − число
случайно проданных автомобилей чёрного цвета. Составьте закон распределения Y .
Решение. Общее число выбранных автомобилей три из десяти, при
этом при выборе порядок не имеет значения, поэтому выбор реализуется с
помощью сочетаний:
10!
3
⇒ n = 120.
n = C10
⇒n=
3! · 7!
Установим значения, которые может принимать дискретная случайная
величина Y :
Число чёрных автомобилей среди купленных может быть Y = 0, или
Y = 1, или Y = 2, или Y = 3.
Определим соответствующие события и их вероятности:
1. Y = 0: A0 =куплены нуль чёрных автомобилей из 6 чёрных и
B0 =куплены три нечёрных автомобиля из четырёх нечёрных.
Найдём число благоприятных исходов, соответствующих Y = 0.
4!
m(A0 ) = C60 ⇒ m(A0 ) = 1; m(B0 ) = C43 ⇒ m(B0 ) =
⇒ m(B0 ) = 4.
3! · 1!
Согласно правилу произведения (см. теорему 1.2) число благоприятных
исходов
m({Y=0} = m(A0 ) · m(B0 ), ⇒ m({Y=0} = 1 · 4 ⇒ m({Y=0} = 4.
Следовательно, вероятность
77
4
1
⇒ p({Y=0} = .
120
30
2. Y = 1: A1 =куплены один чёрный автомобиль из 6 чёрных и
B1 =куплены два нечёрных автомобиля из четырёх нечёрных.
Найдём число благоприятных исходов, соответствующих Y = 1.
4!
m(A1 ) = C61 ⇒ m(A1 ) = 6; m(B1 ) = C42 ⇒ m(B1 ) =
⇒ m(B1 ) = 6.
2! · 2!
Согласно правилу произведения (см. теорему 1.2) число благоприятных
исходов
m({Y=1} = m(A1 ) · m(B1 ), ⇒ m({Y=1} = 6 · 6 ⇒ m({Y=1} = 36.
Следовательно, вероятность
36
3
p({Y=1} =
⇒ p({Y=1} = .
120
10
p({Y=0} =
3. Y = 2: A2 =куплены два чёрных автомобиля из 6 чёрных и
B2 =куплен один нечёрный автомобиль из четырёх нечёрных.
Найдём число благоприятных исходов, соответствующих Y = 2.
6!
⇒ m(A2 ) = 15;
m(A2 ) = C62 ⇒ m(A2 ) =
2! · 4!
m(B2 ) = C41 ⇒ m(B2 ) = 4.
Согласно правилу произведения (см. теорему 1.2) число благоприятных
исходов
m({Y=2} = m(A2 ) · m(B2 ), ⇒ m({Y=2} = 15 · 4 ⇒ m({Y=2} = 60.
Следовательно, вероятность
1
60
⇒ p({Y=2} = .
p({Y=2} =
120
2
4. Y = 3: A3 =куплены три чёрных автомобиля из 6 чёрных и
B3 =куплены нуль нечёрных автомобилей из четырёх нечёрных.
Найдём число благоприятных исходов, соответствующих Y = 3.
6!
m(A3 ) = C63 ⇒ m(A3 ) =
⇒ m(A3 ) = 20;
3! · 3!
m(B3 ) = C40 ⇒ m(B3 ) = 1.
Согласно правилу произведения (см. теорему 1.2) число благоприятных
исходов
m({Y=3} = m(A3 ) · m(B3 ), ⇒ m({Y=3} = 20 · 1 ⇒ m({Y=3} = 20.
Следовательно, вероятность
20
1
p({Y=3} =
⇒ p({Y=3} = .
120
6
1
3
1 1
Так как
+
+ + = 1, то можно утверждать, что закон распре30 10 2 6
78
деления дискретной случайной величины Y имеет следующий вид:
Y
0
1
p
30
1 2 3
3 1 1
10 2 6
Задача 5.4. Экзаменатор задаёт студенту, прогулявшему весь семестр, дополнительные вопросы. Вероятность того, что студент может ответить на заданный вопрос, равна 0, 8. Преподаватель прекращает экзамен, как только студент не отвечает на очередной вопрос.
Случайная величина Z − число дополнительно заданных вопросов.
1.Составьте закон распределения Z.
2. Найдите наивероятнейшее число заданных студенту дополнительных
вопросов.
Решение. Теоретически, в случае студента-всезнайки и неутомимого
преподавателя, случайная величина Z может принимать бесконечное число целочисленных значений, начиная от единицы.
Попробуем установить вероятности первых событий, а затем, закон их
изменения:
1. Z = 1: A1 =студент не ответил на первый вопрос.
p({Z=1}) = 1 − 0, 8 ⇒ p({Z=1}) = 0, 2.
2. Z = 2: A2 =студент ответил на первый вопрос и
B2 =не ответил на второй вопрос.
Так как A2 и B2 − независимые события, то
p({Z = 2}) = p({A2 }) · p({B2 }) ⇒
⇒ p({Z = 2}) = 0, 8 · (1 − 0, 8) ⇒ p({Z = 2}) = 0, 16.
3. Z = 3: A31 =студент ответил на первый вопрос и
A32 =студент ответил на второй вопрос и
B3 =не ответил на третий вопрос.
Так как A31 , A32 и B3 − независимые события, то
p({Z = 3}) = p({A31 }) · p({A32 }) · p({B3 }) ⇒
⇒ p({Z = 3} = (0, 8)2 · (1 − 0, 8) ⇒ p({Z = 3}) = 0, 128.
Можно догадаться, что
p({Z = 4} = (0, 8)3 · (1 − 0, 8) ⇒ p({Z = 4} = 0, 1024.
Вероятности соответствующих событий, начиная со второго события,
образуют бесконечно убывающую геометрическую прогрессию со знаменателем q = 0, 8 и первым членом b1 = 0, 2.
Таким образом, событию {Z = k} соответствует вероятность
0, 2 · (0, 8)k−1 .
Согласно замечанию 5.1, множество значений дискретной случайной
79
величины Z является счётным множеством, поэтому вероятности, соответствующие этим значениям, являются членами бесконечного ряда. Так как
они являются одновременно членами бесконечно убывающей геометрической прогрессии, то этот ряд сходится.
b1
сумму членов этого ряда
Найдём по известной формуле S =
1−q
0, 2
S=
⇒ S = 1.
1 − 0, 8
Так как S = 1, то можно утверждать, что закон распределения для дискретной случайной величины имеет вид
Y
1
2
3
...
p 0, 2 0, 16 0, 128 . . .
k
...
k−1
0, 2 · (0, 8)
...
Видя перед глазами закон распределения, легко ответить на второй
вопрос задачи.
Наивероятнейшее число заданных студенту дополнительных вопросов
равно одному, так как именно этому событию соответствует наибольшая
вероятность.
Замечание 5.2. С точки зрения теоретической механики закон распределения дискретной случайной величины X можно рассматривать как
расположение на прямой системы материальных «точек» x1 , x2 , . . . , каждой из которых соответствует личная «масса» pi . При этом общая «масса»
системы равна единице1 .
5.2.3
Графическое задание закона распределения
p
p3
pn
p2
pn−1
p1
x1
x2x3
xn−1 xn
График закона распределения в декартовой системе координат, на горизонтальной оси
которой откладываются значения x, а на вертикальной −
x вероятности, называется многоугольником распределения (рис.
5.1).
Рис. 5.1
Задача 5.5. В условиях задачи 5.1 постройте многоугольник распределения δ.
Решение. В системе координат x − p построим точки, взяв за их координаты соответствующие значения из полученного при решении задачи
1
Здесь i пробегает конечное или бесконечное подмножество множества натуральных чисел, а под
«точкой» xi понимается возможное значение случайной величины X.
80
5.1 закона распределения дискретной случайной величины δ. Построенные
точки соединим пунктирной линией (рис. 5.2).
p
0, 46
0, 29
0, 14
0, 11
x
2
5
8
11
Рис. 5.2
5.3
5.3.1
Функция распределения дискретной случайной величины
и её свойства
Определение функции распределения дискретной
случайной величины
Ещё одной геометрической иллюстрацией дискретной случайной величины является её функция распределения1 .
Определение 5.3. Функцией распределения случайной величины X называется функция, которая в каждой точке x числовой прямой
определяет вероятность события, в котором случайная величина принимает значение, меньшее, чем x. То есть2 ,
F (x) = P (X < x).
(5.3)
С точки зрения геометрии функция распределения определяет вероятность того, что случайная величина X в результате исхода попадёт на координатную прямую левее x (рис. 5.3).
Рис. 5.3
0
X x
x
Для дискретной случайной величины X, значения которой x1 , x2 , . . . , xn ,
функция распределения имеет вид3
X
F (x) =
P (X = xk )
(5.4)
xk <x
1
Точное определение функции распределения случайной величины по предположению Б.В. Гнеденко принадлежит А. М. Ляпунову, который дал его в своей работе «Об одном предложении теории
вероятностей» в 1900 году (см. Гнеденко Б. В. Из истории науки... С. 44).
2
Под выражением P (X < x) следует понимать вероятность события ω, в котором случайная величина принимает значение меньшее, чем x. Или в обозначениях: P (X < x) = P (ω : X < x).
3
Неравенство xk < x означает, что суммирование относится ко всем значениям xk , которые по своей
величине меньше x.
81
или в развёрнутом виде
F (x) = P (X = x1 ) + P (X = x2 ) + · · · + P (X = xk ), где xk < x.
Построим график функции распределения F (x) случайной величины X,
заданной табличным законом распределения (5.2).
При x ≤ x1 : F (x) = P (X < x) = 0.
При x1 < x ≤ x2 : F (x) = P (X < x) = P (X = x1 ) = p1 .
При x2 < x ≤ x3 : F (x) = P (X < x) = P (X = x1 ) + P (X = x2 ) = p1 + p2 .
.....................................................................
При xn−1 < x ≤ xn : F (x) = P (X < x) =
= P (X = x1 ) + P (X = x2 ) + · · · + P (X = xn−1 ) = p1 + p2 + · · · + pn−1 .
При x ≥ xn : F (x) = P (X < x) =
= P (X = x1 ) + P (X = x2 ) + · · · + P (X = xn−1 ) + P (X = xn ) =
= p1 + p2 + · · · + pn−1 + pn .
Функция распределения имеет неустранимые разрывы первого рода слева в тех точках, в которых дискретная случайная величина X принимает
возможные значения, указанные в таблице (5.2) закона распределения.
В интервалах между возможными значениями случайной величины функция F (x) является постоянной. Сумма скачков функции распределения
равна единице. График функции распределения дискретной случайной величины есть разрывная ступенчатая функция (рис. 5.4):
F (x)
1
p1 + p2 + p3 + · · · + pn−1
p1 + p2 + p3
p1 + p2
p1
Рис. 5.4
0
x1
x2
...
xx
n−1
3
x
xn
Задача 5.6. В условиях задачи 5.1 постройте график функции распределения δ.
Решение. Используя алгоритм построения, имеем:
При x ≤ 2: F (x) = P (δ < x) = 0.
При 2 < x ≤ 5: F (x) = P (δ < x) = P (δ = 2) = 0, 46.
При 5 < x ≤ 8: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) =
= 0, 46 + 0, 29 = 0, 75.
При 8 < x ≤ 11: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) + P (δ = 8) =
= 0, 46 + 0, 29 + 0, 11 = 0, 86.
При x ≥ 11: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) + P (δ = 8)+
82
+P (δ = 11) ⇒ F (x) = P (δ < x) = 1.

0,
если x ≤ 2,




 0, 46, если 2 < x ≤ 5,
0, 75, если 5 < x ≤ 8,
F (x) =


0, 86, если 8 < x ≤ 11,



1,
если x > 11.
Далее, остаётся построить график F (x) (рис. 5.5):
F (x)
1
0, 86
0, 75
0, 46
x
Рис. 5.5
0
2
5
8
11
Задача 5.7. На пути движения автомашины 4 светофора, каждый из
которых запрещает дальнейшее движение автомашины с вероятностью
0,5. Случайная величина H − число светофоров, пройденных машиной до
первой остановки. Составьте закон распределения H и постройте график функции распределения H.
Решение. Рассмотрим события, связанные с условием задачи, и определим их вероятности.
1. H = 0: A0 =автомобиль попал под запрещающий сигнал на первом
светофоре.
p({H = 0}) = p({A0 }) = 0, 5.
2. H = 1: A1 =автомобиль проехал первый светофор без остановки и
B1 =автомобиль попал под запрещающий сигнал на втором
светофоре.
Так как A2 и B2 − независимые события, то
p({H = 1}) = p({A1 }) · p({B1 }) ⇒
⇒ p({H = 1}) = (1 − 0, 5) · 0, 5 ⇒ p({H = 1}) = 0, 25.
3. H = 2: A2 =автомобиль проехал первый и второй светофоры
без остановки и
B2 =автомобиль попал под запрещающий сигнал
на третьем светофоре.
Так как A2 и B2 − независимые события, то
p({H = 2}) = p({A2 }) · p({B2 }) ⇒
83
⇒ p({H = 2} = (1 − 0, 5)2 · 0, 5 ⇒ p({H = 2}) = 0, 125.
4. H = 3: A3 =автомобиль проехал первый, второй и третий светофоры
без остановки и
B3 =автомобиль попал под запрещающий сигнал на четвёртом
светофоре.
Так как A3 и B3 − независимые события, то
p({H = 3}) = p({A3 }) · p({B3 }) ⇒
⇒ p({H = 3} = (1 − 0, 5)3 · 0, 5 ⇒ p({H = 3}) = 0, 0625.
5. H = 4: A4 =автомобиль проехал все четыре светофора без остановки.
p({H = 4}) = p({A4 }) ⇒
⇒ p({H = 4} = (1 − 0, 5)4 ⇒ p({H = 4}) = 0, 0625.
Так как 0, 5 + 0, 25 + 0, 125 + 0, 0625 + 0, 0625 = 1, то можно утверждать, что закон распределения дискретной случайной величины H имеет
следующий вид:
Y
0
1
2
3
4
.
p 0, 5 0, 25 0, 125 0, 0625 0, 0625
Далее, используя алгоритм построения (см. стр. 79) и опыт решения
задачи 5.7, имеем:
При x ≤ 0: F (x) = P (H < x) = 0.
При 0 < x ≤ 1: F (x) = P (H < x) = P (H = 0) = 0, 5.
При 1 < x ≤ 2: F (x) = P (H < x) = P (H = 0) + P (H = 1) =
= 0, 5 + 0, 25 = 0, 75.
При 2 < x ≤ 3: F (x) = P (H < x) = P (H = 0)+P (H = 1)+P (H = 2) =
= 0, 5 + 0, 25 + 0, 125 = 0, 875.
При 3 < x ≤ 4: F (x) = P (H < x) = P (H = 0) + P (H = 1)+
+P (H = 2) + P (H = 3) =
+0, 5 + 0, 25 + 0, 125 + 0, 0625 = 0, 9375.
При x ≥ 4: F (x) = P (H < x) = P (H = 0) + P (H = 1) + P (H = 2)+
+P (H = 3) + P (H = 4) = 1.
Собирая полученную информацию, имеем

0, если x ≤ 0,




0, 5, если 0 < x ≤ 1,



0, 75, если 1 < x ≤ 2,
F (x) =
0, 875, если 2 < x ≤ 3,





0, 9375, если 3 < x ≤ 4,


1,
если x > 4.
На основании расчётов строим график F (x) (рис. 5.6).
84
F (x)
1
0, 9375
0, 875
0, 75
0, 5
x
Рис. 5.6
5.3.2
0
1
2
3
4
Свойства функции распределения
Из определения 5.3 и рис. 5.2 можно вывести следующие свойства функции распределения:
Свойство 5.1. ∀ x 0 ≤ F (x) ≤ 1.
Это очевидно, так как F (x) определяется с помощью вероятности события.
Свойство 5.2. ∀ x1 , x2 : x1 < x2 ⇒ F (x1 ) ≤ F (x1 ).
z
A
}|
0
Рис. 5.7
|
B
{ z }| {
{z X
C
x1
x2
}
x
Воспользуемся рис. 5.7. Пусть событие C = {ω : X(ω) < x2 }. Представим его как сумму событий
A = {ω : X(ω) < x1 } и B = {ω : x1 ≤ X(ω) < x2 }: C = A + B.
Так как A и B − несовместные события, то из теоремы 3.1 о сложении
вероятностей несовместных событий следует, что P (C) = P (A) + P (B).
То есть P (X < x2 ) = P (X < x1 ) + P (x1 ≤ X < x2 ). Следовательно,
F (x2 ) = F (x1 ) + P (x1 ≤ X < x2 ).
Так как вероятность P (x1 ≤ X < x2 ) ≥ 0 по определению, то
F (x1 ) ≤ F (x2 ).
Свойство 5.3. lim F (x) = 0.
x→−∞
Если на рис. 5.7 «заставить» точку x стремиться влево, то видно, что
событие {ω : X(ω) < x}, состоящее в том, что случайная величина X
окажется левее, чем x, становится невозможным, а его вероятность − равной нулю.
Свойство 5.4. lim F (x) = 1.
x→∞
Точно также, перемещая точку x на рис. 5.7 вправо, можно убедиться,
что событие {ω : X(ω) < x} в пределе становится достоверным. А значит
его вероятность стремится к единице.
85
5.4
5.4.1
Числовые характеристики дискретной случайной величины
Математическое ожидание распределения дискретной
случайной величины
Богу всегда середина любезна,
и меру чтит божество.
Эсхилл. Эвмениды
С точки зрения теории вероятности закон распределения полностью
описывает случайную величину. Но получение всей содержащейся в нём
информации во-первых избыточно во многих случаях, а во-вторых требует
затрат на получение этой информации.
Для практических целей нужно иметь гораздо меньше информации,
чтобы получить представление о поведении изучаемой случайной величины.
Если представлять множество значений случайной величины как некоторый интервал, расположенный на числовой прямой, то нужно знать
«центр» этого интервала, то есть места, где расположена основная «масса
вероятности». А также нужно знать «радиус» этого интервала, как «меру
рассеивания» этой «массы вероятности» относительно «центра».
Пусть известен закон распределения дискретной случайной величины
X:
X x1 x2 . . . xn−1 xn
p p1 p2 . . . pn−1 pn
Определение 5.4. Математическим ожиданием1 дискретной
1
Термин математическое ожидание впервые был определён автором первого (и до начала XVIII
столетия единственного) руководства по теории вероятностей Х. Гюйгенсом в 1657 году в его работе
«О расчётах в азартной игре» (De ratiociniis in aleae ludo) (см. История математики с древнейших...
С. 89-90). В дальнейшем, после работ Д. Бернулли этот термин был забыт, а в рассмотрение был
введён предложенный в 1760 году Д. Бернулли термин моральное ожидание (см. Майстров Л. И.
Цит. соч. С. 136). Но далее П. Лаплас в своей работе «Опыт философии теории вероятностей»
(Essai philosophique sur les probabilites) 1814 года вернулся к определению Гюйгенса и определил
математическое ожидание как выгоду того, кто ожидает блага, равную произведению ожидаемой
суммы на вероятность её получения. (см. Вероятность и математическая статистика : Энциклопедия
/ Гл. ред. Ю. В. Прохоров. − М. : Большая Российская энциклопедия, 1999. С. 837).
Гюйгенс Христиан ван Зёйлихем (нидерл. Huygens Christiaan, 1629-1695) − нидерландский механик, физик, математик, астроном и изобретатель. Один из основоположников теоретической механики
и теории вероятностей. Внёс значительный вклад в оптику, молекулярную физику, астрономию,
геометрию, часовое дело. Открыл кольца Сатурна и Титан (спутник Сатурна). Первый иностранный
член Лондонского королевского общества (1663), член Французской академии наук с момента её
основания (1666) и её первый президент (1666-1681). (см. Википедия [Электронный ресурс] : URL
:
https://ru.wikipedia.org/wiki/\T2A\CYRG\T2A\cyryu\T2A\cyrishrt\T2A\cyrg\T2A\cyre\T2A\
cyrn\T2A\cyrs,_\T2A\CYRH\T2A\cyrr\T2A\cyri\T2A\cyrs\T2A\cyrt\T2A\cyri\T2A\cyra\T2A\cyrn
(дата обращения: 12.06.2016)).
Бернулли Даниил (Bernoulli Daniel, 1700-1782) − cын Иоганна Бернулли, швейцарский физик-универсал, механик и математик, один из создателей кинетической теории газов, гидродинамики и математической физики. Академик и иностранный почётный член
Петербургской академии наук, член Болонской, Берлинской и Парижской Академий наук,
86
случайной величины X называется скалярное произведение вектора
значений случайной величины на вектор соответствующих им вероятностей.
То есть
M (X) = x1 p1 + x2 p2 + · · · + xn−1 pn−1 + xn pn .
Или в сжатом виде:
M (X) =
n
X
(5.5)
x i pi .
i=1
Замечание 5.3. Заметим, что являясь характеристикой случайной величины, само математическое ожидание случайной величиной не является.
Задача 5.8. В условиях задачи 5.1 найдите математическое ожидание δ.
Решение. Согласно формуле 5.5,
M (X) = 2 · 0, 46 + 5 · 0, 29 + 8 · 0, 11 + 11 · 0, 14.
Выполнив вычисления, получаем M (X) = 4, 79.
Задача 5.9. В магазине продаются 5 отечественных и 3 импортных
холодильника. Случайная величина P − число импортных холодильников
из четырёх наудачу выбранных холодильников.
1. Составьте закон распределения случайной величины P .
2. Вычислите математическое ожидание случайной величины P .
Решение. Рассмотрим события, связанные с условием задачи.
Найдём общее число вариантов выбора 4-х холодильников из имеющихся 8. Так как мы не делаем между холодильниками различий, то выбор
реализуется с помощью сочетаний:
8!
n = C84 ⇒ n =
⇒ n = 70.
4! · 4!
Далее, рассмотрим благоприятные варианты выбора и вычислим соответствующие вероятности событий.
1. P = 0: A0 =выбрали 0 импортных холодильников из 3 импортных и
B0 =выбрали 4 отечественных холодильника из 5 отечественных.
Так как события A0 и B0 являются независимыми, то согласно правилу
произведения (см. теорему 1.2)
m({P = 0}) = m({A0 }) · m({B0 }).
член Лондонского королевского общества. (см. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyre\T2A\cyrr\T2A\cyrn\T2A\cyru\T2A\cyrl\
T2A\cyrl\T2A\cyri,_\T2A\CYRD\T2A\cyra\T2A\cyrn\T2A\cyri\T2A\cyri\T2A\cyrl (дата обращения:
12.06.2016)).
87
m({A0 }) = C30 ⇒ m({A0 }) = 1;
m({B0 }) = C54 ⇒ m({B0 }) = 5.
Следовательно, m({P = 0}) = 1 · 5 ⇒ m({P = 0}) = 5.
В итоге, из классического определения вероятности (см. определение
2.8) следует, что
m({P = 0})
5
1
p({P = 0}) =
⇒ p({P = 0}) =
⇒ p({P = 0}) = .
n
70
14
2. P = 1: A1 =выбрали 1 импортный холодильник из 3 импортных и
B1 =выбрали 3 отечественных холодильника из 5 отечественных.
Точно также, как и в пункте 1, определим p({P = 1}).
m({P = 1}) = m({A1 }) · m({B1 }).
m({A1 }) = C31 ⇒ m({A1 }) = 3;
m({B1 }) = C53 ⇒ m({B1 }) = 10.
Следовательно, m({P = 1}) = 3 · 10 ⇒ m({P = 1}) = 30.
В итоге, из классического определения вероятности (см. определение
2.8) получаем
m({P = 1})
30
3
p({P = 1}) =
⇒ p({P = 1}) =
⇒ p({P = 1}) = .
n
70
7
3. P = 2: A2 =выбрали 2 импортных холодильника из 3 импортных и
B2 =выбрали 2 отечественных холодильника из 5 отечественных.
Также, как и в первых пунктах, определим p({P = 2}).
m({P = 2}) = m({A2 }) · m({B2 }).
m({A2 }) = C32 ⇒ m({A2 }) = 3;
m({B2 }) = C52 ⇒ m({B2 }) = 10.
Следовательно, m({P = 2}) = 3 · 10 ⇒ m({P = 2}) = 30.
В итоге, имеем
m({P = 2})
30
3
p({P = 2}) =
⇒ p({P = 2}) =
⇒ p({P = 2}) = .
n
70
7
4. P = 3: A3 =выбрали 3 импортных холодильника из 3 импортных и
B3 =выбрали 1 отечественный холодильник из 5 отечественных.
Аналогично пунктам 1-3, определим p({P = 3}).
m({P = 3}) = m({A3 }) · m({B3 }).
88
m({A3 }) = C33 ⇒ m({A3 }) = 1;
m({B3 }) = C51 ⇒ m({B3 }) = 5.
Следовательно, m({P = 3}) = 1 · 5 ⇒ m({P = 3}) = 5.
В итоге, имеем
m({P = 3})
5
1
p({P = 3}) =
⇒ p({P = 3}) =
⇒ p({P = 3}) = .
n
70
14
1
3 3
1
Так как
+ + +
= 1, то можно утверждать, что закон распре14 7 7 14
деления дискретной случайной величины P имеет следующий вид:
P
0
1
p
14
1 2 3
3 3 1 .
7 7 14
Используя формулу (5.5), вычислим математическое ожидание дискретной случайной величины P :
1
3
3
1
1
M (P ) = 0 ·
+1· +2· +3·
= 1 · ⇒ M (P ) = 1, 5.
14
7
7
14
2
Задача 5.10. Из опыта сдачи экзамена некоторому преподавателю
предыдущими поколениями студентов установлено, что сдать ему экзамен на «отлично» можно с вероятностью 0, 3, на «хорошо» − с вероятностью 0, 4. Какова вероятность получить у этого преподавателя
другие оценки, если математическое ожидание случайной величины S,
связанной с распределением оценок у данного преподавателя при случайно выбранном билете, равно 3, 9.
Решение. Согласно Положению о высшей школе, S может принимать
значения из множества {2, 3, 4, 5}.
Допустим, что x и y − вероятности того, что сдающий может соответственно получить оценки «неудовлетворительно» и «удовлетворительно».
Составим предполагаемый закон распределения дискретной случайной
величины S:
S 2 3 4
5
p x y 0, 4 0, 3 .
Согласно условию (5.1), сумма вероятностей должна быть равна единице, поэтому
x + y + 0, 4 + 0, 3 = 1.
Кроме этого, согласно условию и формуле 5.5, имеем
2x + 3y + 4 · 0, 4 + 5 · 0, 3 = 3, 9.
89
Приведя подобные члены в каждом из уравнений, составим систему
x + y = 0, 3,
2x + 3y = 0, 8.
Решив систему, получим x = 0, 1, а y = 0, 2.
Следовательно, у данного преподавателя можно получить
«удовлетворительно» с вероятностью 0,2 и «неудовлетворительно» с вероятностью 0,1.
Замечание 5.4. В том случае, когда дискретная случайная величина X принимает бесконечное множество значений (см. замечание 5.1), её
математическое ожидание является суммой абсолютно сходящегося ряда:
M (X) =
∞
X
x i pi .
i=1
5.4.2
Вероятностный смысл математического ожидания
Предположим, что опыт состоит из n исходов, в которых дискретная
случайная величина X приняла k1 раз значение x1 , k2 раз значение x2 , . . . ,
ks раз значение xs . При этом
k1 + k2 + · · · + ks = n.
Тогда сумма всех значений, принятых случайной величиной X равна:
S = k1 x1 + k2 x2 + · · · + ks xs .
Определим среднее арифметическое X̄ всех значений, принятых случайной
величиной. С этой целью разделим S на число исходов опыта n:
X̄ =
k1 x1 + k2 x2 + · · · + ks xs
,
n
или
X̄ = x1
ks
k1
k
+ x2 2 + · · · + xs .
n
n
n
(5.6)
k
k
Так как 1 − относительная частота W1 значения x1 (см. 2.4), 2 −
n
n
относительная частота W2 значения x2 и так далее, то перепишем представление (5.6) в виде
X̄ = x1 W1 + x2 W2 + · · · + xs Ws .
(5.7)
Будем считать, что число исходов опыта n → ∞. Тогда, как следует
из замечания (после определения 5.4) относительная частота стремится к
вероятности появления события.
То есть W1 ≈ p1 , W2 ≈ p2 , . . . , Ws ≈ ps .
90
Заменим в представлении (5.7) относительные частоты соответствующими вероятностями:
X̄ ≈ x1 p1 + x2 p2 + · · · + xs ps .
Правая часть полученного приближённого равенства является математическим ожиданием случайной величины X.
Таким образом, X̄ ≈ M (X).
Следовательно, с точки зрения теории вероятности математическое ожидание приблизительно1 равно среднему арифметическому возможных значений дискретной случайной величины.
Замечание 5.5. О механическом смысле математического ожидания дискретной случайной величины. С точки зрения теоретической механики математическое ожидание дискретной случайной величины определяет центр «масс» системы материальных точек, расположенных на прямой, общая «масса» которых равна единице. При этом
«масса» каждой «точки» xi равна вероятности pi , соответствующей
этой «точке»2 .
5.4.3
Понятие индикатора события
При решении некоторых задач теории вероятности возникает необходимость выразить вероятность события с помощью математического ожидания. С этой целью вводится следующее
Определение 5.5. Индикатором события A называется случайная величина IA , равная единице, если в результате опыта событие A
произошло, и нулю − если событие A не произошло.
1, если A произошло,
IA =
(5.8)
0, если A не произошло.
Если вероятность наступления события A равна p, то закон распределения случайной величины IA имеет вид:
IA
0
1
.
P 1−p p
так как математическое ожидание индикатора события
M (IA ) = 0 · (1 − p) + 1 · p,
то индикатор события позволяет записать вероятность события A с помощью своего математического ожидания
P (A) = M (IA ).
1
Чем большим является число исходов опыта n, тем более точным является данное равенство.
Здесь i пробегает конечное или бесконечное подмножество множества натуральных чисел, а под
«точкой» xi понимается возможное значение случайной величины X.
2
91
5.4.4
Свойства математического ожидания
Свойство 5.5. Математическое ожидание постоянной величины
равно самой постоянной величине:
M (C) = C.
Рассмотрим постоянную величину C как дискретную случайную величину, которая принимает только одно значение C с вероятностью 1. Тогда
M (C) = C · 1 ⇒ M (C) = C.
Так как дискретную случайную величину можно рассматривать как nмерный вектор, то можно ввести следующее
Определение 5.6. Произведением постоянной C на дискретную случайную величину X называется случайная величина CX, возможные значения которой равны произведениям соответствующих возможных значений X на данную постоянную с вероятностями, а соответствующие вероятности совпадают.
Свойство 5.6. Постоянный множитель можно выносить за знак
математического ожидания:
M (CX) = CM (X).
Предположим, что случайная величина X имеет следующий закон распределения:
X x1 x2 . . .
p p1 p2 . . .
xn
pn
Согласно определению 5.6 составим закон распределения случайной величины CX:
CX Cx1 Cx2 . . .
p
p1
p2 . . .
Cxn
pn
Используя определение 5.4, найдем скалярное произведение векторов,
координатами которых являются возможные значения CX и соответствующие вероятности
Cx1 p1 + Cx2 p2 + · · · + Cxn pn = C(x1 p1 + x2 p2 + · · · + xn pn ) = CM (X) ⇒
⇒ M (CX) = CM (X).
Свойство 5.7. Математическое ожидание суммы двух случайных величин равно сумме их математических ожиданий:
M (X + Y ) = M (X) + M (Y ).
Предположим, что случайные величины X и Y имеют следующие законы распределения1 :
1
Для краткости, которая не вредит пониманию, каждая из случайных величин принимает только
два значения. В общем случае доказательство проводится аналогично.
92
X x1 x2
p p1 p2
Y y1 y2
p q 1 q2
Составим с помощью этих законов закон распределения случайной величины X + Y , принимающей значения
X +Y
x1 + y1 x1 + y2 x2 + y1 x2 + y2
Обозначив соответствующие вероятности через p11 , p12 , p21 и p22 , получим следующий закон распределения:
X +Y
p
x1 + y1 x1 + y2 x2 + y1 x2 + y2
p11
p12
p21
p22
Используя определение 5.4, найдем математическое ожидание
M (X + Y ) = (x1 + y1 )p11 + (x1 + y2 )p12 + (x2 + y1 )p21 + (x2 + y2 )p22 .
Раскрыв скобки в правой части полученного равенства и сгруппировав соответствующие вероятности, получим
M (X + Y ) = x1 (p11 + p12 ) + x2 (p21 + p22 ) + y1 (p21 + p22 ) + y2 (p12 + p22 ).
Событие X = x1 порождает несовместные события X + Y = x1 + y1
и X + Y = x1 + y2 . Сумма вероятностей этих событий равна вероятности
наступления события X = x1 , то есть
p11 + p12 = p1 .
Аналогично
p21 + p22 = p2 ; p11 + p21 = q1 ; p12 + p22 = q2 .
Заменив скобки в последнем представлении M (X + Y ), имеем
M (X + Y ) = x1 p1 + x2 p2 + y1 p21 + y2 p2 ⇒ M (X + Y ) = M (X) + M (Y ).
Чтобы сформулировать следующее свойство, понадобится следующее
Определение 5.7. Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие
возможные значения может принимать другая величина.
Свойство 5.8. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий1 :
M (XY ) = M (X) · M (Y ).
Замечание 5.6. Естественно, можно доказать, что свойства 5.7 и 5.8
имеют место для любого конечного числа случайных величин2 :
M (X1 + X2 + · · · + Xn ) = M (X1 ) + M (X2 ) + · · · + M (Xn ).
1
(5.9)
Доказательство этого свойства будет приведено в главе, связанной с изучением систем дискретных
величин.
2
С учётом взаимной независимости величин в случае их произведения.
93
M (X1 X2 . . . Xn ) = M (X1 ) · M (X2 ) . . . M (Xn ).
(5.10)
Замечание 5.7. Следует заметить, что хотя математическое ожидание
и является важнейшей характеристикой положения дискретной случайной
величины, в практических целях иногда используют другие числовые характеристики. Одной из таких характеристик положения является
5.4.5
Мода дискретной случайной величины
Определение 5.8. Модой1 дискретной случайной величины называется ёе наиболее вероятное значение. Обозначается мода следующим
образом: Mo (X).
Формально определение моды можно представить
Mo (X) = {xi : P (X = xi ) ≥ P (X = xn ) ∀ n 6= i, n ∈ N}. (5.11)
Из определения (5.8) вытекает классификация распределений дискретной
случайной величины.
Определение 5.9. Распределение дискретной случайной величины называется унимодальным, если наиболее вероятное значение дискретной величины является единственным. То есть
Mo (X) = {xi : P (X = xi ) > P (X = xn ) ∀ n 6= i, n ∈ N}.
Например, заданное следующим образом распределение
X −2 −0.5
1
2
3.5
5
p 0, 05 0, 1 0, 25 0, 4 0, 15 0, 05
является унимодальным, так как самая большая вероятность соответствует единственному возможному значению X = 2. При этом Mo (X) = 2.
Многоугольник распределения для данного унимодального распределения показан на рис. 5.8.
Определение 5.10. Распределение дискретной случайной величины
называется полимодальным, если наиболее вероятное значение дискретной величины не является единственным.
1
Понятие моды ввёл в 1895 году английский статистик К. Пирсон (cм. Википедия [Электронный
ресурс] : URL : https://en.wikipedia.org/wiki/Mode_(statistics) (дата обращения: 12.06.2016)).
Пирсон Карл (Чарльз) (англ. Karl (Carl) Pearson, 1857-1936) − английский математик, статистик,
биолог и философ; основатель математической статистики, один из основоположников биометрии.
Автор свыше 650 опубликованных научных работ. (см. URL:https://ru.wikipedia.org/wiki/\T2A\
CYRP\T2A\cyri\T2A\cyrr\T2A\cyrs\T2A\cyro\T2A\cyrn,_\T2A\CYRK\T2A\cyra\T2A\cyrr\T2A\cyrl).
94
p
0, 4
0, 25
0, 15
0, 1
0, 05
−2
−0.5
0
1
2
3.5
5
x
Рис. 5.8
Конкретным примером полимодального распределения является следующее распределение
X −2.5 −1
1
2
3.5
5
p 0, 05 0, 3 0, 15 0, 3 0, 15 0, 05
Здесь самые большие вероятности соответствуют двум возможным значениям X = −1 и X = 2. Поэтому существуют два1 значения моды
Mo (X) = −1 и Mo (X) = 2.
Многоугольник распределения для данного полимодального распределения выглядит так (рис. 5.9):
p
0, 3
0, 15
0, 1
0, 05
−2, 5
−1
0
1
2
3.5
5
x
Рис. 5.9
Третим примером в классификации является распределение в отношении модальности противоположное рассмотренным.
Определение 5.11. Распределение дискретной случайной величины
называется антимодальным, если оно имеет наименьшее вероятное
значение. То есть
min X = {xi : P (X = xi ) ≤ P (X = xn ) ∀ n 6= i, n ∈ N}.
В качестве примера рассмотрим следующее распределение
X −2 −0.5
1
2 3.5
5
p 0, 3 0, 1 0, 05 0, 1 0, 2 0, 25
1
Если сказать точнее, то такое распределение называется бимодальным распределением.
95
Примером многоугольника антимодального распределения может служить рис. 5.10.
p
0, 3
0, 25
0, 2
0, 1
0, 05
−2
−0.5
0
1
2
3.5
5
x
Рис. 5.10
Замечание 5.8. Так как мода является возможным числом, которое
встречается чаще всего в задании распределения, то на практике мода хорошо описывает типичные ситуации. Например, реакцию учеников класса
в ответ на объявление о том, что «заболел учитель, ведущий следующий
урок, а потому уроки отменяются»1 .
5.4.6
Дисперсия дискретной случайной величины
Математическое ожидание как характеристика случайной величины даёт много информации о ней, но, как видно из следующих примеров, этой
информации оказывается недостаточно.
Рассмотрим законы распределения двух случайных величин:
X −0, 1 0, 1
p 0, 5 0, 5
Y −100 100
p 0, 5 0, 5
Найдём математические ожидания каждой из случайных величин:
M (X) = −0, 1 · 0, 5 + 0, 1 · 0, 5 ⇒ M (X) = 0.
M (Y ) = −100 · 0, 5 + 100 · 0, 5 ⇒ M (Y ) = 0.
Случайные величины X и Y имеют одинаковые математические ожидания, но их возможные значения не равны. При этом, в одном случае возможные значения располагаются вблизи математического ожидания, а
в другом случае удалены от него.
Проблема заключается в отсутствии информации о рассеивании возможных значений случайных величин относительно математического ожидания.
Чтобы исследовать вопрос о рассеивании, рассмотрим отклонение случайной величины от её математического ожидания.
Определение 5.12. Отклонением называется разность между случайной величиной X и её математическим ожиданием M (X).
1
Следует признать, что эта реакция отнюдь не является реакцией печали.
96
Из определения следует, что отклонение X − M (X) является случайной
величиной, обладающей следующим свойством.
Теорема 5.1. Математическое ожидание отклонения случайной величины от её математического ожидания равно нулю:
M (X − M (X)) = 0.
Используя свойства 5.5 и 5.8 математического ожидания, имеем
M (X − M (X)) = M (X) − M (M (X)) = M (X) − M (X) = 0.
Из данной теоремы вытекает, что определять рассеивание возможных
значений случайной величины с помощью математического ожидания отклонения невозможно. Объяснить это можно тем, что одни отклонения являются положительными числами, а другие − отрицательными. Поэтому
их алгебраическая сумма обращается в нуль.
Вследствие этого возникают два варианта: исследовать математическое
ожидание модуля отклонения1 или квадрата отклонения. Практическое
применение получил второй вариант.
Определение 5.13. Дисперсией2 дискретной случайной величины называется математическое ожидание квадрата отклонения случайной величины от её математического ожидания:
D(X) = M (X − M (X))2 .
(5.12)
Замечание 5.9. Из определения следует, что дисперсия случайной
величины является неотрицательной константой.
При расчётах дисперсии её определение оказывается очень неудобным
в силу большого числа вычислений. Поэтому рассмотрим следующую теорему.
Теорема 5.2. Формула вычисления дисперсии Дисперсия равна
1
Так как модуль не является всюду дифференцируемой функцией, то при его исследовании возникает много проблем
2
Термин дисперсия происходит от лат. dispersio рассеяние (от глагола dispergere − рассыпать,
рассеивать, разбрасывать.
В 1895 году термин дисперсия определил К. Пирсон (см. Секей, Г. Парадоксы в теории вероятностей и математической статистике. Москва-Ижевск : Институт компьютерных исследований,
2003. С. 32). Вслед за К. Пирсоном его в 1918 году использовал в своей статье «Корреляция между
родственниками в пpедположении менделевской наследственности» (The Correlation Between Relatives
on the Supposition of Mendelian Inheritance) Р. Э. Фишер (см. Earliest Known Uses of Some of the
Words of Mathematics (V) [Электронный ресурс] : URL : http://jeff560.tripod.com/v.html (дата
обращения: 12.06.2016)).
Сэр Фишер Рональд Эйлмер (англ. Sir Fisher Ronald Aylmer, 1890-1962) − английский статистик, биолог-эволюционист и генетик, основоположник современной прикладной математической
статистики (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\
CYRF\T2A\cyri\T2A\cyrsh\T2A\cyre\T2A\cyrr,_\T2A\CYRR\T2A\cyro\T2A\cyrn\T2A\cyra\T2A\cyrl\
T2A\cyrsftsn\T2A\cyrd_\T2A\CYREREV\T2A\cyrishrt\T2A\cyrl\T2A\cyrm\T2A\cyre\T2A\cyrr (дата
обращения: 12.06.2016)).
97
разности между математическим ожиданием квадрата случайной величины и квадратом её математического ожидания:
D(X) = M X 2 − (M (X))2 .
(5.13)
Д о к а з а т е л ь с т в о. Используя свойства 5.5 и 5.8 математического ожидания, получаем
M (X − M (X))2 = M (X 2 ) − 2X · M (X) + (M (X)2 ) =
= M X 2 − 2M (X)M (X) + (M (X)2 =
= M X 2 − 2(M (X))2 + (M (X))2 = M X 2 − (M (X))2 .
Задача 5.11. В условиях задачи 5.1 найдите дисперсию δ.
Решение. Для того, чтобы вычислить дисперсию дискретной случайной величины δ с помощью формулы 5.13, дополним таблицу её закона
распределения строчкой квадратов её значений:
δ2 4
25
64 121
δ
2
5
8
11
p 0,46 0,29 0,11 0,14
Вычислим
M (δ 2 ) = 4 · 0, 46 + 25 · 0, 29 + 64 · 0, 11 + 121 · 0, 14 ⇒ M (δ 2 ) = 23, 07.
Далее, возведём в квадрат найденное при решении задачи 5.8 значение
математического ожидания δ:
(M (δ))2 = (4, 79)2 ⇒ (M (δ))2 = 22, 94.
Вычитая его из M (δ 2 ):
23, 07 − 22, 94 = 0, 13,
получаем значение дисперсии δ:
D(δ) = 0, 13.
Задача 5.12. В условиях задачи 5.8 найдите дисперсию P .
Решение. Аналогично решению задачи 5.11 дополним таблицу значений закона распределения случайной величины P строкой из квадратов её
значений:
P2
P
p
0 1 4 9
0 1 2 3
1 3 3 1 .
14 7 7 14
Вычислим
1
3
3
1
11
M (P 2 ) = 0 ·
+1· +4· +9·
⇒ M (P 2 ) = 2 .
14
7
7
14
14
98
Зная из решения задачи 5.8 значение M (P ) = 1, 5, найдём его квадрат:
(M (P ))2 = (1, 5)2 ⇒ (M (P ))2 = 2, 25.
Вычитая найденное значение из M (P 2 ):
11
1 15
2 −2 = ,
14
4 28
получаем значение дисперсии P :
D(P ) ≈ 0, 54.
Задача 5.13. Известно, что некоторая случайная величина может
принимать значения 0, 3 и 5. Известно, что математическое ожидание
равно 2, а дисперсия − 3. Найдите закон распределения случайной величины.
Решение. Предположим, что события, соответствующие указанным
значениям, наступают соответственно с вероятностями p1 , p2 и p3 .
Тогда таблица закона распределения данной случайной величины вместе
с дополнительной строкой квадратов её значений будет иметь следующий
вид:
P 2 0 9 25
P 0 3 5 .
p p1 p2 p3
Согласно условию (5.1), для вероятностей имеет место равенство:
p1 + p2 + p3 = 1.
Из условия задачи и формулы (5.5) для математического ожидания данной
случайной величины можно составить следующее равенство:
0 · p1 + 3 · p2 + 5 · p3 = 2.
Зная дисперсию случайной величины, с помощью формулы (5.13) можно
получить ещё одно равенство:
0 · p1 + 9 · p2 + 25 · p3 − 22 = 3.
Приведя подобные, составим следующую систему уравнений:

 p1 + p2 + p3 = 1
3p2 + 5p3 = 2

9p2 + 25p3 = 7.
Решив систему, находим
p1 = 0, 4; p2 = 0, 5; p3 = 0, 1.
Следовательно, закон распределения данной случайной величины имеет
такой вид:
P 0
3
5
.
p 0, 4 0, 5 0, 1
99
5.4.7
Свойства дисперсии
Свойство 5.9. Дисперсия постоянной величины C равна нулю:
D(C) = 0.
Подставляя X = C в определение дисперсии 5.13, имеем
D(C) = M (C − M (C))2 .
Поскольку математическое ожидание постоянной равно самой постоянной
(см. свойство 5.5), то, преобразуя правую часть полученного равенства,
имеем
M (C − M (C))2 = M (C − C)2 = M (0) = 0 ⇒ M (D) = 0.
Свойство 5.10. Постоянный множитель можно выносить за знак
дисперсии, предварительно возведя его в квадрат:
D(CX) = C 2 D(X).
Подставляя в определение дисперсии 5.13 вместо X случайную величину CX, получаем
D(CX) = M (CX − M (CX))2 .
Так как постоянный множитель можно выносить из-под знака математического ожидания, то преобразуем правую часть представления D(CX):
M (CX − CM (X))2 = M (C 2 (X − M (X))2 ) = C 2 M (X − M (X))2 ⇒
⇒ D(CX) = C 2 D(X).
Свойство 5.11. Дисперсия суммы двух независимых случайных величин равна сумме дисперсий этих величин:
D(X + Y ) = D(X) + D(Y ).
Подставим в формулу вычисления дисперсии (5.13) вместо X случайную величину X + Y :
D(X + Y ) = M (X + Y )2 − (M (X + Y ))2 .
Далее, опираясь на свойства математического ожидания 5.7-5.8, преобразуем правую часть
равенства.
полученного
2
2
M (X + Y ) −(M (X +Y )) = M (X 2 +2XY +Y 2 )−(M (X)+M (Y ))2 =
= M (X 2 )+2M (X)·M (Y )+M (Y 2 )−(M (X))2 −2M (X)·M (Y )−(M (Y ))2 =
= (M (X 2 ) − (M (X))2 ) + (M (Y 2 ) − (M (Y ))2 ) ⇒ D(X + Y ) = D(X) + D(Y ).
Свойство 5.12. Дисперсия разности двух независимых случайных величин равна сумме дисперсий этих величин:
D(X − Y ) = D(X) + D(Y ).
Так как X − Y = X + (−1) · Y , то
D(X − Y ) = D(X + (−1) · Y ).
Далее с помощью свойств 5.11-5.12 имеем
D(X + (−1) · Y ) = D(X) + D((−1) · Y ) = D(X) + (−1)2 D(Y ) =
100
= D(X) + D(Y ) ⇒ D(X − Y ) = D(X) + D(Y ).
Замечание 5.10. Заметим, что свойство 5.11 имеет место для любого
конечного числа взаимно независимых случайных величин:
D(X1 + X2 + · · · + Xn ) = D(X1 ) + D(X2 ) + · · · + D(Xn ).
(5.14)
Замечание 5.11. О механическом смысле дисперсии дискретной случайной величины. С точки зрения теоретической механики дисперсия дискретной случайной величины определяет момент инерции относительно центра «масс» системы материальных точек, расположенных на прямой, общая «масса» которых равна единице. При этом «масса» каждой «точки» xi равна вероятности pi , соответствующей этой
«точке»1 . Иными словами, дисперсия характеризует степень разбросанности «точек» системы относительно центра «масс».
5.4.8
Среднее квадратическое отклонение
Так как дисперсия определяет квадрат отклонения случайной величины
от её среднего значения, то кроме неё вводят ещё одну характеристику.
Определение 5.14. Средним квадратическим отклонением случайной величины X называется квадратный корень из её дисперсии:
¸(X) =
p
D(X).
(5.15)
Задача 5.14. В условиях задачи 5.1 найдите среднее квадратическое
отклонение δ.
Решение. Так как при решении задачи 5.11 было найдено значение
дисперсии D(δ) = 0, 13, то, согласно формуле 5.15, имеем
p
¸(δ) = 0, 13 ⇒ ¸(δ) ≈ 0, 36.
Предположим, что известны средние квадратические отклонения двух
независимых случайных величин. О том, как выглядит среднее квадратическое отклонение их суммы, говорит следующая
Теорема 5.3. Среднее квадратическое отклонение суммы двух независимых случайных величин равно квадратному корню из суммы квадратов
среднеквадратических отклонений этих величин:
p
σ(X + Y ) = σ 2 (X) + σ 2 (Y ).
Д о к а з а т е л ь с т в о. Предположим, что X и Y две независимые
случайные величины, а их сумма Z = X + Y . Согласно свойству 5.11
1
Здесь i пробегает конечное или бесконечное подмножество множества натуральных чисел, а под
«точкой» xi понимается возможное значение случайной величины X.
101
D(Z) = D(X) + D(Y ).
Извлекая квадратный корень
p из обеих
p частей данного равенства, получаем
D(Z) = D(X) + D(Y ).
Из равенства 5.15 следует, что
D(X) = σ 2 (X), D(Y ) = σ 2 (Y ), а D(Z) = σ 2 (Z).
Поэтому
p
σ(Z) = σ 2 (X) + σ 2 (Y ).
Заменяя Z на сумму X + Y , убеждаемся в истинности теоремы1 .
Задача 5.15. Две случайные величины X и Y заданы своими законами
распределения:
Y −1 0
1
2
.
p 0, 2 0, 3 0, 4 0, 1
X 1
2
3
p 0, 5 0, 3 0, 2
1. Вычислите M (X − 2Y ) и D(X − 2Y ).
2. Вычислите M (2X + 3Y ) и D(2X + 3Y ).
Решение. Вычислим для каждой из случайных величин математическое ожидание и дисперсию.
Согласно формуле 5.5
M (X) = 1 · 0, 5 + 2 · 0, 3 + 3 · 0, 2 ⇒ M (X) = 1, 7;
M (Y ) = −1 · 0, 2 + 0 · 0, 3 + 1 · 0, 4 + 2 · 0, 1 ⇒ M (Y ) = 0, 4.
Для того, чтобы вычислить дисперсии, надстроим в каждой из таблиц
строки квадратов значений величин:
X2 1
4
9
X
1
2
3
p 0, 5 0, 3 0, 2
Y2 1
0
1
4
Y −1 0
1
2 .
p 0, 2 0, 3 0, 4 0, 1
Далее, вычислим M (X 2 ) и M (Y 2 ).
M (X 2 ) = 1 · 0, 5 + 4 · 0, 3 + 9 · 0, 2 ⇒ M (X 2 ) = 3, 5;
M (Y 2 ) = 1 · 0, 2 + 0 · 0, 3 + 1 · 0, 4 + 4 · 0, 1 ⇒ M (Y 2 ) = 1.
С помощью формулы (5.13) найдём дисперсии заданных случайных величин:
D(X) = 3, 5 − (1, 7)2 ⇒ D(X) = 0, 61;
D(Y ) = 1 − (0, 4)2 ⇒ D(Y ) = 0, 84.
Используя свойства математического ожидания случайных величин (см.
5.6 и 5.7), определим математические ожидания заданных линейных комбинаций случайных величин:
M (X − 2Y ) = M (X) − 2M (Y ) ⇒
1
Аналогично можно распространить это свойство на сумму конечного числа попарно независимых
случайных величин.
102
⇒ M (X − 2Y ) = 1, 7 − 2 · 0, 4 ⇒ M (X − 2Y ) = 0, 9;
M (2X + 3Y ) = 2M (X) + 3M (Y ) ⇒
⇒ M (2X + 3Y ) = 2 · 1, 7 + 3 · 0, 4 ⇒ M (2X + 3Y ) = 4, 6.
Так как X и Y − независимые случайные величины, то с помощью
свойств 5.10 и 5.11 вычислим дисперсии указанных линейных комбинаций
случайных величин:
D(X − 2Y ) = D(X) + 4M (Y ) ⇒
⇒ D(X − 2Y ) = 0, 61 + 4 · 0, 84 ⇒ D(X − 2Y ) = 3, 97;
D(2X + 3Y ) = 4D(X) + 9D(Y ) ⇒
⇒ D(2X + 3Y ) = 4 · 0, 61 + 9 · 0, 84 ⇒ D(2X + 3Y ) = 10.
В итоге, имеем
M (X − 2Y ) = 0, 9; D(X − 2Y ) = 3, 97;
M (2X + 3Y ) = 4, 6; D(2X + 3Y ) = 10.
Задача 5.16. Подбрасывают два игральных кубика. Случайная величина X − сумма выпавших очков. Найдите закон распределения, математическое ожидание и дисперсию.
Решение. Каждый кубик имеет 6 одинаковых граней. Так как каждый кубик подбрасывается независимо от другого, то согласно принципу
произведения, общее число вариантов выпадения двух цифр на кубиках
равно n = 6 · 6, то есть n = 36.
При этом сумма выпавших очков может принимать все целочисленные
значения от двух (если выпадет вариант 1-1), до 12 (если выпадет вариант
6-6).
1. X = 2 : A2 =на первой кости выпало 1 очко и B2 =на второй кости
выпало 1 очко.
1 1
1
P (X = 2) = P (A2 )P (B2 ) ⇒ P (X = 2) = · ⇒ P (X = 2) = .
6 6
36
2. X = 3 : A31 =на первой кости выпало 1 очко и B31 =на второй кости
выпало 2 очка или A32 =на первой кости выпало 2 очка и
B22 =на второй кости выпало 1 очко.
P (X = 3) = P (A31 )P (B31 ) + P (A32 )P (B32 ) ⇒
1 1 1 1
2
⇒ P (X = 3) = · + · ⇒ P (X = 3) = .
6 6 6 6
36
3. X = 4 : A41 =на первой кости выпало 1 очко и B41 =на второй кости
выпало 3 очка или A42 =на первой кости выпало 2 очка и
B42 =на второй кости выпало 2 очка или A43 =на первой кости
выпало 3 очка и B43 =на второй кости выпало 1 очко.
P (X = 4) = P (A31 )P (B31 ) + P (A32 )P (B32 ) ⇒
103
1 1 1 1
2
· + · ⇒ P (X = 3) = .
6 6 6 6
36
Продолжив разбор вариантов выпадения очков для каждого значения
суммы аналогичным образом, получим таблицу закона распределения для
изучаемой случайной величины X:
⇒ P (X = 4) =
X
2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1 .
p
36 36 36 36 36 36 36 36 36 36 36
Складывая вероятности из второй строки:
1
2
3
4
5
6
5
4
3
2
1
+
+
+
+
+
+
+
+
+
+
= 1,
36 36 36 36 36 36 36 36 36 36 36
убеждаемся в правильности составления закона распределения.
Умножая скалярно вектор значений X на вектор вероятностей
1
2
3
4
5
6
5
2·
+3·
+4·
+5·
+6·
+7·
+8· +
36
36
36
36
36
36
36
4
3
2
1
252
+9 ·
+ 10 ·
+ 11 ·
+ 12 ·
=
= 7,
36
36
36
36
36
находим математическое ожидание M (X) = 7.
Далее, дополняя таблицу строкой квадратов значений случайной величины
X2
X
4 9 16 25 36 49 64 81 100 121 144
2 3 4 5 6 7 8 9 10 11 12 ,
1 2 3 4 5 6 5 4
3
2
1
p
36 36 36 36 36 36 36 36 36 36 36
вычисляем математическое ожидание квадрата случайной величины:
1
2
3
4
5
6
5
+9·
+ 16 ·
+ 25 ·
+ 36 ·
+ 49 ·
+ 64 · +
4·
36
36
36
36
36
36
36
4
3
2
1
1974
+81 ·
+ 100 ·
+ 121 ·
+ 144 ·
=
≈ 54, 83.
36
36
36
36
36
После применения формулы 5.13 находим дисперсию
D(X) = 54, 83 − 49 ⇒ D(X) ≈ 5, 83.
Замечание 5.12. Следует заметить, что эту задачу можно было бы
решить со значительно меньшими усилиями, если рассматривать искомую
случайную величину X как сумму двух случайных величин X1 и X2 , каждая из которых представляет число выпавших очков на соответствующем
кубике.
Так как кубики одинаковы, то X1 = X2 .
Поэтому, M (X1 ) = M (X2 ) и D(X1 ) = D(X2 ).
Так как вероятность выпадения одной грани вверх величина постоянная
104
1
и равная , то
6
1
1
1
1
1
1
M (X1 ) = M (X2 ) = 1 · + 2 · + 3 · + 4 · + 5 · + 6 · ⇒
6
6
6
6
6
6
⇒ M (X1 ) = M (X2 ) = 3, 5
Аналогично, вычисляем M (X12 ) = M (X22 )
1
1
1
1
1
1
1 · + 4 · + 9 · + 16 · + 25 · + 36 · ⇒
6
6
6
6
6
6
91
⇒ M (X12 ) = M (X22 ) =
≈ 15, 16.
6
Следовательно, D(X1 ) = D(X2 ) = 15, 16 − (3, 5)2 ⇒
⇒ D(X1 ) = D(X2 ) ≈ 2, 91.
Согласно свойствам математического ожидания и дисперсии (см. 5.7 и 5.11)
M (X1 + X2 ) = M (X1 ) + M (X2 ); D(X1 + X2 ) = D(X1 ) + D(X2 ).
Поэтому, M (X) = 2M (X1 ), D(X) = 2D(X1 ) ⇒
M (X) = 7; D(X) = 5, 82 .
5.5
Одинаково распределённые независимые случайные
величины
Предположим, что две независмые случайные величины X1 и X2 имеют
одинаковые распределения. Очевидно, что они имеют и одинаковые числовые характеристики. Рассмотрим среднее арифметическое этих величин.
Обозначив среднее арифметическое этих величин
X̄ =
X 1 + X2
,
2
введём также следующие обозначения:
M (X1 ) = M (X2 ) = a, D(X1 ) = D(X2 ) = D, σ(X1 ) = σ(X2 ) = σ.
С помощью этих обозначений рассмотрим связь между числовыми характеристиками среднего арифметического и соответствующими характеристиками каждой из величин.
Свойство 5.13. Математическое ожидание среднего арифметического двух одинаково распределённых независимых случайных величин равно
математическому ожиданию каждой из этих величин, то есть
M (X̄) = a.
Из свойств линейности математического ожидания (см. 5.6-5.7) следует
X1 + X2
M (X1 ) + M (X2 ) a + a
M
=
=
= a ⇒ M (X̄) = a.
2
2
2
105
Свойство 5.14. Дисперсия среднего арифметического двух одинаково
распределённых независимых случайных величин в два раза меньше дисперсии каждой из них:
D
D(X̄) = .
2
Из свойств дисперсии для независимых случайных величин (см. 5.105.11) следует
X1 + X2
D(X1 ) + D(X2 ) D + D
D
D
D
=
=
=
⇒
D(
X̄)
=
.
2
22
4
2
2
Свойство 5.15. Среднее квадратическое отклонение среднего арифметического
√ двух одинаково распределённых независимых случайных величин в 2 раз меньше среднего квадратического отклонения каждой из
них:
σ
σ(X̄) = √ .
2
Из определения 5.14 и свойства 5.14 имеем
r
√
p
D
D
σ
σ
= √ = √ ⇒ σ(X̄) = √ .
D(X) =
2
2
2
2
Замечание 5.13. Нетрудно заметить, что свойства 5.13-5.15 имеют
место для любого конечного числа независимых случайных величин.
Замечание 5.14. Из свойства 5.15 следует, что среднее арифметическое двух независимых случайных величин имеет меньшее рассеивание,
чем каждая из них.
В силу замечания 5.13 можно предположить, что для большого количества взаимно независимых случайных величин их среднее арифметическое
будет иметь значительно меньшее рассеивание, чем каждая из них. Этим и
объясняется, что на практике при проведении большого числа измерений
некоторой характеристики выбирают среднее арифметическое этих измерений.
Среди большого мира распределений вероятностей всевозможных дискретных случайных величин наибольший интерес на практике представляют рассмотренные ниже распределения.
5.6
5.6.1
Примеры распределений дискретных случайных величин
Биномиальное распределение вероятностей
Рассмотрим решение следующей задачи.
Задача 5.17. В городе 3 коммерческих банка. У каждого риск банкротства в течение года составляет 20%. Составьте ряд распределения
106
числа банков, которые могут обанкротиться в течение следующего года,
а также найдите математическое ожидание и дисперсию полученного
распределения.
Решение. Пусть случайная величина Y − число банков, которые могут обанкротиться в течение следующего года. По условию задачи Y может
принимать значения из множества {0, 1, 2, 3}.
Поскольку вероятность банкротства для каждого банка p = 0, 2 постоянна, то вероятность того, что каждый банк не обанкротится, q = 0, 8
(q = 1 − 0, 2), также постоянна, следовательно, вычисление вероятностей
банкротства для каждого банка определяется одной и той же формулой
Бернулли (при n = 3)
Pn (k) = Cnk pk q n−k .
Вычислим эти вероятности.
1. P (Y = 0) = C30 (0, 2)0 · (0, 8)3 ⇒ P (Y = 0) = 0, 512.
2. P (Y = 1) = C31 (0, 2)1 · (0, 8)2 ⇒ P (Y = 1) = 0, 384.
3. P (Y = 2) = C32 (0, 2)2 · (0, 8)1 ⇒ P (Y = 2) = 0, 096.
4. P (Y = 3) = C33 (0, 2)3 · (0, 8)0 ⇒ P (Y = 3) = 0, 008.
Так как сумма найденных вероятностей
0, 512 + 0, 384 + 0, 096 + 0, 008 = 1,
то закон распределения вероятностей для Y имеет следующий вид:
Y
0
1
2
3
.
p 0, 512 0, 384 0, 096 0, 008
Далее, согласно 5.5, вычислим математическое ожидание Y :
M (Y ) = 0 · 0, 512 + 1 · 0, 384 + 2 · 0, 096 + 3 · 0, 008 ⇒ M (Y ) = 0, 6.
Построим над таблицей строку квадратов значений Y и определим
M (Y 2 ):
Y2
0
1
4
9
Y
0
1
2
3 .
p 0, 512 0, 384 0, 096 0, 008
M (Y 2 ) = 0 · 0, 512 + 1 · 0, 384 + 4 · 0, 096 + 9 · 0, 008 ⇒ M (Y 2 ) = 0, 84.
Вычитая из полученного результата квадрат математического ожидания, находим:
D(Y ) = 0, 84 − (0, 6)2 ⇒ D(Y ) = 0, 48.
Анализируя решение этой задачи, можно сделать несколько выводов:
1. Математическое ожидание Y и её дисперсия были вычислены благода107
ря построению закона распределения вероятностей.
2. Закон распределения вероятностей был построен потому, что случайная
величина Y в условии задачи принимала всего четыре значения.
Возникает вполне естественный вопрос: как искать математическое
ожидание и дисперсию, описывающие основные характеристики случайной величины, если случайная величина принимает гораздо большее число
значений?
Так как схема Бернулли (см. определение 4.1) встречается достаточно
часто, то попробуем разобраться с характеристиками случайной величины,
вероятности значений которой связаны со схемой Бернулли, в общем случае.
Предположим, что в некотором опыте, состоящем из n независимых исходов, интересующее нас событие A наступает в каждом из этих исходов с
постоянной вероятностью p (соответственно не наступает с вероятностью
q = 1 − p).
Число исходов, в которых может наступить событие A, будем рассматривать как случайную величину X.
Из схемы Бернулли (см. определение 4.1) вытекает, что вероятность того, что событие A наступит k раз в данном опыте, определяется формулой
Бернулли
Pn (k) = Cnk pk q n−k .
Определение 5.15. Дискретная случайная величина X называется
распределённой по биномиальному закону, если вероятности событий
{ωk : X = k} определяются по формуле Бернулли.
Построим закон распределения этой величины. Для этого, как и Я. Бернулли1 , воспользуемся несимметричной монетой.
Пусть вероятность выпадения герба равна p, а вероятность выпадения
решётки q = 1 − p. В этом случае закон распределения случайной величины X − числа выпадений герба − будет иметь следующий вид
X 0 1
.
p q p
Если монету подбросить два раза, то вероятность того, что герб выпадет 0, 1, 2 раза будет соответственно равна q 2 , 2qp, p2 . Поэтому закон
распределения в этом случае примет вид
X 0 1
2
.
2
p q 2qp p2
1
См. Корбалан Ф., Санц Х. Укрощение случайности. Теория вероятностей. М. : Де Агостини, 2014.
С. 48.
108
В случае трёхкратного подбрасывания монеты вероятность того, что
герб выпадет 0, 1, 2, 3 раза будет соответственно равна q 3 , 3q 2 p, 3qp2 , p3 .
При этом закон распределения примет вид
X 0
1
2
3
.
3
2
2
p q 3q p 3qp p3
Выпишем для каждого из вышеприведённых законов распределения случайной величины X соответствующюю сумму вероятностей:
q + p = 1;
2
q + 2qp + p2 = (q + p)2 = 1;
q 3 + 3q 2 p + 3qp2 + p3 = (q + p)3 = 1.
В полученных выражениях легко увидеть знакомые каждому школьнику квадрат суммы и куб суммы. Очевидно, что продолжая подбрасывать
монету и записывать с помощью формулы Бернулли (4.1) соответствующие
вероятности, мы получим таблицу закона распределения в общем случае:
X 0
1
2
...
n
1 n−1
2 2 n−2
p q Cn pq
Cn p q
...
k
Cnk pk q n−k
...
...
n−1
Cnn−1 pn−1 q
n
.
pn
Из вышесказанного логично предположить1 , что сумма вероятностей
q n + Cn1 pq n−1 + Cn2 p2 q n−2 · · · + Cnk pk q n−k + Cnn−1 pn−1 q + pn = (q + p)n = 1.
Так как сумма вероятностей в итоге превратилась в бином Ньютона2 ,
(q + p)n , то именно по этой причине распределение назвали − биномиальным распределением.
Далее, нам нужно вычислить математическое ожидание X. Но решать
эту задачу «в лоб» с помощью формулы (5.5) проблематично, так как для
этого придётся залезть в дебри комбинаторики.
Поэтому подойдём к этой проблеме с другой стороны.
Представим, что случайная величина X − число появлений события A является суммой чисел появлений события A в отдельных испытаниях.
То есть если случайная величина X1 − число появлений A в первом
испытании; случайная величина X2 − число появлений A во втором испытании; . . . ; случайная величина Xn − число появлений A в n−м испытании,
то
X = X1 + X2 + · · · + Xn .
Так как каждое из слагаемых в последнем равенстве представляет число
1
Конечно, с точки зрения математики этот факт не мешало бы доказать с помощью метода математической индукции (но это мы оставим читателям).
2
Бином Ньютона − формула для разложения на отдельные слагаемые целой неотрицательной степени суммы двух переменных, имеющая вид
(a + b)n = Cn0 an + Cn1 an−1 b + Cn2 an−2 b2 + · · · + Cnk an−k bk + · · · + Cnn bn .
109
появлений события в одном испытании, то закон распределения вероятностей для каждого из них можно описать в виде следующей таблицы:
Xk = k 0 1
.
p
q p
Следовательно, M (Xk ) = 0 · q + 1 · p ⇒ M (Xk ) = p, (k = 1, n).
Согласно свойству 5.7 для математического ожидания
M (X) = M (X1 ) + M (X2 ) + · · · + M (Xn ).
Подставив вместо каждого слагаемого в равенстве p, получим
M (X) = np.
(5.16)
Применим этот подход для вычисления дисперсии биномиального распределения вероятностей.
Здесь нам придётся учесть что так как каждый исход в опыте не зависит от
от другого исхода, то рассматриваемые случайные величины Xk взаимно
независимы. Поэтому, согласно свойству 5.11
D(X) = D(X1 ) + D(X2 ) + · · · + D(Xn ).
Очевидно также, что
D(X1 ) = D(X2 ) = · · · = D(Xn ).
Для вычисления D(Xk ) добавим в последний закон распределения строку квадратов значений Xk :
Xk2 = k 2 0 1
Xk = k 0 1 .
p
q p
Найдём M (Xk2 ):
M (Xk2 ) = 0 · q + 1 · p ⇒ M (Xk2 ) = p, (k = 1, n).
Вычитая из этого представления квадрат математического ожидания Xk ,
имеем
D(Xk ) = p − p2 ⇒ D(Xk ) = p(1 − p) ⇒ D(Xk ) = pq (k = 1, n).
Подставляя последний результат в сумму для вычисления дисперсии X,
имеем
D(X) = npq.
(5.17)
Замечание 5.15. Если бы мы знали формулы (5.16) и (5.17) до решения задачи 5.17, то мы бы нашли математическое ожидание и дисперсию
для случайной величины Y гораздо быстрее. Теперь же остаётся только
проверить правильность тех вычислений.
110
В задаче 5.17 n = 3, p = 0, 2, q = 0, 8. Поэтому,
M (Y ) = 3·0, 2 ⇒ M (Y ) = 0, 6; D(Y ) = 3·0, 2·0, 8 ⇒ D(Y ) = 0, 48.
То есть ошибок ранее мы не допустили.
Замечание 5.16. В заключение заметим, что биномиальное распределение применяется там, где требуется оценка количества успехов в выборке,
состоящей из n наблюдений, например, при проведении выборочного контроля за качеством производственных изделий, при котором отбор изделий
для пробы производится по схеме случайной повторной выборки, То есть
когда проверенные изделия возвращаются в исходную партию. Тогда количество нестандартных изделий среди отобранных есть случайная величина
с биномиальным законом распределения вероятностей.
Кроме этого, биномиальное распределение связано с задачами о случайных блужданиях и перемешиваниях.
С ростом n биномиальное распределение стремится к непрерывному нормальному распределению вероятностей.
Если же при n → ∞ p → 0 таким образом, что произведение λ = np является величиной постоянной, биномиальное распределение вероятностей
превращается в пуассоновское распределение.
5.6.2
Распределение Пуассона
Определение 5.16. Дискретная случайная величина X называется распределённой по закону Пуассона1 , если вероятности событий
{ωk : X = k} определяются по формуле Пуассона:
Pn (k) =
λk
k!
e−λ .
(5.18)
В отличие от биномиального распределения распределение Пуассона является бесконечным, То есть случайная величина пробегает счётное множество значений.
Поэтому её закон распределения имеет следующий вид:
X
p
0
1
e−λ λe−λ
2
2
...
λ −λ
e
...
2
k
...
k
.
λ −λ
e
...
k!
Чтобы убедиться, что таблица истинна, вычислим сумму вероятностей
1
Распределение, названное пуассоновским, было рассмотрено в предельной форме С. Д. Пуассоном
в 1830 году в работе, посвященной соотношению рождаемости мальчиков и девочек (Memoire sur la
proportion des naissances des filles et des garcons), а затем в 1837 году в приближённой форме в работе
«Исследования о вероятности приговоров в уголовных и гражданских делах» ( the Recherches sur la
probabilite des jugements en matiere criminelle et matiere civil) (cм. Earliest Known Uses of Some of the
Words of Mathematics (P) [Электронный ресурс] : URL : http://jeff560.tripod.com/v.html (дата
обращения: 12.06.2016)).
111
λ2 −λ
λk −λ
e + λe + e · · · + e + . . . .
2!
k!
Вынеся e−λ , как общий множитель,
за скобки, имеем
2
λ λ
λk
−λ
e
1+ +
··· +
+ ... .
1! 2!
k!
Можно заметить, что числовой ряд в скобке является рядом Маклорена для функции eλ . Заменив скобку суммой ряда, получаем произведение
e−λ eλ = 1.
Таким образом, мы показали, что сумма вероятностей равна 1, а значит,
распределение построено правильно.
Используя формулу 5.5, вычислим математическое ожидание X:
λ2
λk
M (X) = 0 · e−λ + 1 · λe−λ + 2 · e−λ · · · + k · e−λ + . . . .
2!
k!
С помощью знака сокращённого суммирования перепишем правую часть
равенства в компактной форме и преобразуем
∞
X
λk −λ
λk −λ
λ2 −λ
−λ
−λ
k e .
0 · e + 1 · λe + 2 · e · · · + k · e + · · · =
2!
k!
k!
−λ
−λ
k=0
Так как при k = 0 первое слагаемое суммы обращается в нуль, то изменим
нижнее значение индекса суммирования на единицу:
∞
∞
∞
∞
X
X
λk −λ X λk −λ X
λk
λk
−λ
k e =
k e =
k
e =
e−λ .
k!
k!
k(k − 1)!
(k − 1)!
k=1
k−1
k=0
k
Представив λ = λ · λ
k=1
−λ
k=1
, вынесем λe за знак суммирования:
∞
X
λk−1
−λ
λe
.
(k − 1)!
k=1
Заменив переменную суммирования k − 1 = m ⇒ m = 0, имеем
∞
∞
X
X
λk−1
λm
−λ
−λ
λe
= λe
.
(k − 1)!
m!
m=0
k=1
∞
m
X
λ
Как мы видели выше, ряд
− ряд Маклорена для функции eλ .
m!
m=0
Следовательно, M (X) = λe−λ · eλ . Таким образом,
M (X) = λ.
(5.19)
Далее, дополнив таблицу распределения Пуассона строкой для квадратов значений случайной величины, определим M (X 2 ).
X2
X
p
0
0
e
−λ
1
1
−λ
λe
4
2
...
...
λ2 −λ
e
...
2
112
k2
k
λk −λ
e
k!
...
... .
...
Для этого представим скалярное произведение векторов строки квадратов
и вероятностей в компактном виде и преобразуем его:
∞
k
k
X
λ2 −λ
2 λ −λ
−λ
−λ
2 λ −λ
k
0 · e + 1 · λe + 4 · e · · · + k · e + · · · =
e =
2!
k!
k!
k=0
=
∞
X
k=1
∞
X λk−1
λ · λk−1 −λ
k
k
e =λ
e−λ .
k(k − 1)!
(k − 1)!
2
k=1
Представив k = (k − 1) + 1, перепишем последнюю сумму и разобъём её на
две:
!
∞
∞
∞
k−1
k−1
X
X
X
λ
λk−1 −λ
λ
(k − 1)
e = λe−λ
+
.
((k − 1) + 1)
λ
(k − 1)!
(k − 1)!
(k − 1)!
k=1
k=1
k=1
Заменив, как и выше, k − 1 = m ⇒ m = 0, преобразуем последнее
равенство к виду
!
∞
∞
m
m
X
X
λ
λ
λe−λ
m
+
.
m!
m!
m=0
m=0
Так как λe
−λ
∞
X
λm
λm
2
−λ
= λ (см. с. 109), а λe
= λ, то
m
m!
m!
m=0
m=0
∞
X
M (X 2 ) = λ2 + λ.
Поэтому, вычитая из этого результата квадрат математического ожидания M (X), получаем:
D(X) = λ.
(5.20)
Замечание 5.17. Следует заметить, что распределение вероятностей
Пуассона играет важную роль во многих задачах физики, теории связи,
теории надежности, теории массового обслуживания.
В заключение рассмотрим задачу, которая привела к понятию математического ожидания. Задача была впервые сформулирована в 1713 году
Н. Бернулли1 и в дальнейшем стала известна как Санкт-петербургский
парадокс2 .
В начале XVIII столетия в Санкт-Петербурге популярной была игра:
правильная монета подбрасывается до тех пор, пока не выпадет «решётка».
Если «решётка» выпадет при k-м бросании, то игрок получает из банка
2k рублей. То есть с каждым бросанием его выигрыш удваивается.
Первый вопрос звучал так: Сколько нужно заплатить игроку за уча1
См. Википедия [Электронный ресурс] : URL : https://isaran.ru/?q=ru/person&guid=
-58575804-D56F-F367-59CE-8763F90CD305(\T2A\cyrd\T2A\cyra\T2A\cyrt\T2A\cyra\T2A\cyro\
T2A\cyrb\T2A\cyrr\T2A\cyra\T2A\cyrshch\T2A\cyre\T2A\cyrn\T2A\cyri\T2A\cyrya:12.06.2016).
2
См. Корбалан Ф., Санц Х. Указ. соч. С. 43-45.
113
стие в игре, чтобы игра стала «безобидной» («безобидность» игры предполагает, что математическое ожидание чистого выигрыша должно
быть равно нулю)?
Решение. Пусть X − величина выигрыша игрока. Так как с каждым
бросанием его выигрыш удваивается, то X может принимать следующие
значения:
X 2 22 23 . . . 2k . . .
1
Учитывая что при k-м возможном значении X вероятность выигрыша k ,
2
составим закон распределения
X 2 22
1 1
p
2 22
23 . . .
1
...
23
2k . . .
1
...
2k
Вычисляя математическое ожидание
1
1
1
M (X) = 2 · 2 + 22 · 2 + · · · + 2k · k + · · · ⇒ M (X) = 1 + 1 + . . . ,
2
2
2
быстро убедились, что такая постановка задачи приводит к парадоксу: потери банка имеют бесконечное математическое ожидание.
Поэтому, исходя из ограниченности ресурсов, был сформулирован второй вопрос. Решить задачу, предполагая, что в банке 1000000 рублей и
действует соглашение о том, что в случае выпадания «решётки» при
k-м бросании монеты или позднее, если 2k > 1000000, то весь банк отдаётся игроку в качестве выигрыша.
Оценим 1000000 = 106 с помощью степеней двойки
524288 = 1019 < 106 < 1020 = 1048576.
Выделим частичную сумму 19 слагаемых1
1
1
1
1
1
2 · 2 + 22 · 2 + · · · + 219 · 19 +
+ 20 + . . . · 106 =
20
2
2
2
2
2
1 1
106
1
106
≈ 19 + 2 · 0, 954 = 20, 908.
19 + 1 + + + . . . · 20 = 19 +
·
2 4
2
1 − 12 220
Таким образом, M (X) ≈ 21. Следовательно, среднее значение выигрыша игрока 21 рубль. Отсюда можно сделать вывод о том, что
если вступительный взнос игрока будет равен 21 рублю,
то игра может стать выгодной для банка.
1
Так как с учётом соглашения больше 1000000 игрок не получит, то все последующие выигрыши
можно ограничить этой суммой, которая окажется общим множителем ряда, составленного из членов
геометрической прогрессии.
114
Непрерывные случайные величины
6
Теория вероятностей есть
в сущности не что иное, как
здравый смысл, сведенный
к исчислению.
Пьер Симон де Лаплас1
6.1
Определение непрерывной случайной величины
Понятие закона распределения (см. определение 5.2) имеет смысл только
в том случае, когда случайная величина принимает конечное или счётное
множество значений. Если же значения случайной величины представляют
«сплошное» множество точек на числовой прямой, то это понятие теряет
свой смысл.
В то же время определение функции распределения 5.3
F (x) = P (X < x)
как более общее понятие остаётся в силе.
Для того, чтобы ввести с помощью функции распределения новый класс
случайных величин, понадобится два понятия из мира математического
анализа:
Определение 6.1. Функция f (x) называется кусочно непрерывной на некотором множестве, если она непрерывна внутри множества за исключением конечного числа точек, а на границах множества
имеет односторонние пределы.
Определение 6.2. Функция f (x) называется кусочно дифференцируемой на некотором множестве, если её производная на этом
множестве имеет конечное число точек разрыва.
Так, например, функция f (x) = |x| является кусочно дифференцируемой функцией на отрезке [−1; 1].
Она непрерывна на отрезке [0; 1] (рис. 6.1), а её производная2
−1, если − 1 ≤ x < 0,
f 0 (x) =
1, если
0 < x ≤ 1.
является кусочно непрерывной, имея разрыв первого рода в точке x = 0
(рис. 6.2).
1
2
См. Вероятность и математическая статистика... С. 863.
В точках x = −1 и x = 1 речь идёт о соответствующих односторонних производных.
115
y
y
1
1
x
−1
x
−1
1
1
−1
Рис. 6.1
Рис. 6.2
Зная о том, что представляют собой кусочно непрерывные и конечно
дифференцируемые функции, можно ввести следующее
Определение 6.3. Случайная величина X называется непрерывной, если её функция распределения F (x) является непрерывной, кусочно дифференцируемой функцией, производная которой кусочно непрерывна в области определения.
Восстановим сформулированные в предыдущей главе свойства
функции распределения:
Свойство 5.1 ∀ x 0 ≤ F (x) ≤ 1.
Свойство 5.2 ∀ x1 , x2 : x1 < x2 ⇒ F (x1 ) ≤ F (x1 ).
Свойство 5.3 lim F (x) = 0.
x→−∞
Свойство 5.4 lim F (x) = 1.
x→∞
Эти свойства справедливы и для функции распределения непрерывной случайной величины.
Рассмотрим два следствия, вытекающие из этих свойств.
Следствие 6.1. Вероятность того, что случайная величина X примет значение из промежутка [a; b), равна приращению функции распределения на этом промежутке:
P (a ≤ X < b) = F (b) − F (a).
(6.1)
Это следствие вытекает из доказательства свойства 5.2, из которого следует, что
P (x1 ≤ X < x2 ) = F (x2 ) − F (x1 ).
(6.2)
Если в равенстве 6.2 обозначить x1 = a, а x2 = b, то получится требуемое
утверждение.
Это следствие справедливо и для дискретных случайных величин. Но
если случайная величина является непрерывной, то оказывается, что
P (a ≤ X < b) = P (a < X < b) = P (a < X ≤ b) = P (a ≤ X ≤ b).
(6.3)
116
Эти равенства опираются на следующее следствие:
Следствие 6.2. Вероятность того, что непрерывная случайная величина X примет некоторое фиксированное значение x, равна нулю, то
есть
P (X = x) = 0.
Если предположить, что x − некоторое фиксированное число, совпадающее с x1 в формуле (6.2): x1 = x, а x2 = x + ∆x, то
P (x ≤ X < x + ∆x) = F (x + ∆x) − F (x).
Так как X − непрерывная случайная величина, то функция распределения
F (x) − непрерывная функция. Поэтому lim F (x + ∆x) = F (x). Следова∆x→0
тельно,
P (X = x) = lim P (x ≤ X < x + ∆x) = 0.
∆x→0
Из равенств (6.3) вытекает, что вероятность того, что непрерывная случайная величина принимает значения из данного промежутка, не зависит
от принадлежности концов промежутка самому промежутку.
Замечание 6.1. Следует заметить, что если P (X = x) = 0, то это совсем не означает, что событие, при котором X = x, является невозможным
событием.Так как непрерывная случайная X в результате опыта обязательно принимает какое-нибудь возможное значение, то этим значением может
оказаться и x.
Задача 6.1. Случайная величина X задана функцией распределения

при
x ≤ 1,
 0,
2
(x − 1) , при 1 < x ≤ 2,
F (x) =

1,
при
x > 2.
1) Постройте график функции F (x).
2) Найдите вероятности того, что в результате опыта случайная величина X примет значения, принадлежащие:
а) интервалу (1, 2; 1, 6);
б) отрезку [1, 7; 2, 3];
в) лучу {x : x > 1, 5};
г) лучу {x : x ≤ 1, 3}.
Решение. 1) Построим требуемый график (рис. 6.3).
F (x)
1
x
Рис. 6.3
1
2
117
2) С помощью формулы (6.1) вычислим требуемые вероятности:
а) P (1, 2 < X < 1, 6) = F (1, 6) − F (1, 2).
Так как 1, 2 ∈ (1; 2), то F (1, 2) = (1, 2 − 1)2 , то есть F (1, 2) = 0, 04.
Аналогично, F (1, 6) = (1, 6 − 1)2 ⇒ F (1, 6) = 0, 36.
Поэтому P (1, 2 < X < 1, 6) = 0, 36 − 0, 04 ⇒ P (1, 2 < X < 1, 6) = 0, 32.
б) Согласно формуле (6.1) P (1, 7 ≤ X ≤ 2, 3) = F (2, 3) − F (1, 7).
Так как 1, 7 ∈ (1; 2), то F (1, 7) = (1, 7 − 1)2 , то есть F (1, 7) = 0, 49.
В силу того, что 2, 3 > 2, F (2, 3) = 1.
Поэтому P (1, 7 ≤ X ≤ 2, 3) = 1 − 0, 49 ⇒ P (1, 7 ≤ X ≤ 2, 3) = 0, 51.
в) Представим луч {x : x > 1, 5} в виде бесконечного интервала (1, 5; ∞).
Тогда, согласно формуле (6.1) P (1, 5 < X < ∞) = F (∞) − F (1, 5).
Так как 1, 5 ∈ (1; 2), то F (1, 5) = (1, 5 − 1)2 , то есть F (1, 5) = 0, 25.
Поскольку F (∞) = 1,
то P (1, 5 < X < ∞) = 1 − 0, 25 ⇒ P (X > 1, 5) = 0, 75.
г) Как и в предыдущем задании, представим луч {x : x ≤ 1, 3} в виде
бесконечного множества (−∞; 1, 3].
Тогда, согласно той же формуле P (−∞ < X ≤ 1, 3) = F (1, 3) − F (−∞).
Так как 1, 3 ∈ (1; 2), то F (1, 3) = (1, 3 − 1)2 , то есть F (1, 3) = 0, 09.
Известно, что F (−∞) = 0.
Поэтому P (−∞ < X ≤ 1, 3) = 0, 09 − 0 ⇒ P (X ≤ 1, 3) = 0, 09.
Объединяя результаты а)-г), получаем
P (1, 2 < X < 1, 6) = 0, 32; P (1, 7 ≤ X ≤ 2, 3) = 0, 51;
P (X > 1, 5) = 0, 75;
P (X ≤ 1, 3) = 0, 09.
В начале главы непрерывная случайная величина X была определена с
помощью функции распределения F (x). Этот способ задания не является
единственным.
6.2
Плотность распределения вероятностей непрерывной
случайной величины и её свойства
В качестве закона распределения возможных значений случайной величины, имеющего смысл только для непрерывных случайных величин,
введём понятие плотности распределения вероятностей.
Определение 6.4. Плотностью распределения вероятностей
непрерывной случайной величины называется первая производная её
функции распределения, то есть
0
f (x) = F (x).
Замечание 6.2. В силу определения плотность распределения f (x)
иногда называют дифференциальной функцией, а функцию распределения
118
F (x) − интегральной функцией (так как она является для функции плотности первообразной функцией)1 .
Замечание 6.3. С точки зрения теории вероятностей термин плотность вероятности можно объяснить следующим образом: Предположим,
что отрезок [x; x + ∆x] является бесконечно малым. Из формулы (6.1) следует, что
P (x ≤ X ≤ x + ∆x) = F (x + ∆x) − F (x).
С помощью формулы Лагранжа имеем, что
0
F (x + ∆x) − F (x) ≈ F (x)∆x = f (x)∆x.
Поэтому,
P (x ≤ X ≤ x + ∆x) ≈ f (x)∆x.
Следовательно, вероятность того, что случайная величина принимает
значение, принадлежащее отрезку [x; x + ∆x], приближённо равна произведению плотности вероятности в точке x на длину интервала ∆x.
С точки зрения механики плотность вероятности можно определить
так: представьте, что вероятность того, что случайная величина принимает
значения на участке [x; x + ∆x), есть некоторая масса, равная 1.
При этом эта масса распределена произвольным образом на данном
участке2 . Тогда средняя плотность, с которой распределена эта масса на
участке, будет равна отношению
P (x ≤ X ≤ x + ∆x)
.
∆x
А так как (см. равенство (6.1))
P (x ≤ X ≤ x + ∆x) = F (x + ∆x) − F (x),
то средняя плотность равна
F (x + ∆x) − F (x))
.
∆x
«Заставив» ∆x → 0, получаем, что
F (x + ∆x) − F (x)
= F 0 (x) = f (x).
lim
∆x→0
∆x
Из этой аналогии массы и вероятности вытекает механический смысл
плотности вероятности.
Так как плотность вероятности является производной неубывающей
1
Из определения 6.4 становится ясно, почему функция распределения должна быть дифференцируемой в области определения.
2
Если мы распределим массу дискретным образом, то сумма вероятностей, которые будут соответствовать событиям, при которых случайная величина принимает значения именно в этих точках, будет
равна 1. Поэтому и выбранная масса равна 1.
119
функции F (x), то она обладает следующим свойством.
Свойство 6.1. Плотность распределения неотрицательная функция,
то есть
∀x ∈ (−∞; ∞) f (x) ≥ 0.
Поскольку F (x) является первообразной функцией для функции плотности f (x) на любом отрезке [a; b], то согласно формуле Ньютона-Лейбница
Zb
f (x)dx = F (b) − F (a).
a
Поэтому в силу (6.1) имеем
Zb
P (a ≤ X ≤ b) =
f (x)dx.
(6.4)
a
С точки зрения геометрии вероятность
y
P (a ≤ X ≤ b)
y = f (x)
совпадает с площадью криволинейной трапеции, ограниченной графиком функции плотноx сти y = f (x), осью OX и прямыми x = a и
a c b
x = b (рис. 6.4).
Если взять a = −∞, а b = ∞, то получим
Рис. 6.4
достоверное событие X ∈ (−∞; ∞).
Зная, что его вероятность равна единице, получаем
Z∞
Свойство 6.2.
f (x)dx = 1.
−∞
Задача 6.2. Функция плотности непрерывной случайной величины
X определена на всей числовой оси равенством
C
f (x) =
.
1 + 9x2
Определите значение параметра C.
Решение. Согласно свойству 6.2
Z∞
Cdx
= 1.
1 + 9x2
−∞
Используя свойство однородности несобственного интеграла, вынесем константу C за знак интеграла
Z∞
Z∞
Cdx
dx
=
C
.
1 + 9x2
1 + 9x2
−∞
−∞
120
Далее вычислим значение интеграла
Zb
Z∞
b
dx
dx
1
=
= lim
= lim
arctg 3x
a
1 + 9x2 a → −∞ 1 + 9x2 a → −∞ 3
−∞
b→
∞a
b→
∞
1 π π π
1
=
lim arctg 3b − lim arctg 3a =
− −
= .
a→∞
3 b→∞
3 2
2
3
π
Следовательно, C · = 1.
3
3
Таким образом, значение параметра C = .
π
Если в формуле (6.4) взять a = −∞, а b = x, то получим представление
функции распределения в интегральной форме1
Zx
F (x) =
f (t)dt.
(6.5)
−∞
Задача 6.3. Дана функция плотности

при
x ≤ 2,
 0,
f (x) =
2x − 4, при 2 < x ≤ 3,

0,
при
x > 3.
Определите интегральную функцию распределения F (x).
Решение. Так как область определения функции плотности является
объединением трёх интервалов
(−∞; ∞) = (−∞; 2] ∪ (2; 3] ∪ (3; ∞),
то придётся верхнему пределу x из интегрального представления функции
F (x) (6.5) «прогуляться» по всем этим интервалам.
1. Предположим что x ∈ (−∞; 2). В этом случае f (x) = 0. Тогда
Zx
Zx
f (t)dt =
0dt = 0.
−∞
−∞
2
2. Допустим что x ∈ (2; 3]. Следовательно ,
x
Zx
Z2
Zx
f (t)dt =
0dt + (2t − 4)dt = 0 + (t2 − 4t) =
−∞
−∞
2
2
2
2
2
= x − 4x − (2 − 4 · 2) = x − 4x + 4 = (x − 2)2 .
1
Переменная интегрирования x обозначена через t, чтобы можно было отличить её и верхний предел
интегрирования.
2
Второй интеграл можно было вычислить проще, если вынести общий множитель 2:
Zx
Zx
(t − 2)2 x
(2t − 4)dt = 2 (t − 2)dt = 2 ·
= (x − 2)2 .
2
2
2
2
121
3. Пусть x ∈ (3; ∞; ). В этом случае
Zx
Z2
Z3
Z∞
f (t)dt =
0dt + (2t − 4)dt + 0dt = 0 + 1 + 0 = 1.
−∞
−∞
2
3
Объединяя результаты пунктов
гральной функции распределения1

 0,
F (x) =
(x − 2)2 ,

1,
6.3
1.-3., получаем представление интепри
x ≤ 2,
при 2 < x ≤ 3,
при
x > 3.
Числовые характеристики непрерывной случайной
величины
По аналогии с дискретными случайными величинами введём понятия
числовых характеристик непрерывных случайных величин.
6.3.1
Математическое ожидание непрерывной случайной величины
Предположим, что непрерывная случайная величина X задана с помощью плотности распределения f (x). Допустим также, что все её возможные значения лежат на отрезке [a; b]. По аналогии с определением интеграла разобъём отрезок на n отрезков, имеющих длины ∆x1 , ∆x2 , . . . , ∆xn .
Выберем на каждом из интервалов произвольную точку x̄i , (i = 1, n). Далее, пользуясь тем, что число отрезков конечно, определим по аналогии
с математическим ожиданием дискретной случайной величины следующую сумму:
x̄1 P (a < X ≤ x1 ) + x̄2 P (x1 < X ≤ x2 ) + · · · + x̄n P (xn−1 < X ≤ xn ).
Из замечания 6.3 следует, что для каждого из выбранных интервалов вероятность
P (xi−1 < X ≤ xi ) ≈ f (xi−1 )∆xi , (i = 1, n).
Следовательно, сумму можно переписать в новом виде:
x̄1 f (a)∆x1 + x̄2 f (x1 )∆x2 + · · · + x̄n f (xn−1 )∆xn
или в компактном виде
n
X
x̄i f (xi−1 )∆xi .
i=1
1
С точки зрения определения интегральной функции распределения непрерывной случайной величины не мешает убедиться в том, что полученная функция действительно непрерывна. Для этого
нужно вычислить односторонние пределы в точках x = 2 и x = 3. Попробуйте эту проверку выполнить
самостоятельно.
122
Пусть λ = max{∆x1 , ∆x2 , . . . , ∆xn }. Если «заставить» λ стремиться к нуn
лю, то левые концы отрезков xi−1 → xi , а вместе с ними и x̄i → xi .
В результате получаем
Zb
n
X
lim
xi f (xi )∆xi = xf (x)dx.
λ→0
i=1
a
Из этого равенства и следует
Определение 6.5. Математическим ожиданием непрерывной
случайной величины X, возможные значения которой принадлежат
отрезку [a; b], называется определённый интеграл
Zb
M (X) =
xf (x)dx.
(6.6)
a
В том случае, когда возможные значения непрерывной случайной величины X заполняют всю числовую ось, математическое ожидание1
Z∞
xf (x)dx.
(6.7)
M (X) =
−∞
Определённое таким образом математическое ожидание непрерывной
случайной величины обладает теми же свойствами 5.5-5.8, что и математическое ожидание дискретной случайной величины (это объясняется
тем, что предельный переход сохраняет свойства линейности2 ).
Задача 6.4. Непрерывная случайная величина X задана своей функцией плотности
0,
если x ≤ 0,
f (x) =
−2x
2e , если x ≥ 0.
Определите математическое ожидание X.
Решение. Согласно формуле (6.7)
Z∞
Z0
Z∞
Zb
M (X) =
x·2e−2x dx =
x·0dx+ x·2e−2x dx = 0+2· lim xe−2x dx =
b→∞
−∞
−∞
0
0

b
Z
du = dx,
b
− 1 ·  lim xe−2x − e−2x dx =
=
2·
=
1
b→∞
0
2
dv = e−2x dx, v = − e−2x
2
0
u = x,
1



Z∞
|x|f (x)dx.
При этом предполагается, что существует интеграл
−∞
2
То есть предел суммы функций равен сумме их пределов (если они существуют), и константу
можно выносить из под знака предела.
123
b
1
1
1
−2x
= .
= 2 · − · 0 − − lim e
0
2
2 b→∞
2
Следовательно, M (X) = 0, 5.
Замечание 6.4. К характеристикам положения непрерывной случайной величины кроме математического ожидания относятся мода и медиана.
Определение 6.6. Модой Mo непрерывной случайной величины
называется её значение, при котором плотность распределения имеет
максимум.
Так, на рис. 6.4 Mo = c.
Задача 6.5. Непрерывная случайная величина X задана своей функцией плотности 

0,
если x ≤ 0,


3
x
f (x) =
x
−
, если 0 < x ≤ 3,

9

 0,
если x > 3.
Определите моду распределения случайной величины X.
Решение. Согласно определению 6.6 для того, чтобы найти моду, нужно определить, где находится точка максимума функции плотности. Из
условия задачи достаточно очевидно, что если такая точка есть, то она лежит на интервале (0; 3).
Первая производная на интервале (0; 3)
x2
0
f (x) = 1 − .
3
Стационарные точки производной являются решением уравнения
x2
1−
= 0.
3
√
√
√
Из двух точек x = − 3 и x = 3 нас интересует x = 3. Так как√в
этой точке производная меняет знак с плюса на минус1 , то точка x = 3
является точкой максимума функции плотности на рассматриваемом интервале. Следовательно, заданная случайная величина X имеет моду
√
Mo = 3.
Определение 6.7. Медианой2 Me непрерывной случайной вели1
Производная является√квадратичной функцией, график которой − парабола, ветви которой направлены вниз. В точке ( 3; 0) парабола пересекает ось абсцисс из положительной полуплоскости в
отрицательную.
2
Определение медианы впервые дал в 1843 году О. Курно в своей работе «Основы теории шансов
и вероятностей» (Exposition de la theorie des chanses et des probabilites) (cм. Курно О. Основы теории
шансов и вероятностей. М. : Наука, 1970. С. 76).
Курно Антуан Огюстен (фр. Cournot Antoine Augustin, 1801-1877) − французский экономист,
124
чины называется её значение, при котором имеет место равенство
P (X < Me ) = P (X > Me ).
(6.8)
Из определения 6.7 вытекает следствие о связи между медианой Me распределения непрерывной случайной величины и интегральной функцией
её распределения.
1
Следствие 6.3. F (Me ) = .
2
Истинность этого равенства вытекает из равенства (6.8).
Перепишем это равенство подробнее.
P (−∞ < X < Me ) = P (Me < X < ∞).
Из формулы (6.1) следует что
P (−∞ < X < Me ) = F (Me ), а P (Me < X < ∞) = 1 − F (Me ).
Подставляя правые части последних двух равенств в равенство (6.8),
получаем новое равенство
F (Me ) = 1 − F (Me ),
из которого и следует истинность следствия.
Замечание 6.5. Следует заметить, что это следствие можно получить
с помощью геометрии.
С точки зрения геометрии, медиана − это абсцисса точки, в которой площадь, ограниченная функцией плотности, делится пополам. А так как вся
площадь, ограниченная функцией плотности и осью абсцисс равна единице, то интегральная функция распределения в точке, соответствующей
медиане, равна
F (Me ) = P (X < Me ) = 0, 5.
На рис. 6.4 медиана совпадает с модой, поэтому Me = c.
Задача 6.6. Непрерывная случайная величина X задана своей функцией плотности 
если x ≤ 1,
 0,
2
f (x) =
−6x + 18x − 12, если 1 < x < 2,

0,
если x ≥ 2.
Определите медиану распределения случайной величины X.
Решение. Аналогично решению задачи 6.3 находим интегральную функцию распределения 
заданной случайной величины
если x ≤ 1,
 0,
3
2
F (x) =
−2x + 9x − 12x + 5, если 1 < x < 2,

1,
если x ≥ 2.
философ и математик. (cм. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/
wiki/\T2A\CYRK\T2A\cyru\T2A\cyrr\T2A\cyrn\T2A\cyro,_\T2A\CYRA\T2A\cyrn\T2A\cyrt\T2A\cyru\
T2A\cyra\T2A\cyrn_\T2A\CYRO\T2A\cyrg\T2A\cyryu\T2A\cyrs\T2A\cyrt\T2A\cyre\T2A\cyrn (дата
обращения: 12.06.2016)).
125
Далее, используя следствие 6.3, составим уравнение
1
−2x3 + 9x2 − 12x + 5 = .
2
Умножив обе части на 2 и вычтя единицу из обеих частей, получим уравнение с целыми коэффициентами
4x3 − 18x2 + 24x − 9 = 0.
Из курса элементарной алгебры известно что, если уравнение с целыми
коэфффициентами имеет рациональный корень, то числитель корня является делителем свободного члена, а знаменатель − делителем старшего
3
коэффициента. На интервале (1; 2) таким числом является x = .
2
Подставляя его вместо x в уравнение
3
2
3
27 81
3
3
4·
− 36 + 9 = 0,
− 18 ·
+ 24 · − 9 = − +
2
2
2
2
2
убеждаемся в том, что это число является корнем составленного уравнения1 .
Следовательно, медиана распределения Me = 1, 5 .
Замечание 6.6. Следует заметить, что график заданной функции
плотности (рис. 6.5) изображается симметрично расположенной параболой, абсцисса вершины которой определяет медиану и моду распределения
заданной функции.
y
0
Рис. 6.5
6.3.2
y = f (x)
x
1
3
2
2
Дисперсия непрерывной случайной величины
Дисперсия непрерывной случайной величины определяется точно также, как и дисперсия дискретной случайной величины.
Определение 6.8. Дисперсией непрерывной случайной величины называется математическое ожидание квадрата отклонения случайной величины от её математического ожидания.
√
√
3− 3
3+ 3
Составленное уравнение имеет еще два корня:
и
. Но эти корни не могут быть
2
2
медианами распределения, так как плотность вероятности в соответствующих им точкам равна нулю.
1
126
Если возможные значения случайной величины X лежат на [a; b], то
Zb
D(X) =
(x − M (x))2 f (x)dx.
(6.9)
a
Если же возможные значения случайной величины X заполняют всю
числовую ось, то
Z∞
D(X) =
(x − M (x))2 f (x)dx.
(6.10)
−∞
Так как математическое ожидание непрерывной случайной величины
обладает теми же свойствами, что и для дискретной, то для вычисления
дисперсии используется формула (6.9)
D(X) = M X 2 − (M (X))2 ,
(6.11)
в которой
M X
2
Zb
=
x2 f (x)dx.
(6.12)
a
Естественно, что сохраняются и свойства дисперсии 5.9-5.12.
Точно так же, как и в случае с дискретной случайной величиной, определяется среднее квадратическое отклонение непрерывной случайной величины.
Определение 6.9. Средним квадратическим отклонением непрерывной случайной величины от её математического ожидания называется квадратный корень из дисперсии этой величины.
p
(6.13)
σ(X) = D(X).
Задача 6.7. Случайная величина X задана интегральной функцией
распределения

x ≤ 0,
 0, при
3
F (x) =
x , при 0 < x ≤ 1,

1, при
x > 1.
1)
2)
3)
4)
5)
Найдите функцию плотности f (x).
Постройте график f (x);
найдите математическое ожидание M (X);
найдите дисперсию D(X);
найдите среднее квадратическое отклонение σ(X).
127
0
Решение. 1) Согласно определению 6.4 f (x) = F (x). Поэтому


при
x ≤ 0,
 0,
f (x) =
3x2 , при 0 < x ≤ 1,

 0,
при
x > 1.
2) График функции плотности на рис. 6.6 имеет следующий вид.
f (x)
3
x
0
1
Рис. 6.6
3) Так как случайная величина X определена на всей числовой прямой, то
согласно формуле (6.7) её математическое ожидание
Z∞
Z∞
Z0
Z1
M (X) =
xf (x)dx =
x · 0dx + x · 3x2 dx + x · 0dx =
−∞
−∞
Z1
=0+3
0
3
x3 dx + 0 = x4
4
1
0
1
3
= (1 − 0) = 0, 75.
4
0
4) Перед тем, как вычислить дисперсию согласно формуле (6.9), найдём
Z∞
Z0
Z1
Z∞
M X2 =
x2 f (x)dx =
x2 · 0dx + x2 · 3x2 dx + x2 · 0dx =
−∞
−∞
Z1
=0+3
0
3
x4 dx + 0 = x5
5
1
0
1
3
= (1 − 0) = 0, 6.
5
0
Так как M (X) = 0, 75, то его квадрат (M (X))2 = 0, 5625. Следовательно,
D(X) = 0, 6 − 0, 5625 ⇒ D(X) = 0, 0375.
5) Подставляя найденное значение дисперсии в формулу (6.13), найдём
среднее квадратическое отклонение
p
σ(X) = 0, 0375 ⇒ σ(X) = 0, 19.
Объединяя результаты 3)-5), получаем
M (X) = 0, 75; D(X) = 0, 0375; σ(X) = 0, 19.
Рассмотрим наиболее популярные в технических приложениях распределения вероятностей непрерывной случайной величины.
128
6.4
6.4.1
Равномерное распределение
Определение и график функции плотности
равномерного распределения
Определение 6.10. Распределение вероятностей непрерывной случайной величины называется равномерным1 , если функция плотности вероятностей определяется следующим
образом


0,
если
x ≤ a,

 1
f (x) =
, если a < x < b,

b
−
a

 0,
если
x ≥ b.
График (рис. 6.7) функции плотности равномерного распределения выглядит следующим образом.
f (x)
1
b−a
x
a
0
b
Рис. 6.7
6.4.2
Интегральная функция равномерного распределения
Используя представление интегральной функции распределения (6.5),
аналогично решению задачи 6.3 построим интегральную функцию равномерного распределения непрерывной случайной величины X.
Область определения функции плотности является объединением трёх
интервалов
(−∞; ∞) = (−∞; a] ∪ (a; b) ∪ [(b; ∞),
1. Предположим что x ∈ (−∞; a]. В этом случае f (x) = 0. Тогда
Zx
Zx
f (t)dt =
0dt = 0.
−∞
−∞
2. Допустим что x ∈ (a; b). Следовательно,
x
Zx
Za
Zx
t
x−a
dt
=0+
=
.
f (t)dt =
0dt +
b−a
b−a
b−a
−∞
−∞
a
a
1
Равномерное распределение было впервые рассмотрено в 1767 году Т. Байесом в его работе «Очерки
к решению проблемы доктрины шансов» (Essay towards solving a Problem in the Doctrine of Chances),
а затем в 1809 году К. Ф. Гауссом в работе «Теория движения небесных тел» (Theory of the Motion
of Heavenly Bodies moving around the Sun in Conic Sections) (cм. Earliest Known Uses of Some of the
Words of Mathematics (U) [Электронный ресурс] : URL : http://jeff560.tripod.com/u.html (дата
обращения: 12.06.2016)).
129
3. Пусть x ∈ [b; ∞; ). Поэтому
Zx
Za
Zb
f (t)dt =
0dt +
−∞
−∞
dt
+
b−a
a
Z∞
0dt = 0 + 1 + 0 = 1.
b
Объединяя результаты пунктов 1-3, получаем представление интегральной1 функции равномерного распределения непрерывной случайной величины X

если
x ≤ a,

 0,
x−a
, если a < x < b,
(6.14)
F (x) =

 b−a
1,
если
x ≥ b.
Построим график (рис. 6.8) интегральной функции равномерного распределения.
F (x)
1
x
a
0
b
Рис. 6.8
Далее определим числовые характеристики равномерного распределения.
6.4.3
Математическое ожидание равномерного распределения
Так как график функции плотности вероятностей непрерывной равномерно распределённой случайной величины X симметричен относительно
середины интервала (a; b), то математическое ожидание2
M (X) =
6.4.4
a+b
2
.
(6.15)
Дисперсия равномерного распределения
Для вычисления дисперсии равномерного распределения воспользуемся
формулой (6.11). Вычислим сначала
Z∞
Za
Zb 2
Z∞
x dx
M (X 2 ) =
x2 f (x)dx =
x2 · 0dx +
+ x2 · 0dx =
b−a
−∞
−∞
a
1
b
Как и в задаче 6.3, не мешает убедиться в том, что полученная функция действительно непрерывна.
Для этого нужно вычислить односторонние пределы в точках x = a и x = b. Попробуйте эту проверку
выполнить самостоятельно.
2
Конечно, математическое ожидание можно найти и с помощью самой функции плотности по
формуле (6.7).
130
b
1
b 3 − a3
b2 + ba + a3
3
=
x =
=
.
3(b − a) a 3(b − a)
3
Далее вычислим разность
2
b2 + ba + a3
a+b
2
2
M (X ) − M (X) =
−
=
3
2
b2 − 2ba + a2
4b2 + 4ba + 4a2 − 3a2 − 6ab − 3b2
=
.
=
12
12
«Сворачивая» числитель последней дроби с помощью формулы квадрат
разности, получаем формулу вычисления дисперсии равномерного распределения
(b − a)2
D(X) =
.
(6.16)
12
6.4.5
Среднее квадратическое отклонение равномерного распределения
Зная дисперсию равномерного распределения, можно с помощью формулы (6.13) вычислить среднее квадратическое отклонение данного распределения. Извлекая квадратный корень из дисперсии, получаем
σ(X) =
b−a
√ .
2 3
(6.17)
Замечание 6.7. Из формул (6.15)-(6.17) видно что, зная параметры
равномерного распределения a и b, можно получить все числовые характеристики распределения.
Но можно и наоборот, зная, например, математическое ожидание M (X)
и среднее квадратическое отклонение σ(X), решить обратную задачу определения параметров распределения.
Для этого достаточно составить и решить следующую систему уравнений

a+b


= M (X),

2
b−a


 √ = σ(X).
2 3
Рассмотрим решение задач, связанных с равномерным распределением.
Задача 6.8. Цена деления шкалы вольтметра 0, 2 V. Показания вольтметра округляют до ближайшего целого деления. Найдите вероятность
того, что допущенная ошибка превысит 0, 04 V.
Решение. Предположим, что случайная величина X есть ошибка округления, которая распределена равномерно между целыми показаниями шкалы вольтметра.
131
Ошибка округления превысит 0, 04, если истинные показания вольтметра окажутся в диапазоне (0, 04; 0, 2 − 0, 04). Следовательно, нужно определить вероятность того, что случайная величина будет принимать значения
из этого интервала.
Так как интегральная функция равномерного распределения определяется представлением (6.14), (в котором a = 0, а b = 0, 2) то, опираясь на
формулу вычисления вероятности (6.1) попадания значений случайной величины в заданный интервал, имеем
0, 16 − 0 0, 04 − 0
P (0, 04 < X < 0, 16) =
−
⇒ P (0, 04 < X < 0, 16) = 0, 6.
0, 2 − 0
0, 2 − 0
вероятность того, что допущенная
Таким образом, ошибка превысит 0, 04 V равна 0, 6.
Задача 6.9. В некотором городе трамвай ходит по расписанию с
интервалом 10 минут. Какова вероятность того, что пассажир, подошедший к остановке, будет ожидать трамвай более двух минут?
Решение. Пусть случайная величина Y определяет время ожидания
трамвая. Пассажир будет ожидать трамвай более двух минут, если он подойдет к остановке в течение первых восьми минут после ухода очередного
трамвая, то есть в интервале времени (0; 8).
Поскольку случайная величина Y в данном случае распределена по равномерному закону с параметрами a = 0 и b = 10, то, используя формулы
(6.14) и (6.1), получаем
8−0
0−0
P (0 < X < 8) =
−
⇒ P (0 < X < 8) = 0, 8.
10 − 0 10 − 0
В заключение отметим, что в реальных условиях равномерное распределение вероятностей случайной величины может встречаться при анализе ошибок округления при проведении числовых расчетов (такая ошибка,
как правило, оказывается равномерно распределенной на интервале от −5
до +5 единиц округляемого десятичного знака) или при определении времени ожидания обслуживания при точно периодическом через каждые Т
единиц времени включении обслуживающего устройства, когда заявка на
обслуживание поступает случайно в этом интервале.
132
6.5
6.5.1
Нормальное распределение
Определение и график функции плотности
нормального распределения
Определение 6.11. Распределение вероятностей непрерывной случайной величины называется нормальным1 или распределением Гаусса,
если функция плотности вероятностей определяется следующим образом
(x − a)2
−
1
2σ 2
f (x) = √
e
(6.18)
σ 2π
Чтобы построить график функции плотности нормального распределения нужно вспомнить элементы исследования функции из математического анализа.
Очевидно, что область определения Df = (−∞; ∞).
Рассмотрим поведение функции на границах области определения, вычислив следующие пределы:
(x − a)2
(x − a)2
−
−
2σ 2
2σ 2
1
1
lim √ e
= 0; lim √ e
= 0.
x→−∞ σ 2π
x→∞ σ 2π
Так как в бесконечности функция стремится к нулю, то график функции
имеет горизонтальную асимптоту y = 0, совпадающую с осью абсцисс.
Далее вычислим первую производную функции и найдём с её помощью
интервалы возрастания (убывания) и точки экстремума2 .

0
(x − a)2
(x − a)2
−
−
2σ 2 
2σ 2
1
2(x − a)
1 


√ e
√
=
−
e
·
.

2σ 2

σ 2π 
σ 2π
(x − a)2
−
2σ 2
x−a
0
Следовательно,
f (x) = − √ e
.
σ 3 2π
Приравнивая производную нулю, вычислим стационарную точку первой
производной
1
Впервые идея нормального распределения появляется во втором издании «Доктрины шансов»
(The Doctrine of Chances) А. де Муавра, изданном в 1738 году, долгое время оставаясь малоизвестным фактом. В 1809 в работе «Теория движения небесных тел» (Theoria motus corporum coelestium
in sectionibus conicis solem ambientium) К. Гаусс дал первое определение нормального закона распределения (см. Википедия [Электронный ресурс] : URL : https://en.wikipedia.org/wiki/Normal_
distribution#History (дата обращения: 12.06.2016)).
2
Если они, конечно, есть.
133
f 0 (x) = 0 ⇒ x − a = 0 ⇒ x = a.
Так как знаменатель дроби и множитель-экспонента положительны, то
знаки первой производной определяются линейным числителем x − a.
f 0 (x) +
f (x)
−
x
a
Рис. 6.9
Из рис. 6.9 видно, что на интервале от минус бесконечности до a функция
возрастает, а на интервале от a до плюс бесконечности она убывает. Поэтому в точке x = a функция имеет максимум1 , который равен
1
f (a) = √ .
σ 2π
Для исследования функции на выпуклость нам понадобится вторая производная.

0
(x − a)2
−
2σ 2 
1 


− √ (x − a)e
 =

σ 3 2π 

(x − a)2
(x − a)2
−
−
2σ 2
2σ 2 
1 
2(x − a)


e
− √ e
− (x − a)
=
2
2σ

σ 3 2π 

=−
1
√
σ 3 2π
−
(x − a)2
1−
e
σ2
(x − a)2
2σ 2
.
Таким образом,
(x − a)2
−
2σ 2
1
(x − a)2
00
f (x) = − √
1−
e
.
σ2
σ 3 2π
Найдем стационарные точки второй производной. Вторая производная обращается в нуль только тогда, когда в нуль обращается скобкасомножитель.
(x − a)2
1−
= 0 ⇒ (x − a)2 − σ 2 = 0 ⇒ (x − a − σ)(x − a + σ) = 0.
2
σ
Следовательно, вторая производная имеет две стационарные точки
1
То, что эта функция имеет максимум, можно было догадаться из положительности экспоненты и
стоящей перед ней дроби. А то, что этот максимум будет в точке x = a, можно было определить из
симметрии функции относительно этой точки ((−(x − a))2 = (x − a)2 ).
К сожалению, исследование на выпуклость графика так просто провести не удастся.
134
x1 = a − σ и x2 = a + σ,
симметрично расположенные относительно точки максимума x = a.
Так как первый и третий сомножители на знак второй производной не
влияют, то её знаки полностью определяются квадратным трёхчленом, стоящим в скобках и представляющим разность квадратов (а также знаком
«минус» в представлении второй производной). Графиком этого трёхчлена
является парабола, ветви которой направлены вверх. Исходя из этого, мы
имеем следующее чередование знаков второй производной (рис. 6.10).
f 00 (x) +
f (x)
−
+
x1
Рис. 6.10
x
x2
Таким образом, график функции плотности нормального распределения имеет две точки перегиба, отделяющие интервалы выпуклости вниз от
интервала выпуклости вверх.
Значения функции в точках перегиба равны
1
1
f (a − σ) = √
; f (a + σ) = √
.
σ 2eπ
σ 2eπ
Теперь мы имеем достаточно информации, чтобы построить схематический
график функции плотности вероятностей нормального распределения.
1
√
σ 2π
σ
f (x)
√1
2eπ
x
Рис. 6.11
x1
a
x2
Из рис. 6.11 очевидно, что мода нормального распределения Mo = a
(см. определение 6.6). А так как график функции плотности симметричен
относительно прямой x = a, то площадь криволинейной трапеции слева
от прямой x = a равна площади криволинейной трапеции справа от этой
прямой. В силу этого согласно формуле (6.4)
P (X < a) = P (X > a).
Поэтому из определения 6.7 следует, что медиана нормального распределения
Me = a.
135
Поскольку в неотрицательности функции f (x) сомневаться не приходится, то осталось убедиться (см. свойство 6.2) в том, что
Z∞
f (x)dx = 1.
−∞
Подставив функцию плотности в интеграл, выполним следующие преобразования:
(x − a)2
t2
∞
∞
−
−
Z
Z
x−a
2σ 2
2
1
1
= t,
√
=√
dx =
e
e dt.
σ
σ 2π
2π
dx = σdt
−∞
−∞
Так как функция, стоящая под интегралом чётная, а пределы интегрирования симметричны относительно начала координат, то1
t2
t2
Z∞ −
Z∞ −
2
2
2
1
√
e dt = √
e dt.
2π
2π
−∞
0
Интеграл2
Z∞
e
0
t2
−
2
dt =
√
Z∞
2
t2
∞
r
−
√
√ Z −z 2
√ π
2
t
π
e d √
= 2 e
dz = 2
=
.
2
2
2
0
0
Подставляя полученное значение вместо интеграла в предыдущую строчку,
убеждаемся в том, что
1
√
σ 2π
6.5.2
Z∞
e
(x − a)2
−
2σ 2
dx = 1.
(6.19)
−∞
Нормированное нормальное распределение
Так как параметры a и σ нормального распределения тесно связаны
с метрическими единицами, используемыми в исследовании, и с масштабом изображения, то это оказывает большое влияние на общность любого
проводимого исследования. Чтобы этого избежать, прибегают к процессу
1
См., например, Бидерман В. И. Математика: элементы математического анализа. Хабаровск : Издво Тихоокеан. гос. ун-та, 2013. С. 146.
Z∞ −z 2
2
Интеграл e
dz называется интегралом Эйлера-Пуассона. Впервые был вычислен Л. Эйлером
0
в 1729 году. Позднее С. Д. Пуассон нашёл более простой способ его вычисления. Более подробно см.
Зорич В. А. Математический анализ. Ч. II. М. : Наука, 1984. С. 424.
136
нормирования1 .
Определение 6.12. Нормальное распределение вероятностей непрерывной случайной величины называется нормированным, если параметры распределения фиксируют следующим образом:
a = 0, σ = 1.
В этом случае функция плотности приобретает более компактный вид
функции Гаусса, с которой мы уже встречались ранее2 ,
−
x2
2
1
fN (x) = √ e
,
(6.20)
2π
а само нормированное нормальное распределение часто обозначается N (x; 0; 1).
График функции плотности нормированного произведения симметричен
относительно оси OY и выглядит так (рис. 6.12):
√1
2π
fN (x)
√1
2eπ
x
Рис. 6.12
−1
1
Нормирование необходимо для того, чтобы закономерности нормального распределения привязать к универсальным единицам измерения случайной величины − среднеквадратическим (стандартным) отклонениям.
После нормирования случайное значение оказывается не просто наблюдаемой величиной (размер исследуемой величины, например), а отклонением
от средней арифметической (которая равна нулю), измеряемым в среднеквадратических отклонениях, что приводит к так называемому правилу
трёх сигм, которое мы рассмотрим ниже.
6.5.3
Интегральная функция нормального распределения
С помощью представления (6.5) определим интегральную функцию нормированного нормального распределения вероятностей
1
Эта ситуация имеет аналогию в школьной программе, когда классическую теорему Пифагора,
тесно связанную с квадратами единиц измерения, заменяют на безразмерные синус и косинус, разделив
на квадрат длины гипотенузы обе части известного равенства.
2
См. «Схема Бернулли» (с. 54).
137
1
FN (x) = √
2π
t2
Zx −
2
e dt.
(6.21)
−∞
Очевидно, что при x → −∞ FN (x) → 0. А при x → ∞ из равенства (6.19)
вытекает что FN (x) → 1. Таким образом, прямые y = 0 и y = 1 являются
горизонтальными асимптотами графика FN (x).
Из рис. 6.12 очевидно, что медиана Me = 0. Поэтому для нормирован1
ного нормального распределения FN (0) = (см. следствие 6.3).
2
Чтобы определить значения функции FN (x) выполним следующее преобразование
t2
t2
t2
0
x
x
Z −
Z −
Z −
2
2
2
e dt + e dt.
e dt =
−∞
−∞
0
Подставляя полученное разложение в формулу (6.21), имеем
1
FN (x) = √
2π
Z0
−
e
t2
2
−∞
1
dt + √
2π
Zx
−
e
t2
2
dt.
0
Присмотревшись внимательно, можно увидеть, что второй интеграл в
полученной сумме представляет интегральную функцию Лапласа1
t2
x
−
Z
2
Φ(x) = e dt.
0
Первый же интеграл суммы с точки зрения геометрии определяет площадь криволинейной трапеции, расположенной слева от оси ординат на
рис. 6.12. А так как эта площадь передставляет в силу симметрии половину площади всей криволинейной трапеции на этом рис., то
t2
0
Z −
2
1
e dt = .
2
−∞
Поэтому
1
+ Φ(x).
2
Используя таблицу значений интегральной функции Лапласа (прил. 2),
FN (x) =
1
См. «Схема Бернулли» (с. 54).
138
построим схематический график интегральной функции нормированного
распределения нормальной случайной величины (рис. 6.13).
FN (x)
a
1
2
x
Рис. 6.13
Рассмотрим интегральную функцию ненормированного нормального распределения
(t − a)2
x
Z −
2σ 2
1
F (x) = √
dt.
e
σ 2π
−∞
t−a
Выполнив замену
= z, получим dt = σdz. При этом нижний предел
σ
x−a
. Соинтегрирования не изменится, а верхний примет новое значение
σ
ответственно интегральная функция распределения примет новый вид
z2
x−a
Zσ −
2
1
e
dz.
F (x) = √
2π
−∞
Далее с помощью интегральной функции Лапласа её можно переписать в
виде
1
x−a
F (x) = + Φ
.
2
σ
При построении графика F (x) (рис. 6.14) с помощью графика на рис.
6.13 нужно учесть, что новый график не только сместится на a вдоль оси
1
абсцисс, но и деформируется1 за счёт коэффициента .
σ
F (x)
1
1
2
Рис. 6.14
a
1
x
Отразить на графике смещение по отношению к графику интегральной функции нормированного
1
нормального распределения, связанное с коэффициентом , без введения масштаба достаточно сложσ
но, поэтому построение более точного графика при конкретных σ оставляем читателям в качестве
самостоятельной работы.
139
Далее определим числовые характеристики нормального распределения.
6.5.4
Математическое ожидание нормального распределения
Используя формулу (6.7), докажем теорему.
Теорема 6.1. Математическое ожидание нормально распределённой
непрерывной случайной величины равно параметру a.
Д о к а з а т е л ь с т в о. Вычислим значение интеграла
(x − a)2
x−a
∞
−
Z
= t;
2
2σ
1
σ
√
xe
dx = x = σt + a; =
σ 2π
−∞
dx = σdt


t2
t2
t2
−
Z∞ −
Z∞
Z∞ −
2
2
2 
1
1 


= √
(σt + a)e σdt = √ σ
te dt + a
e dt .

σ 2π
2π 
−∞
−∞
−∞
Первый интеграл в скобке является интегралом от нечётной функции с
симметричными пределами интегрирования, поэтому он равен нулю1 .
Второй интеграл в скобке√есть интеграл Эйлера-Пуассона (см. сноску
на с. 133), поэтому он равен 2π.
Таким образом, после сокращения значения интеграла Пуассона-Эйлера
со знаменателем дроби перед скобками, получаем, что математическое
ожидание нормально распределённой случайной величины
M (X) = a.
6.5.5
(6.22)
Дисперсия нормального распределения
Используя формулу вычисления дисперсии (6.10), докажем следующую
теорему.
Теорема 6.2. Дисперсия нормально распределённой непрерывной случайной величины равна σ 2 .
Д о к а з а т е л ь с т в о. С помощью аналогичной техники замены
переменной в интеграле, полагая M (X) = a, вычислим интеграл
(x − a)2
t2
x
−
a
−
−
Z∞
Z∞
= t;
2
2σ
2
1
1
σ
√
dx = x = σt + a; = √
(x − a)2 e
σ 2 t2 e σdt.
σ 2π
σ 2π
−∞
−∞
dx = σdt
1
См., например, Бидерман В. И. Указ. соч. С. 145.
140
После вынесения σ 3 за знак интеграла представим подынтегральную функцию в виде произведения сомножителей
t2
t2
−
−
2
2
t2 e
= t · te .
Так как
2
1 2
1
t
tdt = d(t ) = · 2d
,
2
2
2
воспользуемся далее формулой интегрирования по частям
t2
u = t;
du = dt;
∞
−
Z
2
2
σ2
t
t2 =
√
t2 e dt =
−
−
2π
2
2
−∞
dv = te dt; v = −e



t2
t2
∞
−
 Z∞ − 2 
2
σ2 



e dt.
= √ −t · e
− −


2π 
−∞
Подстановка1
t2
−
2
t·e
∞
−∞
∞
− −
=
= lim b2 − lim a2 =
a→−∞ 2
b→∞ 2
∞
∞
−∞
e
e
1
1
1
1
= lim b2 − lim
=
+
= 0 + 0 = 0.
a2
a→−∞
b→∞
∞
∞
2
2
be
ae
Интеграл, стоящий в скобках,
√ является уже знакомым интегралом Пуассона-Эйлера и поэтому равен 2π.
Умножив дробь, стоящую перед скобками, на значение интеграла Пуассона-Эйлера, убеждаемся в истинности утверждения теоремы о том, что
дисперсия нормально распределённой случайной величины
b
a
∞
D(X) = σ 2 .
6.5.6
(6.23)
Среднее квадратическое отклонение нормального
распределения
Зная дисперсию нормального распределения, можно с помощью формулы (6.13) вычислить среднее квадратическое отклонение данного распределения. Извлекая квадратный корень из дисперсии, получаем
σ(X) = σ.
1
(6.24)
Здесь при вычислении пределов используется правило Лопиталя − Бернулли (см., например, Бидерман В. И. Указ. соч. С. 81).
141
Замечание 6.8. Из формул (6.22)-(6.24) видно, что, зная параметры
нормального распределения a и σ, мы одновременно знаем его числовые
характеристики. Так, например, вид функции плотности
(x + 1)2
−
72
1
f (x) = √ e
6 2π
позволяет сказать1 , что математическое ожидание M (X) = −1, среднее
квадратическое отклонение σ(X) = 6, а дисперсия D(X) = 36.
6.5.7
Вероятность попадания нормально распределённой
случайной величины в заданный интервал
Предположим что непрерывная случайная величина X распределена по
нормальному закону с параметрами a и σ, а Φ(x) − интегральная функция
Лапласа. При этих условиях справедлива следующая
Теорема 6.3. Вероятность попадания нормально распределённой случайной величины X в заданный интервал (α; β) определяется равенством
α−a
β−a
−Φ
.
(6.25)
P (α < X < β) = Φ
σ
σ
Д о к а з а т е л ь с т в о. Согласно предположениям распределение
случайной величины X имеет своей функцией плотности вероятностей
(x − a)2
−
2σ 2
1
f (x) = √ e
.
σ 2π
Тогда из формулы (6.4) следует, что
(x − a)2
β
−
Z
2σ 2
1
√
e
P (α < X < β) =
dx.
σ 2π
α
Используя стандартную замену
x−a
, x = σt + a, dx = σdt,
t=
σ
введём новые пределы интегрирования
α−a
β−a
tн =
, tв =
.
σ
σ
и, сократив σ, подставим в представление для вероятности
t2
β−a
Zσ − 2
2σ
1
P (α < X < β) = √
e
dt.
2π
α−a
σ
1
В формуле (6.18) x − a = x + 1 = x − (−1), а 2σ 2 = 72 = 2 · 36 = 2 · 62 .
142
Далее, используя аддитивность отрезка интегрирования, представим интеграл в виде суммы
t2
t2
t2
β−a
β−a
Zσ − 2
Z0 − 2
Zσ − 2
2σ
2σ
2σ
dt =
dt +
dt.
e
e
e
α−a
σ
Так как
α−a
σ
0
ZR
Zr
ϕ(t)dt = −
r
ϕ(t)dt,
R
то, поменяв пределы интегрирования в первом слагаемом местами, получим
t2
t2
t2
β−a
β−a
α−a
Zσ − 2
Zσ − 2
Zσ − 2
2σ
2σ
2σ
e
e
dt =
dt −
dt. .
e
α−a
σ
0
0
Учитывая, что каждый из интегралов в правой части является значением
интегральной функции Лапласа в точке соответствующего верхнего предела интеграла, имеем требуемое равенство
β−a
α−a
P (α < X < β) = Φ
−Φ
.
σ
σ
6.5.8
Вероятность отклонения нормально распределённой
случайной величины от её центра рассеивания
Пусть центр рассеивания нормально распределённой случайной величины X равен a, а её среднее квадратическое отклонение равно σ. Тогда
отклонение случайной величины от её центра рассеивания меньше чем на
δ можно записать в виде неравенства1
|X − a| < δ.
Сформулируем и докажем следующую теорему
Теорема 6.4. Вероятность отклонения случайной величины X от её
центра рассеивания a меньше чем на δ равна удвоенному значению интегральной функции Лапласа от отношения δ к среднеквадратическому
отклонению σ.
То есть
δ
P (|X − a| < δ) = 2Φ
.
(6.26)
σ
1
Здесь δ > 0.
143
Д о к а з а т е л ь с т в о. Неравенство, определяющее отклонение,
более подробно можно переписать, сняв знак модуля,
a − δ < X < a + δ.
Полагая в условиях предыдущей теоремы 6.3 α = a − δ, а β = a + δ,
воспользуемся равенством (6.25)
a+δ−a
a−δ−a
P (a − δ < X < a + δ) = Φ
−Φ
.
σ
σ
Далее, приведя подобные, имеем
δ
δ
P (a − δ < X < a + δ) = Φ
−Φ − .
σ
σ
Учитывая, что функция Φ(x) является нечётной и поэтому Φ(−x)=-Φ(x),
получаем требуемое утверждение
δ
P (a − δ < X < a + δ) = 2Φ
.
σ
6.5.9
Правило трёх сигм
Исследование вероятности попадания значений нормально распределённой случайной величины в определённый интервал зависит от характеристики рассеивания случайной величины. Это связано как с единицами
измерения данной величины, так и с тем, что одни случайные величины
теснее группируются вокруг среднего значения, а другие более разбросаны.
Универсальной характеристикой рассеивания является величина среднего квадратического отклонения σ.
Посмотрим, как будет выглядеть вероятность отклонения значений случайной величины от среднего значения a, если измерять это отклонение «в
сигмах».
Пусть в равенстве (6.26) отклонение δ = tσ (здесь t − коэффициент
кратности). Тогда равенство (6.26) можно будем переписать так
P (|X − a| < tσ) = 2Φ(t).
(6.27)
Далее, выбирая поочередно t равным 1, 2, 3, выясним, как располагаются значения нормально распределённой случайной величины относительно
своего среднего значения.
Пусть t = 1. Тогда
P (|X − a| < σ) = 2Φ(1).
Из таблицы значений интегральной функции Лапласа (прил. 2) известно,
что Φ(1) = 0, 3413. Поэтому
P (|X − a| < σ) = 2 · 0, 3413 ⇒ P (|X − a| < σ) = 0, 6826.
144
То есть 68,26% значений нормально распределённой случайной величины
располагаются от её математического ожидания на расстоянии, меньшем
чем «сигма».
Предположим, что t = 2. Подставив его в формулу (6.27), находим
P (|X − a| < 2σ) = 2Φ(2).
Из таблицы значений интегральной функции Лапласа (прил. 2) можно найти Φ(2) = 0, 4772. Поэтому
P (|X − a| < 2σ) = 2 · 0, 4772 ⇒ P (|X − a| < 2σ) = 0, 9544.
То есть 95,44% значений нормально распределённой случайной величины
располагаются от её математического ожидания на расстоянии, меньшем
чем два «сигма».
Выберем t = 3. В этом случае
P (|X − a| < 3σ) = 2Φ(3).
Из таблицы значений интегральной функции Лапласа (прил. 2) мы знаем,
что Φ(3) = 0, 49865. Следовательно,
P (|X − a| < 3σ) = 2 · 0, 49865 ⇒ P (|X − a| < 3σ) = 0, 9973.
То есть 99,73% значений нормально распределённой случайной величины
располагаются от её математического ожидания на расстоянии, меньшем
чем три «сигма».
Это означает, что только 0,27% значений случайной величины отклоняются от её математического ожидания на расстояние, большее чем три
«сигма».
События со столь малой вероятностью считаются практически невозможными. Поэтому в практических исследованиях при неизвестном распределении случайной величины, если случайная величина отклоняется от
среднего значения не более чем на три среднеквадратических отклонения,
считают, что есть основания предполагать, что случайная величина распределена по нормальному закону. Иначе, это предположение отвергают.
В заключение сформулируем следующее правило трёх сигм:
Если случайная величина распределена по нормальному закону, то модуль
её отклонения от математического ожидания не превышает утроенного среднего квадратического отклонения.
6.5.10
Примеры решения задач, связанных с нормальным распределением
Задача 6.10. Длина X некоторой детали представляет собой случайную величину, распределенную по нормальному закону распределения, и
имеет среднее значение 20 мм и среднее квадратическое отклонение −
0,2 мм.
Найдите:
145
а) выражение плотности распределения;
б) вероятность того, что длина детали будет заключена между
19,7 и 20,3 мм;
в) вероятность того, что величина отклонения не превышает 0,1 мм;
г) какой процент составляют детали, отклонение которых от среднего
значения не превышает 0,1 мм;
д) каким должно быть задано отклонение, чтобы процент деталей,
отклонение которых от среднего не превышает заданного, повысился
до 54%;
е) интервал, симметричный относительно среднего значения, в котором
будет находиться X с вероятностью 0,95.
Решение
Из условия задачи для всех вопросов общими являются a = 20, σ = 0, 2.
а) Прежде чем подставить значения a = 20 и σ = 0, 2 в функцию плотности вероятностей нормального распределения (см. 6.18), вычислим
2σ 2 = 2 · (0, 2)2 ⇒ 2σ 2 = 0, 08.
Подставляя данные и найденное значения в представление (6.18), имеем
(x − 20)2
−
0, 08
1
√ e
f (x) =
.
0, 2 · 2π
б) Из условия задачи согласно формуле (6.25) β = 20, 3, α = 19, 7. Поэтому
после подстановки в формулу (6.25) имеем
20, 3 − 20
19, 7 − 20
0, 3
0, 3
Φ
−Φ
=Φ
−Φ −
=
0, 2
0, 2
0, 2
0, 2
3
= 2Φ
= 2Φ(1, 5) = 2 · 0, 4332 = 0, 8664.
2
(Значение Φ(1, 5) = 0, 4332 взято в таблице значений интегральной функции Лапласа (прил. 2)).
в) Из условия задачи согласно формуле (6.26) δ = 0, 1. Таким образом,
после подстановки в формулу (6.26) имеем
0, 1
P (|X − 20| < 0, 1) = 2Φ
= 2Φ(0, 5) = 2 · 0, 1915 = 0, 383.
0, 2
(Значение Φ(0, 5) = 0, 1915 взято в таблице значений интегральной функции Лапласа (прил. 2)).
г) Из ответа на вопрос в) известно, что вероятность при отклонении меньше
0,1 мм равна 0,383. Следовательно, из 100 деталей в среднем 38,3 детали
будут иметь такое же отклонение. Поэтому 38% деталей имеют подобное
отклонение.
146
д) Так как процент отклонения составляет 54%, то из формулы (6.26) вытекает следующее уравнение
P (|X − 20| < δ) = 0, 54.
Сравнивая правую часть полученного уравнения
справой части формулы
δ
(6.26)
P (|X − 20| < δ) = 2Φ
,
0, 2
получаем новое уравнение
δ
2Φ
= 0, 54.
0, 2
Откуда следует, что
δ
Φ
= 0, 27.
0, 2
Просматривая в таблице значения интегральной функции Лапласа (прил.
2), находим, что 0, 27 = Φ(0, 74). Поэтому
δ
= 0, 74 ⇒ δ = 0, 74 · 0, 2 ⇒ δ = 0, 148.
0, 2
Следовательно, для повышения до 54 процентов числа деталей, для которых отклонение от среднего не превышало заданного, необходимо, чтобы
отклонение равнялось бы 0,148 мм.
e) Так как интервал, в котором будут находится значения нормально распределённой случайной величины X, симметричен относительно среднего
значения a = 20, то его можно описать с помощью двойного неравенства
20 − δ < X < 20 + δ
или с помощью неравенства с модулем
|X − 20| < δ.
Дальнейшее решение совпадает с ответом на вопрос д) при условии замены
числа 0,54 на 0,95. Поэтому составляем
уравнение
δ
2Φ
= 0, 95.
0, 2
Из которого следует, что
δ
= 0, 475.
Φ
0, 2
С помощью таблицы значений интегральной функции Лапласа (прил. 2),
находим, что 0, 475 = Φ(1, 96). Поэтому
δ
= 1, 96 ⇒ δ = 1, 96 · 0, 2 ⇒ δ = 0, 392.
0, 2
В итоге, искомый интервал определяется так
(20 − 0, 392; 20 + 0, 392).
Следовательно, интервал (19, 608; 20, 392), в котором будет находится
147
X, симметричен относительно среднего значения.
Задача 6.11. Автомат изготавливает детали, которые отделом
технического контроля считаются стандартными, если отклонение X
от контрольного размера не превышает 0,8 мм. Каково наиболее вероятное число стандартных деталей среди изготовленных 150 деталей, если
случайная величина X распределена по нормальному закону с σ = 0, 4 мм?
Решение. Полагая в формуле (6.26) δ = 0, 8 и σ = 0, 4, вычислим вероятность отклонения X от контрольного размера a
0, 8
P (|X − a| < 0, 8) = 2Φ
⇒ P (|X − a| < 0, 8) = 2Φ(2).
0, 4
Из таблицы значений интегральной функции Лапласа (прил. 2) следует,
что Φ(2) = 0, 4772. Поэтому
P (|X − a| < 0, 8) = 2 · 0, 4772 ⇒ P (|X − a| < 0, 8) = 0, 9544.
Округлив это число до сотых, будем считать P = 0, 95. Так как q = 1−P ,
то q = 0, 05.
Из схемы Бернулли (см. определение 4.1) известно, что наивероятнейшее число наступлений события
nP − q ≤ m ≤ nP + P .
По условию n = 150. Подставляя данные в двойное неравенство
150 · 0, 95 − 0, 05 ≤ m ≤ 150 · 0, 95 + 0, 95,
после арифметических вычислений получаем
142, 45 ≤ m ≤ 143, 45.
Следовательно,
наиболее вероятное число стандартных деталей среди
изготовленных 150 деталей равно 143.
Задача 6.12. Рост взрослого человека является случайной величиной, распределённой по нормальному закону. Согласно статистике среднее значение роста взрослого шведа − 178 см, а среднее квадратическое
отклонение − 6 см. Определите вероятность того, что хотя бы один из
встреченных пяти взрослых шведов имеет рост от 175 см до 185 см.
Решение. Из условия задачи согласно формуле (6.25) a = 178, σ = 6,
β = 185, α = 175.
Подставим
данные значения
в указанную
формулу
185 − 178
175 − 178
7
3
Φ
−Φ
=Φ
−Φ −
=
6
6
6
6
= Φ(1, 16) + Φ(0, 5) = 0, 3770 + 0, 1915 = 0, 5685.
(Значения Φ(1, 16) = 0, 3770 и Φ(0, 5) = 0, 1915 взяты в таблице значений
интегральной функции Лапласа (прил. 2). Учтено так же, что
148
Φ(−x) = −Φ(x).)
Следовательно, вероятность того, что рост взрослого шведа меньше
175 см и больше 185 см, q = 1 − 0, 5685. То есть q = 0, 4315.
Вычислим вероятность Q того, что ни один из встреченных пяти взрослых
шведов не имеет рост от 175 см до 185 см.
Q = q 5 ⇒ Q = (0, 4315)5 ⇒ Q = 0, 015.
Так как данное событие является противоположным искомому, то нужная
вероятность
P = 1 − Q ⇒ 1 − 0, 015 ⇒ Q = 0, 985.
вероятность того, что хотя бы один из встреченных
Таким образом, пяти взрослых шведов имеет рост от 175 см до 185 см
равна 0,985.
Задача 6.13. Браковка шариков для подшипников происходит следующим образом: если шарик не проходит в отверстие диаметром d1 ,
но проходит в отверстие диаметром d2 (d1 < d2 ), то он считается
стандартным. Если хотя бы одно из этих условий не выполнено, шарик отправляется в брак. Диаметр шарика d является случайной величиной X, распределённой по нормальному закону с характеристиками
d1 + d2
d2 − d1
M (X) =
и σ(X) =
. Определите вероятность того, что
2
4
случайно выбранный шарик будет забракован.
Решение. Из условия задачи согласно формуле (6.25)
d1 + d2
d2 − d1
a=
,σ=
, β = d2 , α = d1 .
2
4
С помощью формулы (6.25) вычислим вероятность стандартности шарика
d2 − a
d1 − a
P (d1 < X < d2 ) = Φ
−Φ
.
σ
σ
Так как
d1 + d2
d2 − d1
d2 − a = d2 −
=
, то
2
2
d2 − a d2 − d1 d2 − d1
=
:
= 2.
σ
2
4
Аналогично, вычислив
d1 + d2
d1 − d2
d1 − a = d1 −
=
,
2
2
найдём
d1 − a d1 − d2 d2 − d1
=
:
= −2.
σ
2
4
Подставляя найденные значения аргументов в правую часть формулы для
149
вероятности, имеем
Φ(2) − Φ(−2) = 2Φ(2) = 2 · 0, 4772 = 0, 9544.
Следовательно, P (d1 < X < d2 ) = 0, 9544.
Так как нас интересует противоположное событие, то его вероятность P
определяется вычитанием из единицы полученного значения.
Поэтому P = 1 − 0, 9544 ⇒ P = 0, 0456.
В итоге, имеем
6.5.11
вероятность того, что случайно выбранный шарик
будет забракован, равна 0,0456.
О роли нормального закона в теории вероятностей и её приложениях
Нормальный закон распределения, или закон Гаусса, является наиболее часто встречающимся на практике законом распределения. Объяснение этому даёт следующая теорема, которую сформулируем без доказательства.
Теорема 6.5. Центральная предельная теорема Если случайная
величина X представляет собой сумму очень большого числа взаимно
независимых случайных величин, влияние каждой из которых на всю
сумму ничтожно мало, то X имеет распределение, близкое к нормальному1 .
1
Формулировка А. М. Ляпунова.
История доказательства центральной предельной теоремы связана с работами большого числа
математиков, среди которых можно выделить П. С. Лапласа, А. Муавра, П. Л. Чебышёва, А. А. Маркова, А. М. Ляпунова, Т. Линдеберга и С. Н. Бернштейна (и представляет отдельную увлекательную
историю, далеко выходящую за рамки данного курса).
Чебышёв Пафнутий Львович (1821-1894) − русский математик и механик, основоположник петербургской математической школы, академик Петербургской академии наук и
24 иностранных академий. Автор фундаментальных результатов в теории чисел и теории вероятностей, создатель общей теории ортогональных многочленов и теории равномерных приближений. Основал математическую теорию синтеза механизмов и разработал ряд
практически важных концепций механизмов (см. Википедия [Электронный ресурс] : URL :
https://ru.wikipedia.org/wiki/\T2A\CYRCH\T2A\cyre\T2A\cyrb\T2A\cyrery\T2A\cyrsh\T2A\
cyryo\T2A\cyrv,_\T2A\CYRP\T2A\cyra\T2A\cyrf\T2A\cyrn\T2A\cyru\T2A\cyrt\T2A\cyri\T2A\
cyrishrt_\T2A\CYRL\T2A\cyrsftsn\T2A\cyrv\T2A\cyro\T2A\cyrv\T2A\cyri\T2A\cyrch (дата обращения: 12.06.2016)).
Марков Андрей Андреевич (1856-1922) − русский математик, академик, внёсший большой вклад
в теорию вероятностей, математический анализ и теорию чисел (см. Википедия [Электронный ресурс]
: URL : https://ru.wikipedia.org/wiki/\T2A\CYRM\T2A\cyra\T2A\cyrr\T2A\cyrk\T2A\cyro\T2A\
cyrv,_\T2A\CYRA\T2A\cyrn\T2A\cyrd\T2A\cyrr\T2A\cyre\T2A\cyrishrt_\T2A\CYRA\T2A\cyrn\T2A\
cyrd\T2A\cyrr\T2A\cyre\T2A\cyre\T2A\cyrv\T2A\cyri\T2A\cyrch_(\T2A\cyrs\T2A\cyrt\T2A\cyra\
T2A\cyrr\T2A\cyrsh\T2A\cyri\T2A\cyrishrt) (дата обращения: 12.06.2016)).
Ляпунов Александр Михайлович (1857−1918) − русский математик и механик. Основные работы
в области дифференциальных уравнений, гидродинамики, теории вероятностей. А. М. Ляпунов −
создатель теории устойчивости равновесия и движения механических систем с конечным числом
параметров. Академик Петербургской Академии наук, член-корреспондент Парижской академии
наук, член Национальной академии деи Линчеи (Италия) и ряда других академий наук и научных
150
Так, например, отклонение выходного параметра X (при известных допущениях) любого прибора от номинала можно представить в виде суммы
n элементарных отклонений , связанных с отдельными причинами типа:
X1 − отклонение, вызванное влиянием температуры;
X2 − отклонение, вызванное влиянием влажности воздуха;
X3 − отклонение, вызванное ошибкой ввода какого-нибудь параметра;
X4 − отклонение, вызванное недостаточной чистотой материала изделия;
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
и так далее.
Число n этих отклонений велико, как и число n причин, вызывающих
суммарное отклонение X. При этом каждое из отдельных слагаемых X1 ,
X2 , . . . , Xn не оказывает влияния на рассеяние суммы, отличного от влияния других слагаемых (иначе были бы приняты меры для устранения этого
влияния).
Нормальное распределение распространено в технических приложениях:
ошибки измерения параметров, ошибки выполнения команд, ошибки ввода
различных величин в техническое устройство распределены по нормальному закону.
Нормальный закон имеет широкое применение в биологии: вес, размер
и другие параметры представителей растительного и животного мира во
многих случаях имеют нормальное распределение, так как их разброс связан с суммарным воздействием многих факторов, каждый из которых не
имеет доминирующего влияния1 .
И, наконец, в самой математике как предельный закон он связан со
множеством распределений случайной величины и поэтому без него невозобществ (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRL\
T2A\cyrya\T2A\cyrp\T2A\cyru\T2A\cyrn\T2A\cyro\T2A\cyrv,_\T2A\CYRA\T2A\cyrl\T2A\cyre\T2A\
cyrk\T2A\cyrs\T2A\cyra\T2A\cyrn\T2A\cyrd\T2A\cyrr_\T2A\CYRM\T2A\cyri\T2A\cyrh\T2A\cyra\
T2A\cyrishrt\T2A\cyrl\T2A\cyro\T2A\cyrv\T2A\cyri\T2A\cyrch (дата обращения: 12.06.2016)).
Бернштейн Сергей Натанович (1880−1968) − советский математик. Решил 19-ю проблему Гильберта. Автор первой аксиоматики в теории вероятностей. Создатель конструктивной теории функций. Академик АН СССР и Парижской академии наук. Член Немецкого
и Французского союзов математиков. (см. Википедия [Электронный ресурс] : URL : https:
//ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyre\T2A\cyrr\T2A\cyrn\T2A\cyrsh\T2A\cyrt\T2A\cyre\
T2A\cyrishrt\T2A\cyrn,_\T2A\CYRS\T2A\cyre\T2A\cyrr\T2A\cyrg\T2A\cyre\T2A\cyrishrt_\T2A\
CYRN\T2A\cyra\T2A\cyrt\T2A\cyra\T2A\cyrn\T2A\cyro\T2A\cyrv\T2A\cyri\T2A\cyrch (дата обращения: 12.06.2016)).
Линдеберг Ярл Вальдемар (швед. Lindeberg Jarl Waldemar, 1876−1932) − финский математик.
Основные работы в области теории вероятностей и математической статистики. Его именем назван
один из вариантов центральной предельной теоремы, а также соответствующее условие Линдеберга
(см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyri\
T2A\cyrn\T2A\cyrd\T2A\cyre\T2A\cyrb\T2A\cyre\T2A\cyrr\T2A\cyrg,_\T2A\CYRYA\T2A\cyrr\T2A\
cyrl\T2A\CYRV\T2A\cyra\T2A\cyrl\T2A\cyrsftsn\T2A\cyrd\T2A\cyre\T2A\cyrm\T2A\cyra\T2A\cyrr
(дата обращения: 12.06.2016)).
1
Естественно, и в мире людей: в медицине, социологии, экономике нормальный закон находит свои
приложения.
151
можны ни математическая статистика, ни теоретическая физика.
6.6
Показательное распределение
6.6.1
Определение и график функции плотности
показательного распределения
Определение 6.13. Распределение вероятностей непрерывной случайной величины называется показательным1 или экспоненциальным с
параметром λ > 0, если функция плотности вероятностей определяется
следующим образом
0,
если x < 0,
f (x) =
(6.28)
−λx
λe
, если x ≥ 0.
f (x)
Так как e > 1, а λ > 0, то функция плотности показательного распределения монотонно убывает на бесконечном интервале [0; ∞). Схематиx ческий график функции имеет следующий вид (рис. 6.15):
λ
0
Рис. 6.15
6.6.2
Интегральная функция показательного распределения
Так как область определения функции плотности
Df = (−∞; 0) ∪ [0; ∞),
то следует рассмотреть два случая.
Пусть x «движется» только по отрицательной части оси абсцисс. Очевидно, что в этом случае в каждой точке интегральная функция будет
равна нулю.
Если x находится в правой полуплоскости, то с помощью представления
(6.5) определим интегральную функцию показательного распределения вероятностей
1
Первыми работами, в которых исследовалось показательное распределение можно считать работы
Л. Больцмана «Исследования о равновесии живой силы между движущимися материальными точками» (Studien über das Gleichgewicht der lebendigen Kraft zwischen bewegten materiellen Punkten), (1868
год) и В. Витворта «Выбор и шанс» (Choice and Chance) (1886 год) (см. The Exponential distribution.
c. 3.)
Больцман Людвиг (нем. Boltzmann Ludwig Eduard, 1844-1906) − австрийский физик-теоретик, основатель статистической механики и молекулярно-кинетической теории (см. Википедия [Электронный
ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyro\T2A\cyrl\T2A\cyrsftsn\T2A\
cyrc\T2A\cyrm\T2A\cyra\T2A\cyrn,_\T2A\CYRL\T2A\cyryu\T2A\cyrd\T2A\cyrv\T2A\cyri\T2A\cyrg
(дата обращения: 12.06.2016)).
152
Zx
F (x) =
f (t) dt.
−∞
Учитывая область определения функции плотности, имеем
Zx
Z0
Zx
−λt
f (t) dt =
dt + λe dt.
−∞
−∞
0
Рассмотрим каждое из слагаемых в отдельности.
Очевидно, что первый из интегралов равен нулю. А второй интеграл
x
Zx
−λx
1 −λt
−λ·0
−λx
−λt
=− e −e
=1−e .
e
λe dt = λ −
λ
0
0
Следовательно, функция
F (x) =
0,
если x < 0,
−λx
1 − e , если x ≥ 0.
(6.29)
является интегральной функцией показательного распределения.
Далее построим схематический график интегральной функции.
Так как
−λx
lim (1 − e ) = 1,
x→∞
то график имеет правую горизонтальную асимптоту y = 1.
Поскольку F 0 (x) = f (x), учтём, что f (x) > 0. Поэтому интегральная
функция возрастает в правой полуплоскости. Для исследования характера
выпуклости графика, определим вторую производную функции F (x).
Так как она одновременно является первой производной для функции
плотности, имеем
−λx
0
−λx
λe
= −λ2 e .
В силу отрицательности второй производной график интегральной функции является выпуклым вверх в правой полуплоскости и имеет следующий
вид (рис. 6.16):
F (x)
1
x
0
Рис. 6.16
153
6.6.3
Математическое ожидание показательного распределения
Используя формулу (6.7), докажем следующую теорему.
Теорема 6.6. Математическое ожидание непрерывной случайной ве1
личины, распределённой по показательному закону, равно .
λ
Д о к а з а т е л ь с т в о. Предположим, что X − непрерывная случайная величина, распределённая по показательному закону. Тогда
Z∞
M (X) =
xf (x) dx.
−∞
В силу «кусочного» задания функции
Z0
Z∞
Z∞
−λx
xf (x) dx =
x · 0dx + x · λe dx.
−∞
−∞
0
Первый интеграл в сумме равен нулю, а для вычисления второго понадобится формула интегрирования по частям:
Z∞
Zb
−λx
−λx
λ · xe dx = λ · lim xe dx =
b→∞
0
0



Zb
du = dx,
b
1
−λx
−λx
1 −λx = λ · − ·  lim xe
− e dx =
=
−λx
b→∞
dv = e dx, v = − e
λ
0
λ
0
u = x,





b

1
1
−λx
 = 1 .
= λ · − · 0 − − lim e
λ
λ b→∞
λ
0
Таким образом1 , в случае показательного распределения случайной величины X её математическое ожидание
M (X) =
1
λ
.
(6.30)
Задача 6.14. Время ремонта и обслуживания автомобиля является
случайной величиной, которая удовлетворительно описывается показательным законом распределения. По итогам работы за год в автопарке
было отмечено, что на ремонт и обслуживание каждого из дежурных автомобилей после одной поездки тратилось в среднем 8 минут. Найдите
вероятность того, что после очередной поездки это время не превысит
При вычислении предела от подстановки было использовано правило д 0 Лопиталя-Бернулли
(см. Бидерман В. И. Указ. соч. С. 81):
b
∞
−λx
b
(b)0
1
1
−λ·0
lim xe
= lim λb − 0 · e
=
= lim λb 0 = lim
= 0.
λb =
b→∞
b→∞ e
b→∞ e
b→∞ λ · e
∞
∞
0
1
154
16 минут.
Решение. Пусть случайная величина T − время работы и обслуживания дежурного автомобиля после очередной поездки. Согласно условию
M (X) = 8. Поэтому из формулы (6.30) следует, что
1
λ = или λ = 0, 125.
8
Следовательно, интегральная функция распределения (см. представление
(6.29) имеет следующий вид: 0,
если t < 0,
F (t) =
−0,125t
1−e
, если t ≥ 0.
Так как
P (T ≤ 16) = P (−∞ < T ≤ 16), то P (T ≤ 16) = F (16)
(см. формулу (6.1 и пункт г решения задачи 6.1).
Поэтому после вычислений
−0,125·16
−2
1−e
= 1 − e = 1 − 0, 135 = 0, 865
получаем, что
вероятность того, что после очередной поездки
время на ремонт и обслуживание не превысит 16
минут, равна 0, 865.
6.6.4
Медиана показательного распределения
Теорема 6.7. Медиана непрерывной случайной величины, распределённой
ln 2
по показательному закону, равна
.
λ
Д о к а з а т е л ь с т в о. Для доказательства этого утверждения
воспользуемся следствием 6.3. Для этого с помощью представления интегральной функции (6.29) составим уравнение
1
−λx
1−e = .
2
Вычитая единицу из обеих частей и умножив затем обе части на минус 1,
получим
1
−λx
e = .
2
Прологарифмировав обе части полученного уравнения по основанию e,
имеем1
λ · x = ln 2.
После деления обеих частей равенства на λ, убеждаемся в истинности теоремы.
1
ln
1
= ln 2−1 = − ln 2.
2
155
Следовательно, медиана показательного распределения
Me (X) =
6.6.5
ln 2
λ
.
(6.31)
Дисперсия показательного распределения
Используя формулу вычисления дисперсии (6.10), докажем следующую
теорему.
Теорема 6.8. Дисперсия непрерывной случайной величины, распре1
делённой по показательному закону, равна 2 .
λ
Д о к а з а т е л ь с т в о. Вычислим M (X 2 ). Согласно формуле
Z∞
(6.7)
M (X 2 ) =
x2 f (x) dx.
−∞
Учитывая «кусочный» характер задания функции плотности, представим искомый интеграл в виде суммы
Z∞
x2 f (x) dx =
−∞
Z0
x2 · 0 dx + λ ·
−∞
Z∞
x2 e
−λx
dx.
(6.32)
0
Так как первый из интегралов равен нулю, то проблемой является только
второй интеграл. Вычислим его с помощью формулы интегрирования по
частям:
Z∞
Zb
−λx
−λx
x2 e dx = lim x2 e dx =
b→∞
0
0



b
Zb
du = 2xdx,
1
−λx
1 −λx = lim − · x2 e
−2 · xe−λx dx =
=
−λx
b→∞
dv = e dx, v = − e
λ
0
λ
0


Zb
u = x,
du = dx,
1 
1 −λx =
= − · 0 − 2 · lim
xe−λx dx =
−λx
b→∞
dv = e dx, v = − e
λ
λ
0






b
b
Zb
1 −λx 
2
1
2
2
−λx
−λx
− e dx = − 2 · 0 − lim −
e
= 3.
= · − · xe
b→∞
λ
λ
λ
λ
λ
u = x2 ,
0
0
0
Подставляя последний результат1 в равенство (6.32), получаем
При вычислении предела от первой подстановки было использовано правило д 0 Лопиталя − Бернулли (см. Бидерман В. И. Указ. соч. С. 81):
b
∞
−λ·0
b2
(b2 )0
2(b)0
2
2
2 −λx
=
lim x e
= lim λb − 0 · e
=
= lim λb 0 = lim
= 0.
0 = lim
2
λb
λb
b→∞
b→∞ e
b→∞ e
b→∞ λ · (e )
b→∞ λ · e
∞
∞
0
1
156
2
.
λ2
Подставляя полученную дробь, а также значение математического
ожидания (см. равенство (6.30) в формулу (6.10)
2
2
1
D(X) = 2 −
,
λ
λ
убеждаемся в истинности доказываемой теоремы.
M (X 2 ) =
D(X) =
6.6.6
1
λ2
.
(6.33)
Среднее квадратическое отклонение показательного распределения
Зная дисперсию показательного распределения, можно с помощью формулы (6.13) вычислить среднее квадратическое отклонение данного распределения. Извлекая квадратный корень из дисперсии, получаем
σ(X) =
1
.
(6.34)
λ
Замечание 6.9. Из формул (6.30), (6.33), (6.34) видно, что показательное распределение является однопараметрическим распределением, так как
зависит только от одного параметра λ. Зная его, мы одновременно знаем
все числовые характеристики показательного распределения.
6.6.7
Вероятность попадания показательно распределённой
случайной величины в заданный интервал
Предположим, что непрерывная случайная величина X распределена
по показательному закону с параметром λ. Тогда имеет место следующая
Теорема 6.9. Вероятность попадания показательно распределённой
случайной величины X в интервал (α; β), расположенный на неотрицательной полуоси, определяется равенством
P (α < X < β) = e
−αλ
−βλ
−e
.
(6.35)
Д о к а з а т е л ь с т в о. В силу предположений о распределении
случайной величины X на неотрицательной полуоси интегральная функция распределения выглядит согласно формуле (6.29)
−λx
F (x) = 1 − e .
Тогда из формулы (6.4) следует, что
−λβ
−λα
P (α < X < β) = F (β)−F (α) ⇒ P (α < X < β) = 1−e − 1 − e
⇒
⇒ P (α < X < β) = e
Что и требовалось доказать.
157
−αλ
−βλ
−e
.
6.6.8
Понятие о роли показательного распределения в теории надёжности
В связи с возрастающими потребностями развития всевозможных технических систем в начале ХХ столетия возникла теория надёжности технических систем, математической основой которой, в первую очередь, явилась
теория вероятностей.
Связано это с тем, что центральным понятием теории надёжности является понятие отказ, связанное с нарушением работосопособного состояния
объекта. Несмотря на то, что факт отказа объекта − событие детерминированное, однако неполнота сведений об объекте и протекающих в нём и
в окружающей природе процессах приводят к вероятностному характеру
отказов. Поскольку время появления отказа − cлучайная величина, то
изучение этого события в теории надёжности ведётся методами теории вероятностей1 .
Так как любой объект изучения состоит из отдельных элементов, то
имеет смысл ввести следующие определения.
Определение 6.14. Элементом называется любой агрегат, не подлежащий техническому расчленению.
Определение 6.15. Математической надёжностью элемента
называется вероятность события, в котором при заданных условиях элемент будет работать безотказно в течение времени t. Вероятность этого события обозначается P (t). Иногда её называют законом надёжности
элемента.
Определение 6.16. Математической ненадёжностью элемента называется вероятность противоположного события, в котором при
заданных условиях элемент выйдет из строя, то есть откажет, в течение времени t. Вероятность этого события обозначается
Q(t) = 1 − P (t),
(6.36)
Предположим, что непрерывная случайная величина T определяет время безотказной работы элемента. Тогда ненадёжность элемента Q(t) совпадает с интегральной функцией F (t) распределения случайной величины
T:
Q(t) = P (T < t) = F (t).
Следовательно в силу противоположности событий
P (t) = 1 − F (t),
(6.37)
Ненадёжность Q(t) обладает всеми свойствами интегральной функции
распределения (рис. 6.17):
1
А также математической статистики и теории случайных процессов.
158
Q(0) = 0;
∀ t1 ≥ 0, t2 ≥ 0 t1 < t2 ⇒ Q(t1 ) ≤ Q(t2 );
lim Q(t) = 1.
t→∞
Надёжность P (t) обладает противоположными свойствами (рис. 6.18):
P (0) = 1;
∀ t1 ≥ 0, t2 ≥ 0 t1 < t2 ⇒ P (t1 ) ≥ P (t2 );
lim P (t) = 0.
t→∞
F (t)
P (t)
1
1
0
t
0
Рис. 6.17
t
Рис. 6.18
Наряду с интегральной функцией распределения на практике большое
применение имеет функция плотности распределения1
f (t) = F 0 (t) или f (t) = Q0 (t) или f (t) = −P 0 (t).
(6.38)
Дифференциал интегральной функции распределения
dF (t) = f (t)dt
определяет вероятность того, что время работы T принимает значения на
интервале [t; t + dt], то есть вероятность того, что элемент, который начал
работать в момент t = 0, откажет на участке времени [t; t + dt].
В приближённых расчётах плотность f (t) определяется формулой
f (t) ≈
∆n(t)
N ∆t
,
(6.39)
где ∆t − длина участка времени;
∆n(t) − число элементов, отказавших на участке времени;
N − общее число испытываемых элементов.
В теории надёжности с плотностью f (t) связана другая характеристика.
Определение 6.17. Интенсивностью отказов называется отношение плотности распределения времени безотказной работы элемента
к его надёжности, то есть
λ(t) =
f (t)
P (t)
.
(6.40)
С точки зрения физики интенсивность отказов определяет среднее число
отказов в единицу времени, приходящееся на один исправно работающий
1
Эту функцию иногда называют плотностью отказов или частотой отказов
159
элемент. Объяснить это можно с помощью формул (6.40) и (6.39).
Так как
f (t)
∆n(t)
λ(t) =
≈
,
P (t) N ∆tP (t)
а
N · P (t) ≈ n(t),
то
∆n(t)
λ(t) ≈
.
n(t)∆t
С точки зрения теории вероятности величина λ(t)dt определяет условную вероятность отказа элемента на интервале времени (t; t + ∆t) при
условии, что до момента t элемент работал безотказно.
Чтобы это объяснить, рассмотрим следующие события:
Предположим, что событие A − элемент исправно работал до момента t, а
событие B − элемент отказал на интервале времени (t; t + ∆t). Произведение событий A и B заключается в том, что элемент исправно работал до
момента t И после этого отказал на интервале времени (t; t+∆t). Согласно
теореме об умножении вероятностей 3.4 зависимых событий
P (AB) = P (A)PA (B).
(6.41)
Но так как P (A) = P (t), а P (AB) = f (t)dt (см. с. 156), то, разделив обе
части равенства (6.41) на P (A), согласно формуле (6.40) получим
f (t)dt
P (AB)
⇒ PA (B) =
= λ(t).
PA (B) =
P (A)
P (t)
Далее, выразим связь между надёжностью P (t) и интенсивностью отказов
λ(t), исключив из рассмотрения плотность распределения времени безотказной работы элемента f (t).
Используя формулы (6.38) и (6.40), получим
f (t)
P 0 (t)
λ(t) =
⇒ λ(t) = −
⇒ λ(t) = −(ln P (t))0 .
P (t)
P (t)
Проинтегрировав последнее равенство, находим
Zt
ln P (t) = − λ(τ )dτ.
0
Далее, пропотенцировав обе части полученного равенства по e, имеем
−
P (t) = e
Rt
0
λ(τ )dτ
.
(6.42)
В тех случаях, когда происходят внезапные отказы элементов, или исследуется распределение времени между соседними отказами и временем
восстановления, интенсивность отказов превращается в константу λ(t) =
160
λ.
Соответственно, надёжность элемента имеет вид
P (t) = e−λt (t ≥ 0),
(6.43)
а функция плотности распределения времени безотказной работы
f (t) = λe−λt (t ≥ 0)
показывает, что соответствующее распределение случайной величины T −
времени безотказной работы элемента − является показательным распределением.
Поскольку λ(t) в общем случае зависит от t, не удивительно, что показательное распределение является частным случаем таких распределений,
как
распределение Вейбулла (при1 α = 1)
α
f (t) = λαtα−1 e−λt
и
гамма-распределение (при2 α = 1)
λ(λt)α−1 e−λt
f (t) =
.
Γ(α)
Роль показательного распределения в теории надёжности связана также
с его характеристическим свойством.
Теорема 6.10. При заданной интенсивности отказов λ вероятность
безотказной работы элемента на интервале с длительностью t не зависит от времени предыдущей работы до начала данного интервала, а
зависит только от длительности интервала.
Д о к а з а т е л ь с т в о. Рассмотрим следующие события:
A − элемент безотказно работает на интервале (0, to );
B − элемент безотказно работает на интервале (to , to + t);
AB − элемент безотказно работает на интервале (0, to + t).
Согласно формуле (6.43) определим вероятности этих событий:
P (A) = e−λto ; P (B) = e−λt ;
P (AB) = e−λ(to +t) = e−λto e−λt .
1
Здесь α − показатель формы распределения.
Γ(α) − гамма-функция, − функция, которая расширяет понятие факториала на множества
Z∞
нецелых действительных и комплексных чисел и имеет следующий вид: Γ(α) =
tα−1 e−t dt (здесь
2
0
α ∈ C : Re(α) > 0). Гамма-функция была введена Л. Эйлером в 1730 году, а её обозначение и
современный вид определены А. М. Лежандром в 1814 году. (В рассматриваемом случае Γ(1) = 1.)
Лежандр Адриен Мари (фр. Adrien-Marie Legendre, 1752-1833) − французский математик, член
Парижской Академии наук. Основные работы связаны с геометрией, теорией чисел и математическим
анализом (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRL\
T2A\cyre\T2A\cyrzh\T2A\cyra\T2A\cyrn\T2A\cyrd\T2A\cyrr,_\T2A\CYRA\T2A\cyrd\T2A\cyrr\T2A\
cyri\T2A\cyre\T2A\cyrn_\T2A\CYRM\T2A\cyra\T2A\cyrr\T2A\cyri (дата обращения: 12.06.2016)).
161
Далее найдём условную вероятность того, что элемент будет безотказно
работать на интервале (to , to + t) при условии, что он безотказно отработал
на предыдущем интервале (0, to ):
P (AB)
e−λto e−λt
PA (B) =
⇒ PA (B) =
⇒ PA (B) = e−λt .
−λt
P (A)
e o
Так как полученная условная вероятность зависит только от t и не
зависит от to , то время работы to элемента на предыдущем интервале не
влияет на вероятность его работы на следующем интервале. Таким образом, условная вероятность на самом деле является безусловной. Следовательно, время работы элемента на раннем этапе не влияет на вероятность
его работы в последствии. Что и требовалось доказать1 .
Задача 6.15. Два независимо работающих элемента проходят испытания. Длительность работы каждого из элементов имеет показательное распределение,
соответственно равное
0,
если t < 0,
0,
если t < 0,
f1 (t) =
f2 (t) =
−0,03t
−0,04t
0, 03e
, если t ≥ 0.
0, 04e
, если t ≥ 0.
Найдите вероятность того, что за время t = 4 часа:
1) оба элемента выйдут из строя;
2) оба элемента не выйдут из строя;
3) только один элемент выйдет из строя;
4) хотя бы один элемент выйдет из строя.
Решение. Из формул (6.28) и (6.29) следует, что при t ≥ 0 вероятности
выхода из строя для каждого из элементов соответственно равны
F1 (t) = 1 − e−0,03t и F2 (t) = 1 − e−0,04t .
Подставив поочерёдно из условия задачи в каждое из представлений время
t = 4 и выполнив вычисления
1 − e−0,03·4 = 1 − e−0,12 = 1 − 0, 887 = 0, 113;
1 − e−0,04·4 = 1 − e−0,16 = 1 − 0, 852 = 0, 148,
получим вероятности выхода из строя за 4 часа для каждого из элементов:
F1 (4) = 0, 113 и F2 (4) = 0, 148.
(6.44)
Зная эти вероятности, можно ответить на заданные вопросы.
1) Оба элемента выйдут из строя тогда и только тогда, когда выйдет из
строя первый элемент И выйдет из строя второй элемент.
Так как элементы работают независимо друг от друга, то по теореме
3.5 об умножении вероятностей независимых событий2
1
Содержание этого параграфа полностью взято из следующих источников: Вентцель Е. С. Исследование операций. М. : Советское радио, 1972. 552 с. и Острейковский В. А. Теория надёжности. М. :
Высш. шк., 2003. 462 с.
2
Или согласно замечанию 3.6.
162
P1 = 0, 113 · 0, 148 ⇒ P1 = 0, 017.
2) Оба элемента не выйдут из строя тогда и только тогда, когда не выйдет
из строя первый элемент И не выйдет из строя второй элемент.
Согласно формуле (6.37) вероятности безотказной работы более четырёх
часов для элементов соответственно равны
P1 (4) = 1 − 0, 113 ⇒ P1 (4) = 0, 887;
P2 (4) = 1 − 0, 148 ⇒ P2 (4) = 0, 852.
Следовательно, из той же теоремы 3.5 об умножении вероятностей независимых событий1
P2 = 0, 887 · 0, 852 ⇒ P2 = 0, 756.
3) Только один элемент выйдет из строя тогда и только тогда, когда из
строя выйдет первый элемент И не выйдет из строя второй элемент ИЛИ
не выйдет из строя первый элемент И выйдет из строя второй элемент.
С помощью формулы полной вероятности2 (см. теорему 3.6), используя
решения предыдущих пунктов, имеем
P3 = F1 (4) · P2 (4) + P1 (4) · F2 (4) ⇒
⇒ P3 = 0, 113 · 0, 852 + 0, 887 · 0, 148 ⇒ P3 = 0, 228.
4) Так как событие «хотя бы один элемент выйдет» противоположно событию «ни один элемент не выйдет из строя», вероятность которого P2
известна, то
P4 = 1 − P2 ⇒ P4 = 1 − 0, 756 ⇒ P4 = 0, 244.
Объединяя полученные результаты, получаем
P1 = 0, 017; P2 = 0, 756; P3 = 0, 228; P4 = 0, 244.
6.7
Понятие о моментах
Решая задачу, связанную с проблемой моментов в математическом анализе3 , П. Л. Чебышёв обнаружил связь между основными понятиями теоретической механики − центром масс, распределением масс системы материальных точек относительно центра масс, моментами инерции −
и основными понятиями теории случайных величин − математическим
ожиданием и дисперсией.
Рассмотрим основные понятия этой связи.
Определение 6.18. Начальным моментом k-го порядка случайной величины называется математическое ожидание k-й степени
1
Или согласно замечанию 3.6.
Или следуя замечанию 3.6.
3
Работа называлась «О предельных величинах интегралов» и была опубликована в Journal de
Liouville в 1874 году (см. Чебышёв П. Л. Полн. собр. соч. Математический анализ. Том III. М.-Л. :
Изд-во Акад. наук СССР, 1948. С. 63-65, С. 396-403).
2
163
этой величины:
αk (X) = M (X k ).
(6.45)
Таким образом, определённая ранее характеристика положения случайной величины − математическое ожидание (см. определение 6.5) − является одновременно первым начальным моментом.
Так как отклонение случайной величины от её математического ожидания само является случайной величиной, то оно имеет собственное имя.
Определение 6.19. Центрированной случайной величиной называется отклонение случайной величины от её математического ожидания:
X̊=X-M(X).
(6.46)
Как было показано ранее, математическое ожидание центрированной
случайной величины равно нулю:
M (X̊) = 0.
С помощью нового понятия введём следующее
Определение 6.20. Центральным моментом k-го порядка случайной величины называется начальный момент этого же порядка соответствующей центрированной случайной величины:
k
(6.47)
µk (X) = M X̊ = M (X − M (X))k .
Так, для дискретной случайной величины1
n
X
µk (X) =
(xi − M (X))k pi ,
i=1
а для непрерывной случайной величины
Z∞
µk (X) =
(x − M (X))k f (x)dx.
−∞
Как было показано при определении дисперсии дискретной случайной
величины, первый центральный момент случайной величины в силу равенства нулю интереса не представляет.
Интерес представляет второй центральный момент, который совпадает с дисперсией случайной величины
В случае дискретной случайной величины
1
Или µk (X) =
∞
X
(xi − M (X))k pi , если случайная величина может принимать счётное множество
i=1
значений.
164
n
X
µ2 (X) =
(xi − M (X))2 pi = D(X),
i=1
а для непрерывной случайной величины
Z∞
µ2 (X) =
(x − M (X))2 f (x)dx = D(X).
−∞
Как уже говорилось выше (см. замечания 5.5 и 5.11), с точки зрения
теоретической механики математическое ожидание случайной величины, как характеристика положения, является аналогом центра
масс системы материальных точек на числовой прямой, а второй центральный момент, являясь характеристикой рассеивания возможных значений случайной величины относительно её математического ожидания, служит аналогом момента инерции распределения
масс относительно центра масс на числовой прямой.
Математическое ожидание и дисперсия случайной величины являются важными числовыми характеристиками для случайной величины, но
иногда возникает необходимость в более точном её описании. Для этого
используют центральные моменты третьего и четвёртого порядков.
Очень важную роль для описания распределения случайной величины
играет мера его асимметричности или скошенности.
Так как для симметричных распределений случайной величины все
центральные моменты нечётного порядка равны нулю, поэтому для меры
асимметричности достаточно выбрать любой из них. Для описания этой
меры введём следующее1
Определение 6.21. Коэффициентом асимметрии случайной
величины называется отношение третьего центрального момента этой
величины к кубу её среднего квадратического отклонения2 :
µ3 (X)
.
(6.48)
σ 3 (X)
На рис. 6.19 и 6.20 изображены две асимметричные кривые с положиSk(X) =
f (x)
f (x)
Sk > 0
Sk < 0
x
Рис. 6.19
1
2
x
Рис. 6.20
Обозначение Sk происходит от английского слова skew − косой, скошенный.
Деление на σ 3 (X) необходимо для того, чтобы сделать характеристику безразмерной.
165
тельным и отрицательным коэффициентами скошенности.
В качестве примеров рассмотрим задачи на вычисление коэффициентов
асимметрии для равномерного и показательного распределения.
Задача 6.16. Определите коэффициент асимметрии равномерно распределённой непрерывной случайной величины X.
Решение. Так как равномерное распределение является симметричным
распределением (см. рис. 6.7), а числитель формулы (6.48) является центральным моментом третьего нечётного порядка, то для равномерного
распределения коэффициент асимметрии
Sk(X) = 0.
Задача 6.17. Определите коэффициент асимметрии случайной величины X, имеющей показательное распределение с параметром λ
0,
если x < 0,
f (x) =
−λx
λe , если x ≥ 0.
Решение. Для решения этой задачи нам понадобится формула вычисления центрального момента третьего порядка µ3 , аналогичная формуле
вычисления дисперсии (см. (6.11)).
Согласно формуле (6.47)
µ3 = M (X − M (X))3 .
С помощью школьной формулы куб разности1 преобразуем правую часть
третьего центральногомомента
2
3
3
3
2
M (X − M (X)) = M X − 3X · M (X) + 3X · (M (X)) − (M (X)) .
Далее с помощью свойств линейности математического ожидания (см.
свойства 5.5-5.7) раскроем скобки в правой части полученного выражения
и перегруппируем
слагаемые
2
3
3
2
M X − 3X · M (X) + 3X · (M (X)) − (M (X)) =
2
3
= M X 3 − 3M X 2 · M (X)
+
3M
(X)
·
(M
(X))
−
(M
(X))
=
= M X 3 − 3M (X) · M X 2 − (M (X))2 − (M (X))3 .
Так как выражение в скобках в заключительной части преобразования есть
дисперсия D(X) (см. формулу
(см. (6.11)),
то в итоге получаем
3
3
M (X − M (X)) = M X − 3M (X) · D(X) − (M (X))3 .
Используя вычисленные ранее математическое ожидание и дисперсию
показательного распределения (см. формулы (6.30) и (6.33), имеем
1 1
1
M (X − M (X))3 = M X 3 − 3 · · 2 − 3 ⇒
λ λ
λ
4
⇒ M (X − M (X))3 = M X 3 − 3 .
λ
1
(a − b)3 = a3 − 3a2 b + 3ab2 − b3 .
166
Согласно формуле1 (6.7)
M X
3
Z∞
=
x3 · λe
−λx
dx.
0
При интегрировании по частям нам постоянно нужен будет предел2
−λx
lim xk · e = 0.
x→∞
Z∞
0
Zb
du = 3x2 dx,
x3 · λe dx = lim x3 · λe dx =
1 −λx
b→∞
dv = e−λx dx, v = − e
λ
0


b
Zb
1
1
−λx
−λx
= λ · lim − · x3 · e
−3 · −
· x2 · e dx.
b→∞
λ
λ
−λx
u = x3 ,
−λx
0
=
0
Согласно вышеуказанному пределу первое слагаемое в скобке стремится к
нулю, и после сокращения на λ нам предстоит найти
Zb
u = x2 ,
du = 2xdx,
−λx
2
3 · lim x · e dx =
1 −λx =
b→∞
dv = e−λx dx, v = − e
λ
0


b
b
Z
1
1
−λx
−λx
= 3 · lim − · x2 · e
· x · e dx.
−2 · −
b→∞
λ
λ
0
0
Как и выше, первое слагаемое в скобке стремится к нулю, а нам надо вычислить
Zb
u = x,
du = dx,
6
−λx
· lim x · e dx =
1 −λx =
λ b→∞
dv = e−λx dx, v = − e
λ
0


b Zb
1
1
6
−λx
−λx
− −
· e dx.
= · lim − · x · e
λ b→∞
λ
λ
0
0
Аналогично, освобождаясь от первого слагаемого в скобке, вычислим


b
Zb
6
1
1
6
6
6
−λx
−λx
− · e
=
·
lim
·
lim
·
0
−
−
.
e
dx
=
=
λ2 b→∞
λ2 b→∞
λ
λ2
λ
λ3
0
0
Вспоминая о третьем центральном моменте, получаем
6
4
2
M (X − M (X))3 = 3 − 3 ⇒ M (X − M (X))3 = 3 .
λ
λ
λ
1
Нижний предел поднят до нуля, так как функция плотности показательного распределения на
отрицательной части оси абсцисс равна нулю.
∞
k!
1
bk
(bk )0
2
lim λb =
= lim λb 0 = · · · = lim k λb =
= 0.
b→∞ e
b→∞ (e )
b→∞ λ · e
∞
∞
167
Разделив третий центральный момент на куб среднего квадратического отклонения (см. формулы (6.34) и (6.48), получаем коэффициент
асимметрии распределённой по показательному закону случайной величины X
Sk(X) = 2.
В некоторых случаях характеристикой распределения непрерывной случайной величины является мера пикообразности её вершины, которая сравнивается с пикообразностью вершины нормального распределения, для которого эта мера равна нулю.
Определение 6.22. Эксцессом случайной величины называется
отношение четвёртого центрального момента этой величины к четвёртой степени её среднего квадратического отклонения, уменьшенное на
3:
µ4 (X)
E(X) = 4
− 3.
(6.49)
σ (X)
На рис. 6.21 изображеf (x)
E(X) > 0
ны кривые распределений с
разными эксцессами: кривая
нормального распределения с
E(X) = 0
E(X)=0, кривая с более острой вершиной, чем у норE(X) < 0
мального распределения, имеющая положительный эксx цесс, и кривая с пологой вершиной, имеющая отрицательРис. 6.21
ный эксцесс.
Задача 6.18. Непрерывная случайная величина X имеет распределение с плотностью
−x2
f (x) = Ae .
Определите эксцесс E(X).
Решение. Используя свойство 6.2, вычислим коэффициент A. Для этого нужно будет решить уравнение
Z∞
−x2
Ae dx = 1.
−∞
Вынося константу за знак интеграла, имеем
Z∞ 2
−x
A
e dx = 1.
−∞
168
Интеграл в левой части является интегралом Эйлера-Пуассона1
Z∞ 2
√
−x
e dx = π.
−∞
Поэтому
1
A=√ .
π
Следовательно, плотность распределения случайной величины X описывается функцией
1 −x2
f (x) = √ e .
π
Далее для решения задачи нам понадобится формула вычисления центрального момента четвёртого порядка µ4 , аналогичная формуле вычисления дисперсии (см. (6.11)).
Согласно формуле (6.47)
µ4 = M (X − M (X))4 .
С помощью бинома Ньютона2 преобразуем правую часть четвёртого центрального момента
M (X − M (X))4 =
2
3
4
4
3
2
= M X − 4X · M (X) + 6X · (M (X)) − 4X (M (X)) + (M (X)) .
Далее с помощью свойств линейности математического ожидания (см.
свойства 5.5-5.7) раскроем скобки в правой части полученного выражения
и перегруппируем слагаемые
M X 4 − 4M X 3 · M (X) + 6M X 2 · (M (X))2 − 4M (X) · (M (X))3 + (M (X))4 =
= M X 4 − 4M X 3 · M (X) + 6M X 2 · (M (X))2 − 6 (M (X))4 + 3 (M (X))4 =
= M X 4 − 4M X 3 · M (X) + 6 (M (X))2 M X 2 − (M (X))2 + 3 (M (X))4 .
Так как выражение в скобках в заключительной части преобразования есть
дисперсия D(X) (см. формулу (см. (6.11)), то в итоге получаем
M (X − M (X))4 = M X 4 −4M X 3 ·M (X)+6 (M (X))2 D(X)+3 (M (X))4 .
Функция плотности является чётной функцией с графиком, симметричным относительно оси ординат (рис. 6.22), поэтому её математическое
ожидание M (X) = 0. По этой же причине и начальный момент третьего
порядка M (X 3 ) = 0.
1
2
См. Зорич В. А. Указ. соч. С. 424.
(a − b)4 = a4 − 4a3 b + 6a2 b2 − 4ab3 + b4 .
169
f (x)
1
√
π
√1
eπ
− √1
Рис. 6.22
2
x
1
√
2
Следовательно,
M X − M (X))4 = M X 4 .
Но прежде, чем заняться его вычислением, нам придётся вычислить начальный момент второго порядка M (X 2 ), который пригодится при вычислении искомого центрального момента. А так M (X 2 ) в нашем случае
совпадает с дисперсией, то он пригодится при вычислении среднего квадратического отклонения σ(X).
Далее при интегрировании мы будем использовать символьное выражение1
∞
−x2
xk e
xk
−02
−
0
·
e
= 0.
2
x→∞ ex
= lim
0
Согласно формуле (6.7)
1
M (X 2 ) = √
π
Z∞
−x2
2
x ·e
dx.
−∞
Так как под интегралом находится чётная функция, то согласно свойствам
интеграла от такой функции в симметричных пределах2
Z∞
Z∞
2
2
1
−x
−x2
√
x2 · e dx = √
x2 · e dx.
π
π
−∞
0
Далее, используя формулу интегрирования по частям и вышеуказанное
символьное выражение, получим3
1
Здесь и далее k − целое число. Для вычисления предела, как и в сноске на с. 164, нужно применить
несколько раз правило Лопиталя − Бернулли.
2
См., например, Бидерман В. И. Указ. соч. С. 146.
√
Z∞ 2
−x
π
3
Заметим, что интеграл в скобке есть интеграл Пуассона-Эйлера
e dx =
.
2
0
170
2
√
π

2
x −x2
= √ − e
2
π
Z∞
du = dx,
x · e dx =
1 −x2 =
dv = xe dx, v = − e
2
0

∞
√ √
Z∞ 2
1
1
1
π
2
π
2
−x
+
=
e dx = √
0+ ·
=√ ·
2
2 2
2
π
π 4
0
u = x,
−x2
2
−x2
0
Таким образом,
1
√
π
Z∞
−x2
x2 · e
dx =
1
1
⇒ M (X 2 ) = .
2
2
(6.50)
−∞
Теперь можно вычислить и M (X 4 ). Согласно формуле (6.7)
Z∞
1
−x2
M (X 4 ) = √
x4 · e dx.
π
−∞
Как и выше, под интегралом чётная функция, а пределы интегрирования
симметричны. Поэтому
Z∞
Z∞
1
2
−x2
−x2
√
x4 · e dx = √
x4 · e dx.
π
π
−∞
0
Снова используя формулу интегрирования по частям, получим1
Z∞
u = x,
du = dx,
2
−x2
√
x4 · e dx =
.
−x2
π
dv = x3 e dx,
?
0
Теперь нам придётся взять паузу, чтобы вычислить2 функцию v.
Z
Z
Z
2
2
1
1
3 −x
2 −x
2
2
v = x e dx =
x e d(x ) = t = x =
te−t dt =
2
2
Z
1
u = t,
du = dt,
=
−te−t − (−) e−t dt =
−t
−x2 =
dv = e dx, v = −e
2
t + 1 −t
x2 + 1 −x2
1
−t
−t
=
−te − e
=−
e =−
e .
2
2
2
Продолжая прерванные для нахождения v вычисления, имеем3
1
Здесь использовано представление x4 = x · x3 .
1 2
x d(x2 ).
2
3
Во второй строке преобразований, в скобке, первый интеграл вычислен выше (см. формулу (6.50)).
2
Здесь использовано представление x3 dx = x2 · xdx =
171
Z∞

∞
2

Z∞
1
−x2
+
(x2 + 1)e dx =
2
x + 1 −x2
2
e
dx = √ −x
2
π
0
0
0


√
√ Z∞
Z∞ 2
1
2 1
π
π
−x2
−x
2
0 + x e dx + e dx = √
+
=1
=√ ·
2
2
π 2
π
2
√
π
−x2
x4 · e
0
1
√
π
Z∞
x4 · e
0
−x2
dx = 1 ⇒ M (X 4 ) = 1 ⇒ M X − M (X))4 = 1.
−∞
Так как M (X 2 ) = D(X), то из равенства (6.50) среднее квадратическое
отклонение
p
1
σ(X) = D(X) ⇒ σ(X) = √ .
2
Далее с помощью формулы вычисления эксцесса (6.49) имеем
1
E(X) = 4 − 3 ⇒ E(X) = 1.
√1
2
В итоге, эксцесс заданной в условии задачи случайной величины X
E(X) = 1.
Замечание 6.10. То, что
эксцесс данной случайной величины X больше эксцесса нормально распределённой
случайной величины можно потвердить графически,
сравнивая графики функций
плотности заданной случай√1
eπ
ной величины и случайной
x
1
1
−1 − √
√ 1
величины, имеющей норми2
2
рованное нормальное распреРис. 6.23
деление (рис. 6.23).
Рассматривая рис. 6.21 − 6.23, эксцесс случайной величины можно определить как коэффициент островершинности случайной величины.
1
√
π
1
√
2π
f (x)
172
Закон больших чисел
7
Иногда нужно пытаться снова и снова, Чтобы
получить желаемый результат. Чем больше
пытаешься, тем скорее получится. Или, в сущности, иногда просто надо не сдаваться.
Джоджо Мойес
В начале XVIII столетия в развитии теории вероятностей как математической науки наступает момент, когда приходит осознание того, что
«частота появления какого-либо случайного события при неограничивающемся числе независимых наблюдений, производимых в одинаковых условиях, сближается с его вероятностью»1
Приходит понимание того, что «само понятие математической вероятности было бы бесплодно, если бы не находило своего осуществления в виде
частоты появления какого-либо результата при многократном повторении
однородных условий».
Этим пониманием мир обязан Якобу Бернулли, открывшему общий
принцип, согласно которому при большом числе случайных величин их
средний результат перестаёт быть случайным и может быть предсказан с большой степенью определённости. Этот принцип получил название
закон больших чисел2 .
В более узком смысле под законом больших чисел понимают группу теорем, в каждой из которых при заданных условиях устанавливается
закономерность приближения средних характеристик большого числа испытаний к некоторым определённым постоянным.
В основе доказательств этих теорем лежат два неравенства.
7.1
Неравенство Маркова
Теорема 7.1. Неравенство Маркова. Если случайная величина X принимает только неотрицательные значения и имеет конечное математическое ожидание M (X), то для любого положительного числа ε верно
неравенство
M (X)
P (X > ε) ≤
.
(7.1)
ε
1
См. Бернулли Я. Указ. соч. С. 4.
Впервые этот термин использовал Д. Пуассон при работе над обобщением теоремы Бернулли в
исследовании «Recherches sur la probabilité des jugements en matiére criminelle et en matiére civill» (русское название работы «Исследования о вероятности приговоров в уголовных и гражданских делах»)
в 1837 году (см. Бернулли Я. Указ. соч. С. 14).
2
173
Д о к а з а т е л ь с т в о. В определении 5.5 было введено понятие
индикатора IA случайного события A. Используем его для доказательства
данного неравенства.
Событие, при котором случайная величина X ≤ ε, обозначим A, а противоположное ему событие Ā заключается в том, что случайная величина
X > ε. Достаточно очевидно, что сумма индикаторов противоположных
событий
IA + IĀ = 1.
Представим модуль случайной величины
X = X · IA + X · IĀ .
Так как первое слагаемое X · IA неотрицательно, то имеем неравенство
X > X · IĀ .
Поскольку X > ε, то верно двойное неравенство
X > X · IĀ > ε · IĀ .
Из монотонности математического ожидания следует истинность следующего неравенства
M (X) > M (ε · IĀ ).
Согласно биномиальному закону распределения математическое ожидание
M (IĀ ) = P (Ā),
поэтому имеет место следующее неравенство
M (X) > ε · P (Ā).
А так как P (Ā) = P (X > ε), то имеем
M (X) > εP (X > ε).
Далее, разделив обе части последнего неравенства на положительное число ε, убеждаемся в истинности доказываемого неравенства
M (X)
P (X > ε) ≤
.
ε
Следствие 7.1. Так как события X ≤ ε и X > ε − противоположные,
то неравенство (7.1) эквивалентно неравенству
P (X ≤ ε) ≥ 1 −
M (X)
.
(7.2)
ε
Задача 7.1. Согласно мировой статистике, в наши дни средний срок
службы автомобиля до того как машина попадёт на свалку, в глобальном
масштабе, составляет 12 лет1 . Оцените вероятность того, выбранный в автосалоне автомобиль прослужит не более 25 лет.
Решение. Предположим, что случайная величина X − срок службы
1
[Электронный ресурс] : URL : http://www.1gai.ru/publ/514593-dolgovechnost-i-srok-sluzhby\
-avtomobilya.html@1gai.ru (дата обращения: 12.06.2016).
174
автомобиля до утилизации. Согласно условию её математическое ожидание
M (X) = 12, а длина предполагаемого интервала службы ε = 25. Подставляя эту информацию в неравенство (7.2) получаем
12
P (X ≤ 25) ≥ 1 −
⇒ P (X ≤ 25) ≥ 0, 52.
25
Таким образом (хоть это и грубая оценка), получаем, что
вероятность того, что автомобиль прослужит
не более 25 лет, составляет не менее 52 процентов.
Задача 7.2. В течение трёх семестров установлено, что в среднем студент Вася опаздывает на лекции не более чем на две минуты. Оцените
вероятность того, что в четвёртом семестре Вася будет опаздывать на лекции более чем на 5 минут.
Решение. Предположим, что случайная величина Y − время опоздания Васи на лекцию. Из условия известно, что математическое ожидание
M (Y ) = 2, а длина предполагаемого времени опоздания ε = 5. Подставляя
эти данные в неравенство (7.1) получаем
2
P (X > 5) ≤ ⇒ P (X > 5) ≤ 0, 4.
5
Следовательно,
вероятность того, что Вася будет опаздывать на лекции
в четвёртом семестре более чем на 5 минут, составляет
менее 40 процентов1 .
Если ввести ограничение не только на математическое ожидание случайной величины X, но и на её дисперсию, то можно получить
7.2
Неравенство Бьенеме − Чебышёва
Полученное И. Ж. Бьенеме в 1853 году и переоткрытое П. Л. Чебышёвым1 неравенство утверждает, что случайная величина как правило при1
В советской и последующей российской математической литературе неравенство называется
неравенством Чебышёва. История неравенства тесно связана с открытием Бьенеме метода моментов
(или метода математических ожиданий). Сам Чебышёв в августе 1873 года назвал этот метод
методом Бьенеме. Поскольку данное неравенство было впервые сформулировано Бьенеме в работе,
посвящённой этому методу, а вклад Чебышёва в развитие метода по мнению академика А. А. Маркова
(старшего) превосходит вклад открывателя, то логично назвать неравенство неравенством Бьенеме
− Чебышёва (см. Бернулли Я. Указ. соч. С. 15).
Бьенеме Иренэ-Жюль (Irénée-Jules Bienaymé, 1796-1878) − французский статистик, член Французской академии наук. (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/
\T2A\CYRB\T2A\cyrsftsn\T2A\cyre\T2A\cyrn\T2A\cyre\T2A\cyrm\T2A\cyre,_\T2A\CYRI\T2A\cyrr\
T2A\cyre\T2A\cyrn\T2A\cyre-\T2A\CYRZH\T2A\cyryu\T2A\cyrl\T2A\cyrsftsn
(дата
обращения:
12.06.2016)).
Следует отметить, что в работах Чебышёва и Маркова Бьенеме пишется как Биенэмэ (возможно,
в период борьбы с косомополитизмом в СССР в конце 40-х годов XX столетия неравенство «потеряло»
175
нимает значения, близкие к значению математического ожидания. Если
сформулировать более точно, оно оценивает вероятность того, что случайная величина примет значение, далекое от своего среднего.
Теорема 7.2. Неравенство Бьенеме − Чебышёва. Если случайная
величина X имеет конечную дисперсию D(X), то для любого положительного числа ε верно неравенство
P (|X − M (X)| > ε) ≤
D(X)
ε2
.
(7.3)
Д о к а з а т е л ь с т в о. Предположим, что случайная величина
X̄ = (X − M (X))2 , а положительное число ε̄ = ε2 . Подставляя X̄ и ε̄ в
неравенство Маркова (7.1), получаем
M (X − M (X))2
2
2
.
P (X − M (X)) > ε ≤
ε2
(7.4)
Так как неравенство (X − M (X))2 > ε2 эквивалентно неравенству
|X − M (X)| > ε,
2
а M (X − M (X)) есть дисперсия D(X), то из неравенства (7.4) следует
истинность доказываемого неравенства (7.3).
Аналогично следствию 7.1 неравенство
P (|X − M (X)| ≤ ε) ≥ 1 −
D(X)
ε2
(7.5)
равносильно неравенству (7.3).
Ранее, изучая нормальный закон распределения непрерывной случайной величин, мы сформулировали правило трёх сигм для нормального
закона. Неравенство 7.3 позволяет сформулировать в виде следствия это
правило для всех распределений случайной величины, имеющих конечную
дисперсию.
Следствие 7.2. Если случайная величина X имеет конечную дисперсию D(X), то справедливо неравенство1
p
1
P |X − M (X)| ≥ 3 D(X)ε ≤ .
(7.6)
9
Задача 7.3. В некотором населённом пункте среднесуточное потребление энергии составляет 25000 кВт·час. В среднем зафиксированные за
фамилию Бьенеме).
D(X)
1
D(X)
1
= .
p
2 =
9D(X)
9
3 D(X)
176
последний месяц отклонения не превышали 300 кВт·час. Оцените с вероятностью более 0,9 электропотребление в этом населённом пункте в ближайшие сутки.
Решение. Предположим, что случайная величина X − количество
электроэнергии, израсходованной в этом населённом пункте в ближайшие
сутки. Согласно условию среднее квадратическое отклонение σ можно считать равным 300. Поэтому дисперсия D(X) = 3002 . Неизвестную величину
интервала отклонения обозначим за ε. Подставляя эти числа в неравенство
(7.5), получаем
3002
P (|X − M (X)| ≤ ε) ≥ 1 − 2 .
ε
Так как по условию нужна оценка вероятности более 0,9, то составляем
следующее неравенство
3002
1 − 2 > 0, 9.
ε
Решим это неравенство.
300 p
3002
300
<
0,
1
⇒
< 0, 1 ⇒ ε >
⇒ ε > 949, 37.
2
ε
ε
0, 316
Округляя последний результат до десятков, можно считать, что
в данном населённом пункте в ближайшие сутки с вероятностью
более чем 0, 9 будет израсходовано 25000 ± 950 кВт·час.
Замечание 7.1. Заметим, что неравенства Маркова (7.1)-(7.2) и Бьенеме − Чебышёва (7.3)-(7.5), являясь универсальными неравенствами, не
зависящими от конкретных распределений, дают приближённые грубые
оценки. Более точные оценки можно получить только определив тип соответствующего распределения при условии известных для этого распределения оценок. В качестве примера рассмотрим следующую задачу.
Задача 7.4. Вероятность изготовления на отлаженном токарном станке детали равна 0,95. Оцените с помощью неравенства Бьенеме − Чебышёва вероятность того, что среди изготовленных 500 деталей число бракованных деталей окажется в пределах от 15 до 35. Сравните полученную
оценку с вероятностью данного события, вычисленной по формуле Муавра
− Лапласа.
Решение. В данной задаче случайная величина X − число бракованных деталей − распределена по биномиальному закону. Так как вероятность изготовления бракованной детали q = 1 − p, то в данном случае
q = 1 − 0, 95, то есть q = 0, 05. Для рассматриваемой величины математическое ожидание вычисляется по формуле M (X) = np. Поэтому
M (X) = 500 · 0, 05, следовательно, M (X) = 25. Дисперсия в этом случае
вычисляется с помощью формулы D(X) = npq. Подставляя данные, имеем
177
D(X) = 500 · 0, 05 · 0, 95 ⇒ D(X) = 23, 75.
Вероятность того, что X удовлетворяет двойному неравенству, преобразуем следующим образом
P (15 ≤ X ≤ 35) = P (15 − 25 ≤ X − 25 ≤ 35 − 25) =
= P (−10 ≤ X − 25 ≤ 10) = P (|X − 25| ≤ 10).
Подставляя в неравенство (7.5) вычисленные параметры, имеем
23, 75
P (|X − 25| ≤ 10) ≥ 1 −
⇒ P (|X − 25| ≤ 10) ≥ 0, 7625.
102
Таким образом, вероятность того, что среди изготовленных 500 деталей
число бракованных деталей окажется в пределах от 15 до 35, не меньше,
чем 0,7625.
Оценим вероятность этого события с помощью формулы Муавра − Лап√
ласа. В условиях этой формулы δ = 10, σ = 23, 75, то есть σ = 4, 87.
Следовательно,
10
P (|X − 25| ≤ 10) = 2Φ
⇒ P (|X − 25| ≤ 10) = 2Φ (2, 053) ⇒
4, 87
⇒ P (|X − 25| ≤ 10) = 2 · 0, 4798 ⇒ P (|X − 25| ≤ 10) = 0, 9596.
Как отмечено в замечании 7.1, оценка по формуле Муавра − Лапласа
точнее более грубой оценки, полученной с помощью неравенства Бьенеме
− Чебышёва1 .
7.3
Теорема Чебышёва
Неравенства Маркова и Бьенеме − Чебышёва являются на языке математики леммами2 , то есть необходимыми ступеньками к закону больших
чисел как к ряду теорем, первой из которых является
Теорема 7.3. Теорема Чебышёва3 . Если существует положительная константа C, ограничивающая дисперсии n попарно независимых
случайных величин X1 , X2 , . . . , Xn , то при неограниченном увеличении n
средняя арифметическая случайных величин сходится по вероятности к
средней арифметической их математических ожиданий M (X1 ), M (X2 ),
. . . , M (Xn ), то есть
lim P
n→∞
X1 + X2 + · · · + X n
n
−
M (X1 ) + M (X2 ) + · · · + M (Xn )
n
≤ε
= 1.
(7.7)
1
Следует заметить, что оценка с помощью неравенства Бьенеме − Чебышёва имеет преимущество
в скорости её получения, для неё не нужно искать значения интегральной функции Лапласа.
2
Лемма − (греч. ληµµα − предположение) − вспомогательное утверждение, позволяющее доказывать другие утверждения.
3
Неравенство и теорема были доказаны П. Л. Чебышёвым в 1867 году, в работе «О средних величинах».
178
Д о к а з а т е л ь с т в о. По условию задачи для дисперсий данных
случайных величин справедливы неравенства
D(X1 ) ≤ C, D(X2 ) ≤ C, . . . , D(Xn ) ≤ C.
(7.8)
Определим новую случайную величину
X1 + X2 + · · · + X n
.
X=
n
Из линейности математического ожидания следует, что
X1 + X2 + · · · + Xn
M (X1 ) + M (X2 ) + · · · + M (Xn )
M (X) = M
=
.
n
n
Так как рассматриваемые случайные величины являются независимыми, то из свойств дисперсии известно, что
X1 + X2 + · · · + Xn
D(X1 ) + D(X2 ) + · · · + D(Xn )
D(X) = D
.
=
n
n2
Учитывая ограничения (7.8), имеем неравенство
n
z
}|
{
D(X1 ) + D(X2 ) + · · · + D(Xn ) C + C + · · · + C
nC
C
≤
=
=
,
n2
n2
n2
n
из которого следует верхняя оценка дисперсии
D(X) ≤
C
.
n
(7.9)
Совершив в неравенстве (7.5) замену случайной величины
X 1 + X2 + · · · + Xn
X=
,
n
получим следующее неравенство
P
X1 + X2 + · · · + X n
n
−
M (X1 ) + M (X2 ) + · · · + M (Xn )
n
≤ε
≥1−
D(X)
ε2
(7.10)
С помощью (7.9) получаем нижнюю оценку правой части неравенства
(7.10)
C
D(X)
n =1− C .
1−
≥
1
−
ε2
ε2
nε2
Учитывая её, перепишем неравенство (7.10)
P
X1 + X2 + · · · + Xn
n
−
M (X1 ) + M (X2 ) + · · · + M (Xn )
n
≤ε
≥1−
C
.
nε2
(7.11)
C
стремится к нулю, а вероятность
nε2
по определению не может быть больше единицы, убеждаемся в истинности
Так как с увеличением n дробь
179
.
равенства (7.7).
Следствие 7.3. Так как события |X| ≤ ε и |X| > ε являются противоположными, то истинным является и неравенство
P
X1 + X 2 + · · · + X n
n
−
M (X1 ) + M (X2 ) + · · · + M (Xn )
n
>ε
≤
C
,
nε2
(7.12)
из которого следует другая формулировка теоремы (7.3):
Если существует положительная константа C, ограничивающая дисперсии n попарно независимых случайных величин X1 , X2 , . . . , Xn , то при
неограниченном увеличении n отклонение средней арифметической случайных величин от средней арифметической их математических ожиданий M (X1 ), M (X2 ), . . . , M (Xn ) маловероятно, то есть
lim P
n→∞
X1 + X 2 + · · · + Xn
n
−
M (X1 ) + M (X2 ) + · · · + M (Xn )
n
>ε
= 0.
(7.13)
Обобщая утверждения теоремы Чебышёва (7.3) и следствия (7.3), можно утверждать, что среднее арифметическое большого числа случайных
слагаемых стабилизируется с ростом этого числа. Как бы сильно каждая случайная величина не отклонялась от своего среднего значения, при
суммировании эти отклонения взаимно гасятся, так что среднее арифметическое приближается к постоянной величине.
Следствие 7.4. С точки зрения математической статистики теорема
Чебышёва (7.3) представляет наибольший интерес в случае, когда все случайные величины X1 , X2 , . . . , Xn имеют равные математические ожидания
M (X1 ) = M (X2 ) = · · · = M (Xn ) = M (X̄)
и равные дисперсии
D(X1 ) = D(X2 ) = · · · = D(Xn ) = D(X̄)
В этом случае в качестве оценки неизвестного исследователю математического ожидания используют выборочное среднее арифметическое1
X1 + X2 + · · · + Xn
X̄ =
.
n
Теорема Чебышёва (7.3) является математическим фундаментом применяемого в математической статистике выборочного метода, который позволяет по небольшой случайной выборке2 делать вывод о всём множестве
изучаемых элементов.
Задача 7.5. Для определения среднего дохода налогоплательщиков
некоторого населённого пункта была проведена проверка 200 жителей этого населённого пункта, выбранных случайным образом. Оцените вероятность того, что среднегодовой доход жителей этого населённого пункта
1
Это возможно, например, при измерениях некоторой физической величины.
Под выборкой понимается некоторое подмножество элементов, извлекаемое для исследования из
всего множества элементов, которое предполагается бесконечным.
2
180
отклонится от среднего арифметического годовых доходов выбранных 200
жителей не более, чем на 1000 рублей, если из статистики предыдущих лет
известно, что среднее квадратическое отклонение годового дохода в данном пункте не превышает 3000 рублей.
Решение. Пусть Xi − случайная величина, характеризующая годовой
доход жителя, имеющего номер i в данной выборке1 . Так как в каждом
случае i дисперсия D(Xi ) ≤ C = 30002 , то можно воспользоваться неравенством (7.11)
P
X1 + X2 + · · · + X200 M (X1 ) + M (X2 ) + · · · + M (X200 )
30002
−
≤ 1000 > 1−
.
200
200
200 · 10002
Сократив дробь и вычтя её из единицы, можно утверждать, что
вероятность того, что среднегодовой доход жителей этого населённого
пункта отклонится от среднего арифметического годовых доходов выбранных 200 жителей не более, чем на 1000 рублей больше, чем 0, 955.
Задача 7.6. Сколько необходимо провести замеров длины данной детали, чтобы с вероятностью не менее чем 0, 9 утверждать, что отклонение
по абсолютной величине средней арифметической этих замеров от фактической длины детали F не превышает 0, 5 при условии, что среднее квадратическое отклонение каждого из замеров не превышает 2.
Решение. Предположим, что Xi − случайная величина, определяющая
i-й замер2 . Так как в каждом случае i дисперсия D(Xi ) ≤ C = 22 , то как
и в предыдущей задаче 7.5 воспользуемся неравенством (7.11)
22
X1 + X 2 + · · · + X n
− F ≤ 0, 5 ≥ 1 −
.
P
n
n · (0, 5)2
По условию задачи правая часть неравенства
4
1−
≥ 0, 9.
0, 25n
Решив полученное неравенство относительно n
16
16
1 − 0, 9 ≥
⇒n≥
⇒ n ≥ 160,
n
0, 1
получаем, что
в условиях задачи нужно провести не менее 160 замеров.
Теорема Чебышёва (7.3) позволяет получить доказательство теоремы
Бернулли, положившей начало исследованиям закона больших чисел.
1
2
Здесь i пробегает множество значений от 1 до 200.
Здесь i пробегает множество значений от 1 до n.
181
7.4
Теорема Бернулли
Теорема Бернулли1 рассматривает связь между статистической вероятностью события2 , найденной в условиях практики, и его теоретической
вероятностью3 .
Теорема 7.4. Теорема Бернулли. Если m − число наступлений события A в n попарно независимых испытаниях, а p − вероятность наступления события A в каждом из испытаний, то для любого положительного числа ε верны неравенства
m
pq
−p >ε ≤
(7.14)
P
n
nε2
и
pq
P
−p ≤ε >1−
.
(7.15)
n
nε2
Д о к а з а т е л ь с т в о. Число наступлений события A в n попарно независимых испытаниях можно считать случайной величиной, распределённой по биномиальному закону, и воспринимать её как сумму n
попарно независимых случайных величин
m = X1 + X2 + · · · + Xn ,
которые можно рассматривать как индикаторные функции события A
1, если A произошло в i-м испытании;
Xi = IA =
0, если A не произошло в i-м испытании.
Так как для каждой величины-индикатора4 математическое ожидание
M (Xi ) = p, а дисперсия D(Xi ) = p(1−p), то, полагая C = pq (где q = 1−p)
и учитывая следствие 7.4 и неравенство (7.12), убеждаемся в истинности
доказываемого неравенства.
Задача 7.7. Оцените вероятность того, что при подбрасывании двух
игральных костей 400 раз одновременно относительная частота выпадения
двух «шестёрок» будет отличаться от вероятности этого события более чем
на 0, 01.
Решение. Так выпадение «шестёрки» на одной кости не зависит от её
выпадения на другой, то вероятность выпадения двух «шестёрок» на двух
костях одновременно согласно теореме о произведении вероятностей незаm
1
Теорема была получена Я. Бернулли в 1668 году, но опубликована она была в 1713 году.
С точки зрения статистического определения вероятности: вероятность события A − предел отношения количества наступлений события A к количеству всех опытов при безграничном увеличении числа опытов. Это отношение ещё называют относительной частотой события.
3
Следует помнить, что в теории вероятностей исследуются вероятности событий, которые ещё не
наступили.
4
См. свойства биномиального распределения или определение индикаторных функций.
2
182
1 1
1
висимых событий1 будет равна p = · , то есть p = . Соответственно
6 6
36
вероятность того, что при подбрасывании выпадет менее двух «шестёрок»,
1
35
будет равна q = 1 − , то есть q = 1 − .
36
36
По условию задачи n = 400, а величина отклонения ε = 0, 01. Подставляя эти данные в неравенство (7.14)
1 35
·
1
m
35
36 ,
> 0, 01 ≤
−
P
400 36
400 · (0, 01)2
после арифметических вычислений получаем, что
вероятность того, что при подбрасывании двух игральных костей 400 раз
одновременно относительная частота выпадения двух «шестёрок» будет
отличаться от вероятности этого события более чем на 0, 01, не будет
превышать 0, 675.
Задача 7.8. Вероятность того, что деталь окажется стандартной, составляет 0, 95. Сколько деталей необходимо проверить, чтобы с вероятностью 0, 8 можно было бы утверждать, что абсолютная величина отклонения относительной частоты появления стандартных деталей от вероятности их появления не будет превышать 0, 01?
Решение. Согласно условию задачи p = 0, 95. Так как q = 1 − p, то
q = 0, 05. Предел отклонения ε = 0, 9. Подставляя эти данные в неравенство (7.15), имеем
m
0, 95 · 0, 05
− 0, 95 < 0, 01 ≥ 1 −
.
P
n
n(0, 01)2
Поскольку вероятность утверждения по условию 0, 8, то для правой части
полученного неравенства верна оценка
0, 475
1−
≥ 0, 8.
0, 0001n
Решив полученное неравенство относительно n
4750
4750
1 − 0, 8 ≥
⇒n≥
⇒ n ≥ 23750,
n
0, 2
получаем, что
в условиях задачи нужно проверить не менее 23750 деталей.
1
Или принципу произведения.
183
7.5
Сходимость по вероятности
С законом больших чисел связано важное понятие, обобщающее понятие сходимости последовательности, известное из математического анализа. Вспомним определение сходимости для последовательности чисел.
Определение 7.1. Числовая последовательность {an } сходится к
числу a, если для любого сколь угодно малого положительного числа δ
существует номер N = N (δ), такой что для всех n > N |an − a| < δ.
Поскольку теория вероятностей имеет дело с последовательностями случайных величин, то и сходимость этих последовательностей может быть
описана только с помощью вероятностных оценок. Поэтому для последовательностей случайных величин определение сходимости выглядит так:
Определение 7.2. Последовательность случайных величин {Xn } сходится по вероятности к случайной величине X, если для любого
сколь угодно малого положительного числа ε и любого сколь угодно малого положительного числа δ существует номер N = N (δ, ε), такой что
для всех n > N
P (|Xn − X| < δ) ≥ 1 − ε или P (|Xn − X| ≥ δ) < ε.
Обозначается сходимость по вероятности следующим образом:
p
Xn −→ X.
Поэтому все утверждения, связанные с законом больших чисел, не
только в словесной формулировке, но и в символьной могут выглядеть
иначе. Так, например, теорема Чебышёва 7.3 наряду со своей словесной
формулировкой может иметь в качестве символьной
X1 + X2 + · · · + Xn p M (X1 ) + M (X2 ) + · · · + M (Xn )
−→
.
n
n
Замечание 7.2. В рамках данного курса невозможно рассказать о всех
теоремах закона больших чисел1 . Можно только отметить, что в этих
исследованиях наряду с Я. Бернулли и П. Л. Чебышёвым большую роль
сыграли исследования А. Муавра, П. С. Лапласа, Д. Пуассона, А. А. Маркова, Э. Бореля, А. Я. Хинчина, А. Н. Колмогорова, Б.В.Гнеденко2 .
1
Различие и многобразие теорем связаны с ограничениями на случайные величины, входящие в
последовательности. В одних из них рассматриваются замена независимости случайных величин на
некоррелированность, в других ограничения на дисперсии заменяется другими условиями.Связано это
с задачами, возникающими в научных, технических и экономических приложениях.
2
Борель Феликс Эдуар Жюстен Эмиль (фр. Félix Edouard Justin Émile Borel, 1871-1956) −
французский математик. Основные работы в области геометрии, теории множеств, функционального
анализа и теории вероятностей (cм. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.
org/wiki/\T2A\CYRB\T2A\cyro\T2A\cyrr\T2A\cyre\T2A\cyrl\T2A\cyrsftsn,_\T2A\CYREREV\T2A\
cyrm\T2A\cyri\T2A\cyrl\T2A\cyrsftsn,
https://en.wikipedia.org/wiki/Pierre-Simon_Laplace
(дата обращения: 12.06.2016)).
Хинчин Александр Яковлевич (1894-1959) − советский математик. Основные работы в области
теории функций действительного переменного, теории вероятностей, статистической физики, теории
184
В заключение приведём два примера из разных областей, доказывающие
на практике истинность теоретических выводов закона больших чисел.
Первый пример1 связан с именами французского натуралиста XVIII века Ж. Бюффона и английского математика К. Пирсона. Первый из них
подбрасывал монету 4040 раз, при этом он наблюдал 2048 раз выпадение
«герба» и вычислил относительную частоту выпадений «герба» − 0,507.
Второй провёл опыт с подбрасыванием дважды: сначала он подбросил
монету 12000 раз и наблюдал выпадение «герба» 6019 раз, вычислив относительную частоту выпадений «герба» − 0,5016. Затем при подбрасывании
монеты 24000 раз он наблюдал выпадение «герба» 12012 раз, вычислив относительную частоту выпадений «герба» − 0,5005.
Таким образом, то, что мы знаем из теории о том, что вероятность выпадения «герба» при подбрасывании одной монеты равна 0,5, имеет доказанное подтверждение и не требует от нас проверки.
Второй пример известен из социологии2 . Во время одного из социологических опросов некоторый вопрос был задан группе людей из 500 человек.
При этом на него дали отрицательный ответ 54,9% опрошенных. Затем
опросили ещё 1000 человек, и отрицательный ответ социологи получили
от 53,9% опрошенных. Далее были опрошены ещё 5000 человек, которые
дали 55,4% отрицательных ответов. И, наконец, при опросе 30000 человек
отрицательный ответ дали 55,5% опрошенных. Таким образом, практика и
здесь подтверждает, что для того чтобы узнать, что примерно 54-56% всех
людей по данному вопросу настроены отрицательно, не нужно опрашивать
всех людей или 30000 человек, а достаточно опросить не более 500 человек.
Практическая и теоретическая ценность закона больших чисел заключается в том, что он является математическим фундаментом теории
математической статистики, без которого невозможно было бы серьёзно
относится к её выводам и уж тем более к практическим рекомендациям,
которые востребованы в различного рода приложениях в науке, технике и
экономике.
чисел (cм. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRH\
T2A\cyri\T2A\cyrn\T2A\cyrch\T2A\cyri\T2A\cyrn,_\T2A\CYRA\T2A\cyrl\T2A\cyre\T2A\cyrk\T2A\
cyrs\T2A\cyra\T2A\cyrn\T2A\cyrd\T2A\cyrr_\T2A\CYRYA\T2A\cyrk\T2A\cyro\T2A\cyrv\T2A\cyrl\
T2A\cyre\T2A\cyrv\T2A\cyri\T2A\cyrch (дата обращения: 12.06.2016)).
Гнеденко Борис Владимирович (1912-1995) − советский математик, специалист по теории вероятностей, математической статистике, вероятностным и статистическим методам (cм. Википедия
[Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRG\T2A\cyrn\T2A\cyre\T2A\
cyrd\T2A\cyre\T2A\cyrn\T2A\cyrk\T2A\cyro,_\T2A\CYRB\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\cyrs_
\T2A\CYRV\T2A\cyrl\T2A\cyra\T2A\cyrd\T2A\cyri\T2A\cyrm\T2A\cyri\T2A\cyrr\T2A\cyro\T2A\
cyrv\T2A\cyri\T2A\cyrch, (дата обращения: 12.06.2016)).
1
Помимо того, что этот пример подтверждает на практике выводы закона больших чисел, он
является подтверждением фантастической работоспособности Ж. Бюффона и К. Пирсона.
2
См. Миронов Б. Н., Степанов З. В. Историк и математика (Математические методы в историческом
исследовании). Л. : Наука, 1976. С. 10.
185
Двумерные случайные величины
8
Всякое случается на свете. И все,
что случается, случается. И все
случайности, которые, случившись,
случаются, становятся причиной
других случайностей.
Адамс Дуглас1
8.1
Понятие двумерной случайной величины
Функция распределения одной случайной величины не может описать
все многообразие природных и, в том числе, экономических процессов и
явлений. Для описания этих процессов используются многомерные случайные величины.
В качестве примеров случайных величин разной размерности рассмотрим следующие примеры:
1. Успеваемость студента, окончившего курс обучения в вузе, характеризуется системой n случайных величин X1 , X2 , . . . , Xn − оценок студента
во вкладыше к его диплому.
2. Станок-автомат штампует цилиндрические валики, диаметр валика X и
высота Y которых образуют систему двух случайных величин (X, Y ).
3. Состояние погоды в данной географической точке и в данный момент
времени описывается некоторым набором параметров: температура воздуха, атмосферное давление, направление и скорость ветра, наличие, вид и
интенсивность атмосферных осадков. Эти параметры можно изучать по
отдельности, но для синоптиков имеет огромное значение изучение параметров погоды в их совокупности и взаимодействии. Следовательно, объектом изучения является многомерная случайная величина.
В рамках данного курса мы ограничимся изучением двумерных дискретных случайных величин. Для изучения двумерных непрерывных случайных величин, а также случайных величин большей размерности следует
обратиться к литературе из библиографического списка.
Определение 8.1. Совокупность (X, Y ) двух случайных величин X
и Y называется двумерной случайной величиной или двумерным
случайным вектором.
1
Дуглас Н. А. Автостопом по Галактике. Кн. 5. В основном безвредна (см. [Электронный ресурс] : URL : http://royallib.com/read/adams_duglas/v_osnovnom_bezvredna.html#0(дата обращения: 12.06.2016)).
186
8.2
8.2.1
Дискретные двумерные случайные величины
Закон распределения дискретной двумерной случайной величины
Определение 8.2. Двумерная случайная величина (X, Y ) называется
дискретной двумерной случайной величиной, если случайные величины X и Y являются дискретными случайными величинами.
Предположим, что случайная величина X принимает значения x1 , x2 , x3 ,
а случайная величина Y − значения y1 , y2 . В этом случае двумерная случайная величина (X, Y ) принимает пары значений (xi , yj ), где i = 1, 2,
j = 1, 2, 3. Также, как и в одномерном случае, распределение двумерной
дискретной случайной величины естественно описывается с помощью таблицы:
X\Y
x1
x2
y1 y2 y3
p11 p12 p13
p21 p22 p23
Каждое из чисел pij определяет вероятность события, в котором случайные величины X и Y примут соответствующие значения:
pij = P (X = xi , Y = yj ).
Если мы сложим соответственно вероятности первой строки
p11 + p12 + p13 = p1x
и второй строки
p21 + p22 + p23 = p2x ,
то мы получим возможность составить закон распределения случайной величины X:
X x1 x2
pX p1x p2x
Аналогично мы можем составить закон распределения случайной величины X. Для этого нам нужно будет просуммировать соответствующие
столбцы таблицы двумерного распределения.
p11 + p21 = p1y , p12 + p22 = p2y , p13 + p23 = p3y .
В результате мы получим
Y
pY
y1 y2 y3
p1y p2y p3y
Естественно, каждая из таблиц описывает закон распределения соответствующей случайной величины при условии, что сумма вероятностей в
каждой из таблиц равна 1.
187
То есть
2 X
3
X
pij = (p11 +p12 +p13 )+(p21 +p22 +p23 ) = p1x +p2x =
i=1 j=1
3 X
2
X
2
X
pix = 1. (8.1)
i=1
pij = (p11 +p21 )+(p12 +p22 )+(p13 +p23 ) = p1y +p2y +p3y =
j=1 i=1
3
X
pjy = 1.
j=1
(8.2)
Достаточно часто все законы распределения как двумерной случайной
величины (X, Y ), так и её составляющих X и Y , объединяют в одной таблице, дополняя её нижней строкой Py и правым столбцом Px :
X\Y
x1
x2
Py
y1 y 2 y3 Px
p11 p12 p13 p1x
p21 p22 p23 p2x
p1y p2y p3y 1
Замечание 8.1. Заметим, что в общем случае закон распределения
двумерной случайной величины (X, Y ) изображается безразмерным, так
как каждая из её составляющих X и Y может принимать счётное число
значений:
X\Y
x1
x2
...
xi
...
Py
y1
p11
p21
...
pi1
...
p1y
y2
p12
p22
...
pi2
...
p2y
...
...
...
...
...
...
...
yj
p1j
p2j
...
pij
...
pjy
...
...
...
...
...
...
...
Px
p1x
p2x
...
pix
...
1
Единица в правой нижней клетке таблицы распределения подтверждает,
что
X
pij = 1.
i, j
Задача 8.1. Известен закон распределения двумерной случайной величины (X, Y )
X\Y
1
2
1
2
3
0, 2 0, 1 0, 1
0, 1 0, 3 0, 2
Требуется:
1. Построить законы распределения случайных величин X и Y .
188
2. Определить вероятность события X < Y .
3. Построить закон распределения случайной величины Z = X + Y .
Решение
1.1. Случайная величина X принимает два значения X = 1 и X = 2.
Первое значение она принимает в трёх случаях:
при Y = 1 с вероятностью 0, 2; при Y = 2 с вероятностью 0, 1 и при Y = 3
с вероятностью 0, 1.
Так как эти случаи несовместны, то
P (X = 1) = P (X = 1, Y = 1) + P (X = 1, Y = 2) + P (X = 1, Y = 3).
Следовательно, P (X = 1) = 0, 2 + 0, 1 + 0, 1 ⇒ P (X = 1) = 0, 4.
Аналогично
P (X = 2) = P (X = 2, Y = 1) + P (X = 2, Y = 2) + P (X = 2, Y = 3).
Поэтому P (X = 2) = 0, 1 + 0, 3 + 0, 2 ⇒ P (X = 2) = 0, 6.
Так как P (X = 1) + P (X = 2) = 1, то закон распределения случайной
величины X выглядит так:
X 1
2
p 0, 4 0, 6
1.2. Случайная величина Y принимает три значения Y = 1, Y = 2 и Y = 3.
Первое значение она принимает в двух случаях: при X = 1 с вероятностью
0, 2 и при X = 2 с вероятностью 0, 1.
Так как эти случаи несовместны, то
P (Y = 1) = P (X = 1, Y = 1) + P (X = 2, Y = 1).
Следовательно, P (Y = 1) = 0, 2 + 0, 1 ⇒ P (Y = 1) = 0, 3.
Аналогично
P (Y = 2) = P (X = 1, Y = 2) + P (X = 2, Y = 2).
P (Y = 3) = P (X = 1, Y = 3) + P (X = 2, Y = 3).
Выполнив вычисления, имеем:
P (Y = 2) = 0, 1 + 0, 3 ⇒ P (Y = 2) = 0, 4.
P (Y = 3) = 0, 1 + 0, 2 ⇒ P (Y = 3) = 0, 3.
Так как P (Y = 1) + P (Y = 2) + P (Y = 3) = 1, то закон распределения
случайной величины Y выглядит так:
Y
1
2
3
p 0, 3 0, 4 0, 3
2. Событие X < Y наступает в случае трёх несовместных исходов:
(X = 1, Y = 2) или (X = 1, Y = 3) или (X = 2, Y = 3).
Поэтому вероятность
P (X < Y ) = 0, 1 + 0, 1 + 0, 2 ⇒ P (X < Y ) = 0, 4.
3. Случайная величина Z = X + Y принимает значения 2, 3, 4 и 5.
189
При этом Z = 2, если X = 1 и Y = 1, с вероятностью P (X = 1, Y = 1) =
0, 2.
Z = 3 в двух несовместных случаях: (X = 1, Y = 2) и (X = 2, Y = 1).
Поэтому P (Z = 3) = 0, 1 + 0, 1 ⇒ P (Z = 3) = 0, 2.
Z = 4 также в двух несовместных случаях:
(X = 1, Y = 3) и (X = 2, Y = 2).
В силу этого, P (Z = 4) = 0, 1 + 0, 3 ⇒ P (Z = 4) = 0, 4.
И, наконец, Z = 5, если X = 2 и Y = 3, с вероятностью
P (X = 2, Y = 3) = 0, 2.
Так как сумма вычисленных вероятностей
P (Z = 2) + P (Z = 3) + P (Z = 4) + P (Z = 5) = 1,
то закон распределения случайной величины Z выглядит так:
Z 2
3
4
5
p 0, 2 0, 2 0, 4 0, 2
Задача 8.2. Из статистики рождаемости в США1 известно, что в 1901
году вероятность обнаружить пару однополых близнецов среди всех пар
родившихся близнецов составляла 69%. Вычислить вероятности всех вариантов рождения пар близнецов, если вероятность рождения мальчика
равна 0,52.
Решение
Пусть X − случайная величина, определяющая число мальчиков, родившихся первыми в паре, а Y − случайная величина, определяющая число
мальчиков, родившихся вторыми в паре. Каждая из случайных величин
принимает значение 0, если родилась девочка, и значение 1, если родился
мальчик.
Обозначим через
pij = P (X = i, Y = j), (i, j = 0, 1).
Построим предполагаемый закон распределения
X\Y
0
1
0
1
p00 p01
p10 p11
Так как рождение двух девочек в паре и рождение двух мальчиков
являются несовместными событиями, то согласно условию
p00 + p11 = 0, 69.
Это же касается и разнополых близнецов. Поэтому согласно условию
p00 + p10 = 0, 52.
1
См. Маккьюсик В. Генетика человека. Пер. с англ. М. : Мир, 1967. С. 119-120.
190
p00 + p01 = 0, 52.
C учётом того, что сумма всех вероятностей в таблице равна 1, имеем
следующую систему уравнений

p00 + p11 = 0, 69,



p00 + p10 = 0, 52,
p + p01 = 0, 52,


 00
p00 + p01 + p10 + p11 = 1.
Вычтем из четвёртого равенства первое и сложим равенство-разность со
вторым и третьим равенством. Из полученного равенства-суммы
2p00 + 2 · 0, 31 = 1, 35
находим p00 = 0, 36. Подставляя значение p00 в каждое из первых трёх
уравнений, имеем p11 = 0, 33; p01 = p10 = 0, 155.
Таким образом, получаем, что
вероятность рождения двух девочек-близнецов составляла 36%;
вероятность рождения двух мальчиков-близнецов − 33%;
вероятность рождения пары девочка-мальчик- − 15, 5%;
вероятность рождения пары мальчик-девочка − 15, 5%.
8.2.2
Функция распределения дискретной двумерной случайной величины
Точно также, как и в случае одномерных случайных величин, геометрическим изображением двумерных случайных величин является функция
распределения.
Определение 8.3. Функцией распределения двумерной случайной величины (X, Y ) называется функция от двух переменных, значения которой в каждой точке (x, y) равны вероятности совместного
выполнения двух неравенств X < x и Y < y.
То есть
∀(x, y) ∈ R2 F (x, y) = P (X < x, Y < y).
(8.3)
Задача 8.3. Закон распределения двумерной случайной величины
(X, Y ) задан следующей таблицей:
X\Y
0
1
−1
0
1
0, 2 0, 25 0, 05
0, 1 0, 3 0, 1
Определите функцию распределения FX, Y (x, y).
Решение. Для определения функции распределения FX, Y (x, y) разобъём оси Ox и Oy на интервалы, границы которых определяют возможные
значения случайных величин X и Y .
191
Такими интервалами для оси Ox будут
(−∞, 0], (0, 1], (1, ∞).
А для оси OY −
(−∞, −1], (−1, 0], (0, 1], (1, ∞).
Из закона распределения видно, что случайная точка (X, Y ) может попасть в область, где x ≤ 0 или y ≤ −1, с вероятностью 0.
Вероятность попадания (X, Y ) в прямоугольник, в котором
(0 < x ≤ 1, −1 < y ≤ 0)
складывается из суммы вероятностей попадания случайной точки в области, в которых (x ≤ 0, y ≤ −1) и вероятности события, в котором X = 0 и
Y = −1.
Вероятность попадания (X, Y ) в прямоугольник, в котором
(0 < x ≤ 1, 0 < y ≤ 1)
складывается из суммы вероятностей попадания случайной точки в области, в которых (x ≤ 0, y ≤ −1), (x ≤ 0, −1 < y ≤ 0) и вероятности
события, в котором X = 0 и Y = 0.
Вероятность попадания (X, Y ) в полуполосы (0 < x ≤ 1, y > 1) и
(x > 1, −1 < y ≤ 0) определяется соответственно суммами вероятностей
попадания в области, расположенные левее и ниже, и складывается из чисел
0, 2 + 0, 25 + 0, 05 = 0, 5 и 0, 2 + 0, 1 = 0, 3.
Вероятность попадания (X, Y ) в полуполосу (x > 1, 0 < y ≤ 1) определяется суммой четырёх слагаемых, расположенных в левом верхнем квадранте таблицы закона распределения
0, 2 + 0, 25 + 0, 1 + 0, 3 = 0, 85.
И, наконец, вероятность попадания (X, Y ) в область (x > 1, y > 1)
равна 1.
Таким образом, таблица для функции распределения FX, Y (x, y) имеет
следующий вид:
FX, Y (x, y) y ≤ −1 −1 < y ≤ 0 0 < y ≤ 1 y > 1
x≤0
0
0
0
0
0<x≤1
0
0, 2
0, 45
0, 5
x>1
0
0, 3
0, 85
1
С точки зрения геометрии функция распределения FX, Y (x, y) определяет вероятность попадания случайной точки (X, Y ) в бесконечный квадрант, правой верхней вершиной которого является точка (x, y) (рис. 8.1).
192
y
M (x, y)
y
x
x
Рис. 8.1
Задача 8.4. Пусть x1 , x2 и y1 − заданные числа. Зная функцию
FX, Y (x, y), вычислить вероятность попадания случайной точки (X, Y ) в
множество {(x, y) : x1 ≤ x < x2 ; y < y1 } и построить геометрическое
изображение.
Решение. Так как искомая вероятность
P (x1 ≤ X < x2 , Y < y1 ) = P (X < x2 , Y < y1 ) − P (X < x1 , Y < y1 ),
то согласно формуле (8.3)
P (x1 ≤ X < x2 , Y < y1 ) = FX, Y (x2 , y1 ) − FX, Y (x1 , y1 ).
Построим геометрическое изображение. Изображением вероятности
P (X < x2 , Y < y1 ) в точке (x2 , y1 ) является серый квадрант (рис.8.2).
y
M (x2 , y1 )
y1
x
x2
Рис. 8.2
А изображением вычитаемой вероятности является чёрный квадрант (рис.
8.3).
y
y1
N (x1 , y1 )
x
x1
Рис. 8.3
Накладывая второй квадрант на первый, в качестве геометрического решения задачи, получаем вертикальную серую полосу (рис. 8.4).
y
y1
N (x1 , y1 ) M (x2 , y1 )
x2
Рис. 8.4
x
Таким образом, вероятность попадания случайной точки (X, Y ) в вертикальную полуполосу {(x, y) : x1 ≤ x < x2 ; y < y1 } равна вычисленной
193
выше разности значений функции распределения.
Задача 8.5. Пусть x1 , y1 и y2 − заданные числа. Зная функцию
FX, Y (x, y), вычислить вероятность попадания случайной точки (X, Y ) в
множество {(x, y) : x < x1 ; y1 ≤ y < y2 } и построить геометрическое изображение.
Решение. Очевидно, что данная задача решается по образцу предыдущей задачи.
P (X < x1 , y1 ≤ Y < y2 ) = FX, Y (x1 y2 ) − FX, Y (x1 , y1 ).
А геометрическим образом решения является горизонтальная серая полуполоса (рис. 8.5).
y
M (x , y )
y2
1
2
N (x1 , y1 )
x1
Рис. 8.5
x
Задача 8.6. Пусть x1 , x2 , y1 и y2 − заданные числа. Зная функцию
FX, Y (x, y), вычислить вероятность попадания случайной точки (X, Y ) в
множество {(x, y) : x1 ≤ x < x2 ; y1 ≤ y < y2 } и построить геометрическое
изображение.
Решение. По аналогии с решением задач 8.4 и 8.5 имеем
P (x1 ≤ X < x2 , y1 ≤ Y < y2 ) =
= (FX, Y (x2 , y2 ) − FX, Y (x1 , y2 )) + (FX, Y (x2 , y1 ) − FX, Y (x1 , y1 )).
Достаточно очевидно, что представленная сумма разностей значений
функции распределения определяет чёрный прямоугольник, образованный
пересечением серых вертикальной и горизонтальной полуполос (рис. 8.6).
y
y2
x2
Рис. 8.6
x
Задача 8.7. Подбрасываются две монеты. Пусть случайная величина
X определяет число выпадений «герба» при подбрасывании первой монеты, а случайная величина Y − число выпадений «герба» при подбрасывании второй монеты.
Требуется:
1. Построить закон двумерного распределения X, Y .
2. Определить функцию распределения FX, Y (x, y).
3. Построить её схематическое изображение в трёхмерной системе коорди194
нат.
Решение. Каждая из случайных величин принимает значение 0 при
выпадении «решётки» и 1 при выпадении «герба».
Пространство Ω элементарных событий данного опыта состоит из четырёх исходов
Ω = {( РР), ( РГ), ( ГР), ( ГГ)}.
Следовательно, двумерная случайная величина X, Y принимает четыре
значения
{(0, 0), (0, 1), (1, 0), (1, 1)}.
Так как подбрасывание одной монеты не зависит от подбрасывания другой монеты, то согласно теореме о произведении независимых событий
1 1 1
P (X = i, Y = j) = P (X = i) · P (Y = j) = · = .
2 2 4
Поэтому закон распределения случайной величины X, Y имеет следующий вид:
X\Y
0
1
0
1
4
1
4
1
1
4
1
4
Для построения функции распределения FX, Y (x, y) разобъём оси Ox и
Oy на интервалы, границы которых определяют возможные значения случайных величин X и Y .
Такими интервалами для каждой из осей будут
(−∞, 0]), (0, 1], (1, ∞).
Из закона распределения видно, что случайная точка (X, Y ) может попасть в область где x ≤ 0 или y ≤ 0 с вероятностью 0.
Вероятность попадания (X, Y ) в прямоугольник, в котором
(0 < x ≤ 1, 0 < y ≤ 1)
складывается из суммы вероятностей попадания случайной точки в области, в которых (x ≤ 1, y ≤ 1), и вероятности события, в котором X = 0 и
Y = 0.
Вероятность попадания (X, Y ) в полуполосы (0 < x ≤ 1, y > 1) и
(x > 1, 0 < y ≤ 1) определяется суммами вероятностей попадания в области, расположенные левее и ниже, и складывается из чисел
1 1 1
0+ + = .
4 4 2
И, наконец, вероятность попадания (X, Y ) в область (x > 1, y > 1)
равна 1.
195
Следовательно, таблица для функции распределения FX, Y (x, y) выглядит следующим образом:
FX, Y (x, y) y ≤ 0 0 < y ≤ 1 y > 1
x≤0
0
0
0
1
1
0<x≤1
0
4
2
1
x>1
0
1
2
Перенося значения таблицы в трёхмерную систему координат, получаем
схематическое изображение функции FX, Y (x, y) распределения двумерной
случайной величины (рис. 8.7).
F (x, y)
y
1
1
2
1
4
1
x
1
Рис. 8.7
В качестве обобщения рассмотрим свойства функции распределения
дискретной двумерной случайной величины.
Свойство 8.1. ∀ x, y ) ≤ FX, Y (x, y) ≤ 1.
Истинность этого свойства вытекает из определения 8.3 функции распределения.
Свойство 8.2. Функция FX, Y (x, y) является монотонно неубывающей
функцией по каждому аргументу.
То есть
∀ y, x1 , x2 : x1 < x2 ⇒ FX, Y (x1 , y) ≤ FX, Y (x2 , y).
(8.4)
∀ x, y1 , y2 : y1 < y2 ⇒ FX, Y (x, y1 ) ≤ FX, Y (x, y2 ).
(8.5)
Докажем утверждение (8.4). Предположим, что x1 < x2 . Согласно данному предположению и равенству (8.3) имеем
FX, Y (x1 , y) = P (X < x1 , y) ≤ P (X < x1 , y) + P (x1 ≤ X < x2 , y) =
= P (X < x2 , y) = FX, Y (x2 , y).
Утверждение (8.5) доказывается аналогично.
Свойство 8.3. ∀ x, y FX, Y (−∞, y) = 0; FX, Y (x, −∞) = 0.
196
Так как каждое из событий X < x < −∞ и Y < y < −∞ невозможно,
то
FX, Y (−∞, y) = P (X < x, Y < y) = 0;
FX, Y (x, −∞) = P (X < x, Y < y) = 0.
Свойство 8.4. Пусть F1 (x) = P (X < x), а F2 (y) = P (Y < y).
Тогда справедливы следующие равенства
∀ x lim FX, Y (x, y) = F1 (x);
y→+∞
∀ y lim FX, Y (x, y) = F2 (y).
x→+∞
Рассмотрим первое из равенств. Так как событие Y < +∞ является
достоверным событием, то
∀ x lim FX, Y (x, y) = P (X < x) = F1 (x).
y→+∞
Аналогично доказывается второе равенство.
Из этих равенств вытекает очевидное
Следствие 8.1. FX, Y (+∞, +∞) = 1.
Задача 8.8. Задана функция распределения FX, Y (x, y) двумерной случайной величины (X, Y ).
FX, Y (x, y) y ≤ 0 0 < y ≤ 1 1 < y ≤ 2 y > 2
x≤1
0
0
0
0
1<x≤2
0
0, 1
0, 15
0, 25
2<x≤3
0
0, 15
0, 3
0, 55
3<x≤4
0
0, 2
0, 4
0, 7
x>4
0
0, 2
0, 6
1
1. Определите функции распределения FX (x) и FY (y) одномерных составляющих заданной двумерной случайной величины.
2. Постройте законы распределения X и Y .
Решение 1. Согласно свойству 8.4
∀ x lim FX, Y (x, y) = FX (x);
y→+∞
∀ y lim FX, Y (x, y) = FY (y).
x→+∞
Поэтому последний столбец заданной таблицы и последняя её строка определяют соответственно функции распределения FX (x) и FY (y) одномерных
составляющихзаданной двумерной случайной величины.

0, если x ≤ 1,


0, если y ≤ 0,




 0, 25 если 1 < x ≤ 2,

0, 2 если 0 < y ≤ 1,
FX (x) =
0, 55 если 2 < x ≤ 3, FY (y) =
0, 6 если 1 < y ≤ 2,





0, 7 если 3 < x ≤ 4,



1 если y > 2.
1 если x > 4,
2. Из построенных функций распределения FX (x) и FY (y) видно, что пер197
вая из функций имеет неустранимые разрывы первого рода в точках x = 1;
x = 2; x = 3 и x = 4, а вторая − в точках y = 0; y = 1; y = 2.
Поэтому соответствующие законы распределения X и Y будут иметь
следующий вид:
X
1
2
3
4
px 0, 25 0, 3 0, 15 0, 3
8.3
Y
0
1
2
py 0, 2 0, 4 0, 4
Понятие независимости случайных величин
Из определения 8.2 cледует, что, зная закон распределения двумерной
случайной величины (X, Y ), можно найти законы распределения её компонент X и Y .
А можно ли сделать наоборот: зная законы распределения случайных
величин X и Y , найти закон распределения системы случайных величин
(X, Y )?
Рассмотрим следующий пример.
Дискретные случайные величины X и Y заданы следующим образом:
X −1 1
p 0, 6 0, 4
Y −1 1
p 0, 6 0, 4
Составим два закона распределения двумерных случайных величин
(X1 , Y1 ) и (X2 , Y2 ):
X1 \Y1 −1 1 Px
−1
0, 6 0 0, 6
1
0 0, 4 0, 4
Py
0, 6 0, 4 1
X2 \Y2
−1
1
Py
−1 1 Px
0, 3 0, 3 0, 6
0, 3 0, 1 0, 4
0, 6 0, 4 1
Распределения соответствующих случайных координат в данных двумерных распределениях совпадают. Но сами двумерные величины (X1 , Y1 )
и (X2 , Y2 ) отличны друга от друга, так как вероятности pij для одного закона распределения отличаются от соответствующих pij для другого закона
распределения.
Следовательно, ответ на поставленный вопрос отрицательный: Знание
законов распределения случайных величин X и Y , являющихся координатами двумерной системы случайных величин (X, Y ) в общем случае не
позволяет определить закон распределения двумерной величины.
Тем не менее существует частный случай, позволяющий при знании
законов распределения случайных компонент определить закон распреде-
198
ления всей системы. Случай этот связан с понятием независимости случайных величин.
Определение 8.4. Две случайные величины X и Y называются независимыми, если независимы все связанные с ними события, такие как:
X < x; Y < y; X = xi ; Y = yj (и подобные им).
Отношение независимости случайных величин является отношением
симметричности, поэтому если случайная величина X не зависит от случайной величины Y , то и случайная величина Y не зависит от X.
Так как каждая дискретная случайная величина определяется своим законом распределения, то сформулируем эквивалентное определение независимости случайных величин.
Определение 8.5. Две случайные величины X и Y называются независимыми, если закон распределения каждой из них не зависит от того, какие возможные значения принимает другая величина.
Сформулируем теорему.
Теорема 8.1. Критерий независимости случайных величин
Случайные величины X и Y являются независимыми тогда и только тогда, когда функция распределения двумерной случайной величины
(X, Y ) равна произведению функций распределения её составляющих:
FX, Y (x, y) = FX (x) · FY (y).
(8.6)
Д о к а з а т е л ь с т в о. Предположим, что случайные величины
X и Y являются независимыми. Тогда связанные с ними события X < x
и Y < y также являются независимыми. Поэтому, опираясь на теорему о
произведении вероятностей независимых событий, имеем:
FX, Y (x, y) = P (X < x, Y < y) = P (X < x) · P (Y < y) = FX (x) · FY (y).
Развернув полученное равенство в противоположную сторону, получим
доказательство достаточного условия теоремы:
FX, Y (x, y) = FX (x) · FY (y) = P (X < x) · P (Y < y) = P (X < x, Y < y).
То есть вероятность одновременного наступления событий X < x и Y <
y равна произведению вероятностей этих событий.
Для дискретных случайных величин из теоремы 8.1 вытекает следующее
практическое
Следствие 8.2. В случае независимости случайных компонент X и
Y двумерной дискретной случайной величины (X, Y ) каждый элемент
pij матрицы её распределения равен произведению вероятностей pix и pjy
соответствующих событий X = xi и Y = yj .
То есть
pij = P (X = xi , Y = yj ) = P (X = xi ) · P (Y = yj ) = pix pjy .
Задача 8.9. Двумерная случайная величина (X, Y ) задана своим за199
коном распределения
X\Y
1
2
−1
0
1
0, 18 0, 12 0, 3
0, 12 0, 08 0, 2
Определите, зависимы или независимы случайные величины X и Y .
Решение. Дополним заданную таблицу распределениями случайных
величин X и Y .
Для этого, сложив вероятности в каждой из двух строк
0, 18 + 0, 12 + 0, 3 = 0, 6;
0, 12 + 0, 08 + 0, 2 = 0, 4,
построим правый дополнительный столбец вероятностей, соответствующих
значениям случайной величины X:
X\Y
1
2
−1
0
1 Px
0, 18 0, 12 0, 3 0, 6
0, 12 0, 08 0, 2 0, 4
Аналогично, сложив соответствующие вероятности в каждом из трёх столбцов заданной таблицы
0, 18 + 0, 12 = 0, 3;
0, 12 + 0, 08 = 0, 2;
0, 3 + 0, 2 = 0, 5,
построим нижнюю дополнительную строку вероятностей, соответствующих значениям случайной величины Y :
X\Y
1
2
Py
−1
0
1 Px
0, 18 0, 12 0, 3 0, 6
0, 12 0, 08 0, 2 0, 4
0, 3 0, 2 0, 5 1
Далее, опираясь на следствие 8.2, умножая поочередно вероятности pix
на вероятности pjy , проверим совпадают ли все полученные произведения
с соответствующими вероятностями pij заданной таблицы распределения.
0, 6 · 0, 3 = 0, 18; 0, 6 · 0, 2 = 0, 12; 0, 6 · 0, 5 = 0, 3;
0, 4 · 0, 3 = 0, 12; 0, 4 · 0, 2 = 0, 08; 0, 4 · 0, 5 = 0, 2.
Так как все найденные произведения совпадают с соответствующими элементами заданной таблицы, то можно утверждать, что
Случайные величины X и Y являются независимыми .
Рассматривая ранее свойства математического ожидания дискретных
200
случайных величин, мы пропустили одно важное свойство, которое сформулируем в виде теоремы1 .
Теорема 8.2. Математическое ожидание произведения двух независимых дискретных случайных величин равно произведению математических ожиданий этих величин.
То есть, если X и Y − независимые дискретные случайные величины, то
M (X · Y ) = M (X) · M (Y ).
(8.7)
Д о к а з а т е л ь с т в о. Предположим, что случайная величина X
принимает значения xi с вероятностью pi каждое, а случайная величина Y
принимает значения yj с вероятностью2 pj .
Так как X и Y − независимые случайные величины, то
P (X = xi , Y = yj ) = P (X = xi ) · P (X = yj ).
Учитывая это, имеем
n X
m
X
M (X · Y ) =
xi yj P (X = xi , Y = yj ) =
=
n
X
i=1
!i=1
xi P (X = xi )
·
j=1
m
X
!
yj P (Y = yj )
= M (X) · M (Y ).
j=1
В качестве иллюстрации теоремы 8.2 рассмотрим два примера.
Пример 1. Монета подбрасывается дважды. Случайная величина X −
число выпадений «герба» при первом подбрасывании монеты, а случайная
величина Y − число выпадений «герба» при втором подбрасывании. Каждая из случайных величин принимает два значения: 0 и 1 с одной и той же
1
вероятностью p = . Поэтому
2
1
M (X) = M (Y ) = .
2
Очевидно, что X и Y не зависят друг от друга. Поэтому согласно теореме 8.2
1
1 1
M (XY ) = M (X)M (Y ) ⇒ M (XY ) = · ⇒ M (XY ) = .
2 2
4
Замечание 8.2. Математическое ожидание произведения XY можно
установить непосредственно, вычислив его по определению.
Так как случайная величина XY принимает значение 1, если «герб»
выпал при каждом подбрасывании, и значение 0 − в остальных случаях,
то её закон распределения имеет следующий вид:
1
Рассматриваемое свойство имеет место и для непрерывных случайных величин, но его доказательство следует искать в произведениях библиографического списка литературы.
2
Здесь i = 1, . . . , n; j = 1, . . . , m (мы не рассматриваем случай счетного набора значений случайных
величин, так как в этом случае пришлось бы обращаться к свойствам сходимости числовых рядов, что
удлиняет доказательство, но не влияет на результат.).
201
XY
p
0 1
3 1
4 4
Поэтому
3
1
1
M (XY ) = 0 · + 1 · ⇒ M (XY ) = .
4
4
4
Пример 2. Монета подбрасывается один раз. Случайная величина X
− число выпадений «герба» при подбрасывании монеты − принимает значения 1, если выпал «герб», и 0, если выпала «решётка», с одной и той же
1
вероятностью p = .
2
Случайную величину Y определим так: Y = 1−X. При таком определе1
нии Y также принимает значения 0 и 1 с постоянной вероятностью p = .
2
Поэтому, как и в первом примере
1
M (X) = M (Y ) = .
2
Случайная величина XY по определению может принимать только одно
значение 0, а значит,
1 1
M (XY ) = 0 6= M (X) · M (Y ) = · .
2 2
Таким образом, можно сделать формальный вывод о том, что X и Y −
зависимые случайные величины.
8.4
Условное распределение вероятностей
Одной из задач применения теории вероятностей к задачам практики
является изучение прогноза возможного значения случайной величины Y
по выводам наблюдений над другой случайной величиной X. Прогноз в
этих случаях определяется не по результатам данного момента исследования, а по глобальным данным, которые представляет информационный
центр1 . Примерами таких прогнозов могут быть метеопрогнозы, прогнозы
стоимости ценных бумаг, влияние результатов погрешности измерений на
результаты расчётов и так далее.
Во всех подобных случаях прогноз имеет вероятностный характер, поскольку связан с вопросами вида: при наблюдении значения x случайной
величины X какова вероятность того, что случайная величина Y будет
лежать в определённых границах, или чему равно среднее значение Y (и
тому подобными вопросами).
Решение этой задачи связано с условным законом распределения одной
1
В частности, такими центрами могут быть метеоцентры, финансовые биржи, центры технической
и научной информации.
202
из случайных величин.
Определение 8.6. Условным законом распределения одной из
случайных величин системы (X, Y ) называется её закон распределения,
вычисленный при условии, что другая случайная величина приняла определённое значение (или попала в некоторый интервал).
В случае системы двух дискретных случайных величин можно вычислить условные законы распределения c помощью условных вероятностей,
определяющих вероятность того, что случайная величина X примет значение xi при условии, что случайная величина Y примет значение yj (или,
наоборот, случайная величина Y примет значение yj при условии, что случайная величина X примет значение xi ).
Ранее, при изучении алгебры событий мы определили условную вероятность события B при условии, что событие A произошло:
PB (A) =
P (AB)
.
P (A)
(8.8)
Предположим, что двумерная случайная величина (X, Y ) имеет следующий закон распределения:
X\Y
x1
x2
y1 y2 y3
p11 p12 p13
p21 p22 p23
С помощью формулы (8.8) определим условную вероятность того, что
случайная величина Y примет значение yj при условии, что X = xi :
Pyj |xi =
p(X = xi , Y = yj )
p(X = xi )
(8.9)
и условную вероятность того, что случайная величина X примет значение
xi при условии, что Y = yj :
Pxi |yj =
p(X = xi , Y = yj )
p(Y = yj )
.
(8.10)
(В каждой из формул1 (8.9) и (8.10) i = 1, 2; j = 1, 2, 3)
Условные вероятности (8.9) образуют условные законы распределения
случайной величины Y при условии X = xi . То, что это действительно
закон распределения, подтверждает сумма вероятностей, соответствующих
1
Разумеется, аналогично замечанию 8.1 можно рассматривать общий случай, когда
i = 1, 2, . . . , n, . . . , а j = 1, 2, . . . , m, . . . .
203
значениям Y при условии X = xi . С учётом равенства (8.1) имеем1
3
3
X
X
p(X = xi , Y = yj )
Pyj |xi =
=
p(X
=
x
)
i
j=1
j=1
3
1 X
1
=
p(X = xi , Y = yj ) =
· pix = 1.
pix j=1
pix
Аналогично
2
X
Pxi |yj = 1.
i=1
Задача 8.10. Закон распределения двумерной случайной величины
(X, Y ) задан следующей таблицей:
X\Y
0
1
2
−1
0
0, 3 0, 1
0, 15 0, 3
0, 1 0, 05
1.
2.
3.
4.
Определите PY =0|X=1 .
Определите PX=1|Y =−1 .
Определите PY =−1|X≤1 .
Постройте условный закон распределения случайной величины Y
при условии X = 1.
5. Постройте условный закон распределения случайной величины X
при условии Y = 0.
Решение
p(X = 1, Y = 0)
1. Согласно формуле (8.9) PY =0|X=1 =
.
p(X = 1)
Вычислим знаменатель
p(X = 1) = p(X = 1, Y = −1) + p(X = 1, Y = 0) ⇒
⇒ p(X = 1) = 0, 15 + 0, 3 ⇒ p(X = 1) = 0, 45.
Так как
p(X = 1, Y = 0) = 0, 3,
то искомая условная вероятность
0, 3
2
PY =0|X=1 =
⇒ PY =0|X=1 = .
0, 45
3
p(X = 1, Y = −1)
2. Аналогично, но согласно формуле (8.10) PX=1|Y =0 =
.
p(Y = −1)
Знаменатель дроби
p(Y = −1) = p(X = 0, Y = −1)+p(X = 1, Y = −1)+p(X = 2, Y = −1) ⇒
1
Учитывая замечание 8.1 (то есть случай бесконечного числа значений, принимаемых случайными величинами), суммы конечного числа слагаемых вероятностей превратятся в бесконечные ряды,
каждый из которых будет сходиться к единице.
204
⇒ p(Y = −1) = 0, 3 + 0, 15 + 0, 1 ⇒ p(Y = −1) = 0, 55.
Учитывая, что
p(X = 1, Y = −1) = 0, 15,
получаем искомую условную вероятность
0, 15
3
PX=1|Y =−1 =
⇒ PX=1|Y =−1 = .
0, 55
11
3. Согласно формуле (8.9) условная вероятность
p(X ≤ 1|Y = −1)
PY =−1|X≤1 =
.
p(X ≤ 1)
Вычислим знаменатель дроби. Так как X ≤ 1 в двух несовместных случаях: X = 0 и X = 1, то
p(X ≤ 1) = p(X = 0) + p(X = 1).
Определим первое слагаемое
p(X = 0) = p(X = 0, Y = −1) + p(X = 0, Y = 0) ⇒
⇒ p(X = 0) = 0, 3 + 0, 1 ⇒ p(X = 0) = 0, 4.
Из первого пункта решения известно, что p(X = 1) = 0, 45.
Следовательно,
p(X ≤ 1) = 0, 4 + 0, 45 ⇒ p(X ≤ 1) = 0, 85.
Далее вычислим
p(X ≤ 1|Y = −1) = p(X = 0|Y = −1) + P (X = 1|Y = −1).
Из условия задачи
p(X ≤ 1|Y = −1) = 0, 3 + 0, 15 ⇒ p(X ≤ 1|Y = −1) = 0, 45.
Выполнив деление, получаем искомую условную вероятность
9
0, 45
⇒ PY =−1|X≤1 = .
PY =−1|X≤1 =
0, 85
17
2
4. Из первого пункта решения PY =0|X=1 = .
3
Чтобы построить условный закон распределения случайной величины Y
при условии X = 1, нужно вычислить условную вероятность PY =−1|X=1 .
Из условия задачи PX=1|Y =−1 = 0, 15.
Поэтому, подставив в формулу (8.9) это число и знаменатель из первого
пункта решения, получаем
0, 15
1
PY =−1|X=1 =
⇒ PY =−1|X=1 = .
0, 45
3
2 1
Так как + = 1, то искомый условный закон распределения имеет
3 3
следующий вид:
Y |X = 1 −1 0
1 2
P
3 3
205
5. Чтобы построить условный закон распределения случайной величины X
при условии Y = 0, воспользуемся формулой (8.10).
Сначала вычислим вероятность
p(Y = 0) = p(X = 0, Y = 0) + p(X = 1, Y = 0) + p(X = 2, Y = 0).
Подставляя значения из заданной таблицы, имеем
p(Y = 0) = 0, 1 + 0, 3 + 0, 05 ⇒ p(Y = 0) = 0, 45.
Далее вычислим соответствующие условные вероятности:
0, 1
2
PX=0|Y =0 =
⇒ PX=0|Y =0 = .
0, 45
9
0, 3
2
PX=1|Y =0 =
⇒ PX=1|Y =0 = .
0, 45
3
0, 05
1
⇒ PX=2|Y =0 = .
PX=2|Y =0 =
0, 45
9
2 2 1
Так как + + = 1, то искомый условный закон распределения имеет
9 3 9
следующий вид:
X|Y = 0 0 1 2
2 2 1
P
9 3 9
8.5
Условное математическое ожидание
Как в случае распределения вероятностей случайной величины, так и
в случае условного распределения вероятностей важной характеристикой
соответствующего закона распределения является математическое ожидание, которое в данном случае является условным математическим ожиданием. Сформулируем два аналогичных определения.
Определение 8.7. Условным математическим ожиданием дискретной случайной величины Y при X = x называется скалярное произведение значений случайной величины Y на их условные вероятности1 :
m
X
M (Y |X = x) =
yj Pyj |x .
(8.11)
j=1
Определение 8.8. Условным математическим ожиданием дискретной случайной величины X при Y = y называется скалярное произведение значений случайной величины X на их условные вероятности2 :
n
X
M (X|Y = y) =
yj Pxi |y .
(8.12)
i=1
1
2
Здесь x − определённое возможное значение X.
Здесь y − определённое возможное значение Y .
206
В качестве примеров вычислим условные математические ожидания
для соответствующих условных законов распределения, построенных при
решении задачи 8.10.
Задача 8.11. Дан условный закон распределения случайной величины
Y при X = 1
Y |X = 1 −1 0
1 2
P
3 3
. Вычислить условное математическое ожидание случайной величины Y
при X = 1.
Решение. Согласно формуле (8.11) вычислим условное математическое
ожидание
1
2
1
M (Y |X = 1) = −1 · + 0 · ⇒ M (Y |X = 1) = − .
3
3
3
1
M (Y |X = 1) = − .
3
Задача 8.12. Дан условный закон распределения случайной величины
X при Y = 0
X|Y = 0 0 1 2
2 2 1
P
9 3 9
вычислить условное математическое ожидание случайной величины X при
Y = 0.
Решение. Согласно формуле (8.12) вычислим условное математическое
ожидание
2
2
1
8
M (X|Y = 0) = 0 · + 1 · + 2 · ⇒ M (X|Y = 0) = .
9
3
9
9
8
M (X|Y = 0) = .
9
8.6
Функции, уравнения и линии регрессии
Одной из характеристик изучения системы случайных величин (X, Y )
являются функции регрессии.
Определение 8.9. Отображение ϕ, при котором каждому значению
x случайной величины X ставится в соответствие условное математическое ожидание M (Y |X = x), называется функцией регрессии Y на
X и обозначается
M (Y |X = x) = ϕ(x).
(8.13)
207
Определение 8.10. Отображение ψ, при котором каждому значению y случайной величины Y ставится в соответствие условное математическое ожидание M (X|Y = y), называется функцией регрессии
X на Y и обозначается
M (X|Y = y) = ψ(y).
(8.14)
Определение 8.11. Уравнение y = ϕ(x) называется уравнением
регрессии Y на X, а уравнение x = ψ(y) называется уравнением регрессии X на Y .
Определение 8.12. Линия на плоскости, соответствующая уравнению регрессии, называется линией регрессии.
Линия регрессии Y на X показывает1 , как в среднем зависит Y от X.
Рассмотрим два противоположных случая зависимости случайных величин X и Y .
Пример 1. Предположим, что X и Y − независимые случайные величины, имеющие соответственно математические ожидания M (X) = a и
M (Y ) = b.
В силу определений 8.9-8.11 функции регрессии Y на X и X на Y в силу
равенств M (Y |X = x) = M (Y ) и M (X|Y = y) = M (X) примут соответственно вид M (Y ) = ϕ(x) и M (X) = ψ(y). Поэтому в силу предположения
соответствующие уравнения регрессии будут выглядеть так: ϕ(x) = b и
ψ(y) = a.
В силу этого соответствующие линии регрессии Y на X и X на Y на
координатной плоскости будут представлены перпендикулярными прямыми (рис. 8.8).
y
b
Рис. 8.8
0
a
x
Пример 2. Предположим, что X и Y связаны линейной зависимостью2
Y = aX + b.
Так как математическое ожидание от постоянной есть сама постоянная,
то
M (ax + b) = ax + b.
Поэтому M (Y |X = x) = ax + b. Следовательно, функция регрессии Y на
X примет вид
1
2
Естественно, линия регрессии X на Y показывает, как в среднем зависит X от Y .
Здесь a 6= 0.
208
ϕ(x) = ax + b.
Из уравнения линейной зависимости следует, что
b
Y
X= − .
a
a
В силу этого
Y
b
b
Y
M
−
= − .
a
a
a
a
Следовательно,
y b
M (X|Y = Y ) = − .
a a
Таким образом, функция регрессии X на Y имеет вид
y b
ψ(y) = − .
a a
А значит уравнение регрессии X на Y представимо в виде
y b
x= − .
a a
Выражая и из него y через x, получаем уравнение регрессии Y на X:
y = ax + b.
В результате можно сделать вывод о том, что в случае линейной зависимости случайных величин X и Y линии регрессии Y на X и X на Y
являются одной и той же прямой на координатной плоскости.
Задача 8.13. Для системы случайных величин (X, Y ), заданной в задаче 8.10, построить функции регрессии Y на X и X на Y .
Решение
1. Случайная величина X принимает значения x = 0, 1, 2. Из решения
1
задачи 8.11 известно, что M (Y |X = 1) = − .
3
Вычислим M (Y |X = 0). Для этого определим сначала
p(X = 0) = p(X = 0, Y = −1) + p(X = 0, Y = 0) ⇒
⇒ p(X = 0) = 0, 3 + 0, 1 ⇒ p(X = 0) = 0, 4.
Используя формулу (8.9), вычислим условные вероятности
0, 3
3
PY =−1|X=0 =
⇒ PY =−1|X=0 = .
0, 4
4
0, 1
1
PY =0|X=0 =
⇒ PY =0|X=0 = .
0, 4
4
С помощью формулы (8.11) найдём условное математическое ожидание
3
1
3
M (Y |X = 0) = −1 · + 0 · ⇒ M (Y |X = 0) = − .
4
4
4
Далее аналогично вычислим M (Y |X = 2).
p(X = 2) = p(X = 2, Y = −1) + p(X = 2, Y = 0) ⇒
⇒ p(X = 2) = 0, 1 + 0, 05 ⇒ p(X = 2) = 0, 15.
209
Используя формулу (8.9), вычислим условные вероятности
0, 1
2
PY =−1|X=2 =
⇒ PY =−1|X=2 = .
0, 15
3
1
0, 05
⇒ PY =0|X=2 = .
PY =0|X=2 =
0, 15
3
С помощью формулы (8.11) найдём условное математическое ожидание
2
1
2
M (Y |X = 2) = −1 · + 0 · ⇒ M (Y |X = 2) = − .
3
3
3
Зная все условные математические ожидания, составим таблично заданную функцию регрессии Y на X
X
0
1
2
1
3
2
M (Y |X = x) − − −
3
4
3
Имея данную таблицу, построим схематически линию регрессии Y на x
(рис. 8.9).
M (Y |X = x)
0
Рис. 8.9
1
− 13
− 23
− 34
2
x
2. Случайная величина Y принимает значения y = −1, 0. Из решения за8
дачи 8.12 известно, что M (X|Y = 0) = .
9
Вычислим M (X|Y = −1). Для этого определим сначала
p(Y = −1) = p(X = 0, Y = −1)+p(X = 1, Y = −1)+p(X = 2, Y = −1) ⇒
⇒ p(Y = −1) = 0, 3 + 0, 15 + 0, 1 ⇒ p(Y = −1) = 0, 55.
Используя формулу (8.10), вычислим условные вероятности
0, 3
6
PX=0|Y =−1 =
⇒ PX=0|Y =−1 = .
0, 55
11
0, 15
3
⇒ PX=1|Y =−1 = .
PX=1|Y =−1 =
0, 55
11
0, 1
2
PX=2|Y =−1 =
⇒ PX=2|Y =−1 = .
0, 55
11
С помощью формулы (8.12) найдём условное математическое ожидание
6
3
2
7
M (X|Y = −1) = 0 ·
+1·
+2·
⇒ M (X|Y = −1) = .
11
11
11
11
Зная все условные математические ожидания, составим таблично заданную функцию регрессии X на Y
210
−1 0
7 8
M (X|Y = y)
11 9
Y
Имея данную таблицу, построим схематически линию регрессии X на y
(рис. 8.10).
M (X|Y = y)
8
9
7
11
−1
0
y
Рис. 8.10
8.7
Общая характеристика зависимости случайных величин
Допустим, что изучаемый объект имеет два параметра X и Y , между
которыми существует некоторая связь. Как правило целью изучения объекта является исследование характера этой связи.
В детерминированном мире математического анализа при исследовании любого объекта предполагается однозначная взаимосвязь1 причины
X и следствия Y , исследуемая с помощью функциональной зависимости,
при которой каждому значению параметра X ставится в соответствие
единственное значение параметра Y .
В теории вероятностей связь между случайными величинами X и Y
определяется более общим видом зависимости − вероятностной или стохастической зависимостью, которая имеет множество оттенков от «слабой» вероятностной зависимости до «сильной» вероятностной зависимости.
Так если допустить, что на случайные величины X и Y влияют одни те
же случайные факторы, например T1 и T2 , то X и Y окажутся в функциональной зависимости, которая определит «сильную» вероятностную зависимость.
Примером такой зависимости может служить связь между случайной
величиной X − числом найденных опечаток в собственной работе и случайной величиной Y − временем, потраченным на их устранение. Очевидно,
что связь2 эта прямо пропорциональная вида Y = aX.
С другой стороны, в случае полной независимости случайных величин
мы сталкиваемся с противоположным полюсом спектра вероятностной за1
Так, например, любое начальное состояние системы X(0) однозначно определяет состояние системы X(t) в любой другой момент времени t.
2
В качестве общих факторов, влияющих на величины, можно рассматривать, например, фактор
важности работы; освещенность помещения; время, оставшееся до момента сдачи статьи рецензенту и
другие подобные причины.
211
висимости1 .
В качестве примера такой независимости можно привести поговорку,
которую обычно цитируют при ответе невпопад: в огороде бузина, а в Киеве дядька2 .
Между этими полюсами мира случайных связей лежит весь спектр характеристик вероятностной зависимости.
Например, предположим, что на случайную величину X влияют случайные факторы T1 и T2 , а на случайную величину Y помимо T1 и T2
оказывает влияние третий случайный фактор T3 . Тогда в силу влияния
общих факторов значения X и Y в каждом исходе опыта конечно будут
взаимосвязаны между собой, но при этом связь эта уже не будет функциональной. Она будет иметь вероятностный случайный характер, изменяясь
от одного исхода к другому. При этом может оказаться, что каждому значению случайной величины X будут соответствовать множество значений
случайной величины Y .
Сформулируем следующее
Определение 8.13. Отображение, при котором каждому значению
одной случайной величины соответствует множество значений другой
случайной величины, для каждого из которых неизвестно, какое же из
этих значений примет случайная величина, называется вероятностной или стохастической зависимостью.
Иными словами, зависимость, при которой изменение значений одной
случайной величины ведёт к изменению закона распределения другой случайной величины, является вероятностной или стохастической зависимостью.
Поскольку исследование подобной зависимости представляет значительные сложности, то на практике рассматривают частный случай этой
зависимости.
Определение 8.14. Отображение, при котором каждому значению
одной случайной величины соответствует среднее значение другой случайной величины называется корреляционной зависимостью.
Примером корреляционной зависимости является связь между случайной величиной X − временем на подготовку к экзамену, и оценкой на этом
экзамене3 .
1
Если воспринимать полную независимость случайных величин как предел «слабой» вероятностной
зависимости
2
В качестве случайной величины X здесь можно рассматривать рост бузины в огороде, а в качестве
случайной величины Y − количество проживающих в Киеве братьев ваших родителей. Очень сложно
указать хоть один общий фактор, влияющий одновременно на эти величины.
3
Затратив одинаковое время на подготовку к двум разным экзаменам, нельзя утверждать, что
оценки, полученные на экзаменах, совпадут. С одной стороны, опыт сдачи большого числа экзаменов
говорит, что чем больше тратишь времени на подготовку, тем выше оценка. С другой стороны, боль-
212
Другим примером корреляционной связи являются функции регрессии
(см. определения 8.9-8.10).
Далее с помощью вывода линейного уравнения регрессии рассмотрим
связанные с ним числовые характеристики степени зависимости случайных
величин .
8.8
Вывод уравнения линейной регрессии
В качестве приближения истинного закона регрессии на практике чаще всего используют линейное приближение в виде линейного уравнения
регрессии. А в качестве критерия наилучшего приближения используют
метод наименьших квадратов1 .
Предположим, что искомое уравнение регрессии Y на X имеет вид
y = kx + b.
В качестве случайной величины ∆ выберем отклонение точек истинной
линии регрессии от прямой регрессии, определяемой искомым уравнением.
Каждое значение выбранной случайной величины определяет отклонение
конкретной точки (xi , yj ) от искомой прямой:
δij = yj − (kxi + b).
(8.15)
С точки зрения метода наименьших квадратов наилучшим уравнением (а
значит и наилучшей прямой) является то уравнение, для коэффициентов
которого математическое ожидание квадрата отклонения ∆ принимает
минимальное значение. Таким образом, задача сводится к определению
точки минимума функции двух переменных
X
Φ(k, b) =
δij2 pij ,
ij
где pij = P (X = xi , Y = yj ).
Подставив представление (8.15) в функцию Φ(k, b)
X
Φ(k, b) =
(yj − kxi − b)2 pij ,
(8.16)
ij
вычислим частные производные
X
∂Φ
= −2
xi (yj − kxi − b)pij
∂k
ij
и
X
∂Φ
= −2
(yj − kxi − b)pij .
∂b
ij
шое количество случайных факторов вынуждают сделать вывод о том, что количество потраченного
времени влияет на оценку только в среднем.
1
См. Бидерман В. И. Указ. соч. С. 187.
213
Функция Φ(k, b) представляет неотрицательную функцию, у которой
единственный экстремум является её минимумом. Поскольку точка минимума находится в стационарной точке функции, то для её определения
составим систему
X

xi (yj − kxi − b)pij = 0,


ij
X

(yj − kxi − b)pij = 0.


ij
Раскрыв скобки и вынеся искомые параметры за знаки суммирования, получим систему
наименьших квадратов
! уравнений метода
!
 нормальных
X
X
X

2


x
p
k
+
x
p
b
=
xi yj pij ,
i ij

i ij

ij
ij
ij
!
!
X
X
X



x
p
k
+
p
b
=
yj pij .

i ij
ij

ij
ij
ij
С помощью обозначений
X
X X
X
xi pij =
xi
pij =
xi pix = M (X);
ij
i
X
X
j
x2i pij
i
= M (X 2 );
X ij X
X
yj pij =
yj
pij =
yj pjy = M (Y );
ij
j
i
X
а также равенства
j
xi yj pij = M (XY ),
ij
X
pij = 1
ij
(см. замечание 8.1) упростим систему
M (X 2 )k + M (X)b = M (XY ),
M (X)k +
b = M (Y ).
Умножив второе равенство на M (X), вычтем полученное произведение из
первого равенства
M (X 2 ) − (M (X))2 k = M (XY ) − M (X)M (Y ).
Заметив, что разность в левой скобке представляет дисперсию D(X), перепишем полученное равенство
D(X)k = M (XY ) − M (X)M (Y ).
Для правой части равенства введём новое
Определение 8.15. Характеристика
K(X, Y ) = M (XY ) − M (X)M (Y )
214
называется ковариацией пары случайных величин (X, Y ).
Заменяя в последнем равенстве значение ковариации на её обозначение,
получаем
D(X)k = K(X, Y ).
1
Таким образом ,
K(X, Y )
k=
,
(8.17)
D(X)
а
K(X, Y )
b = M (Y ) −
M (X).
(8.18)
D(X)
Подставляя найденные значения k и b в искомое уравнение регресии,
имеем уравнение линейной регрессии Y на X в следующей форме:
y − M (Y ) =
K(X, Y )
D(X)
(x − M (X)).
(8.19)
Далее введём ещё одну характеристику для случайных величин X и Y .
Определение 8.16. Характеристика
K(X, Y )
r(X, Y ) = p
D(X)D(Y )
называется коэффициентом корреляции пары случайных величин
(X, Y ).
p
p
Так как каждый из корней D(X) и D(Y ) представляет соответствующее среднее квадратическое отклонение σx и σy , то перепишем коэффициент корреляции в следующем виде:
K(X, Y )
r(X, Y ) =
.
σx σy
Поскольку
p
D(Y )
1
1
1
σy
p
p
p
=p
=p
=
· ,
D(X)
D(X) D(X)
D(X) D(X) D(Y ) σx σy σx
коэффициент в уравнении (8.19 можно представить так:
K(X, Y )
σy
= r(X, Y ) .
D(X)
σx
Поэтому окончательной формой уравнения линейной регрессии Y на X
будет уравнение
y − M (Y ) = r(X, Y )
1
σy
σx
(x − M (X)).
Так как X − случайная величина, то очевидно, что D(X) 6= 0.
215
(8.20)
А соответствующее уравнение линейной регрессии X на Y по аналогии
примет такой вид:
σx
y − M (X) = r(X, Y )
(y − M (Y )).
(8.21)
σy
Замечание 8.3. Если значения k и b (см. равенства 8.17-8.18) подставить в функцию Φ(k, b) (см. представление фунуции (8.18)), то мы получим
минимальное значение функции
Φ(k, b) = σy2 (1 − r2 ).
Число σy2 (1−r2 ) называют остаточной дисперсией случайной величины
Y относительно случайной величины X.
Эта характеристика определяет величину ошибки, допущенной при замене Y линейной функцией ϕ(X) = kX + b.
Если коэффициент корреляции r = ±1, то остаточная дисперсия обращается в нуль, что означает: при r = ±1 представление Y в виде линейной
функции от X не является ошибкой. В этом случае X и Y связаны линейной зависимостью.
Естественно и σx2 (1 − r2 ) в этом случае обращается в нуль, а прямые
регрессии, заданные уравнениями (8.19) и (8.20), совпадают.
8.9
Свойства ковариации
Чтобы понять, каким образом ковариация связана с характеристикой
связи двух случайных величин, рассмотрим следующую теорему.
Теорема 8.3. Ковариация системы двух случайных величин равна математическому ожиданию произведения отклонений этих величин от
их математических ожиданий.
В формальном виде это выглядит так, если X и Y составляющие системы (X, Y ), то
K(X, Y ) = M ((X − M (X))(Y − M (Y )).
(8.22)
Д о к а з а т е л ь с т в о. Из определения 8.15 выпишем представление
ковариации и преобразуем его, предварительно отняв и прибавив произведение M (X)M (Y ):
M (XY )−M (X)M (Y ) = M (XY )−M (X)M (Y )−M (X)M (Y )+M (X)M (Y ).
Так как константу можно вносить под знак математического ожидания1 ,
то внесём соответственно M (Y ) и M (X) под знак математического ожидания:
M (X)M (Y ) = M (XM (Y )) ; M (X)M (Y ) = M (M (X)Y ) .
1
Следует помнить, что M (X) и M (Y ) являются константами.
216
Продолжая преобразования, воспользуемся тем, что сумма математических ожиданий случайных величин равна математическому ожиданию от
суммы этих величин
M (XY ) − M (XM (Y )) − M (M (X)Y ) + M (X)M (Y ) =
= M (XY − XM (Y ) − M (X)Y + M (X)M (Y )) =
= M (X (Y − M (Y )) − (Y − M (Y )) M (X)) =
= M ((X − M (X)) (Y − M (Y ))).
Замечание 8.4. Следует заметить, что исторически в большинстве
учебников по теории вероятностей за определение ковариации принимается равенство (8.22). При этом вместо термина ковариация используется
другой термин корреляционный момент, что также имеет историческое
объяснение.
На начальном этапе возникновения теории вероятностей по аналогии
были использованы методы теории моментов из теоретической механики, на языке которой дисперсии
D(X) = M (X − M (X))2 и D(Y ) = M (Y − M (Y ))2 ,
а также ковариация
K(X, Y ) = M ((X − M (X)) (Y − M (Y )))
называются центральными моментами второго порядка1 .
Так, например, аналогом дисперсии с точки зрения теоретической механики является момент инерции материальной точки относительно некоторой оси, а аналогом ковариации − момент инерции материальной точки
относительно некоторого центра.
Из свойств математического ожидания и дисперсии случайных величин
вытекают следующие свойства.
Свойство 8.5. Симметричность ковариации
Для любых случайных величин X и Y
K(X, Y ) = K(Y, X).
Свойство 8.6. Аддитивность ковариации
Для любых случайных величин X, Y , T и Z
K(X + T, Y ) = K(X, Y ) + K(T, Y );
K(X, Y + Z) = K(X, Y ) + K(X, Z).
Свойство 8.7. Однородность ковариации
Для любых случайных величин X и Y , а также для любой константы C
K(CX, Y ) = CK(X, Y );
K(X, CY ) = CK(X, Y ).
Свойство 8.8. Для любых независимых случайных величин X и Y
K(X, Y ) = 0.
1
А математические ожидания отклонений случайных величин от их математического ожидания
M (X − M (X)) и M (Y − M (Y )) называются центральными моментами первого порядка.
217
Из этого свойства вытекает
Следствие 8.3. Для любых случайных величин X и Y , а также для
любой константы C
K(X + C, Y ) = K(X, Y );
K(X, Y + C) = K(X, Y ).
Свойство 8.9. Для любой случайной величины X
K(X, X) = D(X).
Свойство 8.10. Дисперсия суммы случайных величин
Для любых случайных величин X и Y
D(X + Y ) = D(X) + D(Y ) + 2K(X, Y ).
На основании свойств 8.8 и 8.10 получаем
Следствие 8.4. Для любых независимых случайных величин X и Y
D(X + Y ) = D(X) + D(Y ).
Теоретическое упражнение 8.1. Опираясь на определения и свойства математического ожидания и дисперсии случайных величин, докажите свойства 8.5-8.10 самостоятельно.
Так как следующее свойство не является очевидным, то приведём его с
доказательством.
Свойство 8.11. Для любых случайных величин X и Y
|K(X, Y )| ≤ σx σy .
Д о к а з а т е л ь с т в о. Рассмотрим случайные величины
Xc = X − M (X) и Yc = Y − M (Y ).
Для этих величин математические ожидания
M (Xc ) = M (Yc ) = 0,
а дисперсии
D(Xc ) = D (X − M (X))2 = D(X) = σx2 ;
D(Yc ) = D (Y − M (Y ))2 = D(Y ) = σy2 .
Для заданных случайных величин X и Y ковариация
K(X, Y ) = M ((X − M (X)) (Y − M (Y ))) = M (Xc Yc ).
Построим для любого действительного t новую случайную величину
Z(t) = Xc + tYc .
Из свойств математического ожидания следует, что M (Z(t)) = 0.
Поэтому дисперсия
D(Z(t)) = M (Z 2 (t)).
Учитывая всё вышеизложенное, имеем
M (Z 2 (t)) = M (Xc2 ) + 2tM (Xc Yc ) + t2 M (Yc2 ) = σx2 + 2tK(X, Y ) + t2 σy2 .
Так как дисперсия отрицательной не бывает, то квадратный трёхчлен
t2 σy2 + 2tK(X, Y ) + σx2 ≥ 0
для всех значений t.
218
Следовательно, его дискриминант
4K 2 (X, Y ) − 4σx2 σx2 ≤ 0.
Полученное неравенство эквивалентно неравенству
K 2 (X, Y ) ≤ σx2 σx2 .
Извлекая квадратный корень из обеих частей последнего неравенства1 ,
убеждаемся в истинности доказываемого свойства.
С помощью ковариации введём понятие, характеризующее связь случайных величин.
Определение 8.17. Случайные величины называются коррелированными, если ковариация этих величин отлична от нуля, и некоррелированными, если ковариация между ними равна нулю.
Из этого определения вытекает
Следствие 8.5. О зависимости коррелированных случайных
величин Любые две коррелированные случайные величины являются зависимыми2 .
Если предположить независимость коррелированных величин, то согласно свойству 8.8 получим равенство нулю ковариации этих величин,
что будет противоречить условию следствия и определению.
Определение ковариации обладает недостатком, создающим большие
неудобства при исследовании степени коррелированности сравниваемых величин. Этим недостатком является зависимость ковариации от масштаба
размерностей этих величин, присутствующих в определении.
В то же время введённый в определении 8.16 коэффициент корреляции
r(X, Y ) свободен от этого недостатка. Поэтому именно он используется в
качестве характеристики степени коррелированности случайных величин.
8.10
Свойства коэффициента корреляции
Из определения 8.16 и свойств 8.5-8.8 ковариации вытекают аналогичные свойства для коэффициента корреляции.
Свойство 8.12. Симметричность коэффициента корреляции
Для любых случайных величин X и Y
r(X, Y ) = r(Y, X).
Свойство 8.13. Аддитивность коэффициента корреляции
Для любых случайных величин X, Y , T и Z
r(X + T, Y ) = r(X, Y ) + r(T, Y );
√
Из элементарной математики известно, что r2 = |r|.
2
Рассмотренная в следующем параграфе задача показывает, что обратное утверждение в общем
случае неверно: зависимые величины могут быть некоррелированными.
1
219
r(X, Y + Z) = K(X, Y ) + r(X, Z).
Свойство 8.14. Однородность коэффициента корреляции
Для любых случайных величин X и Y , а также для любой константы C
r(CX, Y ) = ±r(X, Y );
r(X, CY ) = ±r(X, Y ).
Свойство 8.15. Для любых независимых случайных величин X и Y
r(X, Y ) = 0.
Из этого свойства вытекает
Следствие 8.6. Для любых случайных величин X и Y , а также для
любой константы C
r(X + C, Y ) = r(X, Y );
r(X, Y + C) = r(X, Y ).
Из свойства 8.11 вытекает
Свойство 8.16. Для любых случайных величин X и Y
|r(X, Y )| ≤ 1.
Из уравнений регрессии (8.20) и (8.22) и данного свойства можно прийти
к следующему следствию
Следствие 8.7. Если коэффициент корреляции |r(X, Y )| = 1, то случайные величины X и Y связаны линейной зависимостью.
То есть
|r(X, Y )| = 1 ⇔ Y = kX + b.
Следует также заметить, что1
r(X, Y ) < 0 ⇔ k < 0;
r(X, Y ) = 0 ⇔ k = 0.
r(X, Y ) > 0 ⇔ k > 0.
На графических диаграммах по рассеиванию случайных величин X и
Y можно определить знак коэффициента корреляции:
y
y
y
x
Рис. 8.11
x
Рис. 8.12
x
Рис. 8.13
На первом графике (рис. 8.11) коэффициент корреляции больше нуля,
так как видно, что увеличение X ведёт к увеличению Y .
На центральном графике (рис. 8.12) коэффициент корреляции меньше
1
Иначе это выглядит так: sgn(r)=sgn(k) (здесь sgn(·) − знак числа).
220
нуля поскольку на изображении видно, что увеличение X влияет на уменьшение Y .
На третьем графике (рис. 8.13) не видно, как может изменение X повлиять на изменение Y . Следовательно, коэффициент корреляции практически равен нулю.
Задача 8.14. Закон распределения двумерной случайной величины
(X, Y ) задан следующей таблицей:
X\Y
1
2
3
0
1
3
0, 1 0, 3 0
0
0 0, 2
0, 3 0 0, 1
Определите, являются ли случайные величины X и Y
1) зависимыми;
2) коррелированными.
Решение. Найдём законы распределения для каждой из рассматриваемых случайных величин.
Складывая соответствующие вероятности в каждой строке заданной
таблицы, построим
X 1
2
3
Px 0, 4 0, 2 0, 4
Далее складывая соответствующие вероятности в каждом столбце заданной таблицы, построим
Y
0
1
3
Py 0, 4 0, 3 0, 3
Ответим вначале на первый вопрос.
Так как p11 = P (X = 1, Y = 0) = 0, 1 6= P1x · P1y = 0, 4 · 0, 4, то согласно
следствию 8.2 случайные величины X и Y являются зависимыми.
Для ответа на второй вопрос вычислим несколько характеристик данных величин.
M (X) = 1 · 0, 4 + 2 · 0, 2 + 3 · 0, 4 ⇒ M (X) = 2;
M (Y ) = 0 · 0, 4 + 1 · 0, 3 + 3 · 0, 3 ⇒ M (Y ) = 1, 2;
M (XY ) = 1 · 0 · 0, 1 + 1 · 1 · 0, 3 + 1 · 3 · 0+
+2 · 0 · 0, 1 + 2 · 1 · 0, 3 + 2 · 3 · 0+
+3 · 0 · 0, 1 + 3 · 1 · 0, 3 + 3 · 3 · 0 ⇒ M (XY ) = 2, 4;
M (X)M (Y ) = 2 · 1, 2 ⇒ M (X)M (Y ) = 2, 4.
Согласно определению 8.15
K(X, Y ) = M (XY ) − M (X)M (Y ) ⇒ K(X, Y ) = 0.
221
Сравнивая полученный результат с определением 8.17, можно сделать
вывод о том, что сравниваемые величины X и Y не являются коррелированными.
Задача 8.15. Закон распределения двумерной случайной величины
(X, Y ) задан следующей таблицей:
X\Y
1
2
3
0
1
3
0, 1 0 0, 2
0 0, 3 0
0, 1 0, 3 0
Вычислите коэффициент корреляции и определите характер зависимости между случайными величинами X и Y .
Решение. Найдём законы распределения для каждой из рассматриваемых случайных величин.
Складывая соответствующие вероятности в каждой строке заданной
таблицы, построим
X 1
2
3
Px 0, 3 0, 3 0, 4
Далее складывая соответствующие вероятности в каждом столбце заданной таблицы, построим
Y
0
1
3
Py 0, 2 0, 6 0, 2
Вычислим следующие характеристики заданных величин.
M (X) = 1 · 0, 3 + 2 · 0, 3 + 3 · 0, 4 ⇒ M (X) = 2, 1;
M (Y ) = 0 · 0, 2 + 1 · 0, 6 + 3 · 0, 2 ⇒ M (Y ) = 1, 2;
D(X) = 12 · 0, 3 + 22 · 0, 3 + 32 · 0, 4 − (2, 1)2 ⇒ D(X) = 0, 69;
p
σx = 0, 69 ⇒ σx = 0, 831;
2
D(Y ) = 0 · 0, 2 + 12 · 0, 6 + 32 · 0, 2 − (1, 2)2 ⇒ D(Y ) = 0, 96;
p
σy = 0, 96 ⇒ σy = 0, 98;
M (XY ) = 1 · 0 · 0, 1 + 1 · 1 · 0 + 1 · 3 · 0, 2+
+2 · 0 · 0 + 2 · 1 · 0, 3 + 2 · 3 · 0+
+3 · 0 · 0, 1 + 3 · 1 · 0, 3 + 3 · 3 · 0 ⇒ M (XY ) = 2, 1;
M (X)M (Y ) = 2, 1 · 1, 2 ⇒ M (X)M (Y ) = 2, 52.
Согласно определению 8.15
K(X, Y ) = 2, 1 − 2, 52 ⇒ K(X, Y ) = −0, 42.
Из определения 8.16 cледует, что
0, 42
r(X, Y ) = −
⇒ r(X, Y ) = −0, 517.
0, 831 · 0, 98
222
Так как r(X, Y ) < 0, то между случайными величинами X и Y существует отрицательная линейная зависимость.
В заключение главы рассмотрим
8.11
Понятие корреляции случайных событий
Для следующего определения нам понадобится определение индикатора
события A (см. определение 5.5.
Рассмотрим совместное распределение индикаторов IA и IB для связанных между собой случайных событий A и B и сформулируем
Определение 8.18. Коэффициентом корреляции случайных событий A и B называется коэффициент корреляции их индикаторов IA
и IB . То есть
r(A, B) = r(IA , IB ).
Задача 8.16. Обычно ключ от кабинета у меня лежит в правом или в
левом кармане. Поиски ключа я начинаю с кармана, выбранного случайно
с одинаковой вероятностью для каждого. Но почему-то ключ в 90% случаев
оказывается в другом кармане. Найдите коэффициент корреляции между
событиями A: «я начал поиск с правого кармана» и B: «ключ лежит в
правом кармане».
Решение. Для построения закона распределения системы индикаторов
(IA , IB ) вычислим вероятности предполагаемых совместных событий.
Так как события A и B не зависят друг от друга, то вероятности совместных событий можно вычислить с помощью теоремы о произведении
вероятностей независимых событий.
Пусть событие Ā − «я начал поиск с левого кармана кармана», а событие
B̄ − «ключ лежит в левом кармане».
P (IA = 0, IB = 0) = P (Ā) · P (B̄) = 0, 5 · 0, 1 ⇒ P (IA = 0, IB = 0) = 0, 05;
P (IA = 1, IB = 0) = P (A) · P (B̄) = 0, 5 · 0, 9 ⇒ P (IA = 1, IB = 0) = 0, 45;
P (IA = 0, IB = 1) = P (Ā) · P (B) = 0, 5 · 0, 1 ⇒ P (IA = 0, IB = 1) = 0, 05;
P (IA = 1, IB = 1) = P (A) · P (B) = 0, 5 · 0, 9 ⇒ P (IA = 1, IB = 0) = 0, 45.
Зная вероятности, построим закон распределения системы индикаторов
(IA , IB )
IA \IB
0
1
0
0, 05 0, 45
1
0, 45 0, 05
Составим законы распределения для каждого из индикаторов
IA 0
1
P 0, 5 0, 5
IB 0
1
P 0, 5 0, 5
223
Вычислим числовые характеристики распределений.
Так как каждая из величин распределена по биномиальному закону, то
M (IA ) = M (IB ) = 1 · 0, 5 ⇒ M (IA ) = M (IB ) = 0, 5;
D(IA ) = D(IB ) = 1 · 0, 5 · 0, 5 ⇒ D(IA ) = D(IB ) = 0, 25;
σIA = σIB = 0, 5;
M (IA IB ) = 0 · 0 · 0, 05 + 0 · 1 · 0, 45 + 1 · 0 · 0, 45 + 1 · 1 · 0, 05 ⇒ M (IA IB ) = 0, 05;
K(IA , IB ) = 0, 05 − 0, 5 · 0, 5 ⇒ K(IA , IB ) = −0, 2;
0, 2
r(IA , IB ) = −
⇒ r(IA , IB ) = −0, 8.
0, 25
Таким образом, согласно определению 8.18 коэффициент корреляции
событий r(A, B) = −0, 8.
То есть поиск ключа в одном из карманов сильно коррелирует с его
нахождением в другом кармане1 .
1
Эта задача взята из электронного пособия Аракчеев С.А. Теория вероятностей. Часть III, с. 8 (см.
[Электронный ресурс] : URL : http://vm.stu.ru/Task/Arakcheev%20-%20Probability(add).pdf (дата
обращения: 12.06.2016)).
224
Заключение
Закрывая эту книгу1 , следует отметить, что «Элементы теории вероятностей» представляют только введение в эту красивую науку, позволяющее
получить первое представление о её терминологии, проблемах, методах решения предложенных задач.
Зная терминологию теории вероятностей, можно открыть дверь в математическую статистику, которая также является разделом математики.
Если давать определение предмета математической статистики, то можно сказать, что математическая статистика изучает методы сбора, систематизации, обработки и использования статистических данных для
получения научно обоснованных выводов и принятия на их основе решений.
И на этом пути сбора, систематизации и обработки невозможно обойтись без азбуки теории вероятностей2 .
Мир приложений математической статистики огромен: организация транспортных потоков, теория надёжности машин и механизмов, теория математической связи (она же теория информации), прогнозирование погоды
и любое другое прогнозирование3 , а также доказательная медицина и великое множество других приложений.
А там, где теория вероятностей и математическая статистика не могут
помочь, на помощь приходит теория случайных процессов, в основе которой также лежит теория вероятностей.
Но для того, чтобы её помощь оказалась результативной, понадобится
более глубокое знакомство с теорией вероятностей.
И в завершение заключения4 небольшой диалог:
− Чем вы собираетесь заниматься? − Писать планы и программы.
− А что такое планы и программы? − Это алгоритм + данные.
− А что такое данные? − Это способ представления информации.
− А что такое информация? − Это мера уменьшения неопределённости.
− А можно всем этим заниматься, не зная теории вероятностей?
− Нет.
1
Будем надеяться после того, как вы разобрались с основными определениями и теоремами и разобрались в методике решения рассмотренных задач.
2
Безусловно подкреплённой аппаратом алгебры, геометрии, математического анализа и, конечно,
арифметики.
3
Если, конечно, это не прогноз на кофейной гуще.
4
Согласитесь, что заключение заключения есть грубая тавтология, а завершение заключения звучит
нежнее.
225
Библиографический список
1. Александрова, Н. В. История математических терминов, понятий,
обозначений : словарь-справочник / Н. В. Александрова. − М. : ЛКИ,
2008. − 248 с.
2. Бернулли, Я. О законе больших чисел / Я. Бернулли. − М. : Наука, 1986.
− 176 с.
3. Бидерман, В. И. Математика: элементы математического анализа
/ В. И. Бидерман. − Хабаровск : Изд-во Тихоокеан. гос. ун-та, 2013. −
197 с.
4. Бородин, А. Н. Элементарный курс теории вероятностей и математической статистики/А. Н. Бородин. − СПб. : Лань, 2004. − 256 с.
5. Бэнкс, Иэн. Улица отчаяния / Иэн Бэнкс. − М. : Эксмо, 2014. − C. 81.
6. Вентцель, Е. С. Исследование операций / Е. С. Вентцель. − М. : Советское радио, 1972. − 552 c.
7. Вентцель, Е. С. Теория вероятностей и её инженерные приложения
/ Е. С. Вентцель, Л. А. Овчаров. − М.: Наука, 1988. − 480 с.
8. Гëте, И. В. Фауст / И. В. Гëте. : пер. с нем. − М. : Художественная
литература, 1969. − С. 98.
9. Глейзер, Г. И. История математики в школе: IX-X кл. Пособие для учителей / Г. И. Глейзер. − М. : Просвещение, 1983. − 351 с.
10. Гмурман, В. Е. Руководство к решению задач по теории вероятностей
и математической статистике / В. Е. Гмурман. − М. : Высш.шк., 1975.
− 333 с.
11. Гмурман, В. Е. Теория вероятностей и математическая статистика
/ В. Е. Гмурман. − М. : Высш.шк., 1997. − 479 с.
12. Гнеденко, Б. В. Из истории науки о случайном / Б. В. Гнеденко. −
М. : Знание, 1981. − 64 с.
13. Гнеденко, Б. В. Курс теории вероятностей / Б. В. Гнеденко. −
М. : Наука, 1988. − 448 с.
14. Зорич, В. А. Математический анализ : учебник. Ч. II / В. А. Зорич. −
М. : Наука, 1984. − 640 с.
15. История математики с древнейших времен до начала XIX столетия :
в 3 т. Т. 2 / под ред. А. П. Юшкевича. − М. : Наука, 1970. − 300 с.
16. Канеман, Д. Думай медленно... решай быстро / Д. Канеман. − М. : Аст,
2014. − 653 c.
17. Корбалан, Ф. Укрощение случайности. Теория вероятностей / Ф. Корбалан, Х. Санц. − М. : Де Агостини, 2014. − 160 с.
18. Курно, О. Основы теории шансов и вероятностей / О. Курно. − М. :
Наука, 1970. − 384 с.
226
19. Лебедева, А. В. Ars combinatoria и музыкальная практика XVIII века :
автореф. дис. ... канд. искусствоведения / Рос. акад. музыки им. Гнесиных. − М., 2002. - 21 с.
20. Майстров, Л. И. Теория вероятностей. Исторический очерк /
Л. И. Майстров. − М. : Наука, 1967. − 320 c.
21. Маккьюсик, В. Генетика человека : пер. с англ. − М. : Мир, 1967. −
200 c.
22. Миронов, Б. Н. Историк и математика (Математические методы в историческом исследовании) / Б. Н. Миронов, З. В. Степанов. − Л. :
Наука, − 1976. − 184 c.
23. Мойес, Д. Один плюс один / Д. Мойес. − М. : Иностранка, 2014. −
480 c.
24. Мостеллер, Ф. Пятьдесят занимательных вероятностных задач с решениями / Ф. Мостеллер. − М. : Наука, 1975. − 112 c.
25. Ниворожкина, Л.И. Математическая статистика с элементами теории
вероятностей в задачах с решениями / Л. И. Ниворожкина, С. А. Морозова. − М. : ИКЦ «МарТ» ; Ростов-н/Д : Издательский центр «МарТ»,
2005. − 608 c.
26. Острейковский, В. А. Теория надёжности / В. А. Острейковский. −
М. : Высш. шк., 2003. − 463 c.
27. Секей, Г. Парадоксы в теории вероятностей и математической статистике / Г. Секей. − Москва-Ижевск : Институт компьютерных исследований, 2003. − 272 c.
28. Фëдорова, T. Л. Этимологический словарь русского языка/T. Л. Фëдорова, О. А. Щеглова. − М. : Ладком, 2012. − 608 c.
29. Хинчин, А. Я. Учение Мизеса о вероятностях и принципы физической
статистики / А. Я. Хинчин // Успехи физических наук. − 1929. − Т. IX
− Вып. 2 − С. 141-166.
30. Чебышёв, П. Л. Полное собрание сочинений. Математический анализ.
Том III / П. Л. Чебышёв. − М.-Л. : Издательство Академии наук СССР,
1948. − 414 с.
31. Штейнгауз, Г. Задачи и размышления / Г. Штейнгауз. − М. : Мир,
1974. − 400 с.
32. Эсхил, Трагедии / Эсхил − М. : Художественная литература, 1971. −
С. 344.
33. The Exponential distribution. Theory, Methods and Applications / N. Balakrishan, Asit. P. Basu. − Gordon and Breach Publishers, 1995. − 641 p.
34. Вероятность и математическая статистика : энциклопедия / гл. ред.
Ю. В. Прохоров. − М. : Большая Российская энциклопедия, 1999.
910 с.
227
Приложение 1
Функция Гаусса
x
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
0,40
0,45
0,50
0,55
0,60
0,65
0,70
0,75
0,80
0,85
0,90
0,95
1,00
1,05
1,10
1,15
1,20
1,25
1,30
ϕ(x)
0,3989
0,3984
0,3970
0,3945
0,3910
0,3867
0,3814
0,3752
0,3683
0,3605
0,3521
0,3429
0,3332
0,3230
0,3123
0,3011
0,2897
0,2780
0,2661
0,2541
0,2420
0,2299
0,2179
0.2059
0,1942
0,1826
0,1714
x
1,35
1,40
1,45
1,50
1,55
1,60
1,65
1,70
1,75
1,80
1,85
1,90
1,95
2,00
2,05
2,10
2,15
2,20
2,25
2,30
2,35
2,40
2,45
2,50
2,55
2,60
2,65
ϕ(x)
0,1604
0,1497
0,1394
0,1295
0,1200
0,1109
0,1023
0,0940
0,0863
0,0790
0,0721
0,0656
0,0596
0,0540
0,0488
0,0440
0,0396
0,0355
0,0317
0,0283
0,0252
0,0224
0,0198
0,0175
0,0154
0,0136
0,0119
228
x
2,70
2,75
2,80
2,85
2,90
2,95
3,00
3,05
3,10
3,15
3,20
3,25
3,30
3,35
3,40
3,45
3,50
3,55
3,60
3,65
3,70
3,75
3,80
3,85
3,90
3,95
4,00
ϕ(x)
0,0104
0,0091
0,0079
0,0069
0,0060
0,0051
0,0044
0,0038
0,0033
0,0028
0,0024
0,0020
0,0017
0,0015
0,0012
0,0010
0,0009
0,0007
0,0006
0,0005
0,0004
0,0004
0,0003
0,0002
0,0002
0,0002
0,0001
Приложение 2
Интегральная функция Лапласа
x
0,00
0,05
0,10
0,15
0,20
0,25
0,30
0,35
0,40
0,45
0,50
0,55
0,60
0,65
0,70
0,75
0,80
0,85
0,90
0,95
1,00
Φ(x)
0,0000
0,0040
0,0389
0,0596
0,0793
0,0987
0,1179
0,1368
0,1554
0,1736
0,1915
0,2088
0,2257
0,2422
0,2580
0,2734
0,2881
0,3023
0,3159
0,3289
0,3413
x
1,10
1,15
1,20
1,25
1,30
1,35
1,40
1,45
1,50
1,55
1,60
1,65
1,70
1,75
1,80
1,85
1,90
1,96
2,00
2,05
2,10
Φ(x)
0,3643
0,3749
0,3849
0,3944
0,4032
0,4115
0,4192
0,4265
0,4332
0,4394
0,4452
0,4505
0,4554
0,4599
0,4641
0,4678
0,4713
0,4750
0,4772
0,4798
0,4821
229
x
Φ(x)
2,25 0,4878
2,30 0,4893
2,35 0,4907
2,40 0,4918
2,45 0,4929
2,50 0,4938
2,55 0,4947
2,60 0,4953
2,65 0,4960
2,70 0,4965
2,75 0,4970
2,80 0,4974
2,85 0,4978
2,90 0,4981
2,95 0,4985
3,00 0,49865
3,2 0,49931
3,4 0,49966
3,6 0,499984
3,8 0,499993
4,0 0.499997
Предметный указатель
Асимметрия, 166
Вероятностный смысл математического ожидания, 91
Вероятность события, 23
Гипотезы, 49
Дискретная случайная величина, 73
Дисперсия, 97, 127
Дополнение множества, 10
Зависимость корреляционная, 213
Зависимость стохастическая,213
Задача о встрече, 32
Игла Бюффона, 33
Закон распределения, 75
Интегральная теорема Лапласа, 66
Исходы, 11
Индикатор события, 91
Ковариация, 215
Комбинаторика, 8
Коэффициент корреляции, 216, 224
Линия регрессии, 209
Локальная теорема МуавраЛапласа, 64
Локальная формула Лапласа, 64
Математическое ожидание, 87, 122
Медиана, 125
Многоугольник распределения, 80
Мода, 94, 124
Момент начальный, 164
Момент центральный, 165
Наивероятнейшее число, 70
Независимые случайные
величины, 200
Нормированное нормальное
распределение, 137
Объединение множеств, 8
Относительная частота, 29
Операции над множествами, 8
Определение вероятности
геометрическое, 31
Определение вероятности
классическое, 24
Определение вероятности
статистическое, 29
Опыт, 11
Пересечение множеств, 9
Перестановки, 15
Перестановки с повторениями, 16
Плотность распределения, 118
Полная группа, 23
Правило произведения, 12
Правило суммы, 11
Произведение множеств, 10
Пространство исходов, 22
Пустое множество, 10
Размещения без повторения,15
Размещения с повторением, 18
Разность множеств, 10
Распределение биномиальное,108
Распределение нормальное, 133
Распределение показательное, 152
Распределение Пуассона,111
Распределение равномерное, 129
Распределение условное, 203
Событие, 11
Событие достоверное, 21
Событие невозможное, 21
Событие случайное, 21
Событие составное, 21
Событие элементарное, 21
События независимые, 43
События несовместные, 22
События противоположные, 23
Cобытия равновозможные, 22
Сочетания без повторения, 17
Среднее квадратическое
230
отклонение,101, 127
Формула Байеса, 54
Среднее число появления
Формула Бернулли, 57
события, 30
Формула полной вероятности, 49
Сумма множеств, 9
Формула Пуассона, 61
Схема Бернулли, 57
Функция Гаусса, 63
Универсальное множество, 10 Функция дифференциальная, 118
Уравнение регрессии, 209
Функция интегральная Лапласа, 65
Теорема гипотез, 53
Функция интегральная, 119
Условная вероятность, 40
Функция распределения, 81, 192
Теоремы сложения
Функция регрессии, 208
вероятностей, 37, 39
Эксцесс, 168
Теоремы умножения
вероятностей, 40, 43
231
Учебное издание
Бидерман Вениамин Исаакович
Элементы
теории вероятностей
Учебное пособие
Компьютерная вёрстка В. И. Бидермана
Дизайн обложки Е. И. Саморядовой
Печатается с авторского оригинала-макета
Подписано в печать 06.02.17. Формат 60х84 1/16.
Бумага писчая. Гарнитура «Таймс». Печать цифровая.
Усл. печ. л. 13, 60. Тираж 100 экз. Заказ 11.
Издательство Тихоокеанского государственного университета.
680035, Хабаровск, ул. Тихоокеанская, 136.
Отдел оперативной полиграфии
издательства Тихоокеанского государственного университета.
680035, Хабаровск, ул. Тихоокеанская, 136.
Скачать