Конспект лекций по теории вероятностей, математической статистике и случайным процессам [Дмитрий Трофимович Письменный] (pdf) читать онлайн

Книга в формате pdf! Изображения и текст могут не отображаться!


 [Настройки текста]  [Cбросить фильтры]

Дмитрий Письменный

"

КОНСПЕКТ ЛЕКЦИИ
по теории вероятностей,

математической статистике

и случайным процессам
Высшее образование
5-е издание

МОСКВА

l.~ АЙРИСС ПРЕСС
2010

УДК
ББК

519.2(075.8)
22.17я73-2

035
Все права защищены.

Никакая часть данной книги не может переиздаваться
или распространяться в любой форме и любыми средствами,
электронными или механическими, включая фотокопирование,
звуко~апись, любые запоминающие устройства
и системы поиска информации,

без письменного разрешения правообладателя.

Серийное оформление А. М. Драговой

Письменный, Д. Т.
ПЗS

Конспект лекций по теории вероятностей, математической статистике и случайным процессам/ Дмитрий Письменный.

Айрис-пресс,

2010. - 288 с. -

-

5-е изд.

-

М.:

(Высшее образование).

ISBN 978-5-8112-3998-6
Настоящая книга представляет собой курс лекций по теории вероятностей, слу•~ай­
ным процессам и математической статистике.

Первая часть книги содержит основные понятия и теоремы теории вероятностей,
такие как случайные события, вероятность, случайные функции, корреляция, услов~
ная вероятность, закон больших чисел и предельные теоремы. В отдельной главе при­
ведены основные понятия теории случайных процессов (стационарный процесс, мар­

ковский процесс, теорема Винера-Хинчина).
Вторая часть книги посвящена математической статистике, в ней излагаются осно­
вы выборочного метода, теории оценок и проверки гипотез. Изложение теоретическо­
го материала сопровождается рассмотрением большого количества примеров и задач,
ведется на доступном, по возможности строгом языке.

Предназначена для студентов экономических и технических вузов.
ББК 22.17я73-2
УДК

©

ISBN 978-5-8112-3998-6

519.2(075.8)

ООО «Издательство

«АЙРИС-пресс~. 2002

Содержание
Введение

.......................................................... .

6

Раздел первый

Элементарная теория вероятностей и случайных процессов
Глава

1.

Случайные события

1.1. Предмет теории вероятностей........................................
1.2. Случайные события, их классификация . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Действия над событиями . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Случайные события. Алгебра событий. (Теоретико-множественная
трактовка) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5. Свойство статистической устойчивости относительной частоты
события............................................................

1.6. Статистическое определение вероятности . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1. 7. Классическое определение вероятности . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8. Элементы комбинаторики . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.9. Примеры вычисления вероятностей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.10. Геометрическое определение вероятности . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.11. Аксиоматическое определение вероятности . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.12. Свойства вероятностей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.13. Конечное вероятностное пространство . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.14. Условные вероятности.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.15. Вероятность произведения событий. Независимость событий . . . . . . . . . . .
1.16. Вероятность суммы событий . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.17. Формула полной вероятности . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.18. Формула Байеса (теорема гипотез) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.19. Независимые испытания. Схема Бернулли . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.20. Формула Бернулли..................................................
1.21. Предельные теоремы в схеме Бернулли...............................
Глава

2.1.

2.

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

Закон распределения дискретной случайной величины. Многоугольник

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

Функция распределения и ее свойства. Функция распределения

дискретной случайной величины

............. .... ....... .... ........ .
..............................
Числовые характеристики случайных величин . . . . . . . . . . . . . . . . . . . . . . . .
2.6. Производящая функция . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2. 7. Основные законы распределения случайных величин . . . . . . . . . . . . . . . . . .

2.4.
2.5.

16
17
18
20
28
31
34
35
36
37
38
42
44
45
47
48
51

Понятие случайной величины. Закон распределения случайной

распределения

2.3.

13

Случайные величины

величины

2.2.

8
9
11

Плотность распределения и ее свойства.

64
69
73
84
85

4 •

Содержание

Глава

3.1.
3.2.
3.3.

3.

Системы случайных величин

Понятие о системе случайных величин и законе ее распределения

...... 104
.. 107

Функция распределения двумерной случайной величины и ее свойства

Плотность распределения вероятностей двумерной случайной величины
и ее свойства

3.4.
3.5.
3.6.

........................... ........................... . 110
................ 116
законы распределения . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

Зависимость и независимость двух случайных величин
Условные

Числовые характеристики двумерной случайной величины.

Математическое ожидание и дисперсия

........................... ....
3.7. Корреляционный момент, коэффициент корреляции ...................
3.8. Двумерное нормальное распределение ........................... .....
3.9. Регрессия. Теорема о нормальной корреляции .........................
3.10. Многомерная (п-мерная) случайная величина (общие сведения) ........
3.11. Характеристическая функция и ее свойства ...........................
3.12. Характеристическая функция нормальной случайной величины ........
Глава

4.1.
4.2.
4.3.

4.

122
124
131
135
139
140
143

Функции случайных величин

Функция одного случайного аргумента

........................... .... 145
150
158
случайных величин

Функции двух случайных аргументов ........................... ......
Распределение функций нормальных

Глава 5. Предельные теоремы теории вероятностей

5.1.
5.2.
5.3.
5.4.
5.5.
Глава

6.1.
6.2.
6.3.
6.4.
6.5.
6.6.
6.7.
6.8.

Неравенство Чебышева ........................... ...................
Теорема Чебышева ........................... .......................
Теорема Бернулли ........................... .......................
Центр&'IЬная предельная теорема . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

162
165
168
170
Интегральная теорема Муавра- Лапласа . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

6.

Основы теории случайных процессов

Понятие случайной функции (процесса) ........................... ...
Классификация случайных процессов ........................... .....
Основные характеристики случайного процесса . . . . . . . . . . . . . . . . . . . . . . .
Стационарный случайный процесс в узком и широком смысле ..........
Линейные и нелинейные преобразования случайных процессов .........
Дифференцирование и интегрирование случайных процессов ...........

176
178
179
187
190
191
Спектральное разложение стационарного случайного процесса ......... 194
Спектральная плотность случайного процесса. Теорема

Винера-Хинчина ........................... .........................
6.9. Стационарный белый шум ........................... ................
6.10. Понятие марковского случайного процесса ........................... .
6.11. Дискретный марковский процесс. Цепь Маркова ......................

197
201
203
205

6.12. Понятие о непрерывном марковском процессе. Уравнения
Колмогорова

.......................... .......................... ... 207

Содержание

• 5

Раздел второй

Основы математической статистики
Глава

7.1.
7.2.
7.3.

7.

Выборки и их характеристики

Предмет математической статистики

................................. 212
............................. 213

Генеральная и выборочная совокупности

Статистическое распределение выборки. Эмпирическая функция
распределения

7.4.
7.5.
Глава

8.1.
8.2.
8.3.
8.4.

...................................................... 215
............. 219
характеристики статистического распределения ............. 221

Графическое изображение статистического распределения
Числовые

8.

Элементы теории оценок и проверки гипотез

Оценка неизвестных параметров

..................................... 225
................................ 231
оценивания параметров ....................... 236

Методы нахождения точечных оценок
Понятие интервального

Доверительные интервалы для параметров нормального

распределения

8.5.
8.6.

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
.................................... 244
гипотез о законе распределения ............................ 248

Проверка статистических гипотез

Проверка

Ответы к упражнениям
Приложения

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284

Введение
Теория вероятностей, как и другие науки, возникла из потребностей прак­
тики. Ее элементы были «знакомы» еще первобытным людям: шансы убить
зверя у двух охотников, конечно, больше, чем у одного.

Возникновение «математики случайного» относится к середине

XVII века

и связано с попыткой создания теории азартных игр, особенно в кости.

Пример одной из ситуаций: два игрока договорились играть в кости до мо­
мента, когда одному из них удастся выиграть три партии; игра была прервана,

когда первый игрок выиграл две партии, а второй

- одну; как справедливо
3 : 1 - как показали французские математики Б. Паскаль
(1623-1662) и П. Ферма (1601-1665). И в настоящее время примеры из области

разделить ставку?

азартных игр широко применяются в теории вероятностей, так как для них
легко строить математические модели.

Первую книгу по теории вероятностей

«0

бликовал голландский математик Х. Гюйгенс

расчетах в азартной игре» опу­

(1629-1695).

Становление теории вероятностей как математической науки связано с
именем Я. Бернулли

(1654-1705),

который ввел классическое определение со­

бытия и доказал простейший случай закона больших чисел.
В

XVIII-XIX

веках центральное место в развитии теории вероятностей

занимали предельные теоремы. К этому периоду относятся работы А. Муавра

(1667-1754), П. Лапласа (1749-1827), К. Гаусса (1777-1855), С. Пуассона (17811840).
В конце XIX - начале ХХ века благодаря усилиям П. Л. Чебышева (18211894), А. А. Маркова (1856-1922), А. М. Ляпунова (1857-1918) созданы методы
доказательства предельных теорем для сумм независимых произвольно рас­

пределенных случайных величин.

Дальнейшее развитие теории вероятностей связано с именами русских

математиков Е. Е. Слуцкого

(1880-1948), А. Я. Хинчина (1894-1959), А. Н. Кол­
(1903-1987), Б. В. Гнеденко (1912-1995), а также зарубежных уче­
ных Н. Вивера (1894-1964), Э. Бореля (1871-1956), В. Феллера (1906-1970),
Р. Фишера (1890-1962) и др. Теория вероятностей получила строгое формаль­
могорова

но-логическое основание на базе теории множеств. Следует особо отметить
академика А. Н. Колмогорова, установившего аксиоматику теории вероятно­
стей. Огромное развитие получили «отпочковавшиеся» от теории вероятно­

стей такие отрасли науки, как математическая статистика, теория случайных

процессов, теория массового обслуживания, теория информации и др.
Современная теория вероятностей

-

строго обоснованная математиче­

ская наука. Она широко использует достижения других математических наук

(по этому поводу современный вероятностик Дж. Дуб в шутку как-то сказал:
«Всем специалистам по теории вероятностей хорошо известно, что математи­

ка представляет собой часть теории вероятностей»); имеет, в свою очередь,
многочисленные приложения в естественных и гуманитарных науках.

Элементарная
теория

"

вероятностеи

"
и случаиных
процессов
Раздел первый

Глава

1

Случайные события

1.1. Предмет теории вероятностей
Любая точная наука изучает не сами явления, протекающие в при­
роде, в обществе, а их математические модели, т. е. описание явлений
при помощи набора строго определенных символов и операций над ни­

ми. При этом для построения математической модели реального явле­
ния во многих случаях достаточно учитывать только основные фак­
торы, закономерности, которые позволяют предвидеть результат опы­

та (наблюдения, эксперимента) по его заданным начальным условиям.
Этим и занимаются большинство математических (и других) дисцип­
лин. Обнаруженные закономерности явления называются детермини­
сти-ч,ескими (определенными). Так, например, формула

s = l2 gt2
позволяет найти путь, пройденный свободно падающим телом за

t

се­

кунд от начала движения.

Однако есть множество задач, для решения которых приходится

(надо!) учитывать и случайные факторы, придающие исходу опыта
элемент неопределенности. Например, в вопросах стрельбы по цели не­

возможно без учета случайных факторов ответить на вопрос: сколько
ракет нужно потратить для поражения цели? Невозможно предсказать,
какая сторона выпадет при бросании монеты. Сколько лет проживет
родившийся сегодня ребенок? Сколько времени проработает куплен­
ный нами телевизор? Сколько студентов опоздают на лекцию по тео­
рии вероятностей? И т. д. Такие задачи, исход которых нельзя пред­
сказать с полной уверенностью, требуют изучения не только основ­
ных, главных закономерностей, определяющих явление в общих чер­

тах, но и случайных, второстепенных факторов. Выявленные в таких

задачах (опытах) закономерности называются статисти-ч,ески.ми (или

Глава

1.

Случайные события

• 9

веро.ятностными). Статистические закономерности исследуются мето­
дами специальных математических дисциплин

-

теории вероятностей

и математической статистики.

Теори.я веро.ятностеu

-

математическая наука, изучающая зако­

номерности, присущие массовым случайным явлениям. При этом из­

учаемые явления рассматриваются в абстрактной форме, независимо
от их конкретной природы. То есть теория вероятностей рассматрива­
ет не сами реальные явления, а их упрощенные схемы

-

математиче­

ские модели. Предметом теории веро.ятностеu являются математи­
ческие модели случайных явлений. При этом под слу·ч,аuным .явлением

понимают явление, предсказать исход которого невозможно (при не­
однократном воспроизведении одного и того же опыта оно протекает

каждый раз несколько по-иному). Примеры слу·ч,аuных .явлениu: вы­
падение герба при подбрасывании монеты, выигрыш по купленному

лотерейному билету, результат измерения какой-либо величины, дли­
тельность работы телевизора и т. п.
Целъ теории веро.ятностеu

-

осуществление прогноза в области

случайных явлений, влияние на ход этих явлений, контроль их, огра­

ничение сферы действия случайности. В настоящее время нет практи­
чески пи одной области науки, в которой в той или иной степени не

применялись бы вероятностные методы.

1.2.

Случайные события, их классификация
Сначала определим понятие «случайное событие» исходя из его ин­

туитивного, наглядного понимания. Пусть проводится некоторый опыт

(эксперимент, наблюдение, испытание), исход которого предсказать за­
ранее нельзя. Такие эксперименты в теории вероятностей называют
случаuными. При этом рассматриваются только такие эксперименты,
которые можно повторять, хотя бы теоретически, при неизменном ком­
плексе условий произвольное число раз.

Случт/,ным событием (или просто: событием) называется любой
исход опыта, который может произойти или не произойти.

События обозначаются, как правило, заглавными буквами латин­
ского алфавита: А, В, С,

....

Пример 1.1. Опыт: бросание игральной кости; событие А -- выпа­
дение 5 очков, событие В - выпадение четного числа очков, событие
С

-

выпадение

событие Е

-

7

очков, событие

D --

выпадение целого числа очков,

выпадение не менее 3-х очков,

....

1О • Раздел первь1й. Элементарная теория вероятностей и случайных процессов
Непосредственные исходы опыта называются эле.ментарнъt.ми со­
бытия.ми и обозначаются через

w.

Элементарные события (их назы­

вают также «элементами», «точками», «случаями») рассматриваются
как неразложимые и взаимоисключающие исходы

w 1 , w2 , w 3

•.• этого

опыта.

Множество всех элементарных событий называется пространст­
вом эле.ментарнъtх собъtтиi1 или пространством исходов, обозначает­
ся через

n.

Рассмотрим пример

1.1. Здесь 6 элементарных событий

w1,

w2, wз,

w4, W5, Wб. Событие Wi означает, что в результате бросания кости вы­
пало

i

таково:

очков,

i = 1, 2, 3, 4, 5, 6.

Пространство элементарных событий

{w1,w2,w3,W4,W5,W6} ИЛИ

f2 =

f2 = {1,2,3,4,5,6}.

Событие называется достоверным, если оно обязательно наступит
в результате данного опыта, обозначается через

n.

Событие называется невоз.можнъt.м, если оно заведомо не произой­

дет в результате проведения опыта, обозначается через 0.
В примере

1.1

можное, событие

события А и В

D-

-

случайные, событие С

-

невоз­

достоверное.

Два события называются несов.месmн'Ыми, если появление одного

из них исключает появление другого события в одном и том же опыте,
т. е. не смогут произойти вместе в одном опыте. В противном случае

события называются сов.местными.

Так, в примере

1.1

события А и В

-

несовместные, А и Е

-

со­

вместные.

События А 1 , А 2 , .•. , Ап называются попарно-несовместными, если
любые два из них несовместны.

Несколько событий образуют полную группу, если они попарно не­
совместны

и

в

результате

каждого опыта происходит одно

и только

одно из них.

В примере

события w1 -wб образуют полную группу, W1 -ws -

1.1

нет.

Несколько событий в данном опыте называются равновоз.можны­

ми, если ни одно из них не является объективно более возможным, чем
другие, т. е. все события имеют равные «шансы».

В примере

1.1

элементарные события

w1, w2,

wз, w4, w5, Wб равно­

возможны. Выпадение герба (А) или решки (В) при бросании монеты равновозможные события, если, конечно, монета имеет симметричную
форму, не погнута,

....

Глава

1 . 3.

1.

Случайные события

• 11

Действия над событиями
Введем основные операции над событиями; они полностью соответ­
ствуют основным операциям над множествами.

Суммой собъtтий А и В называется событие С
в наступлении хотя бы одного из них

(т. е.

= А+ В, состоящее

или А, или В, или А и В

вместе).
Произведением событий А и В называется событие С
состоящее в совместном наступлении этих событий

(т. е.

= А· В,

и А и В одно­

временно).
Разностъю собъtтий А и В называется событие С = А

-

В, про­

исходящее тогда и только тогда, когда происходит событие А, но не
происходит событие В.

Противоположным событию А называется событие А, которое

происходит тогда и только тогда, когда не происходит событие А

(т. е.

А означает, что событие А не наступило).
Событие А вле'Ч,ет событие В (или А является частным случаем
В), если из того, что происходит событие А, следует, что происходит
событие В; записывают А~ В.
Если А ~ В и В ~ А, то события А и В называются равными;
записывают А

= В.

1.1 (п. 1.2) В = {2, 4, 6}, Е = {3, 4, 5, 6}, А = {5},
{1,2,3,4,5,6}. Тогда: В+ Е = {2,3,4,5,6}, В· Е = {4,6},
-Е = {2}, А= {1,2,3,4,6}, В~ D, D = n = {1,2,3,4,5,6}.
Так, в примере

D
В

=

События и действия над ними можно наглядно иллюстрировать с

помощью диагра.м.м Эйлера-Венна: достоверное событие
ется прямоугольником; элементарные случайные
прямоугольника; случайное событие

-

!1 изобража­
события - точками

областью внутри него.

Действия над событиями можно изобразить так, как показано на
рис.

1-5.
Операции над событиями обладают следующими свойствами:

А+ В= В+ А, А· В= В· А (переместительное);
(А+ В)· С= А· С+ В· С, А· В+ С= (А+ С)· (В+ С) (распреде­
лительное);

(А+ В)+ С= А+ (В+ С), (А· В)· С= А· (В· С) (сочетательное);
А+ А
А

= А, А· А = А;

+ n = n, А . n = А;
= n, А· А = 0;
= n, n = 0, А = А;

А+ А

0

А-В=А·В;
А
В = А ·В и А ·В = А

+

+В -

законы де Моргана.

12 • Раздел первый. Элементарная теория вероятностей и случайных процессов



QJ

~

4

n
А+В
Рис.

n

А·В

1

Рис.

Рис.

2

4

n

А-В

Рис.

Рис.

3

5

В их справедливости можно убедиться с помощью диаграмм Эйле­
ра-Вснна.

[S]

Пример 1.2. Доказать формулу А+ В= А+ АВ.

Q

Используя некоторые из выше приведенных правил, получаем:

А+В

= (А+В)·П = А-П+В·П = А·П+В·(А+А) = А·П+(А+А)·В =

=А· П+А·В+А·В = (П+В) ·А+А· В= П · А+А·В = А+А· В.
Таким образом, сумму любых двух событиi1 можно представитъ в
виде суммы двух несовместных событиu.

Геометрическое доказательство представлено на рис. 6.

А+АВ

А+В
Рис. б



Глава

1.

Случайные события

• 13

Упражнения

1.

Доказать формулы:

1) В= А·В+А·В; 2) (А+С)·(В+С) = А·В+С;

З)А+В=А·В.

2.

Пусть А, В и С

--

три произвольных события. Выразить через них

следующие события: а) произошли все три события; б) произошло
только С; в) произошло хотя бы одно из событий; г) ни одного
события не произошло; д) произошли А и В, но С не произошло;
е) произошло одно из этих событий; ж) произошло не более двух
событий.

3.

Релейная схема (рис.

(i = 1, 6)

7)

состоит из

6

элементов. Пусть события

Ai

состоят в том, что соответствующие элементы работают

безотказно в течение времени Т. Выразить через

Ai

событие, состо­

ящее в том, что схема за время Т работает безотказно.

Рис.

7

1.4. Случайные события. Алгебра событий.
(Теоретико-множественная трактовка)
Определим теперь основные понятия теории вероятностей, следуя

теоретико-множественному подходу, разработанному академиком Кол­
могоровым А. Н. в

1933

году.

Пусть производится некоторый опыт со случайным исходом.
Множество П

= {w}

всех возможных взаимоисключающих исхо­

дов данного опыта называется пространством элементарных событи11

(коротко: ПЭС), а сами исходы w - элементарны.ми событиями (или
«элементами», «точками»).

14 • Раздел первый. Элементарная теория вероятнnстей и случайных процессов
Слу-ч.аiJ:н:ым событием А (или просто событием А) называется лю­

n,

бое подмножество множества

если

n конечно

или счетно (т. е. эле­

менты этого множества можно пронумеровать с помощью множества

натуральных чисел): А~

n.

Элементарные события, входящие в подмножество А пространства

n,

называются благоприятствующими событию А.
Множество

n

называется достоверным событием. Ему благопри­

ятствует любое элементарное событие; в результате опыта оно обяза­
тельно произойдет.

Пустое множество !О называется невозмо:ж:ным событием; в резуль­
тате опыта оно произойти не может.

Пример

Опыт: один раз бросают игральную кость. В этом случае

1.3.

ПЭС таково:

= {1, 2, 3, 4, 5, 6}

f2

ИЛИ

f2

= {W1, Wz, ... , Wв},

ментарное событие, состоящее в выпадении грани с

i

где Wi -

очками

эле­

(i = 1, 6).

n конечно. Примером события А является, например,

В данном случае

выпадение нечетного числа очков; очевидно, что А = { w1, wз,

W5}; со­

бытию А благоприятствуют элементарные события w1, wз, w5. Однако
если нас интересует только факт выпадения четного числа очков, то

n=

ПЭС можно построить иначе:
числа очков,

Пример

n

= {

Н

-

w2 -

{ w1, w2}, где w1 -

выпадение четного

нечетного.

Опыт: стрельба по цели до первого попадания. Тогда

1.4.

ll НП ННП НННП
W1 ' Wz '

W3

'

W4

'

... } где П означает попадание в цель
'

'

непопадание. Исходов у этого опыта бесконечно (теоретически);

n счетно.
Пример

1.5.

Опыт: наблюдение за временем безотказной работы не­

которого агрегата. В этом случае в качестве результата может появить­

ся любое число t

n

= { t, О ~

t <

:;:::: О; время t меняется непрерывно; ПЭС таково:

оо}. Исходов у этого опыта бесконечно,

n несчетно

(континуально).
Над событиями можно проводить все операции, выполнимые для
множеств.

Сумма (или объединение) двух событий А Е
ется А+ В или А

U В) -

n и В Е n (обознача­

это множество, которое содержит элементы,

принадлежащие хотя бы одному из событий А и В.

Произведение двух событий А Е
А

n В) -

n

и В Е

n

(обозначается АВ или

:по мпожество, которое содержит элементы, общие для собы­

тий А и В.

Глава

Разностъ событий А Е

Случайные события

1.

• 15

n и В Е n (обозначается А- В или А \В) -

это множество, которое содержит элементы события А, не принадле­

жащие событию В.

Противополо-:жнъ~м событию А Е

n называется событие

А= П\А.

(А называют также дополнением множества А.)
Собъtтие А вле'Ч,ет событие В (обозначается А~ В), если каждый
элемент события А содержится в В.

По определению: 0 ~ А для любого А.

События А и В называются несовместными, если их произведение
есть невозможное событие, т. е. А

Несколько событий

Ai,

·В =

А2, ...

,

0.

Ап образуют полную группу несов­

местных событий, если их сумма представляет все ПЭС, а сами события
п

несовместны, т. е. Е

Ai =



Ai · Aj = 0 ( i

i- j).

i=l

Полную группу образуют, например, события А и А (А+ А

А· А=

=

n,

0).

В случае несчетного пространства

n,

риваются не все подмножества

n в качестве событий: рассмат­

а лишь некоторые классы этих под­

множеств, называемые алгебрами и О"-алгебрами множеств.

Класс

S

n

подмножеств пространства

называется алгеброtt мно-

жеств (coбъtтutt), если:

1. 0 Е S,

n Е S;

2.

из А Е

S

3.

из А Е

S,

вытекает, что А Е

В Е

S

вытекает, что А+ В Е

Заметим, что в условии
либо АВ Е

S,

S;

так как А

3

S,

А· В Е

S.

достаточно требовать либо А+ В Е

+В =

А

· В,

А

·В

S,

= А + В.

Алгебру событий образует, например, система подмножеств

S =

= {0, n}. Действительно, в результате применения любой из вышепри­
веденных операций к любым двум элементам класса

ется элемент данного класса: 0

+ n = n,

0.

n = 0,

S

0

снова получа­

= n, n = 0.

При расширении операций сложения и умножения на случай счет­

ного множества алгебра множеств

S

называется О"-алгеброй,
00

если из Ап Е

00

S, п = 1, 2, 3, ... , следует Е Ап Е S, П Ап Е S (достаn=l
00

точно требовать либо Е Ап Е
n=l

n=l

00

S, либо П Ап Е S).
n=l

Множество всех подмножеств множества П, если оно конечпо или
счетно, образует алгебру.

16 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

Свойство статистической устойчивости
относительной частоты события

1.5.

Пусть в п повторяющихся опытах некоторое событие А наступило
пл раз.

~

Число пл называется 'Частотоu события А, а отношение

~л = Р*(А)

(1.1)

называется относите.лъноu 'Частотоu (или 'Частостъю) события А в
рассматриваемой серии опытов.

Относительная частота события обладает следующими свойствами:

1.

Частость любого события заключена между нулем и единицей, т. е.

О:::;; Р* (А)

2.

:::;; 1.

Частость невозможного события равна нулю, т. е.

Р*(е;) =О.

3.

Частость достоверного события равна

1,

т. е.

P*(n) = 1.
4.

Частость суммы двух несовместных событий равна сумме часто­

стей этих событий, т. е. если АВ =

eJ,

Р*(А +В) = Р*(А)

О

то

+ Р*(В).

Свойства очевидны, так как О:::;; пл:::;; п для любого события А; для

невозможного события пл= О; для достоверного события пл= п; если
события А и В несовместны (АВ = eJ), то nл+в =пл+ nв, следова­

тельно, Р*(А+В) = nл;в = пл~nв = ппл+п: =Р*(А)+Р*(В). •

Частость обладает еще одним фундаментальным свойством, назы­
ваемым своuством cmamucmu'Ч.ecкou устоu'Ч.ивости: с увеличением чи­
сла опытов (т. е. п) она принимает значения, близкие к некоторому по­

стоянному числу (говорят: «частость стабилизируется, приближаясь
к некоторому числу», «частость колеблется около некоторого числа»,

или «ее значения группируются около некоторого числа»).
Так, например, в опыте - - бросание монеты (однородной, симмет­
ричной, ... ) - - относительная частота появления герба при 4040 броса-

ниях (Ж. Бюффон) оказалась равной 0,5069 = 2048 , а в опыте с 12000

4040

Глава

1.

Случайные события

• 17

12000 и 24000 бросаниями (К. Пирсон) она оказалась равной соответ6018
12012 , т. е. частость приближается
ственно 0 ,5015 =
ООО и 0,5005 =
12
24000
1
к числу
2 = 0,500 .... А частость рождения мальчика, как показывают
наблюдения, колеблется около числа 0,515.
Отметим, что теория вероятностей изучает только те массовые слу­
чайные явления с неопределенным исходом, для которых предполага­
ется наличие устойчивости относительной частоты.

1.6.

Статистическое определение вероятности
Для математического изучения случайного события необходимо
ввести какую-либо количественную оценку события. Понятно, что одни

события имеют больше шансов («более вероятны») наступить, чем дру­
гие. Такой оценкой является веро.ятностъ события, т. е. число, выра­
жающее степень возможности его появления в рассматриваемом опыте.

Математических определений вероятности существует несколько, все
они дополняют и обобщают друг друга.

Рассмотрим опыт, который можно повторять любое число раз (го­
ворят: «проводятся повторные испытания»), в котором наблюдается
некоторое событие А.
Статистическоii,

веро.ятностъю события А называется число,

около которого колеблется относительная частота события А при до­
статочно большом числе испытаний (опытов).

Вероятность события А обозначается символом Р(А). Согласно
данному определению

Р(А) ~ Р*(А) =

n;.

(1.2)

Математическим обоснованием близости относительной частоты Р* (А)
и вероятности Р(А) некоторого события А служит теорема Я. Бернулли
(см. п.

5.3).

Вероятности Р(А) приписываются свойства

1-4

относительной ча­

стотьr:

1.

Статистическая вероятность любого события заключена между ну­
лем и единицей, т. е.

О~ Р(А) ~ 1.

2.

Статистическая вероятность невозможного события равна нулю,
т.е.

Р(0) =О.

18 • Раздел первый. Элементарная теория вероятностей и случайных процессов

Статистическая вероятность достоверного события равна единице,

3.

т. е.

Р(Щ = 1.

Статистическая вероятность суммы несовместных событий равна

4.

сумме вероятностей этих событий, т. е. если А

Р(А +В)= Р(А)

·В =

!О, то

+ Р(В).

Статистический способ определения вероятности, опирающийся на
реальный опыт, достаточно полно выявляет содержание этого поня­

тия. Некоторые ученые (Р. Мизес и другие) считают, что эмпирическое

определение вероятности (т. е. р = lim n;) следует считать основным
n--+oo

определением вероятности.

Недостатком статистического определения является неоднознач­
ность статистической вероятности; так в примере с бросанием монеты

1.5) в качестве вероятности можно принять не только число 0,5, но
0,49 или 0,51 и т. д. Для надежного определения вероятности нуж­

(п.
и

но проделать большое число испытаний (опытов), что не всегда просто

(или дешево).

1 . 7.

Классическое определение вероятности
Существует

способ определения вероятности события,

простой

основанный на равновозможности любого из конечного числа исходов
опыта. Пусть проводится опыт с п исходами, которые можно предста­
вить в виде пол1юi1, группы несов.месm'Н:ых равновоз.моJtСных событий.
Такие исходы называются слу'ч,аJt.ми, шанса.ми, элементарны.ми собы­
mиJt.ми, опыт

--

класси'Ч,ески.м. Про такой опыт говорят, что он сводится

к схе.ме с.11,у'Ч,аев или схе.ме урн (ибо вероятностную задачу для такого
опыта можно заменить эквивалентной ей задачей с урнами, содержа­

щими шары разных цветов).
Случай

w,

который приводит к наступлению события А, называет­

ся благоприJtmны.м (или
влечет событие А:

w

-

благопри.ятствующи.м) ему, т. е. случай

w

~ А.

Веро.ятностъю событи.я А называется отношение числа

m

случаев,

благоприятствующих этому событию, к общему числу п случаев, т. е.

Р(А) = т;:,

(1.3)

Наряду с обозначением Р(А) для вероятности события А используется
обозначение р, т. е. р = Р(А).

Глава

1.

Из классического определения вероятности

Случайные события

(1.3)

• 19

вытекают следу­

ющие свойства:

1.

Вероятность любого события заключена между нулем и единицей,
т.е.

О~ Р(А) ~ 1.

2.

Вероятность невозможного события равна нулю, т. е.

Р(е5) =О.

3.

Вероятность достоверного события равна единице, т. е.

Р(Щ =

4.

1.

Вероятность суммы несовместных событий равна сумме вероятно­

стей этих событий, т. е. если А· В= е5, то

Р(А +В) = Р(А)

+ Р(В).

Они проверяются так же, как и для относительной: частоты (п.

1.5).

В настоящее время свойства вероятности определяются в виде аксиом

(см. п.

1.11).

Пример

1.6.

В урне (емкости) находятся

12

белых и

8

черных шаров.

Какова вероятность того, что наудачу вынутый шар будет белым?

Q

Пусть А но, что п = 12

событие, состоящее в том, что вынут белый шар. Яс­
20 - число всех равновозможных случаев (исхо­

+8 =

дов опыта). Число случаев, благоприятствующих событию А, равно

12,
12
т. е. т = 12. Следовательно, по формуле (1.3) имеем: Р(А) =
20 , т. е.
Р(А) = 0,6.
8

Упражнения

1.

Найти вероятность того, что в наудачу написанном двузначном чи­

сле цифры разные.

2. Набирая номер телефона, абонент забыл 2 последние цифры и на­
брал их наугад. Найти вероятность того, что :набраны :нужпые ци­
фры.

20 • Раздел первый. Элементарная теория вероятностей и случайных процессов

1 .8. Элементы комбинаторики
Согласно классическому определению подсчет вероятности собы­
тия А сводится к подсчету числа благоприятствующих ему исходов.
Делают это обычно комбинаторными методами.
Ко.мбш-tаторих:а -- раздел математики, в котором изучаются за­
дачи выбора элементов из заданного множества и расположения их в
группы по заданным правилам, в частности задачи о подсчете числа

комбинаций (выборок), получаемых из элементов заданного конечно­
го множества. В каждой из них требуется подсчитать число возмож­
ных вариантов осуществления некоторого действия, ответить па вопрос

«СКОЛЬКИМИ способами?».

Многие комбинаторные задачи могут быть решены с помощью сле­
дующих двух важных правил, называемых соответственно правила.ми
умножения и сложения.

Правило у.множени.я, (основной принцип): если из некоторого ко­
нечного множества первый объект (элемент х) можно выбрать п 1 спо­

собами и после каждого такого выбора второй объект (элемент у) мож­
но выбрать n2 способами, то оба объекта (х и у) в указанном порядке
можно выбрать n1 · n2 способами.

Этот принцип, очевидно, распространяется на случай трех и более
объектов.

Пример 1. 7. Сколько трехзначных чисел можно составить из цифр 1,
2, 3, 4, 5, если: а) цифры не повторяются? б) цифры могут повторяться?

Q

Имеется

5 различных способов выбора цифры для первого места

(слева в трехзначном числе). После того как первое место занято, на­
пример, цифрой

2,

осталось четыре цифры для заполнения второго

места. Для заполнения третьего места остается выбор из трех цифр.
Следовательно, согласно правилу умножения имеется

5·4·3

= 60 спо­

собов расстановки цифр, т. е. искомое число трехзначных чисел есть

60. (Вот некоторые из этих чисел: 243, 541, 514, 132, ... ) Понятно, что
если цифры могут повторяться, то трехзначных чисел 5 · 5 · 5 = 125.
8
(Вот некоторые из них: 255, 333, 414, 111, ... )
Правило сум.мы. Если некоторый объект х можно выбрать n1 спосо­
бами, а объект у можно выбрать

n2

способами, причем первые и вторые

способы не пересекаются, то любой из указанных объектов (х или у),
можно выбрать ni

+ п2 способами.

Это правило распространяется на любое конечное число объектов.

Глава

Пример

1.8.

В студенческой группе

14

Случайные события

1.

девушек и

6

• 21

юношей. Сколь­

кими способами можно выбрать, для выполнения различных заданий,
двух студентов одного пола?

О

По правилу умножения двух девушек можно выбрать

способами, а двух юношей

-

6 · 5 = 30

14 · 13 = 182

способами. Следует выбрать

двух студентов одного пола: двух студенток или двух юношей. Соглас­
но правилу сложения таких способов выбора будет

182

+ 30 =

212.

8

Решение вероятностных (и не только их) задач часто облегчается,
если использовать комбинаторные формулы. Каждая из них опреде­

ляет число всевозможных исходов в некотором опыте (эксперименте),
состоящем в выборе наудачу

m

элементов из п различных элементов

рассматриваемого множества.

Существуют две схемы выбора m элементов (О < m ~ п) из исход­
ного множества: без возвращения (без повторений) и с возвращением (с
повторением). В первом случае выбранные элементы не возвращаются
обратно; можно отобрать сразу все

m

элементов или последовательно

отбирать их по одному. Во второй схеме выбор осуществляется поэле­

ментно с обязательным возвращением отобранного элемента на каждом
шаге.

Схема выбора без возвращений
Пусть дано множество, состоящее из п различных элементов.

Размещением из п элементов по m элементов (О

<

m ~ п) назы­

вается любое упорядоченное подмножество данного множества, содер­
жащее

m

элементов.

Из определения вытекает, что размещения нации), состоящие из

m

это выборки (комби­

элементов, которые отличаются друг от друга

либо составом элементов, либо порядком их расположения.

Число размещений из п элементов по

m элементов обозначается

символом А~ («А из эн поэм») и вычисляется по формуле

А~= п(п - 1)(п -

2) · ". · (п - m

+ 1)

(1.4)

или

Ат=
п

п!
(n-m)!'

где

п! = 1 · 2 · 3 · ... · п,

1! = 1,

О!= 1.

(1.5)

22 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

Q

Для составления размещения А~ надо выбрать т элементов из

множества с п элементами и упорядочить их, т. е.

заполнить т мест

элементами множества. Первый элемент можно выбрать п способами,
т. е. на первое место можно поместить любой из п элементов. После
этого второй элемент можно выбрать из оставшихся п

- 1 элементов
- 1 способами. Для выбора третьего элемента имеется п - 2 способа,
четвертого - п - 3 способа, и, наконец, для последнего m-го элемен­
та (п - (т - 1)) способов. Таким образом, по правилу умножения,
существует п (п - 1) (п - 2) ... (п - (т - 1)) способов выбора т элементов
из данных п элементов, т. е. А~= п(п - l)(n - 2) ... (п - т + 1).

п

Пример

жества

Q

1.9.

D

Составить различные размещения по

= {а,Ь,с};

2 из

элементов мно­

подсчитать их число.

Из трех элементов можно образовать следующие размещения по

два элемента: (а, Ь), (Ь, а), (а, с), (с, а), (Ь, с), (с, Ь). Согласно форму­

ле (1.4) их число: А~= 3 · 2 = 6.

8

Перестановкоil, из п элементов называется размещение из п эле­
ментов по п элементов.

Из определения вытекает, что перестановки -

это выборки (ком­

бинации), состоящие из п элементов и отличающиеся друг от друга

только порядком следования элементов. Число перестановок из п эле­

ментов обозначается символом Рп («пэ из эн») и вычисляется по фор­
муле

Рп
Формула

(1.6)

следует из определения перестановки:

Рп =

Пример

жества Е

Q

(1.6)

=n!.

_ r
А пп = (п -n! п)! -_ n!
О! - п ..

1.10. Составить различные перестановки
= {2, 7, 8}; подсчитать их число.

из элементов мно­

Из элементов данного множества можно составить следующие пе­

рестановки: (2, 7, 8); (2, 8, 7); (7, 2, 8); (7, 8, 2); (8, 2, 7); (8, 7, 2). По фор­
муле (1.6) имеем: Рз = З! = 1 · 2 · 3 = 6.
8
Пример 1.11. Сколькими способами можно расставить на полке 5
различных книг?

Глава

Случайные события

1.

Искомое число способов равно числу перестановок из
(книг), т. е. Ps
5! 1 "2 · 3 · 4 · 5 120.

Q

= =

=

Со'Чеmанием из п элементов по т (О

<

т

:::;;

• 23

5 элементов
8

п) элементов назы­

вается любое подмножество, которое содержит т элементов данного
множества.

Из определения вытекает, что сочетания

--

это выборки (комбина­

ции), каждая из которых состоит из т элементов, взятых из данных
п элементов, и которые отличаются друг от друга хотя бы одним эле­
ментом, т. е. отличаются только составом элементов.

Число сочетаний из п элементов по т элементов обозначается сим­

волом С;:1'

(«цэ

из эн по эм») и вычисляется по формуле

с;= п(п - 1)(п - 2) ... (п - т

+ 1)

(1.7)

1·2. 3 .. . т
или

ст=
n

О

п!
m!(n -m)!

(1.8)

Число А~ размещений из п элементов по т элементов можно най­

ти следующим образом: выбрать т элементов из множества, содержа­

щего п элементов (это можно сделать С;[1' способами); затем в каж­
дом из полученных сочетаний (подмножеств) сделать все перестанов­
ки для упорядочения подмножеств (это можно сделать Рm способа­
ми). Следовательно, согласно правилу умножения, можно записать:

·

А~= С;:1' ·Рт. Отсюда С;:1'

ст=
n

=

А~
п(п - 1)(п - 2) ... (п - т
п- =
l. 2 . З .•• m
Гт

п!

т!(п

+ 1)

или

8

- m)!

Можно показать, что имеют место формулы:

с;= с~-т,

с~+ с~+ с~+

сnт =
Формулу

(1.9)

(т:::;; п),

... + с~= 2n,
ст + ст-1
(1 < т < n ) ·
n-1
n-1 '

(1.9)
(1.10)

(1.11)

удобно использовать при вычислении сочетаний:, когда

т > ~·Так, Cfg

=

С[5

=

f: ~

1

4

= 105.

Формула (1.10) выражает число

всех подмножеств множества из п элементов (оно равно2n). Числа

С~, С~, С~, ... , с;:: являются коэффициентами в разложении бинома
Ньютона: (а+ b)n = С~аnьо + С~ап- 1 ь + ... + с;::а 0 ьп.

24 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

Пример 1.12. Составить различные сочетания по 2 из элементов мно­
жества

Q

D=

{а, Ь, с}; подсчитать их число.

Из трех элементов можно образовать следующие сочетания по два

элемента: (а, Ь); (а, с); (Ь, с). Их число: С~
Пример

1.13.

~: ~

= 3

(формула

(1.7)) .



Сколькими способами можно выбрать

в которой стоят

3 цветка из вазы,
10 красных и 4 розовых гвоздики? А если выбрать 1

красную гвоздику и

Q

=

2

розовых?

Так как порядок выбора цветов не имеет значения, то выбрать

3

цветка из вазы, в которой стоят 14 гвоздик, можно Cf4 способами. По
формуле (1.7) находим: Cf4 = 14 -_ 1;_· 12 = 7 · 13 · 4 = 364. Далее: крас­
1
3
ную гвоздику можно выбрать С[0 = 10 способами. Выбрать две розовые

гвоздики из имеющихся четырех можно

Cl =

{ : ~ = 6 способами. По­

этому букет из одной красной и двух розовых гвоздик можно составить,

по правилу умножения, С[0 ·

Ci =

10 · 6

=

60 способами.

8

Схема выбора с возвращением

Если при выборке т элементов из п элементы возвращаются обрат­
но и упорядочиваются,

то говорят,

что это размещени.я,

с

повторе­

ни.ями.

Размещения с повторениями могут отличаться друг от друга эле­

ментами, их порядком и количеством повторений элементов. Число
всех размещений из п элементов по т с повторениями обозначается
символом А~ и вычисляется по формуле

(1.12)

Пример

1.14.

Из

3

элементов а, Ь, с составить все размещения по два

элемента с повторениями.

Q

По формуле

(1.12)

число размещений по два с повторениями равно

А~ = 32 = 9. Это: (а, а), (а, Ь), (а, с), (Ь, Ь), (Ь, а), (Ь, с), (с, с), (с, а), (с, Ь) .



Глава

Пример

Случайные события

• 25

Сколько пятизначных чисел можно составить, исполь­

1.15.

зуя цифры: а)

1.

б) О,

2, 5, 7, 8;

1, 9?
2, 5, 7, 8,

отли­

чаются друг от друга либо порядком их следования (например,

25558

Q
и

а) Все пятизначные числа, составленные из цифр

52855), либо самими цифрами (например, 52788 и 78888). Следова­
4 элементов по 5 с повторени­

тельно, они являются размещениями из

ями, т. е. А~. Таким образом, искомое число пятизначных чисел равно
А~ = 45 = 1024. Этот же результат можно получить, используя правило
умножения: первую цифру слева в пятизначном числе можно выбрать
четырьмя способами, вторую
четырьмя, четвертую
ется

4·4·4·4·4

=

1024

тоже четырьмя способами, третью

-

четырьмя, пятую

---

четырьмя. Всего получа­

пятизначных чисел.

б) Если пятизначные числа состоят из цифр О,

1, 9,

то первую ци­

фру слева можно выбрать двумя способами (О не может занимать пер­
вую позицию), каждую из оставшихся четырех цифр можно выбрать
тремя способами. Согласно правилу умножения, таких чисел будет

2·3·3·3·3

= 162.

(Иначе: А~

- Aj = 243 - 81 = 162.)

8

Если при выборке m элементов из п элементы возвращаются обрат­
но без последующего упорядочивания, то говорят, что это СО'Ч,еmани.я с
повторен и.я.ми.

Число всех сочетаний из п элементов по

m

с повторениями обозна­

чается символом с-;:: и вычисляется по формуле

(1.13)
Пример

1.16.

Из трех элементов а, Ь, с составить все сочетания по

два элемента с повторениями.

Q

По формуле

(1.13)

Cj = Cj+ 2 _ 1 = С1 =

число сочетаний по два с повторениями равно

i: ~ =

6.

Составляем эти сочетания с повторени­

ями: (а,а), (а,Ь), (а,с), (Ь,Ь), (Ь,с), (с,с).
Пример

1.17.

8

Сколькими способами можно составить букет из

5 цве­

тов, если в наличии есть цветы трех сортов?

Q

Рассматриваемое множество состоит из трех различных элементов,

а выборки имеют объем, равный

Поскольку порядок расположения

5.

цветов в букете не играет роли, то искомое число букетов равно чи­

слу сочетаний с повторениями И3 трех :'Jлемептов по 5 в каждом. По
-5 -

5 -

7-5 -

формуле (1.13) имеем С3 - С7 - С7

2 -

С7 -

7. 6 -- 21.
.

Г2



26 • Раздел первый. Элементарная теория вероятностей и случайных процессов

Пусть в множестве с п элементами есть k различных элементов,
при этом 1-й элемент повторяется n1 раз, 2-й элемент - п 2 раз ... , k-й
nk раз, причем п 1 + n2 + ... + nk = п.
элемент Перестановки из п элементов данного множества называют пере­

становками с повторениями и.з п элементов.

Число перестановок с повторениями из п элементов обозначается
символом Рп(n1, n2, ... , nk) и вычисляется по формуле

(1.14)

Пример 1.18. Сколько различных пятизначных чисел можно соста­
вить из цифр

Q

3, 3, 5, 5, 8?

Применим формулу (1.14). Здесь п = 5, n1 = 2, n2 = 2, nз = 1. Чи­

сло различных пятизначных чисел, содержащих цифры

Р5 (2, 2, 1)

=

5!
2!. 2!. l!

= 30.

3, 5

и

8,

равно

8

Упражнения

1 . Сколько разЛичных «слов», состоящих из трех букв, можно обра­
зовать из букв слова БУРАН? А если «слова» содержат не менее
трех букв?

2.

Сколькими способами можно выбрать один цветок из корзины, в
которой имеется

3.

12

гвоздик,

Группа студентов изучает

15
10

роз и

7

хризантем?

различных дисциплин. Сколькими

способами можно составить расписание занятий в понедельник,
если в этот день должно быть

4.

Из

10

мальчиков и

10

4

разных занятия?

девочек спортивного класса для участия в

эстафете надо составить три команды, каждая из которых состоит

из мальчика и девочки. Сколькими способами это можно сделать?

5.

Сколько можно составить четырехзначных чисел так, чтобы любые
две соседние цифры были различны?

Глава

6.

В электричке

4

12 вагонов.

Случайные события

1.

• 27

Сколько существует способов размещения

пассажиров, если в одном вагоне должно быть не более одного

пассажира?

7.

Сколькими способами

10

8.

Из

3

награды могут быть распределены между

участниками соревнования?

4

первокурсников,

выбрать

5

второкурсников и

6

третьекурсников надо

студента на конференцию. Сколькими способами мож­
но осуществить этот выбор, если среди выбранных должны быть

3

студенты разных курсов?

9.

Сколькими способами можно расставить на по:Лке 7 различных
книг, чтобы определенные три книги стояли рядом? Не рядом?

1 О. Сколькими

способами можно рассадить

5

человек за круглым сто­

лом? (Рассматривается только расположение сидящих относитель­

но друг друга.)

11. 10 студентов, среди которых С. Федин и А. Шилов, случайным обра­
зом занимают очередь в библиотеку. Сколько имеется вариантов

расстановки студентов, когда между Фединым и Шиловым окажут­
ся

6 студентов?

12. У

одного школьника имеется 7 различных книг для обмена, а у
другого -16. Сколькими способами они могут осуществить обмен:
книга на книгу? Две книги на две книги?

13. В урне 12 белых и 8 черных шаров. Сколькими способами можно
выбрать 5 шаров, чтобы среди них было: а) 5 черных; б) 3 белых и
2 черных?
14. Сколькими способами можно распределить 15 выпускников по трем
районам, если в одном из них имеется 8, в другом - 5 и в третьем -2 вакантных места?
15. Известно, что 7 студентов сдали экзамен по теории вероятностей на
хорошо и отлично. Сколькими способами могли быть поставлены
им оценки?

16. Игральная кость (на ее 6 гранях нанесены цифры от 1 до 6) бро­
сается 3 раза. Сколько существует вариантов выпадения очков в
данном опыте? Напишите некоторые из них.

28 • Раздел первый. Элементарная теория вероятностей и случайных процессов

17. Сколькими

способами можно распределить

6

различных подарков

между четырьмя ребятишками?

18. Сколькими способами можно
имеется 4 сорта пирожных?

составить набор из

19. Группа учащихся из 8 человек

6 пирожных, если

отправляется в путешествие по Кры­

му. Сколькими способами можно составить группу из учащихся

5-7

классов?

20. Сколькими

способами можно распределить

4

книги на трех пол­

ках книжного шкафа? Найти число способов расстановки книг на
полках, если порядок их расположения на полке имеет значение.

21. Сколько

«слов» можно получить, переставляя буквы в слове:

а) ГОРА; б) ИНСТИТУТ?

22. Сколько

существует способов размещения

9

человек в двухмест­

ный, трехместный и четырехместный номера гостиницы?

23. Сколькими

способами можно распределить

16

видов товаров по

трем магазинам, если в 1-й магазин надо доставить

4,

1.9.

а в третий

-- 3

9,

во 2-й

-

вида товаров?

Примеры вычисления вероятностей
Пример

1.19.

В урне находятся

12

белых и

вероятность того, что среди наугад вынутых

Q

Выбрать 5 шаров из 20 можно

борки -

т. е. п

=

8 черных шаров. Найти
5 шаров 3 будут черными?

Cq0 различными способами (все вы­

неупорядоченные подмножества, состоящие из 5 элементов),
С~0 • Определим число случаев, благоприятствующих событию

В -- «среди 5 вынутых шаров 3 будут черными». Число способов вы­
брать 3 черных шара из 8, находящихся в урне, равно
Каждому
такому выбору соответствует Cf2 способов выбора 2-х белых шаров из
12 белых в урне. Следовательно, по основному правилу комбинаторики
(правилу умножения), имеем: m =
Cf2 . По формуле (1.3) находим,

Cg.

Cg ·

что Р(В) =

С~. Ci2
5

С20

~

0,24.



Глава

1.

Случайные события

• 29

Пример

1.20. В коробке 5 синих, 4 красных и 3 зеленых карандаша.
Наудачу вынимают 3 карандаша. Какова вероятность того, что: а) все
они одного цвета; б) все они разных цветов; в) среди них 2 синих и 1
зеленый карандаш.

О

Сначала заметим, что число способов выбрать

3 карандаша из 12

= cr2 = 220.
3 синих карандаша ИЗ 5 можно с~ способами; 3 крас­
ных из имеющихся 4 можно выбрать Cl способами; 3 зеленых из 3
зеленых - С~ способами.
имеющихся в наличии равно п
а) Выбрать

По правилу сложения общее число т случаев, благоприятствую­
щих событию А

= {три карандаша, вынутых из коробки, одного цвета},

равно т = С~ + Cl + Cl = 15. Отс~да Р(А) = Т:: = 21250 =

1
4

.

б) Пусть событие В= {три вынутых карандаша разных цветов}.

Число

m

исходов, благоприятствующих наступлению события В, по

правилу умножения равно т

Р(А) =

=

r:: = 26200 = 131.

Cg · Cl · Cj

в) Пусть событие С = {из трех выбранных карандашей

1

зеленый}. Выбрать

2 синих

карандаша из имеющихся

Cg способами, а 1 зеленый из имеющихся 3 зеленых Отсюда по правилу умножения имеем: т = Cg · Cj
Р(С) = 7;: = 23200 = 232.
Пример

1.21.

Поэтому

= 5 · 4 · 3 = 60.
2

синих и

5 синих можно
Cj способами.
= 30. Поэтому
8

Дано шесть карточек с буквами Н, М, И, Я, Л, О. Найти

вероятность того, что: а) получится слово ЛОМ, если наугад одна за
другой выбираются три карточки; б) получится слово МОЛНИЯ, если
наугад одна за другой выбираются шесть карточек и располагаются в
ряд в порядке появления.

О

а) Из шести данных букв можно составить п =А~

= 120

трехбук­

венных «слов» (НИЛ, ОЛЯ, ОНИ, ЛЯМ, МИЛ и т. д.). Слово ЛОМ

= 1. Поэтому вероятность
появления слова ЛОМ (событие А) равна Р(А) = Т:: = l~O.
при этом появится лишь один раз, т. е. т

б) Шестибуквенные «слова» отличаются друг от друга лишь по­

рядком расположения букв (НОЛМИЯ, ЯНОЛИМ, ОЛНИЯМ и т.д.).
Их число равно числу перестановок из

6 букв, т. е. п

=

Р5

= 6!.

Очевид­

но, что т = 1. Тогда верояпюсть появления слова МОЛНИЯ (событие

В) равна Р(В) = Т:: =

i! = 7~0 .

8

30 • Раздел первый. Элементарная теория вероятностей и случайных процессов

Пример 1.22. В почтовом отделении имеются открытки 6 видов. Ка­
кова вероятность того, что среди

4

проданных открыток все открытки:

а) одинаковы, б) различны?

Выбрать 4 открытки 6 видов можно

Q
п =

=

126 способами, т. е.

126.
а) Пусть событие А

rn

ct

{продано 4 одинаковые открытки}. Число

=

исходов, благоприятствующих наступлению события А, равно числу

видов открыток, т. е.

rn = 6.

Поэтому

Р(А) = 1~6 = А.

б) Пусть событие В= {проданы 4 различные открытки}. Выбрать
= 15 способами, т. е. rn = 15. Следовательно,

4 открытки из 6 можно
1
Р(В) = 1 56 =

2 12.

ct

е

Упражнения

1.

В лифт 9-этажного дома вошли

4

человека. Каждый из них неза­

висимо друг от друга может выйти на любом (начиная со второго)
этаже. Какова вероятность того, что все вышли: а) на разных эта­

жах; б) на одном этаже; в) на

2.

Из колоды карт (их

36)

5

этаже?

вытаскивают наудачу

ятность того, что будут вытащены

3.

2

туза и

3

5

карт. Какова веро­

шестерки?

Семь человек рассаживаются наудачу на скамейке. Какова веро­
ятность того, что два определенных человека будут сидеть рядом?

4.

На

5 карточках

разрезной азбуки изображены буквы Е, Е, Л, П, П.

Ребенок случайным образом выкладывает их в ряд. Какова веро­

ятность того, что у него получится слово ПЕПЕЛ?

5.

Из

ет

60 вопросов, входящих в экзаменационные билеты, студент зна­
50. Найти вероятность того, что среди 3-х наугад выбранных

вопросов студент знает: а) все вопросы; б) два вопроса.

6.

В барабане револьвера

7 гнезд,

из них в

5 заложены

патроны. Бара­

бан приводится во вращение, потом нажимается спусковой курок.

Какова вероятность того, что, повторив такой опыт

2

раза подряд:

а) оба раза пе выстрелит; б) оба раза револьвер выстрелит?

Глава

7.

Для проведения соревнования

10

Случайные события

1.

команд, среди которых

3

лиде­

ра, путем жеребьевки распределяются на

2

в каждой. Какова вероятность того, что

лидера попадут в одну

группу,

1 лидер -

2

группы по

• 31

5

команд

в другую?

8. Из колоды карт (их 36) наугад вынимают 2 карты. Найти вероят­
ность, что среди них окажется хотя бы одна «дама».

1. 1 О.

Геометрическое определение вероятности
Геометрическое определение вероятности применяется в случае,

когда исходы опыта равновозможны, а пэс (или

n)

есть бесконечное

несчетное множество. Рассмотрим на плоскости некоторую область О,
имеющую площадь

(см. рис.

Sn,

и внутри области

n область D

с площадью Sп

8).

Рис.

В области

8

n случайно выбирается точка Х.

Этот выбор можно ин­

терпретировать как бросание то-ч,ки Х в об.ластъ О. При этом попа­
дание точки в область

n-

достоверное событие, в

Предполагается, что все точки области

D -

случайное.

n равноправны (все элементар­

ные события равновозможны), т. е. что брошенная точка может попасть
в любую точку области

n и вероятность

попасть в область

D

пропор­

циональна площади этой области и не зависит от ее расположения и

формы. Пусть событие А= {ХЕ
область

D},

т. е. брошенная точка попадет в

D.

Геометри-ч,ескоu веро.я,тностъю событи.я, А называется отношение

площади области

D

к площади области

n,

Р(А) = ~~.

т. е.

(1.15)

32 • Раздел первый. Элементарная теория вероятностей и случайных процессов

Геометрическое определение вероятности события применимо и в

n

случае, когда области

и

D обе линейные или объемные. В первом

случае

во втором

где

l -

Р(А) = ~~,

(1.16)

Р(А)

(1.17)

-

длина, а

V --

Все три формулы

mes

~,

объем соответствующей области.

((1.15)), ((1.16)), ((1.17)) можно записать в виде
Р(А)

где через

=

обозначена мера

= mesD

mesn'

(S, l, V)

(1.18)

области.

Геометрическая вероятность обладает всеми свойствами, присущи­
ми классическому (и другим) определению:

1.

Геометрическая вероятность любого события заключена между ну­
лем и единицей, т. е.

О~ Р(А) ~ 1.

2.

Геометрическая вероятность невозможного события равна нулю,
т.е.

Р(0) =О.

3.

Геометрическая вероятность достоверного события равна единице,
т.е.

Р(Щ

4.

=

1.

Геометрическая вероятность суммы несовместимых событий равна

сумме вероятностей этих событий, т. е. если А· В= 0, то

Р(А +В)= Р(А)

=

+ Р(В).

Проверим, например, свойство 4: пусть А = {х Е Di}, В =
D 2 }, где D 1 · D 2 = 0, т. е. Di и D2 непересекающиеся области.

{х Е

Тогда Р(А +В)= Svs~D 2 = ~1 + ~2 = Р(А) + Р(В).
Пример

1.23. (Задача о встрече.) Два человека договорились о встре­
че между 9 и 10 часами утра. Пришедший первым ждет второго в те­
чение 15 мин_, после чего уходит (если не встретились). Найти веро­
лтrюсть того, что встр(~Ча состоится, если каждый наудачу выбирает
момент своего прихода.

Глава

Пусть х -

О

чения х и· у: О

1.

Случайные события

• 33

время прихода первого, а у -- второго. Возможные зна­

:::;;

х

:::;; 60,

О

:::;;

у

:::;; 60

(в качестве единиц масштаба

возьмем минуты), которые на плоскости Оху определяют квадрат со
стороной, равной
ющихся (см. рис.

60. Точки этого квадрата изображают время встреча­
9).
у

50-1-~~~~~~

15
о

60

15
Рис.

Тогда

n=

{(х,у): О:::;; х:::;;

х

9

60,0:::;; у:::;; 60}; все исходы n равновоз­
- лица встретят­

можны, так как лица приходят наудачу. Событие А
ся

произойдет, если разность между моментами их прихода будет не

-

15 мин (по модулю), т.е. А= {(х,у): IY- xl:::;; 15}. Неравенство
15, т. е. х - 15 :::;; у :::;; х + 15 определяет область, заштри­
хованную на рис. 9, т. е. точки полосы есть исходы, благоприятству­
ющие встрече. Искомая вероятность определяется по формуле (1.15):
7
602 - 2 . ~ . 45 . 45
= 16 ~ 0,44.
602
Р(А) =

более

IY - xl : :;



Упражнения

1.

В круг радиуса

R

вписан правильный треугольник. Найти вероят­

ность того, что точка, брошенная в этот круг, попадет в данный
треугольник.

2.

На отрезке [О,

5]

случайно выбирается точка. Найти вероятность то­

го, что расстояние от нее до правого конца отрезка не превосходит

1,6
3.

единиц.

Стержень длины

l

разломан в двух наугад выбранных точках. Най­

ти вероятность того, что из полученных отрезков можно составить
треугольник.

34 • Раздел первый. Элементарная теория вероятностей и случайных процессов

1 . 11 .

Аксиоматическое определение вероятности
Аксиоматическое построение теории вероятностей создано в начале

30-х годов академиком А. Н. Колмогоровым. Аксиомы теории вероят­
ностей вводятся таким образом, чтобы вероятность события обладала
основными свойствами статистической вероятности, характеризующей

ее практический смысл. В этом случае теория хорошо согласуется с
практикой.

Пусть

n --

множество всех возможных исходов некоторого опы­

та (эксперимента),
совокупность

S

S --

алгебра событий. Напомним (см. п.

подмножеств множества

n

1.4),

что

называется алгеброit (а­

алгеброit), если выполнены следующие условия:

1. S содержит невозможное и достоверное события.
2. Если события Ai, А2, Аз, ... (конечное или счетное
принадлежат S, то S принадлежит сумма, произведение и
(т. е. противоположное для Ai) этих событий.

множество)
дополнение

Веро.я,тностъю называется функция Р(А), определенная на алгеб­
ре событий

S,

принимающая действительные значения и удовлетворя­

ющая следующим аксиомам:

Al.

Аксиома неотри'Цателъности: вероятность любого события А Е

S

неотрицательна, т. е.

Р(А) ~О.
А2. Аксиома нормированности: вероятность достоверного события
равна единице, т. е.

Р(Щ

= 1.

АЗ. Аксиома аддитивности: вероятность суммы несовместных собы­

тий равна сумме вероятностей этих событий, т. е. если Ai · Aj = !21

(i

-1 j), то

Совокупность объектов
ных событий,

(f!, S, Р),

S -- алгебра событий,

Р

где

-

n -- пространство элементар­
числовая функция, удовлетво­

ряющая аксиомам Аl-АЗ, называется веро.ятностнъtм пространством
случайного эксперимента.

Вероятностное пространство служит математической моделью лю­
бого случайного явления; заданием этого пространства завершается ак­

сиоматика теории вероятностей.

Глава

1 . 12.

1.

Случайные события.•

35

Свойства вероятностей
Приведем ряд свойств вероятности, являющихся следствием акси­

ом Колмогорова.

Cl.

Вероятность невозможного события равна нулю, т. е.
Р(0) = О.

С2. Сумма вероятностей противоположных событий равна единице,
т. е.

Р(А)

+ Р(А)

= 1.

СЗ. Вероятность любого события не превосходит единицы, т. е.

Р(А)

::::;; 1.

С4. Если А ~ В, т. е. событие А влечет за собой событие В, то
Р(А)::::;; Р(В).
С5. Если события А1, А2,

... , An

образуют полную группу несовмест­

п

ных событий, т. е.

2::::: Ai = П и Ai · Аз =

0, то

i=l

n

LP(Ai) = 1.
i=l

О

Cl. Так как А+ 0 =А и А· 0 = 0, то согласно аксиоме АЗ имеем

+

Р(А)
Р(0) = Р(А), следовательно, Р(0) =О.
С2. Поскольку А+А = П, то Р(А+А) = Р(П), а так как А·А = 0,
то в силу аксиом А2 и АЗ получаем Р(А)

+ Р(А) =

1.

СЗ. Из свойства С2 вытекает, что Р(А) = 1 - Р(А). С учетом ак­
сиомы

Al

получаем Р(А)

::::;; 1.

С4. Так как В = (В - А)

+

А при А ~ В и (В - А) · А = 0, то

согласно аксиоме АЗ получаем Р(В) = Р(В-А)+Р(А). Но Р(В-А)
(аксиома

?

О

Al), поэтому Р(В) ? Р(А).
С5. Так как А 1 + А 2 + ... + An = П, то, согласно аксиомам А2 и АЗ,
имеем Р(А1 + А2 + ... + Ап) = Р(А1) + Р(А2) + ... + Р(Ап) = 1.
8
Заметим, что из Р(А) =О не следует А= 0.


36 • Раздел первый. Элементарная теория вероятностей и случайных процессов
Пример 1.24. Из колоды, содержащей 36 карт, наудачу вынимают три
карты. Найти вероятность того, что среди них окажется хот.я бы одна
«дама».

Q

Пусть А - интересующее нас событие, А 1

мы», А2

-

появление одной «да­

-- двух «дам», Аз - трех «дам». Тогда А

причем события

Ai,

=

А1

А2, Аз несовместные. Поэтому Р(А)

=

Р(А 1 )

+

Число всевозможных случаев выбора трех карт из 36
число случаев, благоприятных событиям Ai, А2, Аз, соот­

+ Р(А2) + Р(Аз).
равно CJ6 ;

+ А 2 +Аз,

CJ · Ci2,' m2 = Ci · С:Ь, mз = Ci · cg2. Таким
ci4 . с2з2 + с24 .зс1з2 + сз4 . соз2 ~ 0,31.

ветственно равно m1 =
образом, Р(А)

=

Сзб

Задача решается проще, если воспользоваться свойством С2. Находим Р(А), где А --- среди вынутых карт нет ни одной «дамы»! Р(А) =
сз

= ; 2 ~ 0,69. Значит, Р(А) =
Сзб

1 . 1 3.

1 - 0,69

= 0,31.

8

Конечное вероятностное пространство
Пусть производится некоторый опыт (эксперимент), который имеет

конечное число возможных исходов

П

= {W1, W2, ... , Wn}

(ИЛИ КОРОТКО П

w 1 , w2,

wз,

= {W}) -

... ,

Wn. В этом случае

конечное ПрОСТраНСТВО,

S - - алгебра событий, состоящая из всех (их 2п) подмножеств множе­
ства

n.

Каждому элементарному событию Wi Е

n, i =

1, 2, ... , п

поставим в

соответствие число р( Wi), которое назовем «вероятностью элементарно­
го события», т. е. зададим на

n числовую функцию, удовлетворяющую

двум условиям:

1)

условие неотрицательности: р( Wi) ;:::: О для любого

wi

Е П;

п

2) условие нормированности

L

p(wi)

=

1.

i=l

Веро.ятностъ Р(А) для любого подмножества А Е ~~определим как
сумму

Р(А) =

L р(щ),

(1.19)

WiEA

т. е. вероятностью Р(А) события А назовем сумму вероятностей элемен­
тарных событий, составляющих событие А. Введенная таким образом

Глава

Случайные события

1.

• 37

вероятность удовлетворяет аксиомам Колмогорова (А 1-АЗ):
п

Р(А) ~О,

P(n)

= L р(щ) = LP(wi) = 1,
w;Ef2

Р(А +В) =

р(щ) = L

L
w;EA+B

если АВ

p(wi) + L

WiEA

= !О, т. е. А и В

деленная тройка

i=l

{fl, S, Р}

-

p(wi) = Р(А) + Р(В),

w;EB

два несовместных события. Так опре­

есть конечное вероятностное пространство,

называемое «дискретным вероятностным пространством».

Частным случаем определения вероятности

( 1.19) является r.:.лac­

cи"iecr.:oe определение веро.ятности, когда все исходы опыта равновоз­

можны: p(w1) = p(w2) = ...

=

р(wп)

k (следует из условия нормиро-

=

п

L

ванности:

р(щ)

= 1).

Формула

(1.19) приобретает вид:

i=l

Р(А) =

L

р(щ) =

k + k + ... + k = r;:'

w;EA

т. е. Р(А)
событие А

= 7,;:,
(т. е.

где т т

-

m.

число элементарных событий, образующих

число случаев, благоприятствующих появлению

события А).

1.14.

Условные вероятности
Пусть А и В

-- два события,

рассматриваемые в данном опыте. На­

ступление одного события (скажем, А) может влиять на возможность

наступления другого (В). Д.л.я характеристики зависимости оdних со­
бытии от других вводится понятие условной вероятности.
Ус.ловноu веро.ятностъю события В при условии, что произошло
событие А, называется отношение вероятности произведения этих со­

бытий к вероятности события А, причем Р(А)

i-

О, обозначается сим­

волом P(BIA).
Таким образом, по определению

P(BIA)

=

Р(А ·В)

Р(А)

,

Р(А)

i-

О.

(1.20)

Вероятность Р(В), в отличие от условной, называется безус.ловно.f.i ве­
ро.ятностъю.

38 •

Раздел первый. Элементарная теория вероятностей и случайнь~х процессов

Аналогично определяется условная вероятность события А при

условии В, т. е. Р(А\В):

P(AIB) = Р(А . В)
Р(В)

Р(В)

'

Отметим, что условная вероятность, скажем

ет аксиомам Колмогорова (п.
Р(П · А)
.Р(А)

·=

Р(А)

= Р(А) = 1; Р((В

1.11): P(BIA)

=f О.

(1.21)

P(BIA),

удовлетворя­

~ О, очевидно; Р(ЩА) =

+ C)IA) = P(BIA) + P(CIA),

если В. С=

= 0. Поэтому для условной вероятности справедливы все следствия
(свойства) из аксиом, полученные в п.

1.12.

Формула

(1.20)

принимает­

ся по определению при аксиоматическом определении вероятности;

в

случае классического (геометрического, статистического) определения
она может быть доказана.
Пример

1.25.

В урне

2 белых и 7 черных шаров.

Из нее последователь­

но вынимают два шара. Какова вероятность того, что 2-й шар окажется

белым при условии, что 1-й шар был черным?

Q

Решим задачу двумя способами.

1.

Пусть А-1-й шар черный, В-- 2-й шар белый. Так как событие

А произошло, то в урне осталось

Р(В!А) =

2

s=

1

4.

8 шаров,

из которых

.

2 белых.

Поэтому

·

2. Найдем P(BIA) по формуле (1.20). Очевидно, что Р(А) = ~.
Находим Р(АВ): п = 9 · 8 = 72 - общее число исходов (появление двух
шаров). Событию АВ благоприятствуют т = CJ · Cj = 14 исходов.
7 -- 4.
1

Поэтому Р(АВ) = 14 = 7 . Следовательно, Р (В IA) -- 7 .. 9
36
72
36

1.15. Вероятность произведения событий.
Независимость событий
Из определения условной вероятности (п.

1.14)

следует, что

Р(А ·В) = Р(А) · Р(В!А) = Р(В) · P(AJB),

(1.22)

т. е. веро.ятностъ произведения двух событий равна произведению ве­
роятности одного из них на условную вероятность другого при условии,

что первое событие произошло.

Глава

Равенство

(1.22)

1. Случайные события • 39

называют правилом или теоремоi1 (для схемы слу­

чаев оно доказывается) умножени.я вероятносте11,. Это правило обоб­
щается на случай п событий:

Р(А1

· А2 · ... · Ап) =

= Р(А1) · P(A2IA1) · Р(АзlА1 · А2) · ... · Р(АпlА1 · А2 · ... · Ап-1).
(1.23)
Так для 3-х событий

Ai,

А2, Аз получаем

Р(А1 · А2 ·Аз) = Р((А1 · А2) ·Аз)= Р(А1 · А2) · Р(АзlА1 · А2)

=

= Р(А1) · P(A2IA1) · Р(АзlА1 · А2)·
Пример

1.26.

В коробке находится

4 белых, 3 синих и 2 черных шара.
3 шара. Какова вероятность того,
синим, 3-й - черным?

Наудачу последовательно вынимают
что 1-й шар будет белым, 2-й

Q

-

Введем следующие события: А 1 -

А2 ~ ~- вторым

-

синий, Аз

-

первым вытащили белый шар,

третьим

-

черный. Тогда интересую­

щее нас событие А представится в виде А

= А1 · А2 ·Аз. По прави­

лу умножения вероятностей Р(А) = Р(А1)

Но Р(А1) = ~; P(A2IA1) =

i,

· P(A2IA1) · Р(Аз/А1 · А2).
так как шаров осталось 8, а число

благоприятных случаев для события А2 равно 3; Р(Аз/А1 · А2)

=

~,

так как уже два шара (белый и синий) вытащены. Следовательно,

Р(А) =

4 3 2
1
9
. 8 . 7 = 21
:::::: 0,05.

8

Правило умножения вероятностей имеет особо простой вид, если

события, образующие произведение, независимы.
Событие А называется независим'Ым от событи.я В, если его услов­
ная вероятность равна безусловной, т. е. если выполняется равенство

P(AIB) =
Лемма

1.1

Р(А).

(1.24)

(о взаимноП независимости событиit). Если событие А

не зависит от события В, то и событие В не зависит от события А.

Q

Из равенства (1.22), с учетом равенства (1.24), следует

= P(AIB) · Р(В) = Р(А) · Р(В) = Р(В)

Р(А)

Р(А)

P(BIA) =

' т. е.

P(BIA) = Р(В),

(1.25)

40 • Раздел первый. Элементарная теория вероятностей и случайных процессов



а это означает, что событие В не зависит от события А.

Можно дать следующее (новое) определение независимости собы­
тий.

Два события называются независимыми, если появление одного из
них не меняет вероятность появления другого.

Для независимых событий правило умножения вероятностей

(1.22)

принимает вид:

Р(А ·В) = Р(А)

· Р(В),

(1.26)

т. е. вероятность произведения двух независимых событий равна про­

изведению вероятностей этих событий.

Равенство

(1.26) часто используют в качестве определения (еще од­

ного!) независимости событий: события А и В называются независимы­
.ми, если Р(А

· В) =

Р(А)

· Р(В).

Можно показать, что если события А и В независимы, то незави­

симы события А и В, А и В, А и В.
На практике о независимости тех или иных событий часто судят
исходя из интуитивных соображений и анализа условий опыта, считая
независимыми события, «между которыми нет причинно-следственных
связей».

Понятие независимости может быть распространено на случай п
событий.

События А 1 , А2,

... , Ап

называются независимыми (или независи­

.м:ы.ми в совокупносm1t), если каждое из них не зависит от произведения

любого числа остальных событий и от каждого в отдельности. В про­
тивном случае события А1, А2,

... , Ап

называются зависимъ~ми.

Для независимых событий их условные вероятности равны без­

условным, и формула

(1.23) упрощается
(1.27)

Из попарной независимости событий А1, А2,

... , Ап

(любые два из

них независимы) не следует их независимость в совокупности (обратное
верно).
Убедимся в этом, рассмотрев следующий пример.

Пример

1.27.

Производится выбор (наудачу) флага из 4-х, имеющих­

ся в наличии: красного, голубого, белого и трехцветного (красно-бело­
голубого). Исследовать на независимость события: К
флаг имеет красный цвет; Г
цвет.

-- имеет голубой цвет; Б -

-

выбранный
имеет белый

Глава

Q

Возможных исходов выбора

1.

Случайные события

• 41

4; событию К благоприятствуют 2 исхо­

да (красный цвет имеется у двух флагов). Поэтому Р(К) = ~ = ~ . Аналогично находим, что Р(Г) = Р(Б) = 1 . Событию К·Г -- выбран флаг,
имеющий

2 цвета

Поэтому, Р(К · Г)

2

(красный и голубой), -благоприятствует один исход.

=

i .И так как Р(К · Г) i
=

=

~·~

=

Р(К) · Р(Г) , то

события К и Г независимы. Аналогично убеждаемся в независимости
событий К и Б, Б и Г. Стало быть, события К, Б, Г попарно независи-

мы. А так как Р(К · Г · Б)

= 41 о/=

Р(К)

· Р(Г) · Р(Б)

Г и Б не являются независимыми в совокупности.

1
= S,

то события К,

8

Упражнения

1.

Бросается игральная кость. Пусть событие А

числа очков, событие В

-

-

появление четного

появление более трех очков. Зависимы

или нет события А и В?

2.

Из букв разрезной азбуки составлено слово СТАТИСТИКА. Како­
ва всроятпость того, что, перемешав буквы и укладывая их в ряд по

одной (наудачу), получим слово : а) ТИСКИ; б) КИСКА; в) КИТ;
г) СТАТИСТИКА?

3. Найти вероятность отказа схемы (рис. 10), предполагая, что отказы
отдельных элементов независимы, а вероятность отказа элемента

с номером

i

равна

0,2.

Рис.

10

42 • Раздел первый. Элементарная теория вероятностей и случайных процессов

1.16.

Вероятность суммы событий

Как известно (п. 1.11), вероятность суммы двух несовместных со­
бытий определяется аксиомой АЗ: Р(А +В)= Р(А) + Р(В), А· В= !О.
Выведем формулу вероятности суммы двух совместных событий.
Теорема

1.1.

Вероятность суммы двух совместных событий равна сумме

их вероятностей без вероятности их произведения,

Р(А +В)= Р(А)

Q

+ Р(В) -

Р(А ·В).

(1.28)

Представим события А+ В и В в виде суммы двух несовместных
= А+В·А, В= АВ+ВА (см. п. 1.З, пример 1.2 и упраж­

событий: А+В
нение
рис.

1).
11.

В справедливости этих формул можно наглядно убедиться на

А·В

А

Pv.c. 11
Тогда, согласно аксиоме АЗ, имеем Р(А +В) = Р(А) + Р(В · А) и
Р(В) = Р(А ·В)+ Р(В ·А). Отсюда следует Р(А +В)= Р(А) + Р(В) -Р(А ·В).
8
Формула (1.28) справедлива для любых событий А и В.
Можно получить формулу вероятности суммы трех и большего чи­
сла совместных событий; для трех событий она имеет вид

Р(А +В+ С) = Р(А)

+ Р(В) + Р(С)-

- Р(А ·В) - Р(А ·С) - Р(В ·С)+ Р(А ·В· С).
Справедливость равенства поясняет рис.

(1.29)

12.

Проще, однако, найти вероятность суммы нескольких совместных

событий P(S) = Р(А 1 +А2+ .. .+Ап), используя равенство P(S)+P(S) =
= 1, где S = А 1 · А 2 · ... · Ап - противоположно событию S. Тогда
P(S) = 1 - P(S). Мы уже использовали этот прием в п. 1.12.

Глава

1.

Случайные события

• 43

А·В

А·В·С

Рис.

Пример

1.28.

12

Бросаются две игральные кости. Какова вероятность

появления хотя бы одной шестерки?

Q

Введем события: А

-

появление шестерки на первой кости, В

на второй кости. Тогда А+ В

-

-

появление хотя бы одной шестерки при

бросании костей. События А и В совместные. По формуле

(1.28) нахо11
- 5 5
25
дим Р(А+В) = б+б-(Гб =
. (Иначе: P(S) = Р(А·В) = 6"'6 = 36 .
36
Следовательно, P(S) = 1 - ;~ = ~~ .)
8

1

1

1 1

Упражнения

1.

2

белых и

возврата)

В урне

2 шара.

7

черных шаров. Из нее наудачу вынимают (без

Какова вероятность того, что они оба будут раз­

ных цветов?

2.

Три орудия стреляют в цель независимо друг от друга. Вероятность
попадания в цель каждого равна

0,7.

Найти вероятность попадания

в цель: а) только одного из орудий; б) хотя бы одного.

3.

Надежность (т. е. вероятность безотказной работы) прибора равна

0,7. Для повышения надежности данного прибора он дублируется
п - 1 другими такими же приборами (рис. 13). Сколько приборов
надо взять, чтобы повысить его надежность до 0,95?

44 • Раздел первый. Элементарная теория вероятностей и случайных процессов

0,7
0,7

0,7
Рис.

1 . 17.

13

Формула полной вероятности
Одним из следствий совместного применения теорем сложения и

умножения вероятностей являются формулы полной вероятности и
Байеса. Напомним, что события А1, А2,

пу, если

Ai-Aj

= 0, i =1 j

п

и

1.2.

Ai

образуют полную груп­

= rl. Систему таких событий называют

i=l

также разбиением.
Теорема

L

... , Ап

Пусть события Н1, Н2,

... ,

Нп образуют полную группу.

Тогда для любого, наблюдаемого в опыте, события А имеет место фор­
мула полноu веро.w,тности или среднеu веро.w,тности.
п

Р(А)

=

L

(1.30)

P(Hi). P(AIHi),

i=l

О

Так как Н1

+ Н2 + ... + Нп =

rl,

то в силу свойств операций

= А · rl = А · (Н1 + Н2 + ... + Нп) =
· Н2 + ... +А · Нп. Из того, что Hi · Hj = 0, следу­
ет, что (А· Hi) ·(А· Hj) = 0, i =1 j, т.е. события А· Hi и А· Hj
также несовместны. Тогда по теореме сложеиия вероятностей Р(А) =

над событиями (п. 1.3), А

=

А

·

Н1 +А

= Р(А · Н1) + Р(А · Н2) + ... + Р(А · Нп)

п

т. е. Р(А)

=L

Р(А · Hi)· По

i=l

теореме умножения вероятностей Р(А · Hi) = P(Hi) · P(AIHi), откуда и

следует формула (1.30).
Отметим, что в формуле


(1.30) события Н1, Н2, ... , Нп обычно на­

зывают гипотеза.ми; они исчерпывают все возможные предположения

(гипотезы) относительно исходов как бы первого этапа опыта, событие
А

-

один из возможных исходов второго этапа.

Глава

1.

Случайные события

• 45

Пример 1.29. В сборочный цех завода поступает 40% деталей из I цеха
и 60% -- из П цеха. В I цехе производится 90% стандартных деталей,
а во П --- 95%. Найти вероятность того, что наудачу взятая сборщиком
деталь окажется стандартной.

'

Взятие детали можно разбить на два этапа. Первый: - это выбор
цеха. Имеется две гипотезы: Н1 - деталь изготовлена I цехом, Н2

Q

-- взятие детали. Событие А - взятая наудачу
деталь стандартна. Очевидно, события Н1 и Н2 образуют полную груп­
пу, Р(Н1) = 0,4, Р(Н2) = 0,6. Числа 0,90 и 0,95 являются условными
вероятностями события А при условии гипотез Н 1 и Н2 соответствен­
но, т. е. P(AIH1) = 0,90 и P(AIH2) = 0,95. По формуле (1.30) находим
П цехом. Второй этап

2

Р(А)

2:.: P(Hi) · P(AIHi) = 0,4 · 0,90 + 0,6 · 0,95 = 0,93.

=

8

i=l

1. 18.

Формула Байеса (теорема гипотез)
Следствием формулы

(1.30)

является формула Байеса или теоре­

ма гипотез. Она позволяет переоценить вероятности гипотез
тых до опыта и называемых априорны.ми («а

pl'iori»,

Hi,

приня­

доопытные, лат.)

по резулътата.м уже проведенного опыта, т. е. найти условные веро­

ятности

P(HilA), которые называют апостериорны.ми («а posteriori»,

послеопытпые).
Теорема

1.3.

Пусть события Н1, Н2,

... , Нп

событий. Тогда условная вероятность события

образуют полную группу

Hk (k = 1, п)

при условии,

что событие А произошло, задается формулой

Р(Н IA) = P(Hk). P(AIHk)
'
Р(А)
k
где Р(А) = Р(Н1) · P(AIH1)

+ ... + Р(Нп)

· Р(А!Нп) -

(1.31)
формула полной

1
вероятности. Формула (1.31) называется фор.мулоii Бaiieca .

1 1702-1761, английский священник, математик

46 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

О

Применив формулы условной вероятности (п. 1.14) и умножения

вероятностей {п.

1.15),

Р(Н IA)

имеем

= P(Hk . А)

где Р(А)

-

Пример

1.30.

P(Hk) · P(AIHk)

Р(А)

k

Р(А)

формула полной вероятности (п.
В примере

1.29

(п.

1.17)



1.17)

найти вероятность того, что эта

стандартная деталь изготовлена П цехом.

Q

Определим вероятность гипотезы Н2 при условии, что событие А

(взятая деталь стандартна) уже произошло, т. е.

Р(Н2 IA)

P(H2 IA):

= Р(Н2) . P(AIH2) = 0,6 . 0,95 = 19 "'-' о 613
Р(А)

0,93

31 "'"' '


.

Упражнения

1.

Прибор содержит две микросхемы. Вероятность выхода из строя в
течение

10 лет

первой микросхемы равна

0,07,

а второй

-

0,10.

Из­

вестно, что из строя вышла одна микросхема. Какова вероятность

того, что вышла из строя первая микросхема?

2.

Из

40

экзаменационных билетов студент П выучил только

30.

Ка­

ким выгоднее ему зайти на экзамен, первым или вторым?

З.

Известно, что

90%

изделий, выпускаемых данным предприятием,

отвечает стандарту. Упрощенная схема проверки качества продук­

ции признает пригодной стандартную деталь с вероятностью

нестандартную с вероятностью

0,06.

0,96

и

Определить вероятность того,

что:

а) взятое наудачу изделие пройдет контроль;
б) изделие, прошедшее контроль качества, отвечает стандарту.

Глава

1. 19.

1.

Случайные события

• 47

Независимые испытания. Схема Бернулли
С понятием «независимых событий» связано понятие «независи­

мых испытаний (опытов)».
Несколько опытов называются независим:ы.ми,

если их исходы

представляют собой независимые события (независимые в совокупно­

сти).
Другими словами, если проводится несколько испытаний, т. е. опыт

выполняется при данном комплексе условий многократно (такое явле­
ние называется «последовательностью испытаний»), причем вероят­
ность наступления некоторого события А в каждом испытании не за­
висит от исходов других испытаний, то такие испытания называются
независим:ы.ми.

Примерами независимых испытаний могут служить: несколько (п
раз) подбрасываний монеты; стрельба

(п

раз) по мишени без поправок

на ранее допущенную ошибку при новом выстреле; несколько

(п

раз)

выниманий из урны одинаковых на ощупь занумерованных шаров, если

шары каждый раз (после просмотра) возвращаются назад в урну, и т. д.
При практическом применении теории вероятностей часто исполь­

зуется стандартная схема, называемая схемой Бернулли или схемой
независимых испытаний.

Последовательность п независимых испытаний, в каждом из кото­

рых может произойти некоторое событие А (его называют успехом) с
вероятностью Р(А)

=

р или противоположное ему событие А (его на­

зывают неуда'Ч,еi.i,) с вероятностью Р(А) =

q = 1- р,

называется схе.моi.1,

Бернулли.

Например, при стрельбе по

(успех), событие А

-

мишени: событие А

-

попадание

промах (неудача); при обследовании п изделий

на предмет годности: событие А

-

деталь годная (успех), событие А­

деталь бракованная (неудача) и т. д.
В каждом таком опыте ПЭС состоит только из двух элементар­

ных событий, т. е. П

этом А = { w1 }, А

= {w 0 , w 1 },

где

wo -

неудача, w1 -

успех, при

дов для п опытов

= { wo}. Вероятности этих событий обозначают че­
+ q = 1). Множество элементарных исхо­
состоит из 2п элементов. Например, при п = 3, т. е.

опыт повторяется

3 раза,

рез р и

q

соответственно (р

П

=

( А А А) (А А А) (АА А)

'

'

W4

·
'

'

'

W5

·
'

'

'

W5

·
'

{

(А, А, А)

wo

(А А, А)}

'

W7

;

(А, А, А)

w1

(А, А, А)
;

. Вероятность

w2

(А, А, А)
;

w3

;

каждого элемен-

тарного события определяется однозначно. По теореме умножения ве-

48 • Раздел первый. Элементарная теория вероятностей и случайных процессов
роятность события, скажем 'Шб = (А, А, А), равна

'Ш7

Р . Р .Р

-

= Рз qo = Рз

q . q .р

= pq2,

события

и т. д.

Часто успеху сопоставляют число 1, неудаче - число О. Элемен­
тарным событием для п опытов будет последовательность из п нулей
и единиц. Тройка чисел (О, О, О) означает, что во всех трех опьггах со­
бытие А не наступило; тройка чисел (О, 1, О) означает, что событие А
наступило во 2-м опыте, а в 1-м и 3-м

--

не наступило.

Формула Бернулли

1 . 20.

Простейшая задача, относящаяся к схеме Бернулли, состоит в
определении вероятности того, что в п независимых испытаниях собы­

rn раз (О ~ rn ~ п). Обозначается искомая вероятность
так: Рп(rп) или Pn,rn или Р(µп = rn), где µп - число появления события

тие А наступит

А в серии из п опытов.
Например, при бросании игральной кости
вероятность того, что в 3-х опытах событие А
произойдет

4 -

Рз(2)

2

раза. Очевидно,

= p2q + p2q + p2q =

}]
[{ (А,А,А);
(А,А,А)
(А,А,А);

=
Теорема

3 раза Рз(2) означает
- - выпадение цифры

=

1)
3р 2 q = 3 · ( б

2

5 = 0,069.
· б5 = 72

Если производится п независимых испытаний, в каждом

1.4.

из которых вероятность появления события А равна р, а вероятность

его непоявлепия равна q =
произойдет

rn

раз определяется форму.rюu Бернулли
Рп(rп)

О

1 - р, то вероятность того, что событие А

=

С;:1

· prn · qп-rn,

rn

=О,

1, 2, ... , п.

(1.32)

Вероятность одного сложного события, состоящего в том, что со­

rn раз в первых rn опы­
(п - rn) раз в остальных опытах (это событие
· А · ... · А) по теореме умножения вероятностей рав-

бытие А в п независимых опытах появится

тах и не появится
А

. А . А .....
rn

раз

А .А

~

(п-т) раз

на рт qn-rn. Вероятность появления события А снова

rn раз,

но в другом

Глава

1. Случайные события • 49

порядке (например, А·~А·А· ... ·А или АААА· ... -АА и т.д.)
т раз

будет той же самой, т. е.

pmqn-m.

Число таких сложных событий - в п опытах m раз встречается со­
бытие А в различном порядке - равно числу сочетаний из п по m, т. е.
с;::. Так как вес эти сложные события несовместны, то по теореме сло­
жения вероятностей искомая вероятность равна сумме вероятностей
всех возможных сложных событий, т. с.
Рп(m)

= pmqn-m + ... + ртqп-т =

m= О , l , ...

сптртqп-т,



,п.

Ci[' слагаемых

Можно заметить, что вероятности Рп(m),
коэффициентами при хт в разложении

(q

+

=О,

m

1, ... , п

являются

рх)п по формуле бинома

Ньютона:

Поэтому совокупность вероятностей Рп (rn) называют биномиа.л:ы-1,-ым

законом распределени.я веро.ятностеu (см. п.

= (q

+ px)n

-

2.7),

а функцию лена вероятность

Р(А) = Р(Х

< х).

Для полного описания с. в. недостаточно лишь знания ее возмож­
ных значений; необходимо еще знать вероятности этих значений.

Любое правило (таблица, функция, график), позволяющее нахо­

дить вероятности произвольных событий А~

S (S -

О"-алгебра собы­

тий пространства П), в частности, указывающее вероятности отдель­
ных значений случайной величины или множества этих значений, на­

зывается законом распределени.я, случаuноu величин'Ы (или просто: рас­
пределением). Про с. в. говорят, что «она подчиняется данному закону
распределения».

2.2.

Закон распределения дискретной случайной

величины. Многоугольник распределения
Пусть Х

-- д. с. в.,

которая принимает значения Х1, х2, хз,

... , Хп, ...

(множество этих значений конечно или счетно) с некоторой вероят­

ностью Pi, где i

=

1, 2, 3, ... , п, .. .. Закон распределени.я д. с. в. удобно
задавать с помощью формулы Pi = Р{Х = Xi}, i = 1,2,3, ... ,п, . .. ,
определяющей вероятность того, что в результате опыта с. в. Х примет

значение Xi· Для д. с. в. Х закон распределения может быть задан в
виде таблицы распределени.я:

62 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

где первая строка содержит все возможные значения (обычно в порядке
возрастания) с. в., а вторая -- их вероятности. Такую таблицу называ­
ют рJ~дом распределеu·иJ~.

=

Так как события {Х
х1}, {Х
х2} ... несовместны и образуют
полную группу, то сумма их вероятностей равна единице (см. п. 1.12),

=

т. е. l:Pi = 1.
i

Закон распределения д. с. в. можно задать графи'Чески, если на оси
абсцисс отложить возможные значения с. в., а на оси ординат

-- вероят­

ности этих значений. Ломаную, соединяющую последовательно точки

(х1,Р1), (xz,pz), ... называют .м:ногоуголъuиком (или полигоuом) рас­
пределеuиJ~ (см. рис.

17).

Pi

о

Xn

Рис.

Х

n

Теперь можно дать более точное определение д· с. в.

Случайная величина Х дискретuа, если существует конечное или

счетное множество чисел х1, х2, ... таких, что Р {Х
(i = 1, 2, ... ) и Р1 + Р2 + Рз + .. · = 1.

=

Xi}

=

Pi

>

О

Определим математические операции над дискретными с. в.

Су.ммоft (разuостъю, произведеuием) д. с. в. Х, принимающей зна­
чения Xi с вероятностями Pi = Р{ Х = Xi}, i = 1, 2, ... , пи д. с. в. У, при­

нимающей значения Yj с вероятностями Pj = Р{У = Yj}, j = 1, 2, ... , m,
называется д. с. в. Z = Х +У (Z = Х - У, Z = Х ·У), принимающая
значения Zij = Xi + Yj (Zij = Xi - Yj, Zij = Xi · Yj) с вероятностями
Pij = Р{Х = Xi, У= Yj} для всех указанных значений i и j. В случае
совпадения некоторых сумм Xi + YJ (разностей Xi - Yj, произведений
XiYj) соответствующие вероятности складываются.

Произведеuие д. с. в. ua 'Число с называется д. с. в. сХ, принимающая

значения cxi с вероятностями Pi = Р{Х = xi}.
Две д. с. в. Х и У называются независимы.ми, если события
{Х = xi} = Ai и {У = Yj} = Bj независимы для любых i = 1, 2, ... , п;

Глава

j = 1,2, ...

2.

Случайные величины

• 63

,т, т.е.

Р{Х

= Xii У= Yj} = Р{Х = xi} · Р{У = Yj}·

В противном случае с. в. называются зависи.м'Ы.ми. Несколько с. в. на­
зываются взаимно независимыми, если закон распределения любой: из
них не зависит от того, какие возможные значения приняли остальные
величины.

Пример

2.1.

В урне

8

шаров, из которых

ные. Из нее вынимают наудачу

5

белых, остальные~- чер­

3

шара. Найти закон распределения

---

числа белых шаров в выборке есть

числа белых шаров в выборке.

Q
х1

Р1

Возможные значения с. в. Х

= О,
=

х2

Р {х

= 1, хз

=

о}

=

= 2,

Х4

cg . cg

= 3.

cg

=

Вероятности их соответственно будут

1
56, Р2

=

Р {х

=

1}

=

cJ · cj
cg =

15
56'

Рз = ~~, р4 = ~~ . Закон 'распределения запишем в виде таблицы.

4
1
(Контроль: °EPi = 56
1

х

о

р

1
56

15

30

1
15
56
10

+ 56 + 56 + 56

2

30
56

3
10
56



= 1.)

Упражнения

1.

Монета бросается

с. в. Х

2.

-

4 раза.

Построить многоугольник распределения

числа выпадений герба.

Вероятность сдачи экзамена первым студентом равна
рым

-

0,9.

Составить ряд распределения с. в. Х

-

0,6,

а вто­

числа студен­

тов, успешно сдавших экзамен в случае, когда: а) экзамены пере­
сдавать нельзя; б) экзамен можно один раз пересдать.

64 • Раздел первый. Элементарная теория вероятностей и случайных процессов

2.3.

Функция распределения и ее свойства. Функция

распределения дискретной случайной величины
Очевидно, ряд распределения с. в. может быть построен только для
д. с. в.; для н. с. в. пельзя даже перечислить все ее возможные значения.

Кроме того, как увидим позже (п.

2.3, 2.4),

вероятность каждого отдель­

но взятого значения н. с. в. равна нулю! Представим себе вероятность

того, что рост мужчины -

н. с. в. -

точно равен

тров; купленная нами лампа проработает

--

J3 =

н. с. в.

1, 7320508 ... ме­
-- ровно 900 часов;

Удивительно интересный факт: событие возмоJtСное, но имеет ну­

....

.левую веро.я.тностъ.

Для характеристики поведения н. с. в. целесообразно использовать

вероятность события



< х}

(а не

{Х =

х}), где х

-

некоторое дей­

ствителы-юе число. С точки зрения практики нас мало интересует собы­
тие, состоящее, например, в том, что лампочка проработает ровно

900
900}

= 900. Более важным является событие вида {Х <
> 900} ). Такое событие имеет ненулевую вероятность; при из­
менении х вероятность события {Х < х} в общем случае будет менять­
часов, т. е. Х
(или



ся. Следовательно, вероятность Р { Х

<

х} является функцией от х.

Универсальным способом задания закона распределения вероятно­
стей, пригодным как для дискретных, так и для непрерывных случай­

ных величин, является ее функция распределения, обозначаемая

Fx (х)

(или просто

F(x), без индекса, если ясно, о какой с. в. идет речь).
F(x), которая
для любого числа х Е R равна вероятности события {Х < х}.
Функциеii распределени.я. с. в. Х пазывается функция

Таким образом, по определению

F(x)

= Р{Х < х}

т. е.

F(x) = Р{ w: X(w)

< х }.

(2.1)

Функцию Р(х) называют также интегра.лъноti функциеti распреде.лени.я,.

Геометрически равенство

(2.1) можно истолковать так: F(x) есть

вероятность того, что с. в. Х примет значение, которое изображается
на числовой оси точкой, лежащей .левее точки х, т. е. случайная точка

Х попадет в интервал (-оо,х), см. рис.

18.

Х х1 ,

то

2.

F(x) -

3.

F(x) обращает в ноль на минус бесконечности и равна единице в
плюс бесконечности, т. е.

F(-oo)

=О,

F(+oo)=l.

Вероятность попадания с. в. Х в промежуток [а, Ь) равна прираще­

4.

нию ее функции распределения на этом промежутке, т. е.

Р{а ~ Х

F(Ь) - F(a).

(2.2)

непрерывна слева, т. е.

F(x)

5.

< Ь} =

lim

х--+хо-0

F(x) = F(xo).

1. Первое свойство следует из определения (2.1) и свойств вероят­
ности (п. 1.11, 1.12).
2. Пусть А = {Х < х1}, В = {Х < х2}. Если х1 < х2, то собы­
тие А влечет событие В (п. 1.4), т. е. А ~ В. Но тогда согласно свой­
ству 4 (п. 1.12), имеем Р(А) ~ Р(В), т. е. Р{Х < х1} ~ Р{Х < х2} или

О

F(x1)

~

F{x2).

Геометрически свойство

2

очевидно: при перемещении точки х

вправо по числовой: оси вероятность попадания случайной: точки Х в

интервал

( -оо, х) не может уменьшаться.

Третье

3.

свойство

<

1.11, 1.12), имеем: F{-oo) = Р{Х

Р{Х

<

+оо}

=

а {Х
Р{П}

что

согласно свойствам вероятности

(п.

=

= 125,

того,

непосредственно

<

-оо}

из

вытекает

+оо}



= f!;

<

-оо}

=

Р{0} =О,

F{+oo) =

= 1.

4. Так как а< Ь, то очевидно, что {Х
(это хорошо видно на рис. 19).

< Ь} =



< а}+{а

~ Х

< Ь}

- несовместные события,
по теореме сложения вероятностей: {п. 1.11) получаем Р{Х < Ь}
Так как слагаемые в правой: части

= Р{Х

=

Р{Х

5.

< а}+ Р{а ~ Х < Ь}. Отсюда
< Ь} - Р{Х

(I - (-I)) = 1 и, наконец, получаем mr = 1, т.е. а=~.

8

Упражнения

1.

Случайная величина Х 3адана функцией распределения:

F(x)=

{

о,

при х ~

а(х+1) ,

при

1,

при х

2

-1,

-1 <
> 2.

х ~

2,

Найти значение а, построить графики F(x) и f(x).

2. Кривая распределения н. с. в. Х имеет вид, ука3апный на рис. 22.
Найти выражение для f х(х), функцию распределения Fx(x), веро-

ятность события {ХЕ (~; 1) }·

Глава

2.

Случайные величины

• 73

f(x) М

о

т

Рис.

22

3. Является ли плотностью распределения некоторой с. в. каждая из
следующих функций:

а) f(x)

б)

=

J(x) =

1Г(1

х

{!,
ах

2.5.

2

(-1; 1],

при х ф. (-1; 1];

О,

в) f(x) = {О,

при х Е (-оо; +оо);

+ х2 )
при х Е

при х 2,
,

при О ~ х ~

2.

Числовые характеристики случайных величин
Закон распределения полностью характеризует случайную величи­

ну. Однако при решении многих практических задач достаточно знать
лишь некоторые 'Ч,исловые пара.метры, характеризующие отделън:ые

существен:ные своuства ('Ч,ерт'Ы) закона распределени.я с. в. Такие чи­
сла принято называть 'Ч,исловы.ми характеристика.ми с. в.

Важнейшими среди них являются характеристики положения: ма­

тематическое ожидание (центр распределения с. в.), мода, медиана; ха­
рактеристики рассеяния: дисперсия (отклонение значений с. в .. от ее
центра), среднее квадратическое отклонение.

Математическое ожидание случайной величины
Математи'Ч,еским оJtСиdание.м (или средним значением) д. с. в. Х,
имеющей закон распределения Pi

=

Р{ Х

=

xi}, i

=

1, 2, 3, ... , п, назы­

вается число, равное сумме произведений всех ее зпачепи:ii на соответ­
ствующие им вероятности.

74 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

Математическое ожидание (сокращенно: м. о.) обозначается через

МХ (или: М[Х], М(Х), ЕХ, тх, ах).
Таким образом, по определению

n

мх

(2.9)

= LXi 'Pi·
i=l

&ли число возможных значений с. в. Х бесконечно (счетно), то
00

мх = LXi 'Pi,

{2.10)

i=l

причем ряд в правой части предполагается сходящимся (в противном
случае с. в. Х не имеет м. о.).

Формулы

{2.9) и (2.10) можно записать в виде М Х =

L XiPi·

i
Вероятностный смысл математического ожидания состоит в том,

что оно является средним значением с. в. Действительно, т. к.

n

L Pi =

1,

i=l

то

n

n

МХ

=

L XiPi =

L XiPi

_i=-~-- = Хсреднее ·

L Pi

i=l

i=l
Математическим ожиданием н. с. в. Х с плотностью вероятности

f (х),

называется число


00

МХ =

(2.11)

· f(x)dx.

-00

Интеграл в правой части равенства

{2.11)

предполагается абсолютно

сходящимся, т. е.

00

j

Jxl · f(x)dx < оо

-оо

(в противном случаен. с. в. Хне имеет м. о.).
Формула (2.11) является интегральным аналогом формулы
Заменяя в ней «прыгающий» аргумент

ся х, вероятность Pi -

= F'(x) dx = dF(x)
получим равенство

на непрерывно меняющий­

f (х) dx (J(x) dx =
= Р{х < Х < х+Лх}),

элементом вероятности

~ ЛF(х)

(2.11).

Xi

(2.9).

= F(x+Лx)-F(x)

Глава

2.

Случайные величины

• 75

Отметим, что М Х имеет ту же размерность, что и с. в. Х.

Своiiства математического ожидания.

1.

Математическое ожидание постоянной равно самой этой постоян­
ной, т.е.

Мс=с.

2.

Постоянный множитель выносится з~ знак м. о., т. е.

М(сХ) = сМХ.

3.

М. о. суммы с. в. равно сумме их м. о., т. е.

М(Х+У) =МХ+МУ.

4,

М. о. отклонения с. в. от ее м. о. равно нулю, т. е.

М(Х-МХ)=О.

5.

М. о. произведения независимых с. в. равно произведению их м. о.,

т. е. если Х и У независимы, то

М(Х ·У) = М Х

О

· МУ.

Постоянную с можно рассматривать как д. с. в. Х, принимающую

1.

лишь одно значение с вероятностью 1. Поэтому Мс

= с · Р {Х = с} =

=с·

1 =с.
2. Так как
стями Pi, то

д. с. в. сХ принимает значения
п

=

сМХ.

Так как д. с. в. Х +У принимает значения

Xi + Yj

i=l

Pij = P{Xi

= Xi, у= Yj},
п

i=l

m

п

i=l j=l
m

= LXi LPij
i=l

j=l

с вероятностями

то

М(Х +У)= LL(Xi + Yj)Pij
п

с вероятно-

п

МсХ = I.::cxi · Pi =с LXiPi
3.

cxi (i = 1, п)

= L

m

п

LXiPij

i=l j=l
m

п

п

m

+ LLYjPij =
i=l j=l
m

+ LYj LPij = LXi 'Pi + LYj. Pj = мх + МУ.
j=l

i=l

i=l

j=l

При доказательстве воспользовались, в частности, тем, что

m

LPij
j=l

п

= Pi и

LPij = Pj·
i=l

76 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

Действительно: так как

m

L {Х = xi; У= у1 } = {Х =

m
xi}

j=:l

L:)Y = у1 } = {Х = xi} · n = {х = xi},
j=l

то

Pi

Р{Х = Xi} = P(:f)x = Xi; У= У1})

=

J=l
m

m

j=l

j=:l

аналогично получаем
п

Pj = LPij·
i=l
Свойство

3

распространяется на произвольное конечное число слагае­

мых.

4. Согласно свойствам 1и3, имеем: М(Х-МХ) = МХ-М(МХ) =
= МХ -МХ =О. Отметим, что разность Х-МХ (или Х-тх) назы­

вается отклонением с. в. Х от ее м. о. М Х и обозначается символом Х:
Х=Х-МХ.
Эта с. в. Х называется также центрированной с. в.
5. Так как с. в. Х и У независимы, то Pij = Р{Х

=

Р{Х

= Xi} · Р{У = Yj} = Pi · Pj·
п

= Xi; У= Yj} =

Следовательно,

m

МХУ= LLXiYjP{X = Xi;Y = Yj} =
i=l j=:l
п

L

Pij

m

i=l j=l

m

п

LXiYjP{X

= Xi}P{Y = Yj} = LXiPi LYjPj = мх. МУ. •

______.,----....,..__.,
~

~

i=l

j=l

.

Свойствам. о., доказанные для д. с. в., остаются справедливы и для

непрерывных с. в. Так, например,

f

00

МсХ =

-00

f

00

cxf(x) dx



-оо

xf(x) dx =

сМХ.

Глава

Пример

по

500

2.

Случайные величины

• 77

2.4. В лотерее имеется 1000 билетов, из них выигрышных: 10
50 по 50 руб, 100 по 10 руб, 150 по 1 руб. Найти математи­

руб,

ческое ожидание выигрыша на один билет.
О

Ряд распределения с. в. Х
х

р

(Контроль:
мх

500
0,01

-- суммы выигрыша на один

50
0,05

10
0,1

1

о

0,15

0,69

билет таков:

5

2:::: Pi = 1.)

Находим М Х:

i=l.

= 500. 0,01+50. 0,05 + 10. 0,1+1·0,15 +о. 0,69 = 8,65

руб.



Дисперсия
Дucnepcuefi, (рассеянием) с. в. Х называется математическое ожи­
дание квадрата ее отклонения от своего математического ожидания.

Обозначается дисперсия через DX (или D[X], Dx, D(X)). Таким
образом, по определению

DX

= М(Х -МХ) 2 ,

(2.12)

или DX = МХ 2 , или DX = М(Х - rnx) 2 . Дисперсия характеризует
разброс значений с. в. Х относительно ее м. о. Из определения диспер­
сии следуют формулы для ее вычисления:

DX =

2.)xi -МХ)

! (х -МХ)

2

• Pi

-

для д.с.в. Х,

(2.13)

+оо

DX

=

2 · f(x) dx --

для н.с.в. Х.

(2.14)

-00

На практике дисперсию с. в. удобно находить по формуле

DX

= МХ 2 -

(МХ) 2 .

(2.15)

Она получается из формулы (2.12): DX = М(Х 2 -2Х ·МХ +(МХ) 2 )
2
= МХ 2 - М(2Х. МХ) + М(МХ) 2 = МХ 2 - 2МХ. мх + (МХ)

= мх

2

-

(МХ) .
2

=

=

78 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

Это позволяет записать формулы для ее вычисления
(2.14)) в другом виде:

((2.13)

·

DX = Lx~ Pi - (МХ) 2 ,

!

и

(2.16)

+оо

DX=

x 2 ·f(x)dx-(MX) 2 •

(2.17)

-00

Своiiства дисперсии.

1.

Дисперсия постоянной равна нулю, т. е.

Dc=O.
2.

Постоянный: множитель можно выносить за знак дисперсии, возве­
дя его в квадрат, т. е.

DcX = c2 DX.
3.

Дисперсия суммы независимых с. в. равна сумме их дисперсий, т. е.
если Х и У независимы, то

D(X
4.

+У)

= DX + DY.

Дисперсия с. в. не изменится, если к этой с. в. прибавить постоян­
ную, т.е.

D(X
5.

+с)=

DX.

Если с. в. Х и У независимы, то

D(XY)

= МХ 2

. МУ 2

-

(МХ) 2 . (МУ) 2 .

Q 1. Dc=M(c-Mc) 2 =М(с-с) 2 =МО=О.

2. DcX = М(сХ -М(сХ)) 2 = М(сХ -сМХ) 2 = М(с2 (Х -МХ) 2 ) =
= с2 М(Х -МХ) 2 = c2DX.
3. Используя формулу (2.15), получаем D(X +У) = М(Х + У) 2 -(М(Х +У)) 2 = МХ 2 +2МХУ +МУ 2 -(МХ) 2 -2МХ·МУ-(МУ) 2 =
= мх2 -(МХ) 2 +МУ 2 -(МУ) 2 +2(МХУ -МХ ·МУ) = DX +DY +
+2(МХ ·МУ-МХ ·МУ) =

DX +DY.

Отметим, что если с. в. Х и У зависuм/ы, то

D(X +У)= DX + DY + 2М((Х - МХ) ·(У - МУ)).

4. D(c + Х) = М((с + Х) - М(с + Х)) 2
Доказательство свойства

5

= М(Х -

МХ) 2

не приводим.

= DX .



Свойства дисперсии, доказанные выше для дискретных случайных
величин, остаются справедливыми и для непрерывных с. в.

Глава

2.

Случайные величины

• 79

Среднее квадратическое отклонение
Дисперсия



имеет размерность квадрата с. в. Х, что в сравни­

тельных целях неудобно. Когда желательно, чтобы оценка разброса

(рассеяния) имела размерность с. в., используют еще одну числовую

характеристику

-

среднее квадратическое отклонение (сокращенно:

с. к.о.).
Средним квадрати'Ческим отклонением или стандартным откло­
нением с. в. Х называется квадратный корень из ее дисперсии, обозна­

чают через ах (или аХ, а[Х], а). Таким образом, по определению

ах= ГDХ.

(2.18)

Из свойств дисперсии вытекают соответствующие свойства с. к. о.:

ас= О, асх =

lclax, а(с + Х)

=ах.

Для изучения свойств случайного явления, независящих от выбо­
ра масштаба измерения и положения центра группирования, исходную
случайную величину Х приводят к некоторому стандартному виду: ее

центрируют, т. е. записывают разность Х

-

М Х (геометрически озна­

чает, что начало координат переносится в точку с абсциссой, равной

м. о.), затем делят на с. к. о. ах.

Случайную величину Z =

Х-МХ

ах

называют стандартноti, cлy-

'Чati,нoti, вели'Чиноil,. Ее м. о. равно О, а дисперсия равна

МZ

1. Действительно,

= М ( Х -О'ХМ Х) = _l_
М(Х - М Х) = О '
О'Х

DZ= - 1 D(X-MX) = DX = DX = 1.
DX

ai

То есть Z -

ai

центрированная (MZ =О) и нормированная (DZ

1)

случайная величина.

[S]

Пример 2.5. Д. с. в. Х задана рядом распределения.
х

р

Найти МХ,

DX,

-1
0,2

о

0,1

1
0,3

2

0,4

ах.

Используем формулы (2.9), (2.13), (2.18): МХ = -1·0,2 +О· 0,1 +
+ 1 ·0,3+2·0,4 = 0,9; DX = (-1-0,9) 2 ·0,2+(0-0,9) 2 ·0,1+ (1-0,9) 2 ·0,3+
2
+(2-0,9) 2 ·0,4 = 1,29 (или, используя формулу (2.16), DX = (-1) ·0,2+
+ 02 . 0,1+1 2 . 0,3 + 22 · 0,4 - (0,9) 2 = 1,29); ах= Vl,29"" 1,14.


Q

80 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

Мода и медиана. Моменты случайных величин. Асимметрия
и эксцесс. Квантили

Модоu д. с. в. Х называется ее значение, принимаемое с наибольшей
вероятностью по сравнению с двумя соседними значениями, обознача­

ется через МоХ. Для н. с. в. МоХ
плотности

--

точка максимума (локального)

f х (х).

Если мода единственна, то распределение с. в. называется уни.мо­

далъны.м, в противном случае

--

поли.модалы-1,ы.м (рис.

23).

f(x)

х

Рис.

23

Медианоu МеХ н. с. в. Х называется такое ее значение Хр, для ко­
торого

р { Х < Хр}

=

р { Х > Хр}

=

~,

(2.19)

т. е. одинаково вероятно, окажется ли с. в. Х меньше Хр или больше Хр
(рис.

23).

С помощью функции распределения F(x) равенство (2.19) можно

записать в виде F(MeX) = 1 - F(MeX). Отсюда F(MeX) =

1

2.

Для д. с. в. медиана обычно не определяется.
Математическое ожидание и дисперсия являются частными случа­

ями следующих более общих понятий

-

моментов с. в.

На'Ч,аЛЪ'Н:ы.м .мо.менто.м пор.ядка k с. в. Х называется м. о. k-й сте­
пени этой величины, обозначается через ak.
Таким образом, по определению

Для д. с. в. начальный момент выражается суммой:

Глава

-

а для н. с. в.

2.

Случайные величины

• 81

интегралом:
00

ak = / xk · f(x) dx.
-оо

В частности, 0.1

=

М Х, т. е. начальный момент 1-го порядка есть м. о.

Централы-1,ъtм моментом порядка

k

с. в. Х называется м. о. вели­

чины (Х - MX)k, обозначается через µk.
Таким образом, по определению

µ2 = DX, т. е.
µi = М(Х - МХ)

В частности,

центральный момент 2-го порядка есть

дисперсия;

=О (см. свойство

4

м. о.).

Для д.с.в.:

а для н. с. в.:

00

µk

= / (х - MX)k · f (х) dx.
-оо

Центральные моменты могут быть выражены через начальные

моменты. Так, µ 2 = D Х = а2 - йI (действительно: µ2 = D Х
= МХ 2 - (МХ) 2 = а 2 - aI); µ 3 = а 3 - 3а1а2 + 2af, щ = а4 - 4а1аз
+ 6ata2 - 3af и т. д.

=

+

Среди моментов высших порядков особое значение имеют цен­
тральные моменты 3-го и 4-го порядков, называемых соответственно
коэффициентами асимметрии и эксцесса.

Коэффициентом асимметрии («скошенности») А с. в. Х называется величина

А=~=М(Х-МХ)
3

(jx

3

3

(DX) 2

Если А> О, то кривая распределения более полога справа от МоХ
(рис.

24).

Если А
(рис.

<

О, то кривая распределения более полога слева от МоХ

25).

Коэффициентом эксцесса («островершинности») Е с. в. Х назы­
вается величина

Е=

.f!:..i_ - 3

(jk

= М(Х -МХ)4 - 3.
(DX)2

82 • Раздел первый. Элементарная теория вероятностей и случайных процессов

f (x)

24

Рис.

f (x)

МоХ

Рис.

х

25

Величина Е характеризует островершинность или плосковершин­
ность распределения. Для нормального закона распределения (см.

п.

=

А

2. 7)

О и Е

мальным: если Е

= О; остальные распределения сравниваются с нор­

>О-

более островершинные, а распределения «плос­

ковершинные» имеют Е

7Г,

при О< х ~ тг.

Найти математическое ожидание случайной величины Х.

3. Пусть Х и У - независимые д. с. в., причем JvIX = 2, МУ
DX = 2, DY = 9. Найти MZ и DZ, если Z = 5Х - ЗУ+ 2.

4.

По условию упражнения

5.

С. в. Х задана функцией распределения

F(x)=

{

2

найти

с

и

-3,

CJx.

о,

при х ~А,

О,25х 2 ,

при А< х ~В,

1,

при В< х.

Найти значения А и В, МХ и
б.

DX

=

CJx.

Пусть Х 1 , Х 2 , .•. , Хп -~ последовательность независимых с. в.

MXi = а и DXi =

CJ

2,

i = 1, 2, ... , п. Найти м. о. и дисперсию

среднего арифметического п независимых с. в.

Xi.

84 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

2.6.

Производящая функция
Нахождение важнейших числовых характеристик д. с. в. с целыми
неотрицательными значениями удобно производить с помощью произ­

водящих функций.
Пусть д. с. в. Х принимает значения О,

fOJ

ми Ро,р1,Р2,

1, 2, ... , k, ...

с вероятностя­

... ,pk = Р{Х = k}, ....

Произвоd.ящеii фу'l-tкциеu для д. с. в. Х называется функция вида
00

О, если ее плотность распределения имеет вид

-



f(x) =
(} .

а) 2

~е-2Т

R.

х Е

27Г

(2.38)

Тот факт, что с. в. Х имеет нормальное (или гауссовское) распреде­

ление с параметрами а и('), сокращенно записывается так: Х,....., N(a, (}).
Убедимся, что f(x) - это функция плотности. Очевидно, f(x) >О.

J
00

Проверим выполнение условия нормировки

f(x) dx

= 1. Имеем:

-оо

J
00

=

}п

e-t

2

dt =

)п ·V?r = 1.

-00
х-а

Здесь применили подстановку

= t

../2. (}

Пуассона»

и использовали «интеграл

00

!

е

-t2

r=
dt = у7Г.

(2.39)

-00

Из равенства

(2.39)

следует:

Je-•; dz = fffj, = ] е-•; dz

00

!

е

-t2

d -

V?r

t-т,

о

о

(2.40)

-оо

Функция распределения F(x) =

Jf н. с. в. Х,.....,
Jе-~
х

(t) dt

N(a, (})имеет

-оо

вид

х

F(x)

=

1

(}.

у"FД

(t-a)2

dt.

(2.41)

-00

Если а = О и (} = 1, то нормальное распределение с такими параме­
трами называется сmа'Ндарm'Ны.м. Плотность стандартной: случайной:
величины имеет вид

r.p (х ) =

1

--е

J21i

х2

-2.

98 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

С ней мы уже встречались в п.

1.21, формула (1.37).
Функция распределения с. в. Х,...., N(O, 1) имеет вид

Ф(х) =

х

2

е-~ dt

- 1- /
~

-оо

и называется, как мы уже знаем (п. 1.21, формула (1.42)), функ'Ци­
еii, Лапласа. Она связана с нормированной функцией Лапласа Фо(х)
(п. 1.21, формула (1.40)), как мы уже знаем (формула (1.43) п. 1.21),
равенством

Ф(х) =

0,5 + Фо(х).

(2.42)

Действительно,

/

х t2
/О t2
Ф(х) = - 1е-2 dt = - 1е-2 dt
~ -оо
~ -оо
=
(см.

+ _l_
~



t2
е-2 dt =

о

k ·~ + Фо(х)

=

~ + Фо(х).

(2.40)).
Установим смысл параметров а и а нормального распределения.

Для этого найдем математическое ожидание и дисперсию с. в. Х ,....,

,...., N(a, а).
оо

М Х = / х · f (х) dx =

оо

1
(J·~

_

а)2

х · е -2Т dx =

-00

-00

=

/



[подстановка х - а = t] =
y"j,(J

00

а·

~ / (.f2(Jt + a)e-t
271'

2

.f2a dt =

-оо

00

= (J: / te-t dt + :;п
2

-00

т. е. М Х

=

00

/ e-t dt =О+ :;п ·Jn =а,
2

-00

а. Первый интеграл равен нулю, так как подинтегральная

функция нечетная, а пределы интегрирования симметричны относи­

тельно нуля, а второй интеграл равен
образом, параметр а

-

При нахождении дисперсии с. в. Х
новку

а
-- = t
\1'2а
х

Jn (см. равенство (2.39)). Таким

математическое ожидание.

,...., N(a, (J)

снова сделаем подста­

и применим метод интегрирования по частям:

Глава

2. Случайные величины • 99

00



= / (х - а) 2 f (х) dx =
-оо

---

среднее квадратичное отклонение.
Таким образом, DX = а 2 , а а
Можно показать, что для с. в. Х ,...., N (а, а): М0 Х = МеХ = а,

А = µ 33 = О, Е = µ 4
а4

а

-

3 = О.

Исследуем дифференциальную функцию

(2.38) нормального за-

кона:

1.

О при любом х Е ( -оо, оо); график функции расположен

f (х) >

выше оси Ох.

2.

Ось

Ох

liш
x-t±oo

3.

f(x)

Функция

=

служит асимптотой

f(x),

как

так

=О.

f(x)

имеет один максимум при х

= а, равный f(a) =

~. Действительно,

аv27Г

!

'()
х

= -

( х-а )

a3../'h

(х-а) 2

- -2o--2 е

< а,

то

О, а

Отсюда

если х

если х

что х =а точка максимума

И fmax

4.

графика функции

f'(x) = О при х = а, при этом:
>а, то f'(x) О,
r ХУ = -1 при а < О.
Если lrxyl = 1, то с. в. Х и
причем

4.

У связаны линейной функциональной

зависимостью.

Q 1.

Так как IKxy\ ~

CJx · cry

(свойство 7 ковариации), то

128 •

Раздел первый. Элементарная теория вероятностей и случайных процессов

2.

Кху =О в случае независимости Х и У. Следовательно,
Кху

rxy = - =0.
аха у
3.

Согласно свойствам ковариации, имеем

cov(X, У)= cov(X,aX

+ Ь) = cov(aX + Ь,Х)

= acov (х

+ ~,х) =

= acov(X,X) = aDX
и DY = D(aX

rxy
4.

+ Ь) =

а 2 DX. Поэтому

= cov(X, У) =
rxy = 1.

(см. свойство

7

при а> О,

{1,
=

- l,

при а< О.

Тогда из равенства

ковариации) получаем

D

т. е.

../l5X · ial · ../l5X = ~

../l5XVf5Y

Пусть

а

aDX

(

х

-а тх

- у - ту) а

х

- О,

у

Х -ахтх - у ~ Уrny = с ·~ постоянная. Но

-

с = мс = м (х ахтх

-

У -ауту)

=

-

м (х ахтх)

-

-

м (У ауту)
= 0-0 =о,

Х-тх

т. е. с

Значит,

r ХУ

получаем

= О.
= -1

ах

Таким образом, при rxy

нальной зависимостью.

У-ту

= ±1

ау

ау

, т.е. У= ах(Х-тх) +ту. При

с. в. Х и У связаны линейной функцио­

8

Итак, для независимых случайных величин rxy =О, для линейно

связанных lrxyl = 1, а в остальных случаях -1 < rxy < 1; гово­
рят, что с. в. связаны положителъноi1 коррел.я:циеi1, если r ХУ > О; если

Глава

rxy О

Если с.в. Х имеет м.о. МХ =а и дисперсию

DX,

то для

справедливо неравенство Чебышева

DX
P{IX - MXI ~с}~ - 2 ·
с

(5.1)

Глава

О

5.

Докажем неравенство

f (х).

Вероятность

Предельные теоремы теории вероятностей

для непрерывной с. в. Х с плотностью

(5.1)

al ?

P{IX -

с} есть вероятность попадания с. в. Х в

область, лежащую вне промежутка [а
а-е

Р {IX - al ~ с} =

j

-

с, а+ с]. Можно записать

+оо

f

j f (х) dx = j

(х) dx +

-оо

а+е

J (х

с}~ с\

[x-aj~e

lx -

так как область интегрирования

j

~

1 · f(x) dx

[x-aj~e

(х - а) 2 ? с 2 , откуда следует 1 ~

(х) dx =

f

[х-а[~е

j

P{IX - ai?

• 163

ai ?

(х - а) 2
с2

с можно записать в виде

. Имеем
00

-

а)

2

f(x) dx

~

J(х

:2

[х-а[~е

-

а) 2 f(x) dx,

-оо

так как интеграл от неотрицательной функции при расширении обла­
сти интегрирования может только возрасти. Таким образом,
00

P{IX -

al? с}~

1
с

2

j (х - а) 2 f(x) dx =

1
с

2

DX,

-00

т.е.

P{IX-al

DX

?с}~ - 2 ·
с

Аналогично доказывается неравенство Чебышева и для дискретной с. в. Х, принимающей значения х1, х2, хз,

L ).

с вероятностями р1,р2,

J )заменяются соответствующими

р 3 , •.. ; только интегралы (вида
суммами (вида

...

[x-a[~i::



[х;-а[~е

Отметим, что неравенство Чебышева можно записать в другой
форме:

P{IX - MXI о
(5.9)

т. е. среднее арифметическое с. в. сходится по вероятности к математи­
ческому ожиданию а:

12= xi----+
р
n.

п

i=l

О

n---too

а.

Так как
n

ft I:мxi

=

ft(MX 1 +MX2 + ... +MXn)

=

ft(a+a+ ... +a)

=

ft·na =а,

i=l

а дисперсии с. в. Xi равны числу а 2 , т. е. ограничены, то, применив ЗБЧ
в форме Чебышева (5.7), получим утверждение (5.9).
8
Следствие

(5.9)

теоремы Чебышева обосновывает «принцип сред­

него арифметического с. в. Хр>, постоянно используемый: на практике.

Так, пусть произведено п независимых измерений некоторой величи­
ны, истинное значение которой а (оно неизвестно). Результат каждого

Глава

измерения есть с. в.

Xi.

Предельные теоремы теории вероятностей

5.

Согласно следствию

(5.9),

• 167

в качестве прибли­

женного значения величины а можно взять среднее арифметическое
результатов измерений::
п

k2:: xi = Х.

а~

i=l
Равенство тем точнее, чем больше п.
На теореме Чебышева основан также широко применяемый: в ста­

тистике выборо-ч,н:ыtt метод, суть которого в том, что о качестве боль­
шого количества однородного материала можно судить по небольшой:

его пробе.

Теорема Чебышева подтверждает связь между случайностью и не­
обходимостью: среднее значение cлy-ч,att'l-tott вели-ч,и'l-tы
п

х

kL:xi

=

i=l
практически не отличается от нecлy-ч,ait'l-tott вели-ч,ин,ы
п

kL:мxi.
i=l
Пример

5.2.

Глубина моря измеряется прибором, не имеющим систе­

матической ошибки. Среднее квадратическое отклонение измерений не

превосходит

15 м.

Сколько нужно сделать независимых измерений:, что­

бы с вероятностью, не меньшей

0,9,

можно было утверждать, что сред­

нее арифметическое этих измерений отличается от а (глубины моря)
по модулю меньше, чем на

О

5

м?

Обозначим через

Xi результаты п независимых измерений: глубины
моря. Нужно найти число п, которое удовлетворяет неравенству (5.8):

P{lk t,x, -Й t,мх,1 10.

5.4.

Независимые с. в.

Xi

распределены равномерно на отрез­

Найти закон распределения с. в.

100

У=

L:xi,
i=l

а также вероятность того, что 55 В) или занижения (МО < О), на­
до потребовать, чтобы «математическое ожидание оценки было равно
оцениваемому параметру».

Если МОп -+ В, то оценка

0

71

называется асимптотически нес.ме­

щенно11.

Требование несмещенности особешю важно при малом числе на­

блюдений (орыто в).
Оценка Вп параметра

(}

называется состо.птел:ьной, если она схо­

дится по вероятности к оцениваемому параметру:

-

р

Вп ~В,
n--+oo

т. е. для любого с

>

О вьшош1шю

liш Р {1еп - BI < s}

n--+oo

= 1.

Это означает, что с увеличением объема выборки мы все ближе
приближаем~я к истинному значению параметра е, т. е. практически
достоверно

811

~

().

Свойство состоятельности обязательно для любого правила оцени­

вания (несостоятельные оценки не используются).

Глава

Элементы теории оценок и проверки гипотез

8.

• 227

Состоятельность оценки Вп часто может быть установлена с помо­
щью следующей теоремы.

Т~орема

8.1.

Если оц~нка ()п параметра

D()п -t О при п -t оо, то ()п

Q

- --

является несмещенной и

()

состоятельная оценка.

Запишем неравенство Чебышева для с. в. ()п для любого е
~

Р(lеп - е1 < е) ~ 1 -

D()
-f-·
f

Так как по условию lim DВп = О, то lim Р(IВп п--tоо

п--tоо

вероятность любого события не превышает

lim Р(IВп

п--tоо

т. е. Оп

-

- OI < е)

1 и,

01 <

е) ~ 1. Но

следовательно,

= 1,



состоятельная оценка параметра О.

Несмещенная оценка Оп параметра

()

> О:

называется эффект1tвноu,

если она имеет наименьшую дисперсию среди всех возможных несме­

щенных оценок параметра е, т. е. оценка ()п эффективна, если ее дисперсия минимальна.

Эффективную оценку в ряде случаев можно найти, используя не­
равенство Рао-Кра.мера:
~

D()п ~
где

I = !(()) ---

1

--,
n· 1

информация Фишера, определяемая в дискретном слу­

чае формулой

I = М
где р(х, е)

где

~
[ д()а lnp(X, О) ]2 = ~

= р{ х = х }, а в непрерывном -

f (х, е) -- плотность

2

[p 0(xi,e)]
p(xi, е)
· p(xi, ()),
формулой

распределения н. с. в. х.

Эффективность оценки определяется отношением

в·

228 •

Раздел второй. Основы математической статистики

где ()~

) . Чем ближе eff ()п к 1,
1
тем эффективнее оценка Оп. Если eff Оп ---+ 1 при п ---+ оо, то оценка

-

эффективная оценка

( D()~
-

=

п.1

называется аси.мптоmи'Чески эффективноu.
Отметим, что на практике не всегда удается удовлетворить всем

перечисленным выше требованиям (несмещенность, состоятельность,
эффективность), и поэтому приходится довольствоваться оценками, не

обладающими сразу всеми тремя свойствами. Все же три свойства, как
правило, выделяют оценку однозначно.

Точечные оценки математического ожидания и дисперсии
Пусть изучается с. в. Х с математическим ожиданием а
дисперсией

D Х;

=

МХ и

оба параметра неизвестны.

Статистика, используемая в качестве приближенного значения не­
известного щ1раметра генеральной совокупности, называется ее mо'Че'Ч­

ноiJ, оценкоiJ,. То есть точечная оценка характеристики генеральной со­

вокупности

--

это число, определяемое по выборке.

Пусть х1,х2,

...

,хп

-

выборка, полученная в результате проведе­

ния п независимых наблюдений за с. в. Х. Чтобы подчеркнуть случай­

ный характер величин х1, х2,

. . . , Хп,

т. е. под

Xi

... , Хп,

перепишем их в виде Х1, Х2,

Случайные величины Х1, Х2,

... , Хп

можно рассматривать как п не­

зависимых «экземпляров» величины Х. Поэтому МХ1

... =

МХп

= МХ

...

будем понимать значение с. в. Х в i-м опыте.

=а, DX1

=

МХ2

= DX2 = ... = DХп = DX.

Теорема

8.2. Пусть Х1,Х2, ... ,Хп MXi = МХ =а, DXi = DX (i

выборка из генеральной совокуп­

ности и

=

1,п). Тогда выборочное среднее

п

Хв =

ft L Xi -

несмещенная и состоятельная оценка математического

i=l
ожидания М Х.

О

Найдем м. о. оценки Х в:

МХв = м( ft f=xi) = kм(f=xi) = ft f=мxi = ft ·n· а= а.
·i=l

t=l

i=l

Отсюда по определению получаем, что Х в Далее, согласно теореме Чебышева (п.

несмещенная оценка М Х;

5.2), для любого с: > О имеет

Глава

8.

Элементы теории оценок и проверки гипотез

• 229

место равенство

которое, согласно условию теоремы, можно переписать так:

liш Р { IX в

n--+oo

-

М Х 1 < Е} = 1

или, что то же самое, liш р { 10 - е1
n--+oo

получаем, что Х в -

< Е} =

1. Согласно определению

состоятельная оценка М Х.



Можно показать, что при нормальном распределении с. в. Х эта

оценка, т. е. Х 8

,

будет и эффективной. На практике во всех случа­

ях в качестве оценки математического ожидания используется среднее

арифметическое, т. е. Хв.
В статистике оценку математического ожидания принято обозна­

чать через Х или Хв, а нс Х.
Покажем, что

МDв = n-;;_ l DX.

(8.2)

Действительно,

мп. = м( kt,(x, - х)') = м( kt,xl- (ft t,x.)
=ftм(t,xг)- ;,м(t,х.)

2

=

2
)

k·м(xi+xl+ ... +x~)-

--\. М(Х1 + Х2 + ... + Хп) 2 = ft(MXl + мх'#_ + ... + мх;)п

-

~2 ·М( Xl+X'#,+ .. .+х;+2(Х1Х2 + Х1Хз + Х2Хз +

... +

Хп-1Хп)) =

с~

п- -1· (МХ 2 +МХ 2 + ... + МХ2)
=
п2
1
2
п

- 22 · (МХ1 · МХ2 + МХ1МХз + МХ2МХз + ... + МХп-1МХп) =
п
= n-l ·(MX 2 +MX 2 + ... +MX 2)n2
п

-

2 (МХ-МХ+МХ·МХ+ ... +МХ·МХ) =

2
п

= п -1 ·n·MX 2 _.1__ n(n-1) ·(МХ) 2 =
п2

п2

2

n-;;,

1.мх2_ п-;;, l(MX)2 =

230 • Раздел второй. Основы математической статистики

= п ~ l(MX2 -(МХ)2) = n;; 1. DX.
Из равенства

(8.2) следует, что MD 0

=/=-

DX,

перси.я .явл.яетс.я смещенно1J, 014енкоu дисперсии

т. е. выборо'чiн,а.я дис­

D Х.

Поэтому выбороч­

ную дисперсию исправляют, умножив ее на _!i__l' получая формулу
п-

82 = _ll_l D0 (см. (7.11) ).
п-

Теорема

Пусть Х1, Х2,

8.3.

... , Хп -

выборка из генеральной совокуп­

= а, DXi = DX (i = 1,п). Тогда исправленная
выборочная дисперсия 8 2 = __l_l
'"°'(Xi
- Х) 2 = _!i__l
·D
несмещенп~
nности и

MXi = МХ

п

0 --

i=l

ная состоятельная оценка дисперсии

О

D Х.

Примем без доказа'l'ельства состоятельность оценки

82•

Докажем

ее несмещешюсть.

Имеем

М8 2

= М (-п-Dв)
п-1

= _п_ ·MD0 = _п_ · n- l DX = DX
п-1

п-1

п

т. е. М 8 2 = D Х. Отсюда по определению получаем, что 8 2 щенная оценка

'

несме­

D Х.

8

Отметим, что при больших значениях п разница между D 0 и

82

очень мала и они практически равны, поэтому оценку 8 2 используют
для оценки дисперсии при малых выборках, обычно при п:::;;

30.

Имеют место следующие теоремы.

Теорема 8.4. Относительная частота ~\ появления события А в п не­
зависимых испытаниях является несмещенной состоятельной и эффек­

тивной оценкой неизвестной вероятности р = Р(А) этого события (р

-

вероятность наступления события А в каждом испытании).

-

Отметим, что состоятельность оценки В
текает из теоремы Бернулли (см. п.

Теорема

8.5.

=

пА

n

непосредственно вы-

5.3).

Эмпирическая функция распределения выборки F*(x)

является несмещенной состоятельной оценкой функции распрсделе1rюr

F (х)

случайной величины Х.

Глава

8. Элементы теории оценок и проверки гипотез • 231

Пример 8.1. Монету подбрасывают п раз. Вероятность выпадения гер­
ба при каждом подбрасывания равна р. В ходе опыта монета выпала
гербом пл раз. Показать несмещенность оценки

пА

=n

вероятности

() =

р выпадения герба в каждом опыте.

Q

Число успехов (пА) имеет распределение Бернулли. Тогда М(rц) =

= пр, D(пА) =

npq = np(l -

1 · М( nA ) = n
1 ·n · р =
= n

8.2.

-

()

р

р). Следовательно, МВ

=

- nA
= (), т. е. оценка()=

М (~~) =

n --- несмещенная.

8

Методы нахождения точечных оценок
Рассмотрим наиболее распространенные методы получения точеч­
ных оценок параметров распределения: метод моментов и метод макси­

мального правдоподобия (кратко: ММП) и метод наименьшихквадра­
тов (кратко МНК).

Метод моментов
Метод моментов для нахождения точечных оценок неизвестных
параметров заданного распределения состоит в приравнивании rпеоре­

ти'Ч,еских .моментов распреде.л,ени.я соответствующим эмпири-ч.еС'К'UМ

.моментам, найденных по выборке.

Так, если распределение зависит от одного параметра
задан вид плотности распределения
оценки надо решить относительно



()

f (х, е)),

() (например,

то для нахождения его

одно уравнение:

00

(МХ =

· J(x, О) dx

=ер( О) есть функция от О).

-оо

Если распределение зависит от двух параметров (например, вид

плотности распределения
и

02

систему уравнений:

f (х, 81, 82)) -

надо решить относительно 81

232 •

Раздел второй. Основы математической статистики

И, наконец, если надо оценить п параметров

01 , 02 , ... , Оп -

надо

решить одну из систем вида:

1 п
MX=n;l:::Xi,

мх 2 =

МХ=Х,

i=l

hf, х;,

DX=Dв,
или

i=l

1

мхk = -

п

п
""""""'xk.
6

i'

i=l

Метод моментов является наиболее простым методом оценки пара­
метров. Он был предложен в

1894

г. Пирсоном. Оценки метода момен­

тов обычно состоятельны, однако их эффективность часто значительно
меньше единицы.

Пример

8.2.

Найти оценки параметров нормального распределения

с. в. Х методом моментов.

Q

Требуется по выборке х1, х2,

вестных параметров а

=

МХ

=

... , Хп найти точечные оценки неиз­
01 и О" = VDX = 02.

По методу моментов приравниваем их, соответственно, к выбороч­

ному среднему и выборочной дисперсии

мент

I порядка, µ2

= DX -

(а 1 =

МХ

--

начальный мо­

центральный момент П порядка). Полу-

чаем

т.е.

Итак,

искомые оценки параметров нормального распределения:

01 = Хв и 02 = Щ.

8

Метод максимального правдоподобия
Пусть х 1 , х 2 , ... , Хп - - выборка, полученная в результате проведе­

ния п независимых наблюдений за с. в: Х. И пусть вид закона рас­

пределения величины Х, например, вид плотности

f (х, О),

известен, но

Глава

неизвестен параметр

8. Элементы теории оценок и проверки гипотез • 233

(),

которым определяется этот закон. Требуется

по выборке оценить параметр

().

В основе метода максима.пьного правдоподобия (ММП), предло­
женного Р. Фишером, лежит понятие функции правдоподобия.
Фун:кциеti правдоподобш~, построенной по выборке х1, х2,
зывается функция аргумента

()

... , Хп,

на­

вида

или
п

L(x,e) = ПJ(xi,e),
i=l

где

f(x, О)

~плотность распределения с. в. Х в случае, если Х

прерывная. Если Х

--

---

не­

дискретная с. в., то функция правдоподобия име­

ет вид

п

L(x, В)= р(х1, В)· р(х2, В)· ... · р(хп, О) = Пр(хi, В),
i=l

где

p(xi,e)

= Р{Х = Xi,e}.

Из определения следует, что чем больше значение функции

L(x, В),

тем более вероятно (правдоподобнее) появление (при фиксированном
В) в результате наблюдений чисел х 1 , х2,

За то'Ч,е'Ч,~::_ую оценку параметра
его З'Нд'Ч,ение

(),

... , Хп·
согласно ММП, берут такое

(),

при котором функция, правдоподобия, достигает мак­

симума.

Эта оценка, называемая ои,енкоti максималъиого правдоподоби.я,
является решением уравнения

dL(x, О)
de
Так как функции

L(x,e)

ном и том же значении

L(x, О)

и

1

_

о.

--

6=6

lnL(x,O)

достигают максимума при од­

(), то вместо отыскания максимума функции

ищут (что проще) максимум функции lnL(x, О).

Таким образом, для нахождения оценки максимального правдопо­

добия надо:

1.

решить уравнение правдоподобия

d(lnL(x, О))
d()

1

6=0

=О·
'

234 •

Раздел второй. Основы математической статистики

2.

отобрать то решение, которое обращает функцию lнL(x,B) в мак­
симум (удобно использовать вторую производную: если

d2 1пL(x, е)

1

de 2

-

(}=(}