Правило 3-х I (трех “сигм”). Совместное распределение двух

реклама
1
Правило 3-х I (трех “сигм”).
Пусть имеется нормально распределённая случайная величина x с
математическим ожиданием, равным а и дисперсией s2. Определим вероятность попадания x в интервал (а – 3s; а + 3s), то есть вероятность того, что x
принимает значения, отличающиеся от математического ожидания не более,
чем на три среднеквадратических отклонения.
P(а – 3s< x < а + 3s)=Ф(3) – Ф(–3)=2Ф(3)
По таблице находим Ф(3)=0,49865, откуда следует, что 2Ф(3) практически
равняется единице. Таким образом, можно сделать важный вывод: нормальная
случайная величина принимает значения, отклоняющиеся от ее
математического ожидания не более чем на 3s.
(Выбор числа 3 здесь условен и никак не обосновывается: можно было
выбрать 2,8, 2,9 или 3,2 и получить тот же вероятностный результат. Учитывая,
что Ф(2)=0,477, можно было бы говорить и о правиле 2–х “сигм”.)
Совместное распределение двух случайных величин.
Пусть пространство элементарных исходов W случайного эксперимента
таково, что каждому исходу wij ставиться в соответствие значение случайной
величины x, равное xi и значение случайной величины h, равное yj.
Примеры:
1. Представим себе большую совокупность деталей, имеющих вид
стержня. Случайный эксперимент заключается в случайном выборе
одного стержня. Этот стержень имеет длину, которую будем обозначать
x и толщину—h (можно указать другие параметры—объем, вес, чистота
обработки, выраженная в стандартных единицах).
2. Если результат эксперимента—случайный выбор какого–либо
предприятия в данной области, то за x можно принимать объем
производства отнесенный к количеству сотрудников, а за h—объем
продукции, идущей на экспорт, тоже отнесенной к числу сотрудников.
В этом случае мы можем говорить о совместном распределении случайных
величин x и h или о “двумерной” случайной величине.
Если x и h дискретны и принимают конечное число значений (x – n
значений, а h – k значений), то закон совместного распределения случайных
величин x и h можно задать, если каждой паре чисел xi, yj (где xi принадлежит
множеству значений x, а y j—множеству значений h) поставить в соответствие
вероятность pij, равную вероятности события, объединяющего все исходы wij (и
состоящего лишь из этих исходов), которые приводят к значениям
x = xi ; h = y j .
Такой закон распределения можно задать в виде таблицы:
2
x
x1
xi
xn
h
¼
¼
y1
y2
¼
yj
¼
yk
р11
¼
р i1
¼
рn1
P1
р12
¼
р i2
¼
рn2
P2
¼
¼
¼
¼
¼
¼
р1j
¼
р ij
¼
рnj
Pj
¼
¼
¼
¼
¼
¼
р1k
¼
р ik
¼
рnk
Pk
n
P1
¼
Pi
¼
Pn
¼
(*)
k
j
Очевидно å å pi = 1
i =1 j =1
Если просуммировать все рij в i–й строке, то получим
k
j
å pi = Pi
j =1
вероятность того, что случайная величина x примет значение xi. Аналогично,
если просуммировать все рij в j–м столбце, то получим
n
j
j
å pi = P
i =1
вероятность того, что h принимает значение y j.
Соответствие xi ® Pi (i = 1,2,¼,n) определяет закон распределения x,
также как соответствие yj ® P j (j = 1,2,¼,k) определяет закон распределения
случайной величины h.
n
k
i =1
j =1
j j
Очевидно M x = å xi Pi , M h = å y P .
Раньше мы говорили, что случайные величины x и h независимы, если
pij=Pi×P j (i=1,2,¼,n; j=1,2,¼,k).
Если это не выполняется, то x и h зависимы.
В чем проявляется зависимость случайных величин x и h и как ее выявить
из таблицы?
Рассмотрим столбец y1. Каждому числу xi поставим в соответствие число
pi1
pi/1=
(1)
P1
которое будем называть условной вероятностью x= xi при h=y1. Обратите
внимание на то, что это не вероятность Pi события x= xi, и сравните формулу (1)
P( A 1 B)
.
с уже известной формулой условной вероятности P( A / B) =
P( B)
Соответствие
xi®рi/1, (i=1,2,¼,n)
3
будем называть условным распределением случайной величины x при h=y1.
n
Очевидно å pi / 1 = 1 .
i =1
Аналогичные условные законы распределения случайной величины x
можно построить при всех остальных значениях h, равных y2; y3,¼, yn ,ставя в
pij n
соответствие числу xi условную вероятность pi/j =
( å pi / j = 1 ).
Pj i =1
В таблице приведён условный закон распределения случайной величины x
при h=yj
x
x1
x2
pi/j
p1j
Pj
p2j
Pj
¼
xi
¼
pij
Pj
¼
xn
¼
pnj
Pj
Можно ввести понятие условного математического ожидания x при h = yj
n
pij
1 n
M ( x / h = y j ) = å xi j = j å xi pij
P
P i =1
i =1
Заметим, что x и h равноценны. Можно ввести условное распределение h
при x=xi соответствием
pi j
y ®
(j = 1,2,¼,k)
Pi
Также можно ввести понятие условного математического ожидания
случайной величины h при x=xi :
j
k
1 k j j
j pi
M ( h / x = xi ) = å y
=
åy p
Pi
Pi j =1 i
j =1
Из определения следует, что если x и h независимы, то все условные
законы распределения одинаковы и совпадают с законом распределения x
(напоминаем, что закон распределения x определяется в таблице (*) первым и
последним столбцом). При этом очевидно, совпадают все условные
математические ожидания М(x/h = yj) при j = 1,2,¼,k, которые равны Мx.
Если условные законы распределения x при различных значениях h
различны, то говорят, что между x и h имеет место статистическая зависимость.
Пример I. Пусть закон совместного распределения двух случайных
величин x и h задан следующей таблицей. Здесь, как говорилось ранее, первый
и последний столбцы определяют закон распределения случайной величины x,
а первая и последняя строки – закон распределения случайной величины h.
j
4
2
3
1/36
0
2/36
1/36
2/36
3/36
1/36
8/36
6/36 12/36
Полигоны условных распределений
графике (рис. 1).
Здесь явно просматривается зависимость условного закона распределения
x от величины h.
Пример II. (Уже встречавшийся).
Пусть даны две независимые случайные величины x и h с законами
распределения
0
0
2/36
16/36
18/36
можно
x
10
20
30
40
0
1/3
x
Р
1
h
1
2/3
1/36
3/36
7/36
25/36
изобразить на трехмерном
1
3/4
h
Р
2
1/4
Найдем законы распределений случайных величин a=x+h и b=x*h
a
Р
1
3/12
2
7/12
3
2/12
b
Р
0
4/12
1
6/12
2
2/12
Построим таблицу закона совместного распределения a и b.
a
1
2
3
b
0
1
2
3/12
0
0
3/12
1/12
6/12
0
7/12
0
0
2/12
2/12
4/12
6/12
2/12
Чтобы получить a=2 и b=0, нужно чтобы x приняла значение 0, а h
приняла значение 2. Так как x и h независимы, то
Р(a=2; b=0)= Р(x=0; h=2)=Р(x=0)*Р(h=2)=1/12.
Очевидно также Р(a=3; b=0)=0.
5
Построим полигоны условных
распределений. Здесь зависимость a от
b довольно близка к функциональной:
значению b=1 соответствует единственное a=2, значению b=2 соответствует единственное a=3, но при
b=0 мы можем говорить лишь, что a с
3
вероятностью
принимает значение 1
4
1
– значение 2.
4
и с вероятностью
Пример III.
Рассмотрим закон совместного распределения x и h, заданный таблицей
x
1
2
3
h
0
1
2
1/30
3/30
2/30
1/5
3/30
9/30
6/30
3/5
1/30
3/30
2/30
1/5
1/6
3/6
2/6
В этом случае выполняется условие P(x=xi; h=yj)=P(x=xi)*P(h=yj),
i=1,2,3¼; j=1,2,3,¼
Построим законы условных распределений
x
ph=1 ( x) = ph= 2 (x) =
= ph=3 (x) = ph= 4 (x)
1
1/5
2
3/5
3
1/5
Законы условных распределений не отличаются друг от друга при h=1,2,3
и совпадают с законом распределения случайной величины x.
В данном случае x и h независимы.
Характеристикой зависимости между случайными величинами x и h
служит математическое ожидание произведения отклонений x и h от их
центров распределений (так иногда называют математическое ожидание
случайной величины), которое называется коэффициентом ковариации или
просто ковариацией.
cov(x; h) = M((x–Mx)(h–Mh))
Пусть x = {x1, x2, x3,¼, xn}, h = {y1, y2, y3,¼,yn}. Тогда
n
k
cov(x; h)= å å ( xi - Mx)( y j - Mh)P((x = xi ) 1( h = y j ))
i =1 j =1
(2)
6
Эту формулу можно интерпретировать так. Если при больших значениях x
более вероятны большие значения h, а при малых значениях x более вероятны
малые значения h, то в правой части формулы (2) положительные слагаемые
доминируют, и ковариация принимает положительные значения.
Если же более вероятны произведения (xi – Mx)(yj – Mh), состоящие из
сомножителей разного знака, то есть исходы случайного эксперимента,
приводящие к большим значениям x в основном приводят к малым значениям h
и наоборот, то ковариация принимает большие по модулю отрицательные
значения.
В первом случае принято говорить о прямой связи: с ростом x случайная
величина h имеет тенденцию к возрастанию.
Во втором случае говорят об обратной связи: с ростом x случайная
величина h имеет тенденцию к уменьшению или падению.
Если примерно одинаковый вклад в сумму дают и положительные и
отрицательные произведения (xi – Mx)(yj – Mh)pij, то можно сказать, что в
сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом
случае не просматривается зависимость одной случайной величины от другой.
Легко показать, что если
P((x = xi)∩(h = yj)) = P(x = xi)P(h = yj) (i = 1,2,¼,n; j = 1,2,¼,k),
òî cov(x; h)= 0.
Действительно из (2) следует
n
k
å å xi - Mx y j - Mh Px = xi P h = y j =
i =1 j = 1
n
k
i =1
j =1
= å xi - MxPx = xi × å y j - Mh P h = y j =
= M x - Mx M h - Mh = 0 × 0 = 0
Здесь использовано очень важное свойство математического ожидания:
математическое ожидание отклонения случайной величины от ее
математического ожидания равно нулю.
Доказательство (для дискретных случайных величин с конечным числом
значений).
n
n
n
i =1
i =1
i =1
M x - Mx = å xi - Mx P xi = å xi P xi - Mx å P xi = Mx - Mx = 0
Ковариацию удобно представлять в виде
cov(x; h)=M(xh–xMh–hMx+MxMh)=M(xh)–M(xMh)–M(hMx)+M(MxMh)=
=M(xh)–MhMx–MxMh+MxMh=M(xh)–MxMh
Ковариация двух случайных величин равна математическому ожиданию
их произведения минус произведение математических ожиданий.
7
Легко доказывается следующее свойство математического ожидания: если
x и h—независимые случайные величины, то М(xh)=МxМh. (Доказать самим,
n m
используя формулу M(xh) = å å xi y j P x = xi P h = y j )
i =1 j =1
Таким образом, для независимых случайных величин x и h cov(x;h)=0.
Скачать