На Главную

ГДЗ: Английский язык       Алгебра       Геометрия       Физика       Химия       Русский язык       Немецкий язык

Подготовка к экзаменам (ЕГЭ)       Программы и пособия       Краткое содержание       Онлайн учебники
Шпаргалки       Рефераты       Сочинения       Энциклопедии       Топики с переводами

Канал о жизни дикой лисы в 

домашних условиях.

Все темы:"Рефераты по Математике"


Серьёзные лекции по высшей экономической математике .

                        Правило 3-х ( (трех “сигм”).
      Пусть  имеется  нормально  распределённая  случайная  величина   (   с
математическим ожиданием, равным а и дисперсией  (2.  Определим  вероятность
попадания ( в интервал (а – 3(; а + 3(), то есть  вероятность  того,  что  (
принимает значения, отличающиеся от математического ожидания не  более,  чем
на три среднеквадратических отклонения.
                  P(а – 3(< ( < а + 3()=Ф(3) – Ф(–3)=2Ф(3)
    По таблице находим Ф(3)=0,49865, откуда следует, что 2Ф(3)  практически
равняется единице. Таким образом, можно  сделать  важный  вывод:  нормальная
случайная величина принимает значения, отклоняющиеся от  ее  математического
ожидания не более чем на 3(.
    (Выбор числа 3 здесь условен и  никак  не  обосновывается:  можно  было
выбрать 2,8,  2,9  или  3,2  и  получить  тот  же  вероятностный  результат.
Учитывая, что Ф(2)=0,477, можно было бы говорить и о правиле 2–х “сигм”.)

              Совместное распределение двух случайных величин.

    Пусть  пространство  элементарных  исходов  (  случайного  эксперимента
таково, что каждому исходу (ij ставиться в соответствие  значение  случайной
величины (, равное xi и значение случайной величины (, равное yj.
    Примеры:
    1. Представим себе большую совокупность деталей,  имеющих  вид  стержня.
       Случайный эксперимент заключается в случайном выборе одного  стержня.
       Этот стержень имеет длину, которую будем  обозначать  (  и  толщину—(
       (можно  указать  другие  параметры—объем,  вес,  чистота   обработки,
       выраженная в стандартных единицах).
    2. Если результат эксперимента—случайный выбор какого–либо предприятия в
       данной области, то за ( можно принимать объем производства отнесенный
       к количеству сотрудников, а за (—объем продукции, идущей на  экспорт,
       тоже отнесенной к числу сотрудников.
    В этом случае мы можем говорить о  совместном  распределении  случайных
величин ( и ( или о “двумерной” случайной величине.
      Если ( и ( дискретны и  принимают  конечное  число  значений  ((  –  n
значений, а ( – k значений), то закон  совместного  распределения  случайных
величин ( и  (  можно  задать,  если  каждой  паре  чисел  xi,  yj  (где  xi
принадлежит множеству значений (, а y j—множеству значений  ()  поставить  в
соответствие вероятность pij, равную вероятности события, объединяющего  все
исходы  (ij  (и  состоящего  лишь  из  этих  исходов),  которые  приводят  к
значениям
                              ( = xi; ( = y j.
    Такой закон распределения можно задать в виде таблицы:

|(      |y1    |y2    |(     |yj    |(     |yk    |      |       |
|(      |      |      |      |      |      |      |      |       |
|x1     |р11   |р12   |(     |р1j   |(     |р1k   |P1    |       |
|(      |(     |(     |(     |(     |(     |(     |(     |       |
|xi     |рi1   |рi2   |(     |рij   |(     |рik   |Pi    |(*)    |
|(      |(     |(     |(     |(     |(     |(     |(     |       |
|xn     |рn1   |рn2   |(     |рnj   |(     |рnk   |Pn    |       |
|       |P1    |P2    |(     |Pj    |(     |Pk    |(     |       |

    Очевидно 
      Если просуммировать все рij в i–й строке, то получим
                                    
вероятность того, что случайная величина ( примет значение  xi.  Аналогично,
если просуммировать все рij в j–м столбце, то получим
                                    
вероятность того, что ( принимает значение y j.
    Соответствие xi ( Pi  (i = 1,2,(,n) определяет закон  распределения  (,
также   как   соответствие   yj ( P   j   (j = 1,2,(,k)   определяет   закон
распределения случайной величины (.
    Очевидно , .
    Раньше мы говорили, что случайные величины ( и ( независимы, если
                     pij=Pi(P j  (i=1,2,(,n; j=1,2,(,k).
Если это не выполняется, то ( и ( зависимы.
    В чем проявляется зависимость случайных величин ( и ( и как ее  выявить
из таблицы?
    Рассмотрим столбец y1. Каждому числу xi поставим в соответствие число
                                  pi/1= (1)
которое будем называть  условной  вероятностью  (=  xi  при  (=y1.  Обратите
внимание на то, что это не вероятность Pi события (= xi, и сравните  формулу
(1) с уже известной формулой условной вероятности .
    Соответствие
                            xi(рi/1, (i=1,2,(,n)
будем называть  условным  распределением  случайной  величины  (  при  (=y1.
Очевидно .
    Аналогичные условные законы распределения случайной  величины  (  можно
построить при всех остальных значениях (,  равных  y2;  y3,(,  yn  ,ставя  в
соответствие числу xi условную вероятность pi/j = ().
    В таблице приведён условный закон распределения случайной   величины  (
при (=yj


|(     |x1    |x2    |(     |xi    |(     |xn    |
|pi/j  | | |(     | |(     | |


    Можно ввести понятие условного математического ожидания ( при ( = yj
                                    
      Заметим, что ( и ( равноценны. Можно ввести условное  распределение  (
при (=xi соответствием

                               (j = 1,2,(,k)
    Также можно ввести понятие условного математического ожидания случайной
величины ( при (=xi :
                                    
    Из определения следует, что если ( и  (  независимы,  то  все  условные
законы  распределения  одинаковы  и  совпадают  с  законом  распределения  (
(напоминаем, что закон распределения ( определяется в таблице (*)  первым  и
последним   столбцом).   При   этом   очевидно,   совпадают   все   условные
математические ожидания М((/( = yj) при j = 1,2,(,k, которые равны М(.
    Если  условные  законы  распределения  (  при  различных  значениях   (
различны,  то  говорят,  что  между  (  и  (  имеет   место   статистическая
зависимость.
    Пример I. Пусть закон совместного распределения двух случайных  величин
( и ( задан следующей  таблицей.  Здесь,  как  говорилось  ранее,  первый  и
последний столбцы определяют закон распределения  случайной  величины  (,  а
первая и последняя строки – закон распределения случайной величины (.

|(     |1     |2     |3     |      |
|(     |      |      |      |      |
|10    |1/36  |0     |0     |1/36  |
|20    |2/36  |1/36  |0     |3/36  |
|30    |2/36  |3/36  |2/36  |7/36  |
|40    |1/36  |8/36  |16/36 |25/36 |
|      |6/36  |12/36 |18/36 |      |


    Полигоны условных распределений можно изобразить на трехмерном  графике
(рис. 1).

    Здесь явно просматривается зависимость условного закона распределения (
от величины (.
    Пример II. (Уже встречавшийся).
    Пусть даны  две  независимые  случайные  величины  (  и  (  с  законами
распределения

|(     |0     |1     |      |(     |1     |2     |
|Р     |1/3   |2/3   |      |Р     |3/4   |1/4   |

    Найдем законы распределений случайных величин (=(+( и (=(((

|(     |1     |2     |3     |      |(     |0     |1     |2     |
|Р     |3/12  |7/12  |2/12  |      |Р     |4/12  |6/12  |2/12  |

    Построим таблицу закона совместного распределения ( и (.

|(     |0     |1     |2     |      |
|(     |      |      |      |      |
|1     |3/12  |0     |0     |3/12  |
|2     |1/12  |6/12  |0     |7/12  |
|3     |0     |0     |2/12  |2/12  |
|      |4/12  |6/12  |2/12  |      |


    Чтобы получить (=2 и (=0, нужно чтобы ( приняла значение 0, а ( приняла
значение 2. Так как ( и ( независимы, то
                Р((=2; (=0)= Р((=0; (=2)=Р((=0)(Р((=2)=1/12.
    Очевидно также Р((=3; (=0)=0.

    Построим полигоны условных распределений.  Здесь  зависимость  (  от  (
довольно близка к функциональной: значению  (=1  соответствует  единственное
(=2, значению (=2 соответствует  единственное  (=3,  но  при  (=0  мы  можем
говорить лишь,  что  (  с  вероятностью    принимает  значение  1  и  с
вероятностью  – значение 2.
    Пример III.
    Рассмотрим закон совместного распределения ( и (, заданный таблицей

|(     |0     |1     |2     |      |
|(     |      |      |      |      |
|1     |1/30  |3/30  |2/30  |1/5   |
|2     |3/30  |9/30  |6/30  |3/5   |
|3     |1/30  |3/30  |2/30  |1/5   |
|      |1/6   |3/6   |2/6   |      |


    В  этом  случае  выполняется  условие  P((=xi;   (=yj)=P((=xi)(P((=yj),
i=1,2,3(; j=1,2,3,(
    Построим законы условных распределений

|(                 |1     |2     |3     |
|             |1/5   |3/5   |1/5   |


    Законы условных распределений не отличаются друг от друга при (=1,2,3 и
совпадают с законом распределения случайной величины (.
    В данном случае ( и ( независимы.
    Характеристикой зависимости между случайными величинами (  и  (  служит
математическое  ожидание  произведения  отклонений  (  и  (  от  их  центров
распределений  (так  иногда  называют  математическое   ожидание   случайной
величины),  которое   называется   коэффициентом   ковариации   или   просто
ковариацией.
                         cov((; () = M(((–M()((–M())
    Пусть ( = (x1, x2, x3,(, xn(, ( = (y1, y2, y3,(,yn(. Тогда
                            cov((; ()=  (2)
    Эту формулу можно интерпретировать так. Если при  больших  значениях  (
более вероятны большие значения (, а при малых значениях  (  более  вероятны
малые значения (, то в правой  части  формулы  (2)  положительные  слагаемые
доминируют, и ковариация принимает положительные значения.
    Если же более вероятны произведения  (xi – M()(yj – M(),  состоящие  из
сомножителей  разного  знака,  то  есть  исходы   случайного   эксперимента,
приводящие к большим значениям ( в основном приводят к малым значениям  (  и
наоборот, то ковариация принимает большие по модулю отрицательные значения.
    В первом случае принято говорить о прямой связи: с ростом  (  случайная
величина ( имеет тенденцию к возрастанию.
    Во втором случае говорят  об  обратной  связи:  с  ростом  (  случайная
величина ( имеет тенденцию к уменьшению или падению.
    Если  примерно  одинаковый  вклад  в  сумму  дают  и  положительные   и
отрицательные произведения (xi – M()(yj – M()pij, то можно  сказать,  что  в
сумме они будут “гасить” друг друга и ковариация  будет  близка  к  нулю.  В
этом случае не  просматривается  зависимость  одной  случайной  величины  от
другой.
    Легко показать, что если
    P((( = xi)((( = yj)) = P(( = xi)P(( = yj) (i = 1,2,(,n; j = 1,2,(,k),
то cov((; ()= 0.
    Действительно из (2) следует
                                    
                                    
                                    
    Здесь использовано  очень  важное  свойство  математического  ожидания:
математическое ожидание отклонения случайной величины от ее  математического
ожидания равно нулю.
    Доказательство (для дискретных  случайных  величин  с  конечным  числом
значений).
                                    
    Ковариацию удобно представлять в виде
          cov((; ()=M(((–(M(–(M(+M(M()=M((()–M((M()–M((M()+M(M(M()=
                      =M((()–M(M(–M(M(+M(M(=M((()–M(M(
    Ковариация двух случайных величин  равна  математическому  ожиданию  их
произведения минус произведение математических ожиданий.
    Легко доказывается следующее свойство математического ожидания: если  (
и  (—независимые  случайные  величины,  то  М((()=М(М(.   (Доказать   самим,
используя формулу M((() = )
      Таким образом, для независимых случайных величин ( и ( cov((;()=0.

1  2  3  4  5  6  7  8  9  10  11  12  13  14  15  16  17  18