Вероятность что одна случайная величина меньше другой
Перейти к содержимому

Вероятность что одна случайная величина меньше другой

  • автор:

ЛЕКЦИЯ 10

Нормальное распределение. Функция нормального распределения. Функция Лапласа. Числовые характеристики нормального распределения. Вероятность попадания нормально распределенной случайной величины в заданный интервал. Правило трех сигм. Распределения, связанные с нормальным: распределения Стьюдента, Пирса и Фишера. Характеристическая функция нормального распределения.

8. НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ

8.1. Функция нормального распределения

Одним из наиболее часто встречающихся распределений является нормальное распределение. Оно играет большую роль в теории вероятностей и ее приложениях. Фундаментальная роль, которую играет нормальное распределение, объясняется тем, что суммы случайных величин с ростом числа слагаемых при довольно широких предположениях ведут себя асимптотически нормально (см. тему «Центральная предельная теорема»).

Плотность функции нормального распределения имеет вид

. (8.1)

Функция нормального распределения имеет вид

. (8.2)

Однако часто вместо функции нормального распределения используется функция Лапласа.

Пусть a=0, =1, то получим

. (8.3)

Такая функция называется стандартным нормальным распределением. Запишем данную функцию в следующем виде

.

Поскольку F0(+)=1, то в силу симметрии первое слагаемое равно 0,5, а второе слагаемое есть функция Лапласа

. (8.4)

.

Отсюда получаем равенство

, (8.5)

связывающее функцию нормального распределения и функцию Лапласа.

Для стандартного нормального распределения и функции Лапласа существуют обширные таблицы. Однако здесь нужно иметь в виду, что иногда вместо рассмотренных функций используют функции

. (8.6)

или интеграл ошибок

. (8.7)

Замечание. Открытие нормального распределения связано с именами К. Гаусса и П. Лапласа, у которых оно впервые появилось связи с исследованием по теории ошибок и методу наименьших квадратов. Поэтому нормальное распределение называют еще распределением Лапласа-Гаусса, или просто распределением Гаусса или Лапласа.

Найдем математическое ожидание нормального распределения:

.

.

M[X] = a, D[X] =  2 ,

т.е. нормальное распределение характеризуется двумя параметрами: a, имеющему смысл математического ожидания, и , имеющему смысл среднего квадратичного отклонения.

График плотности функции нормального распределения имеет следующий вид (кривая Гаусса). Максимум будет при x=a, точки перегиба в точках a– и a+. Кривая симметрична относительно прямой x=a. С уменьшением  кривая становится все более островершинной.

8.2. Вероятность попадания нормально распределенной случайной величины в заданный интервал

Известно, что если случайная величина X задана плотностью распределения f(x), то вероятность того, что X примет значение, принадлежащее интервалу (,), имеет вид

.

В случае нормального распределения эта формула примет следующий вид

. (8.8)

Часто требуется вычислить вероятность того, что отклонение случайной величины X по абсолютной величине меньше заданного положительного числа , т.е. требуется найти вероятность осуществления неравенства |X–a|<. Заметим, что неравенство равносильным ему двойным неравенством a–<X<a+. Тогда

.

. (8.9)

В частности, если , то

P(|X–a|<2) = 2(2) = 0,9545;

P(|X–a|<3) = 2(3) = 0,9973.

Последнее равенство показывает, что во многих практических вопросах при рассмотрении нормального распределения можно пренебречь возможностью отклонения случайной величины от a больше, чем 3 Это есть т.н. правило «трех сигм».

Например, каждому кто занимался измерениями, встречался с ситуацией, когда появляется «дикое значение». В связи с этим возникает проблема: исключать это значение или его следует оставить. Так, при разработке норматива времени для изготовления одной детали проделали следующие измерения: 5,0; 4,8; 5,2; 5,3; 5,0; 6,1. Последнее число сильно отличается от других. В связи с этим возникает вопрос, не скрыта ли здесь ошибка в измерениях. Вычислим среднее значение и среднее квадратичное отклонение =0,46. После этого построим «трехсигмовый» интервал: (4,84; 6,61). Поскольку значение x=6,1 не выходит за пределы трехсигмовой зоны, то его нельзя считать «диким».

Другой пример. На конвейере изготовляются детали. На основании статистических данных контроля деталей вычисляют среднее квадратичное отклонение . Затем строят прямую средней линии, окаймленную трехсигмовой полосой. Если точки контрольных измерений находятся внутри трехсигмовой полосы, то технологический процесс следует считать стабильным и качество продукции высоким. Если точки близки к контрольным линиям, но не выходят за пределы трехсигмовой зоны, то это указывает на разладку технологического процесса. Если же точки выходят за пределы трехсигмовой зоны, то это означает, что идет брак.

Пример 8.1. Автомат изготовляет шарики. Шарик считается годным, если отклонение диаметра шарика X от проектного по абсолютной величине не превышает 0,7 мм. Считая, что случайная величина X распределена нормально со средним квадратичным отклонением 0,4 мм, определить, сколько процентов годных шариков изготовляет автомат.

Решение. Поскольку =0,4 мм и =0,7 мм, то

Следовательно, автомат изготовляет 92% годных деталей.

8.3. Распределения, связанные с нормальным

8.3.1. Распределение Пирсона ( 2 -распределение)

Пусть независимые случайные величины U1, U2, …, Uk описываются стандартным нормальным распределением: Ui=N(0,1). Тогда распределение суммы квадратов этих величин

(8.10)

называется распределением  2 («хи-квадрат») с k степенями свободы. В явном виде плотность функции этого распределения имеет вид

(8.11)

где – гамма-функция; в частности, (n+1)=n!.

Распределение Пирсона определяется одним параметром – числом степеней свободы k. Графики этой функции изображены на рис. 8.2. Числовые характеристики распределения Пирсона:

Если случайные величины  2 (k1) и  2 (k2) независимы, то

.

Отметим, что с увеличением числа степеней свободы распределение Пирсона постепенно приближается к нормальному.

8.3.2. Распределение Стьюдента (t-распределение)

Пусть U –стандартная нормально распределенная случайная величины, U=N(0,1), а  2 – случайная величина, имеющая  2 -распределение с k степенями свободы, причем U и  2 независимые величины. Тогда распределение величины

(8.12)

называется распределением Стьюдента (t-распределением) с k степенями свободы. В явном виде плотность функции распределения Стьюдента имеет вид

График этой функции изображен на рис. 8.3.

Числовые характеристики распределения Стьюдента:

Отметим, что с возрастанием числа степеней свободы распределение Стьюдента быстро приближается к нормальному.

8.3.3. Распределение Фишера (F-распределение)

Пусть  2 (k1) и  2 (k2) – независимые случайные величины, имеющие  2 -распределение соответственно с k1 и k2 степенями свободы. Распределение величины

(8.14)

называется распределением Фишера (F-распределением) со степенями свободы k1 и k2. В явном виде плотность распределения Фишера имеет вид

(8.15)

График этой функции изображен на рис. 8.4.

Числовые характеристики распределения Фишера:

тметим, что между случайными величинами, имеющими нормальное распределение, распределение Пирсона, Стьюдента и Фишера, имеют место соотношения:

8.4*. Характеристическая функция нормального распределения

Пусть случайная величина  распределена по стандартному нормальному распределению. Тогда для характеристической функции получим

.

Делая замену y=x–it, получим

.

Из теории функций комплексной переменной известно, что

.

Поэтому окончательно получаем .

Как мы видели, если случайная величина  распределена по стандартному нормальному закону, то случайная величина =t+m распределена но нормальному закону с параметрами m и . Тогда характеристические функции f(t) и f(t) связаны по свойству 2 соотношением

,

или, окончательно получаем, что характеристическая функция для нормального распределения имеет вид

. (8.16)

Система случайных величин. Задачи с решениями

Одна случайная величина – хорошо, а две – лучше, а ещё лучше – их система, которую также называют двумерной случайной величиной. Кроме того, можно рассмотреть системы трёх и бОльшего количества величин, но это уже будет слишком хорошо, а оно, как известно, плохо 🙂 Продолжаем разговор о случайных величинах (СВ), и для тех, кто не в теме, я сразу привёл ссылку выше. Для более подготовленных читателей тоже сразу:

– на ближайших уроках будут разобраны распространённые задачи с двумерной случайной величиной и кратко освещены соответствующие теоретические моменты.

План такой, нам с тобой:

  • В этой статье рассмотрим самые-самые популярные вещи, которые предлагаются даже студентам-заочникам. Это простейшие примеры с двумерной дискретной, а также составной одномерной СВ наподобие . + Матожидания, дисперсии и иже с ними.
  • Далее остановимся на задачах с дискретной зависимой случайной величиной, условных законах распределения и узнаем, как находить коэффициенты ковариации и корреляции.
  • Двумерная непрерывная случайная величина, функция распределения и функция плотности распределения. С подробными объяснениями примерами и эксклюзивными чертежами
  • И, наконец, условные законы распределения и коэффициент ковариации двумерной непрерывной СВ.

Ещё раз подчёркиваю, что будет, в основном, практика, и если вам нужны развернутые теоретические выкладки, то рекомендую обратиться к одному из последних изданий учебного пособия В.Е. Гмурмана, которое переиздаётся более 50 лет, и в представлении не нуждается.

Ну а меня зовут Александр Емелин (кто не знает), и я с энтузиазмом присматриваюсь к следующему столетию:)

Вспоминаем первый урок по теме и эталонный пример с игральным кубиком (костью), где мы рассмотрели случайную величину – количество очков, выпавших в результате его броска. В правильных руках правильный кубик даёт следующий закон распределения вероятностей:

Теперь рассмотрим другой такой же кубик и случайную величину – количество очков, выпавших на этом кубике. Очевидно, что вероятности выпадения его граней будут точно такими же:

Что мы имеем? Две случайные величины. Но это пока что не система, как, например, не являются системой отдельно взятые диффуры. О системе речь заходит, когда мы рассматриваем эти величины ВМЕСТЕ, например, при подбрасывании костей в игре.

Построим закон распределения вероятностей системы . Так как результат броска одного кубика никак не влияет на количество очков, выпавших на другом кубике, то случайные величины являются независимыми.

По теореме умножения вероятностей независимых событий, вероятность выпадения любой возможной комбинации очков постоянна и равна . Закон распределения вероятностей можно записать аналитически:

– вероятность выпадения любой пары , где случайные величины могут принять одно из следующих значений: , .

Но в произвольной задаче вероятности чаще бывают разными, и поэтому на практике широко распространена табличная запись системы. Тот случай, когда копипаст не просто полезен, а очень полезен:

Устройство таблицы очевидно, но на всякий случай я обвёл красным один пример: вероятность того, что случайная величина примет значение 2 и случайная величина значение 4 записывается в ячейку, расположенную на пересечении 2-й строки и 4-го столбца.

Обратите внимание, что сумма всех вероятностей равна единице, это означает, что в таблице учтены все возможные исходы (полная группа), и в результате броска двух кубиков достоверно появится одна из 36 пар.

Помимо дискретных, систему могут образовывать и непрерывные случайные величины. За примером далеко ходить не будем: предположим, что мы бросаем игральный кубик в некую цель, например, в коробку. Тогда уместно рассмотреть следующую двумерную случайную величину: , где – случайное отклонение от цели «по горизонтали» (влево/вправо) и – случайное отклонение от цели в длину (ближе/дальше).

Кстати, есть ли отличие между понятиями «система двух случайных величин» и «двумерная случайная величина»? – в различных источниках информации используют и тот, и другой термин. С моей точки зрения, отличие есть. Двумерная или большемерная случайная величина, как правило, порождается в результате конкретного испытания, зачастую (но не обязательно) с одним объектом, пожалуйста – тот же бросок кубика в цель. Понятие же системы более формально: один кубик может подбрасывать бабушка на кухне, а другой дедушка в коридоре, или даже ничего не подбрасывать, а совершать прыжки в длину. Но математика-то не запрещает рассмотреть соответствующие СВ единой системой! А психиатрия вообще приветствует.

Независимые случайные величины принимают только целые значения:

– от 1 до 13 с равными вероятностями;
– от 1 до 16 с равными вероятностями.

Найти – вероятность того, что в очередном испытании сумма появившихся чисел будет меньше шести.

Решение: предложенные случайные величины можно ассоциировать с нестандартными игральными костями, на одной из которых 13, а на другой – 16 граней.

Из условия следует, что:
– вероятность того, что случайная величина примет какое-либо значение равна ;
– вероятность того, что случайная величина примет какое-либо значение равна .

Так как случайные величины независимы, то по теореме умножения вероятностей независимых событий, вероятность появления любой пары чисел в очередном испытании постоянна и равна: . Заметьте, что рассмотрение пар уже констатирует тот факт, что мы рассматриваем СИСТЕМУ случайных величин, а не их по отдельности.

Подсчитаем количество пар, соответствующих событию :

сумме соответствует единственная пара ;

Итого: 10 нужных пар.

По теореме сложения вероятностей несовместных событий:
– вероятность того, что сумма появившихся чисел будет меньше шести

Ответ:

Но то, конечно, была разминка:

Две независимые дискретные случайные величины и заданы своими законами распределения вероятностей:

Нет, это не опечатка, случайные величины имеют одинаковые законы распределения. Здесь их удобно ассоциировать с двумя одинаковыми и независимо работающими палатами игровыми автоматами, на которых с определенными вероятностями загораются пронумерованные лампочки.

1) Найти закон распределения вероятностей системы случайных величин и вычислить:
математическое ожидание случайной величины , при условии, что другая величина приняла значение ;
– математическое ожидание случайной величины , при условии .

2) Вычислить – вероятности того, что случайная величина примет значение из соответствующих двумерных областей.

3) Найти закон распределения вероятностей случайной величины . Вычислить математическое ожидание и дисперсию .

В реальной работе вам может встретиться и то, и другое, и третье и чётвёртое, поэтому разбираемся во всём осознанно и очень внимательно.

Решение:

1) Составим закон распределения вероятностей системы случайных величин.

«Иксовые» вероятности будем обозначать как обычно:
,
а к «игрековым» вероятностям добавим «птичку»:

Вычисления стандартно начнём с наименьшего «икса» и «игрека». Найдём – вероятность того, что случайная величина примет значение и случайная величина значение . По условию, случайные величины независимы, и коль скоро так, то по теореме умножения вероятностей независимых событий:

Найдём – вероятность того, что :

И так далее. Вычисления удобно проводить на калькуляторе или даже устно, а результаты заносить в таблицу. В качестве ещё одного примера я вычислил и отметил красным цветом вероятность – того, что случайные величины примут значения :

Это и есть закон распределения системы . Не забываем проверить, что сумма всех вероятностей равна единице. Кстати, это ещё не значит, что ошибок нет. Для бОльшей уверенности следует просуммировать вероятности по строкам – в результате должны получиться , т.е. закон распределения случайной величины ; и просуммировать вероятности по столбцам – в результате должны получиться «игрековые» вероятности величины .

Для системы СВ не вводится понятия «общего» математического ожидания, однако можно подсчитать матожидания условные – при условии, что одна из величин примет или уже приняла некоторое конкретное значение.

Вычислим – математическое ожидание случайной величины , при условии, что другая величина приняла значение . Так как случайные величины независимы, то распределение случайной величины не зависит от того, какое значение приняла случайная величина . А значит, при любом возможном значении «игрек» условные математические ожидания:
– в точности равны матожиданию самой случайной величины .

Логично? Представьте, что на 2-м игровом автомате зажглась лампочка (любая). Ну и что с того? Первый же автомат работает независимо!

Следует отметить, что с зависимыми величинами всё не так, и на следующем уроке мы разберём алгоритм вычисления условного матожидания, который формально пригоден и для независимых величин.

Ну а пока нам достаточно найти математическое ожидание , и заодно сразу вычислим дисперсию, потребуется позже:

Таким образом:

С вероятностью аналогично – представьте, что на «иксовом» игровом автомате зажглась лампочка №4. Ну и что? Это никак не повлияло на «игрековый» автомат и его матожидание, поэтому:
– даже считать не пришлось, т.к. наши случайные величины имеют одинаковые распределения вероятностей.

2) Вычислим вероятность – того, что случайная величина примет значение из области, которую задают неравенства в скобках.

По аналогии с одномерным случаем, это можно сделать с помощью функции распределения вероятностей. Но для двумерной СВ составить такую функцию – не то, чтобы сложное, но весьма кропотливое занятие, и поэтому здесь проще просуммировать вероятности, соответствующие условиям . На рисунке ниже я обвёл их красным цветом, и обратите внимание, что в силу строгости неравенства , строку не следует включать в эту область. Таким образом: – вероятности я привык суммировать по строкам слева направо.

Аналогично, область отграничена синим цветом, и здесь не следует учитывать значение . В результате: – вероятность того, что компонента примет значения, не превосходящее двух, и компонента – значение, меньшее двух.

И с вероятностью всё просто. Поскольку на переменную «икс» не наложено никаких ограничений, то она может быть любой, но вот то, что «игрек» окажется больше четырёх – есть событие невозможное. Поэтому .

Точно по такому же принципу вычисляются вероятности и в случае зависимости случайных величин , . Тут разницы нет.

3) Найдем закон распределения вероятностей случайной величины .

Принципиальным отличием от предыдущих пунктов является то, что здесь речь идёт об одномерной случайной величине. Как получаются её значения? С помощью суммирования случайных значений , которые могут принять величины . И нам нужно перебрать все возможные варианты.

Начать удобно с самой маленькой возможной суммы, её образует пара , в результате чего случайная величина «зет» примет значение с вероятностью:

Может ли сумма равняться трём? Может. Исходу соответствуют пары . По теоремам умножения вероятностей независимых и сложения несовместных событий:

Сумме соответствуют пары и вероятность:

Сумма тоже возможна, и ей соответствуют 4 пары: . Наверное, вы заметили, что вероятности выпадения всех пар уже подсчитана в первом пункте, и, возможно, на практике вам будет удобнее предварительно составить таблицу распределения вероятностей системы . Но, разумеется, можно обойтись и без неё:

Сумме соответствуют пары и вероятность:

и, наконец, сумме – последняя возможная пара :
.

Искомый закон распределения сведём в таблицу и сразу проведём стандартные вычисления для нахождения матожидания и дисперсии:

Обязательно контролируем, что , ну и дальнейшее просто:

4) Вычислим

Начнём с . Как можно поступить? Можно составить закон распределения случайной величины . Паре соответствует значение , паре – значение , паре – значение и так далее…. И далее напрямую вычислить матожидание. Но есть путь короче.

Для математического ожидания справедливы следующие свойства:

– математическое ожидание величины, которая принимает единственное значение , равно этому значению. Логично

– постоянный множитель можно вынести за знак матожидания.

– это свойство справедливо как для независимых, так и для зависимых случайных величин. И сразу убедимся в справедливости этого факта. В первом пункте мы вычислили , во втором – :
, что и требовалось проверить.

Но, следует отметить, что вам может быть предложено и «драконовское» задание, а именно, доказать, что . При такой формулировке таки придётся составить закон распределения случайной величины и вычислить непосредственно.

Едем дальше. С нахождением никаких проблем: в первом пункте мы уже вычислили и по свойствам матожидания:

Энтузиасты могут составить случайную величину , и убедиться в справедливости равенства .

И осталось вычислить .

Для дисперсии справедливы следующие свойства:

– дисперсия постоянной величины равна нулю.

– константу можно вынести за знак дисперсии, возведя её в квадрат. Тоже логично: коль скоро, дисперсия – есть квадратичная величина, то при вынесении постоянного множителя, мы должны «расплатиться» возведением его в квадрат.

Для независимых случайных величин справедливо:
, и сразу проверяем: в пункте 1 мы нашли , и в пункте 3 вычислили .

Внимание! Для зависимых величин данное равенство неверно! Но об этом в другой раз.

И из последних двух свойств следует парадоксальное на первый взгляд равенство:
, и тут прямо какой-то закон философии получился – когда из хаоса мы пытаемся вычесть другой хаос, то меры этих хаосов только суммируются.

И настал торжественный момент заключительных вычислений нашей большой задачи:

Но готовы ли вы? 🙂 Небольшая задачка для самостоятельного решения:

Две независимые дискретные случайные величины и заданы своими законами распределения вероятностей:

1) Найти закон распределения вероятностей системы и вычислить .

Вычисления, кстати, удобно проводить в Экселе – «забиваем» числа и не «забиваем» 🙂

2) Найти закон распределения вероятностей случайной величины , вычислить и вероятность того, что полученная СВ примет отрицательное значение.

3) Проверить справедливость равенства

В последнем пункте сформулировано ещё одно свойство математического ожидания, которое справедливо только для независимых случайных величин.

Наверное, вы обратили внимание, что во всех задачах этой статьи в условии прямо констатируется независимость случайных величин. Но такого подарка может и не быть, и тогда нам предстоит выполнить самостоятельное исследование. Как его провести? Существуют строгие математические критерии, позволяющие выяснить, зависимы случайные величины или нет, и я приглашаю вас на следующий урок, где мы не только рассмотрим соответствующие примеры, но и узнаем много интересного.

Краткое решение Примера 3:

1) Используя теоремы умножения вероятностей независимых и сложения несовместных событий, составим закон распределения системы :

Суммируя вероятности по строкам, убеждаемся, что получается закон распределения случайной величины , и, суммируя вероятности по столбцам, получаем в точности закон распределения .

Вычислим требуемые вероятности:

2) Найдём закон распределения случайной величины .

Начнём с наименьшего значения , которое даёт пара . Вероятности появления всех возможных комбинаций уже вычислены в предыдущем пункте:

Произведению соответствуют пары . По теореме сложения несовместных событий:

Произведению соответствует пара :

Произведению соответствуют пары :

и, наконец, произведению – пара :

Закон распределения случайной величины сведём в 2 верхние строки расчётной таблицы, не забывая проконтролировать, что :

Математическое ожидание: , дисперсия:

– вероятность того, что случайная величина примет отрицательное значение.

3) Покажем справедливость равенства .

– вычислено в предыдущем пункте.

Вычислим матожидания исходных случайных величин:

Таким образом:

– получено верное равенство, что и требовалось проверить.

Автор: Емелин Александр

(Переход на главную страницу)

Contented.ru – онлайн школа дизайна

SkillFactory – получи востребованную IT профессию!

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *