ГИПЕРГЕОМЕТРИЧЕСКОЕ РАСПРЕДЕЛЕНИЕ: ФОРМУЛЫ, УРАВНЕНИЯ, МОДЕЛЬ – НАУКА

Бесплатные примеры решения задач по теории вероятностей на тему: Гипергеометрическое распределение дискретной случайной величины. Подробные объяснения, формулы, комментарии к решенным задачам – учитесь легко

Краткая теория

С понятием гипергеометрической вероятности мы уже сталкивались ранее, когда решали определенный кластер задач по формуле классической вероятности: задачи про выбор шаров определенного цвета, выигрышных лотерейных билетов или бракованных деталей. Теперь такие же задачи будут встречаться и при изучении случайных величин.

Для определенности сформулируем задачу следующим образом:

Из урны, в которой находятся $N$ шаров ($K$ белых и $N-K$ чёрных шаров), наудачу и без возвращения вынимают $n$ шаров ($n le N$). Найти закон распределения случайной величины $X$ – равной числу белых шаров среди выбранных.

Случайная величина $X$ может принимать целые значения от $0$ до $K$ (если $n lt K$, то до $n$). Вероятности вычисляются по формуле:$$P(X=k)=frac{C_K^k cdot C_{N-K}^{n-k}}{C_N^n}, quad 0le k le K. $$

В задачах, конечно же, речь может идти не только о шарах белого и черного цвета, а о многом другом: телевизорах марки А или Б, выигрышных и проигрышных билетах, стандартных и нестандартных деталях и т.п. выборках, где есть объекты двух типов и мы отслеживаем, сколько объектов нужного “типа” появится.

Для гипергеометрического распределения можно вычислять числовые характеристики (математическое ожидание и дисперсию) как по обычным формулам (по ряду распределения), так и по готовым формулам:

$$M(X)=frac{K}{N}cdot n, quad D(X)=frac{K}{N}cdot n cdot frac{N-n}{N} cdot frac{N-K}{N-1}.$$

Полезная страница? Сохрани или расскажи друзьям

Определение

Пусть имеется конечная совокупность, состоящая из {displaystyle N} элементов. Предположим, что {displaystyle n} из них обладают нужным нам свойством. Оставшиеся {displaystyle N-n} этим свойством не обладают. Случайным образом из общей совокупности выбирается группа из {displaystyle D} элементов. Пусть {displaystyle Y} – случайная величина, равная количеству выбранных элементов, обладающих нужным свойством. Тогда функция вероятности {displaystyle Y} имеет вид:

{displaystyle p_{Y}(k)equiv mathbb {P} (Y=k)={frac {C_{D}^{k},C_{N-D}^{n-k}}{C_{N}^{n}}}},

где {displaystyle C_{n}^{k}equiv {frac {n!}{k!,(n-k)!}}} обозначает биномиальный коэффициент. Пишем: {displaystyle Ysim mathrm {HG} (D,N,n)}.

Ссылки

http://en.wikipedia.org/wiki/Hypergeometric_distribution

Гипергеометрическое распределение

Дискретная случайная величина имеет гипергеометрическое распределение с параметрами n, k, m, если она принимает значения 0, 1, 2, … с вероятностями geometric-image002.gif.
Гипергеометрическое распределение имеет случайная величина Х, равная числу объектов, обладающих заданным свойством, среди m объектов, случайно извлеченных (без возврата) из совокупности n объектов, k из которых обладают этим свойством.
Например:

  • В партии из 10 деталей 3 бракованных. Извлекается 4 детали. Х – число годных деталей среди извлеченных. (m = 4, n = 10, k = 3). см. решение

Математическое ожидание случайной величины Х, имеющей гипергеометрическое распределение, и ее дисперсия равны:
geometric-image003.gif

Пример №1. В урне 2 белых и 3 черных шара. Шары наудачу достают из урны без возвращения до тех пор, пока не появится белый шар. Как только это произойдет, процесс прекращается. Составить таблицу распределения случайной величины X – числа произведенных опытов, найти F(x), P(X ≤ 2), M(X), D(X).·
Решение: Обозначим через А – появление белого шара. Опыт может быть проведен только один раз, если белый шар появится сразу:p2-image001.gif. Если же в первый раз белый шар не появился, а появился при втором извлечении, то X=2. Вероятность такого события равна p2-image002.gif. Аналогично: p2-image003.gif, p2-image004.gif, p2-image005.gif. Запишем данные в таблицу:

НайдемF(x):
p2-image006.gif
Найдем P(X ≤ 2) = P(X = 1 или X = 2) = 0,4 + 0,3 = 0,7
M(X) = 1 · 0,4 + 2 · 0,3 +3 · 0,2 + 4 · 0,1 = 2.
D(X) = (1-2)2 · 0,4 + (2-2)2 · 0,3 +(3-2)2 · 0,2 + (4-2)2 · 0,1 = 1.

Пример №2. В ящике содержится 11 деталей, среди которых 5 бракованных. Сборщик наудачу извлекает 4 деталей.
1. Найти вероятность того, что среди извлеченных деталей: a) 4 бракованных; b) одна бракованная; c) две бракованные; d) хотя бы одна бракованная.
2. Составить закон распределения случайной величины X– числа бракованных деталей среди извлеченных.
3. Найти M(X), D(X), σ(X).
4. Вычислить P(1<X<4)
Решение:
1. Найти вероятность того, что среди извлеченных деталей:
a) 4 бракованных;
p2-image007.gif
b) одна бракованная;
Общее число возможных элементарных исходов для данных испытаний равно числу способов, которыми можно извлечь 4 детали из 11:
p2-image008.gif
Подсчитаем число исходов, благоприятствующих данному событию (среди 4 деталей ровно 1 деталь дефектная):
p2-image009.gif
Остальные 3 детали можно выбрать из 7:
p2-image010.gif
Следовательно, число благоприятствующих исходов равно: 5*20 = 100
Искомая вероятность равна отношению числа исходов, благоприятствующих событию, к числу всех элементарных исходов: P(1) = 100/330 = 0,303
c) две бракованные;
p2-image011.gif
d) хотя бы одна бракованная.
Вероятность того, что нет дефектных деталей. X = 0.
p2-image012.gif
Тогда вероятность того, что хотя бы одна бракованная составит:
P = 1 – P(0) = 1 – 0,0455 = 0,95

2. Составим закон распределения P(x), X -числа бракованных деталей среди извлеченных.
Найдем вероятность появления трех бракованных изделий.
p2-image013.gif

X 0 1 2 3 4
P 0,0455 0,303 0,4545 0,182 0,015

2. Найдем M(X), D(X), σ(X).
Математическое ожидание находим по формуле m = ∑xipi.
Математическое ожидание M[X].
M[x] = 0*0.0455 + 1*0.303 + 2*0.4545 + 3*0.182 + 4*0.015 = 1.818
Дисперсию находим по формуле d = ∑x2ipi – M[x]2.
Дисперсия D[X].
D[X] = 02*0.0455 + 12*0.303 + 22*0.4545 + 32*0.182 + 42*0.015 – 1.8182 = 0.694
Среднее квадратическое отклонение σ(x).
p2-image014.gif

3. Вычислим P(1<X<4). Для этого найдем функцию распределения F(X).
F(x≤0) = 0
F(0< x ≤1) = 0.0455
F(1< x ≤2) = 0.303 + 0.0455 = 0.349
F(2< x ≤3) = 0.455 + 0.349 = 0.803
F(3< x ≤4) = 0.182 + 0.803 = 0.985
F(x>4) = 1
Вероятность попадания СВ в тот ли иной интервал находится по формуле:
P(a ≤ X < b) = F(b) – F(a)
Найдем вероятность того, что СВ будет находиться в интервале 1 ≤ X < 4
P(1 ≤ X < 4) = F(4) – F(1) = 0.985 – 0.0455 = 0.9395

Пример №3. В партии 7 деталей 3 бракованные. Контролер наудачу достает 4 детали. Составить закон распределения случайной величины Х – числа годных деталей в выборке. Найти математическое ожидание и дисперсию Х. Построить график функции распределения.
Всего исправных деталей: 7-3 = 4
1. Найдем вероятность того, что среди выбранных 4 деталей одна исправная.
Общее число возможных элементарных исходов для данных испытаний равно числу способов, которыми можно извлечь 4 детали из 7:
p2-image015.gif
Подсчитаем число исходов, благоприятствующих данному событию:

а) одну деталь среди 4 годных можно выбрать способами, количество которых равно:
p2-image016.gif

б) Остальные 3 бракованные детали можно выбрать из 3 бракованных:
p2-image017.gif
p2-image018.gif

Аналогично:
2. Найдем вероятность того, что среди выбранных 4 деталей 2 исправных.
p2-image019.gif
p2-image020.gif
p2-image021.gif
p2-image022.gif

3. Найдем вероятность того, что среди выбранных 4 деталей 3 исправных.
p2-image023.gif
p2-image024.gif
p2-image025.gif
p2-image026.gif

4. Найдем вероятность того, что все выбранные детали годные.
p2-image027.gif

x 1 2 3 4
p 0.114 0.514 0.343 0.029

Математическое ожидание находим по формуле m = ∑xipi.
Математическое ожидание M[X].
M[x] = 1*0.114 + 2*0.514 + 3*0.343 + 4*0.029 = 2.287
Дисперсию находим по формуле d = ∑x2ipi – M[x]2.
Дисперсия D[X].
D[X] = 12*0.114 + 22*0.514 + 32*0.343 + 42*0.029 – 2.2872 = 0.491
Среднее квадратическое отклонение σ(x).
p2-image028.gif

§ 4. 

,

img155.gif img650.gif

, :

img651.gif

,

img155.gif img652.gif

    1, ..

img653.gif

.

img155.gif

:

img654.gifimg655.gif

,

img155.gif img472.gif

, :

img656.gif

,

img155.gif

1 0

img472.gif img524.gif

.

img155.gif img472.gif

: .

img155.gif

:

img155.gif    0   1 
img658.gif img524.gif img472.gif

img155.gif :

img659.gifimg660.gif

,

img155.gif img249.gif img458.gif

,  :

img661.gif

,

img155.gif img662.gif   img663.gif

.

img18.gif img472.gif

.

img155.gif

:

img664.gif

 img665.gif.

,

img473.gif img458.gif

,  

img666.gif

,

img473.gif img667.gif img668.gif

.

img472.gif

.

img473.gif

:

img669.gif

,

img155.gif img291.gif

,

img545.gif

, :

img1008.gif

,

img155.gif img671.gif img672.gif

.

img155.gif

.

,

img155.gif img18.gif

,

img107.gifimg124.gif

,

img673.gif

,

img126.gif

,

img155.gif img2.gif

,

img674.gif

,

img675.gif

,

img676.gif

.

img18.gif

, ,

img124.gif img125.gif

.

26.

, .

N.Ch.

определение

Гипергеометрическое распределение зависит от трех параметров:

Распределение теперь предоставляет информацию о том, насколько вероятно, что элементы с проверяемым свойством (успешные или совпадения) находятся в выборке. Таким образом, пространство результата .k{ displaystyle k}k Ω{ displaystyle Omega}Омега{Максимум{0,п+М.-N},…,мин{п,М.}}{ displaystyle { max {0, n + MN }, dotsc, min {n, M } }} { max  {0, n + MN },  dotsc,  min  {n, M } }

Дискретная случайная величина подчиняется гипергеометрическому распределению с параметрами , и , если они являются вероятностямиИкс{ displaystyle X}ИксМ.{ displaystyle M}М.N{ displaystyle N}Nп{ displaystyle n}п

ЧАС(k|N;М.;п)знак равноп(Иксзнак равноk)знак равно(М.k)(N-М.п-k)(Nп){ Displaystyle час (к | N; M; n): = P (X = k) = { frac { displaystyle {M choose k} {NM choose nk}} { displaystyle {N choose n} }}}час (К | N; M; N): = P (X = k) = { frac { displaystyle {M  choose k} {NM  choose nk}} { displaystyle {N  choose n}}}

для собственников. Биномиальный коэффициент означает « над ». Тогда вы пишите или .k∈Ω{ displaystyle k in Omega}к  ин  Омега(Nп){ displaystyle { tbinom {N} {n}}}{ tbinom Nn}N{ displaystyle N}Nп{ displaystyle n}пИкс∼ЧАСyпN,М.,п{ displaystyle X sim Hyp_ {N, M, n}}X  sim Hyp _ {{N, M, n}}Икс∼ЧАС(N,М.,п){ Displaystyle Х сим Н (N, M, n)}Х  сим H (N, M, n)

Затем функция распределения указывает вероятность того, что в выборке присутствует не более элементов с проверяемым свойством. Эта кумулятивная вероятность представляет собой суммуЧАС(k∣N;М.;п){ Displaystyle Н (к середина N; M; п)}H (k  mid N; M; n) k{ displaystyle k}k

ЧАС(k|N;М.;п)знак равноп(Икс≤k)знак равно∑yзнак равно0kЧАС(y∣N;М.;п)знак равно∑yзнак равно0k(М.y)(N-М.п-y)(Nп){ Displaystyle Н (К | N; М; п): = п влево (Икс Leq к вправо) = сумма _ {у = 0} ^ {к} ч влево (у середина N; М; п справа) = сумма _ {y = 0} ^ {k} { frac { displaystyle {M choose y} { displaystyle {NM} choose {ny}}} { displaystyle {N choose n }}}}H (k | N; M; n): = P  left (X  leq k  right) =  sum _ {{y = 0}} ^ {k} h  left (y  mid N; M; n  right) =  sum _ {{y = 0}} ^ {k} { frac { displaystyle {M  choose y} { displaystyle {NM}  choose {ny}}} { displaystyle {N  choose n}}}.

Альтернативная параметризация

Иногда ее также называют функцией вероятности.

ЧАСyпБ.1,Б.2,п({k})знак равно(Б.2k)(Б.1п-k)(Б.1+Б.2п){ displaystyle Hyp_ {B_ {1}, B_ {2}, n} ( {k }): = { frac { displaystyle {B_ {2} choose k} {B_ {1} choose nk} } { displaystyle {B_ {1} + B_ {2} выбрать n}}}}Hyp _ {{B_ {1}, B_ {2}, n}} ( {k }): = { frac { displaystyle {B_ {2}  choose k} {B_ {1}  choose nk} } { displaystyle {B_ {1} + B_ {2}  выбрать n}}}

использовал. Это относится и к вышеупомянутому варианту.Nзнак равноБ.1+Б.2{ displaystyle N = B_ {1} + B_ {2}}N = B_ {1} + B_ {2}М.знак равноБ.2{ displaystyle M = B_ {2}}M = B_ {2}

1.Биномиальный закон распределения.

   Биномиальный закон распределения описывает вероятность наступления события А m раз в n независимых испытаниях, при условии, что вероятность р наступления события А в каждом испытании постоянна.

Биномиальный закон распределения

   

   Например, отдел продаж магазина бытовой техники в среднем получает один заказ на покупку телевизоров из 10 звонков. Составить закон распределения вероятностей на покупку m телевизоров. Построить полигон распределения вероятностей.

    Пример биномиального распределения   График биномиального закона распределения
Рис.1    

   В таблице m – число заказов, полученных компанией на покупку телевизора. Сnm – число сочетаний m телевизоров по n, p – вероятность наступления события А, т.е. заказа телевизора, q – вероятность не наступления события А, т.е. не заказа телевизора, P m,n – вероятность заказа m телевизоров из n. На рисунке 1 изображен полигон распределения вероятностей.

 

См. также

  • Выборочный контроль качества
  • Слабая вероятностная аксиоматика

Категория: Вероятностные распределения

5.Равномерный закон распределения.

     

   Если плотность вероятности ϕ(х) есть величина постоянная на определенном промежутке [a,b], то закон распределения называется равномерным. На рис.5 изображены графики функции распределения вероятностей и плотность вероятности равномерного закона распределения.

   

Равномерный закон распределения

  График равномерного закона распределения
Рис.5  

Числовые значения для примеров

ч (х | 45; 20; 10)
Икс Количество возможных
результатов
Вероятность
в%
0 3 268 760 0,1024
1 40 859 500 1,2807
2 205,499,250 6,4416
3 547 998 000 17,1776
4-й 858.049.500 26,8965
5 823,727,520 25,8207
6-е 490.314.000 15,3694
7-е 178 296 000 5,5889
8-е 37 791 000 1,1846
9 4 199 000 0,1316
10 184 756 0,0058
3.190.187.286 100,0000
Ожидаемое значение 4,4444
Дисперсия 1,9641
ч (х | 45; 10; 20)
Икс Количество возможных
результатов
Вероятность
в%
0 3 247 943 160 0,1024
1 40 599 289 500 1,2808
2 204.190.544.250 6,4416
3 544 508 118 000 17,1776
4-й 852.585.079.500 26,8965
5 818.481.676.320 25,8207
6-е 487.191.474.000 15,3694
7-е 177.160.536.000 5,5889
8-е 37 550 331 000 1,1846
9 4 172 259 000 0,1316
10 183 579 396 0,0058
11… 20 0 0
3 169 870 830 126 100,0000
Ожидаемое значение 4,4444
Дисперсия 1,9641
ч (х | 49; 6; 6)
Икс Количество возможных
результатов
Вероятность
в%
0 6.096.454 43,5965
1 5,775,588 41,3019
2 1,851,150 13,2378
3 246 820 1,765
4-й 13 545 0,0969
5 258 0,0018
6-е 1 0,0000072
13 983 816 100,0000
Ожидаемое значение 0,7347
Дисперсия 0,5776

Решенные упражнения

Следующий набор упражнений предназначен для иллюстрации и усвоения концепций, представленных в этой статье. Важно, чтобы читатель попытался решить их самостоятельно, прежде чем смотреть на решение.

Связь с другими распределениями

he:התפלגות היפרגאומטריתhu:Hipergeometrikus eloszlásnl:Hypergeometrische verdelingsv:Hypergeometrisk fördelning

Рейтинг
( 1 оценка, среднее 5 из 5 )
Загрузка ...