Закономерности распределения


Закономерности распределения (ЗНР)

Каждому ряду распределения свойственна определенная закономерность, выражением которой является кривая распределения, представляющая собой функцию распределения F(x)=P(X<x). Иногда эту функцию называют функцией накопленной вероятности или кумулятивной функцией распределения.

Можно выделить определенную зависимость между изменением частот и изменением значений признаков: частоты изменяются закономерно с изменением варьирующего признака, т. е. с увеличением значения варьирующего признака частоты первоначально увеличиваются, затем, достигнув  какой-то максимальной величины в середине ряда, уменьшаются. Такие закономерности изменения частот в вариационных рядах называются закономерностями распределения.

Эмпирическим распределением называют распределение частот (относительных частот), соответствующих отдельным значениям признака, функционально связанных с изменением вариант.

Если в качестве весов при расчете центрального момента взять не частоты (f), а вероятности (p), то получим теоретические моменты распределения. Отсюда, теоретическим называют распределение вероятностей.

Классическая вероятность:

В классической схеме вероятность любого события определяется как отношение числа благоприятных для события A элементарных исходов (m) к общему числу элементарных исходов (n).

    \[P\left( A \right) = \frac{m}{n}\]

Статистическая вероятность:

При статистическом определении в качестве вероятности события принимают его относительную частоту. 

где m-число испытаний, в которых событие A наступило, n-общее число произведённых испытаний.

    \[W\left( A \right) = \frac{m}{n}\]

Если имеется эмпирический ряд распределения, то необходимо найти функцию распределения, т. е. подобрать такую теоретическую кривую распределения, которая бы наиболее полно отражала закономерность распределения.

Под кривой распределения понимается графическое изображение в виде непрерывной линии изменения частот (вероятностей), функционально связанных с изменением вариант.

Закон распределения случайной величины может быть задан в виде таблицы, функции распределения, либо плотности распределения.

В статистике широко используются различные виды теоретических распределений: распределение Стьюдента, Пуассона, нормальное распределение, хи-квадрат распределение, распределение Фишера, биномиальное (распределение Бернулли), равномерное распределение. Каждое из теоретических распределений имеет специфику и свою область применения в различных отраслях знаний.

Первым фундаментальным по значимости является нормальный закон распределения (ЗНР).

Подчиненность закону нормального распределения тем точнее, чем больше факторов действует вместе. Часто возникают распределения, хотя и не отвечающие строго нормальному распределению, но имеющие с ним сходство, а именно: вероятность min и max значений тем меньше, чем больше отклонение отдельных вариант от общей средней. Иными словами: минимальные и максимальные варианты встречаются много реже, чем серединные.

Нормальное распределение полностью определяется двумя входными параметрами: средней арифметической и среднеквадратическим отклонением (Ϭ).

Кривая распределения симметрична относительно точки максимума x=a(μ).

Если учесть величину среднеквадратического отклонения Ϭ, то окажется, что при больших значениях Ϭ значение плотности вероятности f(x) мало и наоборот – при малых значениях Ϭ плотность вероятности (ордината точки максимума) неограниченно возрастает. Отсюда: среднеквадратическое отклонение нормально распределенной СВ существенно влияет на форму нормальной кривой. Максимальная ордината кривой обратно пропорциональна среднеквадратическому отклонению Ϭ. Вся площадь, ограниченная кривой распределения и осью абсцисс, равна 1.

Плотность вероятности нормального распределения выражается следующей формулой:

    \[f\left( x \right) = \frac{1}{{\sigma \sqrt {2\pi } }}{e^{ - \frac{{{t^2}}}{2}}}\]

 или 

    \[f\left( x \right) = \frac{1}{{\sigma \sqrt {2\pi } }}\exp \left( { - \frac{{{{\left( {x - a} \right)}^2}}}{{2{\sigma ^2}}}} \right)\]

t – нормированное отклонение:

    \[t = \frac{{x - \bar x}}{\sigma }\]

В это выражение входит две константы:

    \[\begin{array}{l} \bar x\,\left( {a;\,\mu } \right);\;\;\sigma \\ M\left( X \right) = a\,\left( \mu \right) = \bar x;\;\;\;D\left( X \right) = {\sigma ^2} \end{array}\]

Это распределение характерно тем, что в соответствующих пределах заключено соответствующее количество всех частот:

    \[\begin{array}{l} \bar x\, \pm \,1\sigma \, \to \,0.683\,\left( {68.3\% } \right)\\ \bar x\, \pm \,2\sigma \, \to \,0.954\,\left( {95.4\% } \right)\\ \bar x\, \pm \,3\sigma \, \to \,0.997\,\left( {99.7\% } \right) \end{array}\]

Последний результат означает, что с вероятностью, близкой к единице (0,9973), случайная величина, подчиняющаяся закону нормального  распределения, не выйдет за пределы заданного интервала. Это утверждение называют правилом трёх сигм. Вероятность того, что СВ примет значение за пределами заданного интервала, крайне мала:

(1- 0,9973=0,0027)

    \[P = \left\{ {\bar x - 3\sigma  < X < \bar x + 3\sigma } \right\} = 2\Phi \left( 3 \right) = 0.9973\]

Смотри также по теме: