В нашей библиотеке: 321 книг 226 авторов 0 статей За всё время нас посетило 818612 человек которые просмотрели 16215479 страниц.
Читатели оставили 10 отзывов о писателях, 67 отзывов о книгах и 6 о сайте


Название: Курс лекций по теории вероятностей

Жанр: Учебники, лекции и словари

Рейтинг:

Просмотров: 1896

Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 |




Раздел 4. числовые характеристики св исчерпывающие представления о св дает закон её распределения.

Во многих задачах, особенно на заключительной стадии, возникает необходимость получить о

величине некоторое суммарное представление: центры группирования СВ – среднее значение или математическое ожидание, разброс СВ относительно её центра группирования.

Эти числовые характеристики в сжатой форме отражают существенные особенности изучаемого распределения.

 

Математическое ожидание (МО)

 

М(х), МО(х), mx, m

 

⎧  n     n

⎪∑ xi pi

 

⎨ ∞

 
M ( x) = ⎪ i=1

⎪ ∫ xf ( x)dx

⎩−∞

∑ pi  = 1

i=1

ДСВ

 

НСВ

 

Основные свойства МО:

1. М(х) СВ Х

Хmin≤М(х)≤Хmax

2. М(С)=С

 

МО постоянной величины есть величина постоянная

3. М(Х±У)=М(Х) ±М(У)

4. М(Х⋅У)=М(х) ⋅М(у)   ⇒ М(Сх)=СМ(х) – МО произведения двух независимых СВ

5. М(аХ+вУ)=аМ(Х)+вМ(У)

6. М(Х-m)=0 – МО СВ Х от её МО.

 

 

 

Дискретные Случайные Величины

МО основных СВ

1. Биноминальные СВ          МО(Х)=np

2. Пуассоновские СВ            МО(Х)=λ

3. Бернуллиевы СВ   МО(Х)=р

 

4. Равномерно распред. СВ

MO( X ) = a1 + a2 + ... + an

n

 

Непрерывные Случайные Величины

 

1. Равномерно распределенная СВ

 

MO( X ) = b + a

2

2. Нормально распределенная СВ   MO(X)=m

 

3. Экспоненциально распределенная СВ

MO( X ) = 1

λ

 

 

 

1. R=Xmax-Xmin – размах СВ

Дисперсия СВ

2. M(|X-m|) – среднее абсолютное отклонение СВ от центра группирования

3. M(X-m)2 – дисперсия – МО квадрата отклонения СВ от центра группирования

2          2

M(X-m)2=D(X)=σ2=σx =σ (X)

D( X ) = σ = СКО – среднеквадратическое отклонение (стандартное отклонение).

⎧  n

⎪∑( xi

⎨ ∞

 
D( X ) = ⎪ i =1

− m) 2 p

 

i

 
2

∑ pi  = 1

ДСВ

⎪ ∫ ( x − m)

⎩−∞

f ( x)dx

НСВ

Основные свойства дисперсии:

1. Для любой СВ Х: D(X)≥0. При Х=const D(X)≡0.

2. D(X)=M(X2)-M2(X)=M(X2-2mX-m2)

3. D(cX)=c2D(X)

4. D(X+c)=D(X)

5. D(X+Y)=D(X)+D(Y), D(X-Y)=D(X)+D(Y)

В общем случае:

D(X+Y)=M(X+Y-mx+y)2=M((X-mx)+(Y-my))2=M((X=mx)2+2(X-mx)(Y-my)+(Y-my)2)=

=D(X)+2M((X-mx)(Y-my))+D(Y). Второй член этого выражения называется корреляционным моментом. mx+y=M(X)+M(Y)=mx+my. D(X)=M(X-mx)2.

M((X-mx)(Y-my))=K(X,Y)=Kxy=cov(x,y) – ковариация

Kxy/σxσy=ρxy – коэффициент корреляции

6. Независимые СВ: D(XY)=D(X)D(Y)+M2(X)D(Y)+M2(Y)D(X)

 

 

 

ДСВ

1. Биноминальные    D(X)=npq

2. Пуассоновские       D(X)=λ

3. Бернуллиевы         D(X)=pq

НСВ

Дисперсия основных СВ

1. Равномерно распределенные      D(X)=(b-a)2/12

2. Нормально распределенные        D(X)= σ2

3. Экспоненциально распределенные        D(X)=1/λ2

 

Математическое ожидание и дисперсия суммы случайных величин

 

X1,X2,…,Xn – независимые СВ с одинаковым законом распределения. M(Xk)=a D(Xk)=σ2

1  n

X =      ∑ X n

n i=1

– среднее арифметическое

 

2

M ( X ) = a

D( X ) = σ

n

СКО = σ( X ) =  σ

n

Другие числовые характеристики СВ

Моменты распределения делятся на начальные моменты, центральные и смешанные.

1. Начальные моменты qго порядка (q=1,2,…): M(X1)=МО

⎧  n     q

 

 

M ( X

⎪∑ xi  pi

) =

 
q          ⎪ i=1

 
⎨ ∞

ДСВ

⎪ ∫ x q

⎩−∞

f ( x)dx

НСВ

2. Центральные моменты qго порядка: M((X-m)2)=D

q

 
⎧  n

⎪∑( xi  − m)  pi

 

ДСВ

M (( X − m) q

⎪ i=1

 

) =

 
⎨ ∞

⎪ ∫ ( x − m) q

⎩−∞

 

f ( x)dx

 

НСВ

2          q-2       q    q

M(x-m)q=M(x)q-Cq1mM(x)q-1+ Cq  mM(x) M(x-m)3= M(x)3-3mM(x)2+2m3

M(x-m)2= M(x)2-m2=D(x)

+…+(-1) m

Центральные моменты 3го и 4го порядков используются для получения коэффициентов асимметрии и эксцесса (As, Ex), характеризующих особенности конкретного распределения.

M ( x − m)3

⎛ x − m ⎞3

 

 

As<0    As>0

As =

σ3

= M ⎜ ⎟

⎝         σ          ⎠

Для нормального закона распределения As=0.

Если As>0, то распределение имеет правостороннюю скошенность. При As<0 – левосторонняя скошенность.

 

M  x − m 4

⎛ x − m ⎞4

Ex =

(           )   − 3 = M ⎜

σ4        ⎝

⎟     − 3

σ          ⎠

 

 

Ex<0    Ex>0

Эксцесс характеризует остро- или плосковершинность исследуемого распределения по сравнению с нормальным распределением.

НСВ:

1. Нормальное распределение: Ex=As=0

2. Равномерное распределение: As=0, Ex=-1,2

3. Экспоненциальное распределение: As=2, Ex=9.

 

Биноминальное:

As =

q − p

npq

Ex = 1 − 6 pq

npq

3. Смешанные моменты:

Начальный смешанный момент порядка (k+s) системы 2х СВ (X+Y):

∞   ∞

M ( X k Y s ) =

 

Центральный моменты порядка (k+s):

∫  ∫ x k y s f ( x, y)dxdy

−∞ −∞

∞   ∞

y

 

y

 
M (( X − mx

) k (Y − m

) s ) =

∫  ∫ ( x − mx

−∞ −∞

) k ( y − m

) s  f ( x, y)dxdy

Центральный смешанный момент второго порядка:

Kxy=M((X-mx)(Y-my)) – корреляционный момент

K XY

D( x)D( y)

= ρ x, y

 

– коэффициент корреляции

Мода ДСВ – значение СВ, имеющее максимальную вероятность.

Мода НСВ – значение СВ, соответствующее максимуму функции плотности вероятности f(x).

Обозначение моды: m0, M0(x), mod(x).

Медиана СВ Х (me, Me(x), med(x)) – значение СВ,

для которого выполняется равенство:

P(X<me)=P(X>me) F(me)=0,5.

Медиана – это площадь, получаемая делением фигуры пополам.

В симметричном распределении m=m0=me. В

несимметричном они не равны.

me        me

Так как мода и медиана зависят от структуры распределения, их называют структурными средними.

Медиана – это значение признака, который делит ранжированный ряд значений СВ на две равных по объему группы. В свою очередь, внутри каждой группы могут быть найдены те значения признака, которые делят группы на 4 равные части – квартиль.

Ранжированный ряд значений СВ может быть поделен на 10 равных частей – децилей, на 100

– центилей.

Такие величины, делящие ранжированный ряд значений СВ на несколько равных частей,

называются  квантилями.

Под p% квантилями понимаются такие значения признака в ранжированном ряду, которые не больше p% наблюдений.

 

Предельные теоремы теории вероятностей

Делятся на две группы: Закон Больших Чисел (ЗБЧ) и Центральная Предельная Теорема

(ЦПТ).

Закон Больших Чисел устанавливает связь между абстрактными моделями теории вероятностей и основными ее понятиями и средними значениями, полученными при статистической обработке выборки ограниченного объема из генеральной совокупности. P, F(x), M(x), D(x).

ЗБЧ доказывает, что средние выборочные значения при n→∞ стремятся к соответствующим значениям генеральной совокупности: hn(A)→P, Xср→M(X), σср2→D(X), F*(X)→F(X).

Лемма Маркова. Если Y – СВ, принимающая не отрицательные значения, то для любого положительного ε:

P(Y≥ε)≤M(x)/ε,   P(Y<ε)≥1-M(x)/ε.

⎧0, Y < ε

Доказательство. Рассмотрим Y и Yε = ⎨

⎩ε, Y ≥ ε

: Yε≤Y, M(Yε)≤M(Y)

M(Yε)=0⋅P(Y<ε)+ε⋅P(Y≥ε)=ε⋅P(Y≥ε) M(Y)≥M(Yε)=ε⋅P(Y≥ε).

Лемма позволяет сделать оценку вероятности наступления события по математическому

ожиданию этой СВ.

Неравенство Чебышева. Для любой СВ с ограниченными первыми двумя моментами (есть

МО и D) и для любого ε>0:

P(| X − m |≥ ε) ≤ D( x) ;

ε2

P(| X − m |< ε) ≥ 1 − D( x)

ε2

Доказательство. По лемме Маркова: рассмотрим не отрицательную СВ Y Y=(X-m)2  M(Y)=M(X-m)2=D(x)

P(|X-m|≥ε)=P((X-m)2≥ε2)=P(Y≥ε2)≤M(Y)/ε2=D(x)/ε2.

Требуется только знание дисперсии СВ при любом законе распределения.

 

ЗБЧ в форме Чебышева. X1, X2, …, Xn – последовательность независимых СВ. Для любого

ε>0 и n→∞:

⎛   X  + X

+ ... + X

M ( X

) + M ( X

) + ... + M ( X  )           ⎞

P⎜      1           2          n  −      1          2          n         

> ε ⎟ < δ

⎛   X  + X

n

+ ... + X           ⎞

n

⎛   X  + X

+ ... + X           ⎞

P⎜      1           2          n  − m > ε ⎟ < δ

P⎜      1           2          n  − m < ε ⎟ < 1 − δ

⎝         n          ⎠         ⎝         n          ⎠

ЗБЧ в форме Бернулли. m – число успехов в серии из n последовательных испытаний

Бернулли. P – вероятность успеха в каждом отдельном испытании. ε>0:

⎛  m    ⎞

lim P⎜

− p < ε ⎟  = 1

n

n→∞    ⎝         ⎠

ЗБЧ носит чисто качественный характер. В тех же условиях неравенство Чебышева позволяет получить количественную характеристику оценки вероятности.

Пример. Для определения вероятности события проведено 40000 опытов. События наблюдалось в m=16042 случаях. За вероятность события принимается относительная частота

наступления события: m/n≈0,4. Применяя неравенство Чебышева, оценить, с какой вероятностью

можно гарантировать, что число 0,4, принятое за вероятность, отличается от истинной

вероятности не больше, чем на 0,05.

P

 

 

 
⎛  m − p ≤ 0,05 ⎞ ≥ 1 −

pq  = 0,9975

n

 

⎝                     ⎠

 
⎜         ⎟         nε2

Неизвестные p и q находим из системы уравнений:

⎪⎧( p + q) 2  = 1        1

⎨         =>

⎪⎩( p − q) 2  ≥ 0

Центральная предельная теорема Ляпунова.

pq ≤

4

Предмет внимания этой теоремы – распределение суммы большого числа СВ.

X=(x1+x2+…+xn)/n

Распределение суммы n независимых СВ в независимости от их законов распределения

асимптотически сходятся к нормальному закону при неограниченном числе слагаемых и ограниченных двух первых моментах (МО и D).

1          b          ⎛ ( x − m) 2 ⎞

 

 
P( x < b) =

exp⎜

 
2          2  2

⎟ ⋅ dx

 

2          2          2          2

2πσ x  −∞

σ

⎝         σ x       ⎠

Если σi =σ , то σх =σ /n, σ x  =          .

n

 

 

2          2          2          2          2

D(x)=σх =(σ1 +σ2 +…σn )/n

ЦПТ универсальны и справедливы как для НСВ, так и для ДСВ.

 

P(a<X<b)=Ф(t2)-Ф(t1). t2=(b-mx)/σx            t2=(a-mx)/σx

Sn=(X1+X2+…+Xn)/n P(|Sn-m|<zσ)=2Ф(z) M(xk)=m           D(xk)=σ2

D( x ) = σ2 / n

σ x  = σ /          n

⎜  x

 
P⎛   − m < z  σ

⎟ = 2Ф( z)

⎝         n ⎠

⎛         −          ⎞

P⎜ x

m  ≤ z ⎟ = 2Ф( z)

 

 
⎜  σ /   n          ⎟

ЦПТ в интегральной форме Муавра-Лапласа.

⎛         x − np  ⎞

⎜                                ⎟

P⎜ a ≤

 

npq

≤ b ⎟ = Ф(b) − Ф(a)

⎛ k  − np ⎞

⎛ k  − np ⎞

P(k1  ≤ k ≤ k 2 ) = Ф⎜

⎟ − Ф⎜           ⎟

⎜     2  ⎟

⎝         npq  ⎠

⎜    1   ⎟

⎝         npq  ⎠

 

Статистическое оценивание параметров распределения

Мы анализируем только выборки из генеральной совокупности. По средне выборочным параметрам находим параметры самой генеральной совокупности.

Задачи такого рода решаются методами проверки статистических гипотез и статистической оценки параметров распределения.

Прежде нужно получить и провести первичную обработку исходных экспериментальных данных.

 

 

0,04

 

0,06

 

0,16

0,12     0,11

Статистические ряды часто изображают графически в виде полигона, гистограммы, кумулятивной кривой F*(x).

Полигон – ломаная линия, соединяющая в декартовой системе координат точки (xi,ni), (xi,mxi).

Кумулятивная кривая строится по точкам (xi,F*(xi)).

1          2          3          4          5

Гистограмма – на оси абсцисс – отрезки интервалов t, на

этих интервалах строятся прямоугольники с высотой, равной относительной частоте признака. По гистограмме легко строится полигон.

И полигон, и гистограмма характеризуют функцию f*(x) – плотность вероятности.

НСВ – проблема выбора интервала варьирования h.

h выбирается, исходя из необходимости выявления характерных черт рассматриваемого распределения.

x          − x

Правило Старджесса:  h =     max      min      

1 + 3,322 ⋅ lg n

Как только характерные особенности распределения проявились, ставится вопрос об

условиях, при которых сформировалось данное распределение – вопрос об однородности статистических данных.

Если функция f*(x) – бимодальная (имеет два максимума), то статистическое данные неоднородные.

Методы математической статистики должны позволить сделать обоснованные выводы о числовых параметрах и законе распределения генеральной совокупности по ограниченному числу выборок из этой совокупности.

Состав выборок случаен и выводы могут быть ложными. С увеличением объема выборки

вероятность правильных выводов растет. Всякому решению, принимаемому при статистической оценке параметров, ставится в соответствие некоторая вероятность, характеризующая степень достоверности принимаемого решения.

Задачи оценки параметров распределения ставятся следующим образом:

Есть СВ Х, характеризуемая функцией F(X, θ).

θ – параметр, подлежащий оценке.

Делаем m независимых выборок объемом n элементов xij (i – номер выборки, j – номер

элемента в выборке).

1          x11, x12, …, x1n         X1

2          x21, x22, …, x2n         X2

m  xm1, xm2, …, xmn  Xm

Случайные величины X1, X2,…Xm мы рассматриваем как m независимых СВ, каждая из которых распределена по закону F(X, θ).

 

Θn

 
Всякую однозначную функцию наблюдений над СВ х, с помощью которой судят о значении параметра θ, называют ~   – оценкой параметра θ.

~

Θn  = ϕ( x1 , x2

 

,..., xm )

Выбор оценки, позволяющей получить хорошее приближение к оцениваемому параметру –

задача исследования.

 

Основные свойства оценок

Θn

 
Несмещенность, эффективность и состоятельность.

Θn

 
Оценка ~

~

параметра θ называется  несмещенной, если M( ~  )=θ.

Если ⎪⎧M (Θn ) > Θ – в оценке параметра θ имеется систематическая ошибка.

⎨         ~

⎪⎩M (Θn ) < Θ

Несмещенность оценки гарантирует отсутствие систематической ошибки в оценке параметра.

Несмещенных оценок может быть несколько.

~

Tn – несмещенная оценка θ.

Разброс параметров или рассеяние величины относительно математического ожидания θ

~          ~

характеризует дисперсия D( Θn ), D( Tn ).

Из двух или более несмещенных оценок предпочтение отдается оценке, обладающей меньшим рассеянием относительно оцениваемого параметра.

Θn

 
Оценка ~  называется  состоятельной, если она подчиняется закону больших чисел:

Θ

 
lim P(| ~

n→∞    n

− Θ |< ε) = 1

На практике не всегда удается удовлетворить одновременно всем трем требованиям.

 

Оценка математического ожидания по выборке

Теорема 1. Среднее арифметическое X  по n независимым наблюдениям над СВ x с МО m

является несмещенной оценкой этого параметра.

Доказательство: x1,x2,…,xn  M(x)=m           M(x1)=M(x2)=…=M(xn)=m

n

X = ∑ xi / n

i =1

M ( X ) = m

Θn

 
M ( ~  ) = Θ

 

Теорема 2. Среднее арифметическое X  по n независимым наблюдениям над СВ x с МО m и дисперсией D(x)=σ2 является состоятельной оценкой МО.

Доказательство: D(x)=σ2       D(x1)=D(x2)=…=D(xn)=σ2

D( X ) = σ2 / n

2

 
P(| X − m |≥ ε) ≤ D( X ) =  σ

ε2        nε2

lim P(| X − m |> ε) = 0

n→∞

lim P(| X − m |≤ ε) = 1

n→∞

Теорема 3. Если СВ Х распределена по нормальному закону с параметрами (m,σ2), то

несмещенная и состоятельная оценка X  МО m имеет минимальную дисперсию σ2/n => X

является и эффективной.

 

Оценки дисперсии по выборке

Если случайная выборка состоит из n независимых наблюдений над СВ Х с M(X)=m и

D(X)=σ2, то выборочная дисперсия не является несмещенной оценкой дисперсии генеральной

совокупности.

 

n

 

i

 
S 2  = 1 ∑( x n i =1

 

− x ) 2

2

 
M (σ2 ) = σ2 − σ

= n − 1 σ2

n          n

n

2          1              2

~ 2       2

Несмещенной оценкой D(x) является S

=          ∑( xi  − x )

1

 

n

 
i=1

, M (S

) = σ .

S

 
Легко доказать по формуле Чебышева, что оценки S2 и  ~ 2

оценками дисперсии.

 

являются состоятельными

Несмещенная, состоятельная и эффективная оценка дисперсии:

n

n             i

 

S

 

*

 
2  = 1 ∑( x  − m) 2

S

 
i=1

 

Если МО генеральной совокупности неизвестно, то используют

~ 2 .

Существуют регулярные методы получения оценок параметров генеральной совокупности по данным выборок.

Методы оценки параметров генеральной совокупности

Метод наибольшего (максимального) правдоподобия (МНП)(ММП) обладает следующими достоинствами:

1. Всегда приводит к состоятельным оценкам (иногда смещенным)

2. Получаемые оценки распределены асимптотически нормально и имеют минимально возможную дисперсию по сравнению с другими асимптотически нормальными оценками.

Недостаток: требуется решать громоздкие системы уравнений.

Имеется СВ Х, f(x,θ) – функция ее плотности вероятности, выражение которой известно.

θ – неизвестный параметр, подлежащий оценке.

x1, x2,…,xn – n  независимых наблюдений над СВ x.

В основе МНП лежит функция L(θ) – функция правдоподобия, формирующаяся с учетом

свойств многомерной функции распределения наблюдений над СВ х. f(x1, x2,…,xn,θ)=f(x1, θ)⋅f(x2,θ)⋅…⋅f(xn,θ)

В указанное равенство подставляются данные и получаем функцию L(θ): L(θ)=f(x1, θ)⋅f(x2,θ)⋅…⋅f(xn,θ)

Θn

 
За максимальное правдоподобное значение параметра θ принимаем ~  , при которой L(θ)

максимально.

max    Θn

 
L'(θ)=0 => θ    = ~

 

Метод моментов(Метод Пирсона).

 

Метод обладает следующими достоинствами:

1.   Оценки получаемые этим методом всегда являются состоятельными.

2.   Метод моментов мало зависит от закона распределения случайной величины.

3.   Сложность вычисления незначительна.

Известна случайная величина Х, которая характеризуется f(x, θ1, θ2…θq), аналитический вид этой функции известен.

По выборке объёмом n х1,х2,х3,…хn – значения случайной величины в выборке вычисляем эмпирические начальные моменты случайной величины:

~          1  n      ~

M1 =

∑ xi  = M1 (x1 , x2 ,...xn )

n

 
i =1

~          1  n      ~

M 2  =

∑ xi  = M 2 (x1 , x2 ,...xn )

n

 
i =1

~          1  n      ~

M q  =

∑ xi  = M q (x1 , x2 ,...xn )

n

 
i =1

 

Находим теоретические моменты:

1

 

1

 

1

 

2

 
M1  =

∫ xf (x,θ ,θ2

,...,θq

)dx = M

(θ ,θ

,...,θq )

 

M 2  =

−∞

1

 

1

 

 

2

 

2

 

2

 
∫ x2 f (x,θ ,θ

 

,...,θq

)dx = M

(θ ,θ

,...,θq )

 

M q  =

−∞

1

 

1

 

 

2

 

q

 

2

 
∫ xq f (x,θ ,θ

 

,...,θq

)dx = M

(θ ,θ

,...,θq )

− ∞

 

Основная идея метода моментов заключается в приравнивании значения эмпирических значений моментов теоретическим.

~

M (x , x

,..., x

) = M

(θ ,θ

,...,θ )

1          1          2          n

~

1          1          2          q

M  (x , x

,..., x

) = M

(θ ,θ

,...,θ )

2          1          2          n

~

2          1          2          q

M  (x , x

,..., x

) = M

(θ ,θ

,...,θ )

q          1          2          n

q          1          2     


Страница: | 1 | 2 | 3 | 4 | 5 | 6 | 7 |

Оцените книгу: 1 2 3 4 5

Добавление комментария:






Информацию в электронную библиотеку yourforexschool.com добавляют исключительно для ознакомления. Если вы являетесь автором книги или компанией которая имеет права распространения и вы хотите чтоб на сайте не было вашей книги, то напишите в обратную связь и мы незамедлительно удалим её.

Копирование материалов сайта разрешено только с использованием активной ссылки на yourforexschool.com Copyright © 2010