Шпаргалка

3.Класичне і геометричне означення ймовірності

Класичною імовірністю випадкової події А називається відношення
кількості елементарних подій m, які сприяють появі цієї події
(становлять множину її елементарних подій), до загальної кількості n
рівноможливих елементарних подій, що утворюють простір елементарних
подій (: P(A)= m /n.

Переставленням із n елементів називають такі впорядковані множини з n
елементів, які різняться між собою порядком їх розміщення. Кількість
таких упорядкованих множин обчислюється за формулою: Pn = n!

Розміщенням із n елементів по m

= n! /(n-m)!

Комбінаціями з n елементів по m

= n! / m!(n-m)! Геометричне означення ймовірності. Якщо простір
елементарних подій ( можна подати у вигляді деякого геометричного
предмета, а множину елементарних подій для подій А – як частину цього
геометричного образу, то ймовірність події А визначається як відношення
мір цих множин P(A)=((A)/((().При цьому вважається, що попадання в деяку
частину геометричного образу пропорційна до міри цієї його частини.

Статистичною ймовірністю події А називається відношення кількості m
випробувань, в яких подія А відбулась, до загальної кількості виконаних
випробувань n: W(A)= m /n. Знаходження статистичної ймовірності
пов’язане з проведенням n випробувань, тому вона називається ще
частістю, або відносною частотою, події.

4.Алгебра подій

Система подій називається алгеброю подій, якщо:

Числова функція P, що визначена на системі подій (, називається
ймовірністю, якщо:

( є алгеброю подій;

для будь-якого A( ( існує P(A)(0;

P(()=1;

якщо А і В є несумісними (А(В)=(, то P(A(B)=P(A)+P(B);

подій із (, такої, що

випливає рівність

(,

Трійка ((((((), де ( є алгеброю подій і Р задовольняє аксіоми 1-5,
називається простором імовірностей.

5.Теоремадодавання ймовірностей двох несумісних подій

6.Залежні та незалежні події. Умовна ймовірність

Події В і С називаються залежними, якщо ймовірність однієї з них
змінюється залежно від того, відбулась друга подія чи ні. У противному
разі події називаються незалежними

Умовна ймовірність та її властивості.

0. Властивості умовної ймовірності:

P(A/B)=0, якщо ???=?

P(A/B)=1, якщо ???=B

у решті випадків 0 10 i p > 0,1.

15.Інтегральна теорема Лапласа

раз при проведенні n незалежних випробувань, у кожному з яких подія А
відбувається з імовірністю р, подається формулою:

—функція Лапласа;

Значення функції Лапласа наводяться у спеціальних таблицях.

16.Найвірогідніше число появи події в n-випробуваннях

Імовірність того, що в n незалежних випробуваннях, у кожному з яких
імовірність Р(А) = р, подія А відбудеться m раз, подається так:

17.Випадкові величини. Дискретні та неперервні випадкові величини

яку задано на просторі елементарних подій, називається випадковою
величиною. Якщо простір ( дискретний, то випадкова величина дискретна.
Неперервному простору елементарних подій відповідає неперервна випадкова
величина.

18. Закон розподілу ймовірностей дискретної випадкової величини. Функція
розподілу Співвідношення між значеннями випадкової величини і їхніми
ймовірностями називається законом розподілу випадкової величини.

Для дискретних випадкових величин закони розподілу можуть задаватися
множиною значень, що їх набуває випадкова величина, і ймовірностями цих
значень.

19.Рівномірний та біноміальний розподіл

m = 0,1,2, …, n. Закон справджується для схеми незалежних повторних
випробувань, у кожному з яких подія А настає з імовірністю р. Частота
настання події А має біноміальний закон розподілу. Числові
характеристики розподілу:

Пуасонівський закон: M(X)=a=np; D(X)=a; P(X)=a. Якщо ймовірність
потрапляння випадкової величини на інтервал пропорційна до довжини
інтервалу і не залежить від розташування інтервалу на осі, то вона має
рівномірний закон розподілу. Щільність такого розподілу:

Рівномірний закон розподілу легко моделювати. За допомогою
функціональних перетворень із величин, розподілених рівномірно, можна
діставати величини з довільним законом розподілу. Числові характеристики
розподілу:

20.Розподіл Пуассона

21.Математичне сподівання дискретної випадкова величина. Властивості
математичного сподівання

(для неперервних випадкових величин), якщо вони абсолютно збіжні.
Математичне сподівання має такі властивості:

(С — стала);

;

якщо Х і Y — незалежні випадкові величини.

22.Дисперсія дискретної випадкової величини. Властивості дисперсії

Дисперсія (позначається через DX випадкової величини Х визначається за
формулою:

Основні властивості дисперсії:

якщо випадкові величини незалежні.

23.Середнє квадратичне відхилення. Середнє квадратичне відхилення суми
взаємно незалежних випадкових величин

Середнє квадратичне відхилення (позначається літерою ( є квадратним
коренем із дисперсії.

Якщо від випадкової величини віднімемо її математичне сподівання, то
дістанемо центровану випадкову величину, математичне сподівання якої
дорівнює нулю. Ділення випадкової величини на її середнє квадратичне
відхилення називається нормуванням цієї випадкової величини.

має нульове математичне сподівання й одиничну дисперсію.

24.Функція розподілу ймовірностей неперервної випадкової величини, її
властивості та графік

Цю функцію можна тлумачити так:унаслідок експерименту випадкова
величина може набути значення,меншого за х.

Властивості:

1.0(F(x)(1

2.F(x) є неспадною функцією,а саме F(x2)(F(x1), якщо х2(х1

25.Щільність розподілу ймовірностей неперервної випадкової величини, її
властивості та графік.

Властивості:

1.0(F(x)(1

2.F(x) є не спадною функцією, а саме F(x2)(F(x1), якщо х2(х1

26.Ймовірність попадання неперервної випадкової величини в заданий
інтервал

27.Знаходження функції розподілу за відомою щільність розподілу

28.Математичне сподівання і дисперсія неперервної випадкової величини

29.Нормальний розподіл, його властивості

, які входять до виразу щільності розподілу, є відповідно математичним
сподіванням та середнім квадратичним відхиленням випадкової величини.
Нормальний закон розподілу широко застосовується в математичній
статистиці. Для обчислення ймовірності потрапляння випадкової величини,
розподіленої нормально, на проміжок використовується функція Лапласа:

Часто застосовується також формула:

30.Багатовимірність випадкової величини

і кореляційною матрицею:

, дістанемо матрицю, складену з коефіцієнтів кореляції:

31.Функції від випадкових величин. Розподіл (2, Студента, Фішера

попарно незалежних випадкових величин, які розподілені нормально з
нульовими математичними сподіваннями і одиничними дисперсіями.

Графік щільності розподілу зображено на рис. 3.3.

для відповідної кількості ступенів волі. Якщо кількість ступенів волі
більша від 30, то розподіл мало відрізняється від нормального з
відповідними математичним сподіванням і дисперсією.

M(X)=n. D(X)=2n.

особливо за малих значень n

Складено таблиці розподілу Стьюдента,

h x1 – x2 x2 – x3 x3 – x4 … xk–1 – xk

ni n1 n2 n3 … Nk

Wi W1 W2 W3 … Wk

для кількості ступенів волі від 1 до 20. Якщо кількість ступенів волі
більша, то можна застосовувати нормальний закон розподілу з нульовим
математичним сподіванням і одиничною дисперсією.

.

ступенями волі. Щільність цього розподілу подається формулою:

Щільність розподілу Фішера має графік, зображений на

32. Функція і щільністьрозподілудвовимірноївипадкової величини, їх
властивості

33.Умовні закони розподілу і умовні математичні сподівання двовимірних
в.в.

34.Незалежні в.в.Числові характеристики міри зв’язку в.в.:коваріація,
коефіцієнт кореляції

35.Закон великих чисел. Нерівність Чебишева. Теорема Бернуллі, Чебишева,
Ляпунова та їх практичне значення

Теорема Ляпунова. Якщо для незалежних випадкових величин, які утворюють
послідовність (1), існують моменти третього порядку і виконується умова

виконується співвідношен-

ня (2).

Наслідком розглянутих теорем є інтегральна теорема Лапласа.

У схемі незалежних повторних випробувань

Це випливає з того, що частоту події можна подати як суму n випадкових
величин — частот настання події в окремих випробуваннях. При достатньо
великих значеннях n закон розподілу цієї суми близький до нормального.

Аналогічними міркуваннями для цієї схеми легко дістати формулу:

де m — частота події А у n випробуваннях.

Нехай задано послідовність випадкових величин:

(1)

Послідовність (1) задовольняє закон великих чисел, якщо

Окремі форми закону великих чисел різняться обмеженнями, які
накладаються на випадкові величини, що входять у послідовність(1).

Теорема Чебишова

послідовність незалежних випадкових величин ,які задовольняють умовам:

1.M(Xі)>= aі

2.D(Xі )<= с Для всіх і=1,2,3…..n , то до послідовності (1) можна застосувати закон великих чисел. Це означає що середне арифметичне достатньо великої кількості незалежних випадкових величин дуже мало відрізняється від середнього арифметичного їхніх математичних сподівань ,взятого за абсолютним значенням . Ця теорема є законом великих чисел ,так само як і центральна гранична теорема Теорема Бернулі Нехай проводиться n незалежних повторних випробувань, у кожному з яких імовірність настання події А дорівнює р.Якщо ймовірність появи випадкової події А в кожному з незалежних випробувань n є величиною сталою і дорівнює P,то при необмеженому збільшенні числа експериментів n?? Імовірність відхилення відносної частоти появи випадкової події W(A) від імовірності p ,взятої за абсолютною величиною на ?(?>0) прямуватиме до
одиниці зі зростанням n ,що можна записати так:

— частота події А у даних випробуваннях. Таким чином при необмеженому
збільшенні числа незалежних випробувань за схемою Бернулі відносна
частота дуже мало відрізняється від ймовірності .

Наведена теорема є законом великих чисел ,так само як і центральна
гранична теорема

36.Предметі задачі мат.стата. Генеральна і вибіркова сукупність.
Варіанти і варіаційний ряд вибірки

з якими зустрічаються ці значення, дістанемо варіаційний, або
статистичний, ряд:

, то статистична функція розподілу збігається д теоретичної функції
розподілу.

37.Статистичний розподіл вибірки. Полігон частот і гістограма. Кумулята.
Емпірична функція розподілу

Дискретний статистичний розподіл вибірки можна зобразити графічно у
вигляді ламаної лінії, відрізки якої сполучають координати точок (xi;
ni), або (xi; Wi).

У першому випадку ламану лінію називають полігоном частот, у другому —
полігоном відносних частот.

.

.

.

38. Статистичні оцінки параметрів розподілу і загальні вимоги до них.

2

4

  ? ? ¬ ® ° ? ? ¶ A A O U Ue TH a a `

b

&

gd?o*

1¤1?2>3th6c8I9(@[email protected]/issOOOissOOOiOO/iOiOOOOiO

&

F

&

gd?o*

gd?o*

j

j:

j?

j|

j3/4

j

jy

< gd?o* h h cOc?©?©ooaoooooooooooooooooUOAE gd?o* h ???????* ?????* j які дістають при обробці вибірки. Вони є величинами непередбачуваними, тобто випадковими. Тут через ? позначено оцінювальний параметр — випадкова величина, що має певний закон розподілу ймовірностей. Зауважимо, що до реалізації вибірки кожну її варіанту розглядають як випадкову величину, що має закон розподілу ймовірностей ознаки генеральної сукупності з відповідними числовими характеристиками:M(xi)=Xг=M(x), D(xi)=Dг, ?(xi)=?г 39.Числові характеристики статистичного розподілу вибірки. Початкові та центральні вибіркові моменти Величину, яка визначається формулою називають вибірковою середньою величиною дискретного статистичного розподілу вибірки. Тут xi — варіанта варіаційного ряду вибірки; ni — частота цієї варіанти; ). Якщо всі варіанти з’являються у вибірці лише по одному разу, тобто ni = 1, то вибирається дисперсія. , яке обчислюється за формулою або 3) середнє квадратичне відхилення вибірки (B. При обчисленні DB відхилення підноситься до квадрата, а отже, змінюється одиниця виміру ознаки Х, тому на основі дисперсії вводиться середнє квадратичне відхилення , але в тих самих одиницях, в яких вимірюється ознака Х; 4) мода (Mo(). Модою дискретного статистичного розподілу вибірки називають варіанту, що має найбільшу частоту появи. Мод може бути кілька. Коли дискретний статистичний розподіл має одну моду, то він називається одномодальним, коли має дві моди — двомодальним і т. д.; 5) медіана (Me(). Медіаною дискретного статистичного розподілу вибірки називають варіанту, яка поділяє варіаційний ряд на дві частини, рівні за кількістю варіант; 40. Умовні варіанти. Умовні емпіричні моменти. Коефіцієнт асиметрії та ексцесу Умовним статистичним розподілом ознаки У при фіксованому значені ознаки Х=хі називають перелік варіант ознаки У та відповідних їм частот, узятих при фіксованому значенні Х. У/Х=хj 1) Коеф асиметрії As*. Якщо варіанти розподілені симетрично, то As* =0. При As*<0 варіанти статистичного розподілу вибірки хі0 хі>x, то таку асиметрію := додатною.

2) Ексцес

Es*, як правило вик при досліджені неперервних ознак генер.
сукупностей, оскільки він оцінює крутизну зміни нвв порівняно з
нормальним законом. Для нормального Es*=0

41.Точкові статистичні оцінки параметрів розподілу генеральної
сукупності

,

що покриває оцінюваний параметр ? генеральної сукупності з заданою
надійністю (, називають довірчим.

42.Інтервальні оцінки параметрів розподілу. Надійна ймовірність і
надійний інтеграл

буде незміщеною й ефективною.

43.Надійний інтервал для MX і DX нормального розподілу. Визначення
мінімального обсягу вибірки.

У разі коли озн. Х маж нормальний закон розподілу, для побудови
довірчого інтервалу із заданою надійністю для D, ? застосовується вв

, що має розподіл х2 із К=n-1 ступенями свободи оскільки випадкові
події А(х12 < x2 < x22) В(1/х12 < 1/x2 < 1/x22) є рівномірними, маємо: Р(х12 < x2 < x22) = Р(1/х12 < 1/x2 < 1/x22) , маємо: Отже надійний інтервал: Тоді для ? буде: Значення х1, х2 з таблиць за рівностями: Р(х^2>x1^2)=1-a/2
P(x^2>x2^2)=a/2, a=1-?

44.Поняття статистичної гіпотези і статистичного критерію. Помилки
першого і другого роду

, тобто заперечує твердження нульової.

і яка має нормований нормальний закон розподілу ймовірностей. При
великих обсягах вибірки (n > 30) закони розподілу статистичних критеріїв
наближатимуться до нормального. Спостережуване значення критерію, який
позначають через K(, обчислюють за результатом вибірки.

45.Загальна схема перевірки статистичних гіпотез. Перевірка
достовірності гіпотез про частку ознаки генеральної сукупності, про
рівність частот ознаки двох вибірок, про значення генеральної середньої,
про рівність двох генеральних середніх і дисперсій

Перевірка правельності нульової гіпотези про нормальний закон розподілу
ознаки генеральної сукупності Для перевірки правильності Н0 задається
так званий рівень значущості (.

а ця подія малоймовірна і все ж відбулася, то немає підстав приймати
нульову гіпотезу. Пропонується такий алгоритм перевірки правильності Н0:

1. Сформулювати Н0 й одночасно альтернативну гіпотезу Н(.

2. Вибрати статистичний критерій, який відповідав би сформульованій
нульовій гіпотезі.

, тоді, якщо

, то вибирається правобічна критична область, якщо

, то вибирається лівобічна критична область і коли

, то вибирається двобічна критична область.

4. Для побудови критичної області (лівобічної, правобічної чи двобічної)
необхідно знайти критичні точки. За вибраним статистичним критерієм та
рівнем значущості ( знаходяться критичні точки.

.

симетрично розташовані відносно нуля.

46.Непараметричні статистичні гіпотези. Критерії згоди.Перевірка гіпотез
про нормальнийірівномірнийрозподіли

Перевірка правельності нульової гіпотези про нормальний закон розподілу
ознаки генеральної сукупності Для перевірки правильності Н0 задається
так званий рівень значущості (.

а ця подія малоймовірна і все ж відбулася, то немає підстав приймати
нульову гіпотезу. Пропонується такий алгоритм перевірки правильності Н0:

1. Сформулювати Н0 й одночасно альтернативну гіпотезу Н(.

2. Вибрати статистичний критерій, який відповідав би сформульованій
нульовій гіпотезі.

, тоді, якщо

, то вибирається правобічна критична область, якщо

, то вибирається лівобічна критична область і коли

, то вибирається двобічна критична область.

4. Для побудови критичної області (лівобічної, правобічної чи двобічної)
необхідно знайти критичні точки. За вибраним статистичним критерієм та
рівнем значущості ( знаходяться критичні точки.

.

Н0 приймається.

47.Двовимірний статистичний розподіл вибірки і його числові
характеристики. Кореляційна таблиця.

Перелік варіант У=уі, Х=хі та відповідних їм частотам утворюють
двовимірний статистичний розподіл вибірки, що реалізована з ген.
сукупності, ел. цієї вибірки притаманні кількісні ознаки Х і У. У табл.
Ф-мі має вигляд:

X=xj

У=уi x1 … xm nyi

y1 n11 … n1m ny1

… … … … …

yk nk1 … nkm nyk

nxj nx1 … nx3

Загальні числові характеристики ознаки Х:

?=?D

Для величини У відповідно.

Кореляційний момент, вибірковий коефіцієнт кореляції?

Якщо К = 0, то кореляційного зв’язку немає, якщо К?0, то цей зв’язок
існує.

|rB|?1, -1?rB ?1

48.Умовні статистичні розподіли вибірки,їх числові характеристики.

Умовним статистичним розподілом ознаки У при фіксованому значені ознаки
Х=хі називають перелік варіант ознаки У та відповідних їм частот,
узятих при фіксованому значенні Х. У/Х=хj

Умовні емпіричні моменти:

49.Статистична і кореляційна залежність. Функції та лінії регресії

Показником, що вимірює стохастичний зв’язок між змінними, є коефіцієнт
кореляції, який свідчить з певною мірою ймовірності, наскільки зв’язок
між змінними близький до строгої лінійної залежності.

;

;

Наведені можливі залежності між змінними X і Y називають функціями
регресії. Форму зв’язку між змінними X і Y можна встановити,
застосовуючи кореляційні поля, які зображені на рисунках

Для двовимірного статистичного розподілу вибірки ознак (Х, Y) поняття
статистичної залежності між ознаками Х та Y має таке визначення:

статистичною залежністю Х від Y називають таку, за якої при зміні
значень ознаки Y = yi змінюється умовний статистичний розподіл ознаки Х,
статистичною залежністю ознаки Y від Х називають таку, за якої зі зміною
значень ознаки X = xi змінюється умовний статистичний розподіл ознаки Y.

Між ознаками Х та Y може існувати статистична залежність і за
відсутності кореляційної. Але коли існує кореляційна залежність між
ознаками Х та Y, то обов’язково між ними існуватиме і статистична
залежність

50.Парна лінійна регресія. Вибірковий коефіцієнт кореляції та його
властивості

Ураховуючи вплив на значення Y збурювальних випадкових факторів, лінійне
рівняння зв’язку X і Y можна подати в такому вигляді:

,

є випадковою змінною, що характеризує відхилення y від гіпотетичної
теоретичної регресії.

У результаті статистичних спостережень дослідник дістає характеристики
для незалежної змінної х і відповідні значення залежної змінної у.

Вибірковий коефіцієнт кореляції

Рівняння лінійної парної регресії:

або

,

;

;

Як бачимо, коефіцієнт кореляції близький за своїм значенням до одиниці,
що свідчить про те, що залежність між Х та Y є практично лінійною

51.Надійний інтервал для лінійної регресії

значення ознаки Y, обчислимо за формулою

.

Тоді

.

Звідси дістали:

або

.Випадкова величина

ступенями свободи. Ураховуючи можна побудувати довірчий інтервал для
лінійної парної функції регресії із заданою надійністю ?, а саме:

.

випливає

52.Лінійна регресія для двовимірного статистичного розподілу

Ураховуючи вплив на значення Y збурювальних випадкових факторів, лінійне
рівняння зв’язку X і Y можна подати в такому вигляді:

,

є випадковою змінною, що характеризує відхилення y від гіпотетичної
теоретичної регресії.

У результаті статистичних спостережень дослідник дістає характеристики
для незалежної змінної х і відповідні значення залежної змінної

53.Множинна лінійна регресія

пов’язана з впливом не одного, а кількох аргументів.

У цьому разі регресію називають множинною. При цьому якщо аргументи в
функції регресії в першій степені, то множинна регресія називається
лінійною, у противному разі — множинною нелінійною регресією.

Довірчий інтервал для множинної лінійної регресії

має обернену.

визначають з допомогою кореляційної матриці для вектора

, вимірюють з допомогою коефіцієнта множинної кореляції R, що є
узагальненням парного коефіцієнта кореляції rij і обчислюється за
формулою

.

Чим ближче значення R до ±1, тим краще вибрано функцію регресії

Нормування коефіцієнтів регресії

репрезентують чинники, що мають різні одиниці виміру (кілограми,
гривні, метри тощо). Отже, для того щоб порівняти і з’ясувати відносну
вагомість кожного з чинників, використовують так звані нормовані
коефіцієнти регресії, які визначають за формулою

— виправлене середнє квадратичне відхилення ознаки Y.

54.Поняття про нелінійну регресію. Кореляційні відношення та їх
властивості.

, то регресія називається нелінійною.

У загальному випадку нелінійна регресія записується в такому вигляді:

між собою не корельовані. Реалізуючи вибірку обсягом n, згідно з
(563), дістанемо систему нелінійних рівнянь виду:

О

(2

f(x)

Х

О

f(t)

t

О

f(x)

Х

40

ni

xi

–6 –4 –2 0 2
4 6

10

–6 –4 –2 0 2
4 6

0,4

Wi

0,1

xi

0 8 16 24 32 40
48

xi

3,75

2,5

1,25

0 8 16 24 32 40
48

xi

0,0375

0,025

0,0125

Похожие записи