Реферат на тему:

Прогнозування за лінійною моделлю

Якщо побудована модель адекватна за критерієм, то її застосовують для
прогнозування залежної змінної.

Про прогнозування регресанда говорять тоді, коли в часових рядах
прогнозний період настає пізніше, ніж базовий. Якщо регресія побудована
за просторовими даними, прогноз стосується тих елементів генеральної
сукупності, що перебувають за межами застосованої вибірки.

Якість прогнозу тим краща, чим повніше виконуються передумови моделі в
прогнозний часовий період, надійніше (вірогідніше) оцінено параметри
моделі й більш точно визначено прогнозні значення регресорів.

Значення yp для майбутнього періоду чи додаткового елемента обчислюють
за формулою (3.1) за відомим вектором оцінених параметрів а =
(а0,а1,а2,…,ат) і за вектором значень незалежних змінних хp = (1, х1p,
х2p,…, хтp), що не належать до базового періоду. Розрізняють прогноз
середній (оцінку математичного сподівання регресанда) та індивідуальний
(оцінку певної реалізації регресанда yp, що відповідає моменту p). Перша
з них базується на передумові МНК про нульове математичне сподівання
випадкової складової рівняння

регресії, а друга застосовує оцінене значення йp. Оцінену дисперсію
прогнозу обчислюють відповідно за формулами

Зрозуміло, що здебільшого реальне значення показника yt не збігатиметься
зі значенням його математичного сподівання, але якщо розглядати велику
кількість вибірок, на підставі яких визначатиметься прогноз, то можна
гарантувати, що приблизно (1 — ?) ? 100 % результатів потраплять
відповідно до інтервалів

де t?/2 — табличне значення критерію Стьюдента з п — т-1 ступенами
свободи та при заданому рівні значущості ?/2. (Значення ?/2 вибирають,
як і раніше, через двосторонні критичні межі.)

Зауваження. Очевидно, з віддаленням від середнього значення вибірки
спостережень похибка прогнозу зростатиме, що призведе до збільшення
довірчого інтервалу для індивідуального значення залежної змінної.

Методи побудови багатофакторної регресі йної моделі

На кожний економічний показник впливає безліч факторів. При побудові
регресійного рівняння виникає питання, які саме з них слід уводити в
модель. Причому при використанні моделі для прогнозу бажано включити
якомога більше факторів. З іншого боку, збирання та обробка великої
кількості інформації потребують значних витрат, тобто кількість факторів
доцільно зменшити.

Для вибору компромісного рішення не існує єдиної процедури.

Тому для побудови «найкращого» рівняння застосовують один із таких
методів.

1. Метод усіх можливих регресій — історично один із перших методів
побудови регресійної моделі — найбільш громіздкий, тому що передбачає
побудову регресій, які містять усі можливі комбінації впливових
факторів. Іншими словами, якщо розглядається т факторів, то
досліджується 2™ регресій, які порівнюються між собою за значеннями
коефіцієнта детермінації та стандартною похибкою рівняння. Хоча цей
метод і дає змогу дослідити усі можливі рівняння, однак при великій
кількості факторів він, звичайно, неприйнятний.

2. Метод виключень економніший щодо обчислень і базується на дослідженні
часткових і-критеріїв, які дають змогу встановлювати статистичну
значущість співвідношення між залишками моделі з найбільшою кількістю
факторів і залишками моделі з одним вилученим фактором. Якщо для деякого
вилученого фактора таке співвідношення не є значущим (приймається
нульова гіпотеза), то він до моделі не повертається. Таке дослідження
проводиться також для рівняння з меншою кількістю факторів, але з
більшим числом ступенів свободи.

3. Покроковий регресійний метод діє у зворотному порядку порівняно з
попереднім методом, тобто до моделі послідовно включаються фактори, що
мають найбільший коефіцієнт кореляції із залежною змінною. Модель
аналізується за значеннями коефіцієнта детермінації та частковими
_Р-критеріями. Фактори, що не задовольняють критерії, з моделі
вилучаються. Процес припиняється, якщо жоден з факторів рівняння
вилучити не вдається, а новий претендент на включення не відповідає
частковому ^-критерію. На практиці цей метод найпоширеніший.

Етапи дослідження загальної лінійної моделі множинної регресії

Розглядається багатофакторна лінійна регресійна модель

що описує залежність між результативною змінною y та деякими впливовими
факторами x1, x2,…, xm. Інформація про значення y, x1, x2,…, xm
міститься у відповідних статистичних даних — n спо-стереженнях
(вимірюваннях) кожного показника.

Для дослідження зазначеної моделі слід виконати такі кроки.

1. За даними спостережень оцінити параметри a1, a2,…, am.

2. Для перевірки адекватності отриманої моделі обчислити:

а) залишки моделі — розбіжності між спостереженими та розрахунковими
значеннями залежної змінної ui = yi — yi, i = 1, 2,…, n;

б) відносну похибку залишків та її середнє значення;

в) залишкову дисперсію;

г) коефіцієнт детермінації;

д) вибірковий коефіцієнт множинної кореляції.

3. Перевірити статистичну значущість отриманих результатів:

а) перевірити адекватність моделі загалом: за допомогою F-кри-терію
Фішера перевірити гіпотезу

проти альтернативної HA: існує хоча б один коефіцієнт aj ? 0;

б) перевірити значущість коефіцієнта множинної кореляції, тобто
розглянути гіпотезу H0:R = 0;

в) перевірити істотність кожного коефіцієнта регресії: за допо-могою
t-критерію Стьюдента перевірити гіпотезу

H0 : a j = 0 для всіх j = 1, 2,…, m проти відповідних альтернативних
гіпотез

HA : aj ? 0 для всіх j = 1, 2,…, m;

г) оцінити вплив кожного регресора на якість моделі, тобто обчислити
часткові коефіцієнти детермінації AR2, скоригувати їх за Тейлом і за
Амемією та дати їх відповідну інтерпретацію;»

д) оцінити вплив окремих груп регресорів на змінювання регресанда,
застосувавши — критерій Фішера.

4. Обчислити та інтерпретувати коефіцієнти еластичності.

5. Визначити довірчі інтервали регресії при рівні значущості а.

6. Побудувати довірчі інтервали для параметрів регресії.

7. Обчислити прогнозні значення ур зазначеннями x1, x2р,…, x , що
перебувають за межами базового періоду і знайти межі довірчих інтервалів
індивідуальних прогнозованих значень і межі довірчих інтервалів
середнього прогнозу.

Приклад параметризации дослідження багатофакторної регресійної моделі

Розглянемо задачу дослідження впливу на економічний показник у трьох
факторів x1, x2, x3, а саме досліджуватимемо залежність прибутку
підприємства у(і) від інвестицій x1(і), витрат на рекламу x2(і) та
заробітну плату x3(і).

Припустимо, що між економічним показником y і факторами x1, x2, x3 існує
лінійний зв’язок.

Запишемо рівняння регресії у вигляді

де y, y — відповідно фактичні та розрахункові значення прибутку; x1, x2,
x3 — відповідно інвестиції, витрати на рекламу та заробітну плату; a0,
a1, a2, a3 та a0, a1, a2, a3 — відповідно параметри моделі, які потрібно
оцінити, та їх оцінки; u стохастична складова.

1. Знайдемо МНК-оцінки параметрів моделі (3.3). Для цього складемо
вектор-стовпець Y і матрицю X:

Обчислимо оцінки регресійних коефіцієнтів за формулою

де X’ -транспонованаматрицяХ,

Отже, функція регресії з урахуванням знайдених оцінок коефіцієнтів
моделі набуває вигляду

2. Для перевірки адекватності отриманої моделі обчислимо: а) її залишки
щ = у{ — у{, і = 1, 2,…, п, де уі — задані спостереження, а Уі
визначені за формулою (3.5) при заданих спостереженнях факторів

Зауваження. Обчислення значень у{ можна виконати у матричному вигляді за
формулою Y = Ха, де Y — вектор значень $., і = 1,2,…,и.

б) відносну похибку розрахункових значень регресії:

середнє значення відносної похибки:

в) середньоквадратичну похибку дисперсії залишків:

(чим менша стандартна похибка S, тим краще функція регресії відповідає
дослідним даним);

г) коефіцієнт детермінації, тобто перевіримо загальний вплив не-залежних
змінних на залежну змінну:

Висновок: оскільки коефіцієнт детермінації наближається до оди-ниці,
варіація залежної змінної Y значною мірою визначається варіа-цією
незалежних змінних;

д) вибірковий коефіцієнт множинної кореляції:

Коефіцієнт кореляції досить великий, тому існує тісний лінійний зв’язок
усіх незалежних факторів x1, x2, x3 із залежною змінною y. 3. Перевіримо
статистичну значущість отриманих результатів: а) обчислимо ^-статистику
за формулою (спрощений варіант для перевірки нульової гіпотези: H0 : a1
= a1 = a2 = … = am = 0 ):

Знайдемо табличне значення статистики F(m, n — m -1, ?) (дод. 5):

F(3; 11; 0,05) = 3,59. Порівняємо його з обчисленою за cтатистикою.

Оскільки F > F(3; 11; 0,05), нульова гіпотеза відхиляється, тобто
коефіцієнти регресії є значущими; б) обчислимо t-статистику:

Знайдемо відповідне табличне значення t-розподілу з (n–m–1) = = 11
ступенями свободи і рівнем значущості ? = 0,05 (дод. 4): tбл(?/2,n–m–1);

tтабл(0,025;11) = 2,593097.

Оскільки |t| > t б (0,025; 11), можна зробити висновок про достовірність
коефіцієнта кореляції, який характеризує тісноту зв’язку між залежною та
незалежними змінними моделі.

Для вибраного рівня значущості ? = 0,05 і відповідного ступеня свободи k
= n-m–1 = 11 запишемо довірчі межі для множинного коефіцієнта кореляції
R:

в) перевіримо значущість окремих коефіцієнтів регресії. Визначимо
t-статистику за формулою

де cjj — діагональний елемент матриці (X? X)-1; Saj — стандартизована
похибка оцінки параметра моделі;

t0 = 3,105278; t1 = -0,67081; t2 = -1,09688; t3 = 2,696681.

Значення t-критерію порівнюємо з табличним при k = n-m-1 = 11 ступенях
свободи і рівні значущості ? = 0,05: t 6 (0,025; 11) = 2,593097.

Оскільки |t0| > t?/2 k, |t1| < t?/2 k, |t2| < t?/2 k, |t3| > t?/2 k,
відповідно оцінки a0,a3 є значущими, a оцінки a1,^ не є значущими.
Обчислимо відношення

(значення ? характеризують той факт, що оцінки а0, а3 -незміщені, а
оцінки a1, a2 -зміщені);

г) знайдемо значення граничного внеску j-ro регресора в коефіцієнт
детермінації (тобто визначимо, на яку величину зменшиться частковий
коефіцієнт детермінації, якщоj-й регресор буде виключений з рівняння):

д) визначимо коефіцієнт детермінації, скоригований за Тейлом:

Обчислимо коефіцієнт детермінації, скоригований за Амемією:

Висновок: із виключенням змінної із рівняння втрачається один ступіть
свободи, тоді з двох варіантів рівнянь, які мають однакові інші критерії
якості, перевага віддається рівнянню з більшим значенням скоригованого
коефіцієнта детермінації (при включенні додаткового регресора RT2
відображує втрату ступеня свободи більш чітко, ніж RA2, тобто в цьому
разі RT2>RA2).

4. Обчислимо коефіцієнти еластичності:

Коефіцієнт еластичності є показником впливу зміни питомої ваги xi на y у
припущенні, що вплив інших факторів відсутній: у нашому випадку він
показує, що прибуток підприємства зменшиться на 0,14 %, якщо витрати на
рекламу зростуть на 1 %; прибуток підпри-ємства збільшиться на 1,24 %,
якщо заробітна плата зросте на1%.

Загальна еластичність Yвід усіх факторів x1:

Загальна еластичність показує, що прибуток підприємства збільшиться на
0,39 %, якщо одночасно збільшити на 1 % усі фактори (інвестиції, витрати
на рекламу та заробітну плату).

5. Обчислимо довірчі інтервали для математичного сподівання y

і для кожного спостереження Xi = (x1(i), x2(i), x3(i)) (будемо називати
їх довірчими зонами):

де 5 — незміщена оцінка дисперсії залишків: S = 5,7357; ^бл(«2^)
–відповідне табличне значення п–т–1 = 11 ступенями свободи і рівнем
значущості а = 0,05:

Виконавши необхідні розрахунки, отримаємо довірчі зони регресії:

6. Побудуємо довірчі інтервали для параметрів регресії. Довірчі
інтервали для параметрів а обчислюються так:

де С)) -діагональний елемент матриці (Х’Х)~1; а2 =32,89835; W=(0,025;11)
= 2,593097.

Виконавши необхідні розрахунки, отримаємо

7. Обчислимо прогнозні значення і знайдемо межі довірчих інтер-валів
індивідуальних прогнозних значень і межі довірчих інтервалів для
математичного сподівання (точковий та інтервальні прогнози):

а) для розрахунку прогнозних значень ypi = Y у рівняння (3.5)

підставимо прогнозні значення факторів x1 =48,82, x2 =20,04, x3 =10,25,
що лежать за межами базового періоду (точковий прогноз):

б) знайдемо межі інтервального прогнозу індивідуального значен-ня (для k
= n-m-1 = 11 ступенів свободи та вибраного рівня зна-чущості ? = 0,05)
за формулою

(58,72; 102,64) — інтервальний прогноз індивідуального значення;

в) знайдемо межі довірчого інтервалу для математичного споді-вання
значення y за формулою

(64,52; 96,83) — довірчий інтервал для математичного сподівання
прогнозного значення.

Список використаної літератури

Грубер Й. Економетрія: Вступ до множинної регресії та економетрії: У 2
т. — К: Нічлава, 1998-1999.

Джонстон Дж. Эконометрические методы. — М.: Статистика, 1980. — 444 с.

Доугерти К. Введение в эконометрику: Пер. с англ. — М.: ИНФРА-М, 1997. —
402 с.

Дрейпер П., Смит Г. Прикладной регрессионный анализ. — М.: Финансы и
статистика, 1986. — Т. 1 — 365 с; Т. 2 — 379 с.

Емельянов А. С. Эконометрия и прогнозирование. — М.: Экономика, 1985. —
С. 82-89.

Єлейко В. Основи економетрії. — Львів: «Марка Лтд», 1995. — 191с.

Кейн Э. Экономическая статистика и эконометрия. Введение в
количественный экономический анализ. — М.: Статистика, 1977. — 254с.

Корольов О. А. Економетрія: Навч. посіб. — К: Європейський ун-т,2002. —
660 с.

Ланге О. Введение в эконометрию. — М.: Прогресс, 1964. — 360 с.

Лук’яненко I. Г., Краснікова Л. І. Економетрика: Підручник. — К.: Т-во
«Знання», КОО, 1998. — 494 с

Магнус Я. Р., Катышев П. К., Пересецкий А. А. Эконометрика: Навч. курс.
— М.: Дело, 1997. — 248 с.

Маленво Э. Статистические методы эконометрии. — М.: Статистика, 1975. —
423 с.

Наконечний С. I., Терещенко Т .О., Романюк Т. П. Економетрія: Навч.
посіб. — К: КНЕУ, 1997. — 352 с.

Тинтнер Г. Введение в эконометрию. — М.: Статистика, 1965. — 368 с.

Толбатое Ю. А. Економетрика: Підруч. для студ. екон. спец. вищ. навч.
закл. — К.: Четверта хвиля, 1997. — 320 с.

Похожие записи