Реферат на тему:

Мультиколінеарність

Поняття мультиколінеaрності

і повинна мати ранг m, тобто серед пояснювальних змінних моделі не
повинно бути лінійно залежних. Проте оскільки економічні показники, які
входять до економетричної моделі як пояснювальні змінні, на практиці
дуже часто пов’язані між собою, то це може стати перешкодою для
оцінювання параметрів моделі 1МНК та істотно вплинути на якість
економетричного моделювання.

Тому в економетричних дослідженнях вельми важливо з’ясувати, чи існують
між пояснювальними змінними взаємозв’язки, які називають
мультиколінеарністю.

Означення 6.1. Мультиколінеарність означає існування тісної лінійної
залежності, або кореляції, між двома чи більше пояснювальними змінними.

Вона негативно впливає на кількісні характеристики економетричної моделі
або робить її побудову взагалі неможливою.

буде виродженою.

Нехай зв’язок між пояснювальними змінними не функціональний, проте
статистично істотний. Тоді попри те, що оцінити параметри методом
найменших квадратів теоретично можливо, знайдена оцінка може призвести
до таких помилкових значень параметрів, що сама модель стане
беззмістовною.

Основні наслідки мультиколінеарності.

1. Падає точність оцінювання, яка виявляється так:

а) помилки деяких конкретних оцінок стають занадто великими;

б) ці помилки досить корельовані одна з одною;

в) дисперсії оцінок параметрів різко збільшуються.

2. Оцінки параметрів деяких змінних моделі можуть бути незначущими через
наявність їх взаємозв’язку з іншими змінними, а не тому, що вони не
впливають на залежну змінну. У такому разі множина вибіркових даних не
дає змоги цей вплив виявити.

3. Оцінки параметрів стають досить чутливими до обсягів сукупності
спостережень. Збільшення сукупності спостережень іноді може спричинитися
до істотних змін в оцінках параметрів.

З огляду на перелічені наслідки мультиколінеарності при побудові
економетричної моделі потрібно мати інформацію про те, що між
пояснювальними змінними не існує мультиколінеарністі.

Ознаки мультиколінеарності

1. Коли серед парних коефіцієнтів кореляції пояснювальних змінних є
такі, рівень яких наближається або дорівнює множинному коефіцієнту
кореляції, то це означає можливість існування мультиколінеарності.
Інформацію про парну залежність може дати симетрична матриця
коефіцієнтів парної кореляції або кореляції нульового порядку між
пояснювальними змінними:

. (6.1)

Проте коли до моделі входять більш як дві пояснювальні змінні, то
вивчення питання про мультиколінеарність не може обмежуватись
інформацією, що її дає ця матриця. Явище мультиколінеарності в жодному
разі не зводиться лише до існування парної кореляції між незалежними
змінними.

.

впливає дисперсія пояснювальних змінних, цей показник можна вважати
точковою мірою рівня мультиколінеарності.

і при цьому F-критерій істотно відрізняється від нуля, то це також
свідчить про наявність мультиколінеарності.

, який обчислено для регресійних залежностей між однією пояснювальною
змінною та іншими, має значення, яке близьке до одиниці, то можна
говорити про наявність мультиколінеарності.

5. Нехай при побудові економетричної моделі на основі покрокової
регресії введення нової пояснювальної змінної істотно змінює оцінку
параметрів моделі при незначному підвищенні (або зниженні) коефіцієнтів
кореляції чи детермінації. тоді ця змінна перебуває, очевидно, у
лінійній залежності від інших, які було введено до моделі раніше.

Усі ці ознаки мультиколінеарності мають один спільний недолік: ні одна з
них чітко не розмежовує випадки, коли мультиколінеарність істотна і коли
нею можна знехтувати.

Алгоритм Фаррара — Глобера

— «хі» — квадрат); кожної незалежної змінної з рештою змінних
(F-критерій); кожної пари незалежних змінних (t-критерій).

Усі ці критерії при порівнянні з їх критичними значеннями дають змогу
робити конкретні висновки щодо наявності чи відсутності
мультиколінеарності незалежних змінних.

Опишемо алгоритм Фаррара — Глобера.

Крок 1. Стандартизація (нормалізація) змінних.

. Елементи стандартизованих векторів обчислио за формулою:

(6.2)

;

;

— середнє арифметичне k-ї пояснювальної змінної;

— дисперсія k-ї пояснювальної змінної.

Крок 2. Знаходження кореляційної матриці

(6.3)

.

(«хі»-квадрат):

(6.4)

— визначник кореляційної матриці r.

то в масиві пояснювальних змінних існує мультиколінеарність.

Крок 4. Визначення оберненої матриці:

(6.5)

Крок 5. Очислення F-критеріїв:

(6.6)

— діагональні елементи матриці C. Фактичні значення критеріїв
порівнюються з табличними при n – m і m – 1 ступенях свободи і рівні
значущості (. Якщо Fkфакт > Fтабл, то відповідна k-та незалежна змінна
мультиколінеарна з іншими.

Коефіцієнт детермінації для кожної змінної

(6.7)

Крок 6. Знаходження частинних коефіцієнтів кореляції:

(6.8)

— діагональні елементи матриці C.

Крок 7. Обчислення t-критеріїв:

(6.9)

існує мультиколінеарність.

Розглянемо застосування алгоритму Фаррара — Глобера для розв’язування
конкретної задачі.

Приклад 6.1. На середньомісячну заробітну плату впливає ряд чинників.
Вирізнимо серед них продуктивність праці, фондомісткість та коефіцієнт
плинності робочої сили. Щоб побудувати економетричну модель заробітної
плати від згаданих чинників згідно з методом найменших квадратів,
потрібно переконатися, що продуктивність праці, фондомісткість та
коефіцієнт плинності робочої сили як незалежні змінні моделі — не
мультиколеніарні.

Вихідні дані наведені в табл. 6.1.

Таблиця 6.1

Номер

цеху Продуктивність праці, людино-днів Фондомісткість,

млн грн. Коефіцієнт плинності

робочої сили, %

1 32 0,89 19,5

2 29 0,43 15,6

3 30 0,70 13,5

4 31 0,61 9,5

5 25 0,51 23,5

6 34 0,51 12,5

7 29 0,65 17,5

8 24 0,43 14,5

9 20 0,51 14,5

10 33 0,92 7,5

Дослідити наведені чинники на наявність мультиколеніарністі.

Розв’язання.

Крок 1. Нормалізація змінних.

. Елементи стандартизованих векторів обчислимо за формулою:

.

Із формули бачимо, що спочатку потрібно обчислити середні арифметичні
для кожної пояснювальної змінної:

згідно з поданими співвідношеннями наведено в табл. 6.2.

Таблиця 6.2

3,3 0,004 -3,4 10,89 0,000016 11,56 0,2487 0,0091 -0,2518

0,3 -0,156 1,6 0,09 0,024336 2,56 0,0226 -0,3531 0,1185

1,6 0,114 -0,4 1,89 0,012995 0,16 0,0980 0,2580 -0,0296

2,3 0,024 -4,4 5,29 0,000576 19,36 0,1733 0,0543 -0,3258

-3,7 -0,676 9,6 13,89 0,005776 92,16 -0,2788 -0,1720 0,7108

5,3 -0,078 -1,4 28,09 0,005776 1,96 0,3994 -0,1720 -0,1037

0,3 0,064 -3,6 0,09 0,004096 12,96 0,0226 0,1448 0,2666

-4,7 -0,156 0,6 22,09 0,024336 0,35 -0,3541 -0,3531 0,0444

-8,7 -0,076 0,6 75,89 0,005778 0,35 -0,6556 -0,1720 0,0444

4,3 0,334 -6,4 14,49 0,111555 40,95 0,3240 0,7559 -0,4739

Всього

176,1 0,19524 182,4

Дисперсії кожної незалежної змінної мають такі значення:

Тоді знаменник для стандартизації кожної незалежної змінної буде такий:

Матриця стандартизованих змінних подається у вигляді:

.

Крок 2. Знаходження кореляційної матриці:

.

Ця матриця симетрична і має розмір 3 ( 3.

Для даної задачі

за рахунок зміщеності коефіцієнтів парної кореляції числові значення
діагональних елементів можуть наближатись до одиниці. Якщо це так, то
вони заміняються одиницями, а інші значення матриці r збільшуються на
величину, що визначається як різниця між одиницею і діагональним
елементом.

Інші елементи матриці r дорівнюють:

існує зв’язок. Але чи можна стверджувати, що цей зв’язок є виявленням
мультиколінеарності, а через це негативно впливатиме на оцінку
економетричної моделі?

Щоб відповісти на це запитання, потрібно ще раз звернутися до алгоритму
Фаррара — Глобера і знайти статистичні критерії оцінки
мультиколінеарності.

:

табл, доходимо висновку, що в масиві змінних не існує
мультиколінеарності.

Крок 4. Знайдемо матрицю, обернену до матриці r:

Крок 5. Використовуючи діагональні елементи матриці C, обчислимо
F-критерії:

 = 2 критичне (табличне) значення критерію F = 4,74.

Оскільки

F1факт < Fтабл; F2факт < Fтабл; F3факт < Fтабл, то ні одна з незалежних змінних не мультиколінеарна з двома іншими. Щоб визначити наявність попарної мультиколінеарності, продовжимо дослідження і перейдемо до кроку 6. Крок 6. Обчислимо частинні коефіцієнти кореляції, скориставшись елементами матриці C: Частинні коефіцієнти кореляції характеризують тісноту зв’язку між двома змінними за умови, що третя не впливає на цей зв’язок. Порівнявши частинні коефіцієнти кореляції з парними, які було наведено раніше, можна помітити, що частинні коефіцієнти значно менші за парні. Це ще раз показує, що на підставі парних коефіцієнтів кореляції не можна зробити висновків про наявність мультиколінеарності чи її відсутність. Крок 7. Визначимо t-критерій на основі частинних коефіцієнтів кореляції.  = 7 ступенях свободи і рівні значущості ( = 0,05 дорівнює 1,69. Усі числові значення t-критеріїв, знайдених для кожної пари змінних, менші за їх табличні значення. Звідси робимо висновок, що всі пари незалежних змінних не є мультиколінеарними. Отже, незважаючи на те, що між пояснювальними змінними досліджуваної моделі існує лінійна залежність, це не мультиколінеарність, тобто негативного впливу на кількісні оцінки параметрів економетричної моделі, не буде. Якщо F-критерій більший за табличне значення, тобто коли k-та змінна залежить від усіх інших у масиві, то необхідно вирішувати питання про її вилучення з переліку змінних. , можна зробити обгрунтований висновок про те, яку зі змінних необхідно вилучити з дослідження або замінити іншою. Проте заміна масиву незалежних змінних завжди має узгоджуватись з економічною доцільністю, що випливає з мети дослідження. O $ O ???????O O O $ M-MZMoN"OoePAEQeYYYYMYY O O O ]4]aa*bZb?b?bHepf"gXg?g///e///e/e/eae/ee***aeeee O O O $ O O економетричній моделі можна, відкинувши одну зі змінних мультиколінеарної пари. Але на практиці вилучення якогось чинника часто суперечить логіці економічних зв’язків. Тоді можна перетворити певним чином пояснювальні змінні моделі: а) взяти відхилення від середньої; б) замість абсолютних значень взяти відносні; в) стандартизувати пояснювальні змінні і т. iн. За наявності мультиколінеарності змінних потрібно звертати увагу й на специфікацію моделі. Іноді заміна однієї функції іншою, якщо це не суперечить апріорній інформації, дає змогу уникнути явища мультиколінеарності. Коли жодний з розглянутих способів не дає змоги позбутися мультиколінеарності, то параметри моделі слід оцінювати за методом головних компонентів. Метод головних компонентів Цей метод призначений для оцінювання моделей великого розміру, а також для оцінки параметрів моделі, якщо до неї входять мультиколінеарні змінні. Існують різні модифікації методу головних компонентів, які різняться між собою залежно від того, що береться за основу при визначенні ортогональних змінних — коваріаційна чи кореляційна матриця незалежних змінних. Нехай маємо матрицю Х, яка описує незалежні змінні моделі. Оскільки спостереження, що утворюють матрицю Х, як правило, корельовані між собою, то можна поставити питання про кількість реально незалежних змінних, які входять до цієї матриці. Точніше, ідея методу полягає в тому, щоб перетворити множину змінних Х на нову множину попарно некорельованих змінних, серед яких перша відповідає максимально можливій дисперсії, а друга — максимально можливій дисперсії в підпросторі, який є ортогональним до першого, і т.д. Нехай нова змінна запишеться: У матричній формі (6.10) . Суму квадратів елементів вектора подамо у вигляді: (6.11) треба накласти обмеження, щоб він не став дуже великим. Тому ми його нормуємо, наклавши обмеження: (6.12) Оскільки Z1 = Xa1, то максимізація a1 буде максимізувати Z1, а Z1 характеризує вклад змінної Z1 в загальну дисперсію. за умов (6.12). Побудуємо функцію Лагранжа: — множник Лагранжа. , дістанемо . (6.13) . Підставивши значення (6.13) у (6.11), дістанемо: (6.14) буде додатно визначеною і, відповідно, її характеристичні корені будуть додатними. Першим головним компонентом матриці X буде вектор Z1. за таких умов: ; . Для розв’язування цієї задачі функцію Лагранжa запишемо у вигляді — множники Лагранжa. . об’єднаємо в ортогональну матрицю: . Отже, головні компoненти матриці X задаються матрицею (6.15) розміром n ( m. . (6.16) Вираз (6.16) означає, що головні компоненти дійсно попарно некорельовані, а їх дисперсії визначаються так: (6.17) характеризують пропорційний внесок кожного з векторів у загальну варіацію змінних X, причому оскільки ці компоненти ортогональні, сума всіх внесків дорівнює одиниці. Зауважимо, що вектори вихідних даних (матриця X) повинні мати однакові одиниці вимірювання, бо в противному разі дуже важко дати змістовне тлумачення поняттю загальної варіації змінних X і розкладанню цієї варіації на складові, виконаному відповідно до внеску кожного з векторів, якими подаються головні компоненти. Іноді буває важко надати конкретного змісту знайденим головним компонентам. Для цього можна обчислити коефіцієнти кореляції кожного компонента з різними змінними X. Так, наприклад, візьмемо перший головний компонент Z1 і знайдемо коефіцієнти його кореляції її з усіма змінними X. Для цього потрібно обчислити перехресні добутки між головним компонентом Z1 і кожною з пояснювальних змінних X. Оскільки маємо коефіцієнти кореляції для першого компонента: (6.18) (6.19) , а оскільки компоненти не корелюють один з одним, то сума їх часток дорівнює одиниці. Визначивши всі головні компоненти і відкинувши ті з них, які відповідають невеликим значенням характеристичних коренів, знаходимо зв’язок залежної змінної Y з основними головними компонентами, а далі з допомогою оберненого перетворення повертаємося від параметрів моделі з головними компонентами до знаходження оцінок параметрів змінних X. Приклад 6.2. Нехай для п’яти змінних матриці X знайдено п’ять головних компонентів. Порівнявши їх значення, вибираємо лише два: (6.20) Тоді модель, що характеризує зв’язок між Y, Z1 i Z2, має вигляд: (6.21) Підставимо в (6.21) значення головних компонентів із (6.20): (6.22) У разі, коли було б збережено всі головні компоненти, коефіцієнти рівняння (6.22) були б такі самі, як коефіцієнти, знайдені на основі прямої регресії Y на всі змінні X. Розглянемо, як обчислити параметри моделі з головними компонентами: (6.23) , то, підставивши цей вираз у (6.23), дістанемо: тобто . . . . . . . . . . нормально і незалежно розподілені навколо b. Алгoритм головних компонентів Крок 1. Нормалізація всіх пояснювальних змінних: Крок 2. Обчислення кореляційної матриці Крок 3. Знаходження характеристичних чисел матриці r з рівняння де E — одинична матриця розміром m ( m. упорядковуються за абсолютним рівнем вкладу кожного головного компонента до загальної дисперсії. розв’язуванням системи рівнянь за таких умов: Крок 6. Знаходження головних компонентів — векторів Головні компоненти мають задовольняти умови: ; ; : : висновки 1. Якщо порушується одна з чотирьох умов, необхідних для застосування 1МНК, що стосується матриці вихідних даних Х, а саме коли між пояснювальними змінними існує лінійна залежність, то це явище називається мультиколінеарністю. 2. Мультиколінеарність негативно впливає на кількісні характеристики економетричної моделі або взагалі робить неможливою її побудову, коли матриця вироджена. 3. Найважливіші наслідки мультиколінеарності такі. 3.1. Падає точність оцінювання параметрів економетричної моделі. 3.2. Оцінки деяких параметрів моделі можуть бути незначущими через наявність мультиколінеарності пояснювальних змінних, взаємозв’язок між ними, а не тому, що вони не впливають на залежну змінну. 3.3. Оцінки параметрів моделі стають дуже чутливими до особливостей сукупності спостережень, насамперед до її розмірів. Збільшення сукупності спостережень іноді може призвести до істотних змін в оцінках параметрів. 4. Основні ознаки мультиколінеарності. 4.1. Наявність парних коефіцієнтів кореляції між пояснювальними змінними, які наближаються до одиниці і наближено дорівнюють множинному коефіцієнту кореляції. наближається до нуля. 4.3. Наявність малих значень оцінок параметрів моделі при високому рівні коефіцієнта детермінації R2 і F-критеріїв, які істотно відрізняються від нуля. 4.4. Наявність частинних коефіцієнтів детермінації між пояснювальними змінними, які наближаються до одиниці. 4.5. Істотна зміна оцінок параметрів моделі при додатковому введенні до останньої пояснювальної змінної, а також незначне підвищення (або зниження) коефіцієнтів кореляції чи детермінації. 5. Найповніше дослідити мультиколінеарність можна з допомогою алгоритму Феррара — Глобера. Цей алгоритм має три види статистичних критеріїв, за якими перевіряється мультиколінеарність усього масиву незалежних змінних ((2 — (хі(-квадрат); кожної незалежної змінної з усіма іншими (F-критерій); кожної пари незалежних змінних (t-критерій). 6. Алгоритм Феррара — Глобера складається із семи кроків. 6.1. Стандартизація (нормалізація) змінних 6.2. Знаходження кореляційної матриці . 6.3. Визначення критерію (2 ((хі(-квадрат) 6.4. Визначення оберненої матриці . 6.5. Обчислення F-критеріїв 6.6. Знаходження частинних коефіцієнтів кореляції 6.7. Обчислення t-критеріїв 7. Метод головних компонентів використовується для оцінювання параметрів моделей великого розміру, а також моделей, до яких входять мультиколінеарні змінні. Ідея методу полягає в тому, щоб перетворити множину змінних Х на нову множину попарно некорельованих змінних, серед яких перша відповідає максимально можливій дисперсії, друга — максимально можливій дисперсії в підпросторі, який є ортогональним до першого, і т.д. . за таких умов: , k = j; , k ( j. і дорівнює нулю лише тоді, коли ajak = 0. Для розв’язування цієї задачі будується функція Лагранжа: . )aj. 10. Головні компоненти Zj = Xaj попарно некорельовані, а їх дисперсії визначаються так: характеризують пропорційний внесок кожного з векторів до загальної варіації змінних Х, а оскільки ці компоненти ортогональні, сума всіх внесків дорівнює одиниці. 11. Алгоритм головних компонентів складається з восьми кроків. 11.1 Нормалізація всіх пояснювальних змінних: 11.2. Обчислення кореляційної матриці 11.3. Знаходження характеристичних чисел матриці r з рівняння: де (j — характеристичні числа; E — одинична матриця. 11.4. Власні (характеристичні) числа (j упорядковуються за абсолютними значеннями. 11.5. Знаходження власних векторів aj розв’язуванням системи рівнянь: (r – (E)a = 0. 11.6. Обчислення головних компонентів векторів Zj: Головні компоненти мають задовольняти умови: ; 11.7. Визначення параметрів моделі з головними компонентами 11.8. Знаходження параметрів вихідної моделі: ЛІТЕРАТУРА Джонстон Дж. Эконометрические методы.— М., 1980. Дрейлер Н., Смит Г. Прикладной регрессионный анализ. — М.: Финансы и статистика, 1986. Кейн Э. Экономическая статистика и эконометрия. — М.: 1977.– Вып.12. Класc А., Гергели К., Колек Ю., Шуян И. Введение в эконометрическое моделирование. –– М., 1975. Крамер Г. Математические методы статистики. — М., 1975. Ланге О. Введение в эконометрику. –– М., 1964. Лизер С. Эконометрические методы и задачи. –– М., 1971. Линник Ю. В. Метод наименьших квадратов и основы математико-статистической обработки наблюдений. — М., 1962. Маленво Э. Статистические методы в эконометрии. — М., 1975 – 1976. Вып. 1,2. Мальцев А. Н. Основы линейной алгебры. –– М., 1975. Пирогов Г., Федоровский Ю. Проблемы структурного оценивания в эконометрии. –– М., 1979. Тинтнер Г. Введение в эконометрию. –– М., 1964. Фишер Ф. Проблема идентификации в эконометрии. — М., 1978. Чупров А. А. Основные проблемы теории корреляции. — М., 1960. 2-е изд. Klein L. R., Goldberger A. S. An Ekonometric Model of United States, 1929 – 1952 North Holland, Amsterdam, 1964. PAGE

Похожие записи