Порядок виконання завдання

Дослідимо наявність мультиколінеарності, вико­навши такі кроки:

1. Нормалізацію (стандартизацію) пояснювальних змінних моделі.

2. Розрахунок кореляційної матриці rхх.

3. Визначення детермінанта матриці rхх.

4. Визначення критерію c2.

5. Розрахунок матриці, оберненої до матриці rхх.

6. Визначення F-критерію.

7. Обчислення частинних коефіцієнтів кореляції.

8. Визначення t-критерію.

Крок 1. Нормалізація (стандартизація) пояснювальних змінних моделі.

Обчислимо середні арифметичні пояснювальних змінних:

;

;

.

Визначимо стандартні відхилення.

Позначимо вектори пояснювальних змінних – продуктивності праці, фондомісткості, коефіцієнтів плинності робочої сили – через Х1, Х2, Х3. Елементи нормалізованих векторів обчислимо за формулою:

 

 


де n – кількість спостережень, n = 15; т – кількість пояснювальних змінних, т = 3; – середнє арифметичне значення компонентів вектора Хk; – дисперсія змінної хk.

Із формули випливає, що спочатку потрібно обчислити середні арифметичні значення і величини для кожної пояснювальної змінної. Дисперсії кожної пояснювальної змінної мають такі значення:

25,3075556;
43,1875556;
1,96906667.

Усі розрахункові дані для нормалізації змінних Х1, Х2, X3, згідно з поданими співвідношеннями наведено в табл. 7.4.

Таблиця 7.4

-6,1667 -8,1333 -1,7 38,03 66,151 2,7556 -0,3165 -0,3196 -0,3054
-4,7667 -7,9333 -1,6 22,72 62,938 2,4336 -0,2446 -0,3117 -0,2870
-4,5667 -7,8333 -1,6 20,85 61,361 2,4336 -0,2344 -0,3078 -0,2870
-4,4667 -7,3333 -1,5 19,95 53,778 2,1316 -0,2293 -0,2881 -0,2686
-4,0667 -5,7333 -1,5 16,54 32,871 2,1316 -0,2087 -0,2253 -0,2686
-3,0667 -4,1333 -1,4 9,40 17,084 1,8496 -0,1574 -0,1624 -0,2502
-2,4667 -3,0333 -1,3 6,08 9,201 1,5876 -0,1266 -0,1192 -0,2318
-2,1667 0,2667 0,9 4,69 0,071 0,8836 -0,1112 0,0105 0,1730
0,8333 1,2667 1,0 0,69 1,604 1,0816 0,0428 0,0498 0,1914
1,8333 3,2667 1,0 3,36 10,671 1,0816 0,0941 0,1283 0,1914
1,9333 6,2667 1,1 3,74 39,271 1,2996 0,0992 0,2462 0,2098
3,1333 6,3667 1,1 9,82 40,534 1,2996 0,1608 0,2501 0,2098
3,6333 6,5667 1,3 13,20 43,121 1,7956 0,1865 0,2580 0,2466
8,9333 8,2667 1,8 79,80 68,338 3,3856 0,4585 0,3248 0,3386
11,4333 11,8667 1,8 130,72 140,818 3,3856 0,5868 0,4662 0,3386
Всього…     379,61 647,81 29,536      

 

Тоді знаменник для нормалізації кожної пояснювальної змінної буде такий:

19,48;
  25,45;
  5,43.

 


Матриця нормалізованих змінних подається у вигляді:

  -0,3165 -0,3196 -0,3054
  -0,2446 -0,3117 -0,2870
  -0,2344 -0,3078 -0,2870
  -0,2293 -0,2881 -0,2686
  -0,2087 -0,2253 -0,2686
  -0,1574 -0,1624 -0,2502
  -0,1266 -0,1192 -0,2318
Х* = -0,1112 0,0105 0,1730
  0,0428 0,0498 0,1914
  0,0941 0,1283 0,1914
  0,0992 0,2462 0,2098
  0,1608 0,2501 0,2098
  0,1865 0,2580 0,2466
  0,4585 0,3248 0,3386
  0,5868 0,4662 0,3386

Крок 2. Розрахунок кореляційної матриці нульового порядку[2]).


де — матриця нормалізованих пояснювальних змінних;

— матриця, транспонована до X*.

Маємо:

  -0,3165 -0,3196 -0,3054
  -0,2446 -0,3117 -0,2870
  -0,2344 -0,3078 -0,2870
  -0,2293 -0,2881 -0,2686
  -0,2087 -0,2253 -0,2686
  -0,1574 -0,1624 -0,2502
  -0,1266 -0,1192 -0,2318
Х* = -0,1112 0,0105 0,1730
  0,0428 0,0498 0,1914
  0,0941 0,1283 0,1914
  0,0992 0,2462 0,2098
  0,1608 0,2501 0,2098
  0,1865 0,2580 0,2466
  0,4585 0,3248 0,3386
  0,5868 0,4662 0,3386

 

  -0,3165 -0,24465 -0,23438 -0,22925 -0,20872 -0,1574 -0,1266 -0,1112
X*' = -0,31955 -0,3117 -0,30777 -0,28812 -0,22526 -0,1624 -0,11918 0,010477
  -0,30544 -0,28704 -0,28704 -0,26864 -0,26864 -0,25024 -0,23184 0,172963
                 
              Продовження матриці
    0,042771 0,094096 0,099228 0,160818 0,186481 0,458504 0,586816
    0,049767 0,128345 0,246213 0,250142 0,258 0,324792 0,466234
    0,191363 0,191363 0,209763 0,209763 0,246564 0,338565 0,338565

 

 

    0,9516 0,8820
rxx = 0,9516 0,9530
  0,8820 0,9530

 

Кожний елемент цієї матриці характеризує тісноту зв'язку однієї пояснювальної змінної з іншою. Оскільки діагональні елементи характеризують тісноту зв'язку кожної незалежної з цією самою змінною, то вони дорівнюють одиниці.

Решта елементів матриці rххтакі:

r12 = 0,9516;
r13 = 0,8820;
r23 = 0,9530.

 

Парні коефіцієнти кореляції характеризують тісноту зв'язку між двома змінними. Вони можуть змінюватися в межах від - 1 до 1.

Коефіцієнти парної кореляції r12 , r23 близькі до одиниці, тому можна передбачити, що досліджувані пояснювальні змінні є мультиколінеарними. Користуючись цими коефіцієнтами, можна зробити висновок, що між змінними Х1 і Х2, та Х2 і Х3 існує вельми високий зв'язок.

Постає запитання: чи можна стверджувати, що цей зв’язок є виявленням мультиколінеарності і через це негативно впливатиме на оцінку параметрів економетричної моделі?

Щоб відповісти на це запитання, потрібно ще раз звернутися до алгоритму Фаррара-Глобера і знайти статистичні критерії оцінки мультиколінеарності.

Крок 3. Обчислимо детермінант кореляційної матриці rхх і критерій c2:

а)

б) (n=15; m=3)

ln|rxx | = –4,8226;

Отже, критерій c2= 58,6749.

Якщо ступінь свободи дорівнює а рівень значущості a=0,05, то критерій c2табл = 11,43.

Оскільки < доходимо висновку, що в масиві змінних існує мультиколінеарний зв'язок.

Крок 4. Розрахуємо матрицю, обернену до матриці rxx :

  11,4 –13,80 3,10
C = –13,8 27,61 –14,14
  3,097 –14,14 11,75

 

Матриця C – симетрична, і її діагональні елементи завжди мають бути додатними.

Крок 5. Визначення F-критерію:


де n— кількість спостережень; т — кількість пояснювальних змінних.

Виконавши обчислення, дістанемо:

Коли a = 0,05 і ступені свободи m–1=3–1=2, n–m=15–3=12 маємо Fкрит = 3,885.

Фактично знайдене значення F-критерію порівнюємо з табличним. У нашому випадку Fфакт > Fкрит , тобто пояснювальні змінні мультиколінеарні з рештою змінних.

Коефіцієнт детермінації до кожної змінної:


R21 = 0,912;   R22 = 0,96;   R23 = 0,9149.

Якщо коефіцієнт детермінації наближається до одиниці, то пояснювальна змінна мультиколінеарна з іншими.

Крок 6.Обчислення частинних коефіцієнтів кореляції:

 

де Сkj – елемент матриці С, що міститься в k-му рядку i j-му стовпці;
Ckk і Cjj – діагональні елементи матриці С.

r12 = 0,7778;
r13 = –0,2677;
r23 = 0,7853.

Частинні коефіцієнти кореляції характеризують рівень тісноти зв'язку між двома змінними за умови, що решта змінних на цей зв'язок не впливає. Частинні коефіцієнти кореляції за модулем нижчі, ніж коефіцієнти парної кореляції, бо на їхній рівень не впливає решта змінних, які мають зв'язок із цими двома.

Крок 7. Обчислення t-критеріїв:

 

t12 = 4,287
t13 = –0,962
t23 = 4,394
tкрит = 2,179

Обчислені t-критерії порівнюємо з табличним за вибраного рі­вня значущості a = 0,05 і ступенів свободи n–m= 12.

Якщо tkj більше за tтабл, як у нашому випадку, то пара цих пояснювальних змінних тісно пов'язана між собою.

Оскільки розраховані t12 > tтабл та t23 > tтабл , то можна зробити висновок, що пари цих пояснювальних змінних (X1 і X2 та X2 і X3) – тісно пов'язані між собою.

Висновок.

Оскільки < доходимо висновку, що в масиві змінних існує мультиколінеарний зв'язок.

t12 > tтабл – між змінними Х1 і X2 (продуктивністю праці та чисельністю працівників) існує мультиколінеарність.

t23 > tтабл – між змінними Х2 і X3 (чисельністю працівників та фондовіддачею) існує мультиколінеарність.

А це означає, що метод найменших квадратів застосувати в цьому разі не можна.









Дата добавления: 2014-12-03; просмотров: 954;


Поиск по сайту:

При помощи поиска вы сможете найти нужную вам информацию.

Поделитесь с друзьями:

Если вам перенёс пользу информационный материал, или помог в учебе – поделитесь этим сайтом с друзьями и знакомыми.
helpiks.org - Хелпикс.Орг - 2014-2024 год. Материал сайта представляется для ознакомительного и учебного использования. | Поддержка
Генерация страницы за: 0.019 сек.