Додому Пульпіт Побудова рівняння регресії у стандартизованому масштабі. Стандартизовані коефіцієнти регресії

Побудова рівняння регресії у стандартизованому масштабі. Стандартизовані коефіцієнти регресії

Завдання.

  1. Для заданого набору даних збудуйте лінійну модель множинної регресії. Оцініть точність та адекватність побудованого рівняння регресії.
  2. Дайте економічну інтерпретацію параметрів моделі.
  3. Розрахуйте стандартизовані коефіцієнти моделі та запишіть рівняння регресії у стандартизованому вигляді. Чи вірно твердження, що ціна блага більш впливає на обсяг пропозиції блага, ніж заробітня платаспівробітників?
  4. Для отриманої моделі (у природною формою) перевірте виконання умови гомоскедастичності залишків, застосувавши тест Голдфельда-Квандта.
  5. Перевірте отриману модель на наявність автокореляції залишків за допомогою тесту Дарбіна-Уотсона.
  6. Перевірте, чи адекватне припущення про однорідність вихідних даних у регресійному значенні. Чи можна об'єднати дві вибірки (за першими 8 та рештою 8 спостережень) в одну і розглядати єдину модель регресії Y по X?

1. Оцінка рівняння регресії. Визначимо вектор оцінок коефіцієнтів регресії за допомогою сервісу «Рівняння множинної регресії». Відповідно до методу найменших квадратів, вектор sвиходить з виразу: s = (X T X) -1 X T Y
Матриця X

1 182.94 1018
1 193.45 920
1 160.09 686
1 157.99 405
1 123.83 683
1 152.02 530
1 130.53 525
1 137.38 418
1 137.58 425
1 118.78 161
1 142.9 242
1 99.49 226
1 116.17 162
1 185.66 70

Матриця Y
4.07
4
2.98
2.2
2.83
3
2.35
2.04
1.97
1.02
1.44
1.22
1.11
0.82

Матриця X T
1 1 1 1 1 1 1 1 1 1 1 1 1 1
182.94 193.45 160.09 157.99 123.83 152.02 130.53 137.38 137.58 118.78 142.9 99.49 116.17 185.66
1018 920 686 405 683 530 525 418 425 161 242 226 162 70

Помножуємо матриці, (X T X)
Знаходимо зворотну матрицю(X T X) -1
2.25 -0.0161 0.00037
-0.0161 0.000132 -7.0E-6
0.00037 -7.0E-61.0E-6

Вектор оцінок коефіцієнтів регресії дорівнює

Y(X) =
2,25 -0,0161 0,00037
-0,0161 0,000132 -7,0E-6
0,00037 -7,0E-61,0E-6
*
31,05
4737,044
18230,79
=
0,18
0,00297
0,00347

Рівняння регресії (оцінка рівняння регресії)
Y = 0.18 + 0.00297X 1 + 0.00347X 2

2. Матриця парних коефіцієнтів кореляції R. Число спостережень n = 14. Число незалежних змінних у моделі дорівнює 2, а число регресорів з урахуванням одиничного вектора дорівнює числу невідомих коефіцієнтів. З урахуванням ознаки Y, розмірність матриці стає рівною 4. Матриця, незалежних змінних Х має розмірність (14 х 4).
Матриця, складена з Y та X

1 4.07 182.94 1018
1 4 193.45 920
1 2.98 160.09 686
1 2.2 157.99 405
1 2.83 123.83 683
1 3 152.02 530
1 2.35 130.53 525
1 2.04 137.38 418
1 1.97 137.58 425
1 1.02 118.78 161
1 1.44 142.9 242
1 1.22 99.49 226
1 1.11 116.17 162
1 0.82 185.66 70

Транспонована матриця.

1 1 1 1 1 1 1 1 1 1 1 1 1 1
4.07 4 2.98 2.2 2.83 3 2.35 2.04 1.97 1.02 1.44 1.22 1.11 0.82
182.94 193.45 160.09 157.99 123.83 152.02 130.53 137.38 137.58 118.78 142.9 99.49 116.17 185.66
1018 920 686 405 683 530 525 418 425 161 242 226 162 70

Матриця A T A.

14 31.05 2038.81 6471
31.05 83.37 4737.04 18230.79
2038.81 4737.04 307155.61 995591.55
6471 18230.79 995591.55 4062413

Отримана матриця має таку відповідність:

∑n∑y∑x 1∑x 2
∑y∑y 2∑x 1 y∑x 2 y
∑x 1∑yx 1∑x 1 2∑x 2 x 1
∑x 2∑yx 2∑x 1 x 2∑x 2 2

Знайдемо парні коефіцієнти кореляції.
Ознаки x та y∑(x i ) ∑(y i ) ∑(x i y i )
Для y та x 1 2038.81 145.629 31.05 2.218 4737.044 338.36
Для y та x 2 6471 462.214 31.05 2.218 18230.79 1302.199
Для x 1 та x 2 6471 462.214 2038.81 145.629 995591.55 71113.682
Ознаки x та y
Для y та x 1 731.797 1.036 27.052 1.018
Для y та x 2 76530.311 1.036 276.641 1.018
Для x 1 та x 2 76530.311 731.797 276.641 27.052

Матриця парних коефіцієнтів кореляції R:
- yx 1x 2
y 1 0.558 0.984
x 1 0.558 1 0.508
x 2 0.984 0.508 1

Для відбору найбільш значущих чинників x i враховуються такі умови:
- зв'язок між результативною ознакою та факторною має бути вищим міжфакторного зв'язку;
- зв'язок між факторами має бути не більше 0.7. Якщо матриці є межфакторный коефіцієнт кореляції r xjxi > 0.7, то даної моделі множинної регресії існує мультиколлинеарность.;
- за високого міжфакторного зв'язку ознаки відбираються фактори з меншим коефіцієнтом кореляції між ними.
У разі всі парні коефіцієнти кореляції |r| Модель регресії у стандартному масштабі Модель регресії у стандартному масштабі передбачає, що всі значення досліджуваних ознак перетворюються на стандарти (стандартизовані значення) за формулами:

де х ji - значення змінної х ji в i-му спостереженні.

Таким чином, початок відліку кожної стандартизованої змінної поєднується з її середнім значенням, а як одиниця зміни приймається її середнє квадратичне відхилення S.
Якщо зв'язок між змінними у природному масштабі лінійний, то зміна початку відліку та одиниці виміру цієї властивості не порушать, так що і стандартизовані змінні будуть пов'язані лінійним співвідношенням:
t y = ∑β j t xj
Для оцінки β-коефіцієнтів застосуємо МНК. При цьому система нормальних рівнянь матиме вигляд:
r x1y = β 1 +r x1x2 β 2 + ... + r x1xm β m
r x2y = r x2x1 β 1 + β 2 + ... + r x2xm β m
...
r xmy = r xmx1 β 1 + r xmx2 β 2 + ... + β m
Для наших даних (беремо із матриці парних коефіцієнтів кореляції):
0.558 = β 1 + 0.508β 2
0.984 = 0.508β 1 + β 2
Дану систему лінійних рівнянь розв'язуємо методом Гаусса: 1 = 0.0789; β 2 = 0.944;
Стандартизована форма рівняння регресії має вигляд:
y 0 = 0.0789x1 + 0.944x2
Знайдені з даної системи β-коефіцієнти дозволяють визначити значення коефіцієнтів у регресії у природному масштабі за формулами:

Стандартизовані окремі коефіцієнти регресії. Стандартизовані приватні коефіцієнти регресії - β-коефіцієнти (β j) показують, яку частину свого середнього квадратичного відхилення S(у) зміниться ознака-результат yзі зміною відповідного фактора х j на величину свого середнього квадратичного відхилення (S хj) за незмінного впливу інших факторів (що входять до рівняння).
По максимальному j можна судити, який фактор сильніше впливає на результат Y.
За коефіцієнтами еластичності та β-коефіцієнтами можуть бути зроблені протилежні висновки. Причини цього: а) варіація одного фактора дуже велика; б) різноспрямований вплив чинників результат.
Коефіцієнт β j може також інтерпретуватися як показник прямого (безпосереднього) впливу j-ого фактора (xj) на результат (y) У множинні регресії j-ий фактор надає як пряме, а й опосередковане (опосередковане) впливом геть результат (тобто. вплив через інші чинники моделі).
Непрямий вплив вимірюється величиною: ∑β i r xj,xi , де m - Число факторів в моделі. Повний вплив j-огофактора на результат рівну суміпрямого та непрямого впливів вимірює коефіцієнт лінійної парної кореляції даного фактора та результату - r xj,y.
Так для нашого прикладу безпосередній вплив фактора x 1 на результат Y у рівнянні регресії вимірюється j і становить 0.0789; непрямий (опосередкований) вплив даного фактора на результат визначається як:
r x1x2 β 2 = 0.508 * 0.944 = 0.4796

4.2 Побудова рівняння регресії у стандартизованому масштабі

Параметри множинної регресії можна визначити іншим способом, коли на основі матриці парних коефіцієнтів кореляції будується рівняння регресії у стандартизованому масштабі:

Застосовуючи МНК до рівняння множинної регресії у стандартизованому масштабі, після відповідних перетворень отримаємо систему нормальних рівнянь виду:

де rух1, rух2 - парні коефіцієнти кореляції.

Парні коефіцієнти кореляції знайдемо за формулами:

Система рівнянь має вигляд:

Вирішивши систему методом визначників, отримали формули:

Рівняння у стандартизованому масштабі має вигляд:

Таким чином, зі зростанням рівня бідності на 1 сигму за незмінного середньодушового доходу населення, загальний коефіцієнт народжуваності зменшиться на 0,075 сигми; а зі збільшенням середньодушового доходу населення на 1 сигму за постійного рівня бідності, загальний коефіцієнт народжуваності зросте на 0,465 сигми.

У множинні регресії коефіцієнти «чистої» регресії bi пов'язані зі стандартизованими коефіцієнтами регресії βi наступним чином:


5. Приватні рівняння регресії

5.1 Побудова приватних рівнянь регресії

Приватні рівняння регресії пов'язують результативну ознаку з відповідними факторами х при закріпленні інших факторів, що враховуються в множинні регресії, на середньому рівні. Приватні рівняння мають вигляд:

На відміну від парної регресії приватні рівняння регресії характеризують ізольований вплив чинника результат, т.к. Інші чинники закріплені незмінному рівні.

У цьому завдання приватні рівняння мають вигляд:

5.2 Визначення приватних коефіцієнтів еластичності

На основі приватних рівнянь регресії можна визначити окремі коефіцієнти еластичності для кожного регіону за формулою:


Розрахуємо окремі коефіцієнти еластичності для Калінінградської та Ленінградської областей.

Для Калінінградської областіх1 = 11,4, х2 = 12,4, тоді:

Для Ленінградської областіх1 = 10,6, х2 = 12,6:

Таким чином, у Калінінградській області зі збільшенням рівня бідності на 1%, загальний коефіцієнт народжуваності скоротиться на 0,07%, а зі збільшенням середньодушових доходів на 1%, загальний коефіцієнт народжуваності зросте на 0,148%. У Ленінградській області зі збільшенням рівня бідності на 1%, загальний коефіцієнт народжуваності скоротиться на 0,065%, а зі збільшенням середньодушових доходів на 1%, загальний коефіцієнт народжуваності зросте на 0,15%.

5.3 Визначення середніх коефіцієнтів еластичності

Середні за сукупністю показники еластичності знаходимо за такою формулою:


Для цього завдання вони виявляться рівними:

Таким чином, зі зростанням рівня бідності на 1%, загальний коефіцієнт народжуваності в середньому за сукупністю скоротиться на 0,054% за незмінного середньодушового доходу. При збільшенні середньодушового доходу на 1%, загальний коефіцієнт народжуваності в середньому за сукупністю, що вивчається, зросте на 0,209% при незмінному рівні бідності.


6. Множинна кореляція

6.1 Коефіцієнт множинної кореляції

Практична значущість рівняння множинної регресії оцінюється з допомогою показника множинної кореляції та її квадрата – коефіцієнта детермінації. Показник множинної кореляції характеризує тісноту зв'язку аналізованого набору чинників з досліджуваним ознакою, тобто. оцінює тісноту зв'язку спільного впливу чинників результат.

Величина індексу множинної кореляції повинна бути більшою або дорівнює максимальному парному індексу кореляції. При лінійної залежностіФормула індексу кореляції ознак може бути представлена ​​наступним виразом:

Таким чином, зв'язок загального коефіцієнтанароджуваності з рівнем бідності та середньодушовим доходом слабка.



І всі коефіцієнти кореляції дорівнюють 1, то визначник такої матриці дорівнює 0: . Чим ближче до 0 визначник матриці міжфакторної кореляції, тим сильніша мультиколлінеарність факторів і ненадійніше результати множинної регресії. І навпаки, чим ближче до 1 визначник матриці міжфакторної кореляції, тим менша мультиколлінеарність факторів. Перевірка мультиколінеарності факторів може бути...

Оцінки невідомих параметрів рівняння регресії визначаються методом найменших квадратів. Однак існує й інший спосіб оцінювання цих коефіцієнтів у разі множини лінійної регресії. Для цього будується рівняння множинної регресії у стандартизованому (нормованому) масштабі. Це означає, що всі змінні, що беруть участь у регресійної моделістандартизуються за допомогою спеціальних формул. Процес стандартизації дозволяє встановити точкою відліку кожної нормованої змінної її середнє значення за вибіркою. При цьому одиницею виміру стандартизованої змінної стає її середньоквадратичне відхилення. Рівняння регресії у стандартизованому масштабі:

де , - Стандартизовані змінні;

Стандартизовані коефіцієнти регресії. Тобто. за допомогою процесу стандартизації точкою відліку для кожної нормованої змінної встановлюється її середнє значення вибіркової сукупності. При цьому як одиниця виміру стандартизованої змінної приймається її середньоквадратичне відхилення σ . β-коефіцієнти показують, на скільки сигм (середніх квадратичних відхилень) зміниться в середньому результат за рахунок зміни відповідного фактора x Iодну сигму при постійному середньому рівні інших чинників. Застосовуючи МНК до рівняння множинної регресії у стандартизованому масштабі, після відповідних перетворень отримаємо систему нормальних рівнянь виду визначення стандартизованих коэфф. регресії Коефіцієнти β визначаються за допомогою МНК з наступної системирівнянь методом визначників:

Слід зазначити, що величини r yx 1 і r xixj називаються парними коеф. кореляції та визначаються за формулами: r yx 1 = yxi середнє – у ср*хiср/ ǪхǪу; r xixj = хixj середні – xi ср*xjср/ǪхiǪxj. Вирішуючи систему визначаємо стандартизовані коефіцієнти. регресії. Порівнюючи їх один з одним можна ранжувати фактори за силою на результат. У цьому основна перевага стандартизованих коеф. регресії на відміну від коеф. чистої регресії, які непорівнянні між собою. Для оцінки параметрів нелінійнихрівнянь множинної регресії попередньо здійснюється перетворення останніх у лінійну форму (за допомогою заміни змінних) та МНК застосовується для знаходження параметрів лінійного рівняннямножинної регресії у перетворених змінних. В разі внутрішньо нелінійних залежностейдля оцінки параметрів доводиться застосовувати методи нелінійної оптимізації. Стандартизовані коефіцієнти регресії βiможна порівняти між собою, що дозволяє ранжувати фактори за силою їхнього впливу на результат. Більший відносний вплив на зміну результативної змінної yнадає той фактор, якому відповідає більше за модулем значення коефіцієнта βi.В цьому основна перевага стандартизованих коефіцієнтіврегресії, На відміну від коефіцієнтів «чистої» регресії, які не можна порівняти між собою.коефіцієнтів «чистої» регресії biз коефіцієнтами βiописується співвідношенням.

Оцінка параметрів рівняння регресії у стандартизованому масштабі

Параметри рівняння множинної регресії в задачах економетрики оцінюють аналогічно парної регресії, методом найменших квадратів (МНК). При застосуванні цього методу будується система нормальних рівнянь, вирішення якої дозволяє отримувати оцінки параметрів регресії.

При визначенні параметрів рівняння множинної регресії на основі матриці парних коефіцієнтів кореляції будуємо рівняння регресії в стандартизованому масштабі:

у рівнянні стандартизовані змінні

Застосовуючи метод МНК до моделей множинної регресії у стандартизованому масштабі, після певних перетворень отримаємо систему нормальних рівнянь виду

Вирішуючи системи методом визначників, знаходимо параметри – стандартизовані коефіцієнти регресії (бета – коефіцієнти). Порівнюючи коефіцієнти один з одним, можна ранжувати фактори за силою їхнього впливу на результат. У цьому полягає основна перевага стандартизованих коефіцієнтів на відміну від звичайних коефіцієнтів регресії, які незрівнянні між собою.

У парній залежності стандартизований коефіцієнт регресії пов'язаний із відповідним коефіцієнтом рівняння залежністю

Це дозволяє від рівняння у стандартизованому масштабі переходити до регресійного рівнянняу натуральному масштабі змінних:

Параметр а визначається наступного рівняння

Стандартизовані коефіцієнти регресії показують, наскільки сигм зміниться в середньому результат, якщо відповідний фактор xj зміниться одну сигму при незмінному середньому рівні інших факторів. У силу того, що всі переміщені задані як центровані та нормовані, стандартизовані коефіцієнти регресії можна порівняти між собою.

Розглянутий зміст стандартизованих коефіцієнтів дозволяє використовувати їх за відсіву чинників, виключаючи з моделі чинники з найменшим значенням.

Комп'ютерні програми побудови рівняння множинної регресії дозволяють отримувати або тільки рівняння регресії для вихідних даних та рівняння регресії у стандартизованому масштабі.

19. Характеристика еластичності за моделлю множинної регресії. СТОР 132-136

http://math.semestr.ru/regress/mregres.php

20. Взаємозв'язок стандартизованих коефіцієнтів регресії та коефіцієнтів еластичності. СТОР 120-124

21. Показники множинної та приватної кореляції. Їхня роль при побудові економетричних моделей

Кореляція -цестатистичний взаємозв'язок двох чи кількох випадкових величин(або величин, які можна з деякою допустимою мірою точності вважати такими). При цьому зміни однієї або декількох з цих величин призводять до систематичної зміни іншої або інших величин. Математичною мірою Кореляції двох випадкових величин є коефіцієнт Кореляції. Концепція кореляціївиникло у середині ХІХ століття роботах англійських статистиків Ф. Гальтона і До. Пірсона.

Коефіцієнт множинної кореляції(R)характеризує тісноту зв'язку між результативним показником та набором факторних показників:

де σ 2 - загальна дисперсія емпіричного ряду, що характеризує загальну варіацію результативного показника (у)за рахунок факторів;

σ ост 2 - залишкова дисперсія в ряду у,відбиває впливу всіх факторів, крім х;

у- Середнє значення результативного показника, обчислене за вихідними спостереженнями;

s- Середнє значення результативного показника, обчислене за рівнянням регресії.

Коефіцієнт множинної кореляції набуває лише позитивних значень у межах від 0 до 1. Чим ближче значеннякоефіцієнта до 1, тим більша тіснота зв'язку. І, навпаки, що ближче до 0, то залежність менше. При значенні R< 0,3 говорят о малой зависимости между величинами. При значении 0,3 < R< 0,6 говорять про середню тісність зв'язку. При R>0,6 говорять про наявність суттєвого зв'язку.

Квадрат коефіцієнта множинної кореляції називається коефіцієнтом детермінації (D): D = R2. p align="justify"> Коефіцієнт детермінації показує, яка частка варіації результативного показника пов'язана з варіацією факторних показників. В основі розрахунку коефіцієнта детермінації та коефіцієнта множинної кореляції лежить правило складання дисперсій, згідно з яким загальна дисперсія (σ 2) дорівнює сумі міжгрупової дисперсії (δ 2) та середньої з групових дисперсій σ i 2):

σ 2 = δ 2 + σ i 2 .

Міжгрупова дисперсія характеризує коливання результативного показника за рахунок фактора, що вивчається, а середня з групових дисперсій відображає коливання результативного показника за рахунок всіх інших факторів, крім того, що вивчається.

Показники приватної кореляції.Засновані на співвідношенні скорочення залишкової варіації за рахунок додатково включеного до моделі фактора до залишкової варіації до включення до моделі відповідного фактора





Розглянуті показники можна використовуватиме порівняння чинників, тобто. Можна ранжувати фактори (тобто другий фактор більш тісно пов'язаний).

Приватні коефіцієнти можуть бути використані у процедурі відсіву факторів при побудові моделі.

Розглянуті вище показники є коеф-ми кореляції першого порядку, тобто вони характеризують зв'язок між двома факторами при закріпленні одного фактора (yx1 . x2). Однак можна побудувати коеф-ти 2го і більше порядку (yx1 . x2x3, yx1 . x2x3x4).

22. Оцінка надійності результатів множинної регресії.

Коефіцієнти структурної моделі можна оцінити різними способамизалежно від виду одноврінних рівнянь.
Методи оцінювання коеф-тів структурної моделі:
1) Непрямий МНК (КМНК)

2) Двокроковий МНК (ДМНК)

3)Трьохкроковий МНК(ТМНК)

4) МНП з повною інформацією

5) МНП при обмеж. інформації

Застосування КМНК:

КМНК застосовується у разі точної ідентифікації структурної моделі.

Процедури застосування КМНК:
1. Структурні. модель перетворення. у привед. форму моделі.

2. До кожного рівняння привед.форма моделі звичайним МНК оцінюються привед. коеф

3. Коефіцієнти наведеної форми моделі трансформуються у параметри структурної моделі.

Якщоси стема сверхидентифицируема, то КМНК не исп, оскільки дає однозначних оцінок параметрів структурної моделі. І тут можуть исп. різні методиоцінювання, серед яких найпоширеніший ДМНК.
Основна ідея ДМНК на основі наведеної моделі отримати для надідентиф. рівняння теор. значення ендогенних змінних, вміст. у правій частині ур-ня. Далі підставивши у знайдені значення замість факт. значень застосовується звичайний МНК та структурн. форма надіден. ур-ня.
1 крок: при опред. форми моделі та знаходження на її основі оцінок теор. значень ендогенною зміною

2 крок: Що стосується структурного сверхидентифицируемому рівняння щодо структурних коефіцієнтів моделі за даними теоритичних значень ендогенних змінних.

23. Дисперсійний аналіз результатів множинної регресії.

Завдання дисперсійного аналізуу перевірці гіпот Н0 про статист незачімості рівня регресії в цілому і показати тісний зв'язок. Виконується на основі порівняння факт і табличних значень F-крит кіт визначаються із соотн факторної та залишкової дисперсій, розрахований на один ступінь свободи

таблиця дисперсійного аналізу
Вару df СКО,S Дисп на одну df,S 2 Fфакт
заг n-1 d y 2 * n - -
факт m d y 2 * n*R 2 yx1x2
Ост n-m-1 d y 2 * n*(1-R 2 yx 1 x 2) =Sобщ-Sфакт -

Також можна побудувати таблицю приватного дисперсійного аналізу, і знайти приватний F критий який оцінює доцільність включення фактора в модель після включення ін змінної

24. Приватний F-критерій Фішера, t-критерій Стьюдента. Їхня роль у побудові регресійних моделей.

F-критерію Фішера.

Для оцінки статистич доцільності додавання нових факторів в регресійну модель ісп-ся приватний критерій Фішера, т.к на рез-ти регресійного аналізу впливає не тільки склад факторів, але і послідовність включення фактора в модель. Це пояснюється наявністю зв'язку між факторами.

F xj =((R 2 yx1x2...xm – R 2 yx1x2…xj-1,хj+1…xm)/(1- R 2 yx1x2...xm))*((n-m-1) /1)

F табл (альфа,1, n-m-1) F xj більше F табл - фактор x j доцільно лючат в модель після др.факторів.

Якщо розглядається рівняння y=a+b1x1+b2+b3x3+e, то визначаються послідовно F-критерій для рівняння з одним фактором х1, далі F-критерій для додаткового включення до моделі фактора х2, тобто для переходу від однофакторного рівняння регресії до двофакторного, і, нарешті, F-критерій додаткового включення в модель чинника х3, тобто. дається оцінка значущості фактора х3 після включення до моделі факторів x1 их2. У цьому випадку F-критерій для додаткового включення фактора х2 після х1 є послідовним на відміну від F-критерію для додаткового включення в модель фактора х3, який є приватним F-критерієм, тому що оцінює значимість фактора припущення, що він включений в модель останнім. З t-критерієм Стьюдента пов'язаний саме приватний F-критерій. Послідовний F-критерій може цікавити дослідника настадії формування моделі. Для рівняння y=a+b1x1+b2+b3x3+e оцінка значущості коефіцієнтів регресії Ь1,Ь2,b3 передбачає розрахунок трьох міжфакторних коефіцієнтів детермінації.

Для оцінки статистичної значимостікоефіцієнтів регресії та кореляціїрозраховуються t -критерій Стьюдента і довірчі інтервали кожного із показників.


Порівнюючи фактичне та критичне (табличне) значення t-статистики та tтабл. - приймаємо чи відкидаємо гіпотезу H0 . Зв'язок між F-критерієм Фішераі t-статистикою Стьюдентавиражається рівністю

Якщо t табл.< tфакт ., то H0 відхиляється, тобто. a, bі r хуне випадково відрізняються від нуля та сформувалися під впливом систематично діючого фактора х.

Якщо, t табл. > tфакт.то гіпотеза H0 не відхиляється та визнається випадкова природа формування a, bабо r ху.

25. Оцінка якості регресійних моделей. Стандартна помилка лінії регресії.

Оцінка якості лінійної регресії: коефіцієнт детермінації R 2

Через лінійне співвідношення і ми очікуємо, що змінюється, у міру того, як змінюється, і називаємо це варіацією, яка обумовлена ​​або пояснюється регресією. Залишкова варіація має бути якнайменше.

Якщо це, то більшість варіації пояснюватиметься регресією, а точки лежатимуть близько до лінії регресії, тобто. лінія добре відповідає даним.

Частку загальної дисперсії , яка пояснюється регресією називають коефіцієнтом детермінаціїзазвичай виражають через відсоткове співвідношення і позначають R 2(У парній лінійній регресії це величина r 2, квадрат коефіцієнта кореляції), дозволяє суб'єктивно оцінити якість рівняння регресії.

Різниця є відсотком дисперсії який не можна пояснити регресією.

Немає формального тесту для оцінки ми змушені покластися на суб'єктивне судження, щоб визначити якість припасування лінії регресії.

Застосування лінії регресії для прогнозу

Застосування лінії регресії для прогнозу

Можна застосовувати регресійну лінію для прогнозування значення за межею спостерігається діапазону (ніколи не екстраполюйте поза цими межами).

Ми передбачаємо середню величину для спостережуваних, які мають певне значення шляхом встановлення цього значення в рівняння лінії регресії.

Отже, якщо прогнозуємо як Використовуємо цю передбачену величину та її стандартну помилку, щоб оцінити довірчий інтервалдля справжньої середньої величини у популяції.

Повторення цієї процедури для різних величин дозволяє побудувати довірчі межі цієї лінії. Це смуга або область, яка містить справжню лінію, наприклад, з 95% вірогідністю.

26. Взаємозв'язок приватного F-критерію, t-критерію Стьюдента та приватного коефіцієнта кореляції.

Зважаючи на кореляцію між факторами значимість одного й того самого фактора між різною залежно від послідовності його введення в модель. Мірою оцінки включення чинника в модель служить частий F-критерій, тобто. F x i. У загальному виглядідля фактора x iЧастий F-критерій визначається як:

Якщо розглядається рівняння y=a+b 1 x 1 +b 2 +b 3 x 3 +e, то визначаються послідовно F-критерій для рівняння з одним фактором х 1 далі F-критерій для додаткового включення в модель фактора х 2 тобто для переходу від однофакторного рівняння регресії до двофакторного, і, нарешті, F-критерій для додаткового включення до моделі фактора х 3 , тобто дається оцінка значущості фактора х 3 після включення до моделі факторів x 1 їх 2 . У цьому випадку F-критерій для додаткового включення фактора х 2 після х 1 є послідовнимна відміну від F-критерію для додаткового включення в модель фактора х 3 який є приватним F-критерієм, бо оцінює значущість чинника у припущенні, що він включений до моделі останнім. Із t-критерієм Стьюдента пов'язаний саме приватний F-критерій. Послідовний F-критерій може цікавити дослідника на стадії формування моделі. Для рівняння y=a+b 1 x 1 +b 2 +b 3 x 3 +eоцінка значущості коефіцієнтів регресії Ь 1 ,Ь 2,b 3передбачає розрахунок трьох міжфакторних коефіцієнтів детермінації, а саме: , , і можна переконатися, що існує зв'язок між собою t-критерію Стьюдента для оцінки значущості b i і приватним F-критерієм:

На основі співвідношення b i і отримаємо:

27. Варіанти побудови регресійної моделі. Їхня коротка характеристика.

28. Інтерпретація параметрів лінійної та нелінійної регресії.

b a
парна лінійна Коефіцієнт регресії b показує середнє зміна результативного показника (в одиницях виміру у) із підвищенням чи зниженням величини чинника x одиницю його виміру. Зв'язок між у них визначає знак коефіцієнта регресії b (якщо > 0 - прямий зв'язок, інакше - зворотний не інтерпретується, тільки знак >0 – рез-т змінюється повільніше за фактор,<0 рез-т изм быстрее фактора
нелінійна в статечної - коефіцієнт еластичність, тобто. на ск % ізм рез-т в середньому при зміні фактора на 1% зворотна ф-я - так само як і в лінійній, не інтерпретується
множ лінійна У лінійній множинні регресії коефіцієнти при хi характеризують середню зміну результату зі зміною відповідного фактора на одиницю при незмінних значеннях інших факторів, закріплених на середньому рівні не інтерпретується

29. Матриця парних та приватних коефіцієнтів кореляції при побудові регресійних моделей.

30. Причини способу менших квадратів.

Передумови способу менших квадратів (умови Гаусса-Маркова)

1. Математичне очікування випадкового відхилення дорівнює нулю всім спостережень.Ця умова означає, що випадкове відхилення в середньому не впливає на залежну змінну. У кожному конкретному спостереженні випадковий член може бути або позитивним, або негативним, але не повинен мати систематичного усунення.

2. Дисперсія випадкових відхилень постійна для будь-яких спостережень. Ця умова передбачає, що незважаючи на те, що при кожному конкретному спостереженні випадкове відхилення може бути або більшим, або меншим, не повинно бути апріорної причини, що викликає велику помилку (відхилення).

Виконаність цієї причини називається гомоскедастичностью (постійністю дисперсії відхилень). Нездійсненність цієї причини називається гетероскедастичностью (незмінністю дисперсії відхилень).

3. Випадкові відхилення ui та uj є незалежними один від одного для i¹j.Здійснюваність цієї передумови передбачає, що відсутня систематична зв'язок між будь-якими випадковими відхиленнями. Іншими словами, величина та певний знак будь-якого випадкового відхилення не повинні бути причинами величини та знака будь-якого іншого відхилення. Виконаність цієї причини тягне наступне співвідношення:

Тому якщо дана умова виконується, то говорять про відсутність автокореляції.

4. Випадкове відхилення має бути незалежно від пояснюючих змінних.

Зазвичай це умова виконується автоматично, якщо пояснюючі змінні є випадковими у цій моделі. Ця умова передбачає здійсненність наступного співвідношення:

5. Модель є лінійною щодо параметрів.

Теорема Гауса-Маркова.Якщо передумови 1-5 виконані, то оцінки, отримані за МНК, мають такі властивості:

  1. Оцінки є незміщеними, тобто М(b 0) = b 0 , М(b 1) = b 1 де b 0 , b 1) - коефіцієнти емпіричного рівняння регресії, а b 0, b 1 - їх теоретичні прототипи. Це випливає з першої передумови та говорить про відсутність систематичної помилки у визначенні положення лінії регресії.
  2. Оцінки заможні, оскільки дисперсія оцінок параметрів у разі зростання числа n спостережень прагне нулю. Іншими словами, зі збільшенням обсягу вибірки надійність оцінок збільшується (коефіцієнти теоретичного та емпіричного рівнянь регресії практично збігаються).
  3. Оцінки ефективні, тобто мають найменшу дисперсію проти будь-якими оцінками даних параметрів, лінійними щодо величин y i .

Якщо причини 2 і 3 порушені, тобто дисперсія відхилень непостійна та (або) значення випадкових відхилень пов'язані один з одним, то властивості незміщеності та спроможності зберігаються, але властивість ефективності – немає.

Поряд із здійсненністю зазначених передумов при побудові класичних лінійних регресійних моделей робляться ще деякі припущення. Наприклад:

  • пояснюючі змінні є СВ;
  • випадкові відхилення мають нормальний розподіл;
  • число спостережень значно більше від кількості пояснюючих змінних.

ІНШИЙ ВАРІАНТ КВИТКА 30.

Метод найменших квадратів - один із методів регресійного аналізу для оцінки невідомих величин за результатами вимірювань, що містять випадкові помилки.

МНК застосовується також для наближеного представлення заданої функції іншими (простішими) функціями і часто виявляється корисним при обробці спостережень.

Коли шукана величина може бути виміряна безпосередньо, як, наприклад, довжина відрізка або кут, то для збільшення точності вимірювання проводиться багато разів, і за остаточний результат беруть арифметичне середнє з усіх окремих вимірювань. Це правило арифметичної середини ґрунтується на міркуваннях теорії ймовірностей; легко показати, що сума квадратів ухилень окремих вимірів від арифметичної середини буде меншою, ніж сума квадратів ухилень окремих вимірів від будь-якої іншої величини. Саме правило арифметичної середини представляє, отже, найпростіший випадок методу найменших квадратів.

МНК дозволяє отримати такі оцінки параметрів, при кіт. сума квадратів відхил-й фактич. значень результат. ознаки від теоретич. мінімальна.

Модель д.б. лінійної за параметрами

Х - випадкова змінна

Значення помилки - випадкові, їх зміни не утворюють опред.моделі (моделі залишків)

Число налюденийд.б. більше чисоаоценів.парметрів (в 5-6р)

Значення змінної x д.б. однаковими

Сукупність має бути однорідною

Відсутність взаємозв'язку між ф-ром х і залишком

Модель регресії д.б. коректно специфікована

У моделі не д.б. тісного взаємозв'язку між фак-ми (ля множ.регресії)

Основні передумови МНК:

 випадковий характер залишків

 нульова середня залишків, яка не залежить від фактора x

 гомоскедастичність (дисперсія кожного відхилення однакова для всіх значень x)

 відсутність автокореляції залишків

 залишки повинні підкорятися нормальному розподілу

 Якщо регресійна модель у = a + bх + E задовольняє умовою Гаусса-Маркова, то оцінки а та b, отримані на основі МНК, мають найкращу дисперсію в класі всіх лінійних, незміщених оцінок.

31. Дослідження залишків рівняння множинної регресії.

Дослідження залишків передбачають перевірку наявності наступних п'яти передумов МНК:

1) випадковий характер залишків;

2) нульова середня величина залишків, що не залежить від ;

3) гомоскедастичність - дисперсія кожного відхилення, однакова для всіх значень;

4) відсутність автокореляції залишків – значення залишків розподілені незалежно друг від друга;

5) залишки підпорядковуються нормальному розподілу.

Якщо розподіл випадкових залишків відповідає деяким передумов МНК, слід коригувати модель.

Насамперед, перевіряється випадковий характер залишків – перша передумова МНК. З цією метою стоїть графік залежності залишків від теоретичних значень результативної ознаки (рис. 2.1). Якщо графіку отримана горизонтальна смуга, то залишки є випадкові величини і МНК виправданий, теоретичні значення добре апроксимують фактичні значення .

32. Гетероскедастичність та її облік при побудові моделі множинної регресії. Якісна оцінка гретероскедастічності.

Гетероскедастичність проявляється, якщо сукупність вихідних даних включає якісно різнорідніобласті. Гетероскедастичність означає нерівну дисперсіюзалишків для різних значень x. Якщо має місце гетероскедастичність, то:

  • Оцінки МНК будуть неефективними.
  • Можуть бути зміщеніоцінки коеф регресії і вони будуть неефективними.
  • Складно ісп формулу станд помилок, тому що вона припускає єдину дисперсію залишків.

Заходи щодо усунення гетероскедастичності

p Збільшення числа спостережень

p Зміна функціональної форми моделі

p Поділ вихідної сукупності на якісно-однорідні групи та проведення аналізу в кожній групі

p Використання фіктивних змінних, що враховують неоднорідність

p Виняток із сукупності одиниць, що дають неоднорідність

Тести, що використовуються для виявлення гетероскедастичності

p Гольдфельда-Квандта

p Глейзера

p Рангової кореляції Спірмена

33. Автокореляція залишків та її роль при побудові регресійної моделі.

Залежність між послідовними рівнями брешемо. ряду називають автокореляцієюрівня низки. В економетріч. В дослідженнях часто виникають і такі ситуації, коли дисперсія залишків стала, але спостерігається їх коваріація. Це явище називають автокореляцією залишків.

Один із найпоширеніших методів визначення автокореляції у залишках – критерій Дарбіна-Уотсона:

d = ;

d – відношення суми квадратів різниць послідовних значень до залишкової суми квадратів за моделлю регресії.

Сущ-є слід. співвідношення між критерієм Д-У «d» та коеф-ом автокореляції залишків 1ого порядку r 1:

d = 2 * (1-r 1).

Якщо в залишках існує повна покладе. автокореляція та r 1 = 1, то d = 0.

Якщо в залишках повна запереч. автокореляція, то r 1 = -1 та d = 4.

Якщо автокореляція відсутня, то r 1 = 0 та d = 2.

Тобто. 0≤d≤4.

Розглянемо алгоритм виявлення автокореляції залишків з урахуванням критерію Д-У.

Висувається гіпотеза H 0 про відсутність автокореляції залишків . Альтернативні гіпотези H 1 і H 1 * припускають наявність позитивної чи негативної автокореляції у залишках. Потім за спец. таблицям визначаються критичні значення критерію Дарбіна - Вотсона d L і d u для заданого числа спостережень n числа незалежних змінних моделі k при рівні значимості ɑ (зазвичай 0,95). За цими значеннями проміжок розбивають п'ять відрізків. Ухвалення або відхилення кожної з гіпотез з ймовірністю (1-ɑ) представлено на наступному: малюнку:

+ є ? НІ ? - є
d L d u 4- d u 4-d L

Якщо фактич. значення критерію Дарбіна - Вотсона потрапляє у зону невизначеності, на практиці припускають існування автокореляції залишків і гіпотезу Н 0 відхиляють.

34. Вибір найкращого варіанта моделі регресії.



35. Нелінійні моделі множинної регресії, їхня загальна характеристика.

Якщо між економічними явищами існують нелінійні співвідношення, вони виражаються з допомогою відповідних нелінійних функцій: наприклад, рівносторонньої гіперболи , параболи другого ступеня та д.р.

Розрізняють два класи нелінійних регресій:

регресії, нелінійні щодо включених в аналіз пояснюючих змінних, але лінійні за параметрами, що оцінюються;

Регресії, нелінійні за параметрами, що оцінюються.
Прикладом нелінійної регресії по пояснювальним змінним, що включаються до неї, можуть служити такі функції:

  • поліноми різних ступенів
  • рівностороння гіпербола

До нелінійних регресій за параметрами, що оцінюються, відносяться функції:

  • статечна
  • показова
  • експоненційна я

36. Моделі гіперболічного типу. Криві Енгеля, крива Філіпса та інші приклади використання моделей даного типу.

Криві Енгеля (Engel curve) ілюструють залежність між обсягом споживання благ ( C) та доходом споживача ( I) при постійних цінах та перевагах. Названо на честь німецького статистика Ернста Енгеля, який займався аналізом впливу зміни доходу на структуру споживчих витрат.

На осі абсцис відкладається рівень доходу споживача, але в осі ординат - Витрати споживання цього блага.

На графіку показаний зразковий вид кривих Енгеля:

  • E 1 – крива для нормальних товарів;
  • E 2 – крива для предметів розкоші;
  • E 3 – крива для низькоякісних товарів.

Крива Філіпса відображає взаємозв'язок між темпами інфляції та безробіття.

Кейнсіанська модель економіки показує, що у економіці може виникнути або безробіття (викликана спадом виробництва, отже зменшенням попиту робочої сили), або інфляція (якщо економіка функціонує може повної зайнятості).

Одночасно висока інфляція та високе безробіття існувати не можуть.

Крива Філіпса була збудована А.У. Філіпсом на основі даних заробітної плати та безробіття у Великій Британії за 1861-1957 роки.

Наслідуючи криву Філіпса держава може вибудувати свою економічну політику. Держава за допомогою стимулювання сукупного попиту може збільшити інфляцію та знизити безробіття та навпаки.

Крива Філіпса була цілком вірна до середини 70-х років. У цей період трапилася стагнація (одночасне зростання інфляції та безробіття), яку крива філіпса не змогла пояснити.

Застосування Кривий Філіпса


©2015-2019 сайт
Усі права належати їх авторам. Цей сайт не претендує на авторства, а надає безкоштовне використання.
Дата створення сторінки: 2016-02-16

Г. Цей показник є стандартизованим коефіцієнтом регресії, тобто коефіцієнтом, вираженим не в абсолютних одиницях вимірювання ознак, а в частках середнього квадратичного відхилення результативної ознаки  

Коефіцієнти умовно-чистої регресії bf є іменованими числами, вираженими в різних одиницях виміру, і тому незрівнянні один з одним. Для перетворення в порівняні відносні показники застосовується те саме перетворення, що й отримання коефіцієнта парної кореляції. Отриману величину називають стандартизованим коефіцієнтом регресії або-коефіцієнтом.  

Насправді часто буває необхідно порівняння впливу залежну змінну різних пояснюючих змінних, коли останні виражаються різними одиницями виміру . У цьому випадку використовують стандартизовані коефіцієнти регресії b j та коефіцієнти еластичності Ej Q = 1,2,..., р)  

Стандартизований коефіцієнт регресії b j показує, наскільки величин sy зміниться в середньому залежна змінна Y при збільшенні тільки j-ї змінної, що пояснює, на sx, a  

Рішення. Для порівняння впливу кожної з змінних, що пояснюють, за формулою (4.10) обчислимо стандартизовані коефіцієнти регресії  

Визначте стандартизовані коефіцієнти регресії.  

У парній залежності стандартизований коефіцієнт регресії є не що інше, як лінійний коефіцієнт кореляції. а саме  

Розглянутий зміст стандартизованих коефіцієнтів регресії дозволяє їх використовувати при відсіванні факторів – з моделі виключаються фактори з найменшим значенням jQy.  

Як було показано вище, ранжування факторів, що беруть участь у множинні лінійної регресії, може бути проведено через стандартизовані коефіцієнти регресії (/-коефіцієнти). Цю ж мету можна досягти з допомогою приватних коефіцієнтів кореляції - для лінійних зв'язків. При нелінійному взаємозв'язку досліджуваних ознак цю функцію виконують окремі індекси детермінації. Крім того, приватні показники кореляції широко використовуються при вирішенні проблеми відбору факторів, доцільність включення того чи іншого фактора в модель доводиться величиною показника приватної кореляції.  

Іншими словами, у двофакторному аналізі приватні коефіцієнти кореляції - це стандартизовані коефіцієнти регресії, помножені на корінь квадратний цз співвідношення часток залишкових дисперсій фактора, що фіксується на фактор і на результат.  

У процесі розробки нормативів чисельності збираються вихідні дані про облікову чисельність управлінського персоналу та значення факторів по відібраним базовим підприємствам. Далі відбираються суттєві чинники кожної функції з урахуванням кореляційного аналізу, з значення коефіцієнтів кореляції. Вибираються фактори з найбільшим значенням парного коефіцієнта кореляції з функцією та стандартизованого коефіцієнта регресії.  

Стандартизовані коефіцієнти регресії (р) розраховуються для кожної функції за сукупністю всіх аргументів згідно з формулою  

Тим не менш, у статистиці даються корисні рекомендації, що дозволяють отримати хоча б оціночні уявлення щодо цього. Як приклад познайомимося з одним із таких методів – порівняння стандартизованих коефіцієнтів регресії.  

Стандартизований коефіцієнт регресії обчислюється шляхом множення коефіцієнта регресії bi на стандартне відхилення Sn (для наших змінних позначимо його як Sxk) і поділу отриманого твору на Sy. Це означає, що кожен стандартизований коефіцієнт регресії вимірюється як величина b Sxk /. Стосовно нашого прикладу отримаємо такі результати (табл.10).  

Стандартизовані коефіцієнти регресії  

Таким чином, наведене порівняння абсолютних величин стандартизованих коефіцієнтів регресії дозволяє отримати нехай і досить грубе, але досить наочне уявлення про важливість факторів, що розглядаються. Ще раз нагадаємо, що ці результати не є ідеальними, оскільки не повною мірою відображають реальний вплив досліджуваних змінних (ми залишаємо поза увагою факт можливої ​​взаємодії цих факторів, що може спотворити початкову картину).  

Коефіцієнти цього рівняння (blf 62, b3) визначаються рішенням стандартизованого рівняння регресії  

Оператор 5. Обчислення -коефіцієнтів - коефіцієнтів регресії у стандартизованому масштабі.  

Неважко бачити, що шляхом заміни на 2 та подальших простих перетворень можна дійти до системи нормальних рівнянь у стандартизованому масштабі. Подібне перетворення ми будемо застосовувати надалі, оскільки нормування, з одного боку, дозволяє нам уникнути занадто великих чисел і, з іншого боку, сама обчислювальна схема щодо коефіцієнтів регресії стає стандартною.  

Вигляд графа безпосередніх зв'язків свідчить, що з побудові рівняння регресії лише з двом чинникам - кількості тралянь і часу чистого траления- залишкова дисперсія ст.з4 не відрізнялася від залишкової дисперсії а.23456. отриманої з рівняння регресії, побудованого за всіма факторами. Щоб оцінити різницю, ми звернемося у разі до вибіркової оцінці . 1.23456 = 0,907, а 1.34 = 0,877. Але якщо скоригувати коефіцієнти за формулою (38), то 1.23456 = 0,867, a / i.34 = = 0,864. Відмінність навряд можна вважати істотним. Понад те, г14 = 0,870. Це наводить на думку, що кількість тралінь майже не безпосередньо впливає на розмір улову. Справді, у стандартизованому масштабі 1.34 = 0,891 4 - 0,032 3- Неважко переконатися, що коефіцієнт регресії при t3 недостовірний навіть за дуже низькому довірчому інтервалі.  

Рх/. - Відповідний коефіцієнт



Нове на сайті

>

Найпопулярніше