Dom dziąsła Standaryzowane współczynniki regresji. Wielka encyklopedia ropy i gazu

Standaryzowane współczynniki regresji. Wielka encyklopedia ropy i gazu

W udziałach odchylenia standardowego współczynnika i charakterystyk wynikowych;

6. Jeżeli parametr a w równaniu regresji jest większy od zera, to:

7. Zależność podaży od cen charakteryzuje się równaniem postaci y = 136 x 1,4. Co to oznacza?

Przy wzroście cen o 1% podaż wzrasta średnio o 1,4%;

8. B funkcja mocy parametr b wynosi:

współczynnik elastyczności;

9. Resztkowe odchylenie standardowe określa się ze wzoru:

10. Równanie regresji zbudowane z 15 obserwacji ma postać: y = 4 + 3x +?6 t - wartość kryterium wynosi 3,0. Współczynnik determinacji dla tego równania wynosi:

Wykorzystują je na etapie tworzenia modelu, w szczególności w procedurze przesiewu czynnikowego

Częściowe współczynniki korelacji.

12. Nazywa się „zmienne strukturalne”.:

Sztuczne zmienne.

13. Biorąc pod uwagę macierz współczynników korelacji par:

U xl x2 x3

U 1,0 - - -

XL 0,7 1,0 - -

X2 -0,5 0,4 1,0 -

X3 0,4 0,8 -0,1 1,0

Jakie czynniki są współliniowe?

14. Funkcja autokorelacji szeregu czasowego to:

sekwencja współczynników autokorelacji poziomów szeregów czasowych;

15. Prognozowana wartość poziomu szeregów czasowych w modelu addytywnym wynosi:

Suma trendów i składników sezonowych.

16. Jedną z metod testowania hipotezy kointegracji szeregów czasowych jest:

kryterium Engela-Grangera;

17. Kointegracja szeregów czasowych to:

Związek przyczynowo-skutkowy na poziomie dwóch (lub więcej) szeregów czasowych;

18. Współczynniki zmiennych egzogenicznych w układzie równań oznacza się:



19. Równanie jest nadidentyfikowalne, jeśli:

20. Model uznaje się za niemożliwy do zidentyfikowania, jeśli:

Nie można zidentyfikować co najmniej jednego równania modelu;

OPCJA 13

1. Pierwszym etapem badań ekonometrycznych jest:

Opis problemu.

Pod jaką zależnością różne znaczenia czy jedna zmienna odpowiada różnym rozkładom wartości innej zmiennej?

Statystyczny;

3. Jeżeli współczynnik regresji jest większy od zera, to:

Współczynnik korelacji jest większy od zera.

4. Klasyczne podejście do szacowania współczynników regresji opiera się na:

Metoda najmniejszych kwadratów;

Charakteryzuje się testem F Fishera

Stosunek wariancji czynnikowych i resztowych obliczony na stopień swobody.

6. Standaryzowany współczynnik regresji wynosi:

Współczynnik korelacji wielokrotnej;

7. Aby ocenić znaczenie współczynników, nie rób tego regresja liniowa obliczać:

F - test Fishera;

8. Parametry wyznacza się metodą najmniejszych kwadratów:

Regresja liniowa;

9. Błąd losowy współczynnika korelacji wyznacza się ze wzoru:

M= √(1-r 2)/(n-2)

10. Dane: Dfact = 120;Doct = 51. Jaka będzie rzeczywista wartość testu F Fishera?

11. Częściowy test F Fishera ocenia:

Znaczenie statystyczne obecność odpowiedniego czynnika w równaniu regresja wielokrotna;

12. Oznacza to, że jest to bezstronne oszacowanie:

Oczekiwanie reszta wynosi zero.

13. Przy obliczaniu modelu regresji wielokrotnej i korelacji w programie Excel w celu wyświetlenia macierzy sparowanych współczynników korelacji stosuje się:

Korelacja narzędzia analizy danych;

14. Suma wartości składnika sezonowego dla wszystkich kwartałów w modelu addytywnym powinna być równa:

15. Prognozowana wartość poziomu szeregów czasowych w modelu multiplikatywnym wynosi:

Produkt oparty na trendach i składnikach sezonowych;

16. Fałszywa korelacja spowodowana jest obecnością:

Trendy.

17. Aby wyznaczyć autokorelację reszt, należy skorzystać z:

Kryterium Durbina-Watsona;

18. Oznacza się współczynniki zmiennych endogenicznych w układzie równań:

19. Warunkiem jest posiadanie rangi macierzy złożonej ze współczynników zmiennych. brakujące w badanym równaniu są nie mniejsze niż liczba endogennych zmienne systemowe na jednostkę wynosi:

Warunek dodatkowy identyfikowanie równania w układzie równań

20. Pośrednią metodę najmniejszych kwadratów stosuje się do rozwiązywania:

Identyfikowalny układ równań.

OPCJA 14

1. Wyrażenia matematyczne i statystyczne, które ilościowo charakteryzują zjawiska i procesy gospodarcze i mają dość wysoki stopień niezawodności, nazywane są:

Modele ekonometryczne.

2. Celem analizy regresji jest:

Określanie bliskości związku między cechami;

3. Współczynnik regresji pokazuje:

Średnia zmiana wyniku przy zmianie współczynnika o jedną jednostkę jego miary.

4. Przeciętny błąd przybliżenia to:

Średnie odchylenie obliczonych wartości wynikowej charakterystyki od rzeczywistych;

5. Nieprawidłowy wybór funkcji matematycznej oznacza błędy:

Specyfikacje modelu;

6. Jeżeli parametr a w równaniu regresji jest większy od zera, to:

Zmienność wyniku jest mniejsza niż zmienność współczynnika;

7. Która funkcja jest linearyzowana przez zmianę zmiennych: x=x1, x2=x2

Wielomian drugiego stopnia;

8. Zależność popytu od cen charakteryzuje się równaniem postaci y = 98 x - 2,1. Co to oznacza?

Przy wzroście cen o 1% popyt spada średnio o 2,1%;

9. Średni błąd prognozy wyznacza się ze wzoru:

- σost=√(∑(у-ỹ) 2 / (n-m-1))

10. Niech będzie równanie regresji sparowanej: y = 13+6*x, zbudowane z 20 obserwacji, gdzie r = 0,7. Określ błąd standardowy współczynnika korelacji:

11. Standaryzowane współczynniki regresji pokazują:

O ile sigm zmieni się średni wynik, jeśli odpowiedni współczynnik zmieni się o jedną sigma, podczas gdy średni poziom pozostałych czynników pozostanie niezmieniony;

12. Jedną z pięciu przesłanek metody najmniejszych kwadratów jest:

Homoscedastyczność;

13. Do obliczeń współczynnik wielokrotny Stosowane są korelacje Excela:

Narzędzie do analizy danych Regresja.

14. Suma wartości składnika sezonowego dla wszystkich okresów w modelu multiplikatywnym w cyklu powinna być równa:

Cztery.

15. Podczas analitycznego wyrównywania szeregów czasowych zmienną niezależną jest:

16. Autokorelacja reszt jest naruszeniem założenia OLS o:

Losowość reszt otrzymanych z równania regresji;

Współczynników równania regresji, podobnie jak wszelkich wskaźników bezwzględnych, nie można stosować w analizie porównawczej, jeśli jednostki miary odpowiednich zmiennych są różne. Na przykład, jeśli y – wydatki rodzinne na wyżywienie, X 1 – wielkość rodziny oraz X 2 jest całkowitym dochodem rodziny i definiujemy relację jak = + B 1 X 1 + B 2 X 2 i b 2 > b 1 , to to nie oznacza X 2 ma silniejszy wpływ na y , Jak X 1 , ponieważ B 2 to zmiana wydatków rodzinnych, gdy dochód zmienia się o 1 rubel, oraz B 1 – zmiana wydatków w przypadku zmiany liczebności rodziny o 1 osobę.

Porównywalność współczynników równania regresji osiąga się poprzez uwzględnienie standaryzowanego równania regresji:

y 0 =  1 x 1 0 +  2 x 2 0 + … +  m x m 0 + e,

gdzie y 0 i X 0 k standaryzowane wartości zmiennych y I X k :

S y i S – odchylenia standardowe zmiennych y I X k ,

 k (k=) -współczynniki równania regresji (ale nie parametry równania regresji, w przeciwieństwie do poprzednich zapisów). Współczynniki  pokazują, jaka jest jego część odchylenie standardowe(S y) zmienna zależna ulegnie zmianie y , jeśli zmienna niezależna X k zmieni się o wartość odchylenia standardowego (S). Oszacowania parametrów równania regresji w wartościach bezwzględnych (b k) i współczynnikach β powiązane są zależnością:

Współczynniki  równania regresji w skali standardowej zapewniają realistyczną reprezentację wpływu zmiennych niezależnych na modelowany wskaźnik. Jeżeli wartość współczynnika  dla którejkolwiek zmiennej przekracza wartość odpowiedniego współczynnika  dla innej zmiennej, to wpływ pierwszej zmiennej na zmianę wskaźnika efektywności należy uznać za bardziej znaczący. Należy mieć na uwadze, że standaryzowane równanie regresji ze względu na centrowanie zmiennych nie posiada w konstrukcji członu swobodnego.

W przypadku prostej regresji współczynnik  pokrywa się ze współczynnikiem korelacji par, co umożliwia nadanie współczynnikowi korelacji par znaczącego znaczenia.

Analizując wpływ wskaźników zawartych w równaniu regresji na modelowaną charakterystykę, obok współczynników , wykorzystuje się także współczynniki elastyczności. Na przykład średni wskaźnik elastyczności oblicza się ze wzoru

i pokazuje, o jaki procent średnio zmieni się zmienna zależna, jeśli średnia wartość odpowiedniej zmiennej niezależnej zmieni się o jeden procent (przy pozostałych czynnikach niezmienionych).

2.2.9. Zmienne dyskretne w analizie regresji

Zazwyczaj zmienne w modelach regresji mają ciągłe zakresy zmienności. Teoria ta nie nakłada jednak żadnych ograniczeń na charakter takich zmiennych. Dość często w analizie regresji istnieje potrzeba uwzględnienia wpływu cech jakościowych i ich zależności od różnych czynników. W takim przypadku konieczne staje się wprowadzenie do modelu regresji zmiennych dyskretnych. Zmienne dyskretne mogą być niezależne lub zależne. Rozważmy te przypadki osobno. Rozważmy najpierw przypadek dyskretnych zmiennych niezależnych.

Zmienne fikcyjne w analizie regresji

Aby uwzględnić w regresji cechy jakościowe jako zmienne niezależne, należy je zdigitalizować. Jedną z metod ich ilościowego określenia jest użycie zmiennych fikcyjnych. Nazwa nie jest do końca trafna - nie są one fikcyjne, ale do tych celów wygodniej jest używać zmiennych, które przyjmują tylko dwie wartości - zero lub jeden. Dlatego nazwano je fikcyjnymi. Zazwyczaj zmienna jakościowa może przyjmować kilka poziomów wartości. Na przykład płeć – mężczyzna, kobieta; kwalifikacja – wysoka, średnia, niska; sezonowość - I, II, III, IV kwartał itp. Istnieje zasada, że ​​aby zdigitalizować takie zmienne, należy podać liczbę zmiennych fikcyjnych, o jeden mniejszą niż liczba poziomów modelowanego wskaźnika. Jest to konieczne, aby takie zmienne nie okazały się liniowo zależne.

W naszych przykładach: płeć to jedna zmienna, równa 1 dla mężczyzn i 0 dla kobiet. Kwalifikacja ma trzy poziomy, co oznacza, że ​​potrzebne są dwie zmienne fikcyjne: na przykład z 1 = 1 dla wysoki poziom, 0 – dla innych; z 2 = 1 dla poziomu średniego, 0 dla pozostałych. Trzeciej podobnej zmiennej nie można wprowadzić, bo w tym przypadku okazałyby się one liniowo zależne (z 1 + z 2 + z 3 = 1), wyznacznik macierzy (X T X) zwróciłby się do zera i nie byłoby możliwe jest znalezienie macierzy odwrotnej (X T X) -1 byłoby to możliwe. Jak wiadomo, oszacowania parametrów równania regresji wyznacza się z zależności: T X) -1 X T Y).

Współczynniki zmiennych fikcyjnych pokazują, jak bardzo różni się wartość zmiennej zależnej na analizowanym poziomie w porównaniu z poziomem brakującym. Przykładowo, gdyby poziom wynagrodzenia był modelowany w zależności od kilku cech i poziomu umiejętności, wówczas współczynnik przy z 1 pokazałby, jak różni się wynagrodzenie specjalistów o wysokim poziomie kwalifikacji od wynagrodzenia specjalisty o wysokich kwalifikacjach. niski poziom kwalifikacji, przy pozostałych czynnikach niezmienionych, a współczynnik z 2 ma podobne znaczenie dla specjalistów o średnim poziomie kwalifikacji. W przypadku sezonowości należałoby wprowadzić trzy zmienne fikcyjne (jeśli uwzględnić dane kwartalne), a znajdujące się na nich współczynniki pokazywałyby, jak różni się wartość zmiennej zależnej dla odpowiedniego kwartału od poziomu zmiennej zależnej dla kwartału które nie zostały wprowadzone podczas ich digitalizacji.

Wprowadza się także zmienne fikcyjne w celu modelowania zmian strukturalnych w dynamice badanych wskaźników podczas analizy szeregów czasowych.

Przykład 4. Standaryzowane równanie regresji i zmienne fikcyjne

Rozważmy przykład wykorzystania standaryzowanych współczynników i zmiennych fikcyjnych na przykładzie analizy rynku mieszkań dwupokojowych w oparciu o równanie regresji wielokrotnej z następującym zestawem zmiennych:

CENA – cena;

TOTSP – powierzchnia całkowita;

LIVSP – przestrzeń życiowa;

KITSP – część kuchenna;

DIST – odległość do centrum miasta;

SPACER – równy 1, jeśli do stacji metra możesz dojść piechotą i równy 0, jeśli musisz skorzystać z komunikacji miejskiej;

CEGŁA – równa 1, jeśli dom jest murowany i równa 0, jeśli dom jest panelowy;

PIĘTRO – równa 1, jeśli mieszkanie nie znajduje się na pierwszym lub ostatnim piętrze i równa 0 w przeciwnym przypadku;

TEL – równa 1, jeśli w mieszkaniu znajduje się telefon i równa 1, jeśli w mieszkaniu nie ma;

BAL jest równy 1, jeśli jest balkon i równy 0, jeśli nie ma balkonu.

Obliczenia przeprowadzono za pomocą programu STATISTICA (rysunek 2.23). Obecność współczynników  pozwala uporządkować zmienne według stopnia ich wpływu na zmienną zależną. Przeprowadźmy krótką analizę wyników obliczeń.

Na podstawie statystyk Fishera wnioskujemy o istotności równania regresji (poziom p< 0,05). Обработана информация о 6 286 квартирах (n–m–1 = 6 276, а m = 9). Все коэффициенты уравнения регрессии (кроме при переменной BAL) значимы (р-величины для них < 0,05), а наличие или отсутствие балкона в этом случае существенно не сказывается на цене квартиры.

Rysunek 2.24 – Raport dotyczący rynku mieszkań na podstawie STATISTICA PPP

Współczynnik determinacji wielokrotnej wynosi 52%, zatem zmienne uwzględnione w regresji determinują zmianę ceny w 52%, a pozostałe 48% zmiany ceny mieszkania zależy od czynników nieuwzględnionych. W tym od przypadkowych wahań cen.

Każdy ze współczynników zmiennej pokazuje, o ile zmieni się cena mieszkania (przy pozostałych czynnikach niezmienionych), jeśli ta zmienna zmieni się o jeden. Na przykład, gdy całkowita powierzchnia zmieni się o 1 m2. m, cena mieszkania zmieni się średnio o 0,791 USD, a jeśli mieszkanie przesunie się o 1 km od centrum miasta, cena mieszkania spadnie średnio o 0,596 USD. itp. Zmienne fikcyjne (ostatnie 5) pokazują, jak bardzo zmieni się średnia cena mieszkania, jeśli przejdziemy z jednego poziomu tej zmiennej na drugi. I tak na przykład, jeśli dom jest murowany, to mieszkanie w nim kosztuje średnio 3104 USD. Czyli drożej niż tyle samo w domu z paneli, a obecność telefonu w mieszkaniu podnosi jego cenę średnio o 1493 USD. tj. itp.

Na podstawie współczynników  można wyciągnąć następujące wnioski. Największy współczynnik , równy 0,514, jest współczynnikiem dla zmiennej „powierzchnia całkowita”, dlatego przede wszystkim cena mieszkania kształtuje się pod wpływem jego powierzchni całkowitej. Kolejnym czynnikiem wpływającym na zmianę ceny mieszkania jest odległość do centrum miasta, następnie materiał, z którego zbudowany jest dom, następnie powierzchnia kuchni itp.

W ekonometrii często stosuje się inne podejście do wyznaczania parametrów regresji wielokrotnej (2.13) przy wyłączonym współczynniku:

Podzielmy obie strony równania przez odchylenie standardowe wyjaśnianej zmiennej S Y i przedstaw go w postaci:

Podzielmy i pomnóżmy każdy wyraz przez odchylenie standardowe odpowiedniej zmiennej czynnikowej, aby przejść do zmiennych standardowych (wyśrodkowanych i znormalizowanych):

gdzie nowe zmienne są oznaczone jako

.

Wszystkie zmienne standaryzowane mają średnią wynoszącą zero i tę samą wariancję wynoszącą jeden.

Równanie regresji w postaci standardowej to:

Gdzie
- standaryzowane współczynniki regresji.

Standaryzowane współczynniki regresji różnią się od współczynników zwykłą, naturalną postać w tym sensie, że ich wartość nie zależy od skali pomiaru zmiennych objaśnianych i objaśniających modelu. Ponadto istnieje między nimi prosta zależność:

, (3.2)

co daje inny sposób obliczania współczynników według znanych wartości , wygodniej w przypadku np. dwuczynnikowego model regresji.

5.2. Normalny układ równań najmniejszych kwadratów w standaryzacji

zmienne

Okazuje się, że do obliczenia standaryzowanych współczynników regresji wystarczy znać parami współczynniki korelacji liniowej. Aby pokazać, jak to się robi, wykluczmy niewiadomą z normalnego układu równań najmniejszych kwadratów korzystając z pierwszego równania. Mnożąc pierwsze równanie przez (
) i dodając go wyraz po wyrazie do drugiego równania, otrzymujemy:

Zastąpienie wyrażeń w nawiasach oznaczeniami wariancji i kowariancji

Przepiszmy drugie równanie w formie dogodnej do dalszego uproszczenia:

Podzielmy obie strony tego równania przez odchylenie standardowe zmiennych S Y I ` S X 1 i podziel każdy wyraz i pomnóż przez odchylenie standardowe zmiennej odpowiadającej numerowi wyrazu:

Przedstawiamy charakterystykę liniowej zależności statystycznej:

i standaryzowane współczynniki regresji

,

otrzymujemy:

Po podobnych przekształceniach wszystkich pozostałych równań, normalny układ równań liniowych metody najmniejszych kwadratów (2.12) przyjmuje następującą, prostszą postać:

(3.3)

5.3. Standaryzowane opcje regresji

Standaryzowane współczynniki regresji wyznacza się w szczególnym przypadku modelu z dwoma czynnikami następny system równania:

(3.4)

Rozwiązując ten układ równań, znajdujemy:

, (3.5)

. (3.6)

Podstawiając znalezione wartości współczynników korelacji pary do równań (3.4) i (3.5), otrzymujemy I . Następnie, korzystając ze wzorów (3.2), łatwo jest obliczyć szacunki współczynników I , a następnie, jeśli to konieczne, obliczyć oszacowanie według formuły

6. Możliwości analizy ekonomicznej w oparciu o model wieloczynnikowy

6.1. Standaryzowane współczynniki regresji

Standaryzowane współczynniki regresji pokazują, ile odchyleń standardowych średnia zmienna objaśniana ulegnie zmianie Y, jeśli odpowiednia zmienna objaśniająca X I zmieni się o kwotę
jedno ze swoich odchyleń standardowych, przy jednoczesnym zachowaniu średniego poziomu wszystkich pozostałych czynników na niezmienionym poziomie.

Ze względu na fakt, że w regresji standardowej wszystkie zmienne są określone jako zmienne losowe wyśrodkowane i znormalizowane, współczynniki porównywalne ze sobą. Porównując je ze sobą, można uszeregować odpowiadające im czynniki X I poprzez siłę wpływu na zmienną objaśnianą Y. Jest to główna zaleta standaryzowanych współczynników regresji ze współczynników regresja w naturalna forma, które są ze sobą nieporównywalne.

Ta cecha standaryzowanych współczynników regresji umożliwia wykorzystanie najmniejszych istotne czynniki X I z wartościami ich przykładowych szacunków bliskimi zera . Decyzja o wyłączeniu ich z równania modelu regresji liniowej podejmowana jest po przetestowaniu hipotez statystycznych, że ich średnia wartość jest równa zeru.

Oszacowania nieznanych parametrów równania regresji wyznacza się metodą najmniejszych kwadratów. Istnieje jednak inny sposób oszacowania tych współczynników w przypadku wielokrotnej regresji liniowej. W tym celu konstruuje się równanie regresji wielokrotnej w standaryzowanej (znormalizowanej) skali. Oznacza to, że wszystkie zmienne biorące udział w modelu regresji są standaryzowane przy użyciu specjalnych formuł. Proces standaryzacji umożliwia ustalenie punktu odniesienia dla każdej zmiennej znormalizowanej na jej średnią wartość dla próby. W tym przypadku jednostką miary zmiennej standaryzowanej staje się jej odchylenie standardowe. Równanie regresji w znormalizowana skala:

gdzie , są zmiennymi standaryzowanymi;

Standaryzowane współczynniki regresji. Te. W procesie standaryzacji punktem odniesienia dla każdej znormalizowanej zmiennej jest jej średnia wartość próbna populacja. W tym przypadku za jednostkę miary zmiennej standaryzowanej przyjmuje się jej odchylenie standardowe σ . Pokazano współczynniki β, o ile sigma (odchylenia standardowe) zmieni się średni wynik w wyniku zmiany odpowiedniego współczynnika x I o jedną sigma, przy średnim poziomie pozostałych czynników na stałym poziomie. Stosując metodę najmniejszych kwadratów do równania regresji wielokrotnej w skali znormalizowanej, po odpowiednich przekształceniach otrzymujemy układ równań normalnych w postaci do wyznaczania współczynników znormalizowanych. regresji Współczynniki β wyznacza się metodą najmniejszych kwadratów z następującego układu równań, stosując metodę wyznacznikową:

Należy zauważyć, że wielkości r yx 1 i r xixj nazywane są współczynnikami par. korelacje i wyznaczane są za pomocą wzorów: r yx 1 = yxi średnia – y ср*хiср/ ǪхǪу; r xixj = хixj średnia – xi avg*xjcv/ǪхiǪxj. Rozwiązując układ wyznaczamy współczynniki standaryzowane. regresja. Porównując je ze sobą, można uszeregować czynniki według siły ich wpływu na wyniki. Jest to główna zaleta standaryzowanych współczynników regresji w porównaniu do współczynników. czysta regresja, które są ze sobą nieporównywalne. Aby oszacować parametry nieliniowy równania regresji wielokrotnej są najpierw konwertowane do postaci liniowej (poprzez zastąpienie zmiennych), a do znalezienia parametrów stosowana jest metoda najmniejszych kwadratów równanie liniowe regresja wielokrotna na zmiennych przekształconych. Na wszelki wypadek zależności wewnętrznie nieliniowe do estymacji parametrów konieczne jest zastosowanie nieliniowych metod optymalizacji. Standaryzowane współczynniki regresji βi są ze sobą porównywalne, co pozwala na uszeregowanie czynników według siły ich wpływu na wynik. Większy względny wpływ na zmianę zmiennej wynikowej y wywierana jest przez współczynnik odpowiadający większej wartości modułu współczynnika βi.W tym główna zaleta standaryzowanych współczynników regresji w przeciwieństwie do współczynników „czystej” regresji, które nie są ze sobą porównywalne.„czyste” współczynniki regresji bi z szansami βi opisane stosunkiem.



Nowość na stronie

>

Najpopularniejsze