Mājas Smaganas Kādas ir prasības regresijas analīzes modelī. Matemātiskās statistikas metodes

Kādas ir prasības regresijas analīzes modelī. Matemātiskās statistikas metodes

REZULTĀTU SECINĀJUMI

8.3.a tabula. Regresijas statistika
Regresijas statistika
Daudzskaitlis R 0,998364
R-kvadrāts 0,99673
Normalizēts R kvadrāts 0,996321
Standarta kļūda 0,42405
Novērojumi 10

Vispirms apsvērsim augšējā daļa 8.3a tabulā sniegtie aprēķini - regresijas statistika.

R kvadrāta vērtība, ko sauc arī par noteiktības mēru, raksturo iegūtās regresijas līnijas kvalitāti. Šo kvalitāti izsaka atbilstības pakāpe starp avota datiem un regresijas modeli (aprēķinātajiem datiem). Noteiktības mērs vienmēr ir intervālā.

Vairumā gadījumu R kvadrāta vērtība atrodas starp šīm vērtībām, ko sauc par galējām vērtībām, t.i. starp nulli un vienu.

Ja R kvadrāta vērtība ir tuvu vienam, tas nozīmē, ka konstruētais modelis izskaidro gandrīz visu attiecīgo mainīgo mainīgumu. Un otrādi, R kvadrāta vērtība tuvu nullei nozīmē, ka izveidotā modeļa kvalitāte ir slikta.

Mūsu piemērā noteiktības mērs ir 0,99673, kas norāda uz ļoti labu regresijas līnijas atbilstību sākotnējiem datiem.

Daudzskaitlis R- daudzkārtējais korelācijas koeficients R - izsaka neatkarīgo mainīgo (X) un atkarīgo mainīgo (Y) atkarības pakāpi.

Vairāki R ir vienādi ar kvadrātsakne no determinācijas koeficienta šis daudzums ņem vērtības diapazonā no nulles līdz vienam.

Vienkāršā lineārās regresijas analīzē vairāki R ir vienādi ar Pīrsona korelācijas koeficientu. Patiešām, daudzkārtējais R mūsu gadījumā ir vienāds ar Pīrsona korelācijas koeficientu no iepriekšējā piemēra (0, 998364).

8.3b tabula. Regresijas koeficienti
Likmes Standarta kļūda t-statistika
Y-krustojums 2,694545455 0,33176878 8,121757129
Mainīgais X 1 2,305454545 0,04668634 49,38177965
* Tiek nodrošināta saīsināta aprēķinu versija

Tagad apsveriet aprēķinu vidējo daļu, kas parādīta 8.3b tabulā. Šeit dots regresijas koeficients b (2,305454545) un nobīde pa ordinātu asi, t.i. konstante a (2,694545455).

Pamatojoties uz aprēķiniem, mēs varam uzrakstīt regresijas vienādojumu šādi:

Y= x*2,305454545+2,694545455

Attiecību virziens starp mainīgajiem tiek noteikts, pamatojoties uz pazīmēm (negatīvas vai pozitīvas) regresijas koeficienti(koeficients b).

Ja zīme plkst regresijas koeficients- pozitīvs, attiecības starp atkarīgo mainīgo un neatkarīgo mainīgo būs pozitīvas. Mūsu gadījumā regresijas koeficienta zīme ir pozitīva, līdz ar to arī sakarība ir pozitīva.

Ja zīme plkst regresijas koeficients- negatīvs, attiecības starp atkarīgo mainīgo un neatkarīgo mainīgo ir negatīvas (apgrieztas).

Tabulā 8.3c. Tiek parādīti atlikumu atvasināšanas rezultāti. Lai šie rezultāti tiktu parādīti pārskatā, palaižot rīku “Regresija”, ir jāaktivizē izvēles rūtiņa “Atlikumi”.

PĀRĒJO ATSAUKŠANA

8.3c tabula. Pārpalikumi
Novērošana Paredzēts Y Pārpalikumi Standarta atlikumi
1 9,610909091 -0,610909091 -1,528044662
2 7,305454545 -0,305454545 -0,764022331
3 11,91636364 0,083636364 0,209196591
4 14,22181818 0,778181818 1,946437843
5 16,52727273 0,472727273 1,182415512
6 18,83272727 0,167272727 0,418393181
7 21,13818182 -0,138181818 -0,34562915
8 23,44363636 -0,043636364 -0,109146047
9 25,74909091 -0,149090909 -0,372915662
10 28,05454545 -0,254545455 -0,636685276

Izmantojot šo atskaites daļu, mēs varam redzēt katra punkta novirzes no konstruētās regresijas taisnes. Lielākā absolūtā vērtība

Regresijas analīzes mērķis ir izmērīt attiecības starp atkarīgo mainīgo un vienu (pāru regresijas analīze) vai vairākiem (vairākiem) neatkarīgiem mainīgajiem. Neatkarīgos mainīgos sauc arī par faktoru, skaidrojošiem, noteicošajiem, regresoriem un prognozēšanas mainīgajiem.

Atkarīgo mainīgo dažreiz sauc par definēto, izskaidroto vai “atbildes” mainīgo. Regresijas analīzes ārkārtīgi plašā izmantošana empīriskajos pētījumos ir saistīta ne tikai ar to, ka tā ir ērts rīks hipotēžu pārbaudei. Regresija, īpaši daudzkārtēja regresija, ir efektīva metode modelēšana un prognozēšana.

Sāksim skaidrot darbības ar regresijas analīzi principus ar vienkāršāku – pāru metodi.

Pāru regresijas analīze

Pirmie soļi, izmantojot regresijas analīzi, būs gandrīz identiski tiem, ko veicām, aprēķinot korelācijas koeficientu. Trīs galvenie efektivitātes nosacījumi korelācijas analīze pēc Pīrsona metodes - mainīgo lielumu normālais sadalījums, mainīgo intervālu mērīšana, lineārā sakarība starp mainīgajiem - ir aktuāli arī daudzkārtējai regresijai. Attiecīgi pirmajā posmā tiek konstruēti izkliedes diagrammas, tiek veikta mainīgo statistiskā un aprakstošā analīze un tiek aprēķināta regresijas līnija. Tāpat kā korelācijas analīzes ietvaros, izmantojot metodi, tiek konstruētas regresijas līnijas mazākie kvadrāti.

Lai skaidrāk ilustrētu atšķirības starp abām datu analīzes metodēm, pievērsīsimies jau aplūkotajam piemēram ar mainīgajiem lielumiem “VMS atbalsts” un “lauku iedzīvotāju daļa”. Avota dati ir identiski. Izkliedes diagrammu atšķirība būs tāda, ka regresijas analīzē ir pareizi attēlot atkarīgo mainīgo - mūsu gadījumā “SPS atbalstu” uz Y ass, turpretim korelācijas analīzē tam nav nozīmes. Pēc novirzes notīrīšanas izkliedes diagramma izskatās šādi:

Regresijas analīzes pamatideja ir tāda, ka ir vispārējā tendence mainīgajiem - regresijas līnijas veidā - varat paredzēt atkarīgā mainīgā vērtību, ņemot vērā neatkarīgā lieluma vērtības.

Iedomāsimies parasto matemātisko lineārā funkcija. Jebkuru taisnu līniju Eiklīda telpā var aprakstīt ar formulu:

kur a ir konstante, kas nosaka nobīdi pa ordinātu asi; b ir koeficients, kas nosaka līnijas slīpuma leņķi.

Zinot slīpumu un konstanti, jūs varat aprēķināt (paredzēt) y vērtību jebkuram x.

Šis vienkāršākā funkcija un veidoja pamatu regresijas analīzes modelim ar atrunu, ka mēs neparedzēsim y vērtību precīzi, bet noteiktā robežās. ticamības intervāls, t.i. aptuveni.

Konstante ir regresijas līnijas un y ass krustpunkts (F-krustpunkts, statistikas paketēs parasti apzīmēts ar “pārtvērēju”). Mūsu piemērā ar balsošanu par Labējo spēku savienību tās noapaļotā vērtība būs 10,55. Leņķiskais koeficients b būs aptuveni -0,1 (tāpat kā korelācijas analīzē zīme parāda savienojuma veidu - tiešo vai apgriezto). Tādējādi iegūtajam modelim būs forma SP C = -0,1 x Sel. mums. + 10.55.

ATP = -0,10 x 47 + 10,55 = 5,63.

Atšķirību starp sākotnējo un prognozēto vērtību sauc par atlikumu (mēs jau esam saskārušies ar šo terminu, kas ir būtisks statistikai, analizējot ārkārtas tabulas). Tātad “Adigejas Republikas” gadījumā atlikums būs vienāds ar 3,92 - 5,63 = -1,71. Jo lielāka ir atlikuma modulārā vērtība, jo mazāk veiksmīgi tiek prognozēta vērtība.

Mēs aprēķinām prognozētās vērtības un atlikumus visiem gadījumiem:
Notiek Apsēdās. mums. Paldies

(oriģināls)

Paldies

(paredzēts)

Pārpalikumi
Adigejas Republika 47 3,92 5,63 -1,71 -
Altaja Republika 76 5,4 2,59 2,81
Baškortostānas Republika 36 6,04 6,78 -0,74
Burjatijas Republika 41 8,36 6,25 2,11
Dagestānas Republika 59 1,22 4,37 -3,15
Ingušijas Republika 59 0,38 4,37 3,99
utt.

Sākotnējo un paredzēto vērtību attiecības analīze kalpo, lai novērtētu iegūtā modeļa kvalitāti un tā prognozēšanas spēju. Viens no galvenajiem regresijas statistikas rādītājiem ir daudzkārtējais korelācijas koeficients R - korelācijas koeficients starp atkarīgā mainīgā sākotnējo un prognozēto vērtību. Pāru regresijas analīzē tas ir vienāds ar parasto Pīrsona korelācijas koeficientu starp atkarīgo un neatkarīgo mainīgo, mūsu gadījumā - 0,63. Lai jēgpilni interpretētu vairākus R, tas ir jāpārvērš determinācijas koeficientā. Tas tiek darīts tāpat kā korelācijas analīzē - ar kvadrātu. Determinācijas koeficients R kvadrātā (R 2) parāda atkarīgā mainīgā izmaiņu proporciju, ko izskaidro neatkarīgais(-ie) mainīgais(-i).

Mūsu gadījumā R 2 = 0,39 (0,63 2); tas nozīmē, ka mainīgais lielums “lauku iedzīvotāju daļa” izskaidro aptuveni 40% no mainīgā lieluma “VMS atbalsts”. Jo lielāks ir determinācijas koeficients, jo augstāka ir modeļa kvalitāte.

Vēl viens modeļa kvalitātes rādītājs ir aplēses standarta kļūda. Tas ir mērs, cik plaši punkti ir “izkliedēti” ap regresijas līniju. Intervālu mainīgo izplatības mērs ir standarta novirze. Attiecīgi aplēses standartkļūda ir atlikumu sadalījuma standartnovirze. Jo augstāka ir tā vērtība, jo lielāka ir izkliede un sliktāks modelis. Mūsu gadījumā standarta kļūda ir 2,18. Tieši ar šo summu mūsu modelis “vidēji kļūdīsies”, prognozējot mainīgā “VPS atbalsts” vērtību.

Regresijas statistika ietver arī dispersijas analīzi. Ar tā palīdzību noskaidrojam: 1) kādu atkarīgā mainīgā variācijas (dispersijas) proporciju izskaidro neatkarīgais mainīgais; 2) kādu daļu no atkarīgā mainīgā dispersijas veido atlikumi (neizskaidrotā daļa); 3) kāda ir šo divu lielumu attiecība (/"-ratio). Izkliedes statistika ir īpaši svarīga izlases pētījumi- tas parāda, cik iespējams, ka pastāv saistība starp neatkarīgajiem un atkarīgajiem mainīgajiem populācija. Tomēr pat nepārtrauktai izpētei (kā mūsu piemērā), pētot rezultātus dispersijas analīze nav lietderīgi. Šajā gadījumā viņi pārbauda, ​​vai identificēto statistisko modeli rada nejaušu apstākļu sakritība, cik tas ir raksturīgs apstākļu kopumam, kurā atrodas pētāmā populācija, t.i. nosaka nevis kādai lielākai vispārējai populācijai iegūtā rezultāta patiesumu, bet gan tā regularitātes pakāpi un brīvību no nejaušām ietekmēm.

Mūsu gadījumā ANOVA statistika ir šāda:

SS df JAUNKUNDZE F nozīmē
Regress. 258,77 1,00 258,77 54,29 0.000000001
Atlikums 395,59 83,00 L,11
Kopā 654,36

F koeficients 54,29 ir nozīmīgs 0,0000000001 līmenī. Attiecīgi mēs varam droši noraidīt nulles hipotēzi (ka atklātās attiecības ir nejaušas).

t kritērijs pilda līdzīgu funkciju, bet attiecībā pret regresijas koeficientiem (leņķiskais un F-krustpunkts). Izmantojot / kritēriju, mēs pārbaudām hipotēzi, ka vispārējā populācijā regresijas koeficienti ir vienādi ar nulli. Mūsu gadījumā mēs atkal varam pārliecinoši noraidīt nulles hipotēzi.

Daudzkārtēja regresijas analīze

Modelis daudzkārtēja regresija gandrīz identisks pāra regresijas modelim; vienīgā atšķirība ir tā, ka lineārajā funkcijā secīgi tiek iekļauti vairāki neatkarīgi mainīgie:

Y = b1X1 + b2X2 + …+ bpXp + a.

Ja ir vairāk nekā divi neatkarīgi mainīgie, mēs nevaram iegūt vizuālu priekšstatu par to saistību šajā ziņā, daudzkārtēja regresija ir mazāk “vizuāla” nekā regresija pa pāriem. Ja jums ir divi neatkarīgi mainīgie, var būt noderīgi parādīt datus 3D izkliedes diagrammā. Profesionālās statistikas programmatūras pakotnēs (piemēram, Statistica) ir iespēja pagriezt trīsdimensiju diagrammu, kas ļauj vizuāli labi attēlot datu struktūru.

Strādājot ar vairākkārtēju regresiju, atšķirībā no pāru regresijas, ir jānosaka analīzes algoritms. Standarta algoritms ietver visus pieejamos prognozētājus galīgajā regresijas modelī. Soli pa solim algoritms ietver neatkarīgu mainīgo lielumu secīgu iekļaušanu (izslēgšanu), pamatojoties uz to skaidrojošo “svaru”. Pakāpeniskā metode ir laba, ja ir daudz neatkarīgu mainīgo; tas "attīra" modeli no atklāti vājiem prognozētājiem, padarot to kompaktāku un kodolīgāku.

Papildu nosacījums daudzkārtējas regresijas pareizībai (kopā ar intervālu, normalitāti un linearitāti) ir multikolinearitātes trūkums - spēcīgas korelācijas klātbūtne starp neatkarīgiem mainīgajiem.

Vairāku regresijas statistikas interpretācija ietver visus elementus, ko mēs apsvērām pāru regresijas gadījumā. Turklāt daudzkārtējas regresijas analīzes statistikai ir arī citi svarīgi komponenti.

Mēs ilustrēsim darbu ar daudzkārtēju regresiju, izmantojot hipotēžu pārbaudes piemēru, kas izskaidro vēlēšanu aktivitātes līmeņa atšķirības Krievijas reģionos. Īpaši empīriski pētījumi liecina, ka vēlētāju aktivitāti ietekmē:

Nacionālais faktors (mainīgais lielums “Krievijas iedzīvotāji”; tiek operēts kā Krievijas iedzīvotāju īpatsvars Krievijas Federācijas veidojošajās vienībās). Tiek pieļauts, ka Krievijas iedzīvotāju īpatsvara pieaugums noved pie vēlētāju aktivitātes samazināšanās;

Urbanizācijas faktors (mainīgs " pilsētu iedzīvotāji"; operacionalizēts kā pilsētu iedzīvotāju īpatsvars Krievijas Federācijas veidojošajās vienībās, mēs jau esam strādājuši ar šo faktoru korelācijas analīzes ietvaros; Tiek pieļauts, ka pilsētu iedzīvotāju īpatsvara pieaugums izraisa arī vēlētāju aktivitātes samazināšanos.

Atkarīgais mainīgais – “vēlēšanu aktivitātes intensitāte” (“aktīvais”) tiek izmantots, izmantojot vidējos datus par vēlētāju aktivitāti pa reģioniem federālajās vēlēšanās no 1995. līdz 2003. gadam. Sākotnējā datu tabula diviem neatkarīgiem un vienam atkarīgajam mainīgajam būs šāda:

Notiek Mainīgie lielumi
Aktīvi. Gor. mums. Rus. mums.
Adigejas Republika 64,92 53 68
Altaja Republika 68,60 24 60
Burjatijas Republika 60,75 59 70
Dagestānas Republika 79,92 41 9
Ingušijas Republika 75,05 41 23
Kalmikijas Republika 68,52 39 37
Karačajas-Čerkesas Republika 66,68 44 42
Karēlijas Republika 61,70 73 73
Komi Republika 59,60 74 57
Mari El Republika 65,19 62 47

utt. (pēc emisiju attīrīšanas paliek 83 no 88 gadījumiem)

Statistika, kas raksturo modeļa kvalitāti:

1. Vairāki R = 0,62; L-kvadrāts = 0,38. Līdz ar to nacionālais faktors un urbanizācijas faktors kopā izskaidro aptuveni 38% no “vēlēšanu aktivitātes” mainīgā lieluma svārstībām.

2. Vidēja kļūda ir 3.38. Tieši šādi “vidēji nepareizs” ir konstruētais modelis, prognozējot aktivitāšu līmeni.

3. Izskaidrotās un neizskaidrojamās variācijas /l attiecība ir 25,2 0,000000003 līmenī. Nulles hipotēze par identificēto attiecību nejaušību tiek noraidīta.

4. Kritērijs / mainīgo “pilsētu iedzīvotāji” un “Krievijas iedzīvotāji” konstantajiem un regresijas koeficientiem ir nozīmīgs 0,0000001 līmenī; attiecīgi 0,00005 un 0,007. Nulles hipotēze, ka koeficienti ir nejauši, tiek noraidīta.

Papildu noderīga statistika, lai analizētu attiecības starp atkarīgā mainīgā sākotnējām un prognozētajām vērtībām, ir Mahalanobisa attālums un Kuka attālums. Pirmais ir gadījuma unikalitātes mērs (parāda, cik liela ir visu neatkarīgo mainīgo vērtību kombinācija Šis gadījums atšķiras no vidējā visiem neatkarīgiem mainīgajiem vienlaicīgi). Otrais ir lietas ietekmes mērs. Dažādiem novērojumiem ir atšķirīga ietekme uz regresijas līnijas slīpumu, un, lai tos salīdzinātu ar šo rādītāju, var izmantot Kuka attālumu. Tas var būt noderīgi, tīrot novirzes (novirzi var uzskatīt par pārāk ietekmīgu gadījumu).

Mūsu piemērā unikāli un ietekmīgi gadījumi ietver Dagestānu.

Notiek Oriģināls

vērtības

Predska

vērtības

Pārpalikumi Attālums

Mahalanobis

Attālums
Adigeja 64,92 66,33 -1,40 0,69 0,00
Altaja Republika 68,60 69.91 -1,31 6,80 0,01
Burjatijas Republika 60,75 65,56 -4,81 0,23 0,01
Dagestānas Republika 79,92 71,01 8,91 10,57 0,44
Ingušijas Republika 75,05 70,21 4,84 6,73 0,08
Kalmikijas Republika 68,52 69,59 -1,07 4,20 0,00

Pašam regresijas modelim ir šādi parametri: Y-krustošanās (konstante) = 75,99; b (horizontāli) = -0,1; Kommersant (krievu nas.) = -0,06. Galīgā formula.

Cēloņsakarību raksturojums

Cēloņu un seku attiecības- tā ir saikne starp parādībām un procesiem, kad izmaiņas vienā no tām - cēlonis - noved pie izmaiņām otrā - sekas.

Pazīmes pēc to nozīmes attiecību izpētē iedala divās klasēs.

Tiek sauktas pazīmes, kas izraisa izmaiņas citās saistītajās pazīmēs faktoriāls (vai faktori).

Pazīmes, kas mainās faktoru pazīmju ietekmē, ir efektīvs.

Izšķir šādas komunikācijas formas: funkcionālā un stohastiskā. Funkcionāls ir sakarība, kurā noteikta faktora raksturlieluma vērtība atbilst vienai un tikai vienai rezultējošās pazīmes vērtībai. Funkcionālā saikne izpaužas visos novērošanas gadījumos un katrai konkrētai pētāmās populācijas vienībai.

Funkcionālās attiecības var attēlot ar šādu vienādojumu:
y i = f(x i), kur: y i - rezultējošā zīme; f(x i) - zināma rezultējošā un faktora raksturlielumu savienojuma funkcija; x i - faktora zīme.
Reālajā dabā funkcionālu savienojumu nav. Tās ir tikai abstrakcijas, noderīgas parādību analīzē, bet vienkāršo realitāti.

Stohastisks (statistisks vai nejaušs)savienojums attēlo attiecības starp lielumiem, kuros viens no tiem reaģē uz cita daudzuma vai citu lielumu izmaiņām, mainot sadalījuma likumu. Citiem vārdiem sakot, ar šo savienojumu dažādas nozīmes viens mainīgais atbilst cita mainīgā dažādiem sadalījumiem. Tas ir saistīts ar faktu, ka atkarīgo mainīgo papildus aplūkotajiem neatkarīgiem ietekmē vairāki neuzskaitīti vai nekontrolēti nejaušības faktori, kā arī dažas neizbēgamas kļūdas mainīgo lielumu mērījumos. Sakarā ar to, ka atkarīgā mainīgā vērtības ir pakļautas nejaušai izkliedei, tās nevar paredzēt pietiekami precīzi, bet var norādīt tikai ar noteiktu varbūtību.

Jo īpaši Y un X stohastiskās atkarības neskaidrības dēļ interesē atkarības shēma, kas vidēji aprēķināta virs x, t.i. vidējās vērtības izmaiņu modelis - nosacītā matemātiskā cerība Mx(Y) (gadījuma lieluma Y matemātiskā cerība, kas atrasta ar nosacījumu, ka mainīgais X iegūst vērtību x) atkarībā no x.

Īpašs stohastiskās komunikācijas gadījums ir korelācijas komunikācija. Korelācija(no lat. korelācija- korelācija, attiecības). Termina tieša definīcija korelācija - stohastisks, iespējams, iespējams savienojums starp diviem (pāris) vai vairākiem (vairākiem) nejaušie mainīgie.

Par korelācijas atkarību starp diviem mainīgajiem sauc arī šo mainīgo statistisko sakarību, kurā katra viena mainīgā vērtība atbilst noteiktai vidējai vērtībai, t.i. nosacītā matemātiskā cerība ir atšķirīga. Korelācijas atkarība ir īpašs stohastiskās atkarības gadījums, kurā faktoru raksturlielumu vērtību izmaiņas (x 1 x 2 ..., x n) rada izmaiņas iegūtā raksturlieluma vidējā vērtībā.



Ir ierasts atšķirt šādus korelācijas veidus:

1. Pāru korelācija – saikne starp diviem raksturlielumiem (rezultatīvais un faktors jeb divfaktors).

2. Daļēja korelācija - rezultējošā un viena faktora raksturlielumu atkarība ar citu pētījumā iekļauto faktoru raksturlielumu fiksētu vērtību.

3. Daudzkārtēja korelācija - rezultējošā un divu vai vairāku pētījumā iekļauto faktoru raksturlielumu atkarība.

Regresijas analīzes mērķis

Cēloņu un seku attiecību attēlošanas analītiskā forma ir regresijas modeļi. Regresijas analīzes zinātniskā pamatotība un popularitāte padara to par vienu no galvenajiem matemātiskajiem instrumentiem pētāmās parādības modelēšanai. Šo metodi izmanto, lai izlīdzinātu eksperimentālos datus un iegūtu kvantitatīvus salīdzinošās ietekmes novērtējumus dažādi faktori uz iznākuma mainīgo.

Regresijas analīze ir lai noteiktu attiecību analītisko izteiksmi, kurā vienas vērtības (atkarīgā mainīgā vai rezultējošā raksturlieluma) izmaiņas ir saistītas ar vienas vai vairāku faktoru ietekmi neatkarīgie daudzumi(faktori vai prognozētāji), un visu pārējo faktoru kopa, kas arī ietekmē atkarīgo vērtību, tiek ņemta par nemainīgām un vidējām vērtībām.

Regresijas analīzes mērķi:

Rezultējošās pazīmes y nosacītās vidējās vērtības funkcionālās atkarības novērtējums no faktoru faktoriem (x 1, x 2, ..., x n);

Atkarīgā mainīgā vērtības prognozēšana, izmantojot neatkarīgo(-s) mainīgo(-us).

Atsevišķu neatkarīgo mainīgo devuma noteikšana atkarīgā mainīgā variācijā.

Regresijas analīzi nevar izmantot, lai noteiktu, vai pastāv saistība starp mainīgajiem lielumiem, jo ​​šādas attiecības esamība ir priekšnoteikums analīzes piemērošanai.

Regresijas analīzē jau iepriekš tiek pieņemts, ka pastāv cēloņsakarības starp iegūto (U) un faktoru raksturlielumiem x 1, x 2 ..., x n.

Funkcija , op Indikatora noteicošo atkarību no parametriem sauc par regresijas vienādojumu (funkciju) 1 . Regresijas vienādojums parāda atkarīgā mainīgā paredzamo vērtību, ņemot vērā noteiktas neatkarīgo mainīgo vērtības.
Atkarībā no modelī iekļauto faktoru skaita X modeļus iedala viena faktora (pāru regresijas modelis) un daudzfaktoru (vairāku regresijas modelis). Atkarībā no funkcijas veida modeļus iedala lineārajos un nelineārajos.

Pāru regresijas modelis

Neņemtu nejaušu faktoru un cēloņu ietekmē atsevišķi novērojumi y lielākā vai mazākā mērā novirzīsies no regresijas funkcijas f(x). Šajā gadījumā attiecību vienādojumu starp diviem mainīgajiem (pāru regresijas modelis) var attēlot šādi:

Y=f(X) + ɛ,

kur ɛ ir nejaušs lielums, kas raksturo novirzi no regresijas funkcijas. Šo mainīgo sauc par traucējumu vai traucējumu (atlikumu vai kļūdu). Tādējādi regresijas modelī atkarīgais mainīgais Y ir kāda funkcija f(X) līdz nejaušiem traucējumiem ɛ.

Apskatīsim klasisko lineāro pāru regresijas modeli (CLMPR). Viņa izskatās kā

y i =β 0 + β 1 x i +ɛ i (i = 1,2, …, n),(1)

Kur y i– izskaidrots (rezultējošais, atkarīgais, endogēnais mainīgais); x i– skaidrojošais (prognozējošais, faktors, eksogēnais) mainīgais; β 0, β 1– skaitliskie koeficienti; ɛi– nejauša (stohastiskā) sastāvdaļa vai kļūda.

KLMPR pamatnosacījumi (priekšnosacījumi, hipotēzes):

1) x i- deterministisks (nejaušs) lielums, un tiek pieņemts, ka starp vērtībām x i - ne visas ir vienādas.

2) Paredzamā vērtība(vidējās vērtības) traucējumi ɛi vienāds ar nulli:

М[ɛ i ]=0 (i=1,2, …, n).

3) Traucējumu izkliede ir nemainīga jebkurām i vērtībām (homoscedasticitātes stāvoklis):

D[ɛi]=σ 2 (i=1,2, …, n).

4) Traucējumi dažādiem novērojumiem nav savstarpēji saistīti:

cov[ɛ i , ɛ j ]=M[ɛ i , ɛ j ]=0 i≠j,

kur cov[ɛ i , ɛ j ] ir kovariācijas koeficients (korelācijas moments).

5) Traucējumi ir parasti sadalīti nejauši mainīgie ar nulles vidējo un dispersiju σ 2:

ɛ i ≈ N(0, σ 2).

Lai iegūtu regresijas vienādojumu, pietiek ar pirmajām četrām premisām. Prasība izpildīt piekto priekšnoteikumu ir nepieciešama, lai novērtētu regresijas vienādojuma un tā parametru precizitāti.

komentēt: Koncentrēšanās uz lineārajām attiecībām ir izskaidrojama ar ierobežoto mainīgo variāciju un to, ka vairumā gadījumu nelineāras attiecību formas tiek pārveidotas (logaritma vai mainīgo aizstāšanas veidā) lineārā formā, lai veiktu aprēķinus.

Tradicionālā metode mazākie kvadrāti (LS)

Modeļa novērtējums no izlases ir vienādojums

ŷ i = a 0 + a 1 x i(i=1,2, …, n), (2)

kur ŷ i – no regresijas vienādojuma iegūtās atkarīgā mainīgā teorētiskās (tuvinātās) vērtības; a 0, a 1 - regresijas vienādojuma koeficienti (parametri) (attiecīgi koeficientu β 0, β 1 izlases aplēses).

Saskaņā ar mazākajiem kvadrātiem nezināmie parametri a 0 , a 1 ir izvēlēti tā, lai vērtību ŷ i kvadrātu noviržu summa no empīriskajām vērtībām y i (atlikušā kvadrātu summa) būtu minimāla:

Q e =∑e i 2 = ∑(y i – ŷ i) 2 = ∑(yi – (a 0 + a 1 x i)) 2 → min, (3)

kur e i = y i - ŷ i – traucējumu ɛ i vai regresijas atlikuma parauga novērtējums.

Problēma ir saistīta ar tādu parametru vērtību a 0 un a 1 atrašanu, kurām tiek izmantota funkcija Q e mazākā vērtība. Ņemiet vērā, ka funkcija Q e = Q e (a 0 , a 1) ir divu mainīgo a 0 un a 1 funkcija, līdz mēs atradām un pēc tam fiksējām to “labākās” (mazāko kvadrātu metodes izpratnē) vērtības a x i. , y i ir nemainīgi skaitļi, kas atrasti eksperimentāli.

Nepieciešamie nosacījumi Ekstrēmas (3) tiek atrastas, pielīdzinot šīs divu mainīgo funkcijas daļējos atvasinājumus ar nulli. Rezultātā mēs iegūstam divu sistēmu lineārie vienādojumi, ko sauc par normālo vienādojumu sistēmu:

(4)

Koeficients a 1 ir y parauga regresijas koeficients uz x, kas parāda, cik vienību vidēji mainās mainīgais y, kad mainīgais x mainās par vienu mērvienību, tas ir, y variāciju uz x variācijas vienību. Pierakstīties a 1 norāda šo izmaiņu virzienu. Koeficients a 0 – pārvietojums, saskaņā ar (2) vienāds ar vērtībuŷ i, ja x=0, un tam var nebūt jēgpilnas interpretācijas. Šī iemesla dēļ atkarīgo mainīgo dažreiz sauc par atbildi.

Regresijas koeficientu aprēķinu statistiskās īpašības:

Koeficienta aprēķini a 0 , a 1 ir objektīvi;

Aplēšu dispersijas a 0 , a 1 samazinās (aplēšu precizitāte palielinās), palielinoties izlases lielumam n;

Slīpuma a 1 novērtējuma dispersija samazinās, palielinoties, un tāpēc ieteicams izvēlēties x i tā, lai to izkliede ap vidējo vērtību būtu liela;

Ja x¯ > 0 (kas rada vislielāko interesi), pastāv negatīva statistiskā sakarība starp 0 un 1 (1 palielinājums noved pie 0 samazināšanās).

Regresijas analīzes galvenā iezīme: ar tās palīdzību var iegūt konkrētu informāciju par to, kāda forma un raksturs ir attiecībām starp pētāmajiem mainīgajiem.

Regresijas analīzes posmu secība

Īsi apskatīsim regresijas analīzes posmus.

    Problēmas formulējums. Šajā posmā tiek veidotas sākotnējās hipotēzes par pētāmo parādību atkarību.

    Atkarīgo un neatkarīgo (skaidrojošo) mainīgo definīcija.

    Statistikas datu vākšana. Dati ir jāapkopo par katru no regresijas modelī iekļautajiem mainīgajiem.

    Hipotēzes formulēšana par savienojuma formu (vienkārša vai daudzkārtēja, lineāra vai nelineāra).

    Definīcija regresijas funkcijas (sastāv no regresijas vienādojuma parametru skaitlisko vērtību aprēķināšanas)

    Regresijas analīzes precizitātes novērtēšana.

    Iegūto rezultātu interpretācija. Iegūtie regresijas analīzes rezultāti tiek salīdzināti ar sākotnējām hipotēzēm. Tiek vērtēta iegūto rezultātu pareizība un ticamība.

    Prognoze nezināmas vērtības atkarīgais mainīgais.

Izmantojot regresijas analīzi, ir iespējams atrisināt prognozēšanas un klasifikācijas problēmu. Paredzamās vērtības tiek aprēķinātas, regresijas vienādojumā aizstājot skaidrojošo mainīgo vērtības. Klasifikācijas problēma tiek atrisināta šādi: regresijas taisne sadala visu objektu kopu divās klasēs, un tā kopas daļa, kurā funkcijas vērtība ir lielāka par nulli, pieder vienai klasei, bet daļa, kurā tā ir mazāka par nulli. pieder citai klasei.

Regresijas analīzes problēmas

Apskatīsim galvenos regresijas analīzes uzdevumus: atkarības formas noteikšana, noteikšana regresijas funkcijas, atkarīgā mainīgā nezināmu vērtību novērtējums.

Atkarības formas noteikšana.

Mainīgo attiecību raksturs un forma var veidot šādus regresijas veidus:

    pozitīvs lineārā regresija(izteikts vienmērīgā funkcijas pieaugumā);

    pozitīva vienmērīgi pieaugoša regresija;

    pozitīva vienmērīgi pieaugoša regresija;

    negatīva lineāra regresija (izteikta kā vienmērīgs funkcijas samazinājums);

    negatīva vienmērīgi paātrināta samazinoša regresija;

    negatīva vienmērīgi samazinoša regresija.

Tomēr aprakstītās šķirnes parasti nav atrodamas tīrā formā, bet gan kombinācijā savā starpā. Šajā gadījumā mēs runājam par kombinētām regresijas formām.

Regresijas funkcijas definīcija.

Otrais uzdevums ir noteikt galveno faktoru vai cēloņu ietekmi uz atkarīgo mainīgo, ja citas lietas ir vienādas un izslēdzot nejaušo elementu ietekmi uz atkarīgo mainīgo. Regresijas funkcija ir definēts viena vai cita veida matemātiska vienādojuma veidā.

Atkarīgā mainīgā nezināmo vērtību novērtējums.

Šīs problēmas risinājums ir viena no tālāk norādīto veidu problēmas atrisināšana.

    Atkarīgā mainīgā lieluma vērtību novērtēšana sākotnējo datu aplūkotajā intervālā, t.i. trūkstošās vērtības; šajā gadījumā interpolācijas problēma ir atrisināta.

    Atkarīgā mainīgā nākotnes vērtību novērtējums, t.i. atrast vērtības ārpus norādītā avota datu intervāla; šajā gadījumā ekstrapolācijas problēma ir atrisināta.

Abas problēmas tiek atrisinātas, regresijas vienādojumā aizstājot atrasto parametru aplēses neatkarīgo mainīgo vērtībām. Vienādojuma atrisināšanas rezultāts ir mērķa (atkarīgā) mainīgā vērtības novērtējums.

Apskatīsim dažus pieņēmumus, uz kuriem balstās regresijas analīze.

Linearitātes pieņēmums, t.i. tiek pieņemts, ka sakarība starp aplūkotajiem mainīgajiem ir lineāra. Tātad šajā piemērā mēs uzzīmējām izkliedes diagrammu un varējām redzēt skaidru lineāru sakarību. Ja mainīgo lielumu izkliedes diagrammā mēs redzam skaidru lineāras attiecības neesamību, t.i. Ja pastāv nelineāra sakarība, jāizmanto nelineārās analīzes metodes.

Normalitātes pieņēmums pārpalikumi. Tas pieņem, ka starpības sadalījums starp prognozētajām un novērotajām vērtībām ir normāls. Lai vizuāli noteiktu sadalījuma raksturu, varat izmantot histogrammas pārpalikumi.

Izmantojot regresijas analīzi, jāņem vērā tās galvenais ierobežojums. Tas sastāv no tā, ka regresijas analīze ļauj atklāt tikai atkarības, nevis savienojumus, kas ir šo atkarību pamatā.

Regresijas analīze ļauj novērtēt attiecības stiprumu starp mainīgajiem, aprēķinot mainīgā aplēsto vērtību, pamatojoties uz vairākām zināmām vērtībām.

Regresijas vienādojums.

Regresijas vienādojums izskatās šādi: Y=a+b*X

Izmantojot šo vienādojumu, mainīgais Y tiek izteikts kā konstante a un taisnes (vai slīpuma) b slīpums, kas reizināts ar mainīgā X vērtību. Konstanti a sauc arī par pārtveršanas terminu, un slīpums ir regresijas koeficients vai B koeficients.

Vairumā gadījumu (ja ne vienmēr) novērojumu izkliede attiecībā pret regresijas līniju ir noteikta.

Atlikums ir viena punkta (novērojuma) novirze no regresijas līnijas (paredzamā vērtība).

Lai atrisinātu regresijas analīzes problēmu programmā MS Excel, izvēlnē atlasiet apkalpošana"Analīzes pakete" un regresijas analīzes rīks. Mēs iestatām ievades intervālus X un Y. Ievades intervāls Y ir atkarīgo analizēto datu diapazons, tajā jāietver viena kolonna. Ievades intervāls X ir neatkarīgo datu diapazons, kas jāanalizē. Ievades diapazonu skaits nedrīkst pārsniegt 16.

Procedūras izvadē izvades diapazonā mēs iegūstam atskaiti, kas norādīta tabula 8.3a-8,3 v.

REZULTĀTU SECINĀJUMI

8.3.a tabula. Regresijas statistika

Regresijas statistika

Daudzskaitlis R

R-kvadrāts

Normalizēts R kvadrāts

Standarta kļūda

Novērojumi

Vispirms apskatīsim šeit sniegto aprēķinu augšējo daļu tabula 8.3a, - regresijas statistika.

Lielums R-kvadrāts, ko sauc arī par noteiktības mēru, raksturo iegūtās regresijas līnijas kvalitāti. Šo kvalitāti izsaka atbilstības pakāpe starp avota datiem un regresijas modeli (aprēķinātajiem datiem). Noteiktības mērs vienmēr ir intervālā.

Vairumā gadījumu vērtība R-kvadrāts ir starp šīm vērtībām, ko sauc par ekstrēmām, t.i. starp nulli un vienu.

Ja vērtība R-kvadrāts tuvu vienotībai, tas nozīmē, ka konstruētais modelis izskaidro gandrīz visu atbilstošo mainīgo mainīgumu. Un otrādi, nozīme R-kvadrāts, tuvu nullei, nozīmē konstruētā modeļa sliktu kvalitāti.

Mūsu piemērā noteiktības mērs ir 0,99673, kas norāda uz ļoti labu regresijas līnijas atbilstību sākotnējiem datiem.

daudzskaitlī R - daudzkārtējais korelācijas koeficients R - izsaka neatkarīgo mainīgo (X) un atkarīgo mainīgo (Y) atkarības pakāpi.

Daudzskaitlis R ir vienāds ar determinācijas koeficienta kvadrātsakni, šis lielums ņem vērtības diapazonā no nulles līdz vienam.

Vienkāršā lineārās regresijas analīzē daudzskaitlī R vienāds ar Pīrsona korelācijas koeficientu. Tiešām, daudzskaitlī R mūsu gadījumā tas ir vienāds ar Pīrsona korelācijas koeficientu no iepriekšējā piemēra (0,998364).

8.3b tabula. Regresijas koeficienti

Likmes

Standarta kļūda

t-statistika

Y-krustojums

Mainīgais X 1

* Tiek nodrošināta saīsināta aprēķinu versija

Tagad apsveriet šeit sniegto aprēķinu vidējo daļu tabula 8.3b. Šeit dots regresijas koeficients b (2,305454545) un nobīde pa ordinātu asi, t.i. konstante a (2,694545455).

Pamatojoties uz aprēķiniem, mēs varam uzrakstīt regresijas vienādojumu šādi:

Y= x*2,305454545+2,694545455

Mainīgo attiecību virzienu nosaka, pamatojoties uz regresijas koeficientu (koeficients b) pazīmēm (negatīvas vai pozitīvas).

Ja regresijas koeficienta zīme ir pozitīva, attiecības starp atkarīgo mainīgo un neatkarīgo mainīgo būs pozitīvas. Mūsu gadījumā regresijas koeficienta zīme ir pozitīva, līdz ar to arī sakarība ir pozitīva.

Ja regresijas koeficienta zīme ir negatīva, attiecības starp atkarīgo un neatkarīgo mainīgo ir negatīvas (apgrieztas).

IN tabula 8.3c. tiek prezentēti izejas rezultāti pārpalikumi. Lai šie rezultāti tiktu parādīti pārskatā, palaižot rīku “Regresija”, ir jāaktivizē izvēles rūtiņa “Atlikumi”.

PĀRĒJO ATSAUKŠANA

8.3c tabula. Pārpalikumi

Novērošana

Paredzēts Y

Pārpalikumi

Standarta atlikumi

Izmantojot šo atskaites daļu, mēs varam redzēt katra punkta novirzes no konstruētās regresijas taisnes. Lielākā absolūtā vērtība atlikumu mūsu gadījumā - 0,778, mazākais - 0,043. Lai labāk interpretētu šos datus, mēs izmantosim sākotnējo datu grafiku un konstruēto regresijas līniju, kas parādīta rīsi. 8.3. Kā redzat, regresijas līnija ir diezgan precīzi “pielāgota” sākotnējo datu vērtībām.

Jāņem vērā, ka aplūkojamais piemērs ir diezgan vienkāršs un ne vienmēr ir iespējams kvalitatīvi izveidot lineāras regresijas taisni.

Rīsi. 8.3. Avota dati un regresijas līnija

Problēma par atkarīgā mainīgā nezināmo nākotnes vērtību aplēsēm, pamatojoties uz neatkarīgā mainīgā zināmajām vērtībām, ir palikusi neapskatīta, t.i. prognozēšanas problēma.

Izmantojot regresijas vienādojumu, prognozēšanas problēma tiek reducēta līdz vienādojuma Y= x*2,305454545+2,694545455 atrisināšanai ar zināmām x vērtībām. Tiek parādīti atkarīgā mainīgā Y prognozēšanas rezultāti sešus soļus uz priekšu tabulā 8.4.

8.4. tabula. Prognozēšanas mainīgā Y rezultāti

J (paredzēts)

Tādējādi, izmantojot regresijas analīzi programmā Microsoft Excel, mēs:

    izveidoja regresijas vienādojumu;

    noteikta atkarības forma un savienojuma virziens starp mainīgajiem - pozitīva lineārā regresija, kas izpaužas vienmērīgā funkcijas pieaugumā;

    noteica attiecību virzienu starp mainīgajiem lielumiem;

    novērtēja iegūtās regresijas līnijas kvalitāti;

    varēja redzēt aprēķināto datu novirzes no sākotnējās kopas datiem;

    atkarīgā mainīgā prognozētās nākotnes vērtības.

Ja regresijas funkcija definēts, interpretēts un pamatots, un regresijas analīzes precizitātes novērtējums atbilst prasībām, var uzskatīt, ka konstruētais modelis un prognozētās vērtības ir pietiekami uzticamas.

Šādā veidā iegūtās prognozētās vērtības ir vidējās vērtības, kuras var sagaidīt.

Šajā darbā mēs apskatījām galvenās īpašības aprakstošā statistika un starp tiem tādi jēdzieni kā vidējā vērtība,mediāna,maksimums,minimums un citas datu variācijas pazīmes.

Koncepcija tika arī īsi apspriesta emisijas. Aplūkotie raksturlielumi attiecas uz tā saukto izpētes datu analīzi, kuras secinājumi var attiekties nevis uz vispārējo populāciju, bet tikai uz datu izlasi. Izpētes datu analīze tiek izmantota, lai iegūtu primāros secinājumus un izvirzītu hipotēzes par populāciju.

Tika apspriesti arī korelācijas un regresijas analīzes pamati, to uzdevumi un praktiskās izmantošanas iespējas.

Regresijas analīzes metode tiek izmantota, lai noteiktu produktu tehniskos un ekonomiskos parametrus, kas pieder konkrētai parametru sērijai, lai izveidotu un izlīdzinātu vērtību attiecības. Šo metodi izmanto, lai analizētu un pamatotu to produktu līmeņa un cenu attiecības, kurām raksturīgs viens vai vairāki tehniski un ekonomiski parametri, kas atspoguļo galvenās patērētāja īpašības. Regresijas analīze ļauj atrast empīrisku formulu, kas apraksta cenas atkarību no produktu tehniskajiem un ekonomiskajiem parametriem:

P=f(X1X2,...,Xn),

kur P ir preces vienības cenas vērtība, rub.; (X1, X2, ... Xn) - izstrādājumu tehniskie un ekonomiskie parametri.

Regresijas analīzes metode - vismodernākā no izmantotajām normatīvi parametru metodēm - ir efektīva, veicot aprēķinus, pamatojoties uz mūsdienu informācijas tehnoloģijas un sistēmas. Tās pielietojums ietver šādas galvenās darbības:

  • izstrādājumu klasifikācijas parametrisko grupu noteikšana;
  • parametru izvēle, kas visvairāk ietekmē preces cenu;
  • cenu izmaiņu sakarības formas izvēle un pamatojums, mainoties parametriem;
  • normālo vienādojumu sistēmas konstruēšana un regresijas koeficientu aprēķināšana.

Pamata kvalifikācijas grupa produkti, kuru cena ir pakļauta izlīdzināšanai, ir parametru sērija, kuras ietvaros produktus var grupēt dažādos dizainos atkarībā no to pielietojuma, ekspluatācijas apstākļiem un prasībām u.c. Veidojot parametru sērijas, var izmantot automātiskās klasifikācijas metodes, kuras ļauj produktiem noteikt to viendabīgās grupas. Tehnisko un ekonomisko parametru izvēle tiek veikta, pamatojoties uz šādām pamatprasībām:

  • atlasītie parametri ietver parametrus, kas ierakstīti standartos un tehniskajiem nosacījumiem; papildus tehniskajiem parametriem (jauda, ​​kravnesība, ātrums u.c.) tiek izmantoti preču serializācijas rādītāji, sarežģītības koeficienti, unifikācija u.c.;
  • izvēlēto parametru kopumam ir pietiekami pilnībā jāraksturo sērijā iekļauto izstrādājumu dizains, tehnoloģiskās un ekspluatācijas īpašības, un tai ir jābūt diezgan ciešai korelācijai ar cenu;
  • parametri nedrīkst būt savstarpēji atkarīgi.

Lai atlasītu tehniskos un ekonomiskos parametrus, kas būtiski ietekmē cenu, tiek aprēķināta pāru korelācijas koeficientu matrica. Pamatojoties uz korelācijas koeficientu lielumu starp parametriem, var spriest par to saistību ciešumu. Tajā pašā laikā korelācija tuvu nullei parāda nenozīmīgu parametra ietekmi uz cenu. Galīgā tehnisko un ekonomisko parametru atlase tiek veikta pakāpeniskas regresijas analīzes procesā, izmantojot datortehnika un atbilstošās standarta programmas.

Cenu noteikšanas praksē tiek izmantota šāda funkciju kopa:

lineārs

P = ao + alXl + ... + antXn,

lineārā jauda

P = ao + a1X1 + ... + anXn + (an+1Xn) (an+1Xn) +... + (an+nXn2) (an+nXn2)

apgrieztais logaritms

P = a0 + a1: X1 + ... + an: Xn,

jauda

P = a0 (X1^a1) (X2^a2) .. (Xn^an)

indikatīvs

P = e^(a1+a1X1+...+anXn)

hiperbolisks

P = ao + a1:X1 + a2:X2 + ... + ap:Xn,

kur P ir cenu izlīdzināšana; X1 X2,..., Xn - sērijas izstrādājumu tehnisko un ekonomisko parametru vērtība; a0, a1 ..., аn - regresijas vienādojuma aprēķinātie koeficienti.

Praktiskajā darbā par cenu noteikšanu atkarībā no cenu un tehniski ekonomisko parametru attiecības formas var izmantot citus regresijas vienādojumus. Saiknes starp cenu un tehnisko un ekonomisko parametru kopumu funkcijas veidu var iestatīt iepriekš vai automātiski atlasīt datora apstrādes laikā. Cenas un parametru kopas korelācijas ciešumu novērtē pēc vērtības daudzkārtējs koeficients korelācijas. Tā tuvums vienam norāda uz ciešu saikni. Izmantojot regresijas vienādojumu, tiek iegūtas izlīdzinātas (aprēķinātas) cenas vērtības noteiktās parametru sērijas produktiem. Lai novērtētu izlīdzināšanas rezultātus, tiek aprēķinātas aprēķināto cenu vērtību novirzes no faktiskajām relatīvās vērtības:

Tsr = Rf - Rr: R x 100

kur Рф, Рр - faktiskās un aprēķinātās cenas.

CR vērtība nedrīkst pārsniegt 8-10%. Ja aprēķinātās vērtības ievērojami atšķiras no faktiskajām, ir nepieciešams izpētīt:

  • parametru sērijas veidošanas pareizība, jo tajā var būt produkti, kas pēc saviem parametriem krasi atšķiras no citiem sērijas produktiem. Tie ir jāizslēdz;
  • pareiza tehnisko un ekonomisko parametru izvēle. Iespējama parametru kopa, kas vāji korelē ar cenu. Šajā gadījumā ir jāturpina parametru meklēšana un atlase.

Regresijas analīzes veikšanas, nezināmo vienādojuma parametru atrašanas un iegūto rezultātu ekonomiskā novērtējuma procedūra un metodika tiek veikta atbilstoši matemātiskās statistikas prasībām.



Jaunums vietnē

>

Populārākais